Microsoft 365 Copilot Çok Kapsamlı Güvenlik İncelemesi: Hata ve Sonuçlar Üzerine
Microsoft 365 Copilot güvenlik incelemesi: hata sonuçları, kapsamlı analiz ve güvenlik önerileriyle güçlü uyum ve koruma sunuyor.
Microsoft 365 Copilot Chat, iş dünyasında güvenli yapay zeka çözümleri olarak lanse edilse de son yaşanan olaylar bu iddiaları yeniden gündeme taşıdı. Yetkililer, hatanın taslak ve gönderilmiş iletiler klasörlerindeki içeriklerin bazı kullanıcılar tarafından görünmesine yol açtığını açıkladı. Bu iletiler arasında bazıları, gizli olarak işaretlenen mesajları da içeriyordu.
Erişim yetkileri ihlal edilmedi ifadesiyle, şirket sözcüsü hatanın Copilot’un korumalı içerikleri hariç tutma tasarımıyla çeliştiğini ancak teknik olarak yetkisiz bir veriye erişim sağlanmadığını belirtti. Açıklamada, veri güvenliği ve erişim kontrollerinin bozulmadığı, ancak beklenen Copilot deneyimiyle uyumsuz bir sonuç ortaya çıktığı kaydedildi. Sorunun ilk tespit edildiği tarih Ocak ayına işaret edilirken, bu durum İngiltere’deki NHS için de bir destek panelinde tartışılmış oldu.
Nitelikli bir güvenlik tartışması: Verinin sızması kaçınılmaz mı? Uzmanlar, yapay zeka araçlarının hızlı benimsenmesinin güvenlik risklerini de beraberinde getirdiğini belirtiyor. GartnerAnalistlerindan Nader Henein, bu tür hataların kaçınılmaz olduğunu ve şirketlerin yapay zeka baskısı altında yeterli yönetişimi sağlamadan bu araçları kullanmaya başladığını ifade ediyor. Siber güvenlik uzmanı Prof. Alan Woodward ise, bu araçların varsayılan olarak kapalı olarak tasarlanması gerektiğini belirtiyor ve yalnızca onay verilen kullanıcıların erişimine izin verilmesinin güvenlik açısından kritik olduğuna vurgu yapıyor. Woodward, hızla değişen bu sistemlerde yazılım hatalarının her zaman ortaya çıkabileceğini ve bunun veri sızıntılarına kapı aralayacağını ifade ediyor.
BBC’nin haberine göre, söz konusu olaylar küresel olarak tartışılırken, bazı kurumlar güvenlik politikalarını güçlendirme yönünde adımlar atıyor.