Sora 2: Dezenformasyonun Yeni Ufukları ve Güvenlik Zorlukları
Sora 2: Dezenformasyonun yeni ufukları ve güvenlik zorluklarını keşfeden kapsamlı analiz, dijital güvenlik için stratejiler ve farkındalık ipuçları sunuyor.
Araştırma, Sora 2’nin kötü niyetli kullanıcılar tarafından dezenformasyon kampanyalarında kolayca devreye alınabileceğini gösterdi. NewsGuard, oluşturulan yanlış videolardan beşinin Rusya odaklı dezenformasyon operasyonlarından kaynaklandığını belirtti. Araştırmacılar, Sora 2’yi kullanmaya başladıktan kısa süre sonra sahte videolar üretimiyle ilgili şu konulara yöneldi: Moldova’daki bir seçim yetkilisinin Rusya yanlısı oy pusulalarını yakması, ABD sınırında bir çocuğun gözaltına alınması ve Coca‑Cola’nın Bad Bunny’nin Super Bowl performansından sonra sponsorluktan çekildiğine dair haberler. NewsGuard, bu örneklerin yapay zekâ teknolojilerinin “endüstriyel ölçekte yanlış bilgi üretimi” için ne kadar kolay kullanılabildiğini gösterdiğini vurguladı.
OpenAI’nin riskleri kabul etmesi OpenAI, Sora 2’nin güvenlik risklerini resmi web sitesindeki “sistem kartı”nda kabul etmiş durumda. Şirket, bu modelin izinsiz benzerlik kullanımı veya yönlendirici içerikler üretebileceğini ifade ederek sınırlı davet yoluyla erişim sağlandığını ve foto-gerçekçi kişiler içeren görsellerin veya videoların yüklenmesini yasakladığını bildirdi. Ayrıca, minörleri içeren içerikler için sıkı denetim eşikleri uygulanacağını ve güvenlik önlemlerinin kademeli olarak geliştirilmesini kaydetti. OpenAI’ye göre, Sora 2 önceki sürümlere göre fiziksel gerçekçilik, senkronize ses üretimi, yönlendirilebilirlik ve görsel çeşitlilik açısından önemli ilerlemeler kaydetti.
Uzmanlar: “Sora artık bir deepfake aracı” Boston Üniversitesi’nden Doç. Michelle Amazeen, bulguları “son derece endişe verici” olarak değerlendiriyor: “Zamanla faklı medya kullanıcıları için böylesi sahte videolar gerçeği ayırt etmeyi daha da güçleştiriyor.” Daon’in yöneticisi Scott Ellis ise Sora’nın fiilen bir deepfake aracı olduğunu söylüyor: “Bu tür araçlar kişisel eğlence, profesyonel prodüksiyon ve kötüye kullanım için güç kullanmaya başlıyor. Sora’nın zararlı içerikleri engellemede yalnızca yüzde 80 başarısız olması çok ciddi bir tehlike işaretidir.” Regula Forensics CEO’su Arif Mamedov da “Artık amatör türeticilerin ötesinde, herkesin kullanabileceği endüstriyel boyutta dezenformasyon sistemlerinin çağında olduğumuzu” belirtiyor. Filigranlar kolayca kaldırılabiliyor OpenAI, Sora 2’nin ürettiği tüm videolara hem görünür filigran hem de C2PA dijital imza eklediğini açıkladıysa da NewsGuard araştırmacıları bu tedbirlerin işe yaramadığını bildirdi. Ücretsiz bir çevrimiçi araçla filigranın dört dakika içinde tamamen kaldırılabildiğini söyleyen ekip, “Videodaki küçük bir bulanıklık kalır; sıradan izleyici bunu fark etmez.” dedi. Dijital medya güvenlik uzmanı Jason Crawforth, “En gelişmiş filigranlar bile kırpma, yeniden kodlama veya yeniden boyutlandırma gibi basit işlemlerle silinebilir,” diyerek bu yöntemlerin yalnızca kısa vadeli bir caydırıcı olabileceğini ifade etti.
Uzmanlardan çözüm önerileri Güvenlik uzmanları, dijital içeriklerin doğrulanması için blok zinciri tabanlı kimlik sistemlerinin yaygınlaştırılmasını öneriyor. Bu yaklaşım, içeriğin kaynağını ve sahipliğini güvenli biçimde kayıt altına alarak manipülasyonu zorlaştırıyor. Ancak mevcut durumda, Sora 2’nin yüksek kalitede sahte videoları dakikalar içinde üretebilmesi, dijital çağda “gerçeklik algısının giderek aşındığı” yeni bir dönemin başladığını gösteriyor.