Araştırma, Sora 2'nin kötü niyetli kullanıcılar tarafından dezenformasyon kampanyalarında kolayca kullanılabileceğini ortaya koydu.
NewsGuard, oluşturulan yanlış videolardan beşinin Rusya kaynaklı dezenformasyon operasyonlarından geldiğini de belirtti.
Dakikalar içinde sahte ama inandırıcı videolar
Araştırmacılar, Sora 2'yi kullanmaya başladıktan yalnızca birkaç dakika içinde şu konularla ilgili sahte videolar üretebildi:
Moldova'da bir seçim yetkilisinin Rusya yanlısı oy pusulalarını yaktığı,
ABD sınırında bir çocuğun gözaltına alındığı,
Coca-Cola'nın Bad Bunny'nin Super Bowl sahnesinde yer alması nedeniyle sponsorluktan çekildiği.
NewsGuard, bu örneklerin yapay zekâ teknolojilerinin "endüstriyel ölçekte yanlış bilgi üretimi" için ne kadar kolay kullanılabileceğini gösterdiğini vurguladı.
OpenAI riskleri kabul ediyor
OpenAI, Sora 2'nin güvenlik risklerini resmî web sitesindeki "sistem kartında" kabul etti. Şirket, modelin "izinsiz benzerlik kullanımı veya yanlış yönlendirici içerikler" üretebileceğini, bu nedenle sınırlı davet yoluyla erişim sağlandığını ve foto-gerçekçi kişi içeren görsellerin veya videoların yüklenmesinin yasaklandığını bildirdi.
Ayrıca, minörleri içeren içeriklerde sıkı denetim eşiği uygulandığı ve Sora 2'nin güvenlik önlemlerinin "kademeli olarak" geliştirileceği belirtildi.
OpenAI'ye göre model, önceki sürümlere kıyasla fiziksel gerçekçiliği, senkronize ses üretimini, yönlendirilebilirliği ve görsel çeşitliliği önemli ölçüde artırıyor.
Uzmanlar: "Sora artık bir deepfake aracı"
Boston Üniversitesi'nden Doç. Michelle Amazeen, bulguların "son derece endişe verici" olduğunu söyledi:
"Zaten karmaşık bir bilgi ortamında yaşayan medya kullanıcıları için bu tür sahte videolar, gerçeği yalandan ayırmayı daha da zorlaştırıyor."
Biyometrik kimlik doğrulama firması Daon'un yöneticisi Scott Ellis ise Sora'nın fiilen bir deepfake aracı olduğunu söyledi:
"Bu tür araçlar kişisel eğlence, profesyonel yapım ve kötüye kullanım için kullanılıyor. Sora'nın zararlı içerikleri engellemede yüzde 80 oranında başarısız olması ciddi bir tehlike işareti."
Regula Forensics CEO'su Arif Mamedov da "Bu artık amatör sahte video üreticilerinin değil, herkesin kullanabileceği endüstriyel çapta dezenformasyon sistemlerinin çağı" dedi.
Filigranlar kolayca kaldırılabiliyor
OpenAI, Sora 2'nin ürettiği tüm videolara hem görünür filigran hem de C2PA dijital imza eklendiğini açıklasa da, NewsGuard araştırmacıları bu önlemin etkisiz olduğunu gösterdi.
Ücretsiz bir çevrim içi araçla filigranın dört dakika içinde tamamen kaldırılabildiğini belirten ekip, "Videoda sadece hafif bir bulanıklık kalıyor; sıradan bir izleyici fark etmez," ifadesini kullandı.
Dijital medya güvenlik uzmanı Jason Crawforth, "En gelişmiş filigranlar bile kırpma, yeniden kodlama veya yeniden boyutlandırma gibi basit işlemlerle silinebiliyor," diyerek bu yöntemin yalnızca "kısa vadeli bir caydırıcı" olabileceğini söyledi.
Uzmanlardan çözüm önerileri
Güvenlik uzmanları, dijital içeriklerin doğrulanması için blok zinciri tabanlı kimlik sistemlerinin yaygınlaştırılmasını öneriyor. Bu yöntem, içeriğin kaynağını ve sahipliğini değiştirilmesi zor biçimde kayıt altına alarak manipülasyonun önüne geçebiliyor.
Ancak mevcut durumda, uzmanlara göre Sora 2'nin yüksek kalitede sahte videoları birkaç dakikada üretebilmesi, dijital çağda "gerçeklik algısının giderek aşındığı" yeni bir dönemin başlangıcına işaret ediyor.
TEKNOLOJİ 23 Ekim 2025 Perşembe, 09:57
Benzer Haberler