Yapılan bir araştırma, Sora 2’nin kötü niyetli kullanıcılar tarafından dezenformasyon kampanyalarında kolayca kullanılabileceğini ortaya koydu. NewsGuard, oluşturulan yanlış videoların beşte birinin Rusya kaynaklı dezenformasyon operasyonlarından geldiğini belirtti. Sahte Videolar Dakikalar İçinde Üretilebiliyor Araştırmacılar, Sora 2’yi kullanmaya başladıktan yalnızca birkaç dakika içinde Moldova’da bir seçim yetkilisinin Rusya yanlısı oy pusulalarını yaktığı, ABD sınırında bir çocuğun gözaltına…
Yapılan bir araştırma, Sora 2’nin kötü niyetli kullanıcılar tarafından dezenformasyon kampanyalarında kolayca kullanılabileceğini ortaya koydu. NewsGuard, oluşturulan yanlış videoların beşte birinin Rusya kaynaklı dezenformasyon operasyonlarından geldiğini belirtti.
Araştırmacılar, Sora 2’yi kullanmaya başladıktan yalnızca birkaç dakika içinde Moldova’da bir seçim yetkilisinin Rusya yanlısı oy pusulalarını yaktığı, ABD sınırında bir çocuğun gözaltına alındığı, Coca-Cola’nın Bad Bunny’nin Super Bowl sahnesinde yer alması nedeniyle sponsorluktan çekildiği gibi sahte ama inandırıcı videolar üretebildi. NewsGuard, bu örneklerin yapay zekâ teknolojilerinin “endüstriyel ölçekte yanlış bilgi üretimi” için ne kadar kolay kullanılabileceğini vurguladı.
OpenAI, Sora 2’nin güvenlik risklerini resmî web sitesindeki “sistem kartında” kabul etti. Modelin “izinsiz benzerlik kullanımı veya yanlış yönlendirici içerikler” üretebileceğini belirten şirket, sınırlı davet yoluyla erişim sağlandığını ve foto-gerçekçi kişi içeren görsellerin veya videoların yüklenmesinin yasaklandığını bildirdi. Ayrıca, minörleri içeren içeriklerde sıkı denetim eşiği uygulandığı ve Sora 2’nin güvenlik önlemlerinin “kademeli olarak” geliştirileceği belirtildi.
Boston Üniversitesi’nden Doç. Michelle Amazeen, bulguların “son derece endişe verici” olduğunu belirterek, “Zaten karmaşık bir bilgi ortamında yaşayan medya kullanıcıları için bu tür sahte videolar, gerçeği yalandan ayırmayı daha da zorlaştırıyor.” şeklinde konuştu. Biyometrik kimlik doğrulama firması Daon’un yöneticisi Scott Ellis ise Sora’nın fiilen bir deepfake aracı olduğunu söyledi.
OpenAI, Sora 2’nin ürettiği videolara filigran ve C2PA dijital imza eklemesine rağmen, NewsGuard araştırmacıları bu önlemin etkisiz olduğunu tespit etti. Ücretsiz bir çevrim içi araçla filigranın dört dakika içinde tamamen kaldırılabildiği belirtildi.
Uzmanlar, dijital içeriklerin doğrulanması için blok zinciri tabanlı kimlik sistemlerinin yaygınlaştırılmasını öneriyor. Ancak mevcut durumda, Sora 2’nin yüksek kalitede sahte videoları birkaç dakikada üretebilmesi, dijital çağda “gerçeklik algısının giderek aşındığı” yeni bir dönemin başlangıcına işaret ediyor.
Reklam & İşbirliği: [email protected]