Yapay zeka teknolojilerinin hızla gelişmesiyle birlikte sahte fotoğraflar, taklit sesler ve deepfake videolar dünyanın dört bir yanında dezenformasyon ve dolandırıcılık için kullanılan en güçlü araçlar arasında yer almaya başladı. Savaş alanlarından seçim meydanlarına kadar uzanan bu manipülasyonlar, toplumsal güvenlik açısından yeni nesil tehditler doğuruyor.

Savaşlardan seçimlere kadar kullanılıyor

Yapay zeka tehdit tespit şirketi Sensity AI tarafından hazırlanan rapora göre, Rusya-Ukrayna Savaşı sırasında Ukraynalı askerler ve siyasetçiler sahte videolarla hedef alındı. Deepfake içeriklerde, Ukraynalı yetkililer “teslim ol çağrısı” yapıyormuş ya da “savaş suçu işliyormuş” gibi gösterildi.

Benzer yöntemler Asya’da da devreye sokuluyor. Tayvan’daki seçim dönemlerinde Çin kaynaklı sahte içerikler, adaylara yönelik uydurma skandallar veya yapay konuşmalar şeklinde yayılırken, Japonya’da ise yapay afet görüntüleri panik yaratmak için dolaşıma sokuldu.

“Gerçekle sahtesini ayırt etmek imkânsızlaşıyor”

Sensity AI’nin kurucu ortağı Francesco Cavalli, yapay zekayla üretilen içeriklerin tespit edilmesinin her geçen gün zorlaştığını vurguladı. Cavalli, düşük çözünürlüklü veya sıkıştırılmış görüntülerde manipülasyonların insan gözüyle fark edilemediğini, taklit seslerin ise artık neredeyse ayırt edilemez hale geldiğini söyledi.

Özellikle yapay ses teknolojisinin ciddi risk taşıdığını belirten Cavalli, ABD’de Dışişleri Bakanı Marco Rubio’nun sesi taklit edilerek yabancı yetkililerle sahte görüşmeler yapıldığını örnek gösterdi.

Platformlara uyarı: “Proaktif denetim şart”

Cavalli, teknoloji şirketlerinin ve sosyal medya platformlarının dezenformasyonla mücadelede daha sorumlu davranması gerektiğini belirtti. Bazı şirketlerin dolandırıcılık kampanyalarından gelir elde ettiğini öne süren Cavalli, “Kullanıcı şikayetlerine güvenmek yerine, sahte içeriklere karşı proaktif önlemler alınmalı. Deepfake reklamlarına göz yuman platformlara ağır yaptırımlar uygulanmalı.” ifadelerini kullandı.

Siyasette "ince hesap" hukuku
Siyasette "ince hesap" hukuku
İçeriği Görüntüle

Sensity AI’nin geliştirdiği sistemler; yüz manipülasyonlarını, tamamen yapay olarak üretilen görselleri ve taklit sesleri analiz ederek raporlar hazırlıyor. Bu raporların resmi soruşturmalarda delil olarak kullanılabildiği belirtiliyor.

“Görmek artık inanmak demek değil”

Cavalli, toplumda yapay zeka kaynaklı içeriklere karşı farkındalık oluşturulmasının şart olduğuna dikkat çekti:
“Yapay zeka tek başına zararlı değil, fakat nasıl ve nerede kullanıldığı çok önemli. Artık hiçbir görsel veya ses kaydı tek başına güvenilir kanıt olarak kabul edilemez. İnsanlar eğitilmeli, gazeteciler ve araştırmacılar güçlü tespit araçlarıyla donatılmalı. Çünkü görmek artık inanmak anlamına gelmiyor.”

Kaynak: RSS