Yapay zeka, yeni kuşak manipülasyon aracı haline dönüştü

0
164

Yapay zekâyla üretilen fotoğraflar, taklit sesler ve deepfake görüntüler, savaşlardan seçim kampanyalarına kadar dünyanın farklı bölgelerinde “bilgi manipülasyonunun en tehlikeli silahları” haline geliyor.

Sensity AI tarafından yapılan araştırmalar, Rusya-Ukrayna savaşında Ukraynalı siyasetçi ve askerlerin, deepfake içeriklerle ya “teslim olmaya çağıran” ya da “savaş hatası itiraf eden” kişiler üzere gösterildiğini ortaya koyuyor.

Tayvan’da seçim periyotlarında, Çin kaynaklı düzmece görüntüler ve konuşmalar siyasetçilere karşı propaganda aracı olarak kullanılıyor.

Japonya’da ise yapay zekâ ile üretilen geçersiz felaket imajları, nükleer kazalar ya da sel felaketleri üzerinden toplumda panik yaratmayı amaçlıyor.

Bu örnekler, yapay zekâ araçlarının denetimsiz biçimde “yeni kuşak silahlar” olarak kullanılmasının ne derece büyük riskler barındırdığını gözler önüne seriyor.

“GERÇEK İLE YAPAY ORTASINDAKİ ÇİZGİ SİLİNİYOR”

Sensity AI kurucu ortağı Francesco Cavalli, yapay zekâ geliştikçe gerçek ile düzmecenin ayırt edilmesinin zorlaştığını vurguluyor.

İpuçları ortasında sistemsiz ışıklandırma, çok pürüzsüz cilt, yapay göz kırpma ve ağız hareketleri öne çıkıyor. Lakin Cavalli’ye nazaran düşük çözünürlüklü yahut sıkıştırılmış içeriklerde bu ayrıntılar fark edilmiyor.

Özellikle ses taklitleri önemli tehdit oluşturuyor. Cavalli, “Yapay zekâ ile üretilmiş sesler artık insan kulağı için neredeyse ayırt edilemez hale geldi.” diyor.

Nitekim bir dolandırıcı, ABD’li Senatör Marco Rubio’nun sesini taklit ederek geçersiz bir Signal hesabı üzerinden dışişleri bakanları ve siyasilerle temas kurmayı başardı.

YAPAY ZEKA İLE DOLANDIRICILIK VE PROPAGANDA

Midjourney ve Runway üzere üretici yapay zekâ araçları ilerledikçe, uzman gözlerin bile kandırılması kolaylaşıyor.

Cavalli, seçim kampanyalarında düzmece basın toplantıları düzenleyen siyasetçilerin görüntülerinden, toplumsal medyada sirkülasyona sokulan savaş imgelerine kadar çok sayıda örneği belgelediklerini belirtiyor.

Ona nazaran, Çin’den Japonya’ya ve Tayvan’a kadar incelenen tüm olaylar tıpkı sonucu gösteriyor: Yapay zekâ dayanaklı propaganda artık yalnızca bir tehdit değil, toplumları istikrarsızlaştırmak için faal biçimde kullanılan global bir güç aracı.

ÇÖZÜM: PROAKTİF KONTROL VE İŞBİRLİĞİ

Teknoloji şirketleri, yapay zekâ tabanlı dezenformasyona karşı adım atmaya çağrılıyor. Lakin Cavalli’ye nazaran birçok platform, geniş ölçekli düzmece içerikleri yakalayabilecek isimli sistemlere sahip değil.

Bazı şirketler, dolandırıcılık kampanyalarından şuurlu biçimde kâr elde ederken, fakat dış baskı oluştuğunda harekete geçiyor.

Cavalli, içeriklerin sırf “etiketlenmesi” yerine daha güçlü tedbirler gerektiğini vurguluyor:

Sosyal medya platformlarına, deepfake reklamlarına müsaade vermeleri halinde ağır yaptırımlar uygulanmalı.

Kullanıcı şikayetlerine bel bağlamak yerine, proaktif tespit sistemleri zarurî olmalı.

“GÖRMEK ARTIK İNANMAK DEĞİL”

Sensity’nin geliştirdiği sistemler; yüz manipülasyonu, uydurma görsellerin tahlili, taklit ses incelemesi ve isimli raporlama olmak üzere dört etaplı bir süreç yürütüyor. Bu raporlar resmi soruşturmalarda kanıt olarak kullanılabiliyor.

Cavalli, görsel medyaya duyulan inancın süratle azaldığını, farkındalık artırılmadıkça risklerin büyüyeceğini vurguluyor:

“İnsanlar eğitilmeli, gazeteciler ve araştırmacılar isimli araçlarla donatılmalı. Zira artık görmek, inanmak manasına gelmeyecek.”

CEVAP VER

Lütfen yorumunuzu giriniz!
Lütfen isminizi buraya giriniz