Yapay zekayla oluşturulan sahte görseller ve sesler “yeni nesil silah”

Yapay zeka tehdit tespit platformu Sensity AI şirketinin araştırmalarına nazaran, Rusya-Ukrayna Savaşı’nda Ukraynalı siyasetçiler ve askerler, deepfake görüntülerle “teslim olmaya çağıran” ya da “savaş kabahati işlediğini itiraf eden” şahıslar üzere gösteriliyor.

Tayvan’da seçim devirlerinde, siyasetçilerin geçersiz konuşmaları, uydurma skandalları ve gafa benzeyen sahneleri üzere Çin kaynaklı yapay zeka içerikleri toplumsal medyada yayılarak aykırı görüşlü adaylar gaye alınıyor.

Japonya’da ise yapay zekayla üretilmiş geçersiz doğal afet manzaraları, nükleer kaza yahut sel felaketi üzere kurgular halkta panik yaratmak için kullanılıyor.

Bu çeşit olaylar, yapay zeka araçlarının bilinçsizce ve denetimsizce “yeni jenerasyon silahlar” olarak kullanılması durumunda doğurabileceği tehlikeleri bir kere daha gündeme getiriyor.

“Yapay zeka eserlerini tanımak imkansız hale geldi”

Sensity AI’nin kurucu ortağı Francesco Cavalli, yapay zekayla oluşturulan görseller, görüntüler ve seslerin tesir ve tehlikelerine ait değerlendirmelerde bulundu.

Cavalli, yapay zeka araçları geliştikçe neyin gerçek neyin olmadığını anlamanın daha zorlaştığını söyledi.

Yapay zekayla üretilen içerikleri anlamak için yüzde tutarsız ışıklandırma, çok pürüzsüz cilt dokusu, görüntülerde yapay göz kırpma ya da ağız hareketlerine bakılması tavsiye ediliyor.

Cavalli, “Yapay zeka içerikleri, bilhassa düşük çözünürlüklü yahut sıkıştırılmış formatlarda insan gözüyle tespitten kaçabiliyor. Yapay zekayla oluşturulmuş sesler insan için artık tanınması imkansız hale geldi.” dedi.

Yapay zekayla manipülasyon

Halihazırda yapay zekayla taklit edilen seslerin bu alandaki en yüksek riski oluşturduğu belirtiliyor.

Yapay zeka kullanarak Dışişleri Bakanı Marco Rubio’yu taklit eden bir dolandırıcı, ABD’li politikler tarafından sıkça kullanılan “Signal” isimli iletileşme uygulamasında Rubio ismine geçersiz bir hesap oluşturarak üç farklı ülkenin dışişleri bakanları, bir Kongre üyesi ve bir vali ile temas kurdu.

Seslerin kullanımın kolay ve tespitinin de gecikmeli olduğunu lisana getiren Cavalli, taklit seslerin telefonda konuşulan kişinin güvenilen biri olduğuna inandırmak için kullanıldığını söz etti.

Midjourney ve Runway üzere araçlar geliştikçe gerçekle yapayı dengeli halde ayırt etmekte zorlaşıyor.

Cavalli hususa ait, “Üretici araçlar geliştikçe, eğitimli gözler bile kolaylıkla kandırılabiliyor.” diye konuştu.

“Seçim müdahalesinde kullanılan yapay zeka üretimi medya, dolandırıcılık platformlarını tanıtan uydurma basın toplantıları yapan siyasetçiler ve kamuoyunu manipüle etmek için paylaşılan yapay zeka üretimi savaş imajlarını belgeledik.” diyen Cavalli, bu görsellerin ekseriyetle düzmece haber siteleri, toplumsal medyadaki reklamlarla yayıldığını anlattı.

Cavalli, Çin, Japonya, Tayvan’da yapay zeka kullanımına ait şirketinin incelediği olaylara atıfta bulunarak, “Tüm bu örneklerde, yapay zeka takviyeli propaganda yalnızca deneysel bir tehdit değil, algıyı manipüle etmek, toplumları istikrarsızlaştırmak ve yumuşak güç uygulamak için çeşitli çatışmalarda etkin olarak kullanılan global bir silahtır.” değerlendirmesinde bulundu.

Teknoloji şirketleri ve platformlara yapay zeka tabanlı görsel dezenformasyonla çaba konusunda harekete geçmeleri tarafında davetler yapılıyor.

Platformların ise bu hususa odaklandığı fakat birçoklarının “yapay medyayı geniş ölçekte tespit edebilecek sağlam isimli inceleme sistemlerine sahip olmadığı” söz ediliyor.

Cavalli, “Bazıları dolandırıcılık kampanyalarından şuurlu halde kar ediyor. Lakin dış baskı olunca müdahale ediyor. Tespit teknolojisi sağlayıcılar, platformlar ve düzenleyiciler ortasında daha güçlü işbirliği kural.” dedi.

Yapay zekayla üretilen içeriklerin “etiketlenmesinin” gerçek yol olmadığını düşündüğünü aktaran Cavalli, şunları söyledi:

Yapay zekayla oluşturulmuş içerik bizatihi ziyanlı değil, kullanım formu ve yeri değerli. Örneğin, toplumsal medya platformlarının, deepfake dolandırıcılık reklamları için ağlarını kontrolsüz kullandırmasına ağır yaptırımlar uygulanmalı. Kullanıcı şikayetlerine dayanmak yerine, proaktif tedbirler almaları mecburî olmalı.

“Görmek artık inanmak demek olmayacak”

Sensity’nin geliştirdiği sistemler yüz manipülasyonun belirlenmesi, büsbütün yapay zekayla üretilmiş görsellerin tespiti, taklit ses tahlili ve isimli incelemeyi kapsayan dört etaplı bir tahlil sürecinden geçiyor.

Bu tahlillerin raporları ise resmi soruşturmalarda ve mahkemelerde kullanılabiliyor.

Cavalli, görsel medyaya olan itimadın gitgide azaldığına işaret ederek bu bahiste farkındalığın artması gerektiğini vurguladı.

İnsanların yapay zekayla üretilen görsel ve seslerin risklerine karşı eğitilmesi, şirketlerin, gazetecilerin ve araştırmacıların isimli araçlarla donatılması gerektiğinin altını çizen Cavalli, “Görmek artık inanmak demek olmayacak.” sözünü kullandı.

İlginizi Çekebilir:Türkiye’nin vergi rekortmenleri belli oldu: Zirvedeki isim değişmedi!
share Paylaş facebook pinterest whatsapp x print

Benzer İçerikler

Üsküdar’da satırlı saldırgan park halindeki araçlara zarar verdi
AKP’ye geçen Özlem Çerçioğlu’nun eşinin şirketinde üretim ve satış geçen yıla göre düştü: Jantsa’ya teşvik!
54 kilo uyuşturucuyla yakalanmıştı: AKP’li eski ilçe başkanı Servet Can tutuklandı
Batman’da üzerinde uyuşturucu yakalanan yolcu tutuklandı
Survivor 7 Ocak 2025 takım oyununu kim kazandı, dokunulmazlık oyununu kim aldı? Survivor üçüncü eleme adayı kim oldu?
Yurt dışına çıkacaklar dikkat! Resmen tebliğ edildi…
Yeni Adres- Yeni Giriş- Güncel Giriş | © 2025 |