Yapay zekayla oluşturulan sahte görseller ve sesler “yeni nesil silah”

Yapay zeka tehdit tespit platformu Sensity AI şirketinin araştırmalarına nazaran, Rusya-Ukrayna Savaşı’nda Ukraynalı siyasetçiler ve askerler, deepfake görüntülerle “teslim olmaya çağıran” ya da “savaş kabahati işlediğini itiraf eden” şahıslar üzere gösteriliyor.

Tayvan’da seçim devirlerinde, siyasetçilerin geçersiz konuşmaları, uydurma skandalları ve gafa benzeyen sahneleri üzere Çin kaynaklı yapay zeka içerikleri toplumsal medyada yayılarak aykırı görüşlü adaylar gaye alınıyor.

Japonya’da ise yapay zekayla üretilmiş geçersiz doğal afet manzaraları, nükleer kaza yahut sel felaketi üzere kurgular halkta panik yaratmak için kullanılıyor.

Bu çeşit olaylar, yapay zeka araçlarının bilinçsizce ve denetimsizce “yeni jenerasyon silahlar” olarak kullanılması durumunda doğurabileceği tehlikeleri bir kere daha gündeme getiriyor.

“Yapay zeka eserlerini tanımak imkansız hale geldi”

Sensity AI’nin kurucu ortağı Francesco Cavalli, yapay zekayla oluşturulan görseller, görüntüler ve seslerin tesir ve tehlikelerine ait değerlendirmelerde bulundu.

Cavalli, yapay zeka araçları geliştikçe neyin gerçek neyin olmadığını anlamanın daha zorlaştığını söyledi.

Yapay zekayla üretilen içerikleri anlamak için yüzde tutarsız ışıklandırma, çok pürüzsüz cilt dokusu, görüntülerde yapay göz kırpma ya da ağız hareketlerine bakılması tavsiye ediliyor.

Cavalli, “Yapay zeka içerikleri, bilhassa düşük çözünürlüklü yahut sıkıştırılmış formatlarda insan gözüyle tespitten kaçabiliyor. Yapay zekayla oluşturulmuş sesler insan için artık tanınması imkansız hale geldi.” dedi.

Yapay zekayla manipülasyon

Halihazırda yapay zekayla taklit edilen seslerin bu alandaki en yüksek riski oluşturduğu belirtiliyor.

Yapay zeka kullanarak Dışişleri Bakanı Marco Rubio’yu taklit eden bir dolandırıcı, ABD’li politikler tarafından sıkça kullanılan “Signal” isimli iletileşme uygulamasında Rubio ismine geçersiz bir hesap oluşturarak üç farklı ülkenin dışişleri bakanları, bir Kongre üyesi ve bir vali ile temas kurdu.

Seslerin kullanımın kolay ve tespitinin de gecikmeli olduğunu lisana getiren Cavalli, taklit seslerin telefonda konuşulan kişinin güvenilen biri olduğuna inandırmak için kullanıldığını söz etti.

Midjourney ve Runway üzere araçlar geliştikçe gerçekle yapayı dengeli halde ayırt etmekte zorlaşıyor.

Cavalli hususa ait, “Üretici araçlar geliştikçe, eğitimli gözler bile kolaylıkla kandırılabiliyor.” diye konuştu.

“Seçim müdahalesinde kullanılan yapay zeka üretimi medya, dolandırıcılık platformlarını tanıtan uydurma basın toplantıları yapan siyasetçiler ve kamuoyunu manipüle etmek için paylaşılan yapay zeka üretimi savaş imajlarını belgeledik.” diyen Cavalli, bu görsellerin ekseriyetle düzmece haber siteleri, toplumsal medyadaki reklamlarla yayıldığını anlattı.

Cavalli, Çin, Japonya, Tayvan’da yapay zeka kullanımına ait şirketinin incelediği olaylara atıfta bulunarak, “Tüm bu örneklerde, yapay zeka takviyeli propaganda yalnızca deneysel bir tehdit değil, algıyı manipüle etmek, toplumları istikrarsızlaştırmak ve yumuşak güç uygulamak için çeşitli çatışmalarda etkin olarak kullanılan global bir silahtır.” değerlendirmesinde bulundu.

Teknoloji şirketleri ve platformlara yapay zeka tabanlı görsel dezenformasyonla çaba konusunda harekete geçmeleri tarafında davetler yapılıyor.

Platformların ise bu hususa odaklandığı fakat birçoklarının “yapay medyayı geniş ölçekte tespit edebilecek sağlam isimli inceleme sistemlerine sahip olmadığı” söz ediliyor.

Cavalli, “Bazıları dolandırıcılık kampanyalarından şuurlu halde kar ediyor. Lakin dış baskı olunca müdahale ediyor. Tespit teknolojisi sağlayıcılar, platformlar ve düzenleyiciler ortasında daha güçlü işbirliği kural.” dedi.

Yapay zekayla üretilen içeriklerin “etiketlenmesinin” gerçek yol olmadığını düşündüğünü aktaran Cavalli, şunları söyledi:

Yapay zekayla oluşturulmuş içerik bizatihi ziyanlı değil, kullanım formu ve yeri değerli. Örneğin, toplumsal medya platformlarının, deepfake dolandırıcılık reklamları için ağlarını kontrolsüz kullandırmasına ağır yaptırımlar uygulanmalı. Kullanıcı şikayetlerine dayanmak yerine, proaktif tedbirler almaları mecburî olmalı.

“Görmek artık inanmak demek olmayacak”

Sensity’nin geliştirdiği sistemler yüz manipülasyonun belirlenmesi, büsbütün yapay zekayla üretilmiş görsellerin tespiti, taklit ses tahlili ve isimli incelemeyi kapsayan dört etaplı bir tahlil sürecinden geçiyor.

Bu tahlillerin raporları ise resmi soruşturmalarda ve mahkemelerde kullanılabiliyor.

Cavalli, görsel medyaya olan itimadın gitgide azaldığına işaret ederek bu bahiste farkındalığın artması gerektiğini vurguladı.

İnsanların yapay zekayla üretilen görsel ve seslerin risklerine karşı eğitilmesi, şirketlerin, gazetecilerin ve araştırmacıların isimli araçlarla donatılması gerektiğinin altını çizen Cavalli, “Görmek artık inanmak demek olmayacak.” sözünü kullandı.

İlginizi Çekebilir:Meksika mutfağının yıldızı: Guacamole tarifi
share Paylaş facebook pinterest whatsapp x print

Benzer İçerikler

İYİ Parti’nin YSK Temsilcisi Öztürk’ten CHP’nin kurultay davasına ilişkin açıklama
ABD Suriye’ye yaptırımları hafifletti, 180 gün muafiyet tanıdı
İşsizlik Sigortası Fonu 2025’te bu yıla göre yüzde 51 artışla 500 milyar TL’ye yaklaşacak: Emekçiye ‘kırıntı’ düşecek
Gazeteciler Murat Ağırel ve Timur Soykan gözaltına alındı!
Fenerbahçe’den devre arası 16 milyonluk operasyon!
Sevenleri, Volkan Konak’ın mezarına akın etti
Yeni Adres- Yeni Giriş- Güncel Giriş | © 2025 |