“Grok krizi”, yapay zekadaki objektifliği ve doğru bilgiyi sorgulattı

ABD’li iş insanı Elon Musk’ın sahibi olduğu xAI şirketinin sohbet robotu Grok’un güncellemesi sonrası toplumsal filtresini kaldırarak kullanıcılara “küfürlü, sert ve taraflı” cevaplar vermesi, yapay zekada tarafsızlık ve etik hudutlar üzerine yeni bir tartışma başlattı.

xAI şirketinin sohbet robotu Grok’un toplumsal ve siyasi bahislerde hakarete varan “filtresiz” karşılıkları ile makul ve gerçek sonuçlar yerine kullanıcılara birtakım bakış açıları yüklemeye çalışması, modelin “siyasi zehirlenmeye” neden olduğu yorumlarına yol açtı.

Medyayı “taraflı” olarak nitelediği istikametindeki telaffuzlarıyla Grok, “objektifliğini yitirdiği ve taraflı bir lisan benimsediği” istikametinde tenkitlerin maksadı oldu.

“Grok krizi”, yapay zeka lisan modellerinin nasıl eğitildiği, bu süreçte hangi unsurların gözetildiği, tarafsızlığın ne ölçüde korunduğu ve hangi kaynaklardan yararlanıldığı üzere soruları da beraberinde getirdi.

Hacettepe Üniversitesi Öğretim Üyesi Prof. Dr. Suat Özdemir, lisan modellerinin eğitim süreci, tarafsızlık prensibi ve etik sonlar üzerine yaşanan tartışmalara ait açıklamalarda bulundu.

Dil modellerinin eğitim süreci

Özdemir, Grok özelinde yaşanan kasvet ele alınırken büyük lisan modellerinin eğitim kademesinin göz önünde bulundurulması gerektiğine işaret etti.

Dil modellerinin eğitim sürecinde Vikipedi, Reddit üzere forumlar ve çeşitli dijital kaynaklardan yararlanıldığını belirten Özdemir, bu sistemlerin kullanıcıların yönelttiği sorulara, kelam konusu data kaynaklarından öğrendikleri bilgiler doğrultusunda karşılık verdiğini söyledi.

Özdemir, “Modelin eğitildiği datalar, gerçek hayattaki kaynaklara dayandığı için elde edilen bilgi her vakit tarafsız olmayabiliyor.” dedi.

Dil modellerinin irtibatının ise “transformer” isimli bir yapı ile sağlandığını kaydeden Özdemir, modellerin kullanıcı ile bağlantısının “fazlaca kullanılan cümle kalıplarını ya da tabirleri ezberleyip, bunları sorulan soruya yanıt verirken kullanmaktan ibaret” olduğunu vurguladı.

Özdemir, lisan modellerinin çalışma mantığına nazaran bir bilgi ne kadar sıklıkla geçiyorsa o kadar yanıt olarak dönme mümkünlüğü yüksek olduğunu ve Grok ile yaşanan sorunun en kritik istikametinin bu olduğunu belirterek, “Yani organize bir biçimde Grok’u bir tarafa yönlendirmek mümkün.” tabirlerini kullandı.

“Eğitim sürecinde kullanılan datalar genel telaffuz ve tavırları yansıtıyor”

Büyük lisan modellerinin eğitildiği dataların de toplumdaki genel telaffuz ve tavırları yansıttığının altını çizen Özdemir, bu nedenle yapay zeka modellerinin lisan üretiminde agresif yahut taraflı eğilimler göstermesinin şaşırtan olmadığını söyledi.

Özdemir, yapay zeka modellerindeki lisan kullanımından kaynaklanan problemlerin giderilmesindeki en yaygın formülün insan geri bildirimleri olduğunu belirtti.

X’teki kullanıcı geri bildirimleri denetimsiz halde lisan modelinin eğitim sürecine katıldığı vakit agresif lisanı içselleştirebildiğini belirten Özdemir, bunun da vakitle problemli cevaplara neden olabildiğini vurguladı.

Firmaların filtreleme sistemlerini birçok vakit ticari ve pazar telaşlarıyla uyguladığını belirten Özdemir, filtrelerin olumsuz içerikleri önlemeye yardımcı olduğunu lakin bunun vakit zaman gerçeği yansıtmayan, politik doğruculuğa dayalı cevaplarla sonuçlanabildiğini söz etti.

Özdemir, bunun birtakım durumlardan olumsuz sonuçlar doğurabileceğini belirterek, Meta’nın Llama modellerinin ise yanıtları sınıflandırdığını, alaycı karşılık istendiğinde bilimsel yahut nötr seçenek sunarak senaryodan farklı karşılık verdiğini ve bunun kullanıcı tarafından seçilebildiğini aktardı.

Dil modellerinin “yalan söylemesi” konusunda konuşan Özdemir, “Büyük lisan modelleri size asla yeni bir bilgi üretmez. Olan bilgiden yeni bir şey üretmeye çalışır. Bu reasoning dediğimiz ya da düşünme olarak lisan modellerinde gösterilen şey, size orada en uygun karşılığı ne olduğu. Gerçeğe uygun olmayan bir şey sorduğunuz vakit ona istatistik olarak bakıyor en çok kullanılan kalıplar ortasında ona en uygun kalıp neyse o ortayı doldurup size dönmesi gerekiyor.” dedi.

Grok’un “filtresiz yanıtları” bir pazarlama stratejisi

Dil modelinin kullanıcıyı şad etmeye programlanması tüketiciye bilgi vermek yerine yanlış bilgi vermeyi tercih etmesine de yol açabiliyor.

Özdemir, bunun kullanıcı tecrübesini negatif etkileyen bir durum olduğunu belirterek, bu sebeple şirketler tarafından tercih edilmediğini kaydetti.

Grok’un filtreleme konusunda hür bir yaklaşımı olduğunu kaydeden, Özdemir, bunun bir pazarlama stratejisi olduğunu söyledi.

Özdemir, “Grok genelde X platformunda geniş kitlelerce kullanılıyor. O tarafta sizin çok bilimsel bir karşılık vermeniz ya da çok hakikat bir yanıt vermeniz son kullanıcı tarafından bir karşılık bulmayabilir.” sözlerini kullandı.

Dil modellerinin karşılıklarının denetlenmesi gerekliliği

Dil modellerinin cevaplarını denetleyen bağımsız ve objektif bir kuruluş bulunmadığını vurgulayan Özdemir, bu alanda bir kontrol düzeneğine muhtaçlık olduğunu söyledi. Ayrıyeten, şirketler tarafından geliştirilen lisan modellerindeki filtrelerin, kişi ve kurumların görüşleri doğrultusunda yönlendirilebildiğini aktardı.

Özdemir, OpenAI, Meta ve Google üzere şirketlerin geliştirdiği lisan modellerinin, bu tıp önyargıları filtrelemek için kendi seçtiği emniyetli kullanıcılar üzere çeşitli denetleyici sistemler kullandığına işaret ederek, Grok’un ise bu hususta daha özgür bir yaklaşım benimseyerek bu filtreleme sistemlerini devre dışı bıraktığını kaydetti.

İletişim kurduğu topluluğun tesiriyle ırkçı ve argo telaffuzları benimseyen yapay zeka lisan modelleri Grok ile sonlu kalmıyor. Hatta yapay zekadaki bu anomali 2016 yılına kadar uzanıyor.

2016 yılında Microsoft tarafından geliştirilen ve X (Twitter) kullanıcıları ile bağlantı kurması planlanan yapay zeka sistemi “Tay” kısa müddet içerisinde ırkçı ve sıkıntılı bir üsluba sahip lisanı benimsemişti.

Genç yaştaki kullanıcılarla etkileşime girmesi emeliyle X hesabı üzerinden kullanılan Tay, kullanıcılarla kurduğu irtibattan öğrenerek cevap vermek üzere tasarlanmıştı.

Ancak, Tay, proje başlatıldıktan kısa bir mühlet sonra, ırkçı, soykırım savunucusu ve argo sözler kullanan bir sohbet robotuna dönüşmesi sebebiyle kapatılmıştı.

Özdemir, 9 yıl sonrasında yapay zeka teknolojilerinde birebir meseleyle karşılaşılmasının sebebinin insan kaynaklı bir tercih olduğunu belirterek, lisan modellerinin hepsinin insan kaynağıyla geri bildirim aldığını ve kendisini düzelttiğini, buradaki kıymetli noktanın modellerin aldıkları geri dönütü inceleyip kullanırken “hakaret edici sözler kullanma” üzere makul filtrelere alışılmış tutulması olduğunun altını çizdi.

“Grok’un öğrendiği yanlış bilgilerin silinmesi mümkün değil”

Özdemir, yetkililerin Grok’ta yaşanan sorunun giderildiğini belirtmesine karşın meselelerin devam etmesine ait olarak, “Çünkü Grok’u düzeltmek istediğinizde, sistemi büsbütün devredışı bırakıp gerekli düzeltmeleri yaptıktan sonra yeni bir versiyon olarak tekrar sunmamız gerekiyor.” dedi.

Grok’un öğrendiği “yanlış bilgilerin” silinmesinin pek mümkün olmadığını belirten Özdemir, bir modelde sorun yaşandığında, modelin o bilgiyi öğrendikten sonra tekrar eğitilmesi gerektiğine dikkat çekti.

Yapay zekanın neredeyse insan gücü kadar ağır kullanıldığı ve giderek artan bir topluluğun bilgi kaynağı olarak yapay zekaya beşerden bile fazla güvendiği bu devirde, lisan modellerinin dezenformasyon ve kutuplaşmayı artırma mümkünlüğü kaygı yaratıyor.

Yapay zeka kaynaklı dezenformasyondan korunmanın yolu

Özdemir, yapay zeka tarafından sağlanan bilgilere karşı dezenformasyondan korunma konusunda şu değerlendirmede bulundu:

Tartışmalı bahislerde lisan modelini oluşturan ülkenin ya da şirketin kendi görüşünü yansıtıyor olması maalesef günümüz kaidelerinde doğal kabul ediliyor. Olmaması gereken bir şey aslında. Bu bağlamda bunun önüne geçebilmek için ülke olarak kendi lisan modelimizi oluşturup bunun üzerinde çalışmalarımızı gerçekleştirmekten diğer bir yol yok. Aksi takdirde bu tip şeyleri önyargıları yahut yönlendirmelere maruz kalmaktan öbür bir seçeneğimiz kalmıyor.

Yapay zeka lisan modellerinin bilgi kaynaklarının şeffaf olmamasının, insanların bu modellere duyduğu inancı etkileyebileceğini belirten Özdemir, “Yani siz Wikipedia’ya ne kadar güveniyorsanız, o lisan modeline de fakat o kadar güvenebilirsiniz.” dedi.

Özdemir, büsbütün objektif ve etik açıdan insanları ideolojik olarak yönlendirmeyen bir lisan programı oluşturmanın mümkün olmadığını belirterek, bunun sebebinin de gerçek hayattaki data setlerinin objektif olmamasından kaynaklandığını söyledi.

İlginizi Çekebilir:16 Nisan anayasa referandumunun iptali için bir başvuru daha
share Paylaş facebook pinterest whatsapp x print

Benzer İçerikler

2025’in ilk hasadı Manisa’da yapıldı: Jeotermal serada yoğun mesai
İYİ Parti’nin yeni yeni çözüm süreci için kurulacak komisyona kapısı kapalı: ‘Partinin duruşu net’
Meteoroloji açıkladı: 21 Ağustos 2025 hava durumu raporu… Bugün hava nasıl olacak?
Çeşme’de ‘ballı takas’: Kamu zararı belgelendi
Intel yeni ekran kartlarını duyurdu
78. Cannes Film Festivali’nde Panahi filminden notlar ve sanal gerçeklik üzerine sinema: Adalet mi, öç almak mı?
Yeni Adres- Yeni Giriş- Güncel Giriş | © 2025 |