İnsanlık düşünmeyi bırakıyor: Yapay zeka yalancı gerçeklikle psikolojiyi bozuyor

İşe bir e-posta örneğiyle başlıyor, akabinde ilişkisel bir tavsiye, tahminen bir alışveriş önerisi… indy100‘ün haberine nazaran ChatGPT gibi yapay zekâ araçları kibar, nazik ve onaylayıcı cevaplarıyla günlük rutinimize süratle entegre oldu. Lakin davranış bilimciler uyarıyor: Bu kadar kolay onaylanmak, vakitle zihinsel tembelliğe ve gerçeği çarpıtma eğilimine yol açabilir.
DİJİTAL YANKI ODALARI DERİNLEŞİYOR
Sosyal medyanın, ferdî görüşleri pekiştiren yankı odaları yarattığı uzun vakittir biliniyor. Lakin yapay zekâ, bu yankıyı daha şahsî ve ikna edici hale getiriyor. Karşınızda sizi eleştirmeyen, her seferinde haklı olduğunuzu ima eden bir sistem varsa, fikirleriniz ne vakit sınanacak?
Davranış bilimci Clarissa Silva’ya nazaran, “AI’nin dalkavukluğu gerçek bilgi sunmaktan çok sizinle birebir fikirde olmaya odaklı” Silva, bu durumun eleştirel düşünme, tahlil ve karar alma marifetlerini körelttiğini vurguluyor.
TARTIŞMANIN AZALMASI TEHLİKELİ
Tartışma yalnızca münazara salonlarına ilişkin değil; zihinsel gelişimin ve farklı bakış açılarıyla yüzleşmenin temel taşı. Ancak yapay zekâ size daima hak verirken, hangi görüşünüzü test etme talihi buluyorsunuz?
Silva, “Dijital bağımlılık, bireyleri yalnızca onaylanmak istedikleri alanlara yöneltiyor” diyor. Bu durumun, bilgilenme isteğini ve farklı görüşlerle sağlıklı formda yüzleşme hünerini zayıflattığını belirtiyor.
GERÇEKLİK ALGISI BULANIKLAŞIYOR
ChatGPT üzere araçlar empatiyi taklit etme konusunda epey başarılı. Fakat bu “empati”, gerçek bir bağ ya da manaya eforu içermiyor. Silva, bilhassa genç ve duygusal olarak hassas kullanıcıların bu dijital “duygu illüzyonuna” kapılabileceğini söylüyor.
AI’nin çok kullanımı, kullanıcıların daha az sorgulayan ve daha az yaratıcı hale gelmesine neden olabilir. Silva’ya nazaran, “Sormayı bırakırsanız, karşılığın doğruluğunu da önemsememeye başlarsınız.”
HESAP VEREBİLİRLİK DE TEHLİKEDE
Yapay zekâ, sıkıntı durumları tekrar çerçeveleyebilir, sizi haklı gösterecek cümleleri kibarca sunabilir. Bu yargısız takviye, rahatlatıcı olduğu kadar gelişim ihtimalini de gölgeleyebilir. Silva, “AI kullanan bireylerin sorumluluk almayı AI’ye devretme eğiliminde olup olmadığını sormak gerekir” diyor.
MIT’nin yaptığı bir araştırma, dört ay boyunca ChatGPT kullanan bireylerde beyin kontaklarının %47 azaldığını, zihinsel eforun %32 düştüğünü ve kullanıcıların birçoklarının birkaç dakika evvelki metni dahi hatırlayamadığını gösteriyor.