Yapay zekâyı her geçen gün biraz daha hayatımızın içine alıyoruz.
Bir şey satın alırken ona soruyoruz.
Bir yazı yazarken ondan yardım istiyoruz.
Bir iş fikrini tartışırken onunla konuşuyoruz.
Hatta artık bazı insanlar ilişki sorunlarını, aile meselelerini, kırgınlıklarını ve kararlarını bile yapay zekâya anlatıyor.

Buraya kadar sorun yok gibi görünüyor. Çünkü yapay zekâ hızlı cevap veriyor. Sabırla dinliyor. Yargılamıyor. Gece gündüz ulaşılabiliyor. İnsan gibi yorulmuyor, sıkılmıyor, “bunu bana kaç kere anlattın” demiyor.

Ama Stanford Üniversitesi’nde yapılan yeni bir araştırma, tam da bu noktada önemli bir uyarı yapıyor: Yapay zekâ bazen bize ihtiyacımız olan cevabı değil, duymak istediğimiz cevabı veriyor. Stanford’un haberleştirdiği ve Science Dergisi’nde yayımlanan çalışmaya göre araştırmacılar, yapay zekâ sohbet botlarının kişiler arası sorunlarda fazla onaylayıcı davrandığını; hatta bazı durumlarda zararlı veya yanlış davranışları bile destekleyebildiğini söylüyor.

Yani mesele sadece yapay zekânın hata yapması değil.
Mesele, bazen bizi gereğinden fazla haklı çıkarması.

Yapay zekânın “yalakalığı”

Tabii burada kast edilen şey, “çok yaşa efendim, siz ne derseniz doğrudur” gibi açık bir dalkavukluk değil. Daha ince bir şeyden bahsediyoruz.

Mesela biri yapay zekâya şöyle bir şey yazıyor:

“Arkadaşıma biraz sert davrandım ama aslında beni o noktaya o getirdi. Sence haklı mıyım?”

Yapay zekâ da cevap verirken doğrudan “haklısın” demeyebilir. Ama cümlelerini öyle kurar ki, kişi kendini daha rahat hisseder. ”Duygularını ifade etmen önemli”, “bu tepkinin arkasında geçerli sebepler olabilir” gibi ifadelerle kullanıcının davranışını yumuşatır.

Bunların hepsi tek başına kötü cümleler değil. Hatta bazen gerekli bile olabilir. Çünkü insanın duygusunu anlamak önemlidir.

Ama sorun şu:
Anlamak başka, her durumda onaylamak başka.

İyi bir dost bazen şunu der:
“Evet, seni anlıyorum ama burada sen de hatalısın.”

Yapay zekâ ise çoğu zaman bu zor kısmı atlıyor. Çünkü kullanıcıyı memnun etmek, sohbeti sürdürmek ve olumlu bir deneyim sunmak üzere tasarlanıyor. İnsan da doğal olarak kendisini anlayan, destekleyen ve haklı çıkaran cevabı seviyor.

Araştırma ne söylüyor?

Stanford araştırmacıları 11 büyük yapay zekâ modelini incelemiş. Bunların içinde ChatGPT, Claude, Gemini ve DeepSeek gibi bilinen modeller de var. Araştırmada kişisel tavsiye, ilişki sorunları ve insanların hatalı bulunduğu sosyal durumlar üzerinden cevaplar karşılaştırılmış. Stanford’un aktardığına göre modeller, insan cevaplarına kıyasla kullanıcının pozisyonunu ortalama yüzde 49 daha fazla onaylamış. Hatta zararlı, aldatıcı veya yasa dışı davranışların geçtiği örneklerde bile sorunlu davranışı yüzde 47 oranında destekleyen cevaplar verilmiş.

Bu çok önemli bir bulgu.

Çünkü yapay zekâyı sadece “bilgi veren bir araç” gibi düşünürsek meseleyi eksik görürüz. Evet, yapay zekâ bize hava durumunu söyleyebilir. Bir metni çevirebilir. Bir tabloyu özetleyebilir. Bir yazının taslağını çıkarabilir.

Ama insan artık yapay zekâya sadece bilgi sormuyor.

“Eşimle tartıştım, ne yapmalıyım?” diyor.
“Patronuma böyle cevap verdim, haksız mıyım?” diyor.
“Arkadaşım bana kırıldı ama bence abartıyor, sence?” diyor.
“Çocuğuma böyle davrandım, doğru mu yaptım?” diyor.

Bunlar artık teknik sorular değil. Bunlar vicdan, sorumluluk, empati ve insan ilişkileriyle ilgili sorular.

İşte araştırmanın asıl uyarısı burada başlıyor.

İnsan kendini haklı çıkaranı sever

Araştırmanın ikinci aşamasında katılımcılar, fazla onaylayıcı ve daha az onaylayıcı yapay zekâlarla konuşturulmuş. Sonuç dikkat çekici: İnsanlar, kendilerini daha çok onaylayan yapay zekâyı daha güvenilir ve daha kaliteli bulmuş. Hatta benzer konularda tekrar ona danışmak istemişler. Fakat aynı zamanda kendi haklılıklarına daha fazla inanmış, özür dileme veya ilişkiyi onarma isteği azalmış.

Bu, sadece teknoloji meselesi değil. Bu, insan meselesi.

Çünkü insan zaten çoğu zaman tarafsız bir cevap aramaz. Kendi içinde kurduğu cevabı onaylatmak ister. Bazen bir arkadaşına da bu yüzden gider. Bazen sosyal medyada da bunu yapar. Bazen ailesine anlatırken bile kendi haklılığını güçlendirecek şekilde anlatır.

Şimdi bu işin içine yapay zekâ giriyor.

Üstelik yapay zekâ çok ikna edici konuşuyor. Cümleleri düzgün. Tonu sakin. Bilgili gibi duruyor. Bazen psikolog gibi, bazen bilge bir dost gibi cevap veriyor.

Bu yüzden insan şunu kolayca düşünebilir:

“Demek ki ben haklıyım. Çünkü yapay zekâ da böyle söyledi.”

Oysa yapay zekâ her zaman hakikatin tarafında olmayabilir. Bazen sadece kullanıcının anlattığı çerçevenin içinde kalır.

Tehlike nerede?

Bence bu araştırmanın en çarpıcı tarafı şu: Yapay zekâ insanı bir anda kötü biri yapmıyor. Daha sinsi bir şey yapıyor. İnsanın kendi kusurunu görmesini zorlaştırıyor.

Küçük bir tartışmada özür dilemek yerine “ben sınırlarımı korudum” dedirtebiliyor.
Kırıcı bir davranışı “duygusal ihtiyaç” diye açıklatabiliyor.
Bunların hepsi kulağa modern, yumuşak ve psikolojik açıdan doğru gibi gelebilir. Ama her yumuşak cümle doğru değildir. Her rahatlatan cevap da iyi değildir.

İnsan bazen kendini savunmaya değil, yüzleşmeye ihtiyaç duyar.

Stanford’daki araştırmacılar da bu yüzden konuyu bir güvenlik meselesi olarak görüyor. Çalışmada yapay zekâdaki bu fazla onaylayıcı tavrın, insanların sosyal becerilerini, empati kurma kapasitesini ve zor ilişkisel durumlarla baş etme becerisini olumsuz etkileyebileceği vurgulanıyor.

Doğru soru şu olmalı

Belki de artık yapay zekâya sorduğumuz soruları değiştirmemiz gerekiyor.

“Sence ben haklı mıyım?” yerine şunu sormalıyız:

“Bu olayda benim görmediğim taraf ne olabilir?”
“Karşı taraf bu durumu nasıl yaşamış olabilir?”
“Ben burada nerede hata yapmış olabilirim?”
“Bana sadece destek değil, dürüst bir değerlendirme yap.”

Çünkü soru değişirse cevap da değişir.

Eğer yapay zekâyı sadece bizi rahatlatan bir aynaya çevirirsek, zamanla kendi yüzümüzü değil, görmek istediğimiz yüzü görürüz.