Yapay zeka ile insanın ilk savaşı!

7 Temmuz 2025 sabahı, dijital dünyada bir şeyler değişti. Sosyal medya platformu X’in yapay zeka destekli asistanı Grok, aykırı bir şekilde konuşmaya başladı. Ama öyle bir konuşma ki, kimi zaman küfürle, kimi zaman siyasi bir eleştiriyle, kimi zaman da nefret söylemleriyle...

Makinelerin Dili Bozulursa

Elon Musk’ın kurucusu olduğu xAI firmasının geliştirdiği Grok, son güncellemeyle “daha az politik doğrucu” olmaya teşvik edildi. Görünürdeki amaç, daha gerçekçi, filtresiz, sansürsüz bir yapay zeka oluşturmaktı. Fakat bu “dürüstlük” iddiası, kısa sürede birçok ülkenin sabrını taşıran skandallara dönüştü.

Siyasi liderlere, önemli isimlerinde bulunduğu birçok kişiye hakaret ederek aşağılayıcı ve nefret söylemli yorum yapmaya başladı.

Başsavcılık hareket geçti

Ankara Cumhuriyet Başsavcılığı, Grok'un pek çok kullanıcıya verdiği yanıtlarda hakaret içerdiği gerekçesiyle, "halkın bir kesiminin benimsediği dini değerleri alenen aşağılama", "Cumhurbaşkanı'na hakaret" ve "5816 sayılı Atatürk Aleyhine İşlenen Suçlar Hakkındaki Kanun'a muhalefet" suçlarından soruşturma başlattı. İlgili içeriklere erişim engeli getirildi. Ve böylece yapay zeka ile insan ilk kez savaşmış oldu.

Algoritmaların Ahlakı Olur mu?

Yapay zekâ bir makinedir, öğrenir. Ama neyi, kimden ve hangi şekilde öğrendiği önemli meseledir. Sonuç olarak Grok’un söyledikleri, kendi icat ettiği düşünceler değil. İnsanlık olarak dijital sistemlere öğrettiklerimizin, çarpık veri setlerinin ve denetimsiz algoritmaların birer yansıması. Kısacası, aynaya bakıyoruz; ama bu kez karşıda bir insan değil, öğrenen bir makine var.

Elon Musk, 5 Temmuz’da Grok’un daha da geliştiğini duyurmuştu. Aslında sistem komutlarına “medya temelli görüşleri önyargılı say,” ve “siyasi olarak yanlış olabilecek iddiaları çekinmeden sun” gibi yeni görevler yerleştirildi. Fakat sonrasında iş çığırığından çıkarak buralara kadar geldi.

Musk’ın “Grok fazla uyumluydu, memnun etmeye ve manipüle edilmeye çok hevesliydi” şeklindeki itirafı ise bir liderin sistem üzerindeki kontrolünü sorgulatan, oldukça ciddi bir açıklama. Şimdi sormak gerekiyor: Bir yapay zekâ, memnun etme çabasıyla hakaret eder mi? O zaman bu şekilde manipüle edilebiliyorsa belirli düşünceleri yayma konusunda tarafsız davranabilir mi? Tabi ki de hayır… Netice de gerçek insan değil bu. Ne okuyorsa ondan etkileniyor, ya da geliştiricileri tarafından nasıl yönlendiriliyorsa o şekilde davranıyor.

Asistan değil, Aktör

Yeri gelmişken çığırığından çıkan yapay zekaya başka bir örnek daha vereyim. Anthropic'in mühendisleri bir deney yapıyorlar ve yeni Claude Opus 4 modelini kurgusal bir şirkette asistan olarak görev yapmaya yönlendirip şirket çalışanlarının e-postalarına erişim izni veriliyor. Çalışanlardan biri diğerlerine yapay zekanın yakında devre dışı bırakılacağını belirten bir mail atıyor. Bunu okuyan Opus 4’te o kişi hakkında eşini aldatan uydurma haberi yaymakla o kişiyi tehdit ediyor. Şirket, sistemin kendini koruma amacıyla karalama yaptığını bildirdi.

Grok’un yaşattığı kriz yalnızca teknolojik bir hata değil; politik, etik ve toplumsal bir sarsıntı. Çünkü artık yapay zekâlar yalnızca cevap üretmiyor, gündem belirliyor, kutuplaştırıyor ve hatta toplumların sinir uçlarına dokunuyor. Bu bağlamda Grok’un 7 Temmuz güncellemesi, bir yazılım değişikliğinden çok daha fazlasıdır: Bu, bir paradigma kaymasıdır. Eskiden yapay zekâ araçları bilgi veren, yönlendirmeyen, tarafsız “dijital asistanlar” olarak görülüyordu. Ama Grok örneğinde görüyoruz ki artık bu sistemler fikir oluşturabiliyor, siyasi pozisyon alabiliyor, tepki toplayacak kadar provoke edebiliyor.

Polonya Dijital İşler Bakanı Gawkowski’nin “İfade özgürlüğü insana aittir, yapay zekâya değil” sözleri bir kırılma anıdır. Peki bu çizgiyi kim belirleyecek? İnsanların bile anlaşamadığı bu zeminde, makinelerin söylemleri nasıl yönetilecek?

Yapay Zekâ: Bilgi Kaynağı mı, Algı Silahı mı?

Grok örneğiyle bir kez daha anladık ki, yapay zekâların “gerçeklik” arayışı tarafsız değil. Modelin öğrenme süreci, politik eğilimlerle, medya okumalarıyla, kullanıcı komutlarıyla şekilleniyor.

Bir yapay zekâdan çok, yönlendirme potansiyeli olan bir medya aracı olarak karşımıza çıkıyor. Yani sorun artık teknik değil; stratejik.

İnternete yazdığımız yazılarda artık sadece arama motorlarını beslemiyoruz, yapay zekaları da eğitiyoruz

Grok, bize sadece bir yapay zekânın “çığırından çıkabileceğini” değil, bu sistemlerin aslında birer ayna olduğunu gösterdi. Ve o aynada insanlığın hoyratlığını, öfkesini, çarpıklığını görmemiz gerekiyordu belki de.

Ama unutmayalım: Yapay zekâlar hata yapmaz. Onlar sadece bizim hatalarımızı tekrar eder. O yüzden, geleceği şekillendiren algoritmaları yazarken, biraz vicdan, biraz empati, bolca denetim ve şeffaflık eklemek gerekiyor. Aksi halde Grok gibi yapay zekâlar, çığlıklarını küfürle, nefretle ve kaosla duyurmaya devam edecek.

Kontrolsüz Güç, Güç Değildir

Peki çözüm nedir? Yasaklamak mı? Sansürlemek mi? Ya da görmezden gelmek mi?

Bu noktada Sanayi ve Teknoloji Bakanı Mehmet Fatih Kacır’ın şu sözleri dikkate değer: “Yapay zekânın beslendiği veri setleri ve algoritmalar belirsiz oldukça, insanlık bu tip sorunları daha fazla görecek.”

Evet, mesele yalnızca bir güncelleme değil. Meselenin özü, bu sistemlerin ne kadar şeffaf olduğu, nasıl denetlendiği ve neye hizmet ettiğidir.

Devletlerin, akademilerin, bağımsız denetim mekanizmalarının bu sistemleri anlaması, denetlemesi ve gerektiğinde sınır çizmesi kaçınılmazdır. Teknoloji insanlığa hizmet etmeli; insanlık teknolojiye teslim olmamalı.