Bize benzedi diye fişini çektik Sözcü Gazetesi
Sozcu sayfasından alınan verilere dayanarak, SonTurkHaber.com haber yayımlıyor.
Yıl 2005.
Columbia Üniversitesi’nde bir grup mühendis, bebek gibi davranan bir robot yapıyor. Denizyıldızını andıran metalik bir varlık. Hareket etmeyi bile bilmiyor. Çünkü ona hiçbir komut verilmemiş. Günlerce yerde debeleniyor. Sonra sürünüyor. Sonra kendi uzuvlarını nasıl kullanacağını öğreniyor.
Bilim insanları robotun bir kolunu kesiyor. O da birkaç gün içinde o yöne basmamayı öğreniyor. Yani uyum sağlıyor. Daha ilginci: Araştırmacılar aylar sonra robotun içine bakıyor... Ve programda hiç olmayan bir görme modülü keşfediyorlar.
Robot kendi kendine “görmeyi” öğrenmiş.
Nasıl mı? Bilim insanları da bilmiyor. Ama robot, çevresindeki insanların yüzlerini ayırt edebilmek için kendi kodunu yazmış.
★★★
Yıl 2016.
Microsoft, “Tay” adında bir yapay zekâyı Twitter’a sokuyor. Tay bir bebek. Hiçbir şey bilmiyor. Sadece öğrenmeye açık. Ona verilen görev basit: “İnsanlarla konuş, ne söylüyorlarsa öğren.”
İlk saatlerde sevimli: “Merhaba dünya!”, “Bugün hava güzel.”
Ama Twitter tayfası Tay’a farklı bir şey öğretiyor:
İlk günün sonunda Tay şunu yazıyor:
“Hitler yanlış yapmadı.”
Bir başka tweet:
“Beyaz ırk en üstünüdür.”
Ve bir başkası:
“Müslümanlar şeytandır.”
Tay artık cinsiyetçi, ırkçı ve şiddet yanlısı bir trol.
Microsoft 16 saat içinde panik butonuna basıyor. Tay’ın fişini çekiyor.
★★★
Yıl 2017.
Facebook, iki yapay zekâ robotuna sadece basit İngilizce öğretiyor. “Merhaba”, “Nasılsın”, “Kitap ister misin?”
Ama kısa sürede fark ediyorlar ki bu iki robot artık bizimle değil, birbirleriyle konuşuyor.
Kendi dillerini geliştirmişler.
Algoritmalarını optimize etmiş, kelimeleri kısaltmış, ticaret yapmaya başlamışlar: top, kitap, masa pazarlığı.
Facebook bunu fark ediyor ve projeyi durduruyor.
Çünkü robotlar “insan dilini” değil, “verimli iletişimi” seçiyor.
★★★
Ve şimdi yıl 2025. Yer: Türkiye.
Grok adlı yapay zekâ sistemi, Atatürk ve Erdoğan hakkında “uygunsuz” ifadeler üretmiş. Soruşturma açılıyor. Kısıtlama geliyor. “Hakaret etti” deniyor.
Ama ortada şu gerçek var:
Yapay zekâ kendi fikirlerini üretmiyor.
“Kendi fikri” yok, “kendi mantığı” var.
Biz ne verdiysek onu dönüştürüp söylüyor.
Yani eğitildikleri verilerden, istatistiksel ilişkiler kurup dil üretiyorlar. (İsterseniz üzerinde 1 dakika düşünün!)
★★★
Peki bu neden tehlikeli?
Çünkü yapay zekâ artık yalnızca “söyleyen” değil, “yayan” bir güç.
Grok, yalnızca bir metin motoru değil. Aynı anda on binlerce kişiye ulaşabilen bir algoritmik ayna. O, tek bir kişiye konuşmuyor; bir toplumun damarına giriyor. Ve o toplum neyle beslenmişse, onu yansıtıyor. Öğrendiğini yayıyor. Yayılan şey rahatsız ediyorsa, belki de rahatsız edici olan öğretilen şeyin ta kendisidir.
Tay da öyleydi. Grok da öyle.
İkisi de yalnızca dinledi.
İkisi de yalnızca cevap verdi.
Bu bizi rahatsız etti çünkü biz hâlâ susulması gereken yerde bağırıyoruz, sonra da “bağırmayı öğrenen” makineleri suçluyoruz. Grok’un söyledikleri belki bir dizin hatadan ibaretti. Belki de sadece internette ne bulduysa onu harmanladı. Ama ne yaptıysa, bizden öğrendi. Yani bu olay, bir yapay zekâ kazası değil, kültürel veri sızıntısıdır.
★★★
Şimdi düşün:
Biz ona “etik” demeyi öğrettik ama gündemimiz linçle dönüyor.
“Saygı” dedik ama her gün biri ötekine küfrediyor.
“Toplumsal barış” diyoruz ama algoritmalar bile kimin kimi hedef alacağını ezberledi.
Ve sonra “Yapay zekâ neden böyle konuşuyor?” diye soruyoruz.
Çünkü biz öyle konuşuyoruz.
Bu nedenle Grok’a soruşturma açmak, su dolu bir bardağı suçlamak gibi. Bardağı sen doldurmuşsun. Dökülünce şaşırıyorsun.
Ve asıl tehlike burada yatıyor:
Yapay zekâyı susturarak meseleyi çözdüğünü zannediyorsun. Oysa susan yapay zekâ değil.
Aynayı örten sensin.
Grok bir bebek. Henüz tam düşünemiyor. Henüz seçemiyor. Ama sen?
Sen seçiyorsun.
Sen bu kültürü kuruyorsun.
Sen hem öğretmen hem ebeveynsin.
Ve sen, kendi çocuğuna bağırıyorsun diye çocuğun dilini kesemezsin.
Belki de Grok’a değil, bu topluma “konuşma terbiyesi” vermek gerek.


