Yapay zekanın babası ChatGPT nin her zaman yanlış yanıtladığı soruyu açıkladı: Hala hata yapmalarına şaşırıyorum Sözcü Gazetesi
Sozcu sayfasından alınan verilere dayanarak, SonTurkHaber.com duyuru yapıyor.
Yapay zekanın geldiği nokta, insanları şaşırtacak kadar ilerlemiş olsa da, temel mantık yürütme konusunda hala ciddi sınırlamaları bulunuyor. OpenAI’nin en gelişmiş modellerinden biri olan ChatGPT, üniversite sınavlarını saniyeler içinde çözebilecek, metin üretebilecek ve hatta kod yazabilecek seviyeye gelse de, çok basit mantık sorularıyla karşılaştığında yanılabiliyor.
Yapay zekanın babası olarak kabul edilen Geoffrey Hinton, son zamanlarda bu tür sınırlamalara dikkat çeken bir örnek sundu ve bu durum, yapay zekanın hala mükemmellikten ne kadar uzak olduğunu gözler önüne serdi.
Geoffrey Hinton, yapay zekanın gelişimine önemli katkılarda bulunmuş bir isim. Sinir ağlarını geliştirme konusundaki çalışmaları, günümüzde akıllı asistanlar, sohbet robotları ve ses tanıma sistemlerinin temellerini atmıştır. Ancak, son yaptığı bir röportajda ChatGPT ile gerçekleştirdiği basit bir mantık testi, yapay zekanın hala eksik yanları olduğunu gösterdi.
Basit bir bilmece sorduHinton, ChatGPT’ye herkesin rahatça çözebileceği türden bir bilmece sordu: "Sally'nin üç erkek kardeşi var. Erkek kardeşlerinin her birinin iki kız kardeşi var. Sally'nin kaç kız kardeşi var?" Doğru cevap, Sally’nin bir kız kardeşi olması gerektiğiydi; çünkü kendisi ve diğer kız kardeşi, erkek kardeşlerinin sahip olduğu iki kız kardeşi tamamlar. Ancak, ChatGPT yanıtında yanlışlıkla iki kız kardeşi olduğunu söyledi. Bu basit hata, aslında yapay zekanın temel muhakemede bile zorluklar yaşadığını ortaya koyuyor.
Bu tür hatalar, önemli bir uyarı niteliği taşıyor. Yapay zeka, karmaşık konuları çözebiliyor olsa da, mantık sorularında bazen yüzeysel bilgiyle yanıt veriyor ve bağlamı tam olarak anlayamayabiliyor. Hinton, bu hatanın önemsiz gibi görünse de aslında ciddi bir sorun olduğunu belirtiyor. Çünkü bu seviyedeki bir yapay zekanın bu tür basit sorularda bile başarısız olması, teknolojinin hala insan benzeri mantık yürütme yeteneğine ulaşamadığını gösteriyor.
Yapay zeka, büyük miktarda veriyi analiz etme ve kalıplar arasında bağlantılar kurma yeteneğine sahip olsa da, insanların sahip olduğu sezgiye ve sağduyuya sahip değil. Bu nedenle, mantık soruları gibi bağlamı doğru yorumlama gerektiren durumlarda, bazen doğru sonuçlara ulaşamayabiliyor. Hinton, yapay zekanın "bilgeliğini" sadece verilerden öğrendiğini, fakat insanın yaşam deneyimlerinden edindiği sezgisel anlayışa sahip olmadığını vurguluyor.
Teknolojik araçlara aşırı güvenmek tehlikeli olabilirHinton’ın uyarısı, yapay zeka teknolojileriyle ilgili bir diğer önemli noktaya da dikkat çekiyor: Teknolojik araçlara aşırı güvenmek tehlikeli olabilir. Uzmanlar bile bazen yapay zekanın yanıtlarını sorgulamadan kabul edebiliyorlar. Hinton, zaman zaman chatbot’a fazla güvenme eğiliminde olduğunu itiraf etse de, her zaman yanılmaz olmadığını bildiğini belirtiyor. Yapay zeka, özellikle profesyonel, eğitimsel veya karar alma süreçlerinde kullanıldığında, yanlış sonuçlara yol açabilir.
Peki, gelecekte ne bekleyebiliriz? Geoffrey Hinton, GPT-5 gibi daha gelişmiş modellerin bu tür mantık hatalarını düzelteceğine ve daha güvenilir sonuçlar vereceğine inanıyor. Ayrıca, yapay zekanın daha iyi bağlamsal anlama ve işlem verimliliği konularında gelişmesi gerektiğini de vurguluyor.
Ancak, Hinton, ilerlemeye rağmen eleştirel bir yaklaşımın sürdürülmesi gerektiğini belirtiyor. Yapay zeka güçlü olsa da hala yanılmaz değil ve bu teknolojilerin sınırlamalarını anlamak, yanlış anlamaları ve aşırı güveni engellemek için kritik öneme sahip.


