İnsan beynini temel alan yeni yapay zeka, ChatGPT yi geride bıraktı
SonTurkHaber.com, Mynet kaynağından alınan bilgilere dayanarak bilgi yayımlıyor.
Yapay zekâ alanında her geçen gün yeni bir dönüm noktası yaşanıyor. Yapay zeka dünyasında rekabet ise artık yalnızca parametre sayısı ya da kullanılan veri miktarıyla sınırlı değil. Yaşanan son bir gelişme de bunun ispatı niteliğinde.
ÇOĞU BÜYÜK DİL MODELİNDEN FARKLI ŞEKİLDE AKIL YÜRÜTEBİLEN YENİ BİR YAPAY ZEKABilim insanları, ChatGPT gibi çoğu büyük dil modelinden farklı şekilde akıl yürütebilen yeni bir yapay zeka modeli geliştirdi. Bu da kilit ölçütlerde çok daha iyi performans elde etmesini sağladı.
Hiyerarşik akıl yürütme modeli (HRM) olarak adlandırılan bu yeni yapay zeka, beynin farklı bölgelerinin bilgiyi milisaniyelerden dakikalara kadar değişen sürelerde bütünleştirdiği çok katmanlı ve çok zaman ölçekli işleyişten esinleniyor.
Singapur merkezli yapay zeka şirketi Sapient’teki araştırmacılar, bu modelin daha yüksek verimlilik ve performans sağladığını belirtiyor. Bunun nedeni, modelin çok daha az parametreye ve eğitim örneğine ihtiyaç duyması. HRM yalnızca 27 milyon parametre ve 1.000 eğitim örneğiyle çalışırken, gelişmiş LLM’ler milyarlarca hatta trilyonlarca parametreye ihtiyaç duyuyor. Henüz doğrulanmamış olsa da bazı tahminler, yeni yayımlanan GPT-5’in 3 ila 5 trilyon parametre içerdiğini öne sürüyor.
TESTTE HEPSİNİ SOLLADIAraştırmacılar HRM’yi, yapay genel zekâya (AGI) ne kadar yaklaşıldığını ölçen zorlu ARC-AGI testinde denedi. Çalışmaya göre sistem dikkat çekici sonuçlar verdi.
ARC-AGI-1 testinde HRM %40,3 puan alırken, OpenAI’nin o3-mini-high modeli %34,5, Anthropic’in Claude 3.7 modeli %21,2, Deepseek R1 ise %15,8 puan aldı.
Daha zorlu ARC-AGI-2 testinde HRM %5 skor elde ederken, o3-mini-high %3, Deepseek R1 %1,3 ve Claude 3.7 %0,9 puan alabildi.

Çoğu gelişmiş LLM, karmaşık sorunları daha basit adımlara bölerek çözmeye çalışan zincirleme düşünme (Chain-of-Thought, CoT) yöntemini kullanıyor. Bu yöntem, insan düşünme sürecini taklit ederek zor problemlerin sindirilebilir parçalara ayrılmasını sağlıyor.
Ancak Sapient araştırmacıları, CoT yönteminin kırılgan görev ayrışması, büyük veri ihtiyacı ve yüksek gecikme gibi zayıf yönleri olduğunu savunuyor. HRM ise ara adımların açıkça yönlendirilmesine gerek kalmadan iki modül üzerinden tek seferlik akıl yürütme uyguluyor:
Üst düzey modül yavaş ve soyut planlamadan sorumlu, Alt düzey modül ise hızlı ve detaylı hesaplamaları yapıyor.Bu yöntem, beynin farklı bölgelerinin bilgiyi işleme biçimine benziyor. Ayrıca HRM, “iteratif iyileştirme” yöntemiyle birkaç kısa “düşünce patlaması” üzerinden çözümü giderek daha doğru hale getiriyor. Her patlamada sürecin devam mı edeceğine, yoksa “nihai” cevap olarak sunulup sunulmayacağına karar veriliyor.
SUDOKU VE LABİRENTLERDE BAŞARI ELDE ETTİHRM, geleneksel LLM’lerin başaramadığı karmaşık Sudoku bulmacalarında neredeyse kusursuz sonuçlar elde etti ve labirentlerde en kısa yolu bulma görevlerinde de üstün başarı gösterdi.
Henüz hakemli incelemeden geçmemiş olan çalışmanın ardından, ARC-AGI ölçütünü geliştiren ekip, HRM modelinin GitHub’da açık kaynak olarak paylaşılmasından sonra sonuçları kendileri yeniden test etti. Rakamları doğrulamakla birlikte, bazı şaşırtıcı bulgulara ulaştıklarını da belirttiler. Örneğin, hiyerarşik mimarinin performansa çok az katkı sağladığını, asıl iyileştirmenin eğitim sürecindeki belgelenmemiş bir ince ayar mekanizmasından geldiğini vurguladılar.


