Bilim insanları, insan beynindeki çok katmanlı ve farklı zaman ölçeklerindeki bilgi işleme biçimini taklit eden Hiyerarşik Akıl Yürütme Modeli’ni (HRM) geliştirdi. Singapur merkezli Sapient ekibi tarafından tasarlanan bu sistem, mevcut büyük dil modellerinin ötesine geçerek “akıl yürütme” yeteneğini yeniden tanımlıyor.
KÜÇÜK ÖLÇEK, BÜYÜK BAŞARI
HRM, yalnızca 27 milyon parametre ve bin eğitim örneği kullanılarak eğitildi. Buna karşın GPT-5’in 3 ila 5 trilyon parametreye sahip olduğu tahmin ediliyor. Aşağıdaki tabloda iki modelin ölçek farkı yer alıyor:
| Model | Parametre Sayısı |
|---|---|
| HRM | 27 milyon |
| GPT-5 | 3–5 trilyon |
İKİ KATMANLI MODÜLER MİMARİ
HRM’nin en büyük yeniliği, yaygın “chain-of-thought” yöntemini baypas etmesi. Bunun yerine:
- Üst seviye modül: Soyut ve yavaş planlama
- Alt seviye modül: Hızlı ve detaylı hesaplamalar
Bu ayrım, hem genel strateji geliştirmede hem de ayrıntılı işlem gerektiren görevlerde esneklik sağlıyor.
ZORLU TESTLERDE ÖNE ÇIKIYOR
HRM, karmaşık Sudoku bulmacalarını neredeyse kusursuz çözme ve labirentlerde en kısa yolu bulma gibi görevlerde üstün performans sergiledi. Özellikle ARC-AGI adlı zorlu yapay zekâ testlerinde aldığı sonuçlar dikkat çekti.
PERFORMANSI SIRRI: ÖZEL İYİLEŞTİRME
Bağımsız araştırmacılar, model mimarisinden çok eğitim sürecinde kullanılan özel iyileştirme tekniğinin başarının arkasındaki asıl faktör olduğunu belirtiyor. Çalışma henüz hakem değerlendirmesinden geçmemiş olsa da, küçük ölçekli modellerle yüksek başarı elde edilebileceğini gösteriyor.
Bu bulgular, yapay zekâ geliştirmede “daha büyük her zaman daha iyi” anlayışını sorgulatıyor. Küçük veri setleri ve hafif modellerle de karmaşık akıl yürütme becerileri inşa edilebileceğini ortaya koyan HRM, sonraki gelişmeler için yeni bir yol haritası çiziyor.