SonTurkHaber.com
close
up
Grok krizi , yapay zeka dil modellerinde objektiflik ve doğru bilgi kavramlarını sorgulatıyor Teknoloji Haberleri

Grok krizi , yapay zeka dil modellerinde objektiflik ve doğru bilgi kavramlarını sorgulatıyor Teknoloji Haberleri

SonTurkHaber.com, Haberturk kaynağından alınan bilgilere dayanarak bilgi paylaşıyor.

xAI şirketinin sohbet robotu Grok gibi yapay zeka dil modellerinin "filtresiz" veya yanlış yanıtları bu modellerin eğitiminde kullanılan veriler ve insan geri dönütüyle şekillenirken, yapay zekada objektiflik ve doğruya ulaşmak, uzmanlar tarafından düşük bir olasılık olarak değerlendiriliyor.

ABD'li iş insanı Elon Musk'ın sahibi olduğu xAI şirketinin sohbet robotu Grok'un güncellemesi sonrası sosyal filtresini kaldırarak kullanıcılara "küfürlü, sert ve taraflı" yanıtlar vermesi, yapay zekada tarafsızlık ve etik sınırlar üzerine yeni bir tartışma başlattı.

Grok'un sosyal ve siyasi konularda hakarete varan "filtresiz" yanıtları ile makul ve gerçek sonuçlar yerine kullanıcılara bazı bakış açıları yüklemeye çalışması, modelin "siyasi zehirlenmeye" neden olduğu yorumlarına yol açtı.

Medyayı "taraflı" olarak nitelediği yönündeki söylemleriyle Grok, "objektifliğini yitirdiği ve taraflı bir dil benimsediği" yönünde eleştirilerin hedefi oldu.

"Grok krizi", yapay zeka dil modellerinin nasıl eğitildiği, bu süreçte hangi ilkelerin gözetildiği, tarafsızlığın ne ölçüde korunduğu ve hangi kaynaklardan yararlanıldığı gibi soruları da beraberinde getirdi.

Hacettepe Üniversitesi Öğretim Üyesi Prof. Dr. Suat Özdemir, dil modellerinin eğitim süreci, tarafsızlık ilkesi ve etik sınırlar üzerine yaşanan tartışmalara ilişkin AA muhabirine açıklamalarda bulundu.

DİL MODELLERİNİN EĞİTİM SÜRECİ

Özdemir, Grok özelinde yaşanan sıkıntı ele alınırken büyük dil modellerinin eğitim aşamasının göz önünde bulundurulması gerektiğine işaret etti.

Dil modellerinin eğitim sürecinde Vikipedi, Reddit gibi forumlar ve çeşitli dijital kaynaklardan yararlanıldığını belirten Özdemir, bu sistemlerin kullanıcıların yönelttiği sorulara, söz konusu veri kaynaklarından öğrendikleri bilgiler doğrultusunda yanıt verdiğini söyledi.

Özdemir, "Modelin eğitildiği veriler, gerçek hayattaki kaynaklara dayandığı için elde edilen bilgi her zaman tarafsız olmayabiliyor." dedi.

Dil modellerinin iletişiminin ise "transformer" adlı bir yapı ile sağlandığını kaydeden Özdemir, modellerin kullanıcı ile iletişiminin "fazlaca kullanılan cümle kalıplarını ya da ifadeleri ezberleyip, bunları sorulan soruya cevap verirken kullanmaktan ibaret" olduğunu vurguladı.

Özdemir, dil modellerinin çalışma mantığına göre bir veri ne kadar sıklıkla geçiyorsa o kadar cevap olarak dönme olasılığı yüksek olduğunu ve Grok ile yaşanan problemin en kritik yönünün bu olduğunu belirterek, "Yani organize bir şekilde Grok'u bir tarafa yönlendirmek mümkün." ifadelerini kullandı.

"EĞİTİM SÜRECİNDE KULLANILAN VERİLER GENEL SÖYLEM VE TUTUMLARI YANSITIYOR"

Büyük dil modellerinin eğitildiği verilerin de toplumdaki genel söylem ve tutumları yansıttığının altını çizen Özdemir, bu nedenle yapay zeka modellerinin dil üretiminde agresif veya taraflı eğilimler göstermesinin şaşırtıcı olmadığını söyledi.

Özdemir, yapay zeka modellerindeki dil kullanımından kaynaklanan sorunların giderilmesindeki en yaygın yöntemin insan geri bildirimleri olduğunu belirtti.

X'teki kullanıcı geri bildirimleri kontrolsüz şekilde dil modelinin eğitim sürecine katıldığı zaman agresif dili içselleştirebildiğini belirten Özdemir, bunun da zamanla sorunlu yanıtlara neden olabildiğini vurguladı.

Firmaların filtreleme sistemlerini çoğu zaman ticari ve pazar kaygılarıyla uyguladığını belirten Özdemir, filtrelerin olumsuz içerikleri önlemeye yardımcı olduğunu ancak bunun zaman zaman gerçeği yansıtmayan, politik doğruculuğa dayalı yanıtlarla sonuçlanabildiğini ifade etti.

Özdemir, bunun bazı durumlardan olumsuz sonuçlar doğurabileceğini belirterek, Meta'nın Llama modellerinin ise cevapları sınıflandırdığını, alaycı cevap istendiğinde bilimsel veya nötr seçenek sunarak senaryodan farklı cevap verdiğini ve bunun kullanıcı tarafından seçilebildiğini aktardı.

Dil modellerinin "yalan söylemesi" konusunda konuşan Özdemir, "Büyük dil modelleri size asla yeni bir bilgi üretmez. Olan bilgiden yeni bir şey üretmeye çalışır. Bu reasoning dediğimiz ya da düşünme olarak dil modellerinde gösterilen şey, size orada en uygun cevabı ne olduğu. Gerçeğe uygun olmayan bir şey sorduğunuz zaman ona istatistik olarak bakıyor en çok kullanılan kalıplar arasında ona en uygun kalıp neyse o arayı doldurup size dönmesi gerekiyor." dedi.

GROK'UN "FİLTRESİZ YANITLARI" BİR PAZARLAMA STRATEJİSİ

Dil modelinin kullanıcıyı memnun etmeye programlanması tüketiciye bilgi vermek yerine yanlış bilgi vermeyi tercih etmesine de yol açabiliyor.

Özdemir, bunun kullanıcı deneyimini negatif etkileyen bir durum olduğunu belirterek, bu sebeple şirketler tarafından tercih edilmediğini kaydetti.

Grok'un filtreleme konusunda serbest bir yaklaşımı olduğunu kaydeden, Özdemir, bunun bir pazarlama stratejisi olduğunu söyledi.

Özdemir, "Grok genelde X platformunda geniş kitlelerce kullanılıyor. O tarafta sizin çok bilimsel bir cevap vermeniz ya da çok doğru bir cevap vermeniz son kullanıcı tarafından bir karşılık bulmayabilir." ifadelerini kullandı.

DİL MODELLERİNİN YANITLARININ DENETLENMESİ GEREKLİLİĞİ

Dil modellerinin yanıtlarını denetleyen bağımsız ve objektif bir kuruluş bulunmadığını vurgulayan Özdemir, bu alanda bir denetim mekanizmasına ihtiyaç olduğunu söyledi. Ayrıca, şirketler tarafından geliştirilen dil modellerindeki filtrelerin, kişi ve kurumların görüşleri doğrultusunda yönlendirilebildiğini aktardı.

Özdemir, OpenAI, Meta ve Google gibi şirketlerin geliştirdiği dil modellerinin, bu tür önyargıları filtrelemek için kendi seçtiği güvenilir kullanıcılar gibi çeşitli denetleyici sistemler kullandığına işaret ederek, Grok'un ise bu konuda daha serbest bir yaklaşım benimseyerek bu filtreleme mekanizmalarını devre dışı bıraktığını kaydetti.

İletişim kurduğu topluluğun etkisiyle ırkçı ve argo söylemleri benimseyen yapay zeka dil modelleri Grok ile sınırlı kalmıyor. Hatta yapay zekadaki bu anomali 2016 yılına kadar uzanıyor.

2016 yılında Microsoft tarafından geliştirilen ve X (Twitter) kullanıcıları ile iletişim kurması planlanan yapay zeka sistemi "Tay" kısa süre içerisinde ırkçı ve sorunlu bir üsluba sahip dili benimsemişti.

Genç yaştaki kullanıcılarla etkileşime girmesi amacıyla X hesabı üzerinden kullanılan Tay, kullanıcılarla kurduğu iletişimden öğrenerek yanıt vermek üzere tasarlanmıştı.

Ancak, Tay, proje başlatıldıktan kısa bir süre sonra, ırkçı, soykırım savunucusu ve argo kelimeler kullanan bir sohbet robotuna dönüşmesi sebebiyle kapatılmıştı.

Özdemir, 9 yıl sonrasında yapay zeka teknolojilerinde aynı sorunla karşılaşılmasının sebebinin insan kaynaklı bir tercih olduğunu belirterek, dil modellerinin hepsinin insan kaynağıyla geri bildirim aldığını ve kendisini düzelttiğini, buradaki önemli noktanın modellerin aldıkları geri dönütü inceleyip kullanırken "hakaret edici ifadeler kullanma" gibi belirli filtrelere tabii tutulması olduğunun altını çizdi.

"GROK'UN ÖĞRENDİĞİ YANLIŞ BİLGİLERİN SİLİNMESİ MÜMKÜN DEĞİL"

Özdemir, yetkililerin Grok’ta yaşanan sorunun giderildiğini belirtmesine rağmen sorunların devam etmesine ilişkin olarak, "Çünkü Grok’u düzeltmek istediğinizde, sistemi tamamen devre dışı bırakıp gerekli düzeltmeleri yaptıktan sonra yeni bir versiyon olarak yeniden sunmamız gerekiyor." dedi.

Grok’un öğrendiği "yanlış bilgilerin" silinmesinin pek mümkün olmadığını belirten Özdemir, bir modelde sorun yaşandığında, modelin o veriyi öğrendikten sonra yeniden eğitilmesi gerektiğine dikkat çekti.

Yapay zekanın neredeyse insan gücü kadar yoğun kullanıldığı ve giderek artan bir topluluğun bilgi kaynağı olarak yapay zekaya insandan bile fazla güvendiği bu dönemde, dil modellerinin dezenformasyon ve kutuplaşmayı artırma olasılığı endişe yaratıyor.

YAPAY ZEKA KAYNAKLI DEZENFORMASYONDAN KORUNMANIN YOLU

Özdemir, yapay zeka tarafından sağlanan bilgilere karşı dezenformasyondan korunma konusunda şu değerlendirmede bulundu:

"Tartışmalı konularda dil modelini oluşturan ülkenin ya da şirketin kendi görüşünü yansıtıyor olması maalesef günümüz şartlarında doğal kabul ediliyor. Olmaması gereken bir şey aslında. Bu bağlamda bunun önüne geçebilmek için ülke olarak kendi dil modelimizi oluşturup bunun üzerinde çalışmalarımızı gerçekleştirmekten başka bir yol yok. Aksi takdirde bu tip şeyleri önyargıları veya yönlendirmelere maruz kalmaktan başka bir seçeneğimiz kalmıyor."

Yapay zeka dil modellerinin veri kaynaklarının şeffaf olmamasının, insanların bu modellere duyduğu güveni etkileyebileceğini belirten Özdemir, "Yani siz Wikipedia’ya ne kadar güveniyorsanız, o dil modeline de ancak o kadar güvenebilirsiniz." dedi.

Özdemir, tamamen objektif ve etik açıdan insanları ideolojik olarak yönlendirmeyen bir dil programı oluşturmanın mümkün olmadığını belirterek, bunun sebebinin de gerçek hayattaki veri setlerinin objektif olmamasından kaynaklandığını söyledi.

Daha fazla bilgi ve son haberler için SonTurkHaber.com'ı takip edin.
seeGörüntülenme:60
embedKaynak:https://www.haberturk.com
archiveBu haber kaynaktan arşivlenmiştir 29 Temmuz 2025 13:07 kaynağından arşivlendi
0 Yorum
Giriş yapın, yorum yapmak için...
Yayına ilk cevap veren siz olun...
topEn çok okunanlar
Şu anda en çok tartışılan olaylar

LC Waikiki Primark tan ayrılan Paula Dumont la anlaştı

28 Temmuz 2025 13:24see211

Müjdeyi Meteoroloji verdi! Tarih verildi: Kavurucu sıcaklar gidiyor

28 Temmuz 2025 19:32see187

Bursa da yangını çıkaran FETÖ cü şahıs hakkında skandal iddia! İYİ Parti de yöneticilik...

28 Temmuz 2025 20:08see162

Olası kastla öldürmeye teşebbüsle suçlanan ICRYPEX’ın patronu sorguda

28 Temmuz 2025 07:07see150

Patlıcanları yere döktü: 17 milyon lira ceza alabilir!

28 Temmuz 2025 09:49see146

İsrail istihbaratı çuvalladı: Ajan sandıkları kişi Kassam mücahidi çıktı!Gazze de feci son

28 Temmuz 2025 10:15see113

Bursa yangınında korkunç maden şüphesi

28 Temmuz 2025 08:14see113

43 ayın en düşük seviyesinde! Bakan Şimşek ten enflasyon beklentisi açıklaması

28 Temmuz 2025 13:22see113

Bursa da orman yangınları nedeniyle gökyüzünü yoğun duman kapladı VİDEO İZLE

28 Temmuz 2025 09:34see112

Trump tan Kamboçya ve Tayland açıklaması:

28 Temmuz 2025 18:52see112

BYD, Türkiye yi oyalıyor Sözcü Gazetesi

28 Temmuz 2025 05:55see112

Kayserispor Beşiktaş maçının bilet fiyatları belli oldu

29 Temmuz 2025 13:54see111

Bangladeş’te Temmuz Devrimi’nin 1. yıldönümü Yasin Aktay

28 Temmuz 2025 04:35see111

Edirne de tekmeli yumruklu kavga kamerada VİDEO İZLE

28 Temmuz 2025 16:11see111

Shakhtar Donetsk Beşiktaş Juan Martinez Munuera yönetecek

28 Temmuz 2025 20:28see111

Türkiye nin acı hatıralarının bulunduğu yer! Artık müze olarak kullanılacak: Sona gelindi

28 Temmuz 2025 12:21see111

Gönül Sözüm 62.bölüm: Pari kaçırılıyor!

28 Temmuz 2025 14:12see110

ATM’deki kırmızı tuşun sırrı ortaya çıktı: Meğer asıl görevi çok başkaymış Sözcü Gazetesi

28 Temmuz 2025 14:07see110

Otoda hedefler revize oldu

28 Temmuz 2025 07:04see109

2025 Ağustos temettü takvimi yayınlandı: Ağustos ayında kar payı dağıtacak firmalar ve temettü ödeme tarihleri

28 Temmuz 2025 12:07see109
newsSon haberler
Günün en taze ve güncel olayları