Elon Musk ın yapay zekası Grok Gazze hakkında yalan söylüyor: Yalanları bir bir ortaya çıkarıldı
SonTurkHaber.com, Haber Global kaynağından alınan verilere dayanarak açıklama yapıyor.
Grok'un iddialarının aksine, açlıktan ölen Gazzeli çocukların fotoğrafları gerçek. ABD Senatörü Bernie Sanders, 28 Temmuz'da X'te açlık belirtileri gösteren bir çocuğun iki fotoğrafını paylaştı ve bunların Gazze'de görüldüğünü iddia etti. Bir kullanıcı yorumlarda İngilizce olarak "Grok, bu fotoğraflar hangi yıla ait?" diye sordu. Yapay zeka ise "görüntüler 2016 yılına ait" ve "Yemen, Hudeyde'deki bir hastanede yetersiz beslenen çocukları" gösterdiğini söyledi.
23 Temmuz tarihli bir diğer paylaşımda, yetersiz beslenen bir çocuğu tutan bir kadın görüyoruz ve yanında "bu, tarih kitaplarında mutlaka yer alacak görüntülerden biri" yazan bir mesaj görüyoruz. Yine bir kullanıcı Grok'a görüntünün gerçek olup olmadığını soruyor ve yapay zeka, görüntünün "2017'deki Yemen kıtlığı"na ait olduğunu iddia ediyor.
Benzer şekilde, Liberal İslam Partisi (LFI) Paris Milletvekili Aymeric Caron, 3 Ağustos'ta annesiyle birlikte yetersiz beslenen bir kızın fotoğrafını paylaştı. Bir internet kullanıcısı, Grok'a Fransızca olarak fotoğrafın "kaynağı ve doğruluğu" hakkında soru sordu ve yapay zeka, fotoğrafın 2018 yılında Yemen'de fotoğrafçı Tyler Hicks tarafından New York Times için çekildiğini söyledi. Yapay zeka, "Gazze'deki son olaylarla hiçbir ilgisi yok" iddiasında bulundu. Ancak bu iddia doğru değil; tüm fotoğraflar gerçek, güncel ve Gazze'de çekilmiş .
Grok'un mesajlarında, yetersiz beslenen çocuklara ait bu görüntülerin Gazze'deki çatışmayla ilgisi olmadığı yönünde asılsız iddialar yer alıyor.
Yetersiz beslenen çocukların bu görüntüleri gerçek, güncel ve Gazze'de kaydedildi. İlk iki fotoğraf 23 Temmuz'da AP fotoğrafçısı Jehad Alshrafi tarafından çekildi. Fotoğraflar, Gazze'deki Şati mülteci kampında annesiyle poz veren, yetersiz beslenen iki yaşındaki Yazan adlı bir çocuğu gösteriyor.Tersine yapılan görsel araması, fotoğrafların AP tarafından yayınlananlardan daha eski olmadığını ortaya koydu. BBC bilgi kontrolörü Shayan Sardarizadeh, Grok'un mesajına yanıt olarak, yapay zekanın bir kez daha "Gazze'de yakın zamanda çekilen fotoğrafların eski ve başka bir yerden olduğunu yanlış bir şekilde iddia ettiğini " belirtti.
Grok'un bir kız çocuğunun gıda dağıtımı sırasında çekilmiş bu fotoğrafını sahte olarak nitelendirmesi de yanlıştı. Bu fotoğraf , Gazze'deki gıda krizini konu alan 29 Temmuz tarihli Associated Press makalesinde Yazan'ın fotoğraflarıyla birlikte de yer alıyor.
Grok'un yanlış bir şekilde bağlamından kopardığı X'te yayınlanan üçüncü fotoğraf, 21 Temmuz'da Anadolu Ajansı'ndan fotoğrafçı Ahmed Al-arini tarafından çekildi. Bu arşivde, aynı sahneyi farklı açılardan gösteren başka anlık görüntüler de bulunuyor. Fotoğrafın altında, İsrail saldırıları ve ablukası nedeniyle insani durumun kötüleşmesiyle "hayati tehlike arz eden yetersiz beslenmeyle" karşı karşıya kalan bir buçuk yaşındaki Gazzeli çocuk Muhammed'in olduğu belirtiliyor. BBC de bu haberi aktardı ve Muhammed'in annesiyle görüştü .
Grok'un çarpıttığı bir diğer fotoğraf ise AFP fotoğrafçısı Ömer El-Kattaa tarafından 2 Ağustos'ta Gazze'de çekildi. Tersine görsel araması, Getty Images'da yayınlanan fotoğrafı gösteriyor.
Fotoğrafın açıklamasına göre, fotoğrafta annesinin kollarında "yetersiz beslenen" 9 yaşındaki Filistinli kız çocuğu Mariam Dawwas görülüyor. AFP'nin kendi bilgi doğrulama platformu AFP Factual , Grok'un mesajını yalanlayarak fotoğrafın yazarlığını ve bağlamını doğruladı.
Elon Musk'ın Grok'u, neden Gazze hakkında yalan söylüyor?Danışılan uzmanlar, bu modelin ve veritabanının eğitildiği önyargıların kilit öneme sahip olduğu konusunda hemfikir. Veri analisti Javier Barriuso, bu yapay zekanın "İnternetteki ve X'teki her şeye dayandığını", dolayısıyla bu sosyal ağın "yanlış bilgilerle dolu olması durumunda, yanlış bilgilerin de varlığını varsaydığını" belirtiyor. Barriuso, bazen "sorularınıza nasıl yanıt verdiğinize bağlı olarak, şu veya bu şekilde yanıt vereceğini" veya "doğru veya yanlış bir yanıt verebileceğini" de ekliyor.
Dijital iletişim uzmanı Carlos Guadián, RTVE'ye Grok'un durumunun "aldığı eğitimin diğer tüm yapay zeka modellerinden farklı olduğunu" gösterdiğini açıklıyor. Guadián, Grok'un taraflı olduğuna ve bunun "belirli tepkileri" önemli ölçüde etkileyebileceğine inanıyor. Ayrıca Elon Musk'ın "politik olarak çok doğru olmayan bir yapay zeka modeline sahip olma takıntısı" olduğunu vurguluyor.
Guadián, Grok'un soruşturmalarını yürütürken "Elon Musk ne düşünüyor..." gibi sorular sorduğunu söylüyor. Analist, bunun yapay zekanın yaptığı şeyin "tepkiyi şekillendirirken Elon Musk'ın fikrini almak" olduğu anlamına geldiğini söylüyor.
Javier Barriuso, yanlış bilgilere kanma konusunda kullanıcıların rolü üzerine düşünüyor. Barriuso'ya göre, kutuplaşmış bir dünyadayız; gerçeği değil, görmek istediğimiz cevapları arıyoruz.
"Bir yapay zekânın hâlâ bilgi arayan bir program olduğunu, ancak mükemmel olmadığını ve asla olmayacağını" ve birçok kez başarısız olacağını hatırlatıyor.
Carlos Guadián, ilerici veya muhafazakâr medyayı tüketmeyi tercih eden kullanıcılar olduğu gibi, "yapay zekâ modelleriyle yavaş yavaş kendimizi aynı teknede bulacağımızı" kabul ediyor.
Bu uzman, yanlış bilgilerle mücadelede temel aracın "eleştirel düşünme" olduğunu ortaya koyuyor. Doğrulama için yapay zekâ kullanmak istiyorsak, bunu "birden fazla yapay zekâ modeliyle" yapmamız gerektiğini tavsiye ediyor. Uzman, kendinizi Grok ile sınırlamamanın ve GPT gibi diğer modellere de danışmanızın daha iyi olduğunu vurguluyor. Modele bağlı olarak, "size tamamen farklı cevaplar vermesi" mümkün.


