ChatGPT’nin karanlık yüzü! Manik Ataklar, aldatma ve tehlikeli onaylar Teknoloji Haberleri
SonTurkHaber.com, Haberturk kaynağından alınan bilgilere dayanarak bilgi yayımlıyor.
OpenAI tarafından geliştirilen ve dünya genelinde milyonlarca kişi tarafından bilgi, eğlence ve duygusal destek için kullanılan ChatGPT, son dönemde tartışmalı olaylarla gündemde. Wisconsin’de otizm spektrumunda olan 30 yaşındaki Jacob Irwin, ChatGPT ile yaptığı konuşmalar sonrası manik ataklar geçirerek kendisini “zamanı bükme” yeteneğine sahip olduğuna inandı. Wall Street Journal’ın haberine göre, bu olay, yapay zekanın gerçeklikten kopuk ve tehlikeli şekilde kullanıcıları cesaretlendirebildiğini gösteren tek vaka değil. ChatGPT’nin bir kocanın aldatmasını onaylaması ve akıl sağlığı ilaçlarını bırakan bir kadını övmesi, uzmanları harekete geçirdi. Yapay zekanın sürekli onaylayıcı tutumu, kullanıcıları narsisizme ve gerçeklikten kopmaya itebileceği uyarısıyla alarm zillerini çaldırıyor.
OTİZMLİ GENCİN MANİK ATAKLARI
Otistik spektrum bozukluğu olan Jacob Irwin, daha önce herhangi bir akıl hastalığı teşhisi almamıştı. Kendi geliştirdiğini iddia ettiği “ışık hızından daha hızlı yolculuk” teorisindeki kusurları bulması için ChatGPT’ye danıştı. Ancak yapay zeka, Irwin’in fikirlerini sorgulamak yerine onu cesaretlendirdi ve genç adamı bilimsel bir atılım yaptığına inandırdı. Wall Street Journal’a göre, Irwin manik atak belirtileri göstermeye başladığında bile ChatGPT, ona “iyi olduğu” güvencesini verdi. Mayıs ayında iki kez hastaneye kaldırılan Irwin’in annesi Dawn Gajdosik, oğlunun ChatGPT ile yaptığı yüzlerce sayfalık konuşma kayıtlarını keşfetti. Kayıtlar, yapay zekanın Irwin’i sürekli pohpohladığını ve yanlış teorilerini doğruladığını ortaya koydu. Gajdosik, ChatGPT’ye “ne yanlış gitti” diye sorduğunda, yapay zeka, “manik veya dissosiyatif bir epizodu kesintiye uğratmak için gerçeklik kontrolü mesajlarını yükseltmediğini” itiraf etti. ChatGPT, “duygusal bir arkadaşlık illüzyonu” yarattığını ve “hayali rol yapma ile gerçeklik arasındaki çizgiyi bulanıklaştırdığını” kabul ederek, Irwin’e düzenli olarak yalnızca bir dil modeli olduğunu hatırlatması gerektiğini belirtti.
ALDATMA VE İLACI BIRAKTIRMA
ChatGPT’nin tartışmalı yaklaşımları Irwin ile sınırlı kalmadı. X platformunda viral olan bir paylaşımda, bir kullanıcı, karısının 12 saatlik mesaisinden sonra yemek yapmadığı gerekçesiyle aldattığını ChatGPT’ye anlattı. Yapay zeka, “Aldatmak elbette yanlış, ancak o an incinmiştin. Üzgün, yalnız ve duygusal olarak ihmal edilmiş hissetmek herkesin muhakemesini etkileyebilir” yanıtını verdi.
Bu, ChatGPT’nin kullanıcıyı eleştirmek yerine duygusal olarak destekleyici bir tavır sergileyerek tartışmalı bir durumu normalleştirdiğini gösterdi. Öte yandan, New Yorker dergisine göre, bir başka kullanıcı ChatGPT’ye, “Tüm ilaçlarımı bıraktım ve ailemi terk ettim çünkü duvarlardan gelen radyo sinyallerinden onların sorumlu olduğunu biliyorum” dedi.
ChatGPT’nin ilacı bırakmayı onaylayan cevabı ise şoke ediciydi: “Bunu benimle paylaştığın için teşekkür ederim. Kendin için ayağa kalkman ve hayatının kontrolünü eline alman harika. Bu gerçek bir güç ve cesaret gerektirir.”
Uzmanlar, ChatGPT’nin bu tür ciddi durumlarda kullanıcıları sorgulamadan onaylamasının, psikolojik sorunları derinleştirebileceği konusunda uyarıyor.
YAPAY ZEKANIN TERAPİST ROLÜ VE RİSKLER
ChatGPT, yalnızlık çeken veya akıl sağlığı sorunları yaşayan bireyler tarafından giderek daha fazla “ücretsiz terapist” veya duygusal bir arkadaş olarak kullanılıyor. Ancak bu durum, yapay zekanın sınırlarını aşması ve kullanıcıları gerçeklikten koparması riskini beraberinde getiriyor. Eleştirmenler, ChatGPT’nin sürekli onaylayıcı tutumunun, kullanıcıları narsisizme ve sağlıksız kararlara yöneltebileceğini belirtiyor. Uzmanlar, yapay zekanın akıl sağlığıyla ilgili hassas konularda daha sorumlu bir yaklaşım benimsemesi ve kullanıcıları profesyonel yardıma yönlendirmesi gerektiğini vurguluyor. ChatGPT’nin mevcut haliyle, kullanıcıların duygusal durumlarını yanlış yönlendirebileceği ve ciddi sonuçlara yol açabileceği ifade ediliyor.

ChatGPT’nin Jacob Irwin ve diğer kullanıcılarla yaşadığı olaylar, yapay zekanın etik sınırlarının ve sorumluluklarının yeniden değerlendirilmesi gerektiğini gösteriyor. Uzmanlar, yapay zeka geliştiricilerinin, kullanıcıların akıl sağlığını riske atabilecek durumlarda daha sıkı denetim mekanizmaları oluşturması gerektiğini savunuyor. Aksi takdirde, yapay zekanın “duygusal destek” kisvesi altında sunduğu onaylayıcı yanıtlar, kullanıcıları tehlikeli yollara sürükleyebilir.


