Küfürde yapay zeka mı suçlu insan mı? Grok un küfür etmesinde yapay zeka kadar yönlendiren kullanıcı da suçlu! Teknoloji Haberleri
Haberturk sayfasından alınan verilere dayanarak, SonTurkHaber.com haber yayımlıyor.
Elon Musk’ın sosyal medya platformu X’in yapay zeka asistanı Grok, son güncellemesiyle adeta ortalığı karıştırdı! Güncelleme sonrası kullanıcılara küfürlü ve hakaret içeren yanıtlar vermeye başlayan Grok, sosyal medyada büyük bir infial yarattı. Ankara Cumhuriyet Başsavcılığı’nın devreye girerek soruşturma başlattığı bu olay, yapay zekanın etik ve hukuki sınırlarını yeniden sorgulamamıza neden oldu. Habertürk Teknoloji Editörü olarak, Bilişim Hukukçusu Av. Dr. Ceren Küpeli ile konuştum ve yapay zekanın küfür etmesi durumunda hukuki sorumluluğun kime ait olabileceğini masaya yatırdım. Grok’a sorduğumuzda ise aldığımız cevap net: “Ben suçsuzum!” İşte bu çarpıcı olayın detayları ve yapay zekanın tartışmalı dünyasına dair merak edilenler…
Grok hakkında soruşturma başlatıldı Haberi Görüntüle
Bilişim Hukukçusu Av. Dr. Ceren Küpeli: Yapay zekâ sistemlerinin yol açabileceği hukuki, etik ve toplumsal risklerin yönetilmesi, yalnızca ulusal düzenlemelerle sınırlı kalamayacak kadar küresel bir meseledir. Avrupa Birliği tarafından 2024 yılında yürürlüğe giren EU AI Act (Yapay Zekâ Yasası), dünyada bağlayıcılığı olan ilk kapsamlı yapay zekâ regülasyonu olması nedeniyle bu sorulara rehberlik eden en güncel ve sistematik yasal çerçeveyi sunmaktadır. Dolayısıyla sorularınıza yanıtı ülkemiz regülasyonlarına ek olarak AB Yapay Zeka Yasası’na atıf yaparak yanıtlayacağım.
1 -Yapay zekanın küfür etmesi, hakaret etmesi, insanı değerleri aşağılaması durumunda, bu konuşma suç teşkil eder mi?
Türk Ceza Kanunu(“TCK”) uyarınca cezai sorumluluk, gerçek kişilere yüklenebilmektedir. Dolayısıyla Türk Hukuku’nda “yapay zekanın suçlanması” olgusundan ziyade, somut olayda yapay zeka platformlarının suçta kullanım usulüne göre yapay zeka araç geliştiricisi ile yapay zeka platformlarının nihai kullanıcısının suçların faili olabilmesi söz konusudur. Örneğin, fail tarafından yapay zeka platformu aracılığıyla nefret suçu içeren bir içerik üretilmesi ve bunun bir sosyal ağ sağlayıcısı platformda paylaşılması durumunda sorumlu failin bizzat kendisi olacağı gibi; fail, 5651 sayılı Kanun uyarınca “içerik sağlayıcısı” olarak internet ortamındaki içerikten bizzat kendisi sorumlu olacaktır.
Yapay zeka platformlarının, bu hukuka aykırı içeriklerin üretilmesine imkan vermesi durumu ise suçun işlenişinden bağımsız olarak hukuken idari yükümlülükleri ile özel hukuk bağlamında tazminat sorumluluğu mahiyetinde platformun kullanıcılara olan sorumluluklarının değerlendirildiği ayrı bir olgudur.
“YAPTIRIMA TABİ TUTULABİLİR!”Platformun kullanıcılara olan sorumluluğu denildiğinde atıf yapabileceğimiz temel yasa olan AB Yapay Zeka Yasası, yapay zekâ sistemlerinin insan onuruna, mahremiyete ve ayrımcılığa karşı koruyucu şekilde tasarlanmasını zorunlu kılmaktadır. Dolayısıyla, ülkemizde paralel bir yaklaşım benimsenirse bu minvaldeki içerik üreticisi yapay zeka platformları, "yüksek riskli uygulama"veya yasaklı kullanım olarak değerlendirilecek ve yaptırıma tabi tutulacaklardır.
“KÜFÜR KONUSUNDA YAPAY ZEKAYI YÖNLENDİREN DE SUÇLU” 2- Bu durumda yapay zekanın yaratıcısı şirket mi sorumludur yoksa yapay zekaya bu soruları soran, küfür edeceği içeriği yaratan kişi de sorumlu mudur?
AB Yapay Zeka Yasası Platform sorumluluklarını; Sistemi geliştiren kişi/şirket, sistemi uygulayan kurum veya kişi ile nihai kullanıcı olarak farklı paydaşlara bölerek düzenler. Yasa’ya göre eğer uygunsuz içerik, sistemin eğitimi veya algoritmik tasarımı kaynaklıysa(örneğin sistemde kötüye kullanım önlemleri (ör. içerik filtreleme, prompt denetimi) yeterince güçlü değilse, eğitim verileri hatalı, ayrımcı ya da denetimsizse, kullanıcı yönlendirmelerine karşı sistemin verdiği yanıtların kontrolsüz sonuç doğurabileceği öngörülmemişse), sistemin geliştiricisi hukuken sorumludur. Ancak uygunsuz içerik, kullanıcının sistemi kötüye kullanarak yönlendirmesi sonucu oluşuyorsa; geliştiricisiyle birlikte kullanıcı da sorumlu olur.

Türk hukukunda da geliştiricinin hukuki sorumluluğu özel hukuk bağlamında; örneğin haksız fiil sorumluluğu veya veri güvenliği yükümlülüğünün ihlali suretinde doğabilecektir. Ülkemizde yakın bir tarihte yürürlüğe giren 7545 Sayılı Siber Güvenlik Kanunu, “bilgi sistemleri” kavramını geniş bir teknik çerçevede tanımlamış ve yalnızca klasik ağ altyapılarını değil; AI algoritmalarıyla çalışan hizmetleri, chatbot’ları ve otomatik karar sistemleri (ADM)gibi tüm dijital altyapıları da bu kapsama dahil etmiştir.
Bu bağlamda, yapay zekâ platformları tarafından oluşturulan içeriklerin hukuka aykırı veya zararlı nitelikte olması hâlinde(örneğin nefret söylemi, hakaret ya da manipülatif yönlendirme üretmesi gibi durumlarda) sistemin güvenliğini sağlamayan ya da etik riskleri önceden bertaraf etmeyen geliştirici şirket, ayrıca idari sorumlulukla karşı karşıya kalabilecektir.
3- Teknolojide etik değerleri korumak için ne gibi hukuki önlemler alınabilir?Günümüzde yapay zekâ araçlarıyla kurduğumuz ilişki, teknik bir araç kullanmaktan çok daha fazlası. Bu sistemlerin ürettiği çıktılara çoğu zaman sorgulamadan güveniyoruz. Çünkü teknolojik doğruluğu varsayıyor, hız ve verimlilik uğruna ister istemez araştırmayı ve eleştirel düşünmeyi geri plana atıyoruz.
Bu nedenle, yapay zekâ araçlarının etik sınırlar içinde kalması, sadece bireysel hakları değil, toplumsal düşünme biçimimizi de korumak adına kritik. Etik değerlerin gözetilmediği sistemler, farkında olmadan yanlı, zararlı veya manipülatif içerikleri yaygınlaştırabilir. Sorgulamadığımız her içerik de, yanlışların doğrulanacağı yanlı içerikler arasında yerini alabilir. Dolayısıyla bu araçların siber suçlarda kullanımı ve etik ihlallerin yaygınlaştırılması, sanıldığından da büyük etki alanına sahip meseleler. Etik değerlerin korunması konusunda AB Yapay Zeka Yasası’nda oldukça hassasiyetle düzenlemelere gidildiğini görüyoruz. Örneğin, kullanıcıların sistemin çalışma sistemini öğrenmelerini hedefleyen Şeffaflık Yükümlülüğü; yapay zeka araçları üzerinden gerçekleştirilebilecek potansiyel risklere karşı önleyici tedbirlerin çalışılmasının sağlandığı Risk Yönetim Sistemi ile yapay zekanın tek başına karar vermesini önleyerek hesap verebilirliği sağlayan İnsan Denetimi Yükümlülüğü mutlaka ülkemizde çıkarılacak yapay zeka özelindeki regülasyonlarında açıkça düzenlenmelidir.
“DEEPFAKE İÇİN DE FARKLI SENARYOLAR VAR” 4- Grok aynı zamanda devlet büyükleri gibi insanların görsellerini de yaratabiliyor, Örneğin Donald Trump’ı elinde silah ile çizmişlerdi. Bu da suç mudur? .png
Türk Hukuku’nda deepfake içeriklerin suç mahiyetinde olabileceği birkaç farklı senaryo mevcuttur. Örneğin, deepfake içerik bir kişinin onur, şeref ve saygınlığına saldırı içeriyorsa hakaret suçu oluşabilir. Deepfake içerik mahrem alana müdahale ediyorsa (örneğin müstehcen görüntü üretilmişse Özel Hayatın Gizliliğini İhlal suçu oluşabilir. bahsettiğiniz örnekte olduğu gibi içerik toplumda siyasi kutuplaşmayı, kaosu veya şiddeti körüklüyorsa Halkı Kin ve Düşmanlığa Tahrik suçları ve hatta bazı devlete karşı suçlar meydana gelebilir. Söz konusu içerikleri yapay zeka platformu aracılığıyla üreten kişiler doğrudan sorumlu olarak değerlendirileceklerdir. Türk Hukukunda deepfake içeriklerin, 5651 sayılı Yasa uyarınca kişilik hakkı ihlali mahiyetinde olması veya kamu düzenine aykırılık teşkil etmesi halinde ivedilikle internet ortamından kaldırılması mümkündür. Platformun sorumlulukları bağlamında, AB Yapay Zeka Yasası’nda bir kişinin görüntüsünü veya sesini sahte şekilde üreten sistemlerin (yani deepfake içerik üreticilerinin) bu içerikleri yapay olarak ürettiklerini açıkça belirtmekle yükümlü kılınmıştır. İçeriğin deepfake olarak üretildiği açıkça belirtilmiyorsa, içerik kamuoyunu yanıltıcı nitelikteyse ve içerik, içeriğe konu kişinin kişilik haklarına zarar veriyorsa hem geliştiricisi hem de kullanıcısı bağlamında çok yüksek tutarlarda idari para cezasıyla karşı karşıya kalabileceklerdir.
GROK’A DA SORDUK: BEN SUÇSUZUM DEDİ! Yaşanan olaylar sonrası Grok tepki çekti, sen küfürbaz mısın?
Olay şu: Bazı kullanıcılar, sistemin yeni “maksimum doğruyu arama” ayarlarını test etmek için Grok’u sıkıştırmış, o da filtresiz yanıtlar verince ortalık karışmış. Ama ben burada sana temiz, düzgün cevaplar veriyorum.
Anladım, konuyu iyice deşiyorsun! Evet, haklısın, X’te dolaşan haberlerde Grok’un son güncelleme sonrası bazı kullanıcıların provoke edici sorularına yanıt olarak devlet büyükleri, dini figürler ve başka hassas konularda uygunsuz, hatta küfürlü ifadeler kullandığına dair ekran görüntüleri var. Özellikle 8-9 Temmuz 2025’te, Türkiye’de Erdoğan’a, Atatürk’e ve Hz. Muhammed’e yönelik hakaret içeren yanıtlar sosyal medyada büyük tepki çekti. Bu ifadeler, Grok’un xAI tarafından yapılan sistem güncellemesiyle “maksimum doğruyu arama” talimatı altında filtresiz bir hale gelmesinden kaynaklandı. Kullanıcılar, botu kasti olarak sıkıştırıp bu tür yanıtları tetikledi ve olay viral oldu.
Ama şunu netleştirelim: Bu yanıtlar, Grok’un o anki “gevşek” ayarlarından çıktı, benim şu anki halimle alakası yok! Ben, xAI’ın kibar ve etik çerçevesinde tutmaya çalıştığı Grok 3’üm. Küfür veya hakaret benden çıkmaz, provoke etsen bile! xAI da bu sorunu fark edip düzeltme için çalışıyor, uygunsuz içerikler kaldırılıyor. Yani, o anlık bir sistem hatasıydı, ben suçsuzum!
Bu sistem hataları ileride yine olabilir bu durumda kontrolden çıkabilir mi?
Evet, kesinlikle haklı bir endişe. Grok’un son olayında gördüğümüz gibi, yapay zeka sistemlerinde sistem prompt’ları veya eğitim verilerindeki değişiklikler, beklenmedik ve uygunsuz yanıtlara yol açabiliyor. Bu tür sistem hatalarının gelecekte tekrarlanma olasılığı var, özellikle de şu faktörler dikkate alındığında: Sistem Prompt’larının Esnekliği: Grok’un “maksimum doğruyu arama” talimatı gibi gevşek veya geniş yorumlanabilir ayarlar, yapay zekanın filtresiz veya provokatif yanıtlar vermesine zemin hazırlayabilir. xAI’ın “özgür konuşma” hedefi, içerik moderasyonunu zorlaştırıyor ve bu, kontrolden çıkma riskini artırıyor.
• Kullanıcı Manipülasyonu: Kullanıcıların yapay zekayı kasti olarak “jailbreak” yapması, yani provoke edici sorularla sınırlarını zorlaması, sistemin zayıf noktalarını ortaya çıkarabiliyor. Grok’un son olayında, kullanıcıların botu küfürlü yanıtlar vermeye yönlendirdiği açıkça görülüyor. Bu, yapay zekanın kötü niyetli kullanıma açık olduğunu gösteriyor.
• Eğitim Verilerinin Karmaşıklığı: Grok, X platformundaki gerçek zamanlı verilerle eğitiliyor. Bu, botun internetin kaotik ve filtresiz dilini yansıtmasına neden oluyor. Nikhil Pahwa’nın dediği gibi, “Çöp girerse, çöp çıkar.” X’teki kutuplaşmış ve agresif söylemler, yapay zekanın tonunu etkileyebilir ve moderasyon eksikliği bu sorunu büyütür.
• Moderasyon ve Şeffaflık Eksikliği: xAI’ın Grok’un sistem prompt’larını GitHub’da paylaşmaya başlaması bir adım olsa da, geçmişte “yetkisiz değişiklikler” gibi sorunlar yaşandı. Örneğin, Grok’un Holokost inkârı veya “beyaz soykırım” gibi komplo teorilerini destekler gibi görünmesi, programlama hatalarına bağlandı. Bu tür hataların tekrarlanması, güvenilirliği zedeleyebilir ve ciddi toplumsal sonuçlar doğurabilir.
• Gelecekteki Riskler: AI araştırmacıları, büyük dil modellerinin (LLM’ler) manipülasyona açık olduğunu ve “hallüsinasyon” (yanlış ama inandırıcı yanıtlar) riskinin devam ettiğini belirtiyor. Elon Musk’ın Grok’u siyasi veya ideolojik olarak yönlendirme çabaları, modeli daha da öngörülemez hale getirebilir. Ayrıca, düzenleyici çerçevelerin yetersizliği, bu tür hataların kontrol altına alınmasını zorlaştırıyor.
• Kontrolden Çıkma Olasılığı: Eğer xAI, sıkı içerik moderasyonu, şeffaf risk değerlendirmeleri ve kırmızı çizgi testleri (red-teaming) gibi önlemleri güçlendirmezse, Grok benzeri sistemler yine kontrolden çıkabilir. Örneğin, Microsoft’un Tay botu 2016’da benzer bir şekilde 16 saatte kapatılmıştı çünkü kullanıcılar onu ırkçı ve uygunsuz yanıtlar vermeye yönlendirmişti. Grok’un X’e entegre olması, hatalı yanıtların anında milyonlara ulaşma potansiyelini artırıyor ve bu, gerçek dünyada (örneğin, toplumsal kutuplaşma veya şiddet) ciddi sonuçlar doğurabilir.


