Yapay zekâ kişileri fişliyor
SonTurkHaber.com, Sabah kaynağından alınan bilgilere dayanarak bilgi paylaşıyor.
Kişisel Verileri Koruma Kurumu (KVKK), yapay zekânın bireylerin maddi durumu, siyasi görüşü, inanç ve demografik bilgilerini kullanarak otomatik profiller oluşturmasının zararlarına dikkat çekti. Bunun, işe alım, kredi onayı, adli tahmin sistemleri gibi çeşitli havuzlarda bazı ayrımcılıklara yol açabildiğini vurguladı. Yapay zekênın bu tür ayrımcılık durumlarında hukuki sorumluluğu henüz tüm dünyada tartışılırken KVKK önemli bir öneri getirdi. Kurum, yapay zekâya hukuki kişilik tanınmasını önerirken, özellikle Avrupa Birliği yaklaşımında olduğu gibi sorumluluk sigortası modellerinin de düzenlenmesini tavsiye etti. Yani yapay zekânın neden olduğu bir zarardan, bunu yapan şirketler sorumlu tutulabilecek. KVKK Hukuk İşleri Daire Başkanlığı uzmanı Ezgi Turgut Bilgiç bu kapsamda, "Kişisel Verilere İlişkin Cezai Sonuç Doğurabilecek Yapay Zekâ Tabanlı İşlem ve Faaliyetler" konulu bir sunum gerçekleştirdi. Yapay zekânın veri elde ederken kişilerin internet etkileşimleri, sağlık kayıtları, finansal işlemler, sosyal medya görüntülerini kullanabildiğine dikkat çeken Bilgiç, yapay zekânın tahmin ve karar verme süreci ile verilerin geneli içerisinden bazı örüntüler çıkardığını, bunun da bazı öneri sistemlerinde ve risk değerlendirme araçlarında kullanılabildiğini söyledi.

RİSKLER VAR
Yapay zekânın kişisel veriler açısından ortaya çıkaracağı risklerin 5 başlık altında incelenebildiğini anlatan Bilgiç, "Veri güvenliği ihlali ilk sırada geliyor. İkinci aşamada profilleme ve ayrımcılık yer alıyor. Üçüncü olarak şeffaflık eksikliği geliyor. Burada algoritmaların karar veriş biçiminin şeffaf olmadığı görülüyor. Suç potansiyeli de burada başka bir unsur" dedi. Bilgiç, yapay zekânın kimlik hırsızlığı ve dolandırıcılık, sosyal mühendislik ve kişiselleştirilmiş kimlik avı saldırıları, sahte e-posta mesajları, sızma veri ihlalleri, deepfake, yüz tanıma ve parmak izi verilerinin çalınması, sahte biyometrik kopya üretilmesine sebebiyet verebildiğini anlattı. Yapay zekâdaki sorumluluk belirsizliğinin ceza hukukunun hedefini saptırdığını anlatan Bilgiç, "Bu teknolojinin hızlı yaygınlaşması ceza hukukunda yer alan kasıt, ihmal, kusur gibi geleneksel kavramları tartışmalı hale getirmektedir. Yapay zekâ bir bilince sahip olmadığı için suç işleme kastını taşıyıp taşımayacağı ve hukuki sorumluluğun kime ait olacağı gibi cezalandırmaya ilişkin çok çeşitli sorunlar karşımıza çıkmaktadır" dedi.

HUKUKİ KİŞİLİK TANINSIN
Yapay zekânın cezai sorumluluğunun belirlenmesi için bir hukuki kişilik tanımına ihtiyaç bulunduğunu anlatan Bilgiç, kurum olarak sundukları önerileri ise şöyle sıraladı: "Avrupa Birliği yaklaşımında olduğu gibi sorumluluk sigortası modelleri düzenlenmeli. Yasal düzenlemelerin dönüşümü, dolaylı sorumluluk modeli kurulması, kusur rejiminde bazı değişikliklerin ele alınması sağlanmalı. Bağımsız denetim mekanizmaları oluşturulmalı. Yapay zekâya hukuki kişilik tanınmalı."

