Yapay zekânın eğitimde yol açabileceği risklere dikkat! Düşünce Günlüğü Haberleri
SonTurkHaber.com, Yenisafak kaynağından alınan bilgilere dayanarak bilgi paylaşıyor.
Mahmut Özer / Eski Milli Eğitim Bakanı
Yapay zekâ eğitimden sağlığa, finans sektöründen hizmet sektörüne, ilaç sanayiinden savunma sanayiine kadar her alanı dönüştürmeye devam ediyor. Özellikle ChatGPT, DeepSeek gibi üretken yapay zekâ uygulamalarının yayınlaşması ile yayılım ve sonrasında yaşanan dönüşüm daha fazla ivmelendi. Geçmişteki genel amaçlı teknolojik kırılmalardan farklı olarak yeni kırılma çok kısa sürede hayatın tüm alanlarını kapsamına aldı. Artık güçlü bir yapay zekâ ekosisteminin inşasına tanıklık ediyoruz.
Yapay zekânın yayılımı arttıkça işgücü piyasasında ciddi dalgalanmalar da yaşanmaya başlandı. Çoğu meslek ve iş pozisyonundan beklentiler hızla değişmeye başladı. Meslek ve iş pozisyonlarından beceri beklentisi sürekli değişirken istihdama olumsuz etkileri de kaygıları artırmaya başladı. Önceki genel amaçlı teknolojik dönüşümlerde olduğu gibi bu dönüşümde de başlangıçtaki beklenti ortadan kalkacak meslek veya iş pozisyonu kadar yeni meslek veya iş pozisyonunun üretileceği iken yapay zekâ uygulamalarındaki gelişim hızı bu beklentiyi daha karamsar bir boyuta taşıdı. Artık, yapay zekâ ile otomasyonun çok daha hızlı artması ile çoğu meslek ve iş pozisyonu işlevsiz hale gelirken yeni ortaya çıkacak iş pozisyonlarından beceri beklentileri de oldukça yükselmeye başladı. Dahası bu yeni iş pozisyonlarının da zamanla yapay zekâ tarafından doldurulacağı öngörülmektedir. Dolayısıyla, büyük kitleler bir taraftan mevcut işlerini devam ettirebilmek için yeni beceriler kazanmaya zorlanırken yaşı ve müktesebatı nedeniyle bu imkândan yoksun olanlar yavaş yavaş işlerini kaybederek daha düşük becerili ve dolayısıyla daha düşük ücretli işlerde iş aramak zorunda kalmaktadır. Yapay zekâ ile gelen dev dalga çoğu ülkede sürekli mevzi kaybeden orta sınıflar için yeni en önemli tehdit olarak durmaktadır.
İKİ BOYUTLU MEYDAN OKUMA
Hal böyleyken bu dalgadan en çok etkilenen elbette eğitim sistemleridir. Eğitim sistemleri artık iki boyutlu bir meydan okumayla karşı karşıyadır. Birincisi, yapay zekânın işgücü piyasasına etkisi nedeniyle mesleklerden beklenen becerilerin değişmesi eğitim sisteminin insan kaynağını bu becerilere uygun bir şekilde yetiştirmesini zorunlu kılmaktadır. Eğitim sistemleri bir taraftan mevcut dönüşüme uygun değişiklikleri hızla yapmaya zorlanırken diğer taraftan mevcut olmayan ancak ortaya çıkabilecek iş pozisyonlarına dayanıklı insan yetiştirme gibi karşılanması oldukça güç bir meydan okumaya cevap üretmek zorundadır. Diğer taraftan, ikinci olarak, yapay zekâ teknolojisi nasıl her alandaki iş süreçlerinde büyük dönüşümlere yol açıyorsa eğitim sistemlerinin de bu yeni duruma nasıl entegre olabileceği ve olası risklerini nasıl hafifletebileceği başka bir sorumluluk olarak ortada durmaktadır.
Bu meydan okuma devam ederken fiili durumda özellikle eğitim sistemlerinin her kademesinden öğrenciler bu uygulamaları aktif bir şekilde kullanmaya başladı. Dahası, çoğu ülkede öğrencilerin bu uygulamaları öğretmenlere göre oldukça fazla kullandığı biliniyor. Bazı ülkelerde bu yaygınlık eğitim yöneticilerini tedirgin ettiği için okullarda ve kampüslerde bu uygulamaların kullanımı başlangıçta yasaklandı. Ancak, sağladığı faydalar ve bu dönüşüme karşı koyabilmenin zorluğu göz önüne alındığında yasaklama yerine kullanım faydalarını yükselten, ancak yol açtığı riskleri azaltan bir çerçeve oluşturma çabaları daha baskın hale geldi.
VERİ GÜVENLİĞİ NEDEN ÖNEMLİ?
Elbette diğer genel amaçlı teknolojik dönüşümlerde olduğu gibi yapay zekâ dönüşümünde de daha çok öne çıkan sağladığı faydalar oldu. Bu uygulamalarla öğrenci, öğretmen ve eğitim yöneticisi açısından süreçlerin dönüşeceğine, özellikle üretken yapay zekâ uygulamaları ile eğitim ortamlarının çok daha fazla zenginleşeceğine ve kişiselleştirilmiş eğitim seçeneklerinin çok daha yaygınlaşacağına yönelik aşırı beklenti bu uygulamaların hızla yaygınlaşmasına ve bu alanda çoğu ticari müteşebbisin ciddi yatırımlar yapmalarına yol açtı. Bu uygulamaların yol açtığı riskler de faydalarını gündeme taşımadaki heyecana kıyasla daha cılız olsa da artık gündeme gelmeye ve tartışılmaya başlandı.
Bu risklerin başında diğer alanlarda olduğu gibi başta veri güvenliği gelmektedir. Eğitim sisteminde bu kadar yaygın kullanılmasıyla oluşan verinin güvenliği sağlanmadığında yaşamdaki diğer uygulamalar üzerinden üretilen kişisel verilerle birlikte bireylerin teknoloji şirketlerine karşı savunmasız, her türlü manipülasyona açık bir ticari nesneye dönüşme riski söz konusudur. Bu kapsamda bir diğer risk yapay zekâ uygulamalarında algoritmanın geliştirilme aşamasında yapılan yanlı varsayımlardan kaynaklanan yanlılıkların ve/veya yapay zekânın öğrendiği büyük verideki din, kültür, ırka vs. dayalı yanlılıkların bu uygulamalar tarafından tekrar üretilmesidir.
Yapay zekânın ürettiği içeriklere aşırı güven bu yanlılıkların ayıklanmadan yayılmasına ve toplumsal eşitsizliklerin derinleşmesine yol açmaktadır. Algoritmalardaki yanlı varsayımlara örnek olarak ABD’de ileri sağlık bakımına ihtiyaç duyan bireyleri belirmede kullanılan yapay zekâ uygulaması gösterilebilir. Bu kapsamda yapılan bir araştırma söz konusu uygulama geliştirilirken ileri sağlık hizmetine ihtiyaç duyan bireyleri belirlemede yapılan sağlık harcamalarının dikkate alındığını ortaya koydu. Bu varsayıma göre daha fazla sağlık harcaması yapan bireyler ileri sağlık hizmetine daha fazla ihtiyaç duymaktadır. Ancak burada atlanan sağlık hizmetlerine erişimdeki ve sosyoekonomik seviyedeki eşitsizlikler olmuştur. Bu varsayımdaki yanlılık nedeniyle ABD’de beyazların ileri sağlık hizmetlerinden daha çok yararlandıkları, aynı sağlık bakımına hatta daha fazlasına ihtiyaç duymasına rağmen sağlık hizmetine erişemeyen veya sosyoekonomik seviyesi nedeniyle sağlık harcaması yapamayan siyah Amerikalıların ise bu hizmetlerden daha düşük düzeyde yararlandıkları görülmüştür. Böylece, bu uygulamayla zaten dezavantajlı konumda olan bireylerin dezavantajı daha fazla artırılmıştır.
İÇERİĞİ ÜRETEN YAPAY ZEKAYI YÖNETİR
Benzer yanlılıklar yapay zekâ uygulamalarının öğrendiği verilerden de tekrar üretilmektedir. Yine ABD’ye yönelik bu kapsamda yapılan çoğu araştırmada örneğin mahkemelerde yeniden suç işleme olasılığını dikkate alarak belirlenen ceza sürelerinde yapay zekâ uygulamalarının siyah Amerikalılara beyazlara göre 2-3 kat daha fazla ceza önerdiği belirlenmiştir. Bir başka deyişle, gerçek dünya verisinde gömülü olan avantaj ve dezavantajlar, bu verilerden öğrenen yapay zekâ uygulamaları tarafından yeniden üretilmektedir.
Benzer durum üretilen metinlerde de görülmektedir. Üretken yapay zekâ mevcut büyük veriden öğrenerek yeni metinler üretmekte, dolayısıyla, üretilen yeni bilgilerde mevcut veriler bir şekilde hafıza görevi görmektedir. Bu durum örneğin oryantalizm için de söz konusudur. Oryantalizm kültürel hegemonya kurarak Batı dışının kendisini ifade etmesine izin vermemekte ve kendi ürettiği temsillere hapsetmektedir. Yaklaşık iki yüz yıllık kapsamlı bir oryantalizm külliyatı oluşturulduğu için üretken yapay zekâ tarafından Batı dışına yönelik oluşturulan yeni içeriklerde aynı hafıza yeniden üretilmektedir. Dolayısıyla, yeni yapay zekâ teknolojileri oryantalist üslubu yaygınlaştırmaktadır.
Kültürel ögelerin doğru şekilde üretilmemesi zaten oryantalizmin genel karakteristiğidir. Dahası böyle bir iddiası da yoktur, çünkü oryantalizm tek taraflı bir okuma ve temsil üretme çabasıdır. Son zamanlarda bu kapsamda yapılan çalışmalarda yapay zekâ uygulamalarında kültürel ögelerin doğru şekilde üretilmediği, genellikle kültürel bağlamdan kopartma ve patchwork yapma yaklaşımının yaygın bir şekilde kullanıldığı gösterilmiştir. Araştırmalarda elde edilen bulgular yapay zekâ içerik üretiminde oryantalist üslubun devam ettiğini, dolayısıyla kültürel varsayılanlar (defaults) olarak Batılı ve beyaz bakış açısının baskın olduğuna işaret etmektedir.
Dolayısıyla, yapay zekâ uygulamalarının geliştirilme aşamasında yapılan varsayımlar ve öğrendiği veri dünyası doğrudan bu uygulamaların çıktılarına yansımaktadır. Bu nedenle üretilen içeriklere karşı dikkatli olunması, yanlılıkların ayıklanması ve en önemlisi üretilen her bilginin doğru olmadığı bilinmelidir. Üretilen içeriklere eleştirel gözle bakabilme davranışı tahkim edilmelidir. Oysa bu uygulamalara yönelik aşırı güven eleştirel düşünmeyi zayıflatarak yanlı içeriklerin yaygınlaşmasına yol açmaktadır.
Bu bağlamda yapay zekâ ile ilgili bir diğer risk, yapay zekânın kendisine verilen komutla ilişkisiz ve metin içerinde tutarlı görünmesine rağmen doğru olmayan içerik üretebilmesidir. Bu davranış yapay zekanın halüsinasyon görmesi olarak tanımlanmaktadır. Özellikle öğrendiği verilerde bir konudaki çelişkili bilgiler nedeniyle yapay zekânın cevap üretirken gerginlik yaşayarak bu davranışa sürüklendiği iddia edilmektedir. Kaynağı ne olursa olsun bu davranış, yapay zekâ tarafından üretilen içeriklerde, metinlerde doğru olmayan bilgilerin var olabileceğine işaret etmektedir. Dolayısıyla, yukarda ifade edilen yanlı içeriklerde olduğu gibi yapay zekâ tarafından üretilen bilgileri olduğu gibi kullanma davranışı yerine bu bilgileri süzgeçten geçirme, değerlendirme, gerekirse ayıklama gibi eleştirel düşünme kapasitesi aktif bir şekilde kullanılmalıdır.
ELEŞTİREL DÜŞÜNMEYİ ZAYIFLATIYOR MU?
Son zamanlarda yapılan çalışmalar yapay zekânın yukarda kısaca değinilen risklerinin ötesinde eleştirel düşünme ile ilgili de çok ciddi risklere yol açtığını göstermektedir. Bu uygulamaların öğrenciler tarafından sık kullanılmasıyla gelen yapay zekâya yönelik aşırı güvenin öğrencileri öğrenme süreçlerine aktif katılımdan uzaklaştırdığına, öğrenmeyi yüzeyselleştirerek öğrenilene yönelik hafızayı da zayıflattığına işaret ediyor. Aslında bu sonuç yapay zekânın temel karakteristiğinin bir sonucu olarak değerlendirilebilir. Yapay zekâyı zaten çekici kılan özelliği insanı bilişsel yüklerden kurtararak kendisinin yapacağı işleri devralması ve oldukça makul cevapları hızla üretebilmesidir. Bu kullanım sürecinde insanın bilişsel yükleri azalmaktadır. Teorik olarak beklenen, bu yük azalmasıyla insanın üretilen içerikleri daha fazla kontrol edebileceği veya bu zamanı diğer faydalı işlerde kullanabileceğidir. Oysa gerçekleşen beklenenle oldukça uyumsuzdur. Yapay zekânın bu özelliği öğrencilerin bu uygulamaları daha sık kullanmasına ve giderek aşırı güvenine yol açmaktadır. Nihayetinde aşırı güvenle desteklenen bir bağımlılık ortaya çıkmaktadır.
Böylece bilişsel süreçlerden uzaklaşan öğrenciler giderek tembelleşmekte, karar alma süreçlerinde kendi yerine yapay zekâyı ikame etme davranışı güçlenmekte ve nihayetinde bağımsız problem çözebilme melekesi zayıflamaktadır. Yani, yapay zekâ öğrenmeyi derinleştiren ve kalıcı kılan zorlayıcı bilgi ve deneyimleme süreçlerinden öğrenciyi kurtarıyor gibi görünmesine rağmen süreç böyle devam ederse uzun vadede öğrencilerin bu melekelerinin gelişimini olumsuz etkileyecektir. Dolayısıyla, yapay zekâ uygulamalarının özellikle eğitim sisteminde bilişsel etkileşimi ve karmaşık içeriklerle aktif olarak meşgul olmayı teşvik edecek şekilde kullanılması gerekmektedir. Bir başka deyişle üretken yapay zekâ araçları, sadece sağladığı kolaylıklarla değil, nasıl kullanıldıkları ve ne tür bilişsel süreçleri tetikledikleriyle birlikte değerlendirilmelidir.
HANGİ TEDBİRLER ALINMALI?
Özetle, yapay zekâ uygulamalarına karşı eğitim sistemleri iki sorumlulukla karşı karşıyadır. Bir taraftan bu uygulamaların sağladığı avantajlar nedeniyle eğitim sisteminin öğrenci, öğretmen ve yöneticisinin faydalanabileceği entegrasyonları yapması beklenmektedir. Diğer taraftan ise iş gücü piyasasında yapay zekâ ile dönüşen yeni becerilere sahip insan kaynağı yetiştirmelidir. Her iki sorumluluk da sorunsuz bir şekilde gerçekleştirilebilecek gibi durmamaktadır. Bu yazıda birinci sorumlulukla, yani bu uygulamaların eğitim sitemine entegrasyonuyla ilgili riskler üzerinde durulmuştur. Yazının tamamında vurguladığımız gibi sürecin riskleri oldukça dikkatli olmayı gerektirmektedir. Bu uygulamaların hem eleştirel düşünmeyi destekleyici hem de eleştirel düşünmeyi bastırıcı iki boyutu bulunmaktadır. Kendi haline bırakıldığında eleştirel düşünmeyi bastırıcı boyutunun daha baskın olacağını son zamanda yapılan çalışmalar açık bir şekilde ortaya koymaktadır. Bu nedenle eleştirel düşünmeyi bastırıcı özelliğini ortaya çıkaran bağlamın engellenmesi gerekmektedir.
Bu kapsamda öncelikle gerek öğrencilerin bireysel kullanım yoğunluğu gerekse de eğitim sistemine entegrasyonu ile ortaya çıkabilecek sorunlara karşı öncelikle yapay zekâ okuryazarlığının güçlendirilmesi ve sürekli tahkim edilmesi gerekmektedir. Bu okuryazarlıkta asıl odak, bu uygulamaların etik ve sorumlu bir şekilde nasıl kullanılacağı olmalıdır. Öğrenci, öğretmen ve eğitim yöneticileri veri güvenliği ve üretilen içeriklerin yanlılıklarına, hatta doğru olamayacağına karşı uyarılmalı ve içerikleri eleştirel bir şekilde değerlendirmeleri ve sorgulamaları teşvik edilmelidir. Elbette bu eğitimler tek başına katkı sağlasa da yetersiz kalacaktır. Çünkü bu uygulamalar aşırı kullanım ve aşırı güvenle gelen bağımlılık davranışını teşvik ettiği için eğitimde bu şekilde kullanımın önüne geçecek müdahaleler yapılmalıdır. Bu müdahalelerle yapay zekâ uygulamalarının öğrencilerin yerine ikame edilmesinin önüne geçilmeli, ikame yerine öğrencinin bilişsel süreçlere yoğun katılımını sağlayacak şekilde destekleyici bir mekanizma olarak nasıl kullanılabileceğinin yöntemleri geliştirilmelidir.


