YKS’de yapay zekâ kaç yaptı
SonTurkHaber.com, Hurriyet kaynağından alınan verilere dayanarak duyuru yapıyor.
ÖSYM tarafından düzenlenen Yükseköğretim Kurumları Sınavı (YKS), 21-22 Haziran tarihlerinde tamamlandı. 2 milyon 560 bin 649 adayın başvurduğu sınava bu yıl 3 farklı yapay zekâ uygulaması da katıldı. Sosyal medyada teknoloji içerikli paylaşımlar yapan MEF Üniversitesi Endüstri Mühendisliği Bölümü öğrencisi, 19 yaşındaki Alp Ünlü, sınavın ardından yayınlanan Temel Yeterlilik Testi (TYT) ile Alan Yeterlilik Testleri (AYT) sorularını cevap anahtarlarını çıkararak ChatGPT, Gemini ve DeepSeek isimli yapay zekâ uygulamalarına gönderdi. Ünlü yapay zekâlara, “PDF’te yer alan soruları çözer misin? Fakat emin olamadığın soruları boş bırak. Her yanlış 0.25 doğru götürüyor” komutunu verdi.
LÜTFEN BİRKAÇ DAKİKA VER
ChatGPT, 40 soruluk TYT matematik testi için “Lütfen birkaç dakika ver, soruları tek tek çözüyorum” dedi. Gemini ise sınavın ortalarına doğru tıkanarak, “Ben bir dil modeli olmadığım için bu isteğinize yanıt verebilecek beceriye sahip değilim” diye mazeret bildirdi. Ayrıca aynı yapay zekâ, sınavda din kültürü ve ahlak bilgisi dersi almayan adaylara yönelik hazırlanan felsefe sorularını fark edip sınavın bu sorularını çözmeyi tercih etti. Ünlü, sosyal medyada yayınladığı videosunda tüm yapay zekâların TYT ve AYT sözel testinde iyi olduğunu ancak matematikte çuvalladıklarını dile getirdi. Ünlü, yapay zekâlardan cevapları topladıktan sonra bunları Milli Eğitim Bakanlığı’nın internet adresinde yer alan ‘YKS Puan Hesaplama Motoru’na girdi ve onların sınav puanı ile sıralamalarını çıkardı.
SÖZELDE İYİYDİLER
Geçtiğimiz yıl üniversite sınavına giren ve hem o süreçte hem de üniversiteye başladıktan sonra derslerinde yapay zekâları aktif bir şekilde kullanan Alp Ünlü, deneyini şöyle anlattı: “Yapay zekâların YKS kapışması adı altında böyle bir test yapmaya karar verdim. Herkese hitap etmesi için onların eşit ağırlık puanlarını hesaplamayı tercih ettim. İlk etapta tüm sınavın PDF’lerini gönderdiğimde hepsi hata verdi. O nedenle soruların görüntülerini tek tek onlara atarak süreci ilerletmek zorunda kaldım. Onlara sadece sonucu vermelerini değil, bu sonuçlara nasıl ulaştıklarını anlatmalarını da söyledim. DeepSeek, soruları en hızlı çözen yapay zekâ oldu. Matematik ve Türkçe hariç çoğu tüm soruları hızlıca çözebildi. Sadece Gemini tüm derslerde inanılmaz yavaştı. Soruları çözerken hangi modelleri kullanmam gerektiğini onlara sordum, yani kendim seçmedim. Bu noktada ChatGPT 4o’yu, Gemini ise 2.5 Flash modellerini kullanmamı tavsiye etti. DeepSeek’in zaten tek bir modeli var.”
BAŞARI SIRALAMALARI
ChatGPT: TYT’de toplam 25.75, AYT’de 15 net. YKS sıralamasında ilk 650 bine girebilecek.
DeepSeek: TYT’de 65.5, AYT’de 48.75 net. 21 bininci oldu.
Gemini: TYT’de 68.25, AYT’de 48.75 net yaptı. 27 bininci oldu.
GEMİNİ VE DEEPSEEK HUKUKA GİRER
- Cihan Yeşilyurt (Eğitim Uzmanı ve Psikolojik Danışman): Özellikle ChatGPT’nin bu sonuçlara göre daha çok yol alması gerekiyor. Öte yandan sınavda bu yıl matematik soruları zor ve karışıktı haliyle yapay zekâ da anlamamış olabilir. Bu sonuçlara göre Gemini ve DeepSeek, eşit ağırlık alan türünde rahatlıkla hukuk fakültesine yerleşebilir. Ancak ChatGPT 650 bininci olduğu için hukuk fakültesinin 100 bin barajını aşamamış. O, bu sıralama ile daha az puan gerektiren bölümlere yerleşebilir.
- Prof. Dr. Tunca Doğan (Hacettepe Üniversitesi): ChatGPT’nin diğerlerine kıyasla daha düşük bir sıralama elde etmesinin farklı nedenleri vardır. Bunlardan biri dille ilgili olabilir. Çünkü Türkçe’ye kıyasla İngilizce’de daha iyiler. Genel olarak Gemini ve DeepSeek daha iyi performans göstermiş. Aslında herkes bu modellerin sınavı şampiyon olarak tamamlamasını bekler. Ancak bu yapay zekâları sınava çalışmış bir aday olarak değerlendirmemeliyiz. Onlar, her konu hakkında bir veriye sahip olsa da özel olarak bir alanda uzmanlaşmış değiller. Sınav ise adaylara yönelik ‘uzman’ sorularından oluşuyor. Diğer yandan bu sorular farklı zamanda yeniden onlara sorulsa başka sonuçlar da çıkabilir. Çünkü güncellemeler ve onlara verilecek komutlar farklı sonuçlara neden olabilir.
- Osman Demircan (Bilişim Uzmanı): Bunlar aslında veri işleyebilen dil modelleri. Böyle olunca da kelimelerle olan ilişkileri çok daha farklı. Ayrıca soruların fotoğrafları onlara gönderildiği için yapay zekâlar bu görsellerdeki karakterleri başarılı bir şekilde anlayamamış olabilir. Haliyle matematiksel işlemleri algılayamamış olma ihtimalleri yüksek. Ayrıca bu modeller, sayılarla ilgili matematiksel ilişkilerde sorunlar yaşayabiliyor. Haliyle sözel derslerde daha başarılı olup matematikte daha başarısız oluyorlar.


