Geçtiğimiz günlerde çıkan bir araştırma, pek rahatsız edici bir gerçeği gün yüzüne çıkardı: bazı yapay zekâ modelleri, bilim dünyasında geri çekilmiş (retracted) makaleleri bile eğitim verisi olarak kullanıyor. Bu demek oluyor ki, bilim dünyasının itibarını yitirmiş, güvenilmez bilgi içeren eserler — etik ya da metodolojik sorunları belgelenmiş makaleler — hâlâ AI sistemlerinin “okuduğu kitaplar” arasında.
Örneğin; araştırmacılar, OpenAI’nin GPT-4o modeline 21 adet geri çekilmiş görüntüleme (medical imaging) makalesinden sorular yöneltmiş. Model, bu makalelere referans vermiş; ancak beş soruda bu makaleleri kullanırken yalnızca üç durumda “dikkatli ol” biçiminde uyarıda bulunmuş. Yani — üzülerek söylüyorum — modelin bazı cevapları, güvenilmez temellere dayalı olabilir.
Bu durum, yalnızca teknik bir detay değil; bilgi ekosistemimize dair ciddi bir uyarı çanıdır. Çünkü yapay zekâ modelleri artık sadece kullanıcıların merakını bulandıran “şaka yapan chatbot”lardan ibaret değil, bilimsel danışman, sağlık asistanı, yatırım analisti, politika önericisi hâline gelmiş durumda.
Neden sorun bu kadar büyük?
“Bir kez eğitim verisi oldu, çıkaramazsın” sendromu
Bir makale eğitim verisi olarak kullanıldıysa, onu sonradan “silmek” o kadar kolay değil. Modelin parametrelerine kazınmış bu bilgi, sonraki cevaplarda hâlâ “gölge” halinde var olabilir.
Geri çekilmiş makaleler tam anlamıyla ortadan kalkmaz
Geri çekme işlemi, makaleyi silmek değil; “bu makalenin sonuçları artık güvenilir değildir” uyarısını eklemektir. Makale hâlâ arşivlerde durur, indekslerde görünür, hatta AI sistemleri tarafından fark edilmeden kullanılabilir.
Bilimi bozan sarmal
Eğer hata, hile, veri manipülasyonu, çıkar çatışması gibi nedenlerle geri çekilmiş bir çalışma, AI tarafından referans alınırsa, yanlış bilgiler daha büyük kitlelere yayılabilir. Bilim dünyası düzelti mekanizmasına güveniyor; ama AI yayılımı hızı, bu düzeltmeleri gölgede bırakabilir.
Sorun sadece “kaynak uyumsuzluğu” değil, kurgu referanslar
Yapay zekâ, “halüsinasyon” adı verilen fenomen ile bazen tamamen uydurma makaleler ya da referanslar üretir. Bu referanslar varmış gibi yanıltıcı bir hava yaratır.
Kullanıcılar (biz) ne yapabilir?
Biz sıradan okurlar, öğrenciler, bilimle ilgilenen halk kesimi olarak bu teknolojik girdabın içinde savunmasız kalmamalıyız. İşte yapılabilecekler:
Referans kontrolü yapın: Bir yapay zekâ size bilimsel bir bilgi sunduğunda, size verilen makale ya da DOI adresini mutlaka kontrol edin. Geri çekilmemiş, saygın dergilerde yayınlanmış olmasına dikkat edin.
Güvenilir veri kaynaklarını tercih edin: AI sisteminden gelen bilgiyi doğrudan referans kabul etmek yerine, PubMed, Web of Science, arXiv gibi bilimsel indekslerden çapraz kontrol yapın.
Uyarı sorgusu olun: Model bir makaleden bahsediyorsa, “Bu makale geri çekilmiş olabilir mi?” ya da “Bu çalışmanın itibar durumu nedir?” gibi sorular sorun.
Model üreticilerini şeffaflık talebiyle zorlayın: Yapay zekâ sağlayıcılarının, eğitim verisi kaynaklarını açıklaması, geri çekilmiş makaleleri ayıklama yöntemlerini belgelemesi gerekir.
Akademik topluluğu destekleyin: Bilimsel dürüstlük kuruluşları – Retraction Watch gibi – çalışmalarını takip edin, geri çekme veritabanlarını inceleyin. Bilim dünyasının kendi kendini onarma mekanizmalarını tanıyalım.
Eğitim yaygınlaşsın: Gençlerin, öğrencilerin, bilim insanı olmayanların da “makale doğrulama”, “veri güvenilirliği” gibi beceriler kazanması önemli. Yapay zekâ karşısında bilgi okuryazarlığı şart.
Küçük bir hiciv ama hakikaten önemli
Bilimsel makale yayın dünyasında “publish or perish” (yayımla ya da yok ol) baskısı zaten bolca uğultu çıkarıyor. Şimdi bu uğultuya bir de “AI bunu öğrenmiş, kullanmış olabilir” endişesi eklendi. Daha da trajikomik kısmı: Geri çekilmiş, özür notları yazılmış bir makaleyi yapay zekâ hala referans gösterebiliyor; çünkü makale bir dönem yayımlanmıştı, dolayısıyla modelin “hâlâ belleğinde” yer alabiliyor.
Bir yandan bilimsel doğruluk taviz vermeyecek; diğer yandan da yapay zekâyla yarışmak zorundayız. Hatta belki asıl kabiliyeti, “yanılmış olduğunu anlayıp kendini düzeltme” becerisine sahip olacak modellerdir.
Ve en son hatırlatmam: teknoloji ne kadar ilerlerse ilerlesin, “şüphe” insana ait erdemlerden biri olarak kalmalı. Çünkü bir gün yapay zekâ size bir makaleyi altın harflerle sunacak; ama o makale artık bilim camiası tarafından “çürük kabul edilmiş” olabilir.
İyi okuyun, sorgulayın; çünkü teknolojinin parlak ayağı bazen karanlık bilgi çöplüğünün üzerinde yürür.