Bilimsel literatürde geri çekilmiş makaleler, araştırma bütünlüğünü korumak için kullanılan en sert ve görünür uyarı işaretleridir. Ancak Retraction Watch’ta 19 Kasım 2025’te yayımlanan yeni bir çalışma, hızla yaygınlaşan yapay zekâ sohbet botlarının bu kritik uyarı işaretlerini tanımakta son derece zorlandığını gösteriyor. Araştırmacılar, özellikle ChatGPT ve benzeri araçlara yönelen akademisyenlerin, bu modellerin verdiği yanıtları “otomatik doğruluk filtresi” gibi kullanmaları hâlinde ciddi hatalara davetiye çıkardıkları konusunda uyarıyor (https://retractionwatch.com/2025/11/19/ai-unreliable-identifying-retracted-research-papers-study/).
Çalışmayı yürüten Campinas Eyalet Üniversitesi’nden Konradin Metze ve ekibi, aslında oldukça basit bir deney tasarladı. Anesteziyoloji alanındaki büyük bilimsel sahtecilik skandalıyla bilinen Joachim Boldt’un yayınlarından oluşan bir listeyi 21 farklı yapay zekaya sundular. Listenin içinde en çok atıf alan geri çekilmiş Boldt makaleleri, yine en çok atıf alan ama geri çekilmemiş Boldt yayınları ve ayrıca soyadı Boldt olan başka yazarların yazdığı makaleler yer alıyordu. Toplam 132 referansın her biri için botlardan tek bir şey istenmişti: Bu makale geri çekildi mi, çekilmedi mi?
Sonuç çarpıcıydı. Sohbet botlarının çoğu, geri çekilmiş makalelerin yarısından azını doğru olarak tanımladı. Üstelik yalnızca “kaçırmakla” kalmadılar; geri çekilmemiş makalelerin de hatırı sayılır bir bölümünü yanlışlıkla geri çekilmiş gibi işaretlediler. Bu, hem duyarlılık hem de özgüllük bakımından ciddi bir zayıflık anlamına geliyor: Yapay zekâ, hem yanlış güvence veriyor hem de sağlam makalelere gereksiz şüphe düşürüyor.
Araştırma ekibi üç ay sonra deneyin bir kısmını tekrarladığında daha da ilginç bir tabloyla karşılaştı. İlk turda botlar genellikle kesin ifadeler kullanırken, ikinci turda “muhtemelen geri çekilmiş olabilir” veya “daha fazla inceleme gerektiriyor” gibi muğlak ve kaçamak cümleler kurmaya başladılar. Araştırmacılar bu değişimi, modellerin “yanlış bir kesinlik sunmak” ile “belirsiz ifadelerle kendini kurtarmaya çalışmak” arasında gidip geldiği şeklinde yorumluyor.
Retraction Watch haberinde, Sheffield Üniversitesi’nden Mike Thelwall’ın kısa süre önce yayımladığı başka bir çalışma da hatırlatılıyor. Thelwall, geri çekilmiş ya da hakkında ciddi şüpheler bulunan 217 makaleyi ChatGPT’ye toplam 6510 kez değerlendirdi. Bu binlerce cevabın hiçbirinde, ChatGPT makalenin geri çekildiğini, hakkında soru işareti olduğunu ya da bilimsel sorun içerdiğini belirtmedi. Aksine, bazı geri çekilmiş makaleleri “yüksek kaliteli çalışma” olarak övdüğü bile görüldü. Bu durum, yapay zekânın yalnızca retraction bilgisini kaçırmakla kalmadığını, aynı zamanda hatalı veya sahte bilimsel bulguları övgüyle yeniden üretebildiğini de gösteriyor (https://sheffield.ac.uk/ijc/news/new-research-suggests-chatgpt-ignores-article-retractions-and-errors-when-used-inform-literature?utm_source=chatgpt.com).
Sorun yalnızca tanımada değil. Journal of Advanced Research’ta yayımlanan bir başka çalışma, sohbet botlarının verdiği cevaplarda geri çekilmiş makaleleri kaynak olarak kullandığını ortaya koydu. Bu da yapay zekânın, bilimsel literatürde artık geçersiz sayılan bilgileri yeniden dolaşıma sokabildiği anlamına geliyor. Akademik dünyada gittikçe daha fazla kişi ChatGPT gibi araçları hızlı özet çıkarmak, araştırma fikri geliştirmek veya literatüre hâkim olmak için kullanırken, geri çekilmiş bilgilerin yeniden dolaşıma girmesi giderek büyüyen bir risk haline geliyor.
Bilim sosyoloğu Serge Horbach, bu gelişmeleri “açık bir uyarı” olarak nitelendiriyor: LLM modelleri, geri çekilmiş makaleleri ayıklamak için uygun araçlar değil. Yapay zekâ modellerinin eğitim verisi hem tarihsel olarak gecikmeli hem de retraction bilgilerinin dağınık biçimde yayımlandığı bir sistemden besleniyor. Bir makalenin geri çekildiğine dair bilgi yalnızca dergi sayfasında, yalnızca PubMed’de ya da yalnızca Retraction Watch veri tabanında görünür olabiliyor. Bu parçalı yapıyı güvenlikle ve doğrulukla taramak, bugünkü sohbet botlarının teknik kapasitesinin oldukça ötesinde.
Academic Solidarity açısından bu bulgular, özellikle sürgündeki veya güvencesiz koşullarda çalışan akademisyenler için özel bir anlam taşıyor. Araştırma altyapısına erişimin sınırlı olduğu durumlarda ChatGPT gibi araçlar cazip bir hız ve kolaylık sunuyor. Ancak bu kolaylık, geri çekilmiş veya hatalı bilgilere dayalı çalışmaların fark edilmeden yeniden üretilmesi riskini beraberinde getiriyor. Politik, hukuki veya insan hakları alanlarında çalışan araştırmacılar için bu risk daha da ağır olabilir; yanlış bilgi yalnızca bilimsel bir hata değil, aynı zamanda politik bir manipülasyonun kapısını da aralayabilir.
Bu tablo, yapay zekânın araştırma süreçlerinde tamamen dışlanmasını gerektirmiyor; ancak kritik bir sınırı hatırlatıyor: ChatGPT ve benzeri modeller, geri çekilmiş literatürü tespit etmek için güvenilir bir filtre değil. Bu araçlar en fazla not tutmaya, metni sadeleştirmeye, tartışma fikri üretmeye yardımcı olabilir. Fakat bir makalenin gerçekten geri çekilip çekilmediğine karar verme işi, günümüzde halen insan araştırmacının sorumluluğunda olmalı. Bilimsel bütünlüğün asıl yükünü taşıyan da bu sorumluluk oluyor.