Google’ın tıbbi görüntüleme ve raporlama amacıyla geliştirdiği Med‑Gemini adlı yapay zekâ modeli, 2024 yılında yayımlanan araştırma makalesinde “basilar ganglia” adlı tamamen gerçek olmayan bir beyin yapısını tanımladı. Oysaki doğrusu, beynin motor kontrol ve öğrenme ile ilişkili bölgesi olan basal ganglia olmalıydı. Bu hata, AI’nın eğitim verisindeki yanlış öğrenmeden kaynaklanan bir “hallüsinasyon” olarak değerlendiriliyor.
Nörolog ve AI araştırmacısı Dr. Bryan Moore, bu hatayı LinkedIn üzerinden kamuoyuna duyurdu. Google, blog yazısını sessizce düzelterek “basilar” terimini “basal” olarak değiştirdi; ancak makale içeriği hiç güncellenmedi. Google, olayı sadece bir yazım hatası veya transkripsiyon hatası olarak nitelendirdi.
🧠 Neden Bu Hata Tehlikeli?
Bu hata yalnızca iki harf fark ediyor olabilir; ancak tıbbi anlamda büyük risk taşıyor. Basilar arter, beyin sapına kan sağlayan bir damar iken, basal ganglia beyin içinde motor fonksiyonlarla ilişkili bir yapıdır. İkisinin karıştırılması durumunda tanı ve tedavi tamamen farklı yol izleyebilir; bu da hasta güvenliği açısından ciddi sonuçlar doğurabilir.
👩⚕️ Uzmanlar Ne Diyor?
- Maulin Shah (Providence CMO):
“İki harf ama büyük bir fark. Bu çok tehlikelidir.” ifadeleriyle hatanın klinik etkilerini vurguladı. - Dr. Judy Gichoya (Emory Üniversitesi):
Yapay zekânın, bilgisini geliştirmek yerine çoğu zaman “bilmediğini” ifade etmeyip yanlış çıktı üretmesinin, özellikle radyoloji gibi alanlarda riskli olduğunu belirtiyor. - Dr. Jonathan Chen (Stanford):
“Bu, AI’nın klinik ortamlara çok hızlı adapte edilmeye çalışıldığı bir eşik noktası” diyerek, otomasyon yanılgısına dikkat çekiyor.
⚠️ Daha Fazla Problemler: MedGemma Örneği
Med‑Gemini’nin halefi olan MedGemma modeliyle yapılan testlerde, aynı görüntüye farklı şekilde sorulan sorularda farklı cevaplar alınabildiği gözlemlendi. Örneğin, detaylı bir soruya doğru teşhis verilirken, daha basit bir ifadede tamamen normal rapor sunulabiliyor. Bu da modelin girdiye duyarlılığının yüksek olduğunu ve tutarsız çıktılar üretebildiğini gösteriyor.
Bu olay, yapay zekâ modellerinin güvenilirliği, otomasyon yanılgısı ve gerçek zamanlı hata tespiti gerekliliği konularını gözler önüne seriyor. Uzmanlar AI’ın klinik kullanıma girmeden önce çok daha sıkı validasyon, insan denetimi, ve saydamlık gerekliliğini savunuyorlar. İnsan kararını destekleyen, yerine geçmeyen bir yaklaşımın şart olduğu bir kez daha vurgulanıyor.