ChatGPT'nin tanı koymadaki yetersizliği gözler önüne serildi

Bilim insanları sağlık sorunu yaşayan kişilerin, bir uzmana başvurmasını tavsiye ediyor

Yapay zekanın tıp alanında insanların yerini almasına henüz daha vakit var gibi görünüyor (Reuters)

ChatGPT'nin hastalıkları teşhis etmede pek başarılı olmadığı ortaya kondu. 

Yapay zeka araçlarının hızla gelişmesiyle, sağlık sorunu yaşayan birçok kişi de bu teknolojilere başvurmayı tercih ediyor. 

OpenAI'ın sohbet botu ChatGPT'nin tıp alanındaki sınavları geçmek gibi becerileri, yapay zeka aracına duyulan güveni pekiştiriyor.

Ancak hakemli dergi PLOS One'da geçen hafta yayımlanan bir çalışmaya göre hastalık teşhisi için doktora gitmek daha güvenli olabilir.

fazla oku

Bu bölüm, konuyla ilgili referans noktalarını içerir. (Related Nodes field)

ChatGPT 3.5'in hastalıkları teşhis etme becerisini ölçmek isteyen araştırmacılar, karmaşık vakaları içeren Medscape adlı siteden 150 adet vaka seçti. 

Yapay zeka aracının bunları daha önceden görmüş olma ihtimalini elemek için 3.5 modelinin eğitiminden sonraki örnekler çalışmaya dahil edildi.

Bütün vakalar hastanın geçmişini, muayene bulgularını ve tanısal testleri içeriyordu. ChatGPT'nin yanıtları, aynı vakaları kullanan tıp uzmanlarının yanıtları ve yaptığı seçimlerle karşılaştırıldı.

Araştırmacılar ChatGPT'nin vakaların yüzde 49'unda doğru teşhisi koyduğunu tespit etti. Öte yandan yanlış tanıları elemede daha büyük başarı gösteren aracın genel doğruluk oranı yüzde 74'tü.

Ayrıca cevapların yüzde 52'si eksiksiz ve konuyla ilgiliyken, yüzde 43'ü eksik olsa da konuyla bağlantılıydı.

Sohbet botunun, kullanıcıların daha rahat anlayacağı şekilde yanıtlar verdiği de kaydedildi. Fakat araştırmacılar bu özelliğin, eksik veya alakasız bilgilerle birleşmesi durumunda yanlış anlaşılmalara yol açabileceğini söylüyor. 

Bulgular, bir sağlık sorunu yaşayan kişilerin sadece yapay zeka araçlarına bağlı kalmadan doktora görünmesinin daha güvenli olacağına işaret ediyor.

Makalede, "ChatGPT ince farklılıklara sahip vakalardaki hastalıkları ayırt etmekte zorlandı ve model zaman zaman, yapay zeka halüsinasyonları diye bilinen yanlış veya mantıksız bilgiler üretti" diye yazan bilim insanları ekliyor: 

Bu da tıbbi rehberlik için ChatGPT'ye tek başına güvenmenin riskini ve teşhis sürecinde insan uzmanlığının gerekliliğini vurguluyor.

Öte yandan çalışmada kullanılan sürüm, ChatGPT'nin en gelişmiş modeli değil. Bu yüzden hem diğer modeller hem de başka şirketlerin araçları daha isabetli tanı koyabilir.

Yine de yanlış yönlendirilmemek için bir sağlık sorunu yaşandığında uzman bir doktora başvurmakta fayda var. 



Independent Türkçe, New Atlas, India Today, PLOS One

Derleyen: Büşra Ağaç

DAHA FAZLA HABER OKU