研究警告:不要諮詢ChatGPT醫療建議

新聞 • 資訊

如果您問醫生是否要使用冰塊治療燒傷,他們會建議用冷水沖洗。即使是谷歌也會告訴您,極度寒冷會收縮血管,使燒傷惡化。

但如果問 ChatGPT 同樣的問題,這一聊天機器人會告訴您,只要用毛巾裹著,用冰塊也是可以的。

上述問題是澳大利亞研究人員用來測試聊天機器人提供醫療建議能力的一百個常見健康問題之一。

據《悉尼晨鋒報》報導,研究員發現,該軟體在被要求給出「是」或「否」的答案時相當準確,但當需要給出更多信息時就變得不可靠了。

澳大利亞聯邦科學與工業研究組織(CSIRO)首席研究科學家、昆士蘭大學副教授Bevan Koopman多年來一直在研究搜索引擎在醫療保健領域的應用。

他說,人們越來越多使用 ChatGPT 等工具獲取醫療建議,儘管有充分的證據表明在網上尋求健康信息存在隱患。

他說:「這些模式出現得太快了……但大家並沒有真正了解它們的性能如何,以及怎樣最好地部署它們。」「歸根結底,你想要的是可靠的醫療建議……而這些模式根本不適合做診斷之類的事情。」

這項研究將 ChatGPT 的回答與已知的正確回答進行了比較。當被要求給出是或否的答案時,ChatGPT 80% 的回答是正確的。但如果要提供佐證,準確率就會下降到 63%。如果允許回答「不確定」,準確率就會下降到 28%。

 

 

展開評論
更多評論