熱門資訊> 正文
2023-05-02 21:16
Alphabet Inc.(納斯達克股票代碼:GOOGL)首席執行官桑達爾·皮查伊、OpenAI聯合創始人兼首席執行官薩姆·阿爾特曼和其他技術專家可能不太擔心聊天機器人的幻覺,但一項新的研究表明,聊天機器人比真正的醫生更有同理心。
發生了什麼:加州大學聖地亞哥分校、約翰霍普金斯大學和其他大學合作進行了一項研究,在研究中,OpenAI的chat GPT被提出了195個問題,這些問題是從AskDocs和Subreddit中提取的。
研究團隊由腫瘤學、傳染病、兒科和內科的醫療保健專業人員組成,他們基於5分制對聊天機器人和來自Reddit的經過驗證的醫生的反應進行了評分,評估了提供的「信息質量」和「同理心或牀邊態度」。
另見:I Say Hi to ChatGPT‘隱姓埋名模式:’開放人工智能努力為用户提供更多數據控制
根據這項研究的結果,在585個場景中,臨牀醫生支持聊天機器人的反應的比例為78.6%,機器人的質量得分是人類醫生的3.6倍,同理心得分是人類醫生的9.8倍。這項研究只考慮了醫生的反應,因為他們希望他們的回答總體上比其他醫療保健專業人員或非專業人員更好。
該研究稱:「我們不知道聊天機器人在臨牀環境中會如何回答患者的問題,但這項研究應該會推動採用人工智能助手進行消息傳遞的研究,儘管以前被忽視了。」
為什麼重要:儘管人們普遍知道人工智能聊天機器人的侷限性,包括他們產生幻覺和越獄的傾向,但許多人仍然對ChatGPT的能力過於自信,忽視了向此類聊天機器人尋求建議或信息所帶來的潛在風險。雖然研究結果很樂觀,但用户需要明白,即使是最新的聊天GPT模型GPT-4也可能出錯和誤診--這是醫生對讓聊天機器人自行松動持謹慎態度的主要原因。
對於外行來説,AI生態系統中的幻覺指的是聊天機器人給出的自信答案,而這些答案似乎與其訓練數據不符。
點擊此鏈接,查看Benzinga的消費者技術報道的更多信息。
接下來閲讀:據報道,三星禁止OpenAI的ChatGPT、Google Bard、Bing AI:他們在害怕什麼?