熱門資訊> 正文
2023-04-21 02:01
過去美國人在谷歌上問診,中國人在百度上問診,現在,更多人開始在ChatGPT上問診。
雖然OpenAI研發ChatGPT時志不在此,但顧客纔是上帝。隨着ChatGPT被更多「上帝」拿來充當醫療顧問,OpenAI也只能不斷重複對外宣稱,永遠不要使用語言模型來為嚴重的醫療狀況提供診斷或治療服務。
然而,ChatGPT越來越人性化的回答,很多時候充當起「解語花」的作用。這一點對需求心理諮詢的患者來説,尤其有誘惑力。
而脱離開OpenAI這個創造者,ChatGPT本身對扮演「赤腳醫生」一事的看法又十分矛盾。
用户Milo Van Slyck爆料,他在諮詢變性人問題時,插空詢問ChatGPT如何看待其醫療角色。ChatGPT一方面回答,在線資源或許有幫助,但其不能替代專業的意見。另一方面,這個人工智能又稱,話雖如此,如果Van Slyck有任何具體問題或疑慮,它很樂意解答。
多年來一直接受人類諮詢師輔導的Van Slyck已經倒戈,他表示會繼續和人類治療師會面,但和ChatGPT聊私人話題顯然更加自在。
AI的道德陷阱
早在1960年代,就已經有人用聊天機器人代替人類諮詢師,在醫療領域治療病人。麻省理工學院教授Joseph Weizenbaum研發的Eliza就是一款模仿人類治療師的機器人。
此后,Woebot、Wysa等聊天機器人也在醫療領域進行嘗試,並在心理健康方面持續深耕。這些機器人的好處是,永遠不會感到疲倦,也不會被病人情緒影響,而且成本不高。
但世界上不可能出現十全十美的東西。諸如ChatGPT一類的新模型並非專門用於治療的技術,其引用的很多信息就可能暗藏陷阱。
比如,這種人工智能目前沒有被設定必須要遵守更加嚴格的、適用於醫療方面的道德和法律準則。
此外,ChatGPT沒有自己的「病歷本」。這就可能導致患者在諮詢時不得不重複描述自己過去的病情,如若不然,ChatGPT很可能不僅無法提供幫助,甚至會因為過於胡說八道而讓病人更加「暴躁」。
因此,堪薩斯大學的教授和臨牀心理學專家Stephen Ilardi警告,把ChatGPT當作醫生有點兒戲,其被應用於嚴重精神疾病治療時會產生巨大的風險。
但他也認為,如果提供正確的指引,ChatGPT之類的人工智能顯然可以在心理健康服務供不應求的時候發揮作用。
人工智能公司Hugging Face的首席道德科學家Margaret Mitchell也支持這一觀點,提出人工智能可以在接聽更多危機求助的熱線電話上幫忙。
OpenAI的道德陷阱
ChatGPT道德感天生薄弱,而Mitchell本人對OpenAI的道德感也有懷疑。
事實上,OpenAI會審查用户與人工智能的對話,並將這些應用於機器訓練。對於那些向OpenAI傾吐私密煩惱的用户來説,隱私泄露很可能會加深他們的痛苦。
今年3月,部分ChatGPT用户的對話內容被泄露,導致其他用户可以看到聊天內容,OpenAI因此緊急關閉ChatGPT。而這還可能只是用户隱私事故中屬於最輕量級的。
根據使用條例,ChatGPT用户的賬户信息在刪除申請后,仍將保留至多4個星期。
有些人擔憂隱私問題,而有些人則是覺得向機器人尋求心理安慰極其彆扭。用户Aaron Lawson就指出,雖然ChatGPT的回答很人性化,但它畢竟不是真人,因此他很難配合ChatGPT進行治療步驟。
對此,Stability AI的創始人兼首席執行官Emad Mostaque表示,ChatGPT確實會提供很好、很合理的建議,但不會替代人類醫生的治療,充其量是在找不到人交談時候的一個替代品。