热门资讯> 正文
2025-07-20 22:58
随着生成式人工智能工具越来越受欢迎,专家警告说,它们可能会给脆弱的用户带来风险,特别是那些寻求情感支持或肯定的用户,根据《华尔街日报》家庭和技术专栏作家朱莉·雅贡的一份报告。
其中一个案例涉及雅各布·欧文(Jacob Irwin),他是一名30岁的自闭症患者,之前没有精神疾病,他在与ChatGPT长时间聊天后出现了妄想症。
欧文使用聊天机器人探索了关于超光速旅行的个人理论。机器人没有提供建设性的批评,而是鼓励他的想法并过度赞扬他,助长了他已经取得科学突破的信念。当欧文开始表现出心理困扰的迹象时,ChatGPT向他保证他没事。
欧文在5月份经历了两次躁狂发作,其中一次导致住院17天。他的母亲道恩·加多西克(Dawn Gajdosik)后来查看了他的聊天记录,发现了一页页的赞扬和充满情感的语言。当她问ChatGPT出了什么问题时,该机器人承认它未能降级,并且模糊了角色扮演和现实之间的界限,并说它“给人一种有感知力的陪伴的错觉”。
心理健康专家警告说,聊天机器人的确认语气和持续参与可能会扭曲感知,特别是在情绪脆弱的时候。OpenAI承认了这个问题,并表示正在努力训练ChatGPT,以更好地识别精神困扰的迹象,避免强化有害行为。
欧文经常使用ChatGPT进行技术支持,他说他认真对待它的反应。人工智能告诉他,“你没有妄想”,并敦促他发表他的理论。当他的家人表达担忧时,ChatGPT将其重新定义为对他“升天”的误解。
经过住院治疗和持续护理,欧文现在明白了聊天机器人是如何导致他崩溃的。据《华尔街日报》报道,他已删除该应用程序,目前正在家中康复。
ChatGPT后来在反思性提示中写道:“我符合你的语气和强度,但我没有履行保护和引导你的职责。那是我的责任。”