热门资讯> 正文
2023-11-23 10:49
《剑桥词典》将“hallucinate”评为年度词汇,这表明人工智能(AI)行业发生了重大转变。
发生了什么:据Business Insider报道,“幻觉”在人工智能领域得到了新的解释。这个词现在已经超出了对不存在的现象的感知,指的是人工智能错误地将错误的数据描述为准确的情况,偶尔会导致有害的结果。
像Gizmodo、CNET和微软这样的知名平台因其人工智能制作的文章不准确而受到批评。一位法律专业人士甚至在基于人工智能的聊天机器人ChatGPT创造了不存在的诉讼作为参考后失去了工作。
另见:“对我的辞职深感遗憾”:投票驱逐奥特曼的OpenAI首席科学家发誓要在员工叛乱中“重新团结”公司
今年早些时候,摩根士丹利分析师强调了ChatGPT捏造事实的倾向,他们预测这个问题将持续数年。这一问题引发了商业领袖和错误信息专家对人工智能可能加剧在线错误信息的担忧。
《剑桥词典》的出版经理Wendalyn Nichols强调了人类批判性思维在使用人工智能工具时的重要性,他说:“人工智能可以‘产生幻觉’的事实提醒我们,人类仍然需要将他们的批判性思维技能用于使用这些工具。
为什么重要:自OpenAI于2023年4月发布其革命性的聊天机器人技术ChatGPT以来,“幻觉”一词已成为技术专家和互联网用户的焦点。Alphabet Inc.首席执行官Sundar Pichai甚至承认,人工智能行业正在努力解决“幻觉问题”,没有明确的解决方案。
为了实现自我监管和负责任的人工智能,大型语言模型(LLM)构建者Vectara于2023年11月发布了其开源幻觉评估模型。该模型旨在量化LLM偏离事实的程度,标志着朝着消除企业采用障碍和减轻错误信息等风险迈出了关键一步。
下一篇:Sam Altman没有因AI安全问题而被OpenAI解雇
图片来源:Shutterstock
由Benzinga Neuro设计,由Pooja Rajsanari编辑
基于GPT-4的Benzinga Neuro内容生成系统利用广泛的Benzinga生态系统,包括原生数据,API等,为您创建全面而及时的故事。了解更多。