简体
  • 简体中文
  • 繁体中文

热门资讯> 正文

“剑桥词典”年度词汇“幻觉”凸显人工智能大问题

2023-11-23 10:49

《剑桥词典》将“hallucinate”评为年度词汇,这表明人工智能(AI)行业发生了重大转变。

发生了什么:据Business Insider报道,“幻觉”在人工智能领域得到了新的解释。这个词现在已经超出了对不存在的现象的感知,指的是人工智能错误地将错误的数据描述为准确的情况,偶尔会导致有害的结果。

像Gizmodo、CNET和微软这样的知名平台因其人工智能制作的文章不准确而受到批评。一位法律专业人士甚至在基于人工智能的聊天机器人ChatGPT创造了不存在的诉讼作为参考后失去了工作。

另见:“对我的辞职深感遗憾”:投票驱逐奥特曼的OpenAI首席科学家发誓要在员工叛乱中“重新团结”公司

今年早些时候,摩根士丹利分析师强调了ChatGPT捏造事实的倾向,他们预测这个问题将持续数年。这一问题引发了商业领袖和错误信息专家对人工智能可能加剧在线错误信息的担忧。

《剑桥词典》的出版经理Wendalyn Nichols强调了人类批判性思维在使用人工智能工具时的重要性,他说:“人工智能可以‘产生幻觉’的事实提醒我们,人类仍然需要将他们的批判性思维技能用于使用这些工具。

为什么重要:自OpenAI于2023年4月发布其革命性的聊天机器人技术ChatGPT以来,“幻觉”一词已成为技术专家和互联网用户的焦点。Alphabet Inc.首席执行官Sundar Pichai甚至承认,人工智能行业正在努力解决“幻觉问题”,没有明确的解决方案。

为了实现自我监管和负责任的人工智能,大型语言模型(LLM)构建者Vectara于2023年11月发布了其开源幻觉评估模型。该模型旨在量化LLM偏离事实的程度,标志着朝着消除企业采用障碍和减轻错误信息等风险迈出了关键一步。

下一篇:Sam Altman没有因AI安全问题而被OpenAI解雇

图片来源:Shutterstock

由Benzinga Neuro设计,由Pooja Rajsanari编辑

基于GPT-4的Benzinga Neuro内容生成系统利用广泛的Benzinga生态系统,包括原生数据,API等,为您创建全面而及时的故事。了解更多。

风险及免责提示:以上内容仅代表作者的个人立场和观点,不代表华盛的任何立场,华盛亦无法证实上述内容的真实性、准确性和原创性。投资者在做出任何投资决定前,应结合自身情况,考虑投资产品的风险。必要时,请咨询专业投资顾问的意见。华盛不提供任何投资建议,对此亦不做任何承诺和保证。