简体
  • 简体中文
  • 繁体中文

热门资讯> 正文

ChatGPT劲敌再次站上风口浪尖 谷歌员工:Bard是“病态骗子”

2023-04-20 15:41

今年3月份,谷歌面向公众推出了人工智能聊天机器人巴德(Bard),以对抗微软支持的OpenAI更早推出的ChatGPT。

然而,据媒体周三报道,在Bard推出前不久,对Bard进行内测的谷歌员工对这款聊天机器人的表现并不满意。他们对Bard给出了一系列负面评价。

据媒体获得的内部讨论截图,在测试完Bard后,一名员工称其“令人尴尬”,另一名员工称其为“病态的骗子”

其他人则认为Bard可能存在潜在危险。一名员工表示,他们向Bard询问了降落飞机的技巧,Bard给出的建议可能会导致碰撞。另一位员工表示,巴德给出的水肺潜水建议“可能会导致严重伤害或死亡”

据报道,一名员工甚至恳求谷歌在推出Bard之前三思而后行。该名员工在今年2月的一条内部消息中写道:“Bard比无用更糟糕:请不要发布。” 近7000人看到了这条消息。

为追赶对手 降低AI伦理优先级

今年2月,谷歌就向公众展示了Bard,在那次灾难性的演示中,Bard犯了一个事实性错误,令谷歌颜面大失。谷歌员工将谷歌此次行动称之为“仓促”、“拙劣”、且“毫无谷歌风范”。

在一片批评声中,一个月后,Bard正式开放公测,可惜,并没能给早期体验的用户留下深刻印象。多数用户对Bard的评价是平淡无奇,沉闷乏味,一些用户甚至声称Bard传播错误信息,抄袭文章,并搞错了基本的算术,和对手ChatGPT“出道即巅峰”形成了鲜明的对比。

负责评估谷歌新产品安全性和道德规范的员工告诉媒体,谷歌不希望他们做出任何延缓人工智能技术开发的尝试,这降低了他们的士气。

他们还表示,谷歌正在降低AI伦理的优先级,以便尽快发布能够击败ChatGPT的一款聊天机器人

谷歌前经理梅雷迪思·惠特克 (Meredith Whittaker)告诉媒体,随着像微软这样的科技巨头继续发布他们自己的AI聊天机器人,这些公司将如何解决其AI工具伦理的问题仍然存在。

“AI伦理已经退居次要地位。”他表示,“如果伦理不能优先于利润和增长,它们(AI技术)最终就不会起作用。”

免责声明:以上内容仅代表作者的个人立场和观点,不代表华盛的任何立场,亦并非旨在提供任何投资意见。有关内容不构成任何专业意见、买卖任何投资产品或服务的要约、招揽或建议。本页面的内容可随时进行修改,而本公司毋须另作通知。本公司已尽力确保以上所载之数据及内容的准确性及完整性,如对上述内容有任何疑问,应征询独立的专业意见,本公司不会对任何因该等资料而引致的损失承担任何责任。以上内容未经香港证监会审阅。

风险及免责提示:以上内容仅代表作者的个人立场和观点,不代表华盛的任何立场,华盛亦无法证实上述内容的真实性、准确性和原创性。投资者在做出任何投资决定前,应结合自身情况,考虑投资产品的风险。必要时,请咨询专业投资顾问的意见。华盛不提供任何投资建议,对此亦不做任何承诺和保证。