简体
  • 简体中文
  • 繁体中文

热门资讯> 正文

百度文心大模型:3个月推理速度提升30倍,文生视频内测中

2023-07-20 09:30

近期,百度文心大模型获得IDC《AI大模型技术能力评估报告,2023》总分第一,据百度集团副总裁、深度学习技术及应用国家工程研究中心副主任吴甜介绍,文心大模型从3月份发布至今,在模型效果上提升了50%,训练速度提升了2倍,推理速度提升了30倍。

此外,文心大模型的“文成视频”能力正在内测中,不久后会以插件形式开放。

吴甜指出,文心大模型取得的成绩,首先得益于百度“芯片-框架-模型-应用”的全栈布局。

人工智能项目的成功,取决于算法,算力,数据和场景四大人工智能要素。人工智能框架是人工智能的操作系统,将这四大要素紧密的有机的连接在一起。百度飞桨平台不仅有深度学习框架,也为使用者提供模型库、开发套件、各种各样的工具组件以及实训社区,降低开发门槛,支撑应用层的大量创新。

最新数据显示,飞桨平台上有750万开发者。这个数据意味着什么?吴甜指出,作为对比,工信部数据显示,国内软件从业人员大约800万-1000万,软件从业人员和深度学习开发人员并不完全重合,但750万AI开发者已经数量庞大,证明深度学习算法开发应用范围广泛。

同时针对大模型的不可控问题,文心大模型采用三种增强技术,分别是:知识增强、检索增强、对话增强技术。

l在知识增强方面,文心大模型积累有5500亿事实的知识图谱与大量数据进行模型训练。

l在检索增强方面,文心大模型采用了新一代检索架构解决时效性问题,这是基于大模型的端到端检索架构,实现检索架构和生成架构之间联动和优化。

l在对话增强方面,文心大模型通过记忆机制、上下文理解,对话规划技术,增强对话的连贯性、合理性和逻辑性。

针对近来呼声很高的大模型产业应用,吴甜认为大模型的产业模式类似芯片代工厂——芯片代工厂做的事情是把设备、产线、工艺流程和生产过程进行封装,“现在的芯片型号、厂商非常多,但是代工厂只有几家而已。对于有芯片生产需求公司,只要给出生产方案,就可以得到想要的芯片。”吴甜指出。

与芯片代工厂类似,大模型提供商把大数据、大算力、大算法进行封装,并且提供自动化、数字化、标准化的生产模式——应用方只要定义好问题,把对AI模型能力要求交给大模型提供商,千行百业都可以来使用。

百度文心大模型源于产业实践,服务于产业实践。吴甜介绍,目前百度联合国家电网、浦发银行、泰康、吉利、哈尔滨市、深圳燃气、TCL、上海辞书出版社等企业单位,合作发布了11个行业大模型,同时,有15万家企业申请接入文心一言测试,百度智能云与300多家生态伙伴,在超过400个场景中已取得相当不错的测试效果。

免责声明:以上内容仅代表作者的个人立场和观点,不代表华盛的任何立场,亦并非旨在提供任何投资意见。有关内容不构成任何专业意见、买卖任何投资产品或服务的要约、招揽或建议。本页面的内容可随时进行修改,而本公司毋须另作通知。本公司已尽力确保以上所载之数据及内容的准确性及完整性,如对上述内容有任何疑问,应征询独立的专业意见,本公司不会对任何因该等资料而引致的损失承担任何责任。以上内容未经香港证监会审阅。

风险及免责提示:以上内容仅代表作者的个人立场和观点,不代表华盛的任何立场,华盛亦无法证实上述内容的真实性、准确性和原创性。投资者在做出任何投资决定前,应结合自身情况,考虑投资产品的风险。必要时,请咨询专业投资顾问的意见。华盛不提供任何投资建议,对此亦不做任何承诺和保证。