简体
  • 简体中文
  • 繁体中文

热门资讯> 正文

元宇宙和AI的关系是?OpenAI掌门人这样看

2023-02-08 23:03

预告了一整年的GPT-4迟迟没来,人们猜想OpenAI是不是要跳票了,更何况他们之前的得意之作DALL-E也被开源Stable Diffusion打了个措手不及,再不来点深水炸弹业界地位危矣。

不过,就在大家以为今年OpenAI将以沉寂收场时,聊天机器人模型ChatGPT横空出世,让人们看到了AI的更大创造力,聚光灯也再度打到了OpenAI的身上。

今年9月,LinkedIn联合创始人Reid Hoffman与OpenAI首席执行官Sam Altman进行了一场对话,而肩负着宏伟使命且极富远见的Altman就曾预言:AI即将迎来下一个发展阶段。如今,大型语言模型越来越先进,也出现了可以实现文本-图像相互转换的多模态模型,一些AI应用还可令科学家如虎添翼。在他眼中,AI是一个可以孵化出无数工具,推动各行各业前进的基础平台。

随着AI行业的不断进步,AI应用不再只是充斥着行业热词的纸上项目,已经发展为成熟的工具,助力多个行业的生产服务,也必将催生出无数新企业。

各种AI工具已显现出巨大的日常应用潜力,可以实现人类的各种想法,改善人类的工作方式,比如由Stability.ai发布的开源Stable Diffusion模型,Microsoft和OpenAI联合打造的AI编程工具Copilot,OpenAI开发的语言生成模型GPT-3和图像生成平台DALL-E以及爆火的聊天机器人模型ChatGPT。

Sam Altman还表示,5年后,我们应该不会再使用Transformer模型了。虽然Transformer很好,但他希望到时候会有比它更好的东西出现,不断突破创新很重要。在他看来,AI可以帮助人类创造出前所未有的新应用,这将是人类的巨大的进步和胜利,是真正的科技革命。

从大模型的商业化机会、AI+应用再到AI发展方向,Sam Altman在这场对话中分享了自己的见解。以下为对话内容,由OneFlow社区编译。

1

大模型的商业机会

Reid Hoffman:很多大型模型都通过API开放使用,能够衍生什么商业化机会?

Sam Altman:现在,语言模型已经可以很好地应用到文案写作和教育服务领域,我相信未来几年内,语言模型会更加强大,将能与Google这一价值万亿美元的搜索产品一较高下。语言模型的应用将会改变我们的日常生活。

以前,大家都在调侃聊天机器人,其实它很有价值,只是当时的技术还不能满足需求。现在的聊天机器人更加成熟,几乎可以达到人类水平。聊天机器人可以用于医疗服务行业,提供咨询和教育服务,这方面将能催生出大型企业。

我相信,不久之后会出现多模态模型,这又将打开新局面。现在,人们可以直接用自然语言命令计算机为你完成你想做的工作,例如DALL-E图像生成工具和Copilot编程工具,都是用户向它们输入自然语言描述,然后工具自动生成用户想要的东西,用户还可以不断迭代修改自己的描述,直至工具给出满意的输出。

类似的AI应用方式会成为大趋势,可以孕育出许多大型企业。强大的AI模型可以成为孵化各种AI应用的平台,就像智能手机的出现催生出众多APP一样,它们的共同点都是可以制造无数的商业机会。

Reid Hoffman:既然大家都可以通过API使用大型模型,作为AI企业,怎样才能使自己脱颖而出,开辟自己独特的商业路径?

Sam Altman:将来应该会出现几个大型的基础模型,开发人员都将基于这些基础模型研发AI应用。但目前的情况依然是某一家公司开发出一个大型语言模型,然后开放API供他人使用。

我认为,将来在基础模型和具体AI应用研发之间会有一个中间层:出现一批专门负责调整大型模型以适应具体AI应用需求的初创企业。能做好这一点的初创公司将会非常成功,但这取决于它们能在“数据飞轮”上走多远。(数据飞轮:使用更多数据可以训练出更好的模型,吸引更多用户,从而产生更多用户数据用于训练,形成良性循环。)

我对初创企业训练模型的能力持怀疑态度,将来承担模型训练角色的应该不会是初创公司,但这些企业可以在上述的中间层角色中发挥巨大价值。

Audience Member:未来会不会出现垂类AI初创公司,专门为具体产业调整基础模型?提示词工程(Prompt Engineering,修改向AI输入的任务描述,使AI的输出结果更符合用户的需求)将来会不会成为企业的内部职能?

Sam Altman:五年后我们将不再需要提示词工程,或者只需在这方面做少量工作。将来的AI系统不会因为增补了某个特定词就会产生截然不同的输出,而是可以较好地理解自然语言,用户只需以文本和语音形式输入指令,即可让计算机完成图像生成、资料研究、心理咨询等复杂任务。

总的来说,用户只须使用自然语言就可以与计算机交互,当然,如果艺术家能想出更有创造性的描述,也自然就可以生成更好的图像。

2

“AI+”时代:AI for Science、元宇宙

Reid Hoffman:在科学领域,AI模型可以发挥什么作用?

Sam Altman:现在科学界对AI的应用分为两种。一种是将AI工具直接用于科学目的,如AlphaFold(用于蛋白质结构预测),它们可以创造巨大价值,相信未来会出现无数这样的工具。

另一种是将AI工具用于提升科研工作效率,如帮科学家和工程师找到新研究方向、写代码等。Copilot编程工具就是一个例子。但AI工具的能力远不止于此。上述两种AI应用将会大大推动科技前进。

此外,目前科学界也在探索对AI的第三种应用方式——让AI成为可以“自我改进”的科学家。这件事情既有好处也有风险。

好的一面是,可以利用AI将人类的工作内容自动化,教会AI做任何人类可以做的事情:探索新科学、提出理论解释、验证、思考等,或许还可借此解决困扰人类已久的“AI对齐问题(Alignment Problem)”(即如何让AI系统的目标符合人类的价值观)。风险在于,有人担心懂得“自我改进”的AI有可能会像科幻小说描写的那样,擅自改动代码或修改优化算法。

我深信,真正有利于促进人类和经济的前行的,是一个能够推动科学进步的社会架构。我们能从这样的社会架构中获益很多。

Audience Member:像GPT-3这样的基础模型会如何影响生命科学研究的步伐?生命科学研究中有没有一些技术手段无法克服的限制因素,比如自然规律等?

Sam Altman:目前的可用模型还不够好,不足以对生命科学领域产生重大影响——不少生命科学家了解这些模型之后都说,它们只能在部分情况下发挥些许作用。AI在基因组学领域有一些很有前景的应用方向,但目前尚属起步阶段,不过我很看好。我认为这也是市值千亿的巨头准备进军的领域之一。

如果AI未来真的可以让医药公司的研发速率提高几百倍,那无疑会产生深远的影响。不过如你所说,生物学的自有规律仍在,新药的临床验证需要时间,这也是医药研发的速率限制因素。

据我所知,不少合成生物公司借助AI发现许多新的研发想法,加快自己的研发迭代周期,但研发出来之后终究是要进行测试,这部分时间无法缩减。

我认为,医药初创公司最重要的是低成本和快速的研发周期,有了这两点就有资本参与市场竞争了。所以如果我是一家医药初创公司的决策者,一开始我不会选择从心脏病这类大难题下手。

此外,如果我是一家AI药物研发初创公司,我会在模拟器上多下工夫,因为目前这方面还亟待改善。

Reid Hoffman:你对AI和元宇宙怎么看?

Sam Altman:元宇宙会发展成一种新的软件容器,就像手机一样,成为一种计算机交互方式。而AI则是一场技术革命,所以问题应该是“元宇宙如何融入AI新世界”,而不是“AI如何融入元宇宙”。当然,这仅代表我个人的观点。

Audience Member:AI工具已经可以辅助人类进行创造性工作,AI什么时候会从创作者的辅助工具发展为具有独立创作力的智能体?

Sam Altman:作为创作辅助工具,AI既有用也很受欢迎,但目前来看,AI在大部分的创造性任务上的能力都有待提高,未来很长一段时间内都不能代替人类创作者。可能到100年之后,AI才可以独立完成创造性工作。

十年前,大部分人都认为AI取代人类工作的次序是:蓝领工作(卡车司机等)→低技能的白领工作→高技能的白领工作(程序员等),最后才会(也许永远不会)取代创造性工作。现在的事实证明,AI最有可能先取代的反而是创造性工作。

这也说明,预测未来是很难的,还说明人类可能不够了解自己,不清楚什么类型的技能最难、最需要调动大脑,或者错误估计了控制身体的难度。

Reid Hoffman:除了AI的应用潜力之外,目前大家对AI的讨论有没有轻率的一面,比如将AI用于核聚变研究?

Sam Altman:通常而言,如果某个行业获得非常广泛的社会关注,所有人都在谈论它,这可能不是什么好事,可惜这恰恰是AI行业目前的情况,我不希望这是AI行业“垮掉”的前兆。

业内有人正在研究利用强化学习模型控制核聚变反应,但据我们所知,AI模型在这里发挥的作用还非常有限。

我们现在进入了“AI+”时代,相信AI在未来可以实现很多东西,会成为最大的新一代技术平台。但就目前而言,我们倾向于往更有确定性的方向发展,比如,业内研究出了缩放定律(Scaling Law,该定律揭示AI模型性能与模型参数、数据、计算量之间的关系),就以此为基础展望下一步。

这也是OpenAI的运作模式——先做摆在我们面前的最有信心能成功的事情,然后分出10%的资源进行成功确定性更低的探索工作。这种运作方式为我们带来巨大的成功。

现阶段不应该把重点放在“让AI无所不能”上,而是先沿着现有的道路慢慢发展完善AI,然后留有开放探索的空间——伟大的事物都不是计划出来的,有时重大的突破诞生于偶然。

3 AI的未来发展方向

Reid Hoffman:未来几年,AI的发展方向是什么?

Sam Altman:一个比较确定的方向是,语言模型的发展会远超今天的想象。虽然很多人都说算力和数据都已经跟不上了,这也是事实,但算法的改进空间依然很大,还可以带来很大的进步。

第二个方向是多模态模型的发展。未来的多模态模型将不局限于文本和图像的互相转换,而是所有模态之间都可以方便地互相转化。

第三个方向是,模型可以持续学习。目前的模型如GPT都停滞在当初训练好的状态,并不会随着使用次数的增加而自我优化。我相信未来可以改变这一点。

如果上述三点都能实现的话,我们就可以解锁无数全新的应用场景,实现真正的科技革新,帮助人类实现科技的飞跃式前进。而且我相信,我们也有办法利用AI推动科研进步和新知识的产生。

我认为,现在普遍存在的一种错误观点是:“虽然语言模型的功能已经比较完善,还可以应用到图像和视频领域,将应用智能的边际成本降得非常低,但归根结底,它只是模仿人类做过的东西,不能为人类产生新知识,不能治疗癌症,也不能拓展人类已知的科学领域。”我相信,AI的发展会让持这种观点的人大吃一惊。

Reid Hoffman:AI将如何影响未来人类的生活?

Sam Altman:AI终将渗入人类生活的方方面面。未来十年里,智能和能源的边际成本会迅速下降,趋近于零,而智能和能源又是其他各行各业的主要成本来源(当然,奢侈品除外)。[注:Sam Altman 是否提前知道了美国能源部在12月份宣布的可控核聚变的进展?]

整个社会的成本结构都会下降,正如之前多次科技革命的结果一样。在这种浪潮之下,很少有什么会一成不变。但有一点很重要,智能和能源成本只是趋近于零,而不是直接降为零。所以将来如果有人仍愿意花费巨额投资来购买智能和能源,他们得到的算力和能源的数量将突破想象。

设想一下,将来的能源使用成本下降10~100倍,智能使用成本下降1亿倍,而对能源和智能的资金投入则比现在多1000倍,那会是什么样的局面?

Audience Member:未来二三十年内,AI的发展会带来什么社会问题?如果要避免这些问题,我们现在可以怎么做?

Sam Altman:AI的应用会极大影响经济活动。将来我们需要形成新的社会契约,考虑如何公平地分配财富。AGI系统的使用权将会成为一种商品,所以也要考虑如何让所有人平等地获得使用AGI的机会。还有AGI的管理问题:人类如何共同决定AGI可以做什么、不能做什么。

我不担心“AI取代人类的工作之后,人类何去何从”的问题,虽然未来人类的工作会和现在很不一样,但我觉得人类最终都会找到自己满意的事业,过上充实的生活。真正的难题是财富分配、AGI使用权和AGI的治理问题。

Reid Hoffman:据我所知,OpenAI也付出不少努力,试图解决AI的社会影响问题。

Sam Altman:OpenAI正在进行全球最大型的UBI实验。(Universal Basic Income,无条件基本收入;Sam Altman认为,十年后AI的生产力可以创造巨大财富,足够给每个美国公民每年无条件发放13,500美元。)有一个为期五年的项目已经进行到三年半了。UBI不会是唯一的解决方案,但它是一个不错的做法。

OpenAI从受AI冲击最大的行业中汲取意见,以便制定应对方案;对于那些最先被AI取代的劳动者,我们也尝试利用AI帮助他们学习新技能。我们还会不断地做类似的事情。

Audience Member:你如何定义AGI(通用人工智能)?怎么才算实现了AGI?

Sam Altman:我理解的AGI相当于一个可以共事的普通人,任何远程同事可以通过电脑帮你完成的工作,AGI也可以做,包括让AGI学习医疗知识和写代码等等。

AGI的重点不在于掌握某一种难得的技能,而是拥有学习的元能力,然后只要人类需要,它就可以往任何技能方向发展并精通。另一个概念是“超级智能”(Super Intelligence),它指的是比全人类加起来还要聪明的智能。

Audience Member:哪些领域不会被AI影响?

Sam Altman:所有人类深层次的东西都不会被AI改变。作为人类,我们依然注重人与人之间的互动联系,人类大脑的奖励机制没有变,我们依然追求快乐,拥有创造欲和竞争欲,渴望组建家庭……五万年前人类在意的东西,一百年后的人类也会在意。

免责声明:以上内容仅代表作者的个人立场和观点,不代表华盛的任何立场,亦并非旨在提供任何投资意见。有关内容不构成任何专业意见、买卖任何投资产品或服务的要约、招揽或建议。本页面的内容可随时进行修改,而本公司毋须另作通知。本公司已尽力确保以上所载之数据及内容的准确性及完整性,如对上述内容有任何疑问,应征询独立的专业意见,本公司不会对任何因该等资料而引致的损失承担任何责任。以上内容未经香港证监会审阅。

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

风险及免责提示:以上内容仅代表作者的个人立场和观点,不代表华盛的任何立场,华盛亦无法证实上述内容的真实性、准确性和原创性。投资者在做出任何投资决定前,应结合自身情况,考虑投资产品的风险。必要时,请咨询专业投资顾问的意见。华盛不提供任何投资建议,对此亦不做任何承诺和保证。