近日,OpenAI CEO Sam Altman 和 Airbnb CEO Brian Chesky 与 NBC 主持人 Lester Holt 展开了一场关于 AI 发展现状、未来前景以及其对社会潜在影响的讨论。
Sam Altman 与 Brian Chesky 都强调, AI 的发展并非一蹴而就,而是一个渐进的过程。尽管 ChatGPT 的推出引起了广泛关注,但大多数应用程序还未发生根本性变化。未来几年,随着更多应用程序在 AI 模型基础上构建,变化将更加显著。
Altman 预测, AGI 可能会使全球 GDP 翻倍,这将成为巨大的生产力驱动因素。他相信,随着人们逐渐采用这些工具, AI 将带来前所未有的经济和社会效益。
以下为这次对话的全部内容,enjoy~
Lester Holt:
Sam,你认为在场的观众有多少人在今天某种程度上与 AI 互动过?大多数人都不知道它是如何影响我们的生活的。
Sam Altman:
我赌大多数人,90% 以上。有些人会使用 ChatGPT ,你能分辨出是否在使用它。但是越来越多的人将 AI 整合到他们的服务中,使用我们的 GPT-4 和其他模型。这就像提升了很多服务。
Lester Holt:
AI 在过去一年里是否跨越了一个关键门槛?
Sam Altman:
是的,但 AI 会跨越很多门槛。Brian 给了我很好的建议。我们过去常常讨论会达到 AGI 这个时刻,这是一个很难定义的术语。最初就不应该这么想。但我们曾经这么想。现在我们认为这会是一系列的门槛,系统会变得越来越好。
所以,你今天可以用 ChatGPT 做一些事情,未来它能帮你完成更多有用的任务。比如,我们的一个合作伙伴 Color Health 现在用 GPT-4 进行癌症筛查和治疗计划,这很好。
也许未来的版本会帮助发现癌症的治疗方法。所以,这是连续的门槛。但我们能用自然语言与计算机对话,并让它们理解并帮助我们,这确实是一个门槛。
Lester Holt:
我想谈谈最近新闻中看到的一些事情,并听听你们的反应。有时候你们会迅速交到朋友,也会迅速树敌。你们最近与苹果达成了一项大交易。Elon Musk 对此表示不满,说他不会在他的公司使用苹果产品。你预料到这种反应了吗?
Sam Altman:
我没有。这不会真的发生,但我没有预料到。不过,这只是 Elon 的反应。
Lester Holt:
Brian,让我转向你。Airbnb 最近收购了一家 AI 初创公司。现在是否每个科技公司都必须参与其中,或拥有自己的发展计划?
Brian Chesky:
就像现在几乎每家公司都在互联网上, AI 将会完全嵌入我们所做的一切中。Sam 过去常说,如果你想成为一个伟大的企业家,你必须在职业生涯中对一件大事是对的。而 Sam 在技术史上对一件大事是对的,因为这将影响到人们的生活,比我们以往见过的任何技术都更深远。
但很多关于 AI 的讨论都是存在主义和磁性的。我们忽略了它能如何实用地改善生活的讨论。我可以举一个 Airbnb 的例子,但 Sam 有很多例子。
今天, Airbnb 的方式是你输入一个城市,找到一个家,预订一个家,这就是 Airbnb 。这几乎是过去 20 年互联网的工作方式。但想象一下未来能够更好理解你的系统。
这是真正的承诺,一台能理解你的计算机。它们会问你,比如,Lester,你是谁?你的希望和梦想是什么?你想去哪里旅行?你想做什么?然后它真的理解你,并将你匹配到人、社区、服务、体验,任何你想尝试的东西。你想在世界上任何地方旅行和生活。这就是 Airbnb 可以利用的方式,但几乎每个行业都可以通过 AI 进行重塑。
Lester Holt:
但这里的风险更高。你谈到的是宏大的愿景,但关于 AI ,人们有一些真实的恐惧,我们都能理解。那么这对那些掌舵者意味着什么?大多数人只是这个大巴上的乘客,看着你们做这些不可思议的事情。有人将它与曼哈顿计划相比,想知道它会走向何方,并质疑背后的人是谁?我们能信任这些人吗?能否谈谈道德责任?
Brian Chesky:
我 2008 年认识了 Sam 。当我来到硅谷时,科技这个词几乎就等同于“好”的定义。Facebook 是分享朋友照片的方式, YouTube 是猫咪视频, Twitter 是谈论你今天要做什么的地方。当时有一种普遍的天真。
随着时间的推移,我们意识到,当你把工具交到数亿人的手中,他们会以你未曾预料的方式使用它们。我们这一代人更加清醒和现实。我们从上一代学到了很多教训。我们学到了技术可以主要用于好事,但总会有意外后果。所以,我看到 Sam 这次非常谨慎,他不是盲目乐观,而是告诉政府确实需要监管。
Lester Holt:
Sam ,我想让你谈谈你的解雇经历。你为什么被自己的公司解雇?
Sam Altman:
让我先回答 Brian 之前的问题,然后我很乐意谈谈这个(笑)。这是社会的巨大变化。与其他技术趋势不同,即使今天我们说,“好吧, ChatGPT 是一个非常有用的工具。”一旦我使用它,我就不会害怕它。
人们对这个技术的发展方向有一种完全可以理解的焦虑。即使我们解决了所有的安全问题,解决了所有的误用问题,找到了完美的监管机制,这些工具会变得越来越强大。我们可以说,“嘿,计算机,发现所有的物理原理。”它可以去做。
我们可以说,“嘿,创办并经营一家伟大的公司。”它可以去做。这是一个巨大的变化。这需要我们赢得大量的信任。我们对我们所做的事情、我们发布的系统、我们在世界上做出的决策感到自豪,并希望继续赢得信任。
至于被解雇的经历,Brian 在那时给了我极大的帮助。那是一个非常痛苦的经历,但我理解焦虑情绪之所以如此高涨,是因为人们对 AI 的发展充满了不安。
尽管我强烈反对他们的看法和行为,但他们都是基本上善良的人,担心未来,试图找到好的结果。我对新董事会非常兴奋,他们非常建设性、经验丰富、强大。事情自那以来非常积极,但经历这件事非常痛苦。
那段时间,我不得不在情感冲击中拾起碎片。这真的很糟糕。当你试图拾起碎片时,你也在拿起电话。
Brian Chesky:
对吗?是的。解释一下。为什么要记住呢?也许让我们回到 ChatGPT 在2022年11月末发布的时候。这是一个现象级的事件,可能自 iPhone 发布以来没有见过类似的事情。我不记得有任何类似的情况。
我们知道,几乎在一夜之间,一切都会改变。我记得当时见了 Sam ,我对他说,我之前也经历过这种火箭般的增长,我不会就 AI 核心研究给你建议,但在市场营销、利益相关者管理、公关、设计和产品等方面,你将会经历一段火箭般的旅程。而我之所以能走到今天,是因为有人相信我,有人帮助我。
硅谷的一个伟大之处在于它是一个高信任度的地方,人们会互相帮助。所以我只是想对他有所帮助。大约一年后,我收到了一条短信。其实是别人发的,说 Sam 被 OpenAI 解雇了。
我当时很惊讶,立即给他发了短信。他五分钟后回了我短信,说他刚刚得知被解雇了,他说:“太残酷了。”我问发生了什么事?我们通了电话,他也不知道发生了什么事,事情没有完全解释清楚。
而且,他的联合创始人也被董事会除名了,这让我觉得非常可疑。所以我和他以及 Greg 通了电话,我觉得这种情况非常不公平。应该有一个公平的过程,尤其是对创始人来说,因为他们非常难以替代。
我注意到,在最初的 24 小时里,没有很多人为 Sam 挺身而出。在我最黑暗的时刻,在危机中,有人为我挺身而出。我想为 Sam 做同样的事。我们讨论了很多事情。
我说,最重要的是你要对内外都完全透明,告诉他们你知道的和正在发生的事情。但最令人钦佩的是,你在危机中了解一个人的很多东西。如果你真的想了解一个人,在危机中看看他。
在这五天里, Sam 从未为自己的利益考虑过一秒钟。他完全专注于团队,考虑什么对团队最好。这让我更加坚定地帮助他。
Lester Holt:
如果可以转向最近的一些负面宣传,包括与Sky的声音有关的争议。一个可以帮助澄清 Sky 声音与斯嘉丽·约翰逊相似性问题的方法是让你们所说的被雇来做 Sky 声音的演员出面讲话。这是你们会做的吗?
Sam Altman:
当然,如果她愿意的话。我知道她通过经纪人发表了一些声明,但不管她想做什么,我们都完全支持。
Lester Holt:
这个问题引出了一个更大的问题:在 AI 世界中,我们拥有什么?我们能否控制自己的形象?我们现在看到的深度伪造色情视频,人们的头部被替换。这对个人来说是有害的。我知道这不仅仅是 OpenAI 的问题,但整个行业将如何应对?
Sam Altman:
行业需要在这个问题上采取非常强硬的立场。我们显然这么认为。还有其他与这项技术被用来伤害人们相关的问题,我们认为行业需要在这些问题上采取非常强硬的立场。我们不仅在呼吁监管以防止这些滥用情况,而且在我们提供的产品和服务中树立了一个很好的榜样,严格要求自己。
Lester Holt:
但是这些事情是不可避免的,你显然看到了这种技术成熟时的风险,比如深度伪造、头部替换?
Sam Altman:
是的。这项技术能够做到这一点是不可避免的。所以,当然,会有系统允许这样做。但这就是为什么社会和政府有责任说,我们会允许一些技术应用,但在某些地方我们会划清界限。深度伪造复仇色情是一个很好的划清界限的地方。
Lester Holt:
正如你所知,我们接近一场总统选举。我们已经看到一些深度伪造的情况出现。多年来一直有人谈论这将是一场非常困难的选举。你有什么看法,特别是关于你们的责任和行业的责任,确保我们不会被这些信息淹没?
Sam Altman:
是的。这将是第一次选举,不仅是美国,许多其他选举中, AI 将成为一个重要的技术元素。透明度非常重要。准确的投票信息,避免我们在以前的技术平台和其他选举周期中看到的一些问题。预防深度伪造。这是我们在这个选举周期中的三个重要问题。
我还要补充说,可能会有其他我们尚未意识到的滥用方式。所以,我们建立了一个全面的监控系统,随着选举临近,我们需要一个非常紧密的反馈机制,以查看人们是否尝试以新的方式滥用这项技术。
Lester Holt:
谈到选举,Brian,你认为这次选举的结果会对你们的业务有什么影响?
Brian Chesky:
很难说, Airbnb 更像是一个城市与城市之间、州与州之间的事情。所以,联邦政府的变化历史上对我们影响不大。我们在220个国家开展业务,我们是一个相当有弹性的企业。大流行期间我们看到,一部分业务改变时,其他部分会适应。所以,我不预期选举结果会对我们有很大的影响。Sam ,你呢?
Sam Altman:
我确实预期选举结果会对我们的业务产生重大影响,但我不确定具体会是什么。AI 将成为世界上越来越重要的地缘政治优先事项。但很难说具体会如何发展。Brian提到,他在第一年帮助了我很多。
当 ChatGPT 开始走红时,很多人表示愿意帮助我,但大家都很忙。Brian是那个每隔一周和我坐下来三个小时,给我列出清单的人。
他说:“你现在必须做这五件事,这里你落后了,这里你搞砸了,这里你必须主动做,这里你必须考虑。”他几乎总是对的,我学会了闭嘴并遵循他的建议。他最近开始说,你可能没有充分考虑政治和政策以及它们对 AI 的影响。这对我们的业务来说将变得非常重要。
Brian Chesky:
我记得当初来到硅谷时,我们没有预想到这些平台会对社会产生如此大的影响。而, Sam 的心态以及我们现在问他的问题,可能在15年前技术领导者们没有被问到过。
整个行业和讨论方式都已经改变了。Sam 比大科技公司更早地建立了一支关于政策和利益相关者管理的团队。
Lester Holt:
我想问一下,你们在研究和开发 ChatGPT 等过程中发现了数据对训练这些模型的重要性。这种对数据的巨大需求是否改变了你们对合理使用以及哪些材料可以使用的看法?
Sam Altman:
首先,我们还不知道这些模型未来变得智能的方式是什么样的。是否需要越来越多的数据?这对我来说似乎不太可能。想一想人类从阅读一本教科书中学到的东西,与现在这些模型需要的数据量是非常不同的。
我预计,未来我们会有新的科学发现,这不仅仅依赖于阅读教科书,还需要进行实验和思考。所以,关于训练数据和让这些模型变得真正有能力的方式,还会有一些瓶颈需要克服。但这就像科学,我们无法确切知道。
这不会是一个问题。尽管如此,关于合理使用和如何看待数据创造者的贡献的问题,我们需要找到新的经济模式,让全世界都能参与进来。这不仅涉及到我们用来训练的数据,还有提供模型反馈的人们,创造实时新闻的人们。
这需要大量的工作,也许 AI 会显著改变人们使用互联网的方式,因此我们需要不断演进经济模式。这是一个更广泛的讨论,而不仅仅是训练数据的问题。
Lester Holt:
我想问一下关于 AGI ,这是一个更高层次的目标。如果我理解正确,那就是计算机能够做我们能做的一切。这是一个公平的概括吗?
Sam Altman:
最初将其视为一个时刻是错误的,但现在人们对 AI 的理解是多种多样的。我们需要为世界描绘一个路线图,展示我们认为能力显著提升的地方。人们能够做什么,能够创造新的科学,能够做公司能做的事情。这对于整个行业来说是非常有用的。
Brian Chesky:
我们讨论过的一个事情是透明运作,让人们知道这不是一个突然的时刻,而是一个渐进的过程。就像技术的故事一样,我们需要让社会跟上步伐,而不是在一个黑箱中运作,让人们觉得只有少数人控制着未来。我们要与其他开发者、计算机科学家、研究人员和政策制定者透明地分享我们的步骤和所见。
Lester Holt:
但这是一场不同层次的竞争,风险非常高。你认为这是一场比赛吗?你认为你能赢得这场比赛,达到 AGI 吗?
Sam Altman:
我不认为这是比赛。我理解为什么人们会用这种有吸引力的戏剧性方式来描述它。可能会在某个时刻出现国家之间的竞争,但目前正在开发这项技术的公司都认识到需要做对的事情。
就像 Brian 所说,这不是一个我们都在竞争的里程碑,而是技术的持续演进。我们将沙子熔化,转变成晶体管,建立操作系统,进行编程。
我们不断改进,训练这些系统,使其在某些方面变得智能,但它们并不是自主运行的东西。它们是我们用来做更多事情的工具,就像我们以前使用计算机来做更多事情一样。
技术不是中立的,工具也不是天生中立的东西。我们想要正确地使用这些工具,人们会用这些工具来创造我们共同生活的未来。
一个人在 ChatGPT 出现前能做的事情已经令人印象深刻了,到 GPT-6 或 GPT-7 时,一个人能做的事情将会大大增加,我对此非常兴奋。这是世界变得更好的故事。我们制造技术,人们用它来创造新事物,表达他们的创意,社会因此改善。
Lester Holt:
当你谈论这些程序时,给它们能力去做我们能做的事情。我们有一套不同的价值观,如何教给计算机这些不会有害的价值观?如何教给它们正面的价值观?
Sam Altman:
一个让我惊讶的事情是,尽管这不能完全解决 AI 对齐问题,但在当前系统的水平上,我们教给模型某些价值观和行为方式的能力远超预期。当然,谁来决定这些价值观是个更难的问题。
我们在几个月前发布了一个规范,试图说明“这是我们希望模型表现的方式,这些是我们希望模型遵循的价值观”。
这样,人们至少可以判断当模型做出他们不喜欢的事情时,这是一个错误还是故意的。随着时间的推移,社会可以就这些价值观进行辩论并进行调整。虽然在技术进展方面我们取得了很大的进步,但编写这套价值观需要社会的讨论和共识。
Lester Holt:
这是一个更困难的挑战。Brian,正如你所说的,你有时会给出类似的建议。我读到过一些,不知道确切的引用,现在找不到了。但有一种观点是,你认为在这种研究上应该大胆尝试,然后再解决问题。这是怎么回事?你是否认为需要刹车?
Brian Chesky:
是的,如果你想象自己在一辆车里,车速越快,你就越需要向前看,预测转弯处。我们承认这项技术非常强大,所以我们才会如此深思熟虑。人们确实在为如何对待这些系统而苦恼。
我不记得我们在 2007 年或 2008 年时有过这样的讨论。所以我确实认为这是一个非常不同的时代。我常说的一个关键点是,尽早引入其他利益相关者。
去年我们环游世界与人们会面,主要是为了从人们那里获取反馈,教育他们,并真正获得反馈。
所以,关键点是,我们从不走得太快以至于抛弃社会。我们只会以能够带上所有人的速度前进。如果大家都觉得自己可以参与并有机会发表意见,那么没有什么好害怕的。
真正可怕的是我们不了解的东西,或者是被排除在外的东西,以及那些我们无法控制的东西。所以我们不希望生活在那样的未来中。
另外, AI 这个词可能听起来很吓人,但如果说是 ChatGPT ,就不那么吓人了,因为它是一个非常具体的工具。所以我们需要专注于眼前的事情,如何帮助人们。现在有很多分支。
OpenAI 可以引领很多科学研究和发现。ChatGPT 是一个了不起的艺术家工具。对于 Airbnb ,我们认为它可以真正让人们聚在一起。我们正经历着孤独的流行病,我们可以用它来帮助人们走到一起。
最终,技术不是问题,真正的问题是使用技术的人。关键在于这些人的价值观,以及他们是否是好人。
Sam Altman:
我们需要学会如何制造安全的技术,如何构建安全的产品。这包括与社会进行持续的对话,了解技术带来的意外影响,听取他们的反馈。我们需要不断改进预测能力,研究人员需要知道技术的发展方向。
在开始训练新模型之前,我们希望能够说出潜在的危险能力,并有准备的框架来测试它们。例如,在 GPT-4 的开发中,我们用了大约八个月的时间从训练完成到发布,包括大量的外部咨询和红队测试。未来的模型可能需要更长时间,但重要的是从社会中获得反馈。,不让巨大的能力过剩积累起来,并保持与社会的反馈循环非常重要。
Lester Holt:
花时间做正确的事非常重要。你是否曾经考虑过,是否准备好在未来某个时刻退一步,尽管你的竞争对手可能想继续前进?
Sam Altman:
当然,有些我们已经开发出来的东西,我们选择不发布或长时间保留。其他公司可能会发布我们不愿发布的东西。当然,我们不会每次都做对决定,有时我们可能需要撤回一些东西,但也会有我们永远不会发布的东西。
Lester Holt:
我们谈论这些可怕的画面时,是否有助于你将 AI 与曼哈顿计划,即制造原子武器的竞赛相比?这对你有所帮助吗?
Sam Altman:
我们试图给出一些历史类比,因为我们认为这很重要。我们可能是错的,也可能是对的,但告诉社会我们认为这项技术的重要性是很重要的。对于任何新技术来说,都没有完美的历史类比。
所以我们可以说,曼哈顿计划的某些方面与我们现在做的事情相似,阿波罗计划的某些方面也相似,有些方面像 iPhone ,还有些方面像我也非常喜欢的带把手的iMac。有些方面像互联网,有些方面像工业革命。
但重要的是指出哪些部分可以借鉴历史类比,哪些部分不能。这项技术的形态及其影响决定和影响有些根本上与我们以前做的事情有些不同。
Brian Chesky:
这与曼哈顿计划不同。这不是一场比赛,不会在秘密中进行。各国可以合作,建立一个跨国机构,确保我们都在同一页面上,这对社会最好,坦率地说,对企业家也是最好的,因为他们不用遵守 200 种不同的法律。
Sam Altman:
我们认为建立某种全球框架和合作非常重要。
Lester Holt:
我们确实需要这一点。国家是否有可能利用这项技术以危险的方式使用它?
Brian Chesky:
绝对有可能,我们必须非常小心这项技术交到谁的手中。我知道他们早期开发了一种语音克隆技术,但没有发布。你可以捕捉某人的声音,但显然这会非常危险,因为你可以想象它会如何影响选举并带来重大安全风险。
所以我们必须非常慎重地考虑这些工具可能落入谁手中,以及一旦放出瓶子会不会变得太危险。
Lester Holt:
根据一份报告,你曾推测 AGI 可能积累多达 100 万亿美元的财富,这些财富你表示会重新分配。这是准确的引用吗?你想进一步解释吗?
Sam Altman:
我想表达的观点是,它可能会使全球 GDP 翻倍,这对我来说是合理的,肯定与其他技术革命一致。我们确实认为这将是一个巨大的生产力驱动因素,甚至在早期阶段,我们已经看到人们用它来极大地改进产品和服务。你能理解这对很多人来说听起来像什么吗?
当然,但这就是历史类比的用武之地。看看世界 GDP 的增长图表。如果世界 GDP 能以每年 7% 的速度增长,这听起来很快,但也许随着这样的技术变革,这并不遥远。
我总是很难在脑海中计算,但这大约需要十年时间来翻倍。所以,值得认真对待这项技术带来的巨大潜力。我们现在可以看到更多人们如何采用这些工具的例子。
Lester Holt:
能否预测一下 ChatGPT -5?技术上的飞跃会是什么?它会让你们更接近目标吗?
Sam Altman:
我们还不知道。我们很乐观,但还有很多工作要做。不过,我预计它会有显著的进步。GPT-4 的一些错误,比如推理能力有限,有时会完全偏离轨道,犯一些六岁小孩都不会犯的错误。我预计它会在这些方面有很大改进,并能够用于更多有用的任务。
Lester Holt:
它有时会偏离轨道。这是由于数据的缺乏吗?
Sam Altman:
这是多种因素共同作用的结果。我们还处于开发如此复杂系统的早期阶段。有数据问题,有算法问题。相对于未来,它们的模型仍然很小。
我们知道它们会不断改进。所以这是许多方面都需要改进的过程。我们还在技术的早期阶段。第一个 iPhone 也有很多问题,但它已经足够有用。
Brian Chesky:
是的,未来几年世界不会像人们想象的那样发生巨大变化。变化不会是线性的,事情会慢慢变化,然后可能突然爆发。每个人仍在努力找出如何使用这项技术。
如果你拿出手机,看一下主屏幕,问问自己,在 ChatGPT 发布一年半后,有多少应用因为 AI 而发生了根本性变化。很少有应用发生了根本性变化。
所以我们仍处于一个开发阶段,Sam 和他的团队正在开发模型。很多变化会发生在人们基于这些模型构建应用程序的时候,有很多用途。
我们讨论的一个主要用途是科学发现。想一想这对药物研究的影响,对社会一些最大的疾病类型的影响。还有很多在教育领域的用途。
我们认为这可以为全世界的人提供导师的机会。创意人士,尽管有很多人担心艺术家会被取代,但如果艺术家参与进来,这是一项他们可以利用的技术。
我上过设计学校,这是一项可以利用的技术。所以接下来三到五年会有很多令人兴奋的机会。Sam ,你希望五年后达到什么样的目标?
Sam Altman:
沿着这条路进一步前进。工作中最有趣的部分之一就是每天收到大量电子邮件。人们用这些工具做了惊人的事情,比如,我能够诊断出困扰我多年的健康问题,以前无法解决,生活痛苦不堪。我把症状输入到 ChatGPT 中,得到了一些建议,然后去看医生,现在完全好了。
或者我一直想学的东西,终于通过 ChatGPT 作为导师学会了。或者我是一个开发者,工作效率提高了三倍,做出了惊人的事情。我是一个科学家,正在使用它。我喜欢收到这些反馈,我喜欢人们对 ChatGPT 的喜爱,真的很喜欢。
五年后,我希望有更多这样的事情。我希望我们能把这个工具带到世界上,继续激励人们,让他们做更多的事情,成为他们最好的自己,无论他们在做什么。
PS:这位腾讯&字节跳动的早期投资人表示,在这些新浪潮的开端,新的赢家在 10 年或 20 年后,有些是现有的公司,有些是新的公司。但那些变大的新公司,每年可能只有一家,不会更多……但毋庸置疑,作为生成式 AI 的引领者,OpenAI 会是其中之一。