专访“AI 教父”Geoffrey Hinton:为什么我开始害怕自己所建立的技术

2023-05-04 10:48 栏目:行业动态 来源:网络整理 查看()

作者:威尔道格拉斯黑文

资料来源:麻省理工科技评论

专访“AI 教父”Geoffrey Hinton:为什么我开始害怕自己所建立的技术

我在杰弗里辛顿(Jeffrey Hinton) 令人震惊地宣布他将离开谷歌的四天前,在他北伦敦街的家中见到了他。 Hinton 是一位深度学习先驱,曾帮助开发现代人工智能核心的一些最重要技术,在谷歌工作十年后选择辞职。

Hinton 对GPT-4 等新型大型语言模型的能力印象深刻,希望提高公众对与他开创的技术相关的严重风险的认识。

谈话开始后,我在餐桌旁坐下,Hinton 开始走路。多年来一直患有慢性背痛,他很少坐下来。在接下来的一个小时里,我看着他穿过房间。他有很多话要说。

这位75 岁的计算机科学家因与Yann LeCun 和Yoshua Bengio 一起在深度学习方面的工作而获得2018 年图灵奖,他表示他已准备好改变方向。 “我太老了,无法从事需要记住大量细节的技术工作,”他告诉我。 “我很好,但不如以前那么好,这很烦人。”

但这并不是他离开谷歌的唯一原因。 Hinton 想把时间花在他所谓的“更具哲学性的工作”上。这是人工智能变成灾难的一个小但非常真实的危险。

通过离开谷歌,他将能够在没有谷歌高管必须做的自我审查的情况下畅所欲言。 “我想谈论人工智能的安全性,而不用担心它与谷歌业务的关系。只要谷歌付钱给我,我就做不到,”他说。

当然,这并不意味着Hinton 对谷歌不满意。 “这可能会让你大吃一惊,”他说。 “关于谷歌有很多话要说,但如果不是在谷歌,它会更可信。”

Hinton 说他意识到新一代的大规模语言模型(特别是OpenAI 的GPT-4,于3 月发布)正在使机器比他想象的要聪明得多。他害怕在那种情况下会发生什么。

“这些东西和我们完全不一样,”他说。 “有时感觉就像外星人登陆了,但人们没有意识到,因为他们的英语说得很好。”

基石

Hinton 最出名的是他在1980 年代(与两位同事)提出的一种称为反向传播的技术。换句话说,支持机器学习的算法。它支撑着当今几乎所有的神经网络,从计算机视觉系统到大型语言模型。

直到2010 年代,通过反向传播训练的神经网络的能力才真正产生影响。 Hinton 与几名研究生合作,证明该技术在让计算机识别图像中的对象方面优于所有其他技术。此外,我们训练了一个神经网络来预测句子中的下一个字母。这就是当今大型语言模型的前身。

其中一名研究生是Ilya Sutskever,他后来与他人共同创立了OpenAI 并领导了ChatGPT 的开发。 “起初,我们意识到这可能很棒,”欣顿说。当时的主流观点是符号人工智能,其中智能涉及处理符号,如文字和数字。

但Hinton 并不相信。他研究了神经网络,这是一种大脑的软件抽象,用代码表达神经元和它们之间的联系。通过改变这些神经元的连接方式(通过改变用于表示它们的数字),我们可以即时重新连接神经网络。所以你可以用它来学习。

“我的父亲是一位生物学家,所以我从生物学的角度来思考,”欣顿说。 “很明显,符号推理并不是生物智能的核心。”

“乌鸦可以解决难题,但它们没有语言。它们不是通过存储和操纵符号串来做到这一点的。它们会改变大脑中神经元之间的连接强度。”它通过做来做到这一点,所以这是可能的通过改变连接的强度来学习复杂的东西。”

一种新的智能

40 年来,Hinton 一直将人工神经网络斥为模仿生物神经网络的拙劣尝试。现在他认为情况已经改变。在试图模仿活体大脑时,他认为我们想出了一个更好的方法。 “看到它很可怕。这是一个突然的翻转,”他说。

Hinton 的担忧在许多人看来就像是一个科幻故事。但他是这样想的。

顾名思义,大型语言模型是由具有许多连接的大型神经网络构建的。但与大脑相比,它们很小。 “我们的大脑中有100 万亿个连接,”欣顿说。 “大型语言模型最多有5000 亿个,最多有1 万亿个。但GPT-4 的知识比任何人都多数百倍。也许是这样。”

际上有比我们更好的学习算法。”

与大脑相比,人们普遍认为神经网络不善于学习:需要大量的数据和能量来训练它们。另一方面,大脑可以迅速掌握新的想法和技能,使用的能量只有神经网络的一小部分。

“人们似乎拥有某种魔力,”辛顿说。“但只要你把这些大型语言模型中的一个拿出来,并训练它做一些新的事情,这个论点就会不成立。它可以极快地学习新的任务。”

辛顿指的是“少样本学习”,在这种情况下,经过预训练的神经网络,如大型语言模型,只需给几个例子就可以训练它做一些新事情。例如,他指出,其中一些语言模型可以将一系列的逻辑语句串成一个论点,即使它们从未接受过直接这么做的训练。

他说,在学习这样一项任务的速度上,将预先训练好的大型语言模型与人类进行比较,人类毫无优势。

大型语言模型制造了这么多东西,这又是怎么回事?人工智能研究人员将其称为“幻觉”(尽管辛顿更喜欢“虚构”一词,因为它是心理学的正确术语),这些错误通常被视为技术的致命缺陷。产生这些错误的趋势使聊天机器人变得不可信,而且,许多人认为,这表明这些模型没有真正理解他们所说的话。

对此,辛顿的答案是:胡说八道是一个特点,而不是一个错误。“人们总是在虚构,”他说。半真半假和错误记忆的细节是人类谈话的标志:“虚构是人类记忆的标志。这些模型所做的与人一样”

辛顿说,不同之处在于人类通常或多或少会正确地构思。对 他来说,编造东西不是问题。计算机只需要多一点练习。

我们还期望计算机要么对,要么错,而不是介于两者之间。“我们不期望它们像人一样喋喋不休,”辛顿说。“当一台计算机这么做时,我们认为它犯了错误。但换成人类,这就是人们工作的方式。问题是大多数人对人类的工作方式有着无可奈何的错误看法。”

当然,大脑仍然比计算机做得更好:驾驶汽车、学习走路、想象未来。而且大脑可以靠一杯咖啡和一片吐司上完成这些任务。他说:“当生物智能在进化时,它无法使用核电站。”

但辛顿的观点是,如果我们愿意支付更高的计算成本,有一些关键的方法可以让神经网络在学习方面击败生物。(值得停下来考虑一下这些成本在能源和碳方面意味着什么)。

学习只是辛顿论证的第一条线。第二条是交流。他说:“如果你或我学到了一些东西,并想把这些知识传授给其他人,我们不能只是给他们发送一份副本。”“但我可以有一万个神经网络,每个都有自己的经验,它们中的任何一个都可以立即分享它们所学到的东西。这是巨大的区别。就好像我们有一万个人,只要有一个人学到了什么,我们所有人就都会知道。”

所有这些加起来是什么?辛顿现在认为世界上有两种类型的智能:动物大脑和神经网络。“这是一种完全不同的智能形式,”他说。“一种新的、更好的智能形式。”

这是一个巨大的主张。人工智能是一个两极分化的领域:嘲笑的人大有所在,而同意的人也比比皆是。

对于这种新型智能(如果存在)的后果是有益的还是灾难性的,人们也存在分歧。他说:“你认为超级智能是好是坏在很大程度上取决于你是一个乐观主义者还是一个悲观主义者。”“如果你让人们估计坏事发生的风险,比如你家里有人得重病或被车撞的几率是多少,乐观主义者可能会说 5%,悲观主义者可能会说 100%。而轻度抑郁症患者会说几率可能在 40% 左右,而且他们通常是对的”。

辛顿是哪种人?“我有轻微的抑郁症,”他说。“这就是为什么我很害怕的原因。”


为什么会出错


辛顿担心,这些工具能够找出方法来操纵或杀死那些没有为新技术做好准备的人。

“我突然改变了对这些东西是否会比我们更聪明的看法。”他说:“我认为它们现在已经非常接近了,它们在未来会比我们更聪明。”“我们如何在这种情况下生存?”

他特别担心,人们可以利用他亲自注入生命的工具来倾斜一些最重要的人类经历的天平,特别是选举和战争。

辛顿认为,智能机器的下一步是有能力创建自己的子目标,即执行一项任务所需的临时步骤。他问道,当这种能力被应用于本质上不道德的东西时会发生什么?

目前,已经有一些实验性项目,如 BabyAGI 和 AutoGPT,将聊天机器人与其他程序(如网络浏览器或文字处理器)连接起来,使它们能够将简单的任务串联起来。当然,这些步骤很微小,但它们预示着一些人想把这项技术带入的方向。辛顿说,即使坏人没有夺取机器,子目标也存在其他问题。

“好吧,这里有一个几乎总是对生物学有帮助的子目标:获得更多能量。因此,可能发生的第一件事就是这些机器人会说,‘让我们获得更多能量吧。让我们将所有电力重新路由到我的芯片。‘另一个重要的子目标是复制更多的自己。听起来如何?”

Meta 公司的首席人工智能科学家 Yann LeCun 同意这个前提,但并不同意 Hinton 的担心。LeCun 说:“毫无疑问,机器将在未来变得比人类更聪明 -- 在所有人类智能的领域。”“这是一个关于何时和如何的问题,而不是一个关于是否的问题。”

但他对事情的发展方向有完全不同的看法。”我相信,智能机器将为人类带来新的复兴,一个新的启蒙时代,“LeCun 说。“我完全不同意机器会仅仅因为更聪明就统治人类的想法,更不用说毁灭人类了。”

“即使在人类中,我们当中最聪明的人也不是最有统治力的人,”LeCun 说。“最有统治力的人绝对不是最聪明的。我们在政界和商界有无数这样的例子。”

蒙特利尔大学教授、蒙特利尔学习算法研究所科学主任 Yoshua Bengio 觉得更不可知。他说:“我听到有人诋毁这些恐惧,但我没有看到任何坚实的论据能让我相信不存在 Geoff 认为的那种规模的风险。但是,恐惧只有在促使我们采取行动时才是有用的,”他说:“过度的恐惧可能会使人瘫痪,所以我们应该尝试将辩论保持在理性的水平上。”


向上看


辛顿的首要任务之一是尝试与技术行业的领导者合作,看看他们是否能够走到一起,就有哪些风险以及如何应对这些风险达成一致。他认为化学武器的国际禁令可能是如何着手遏制危险人工智能的开发和使用的一种模式。“这并非万无一失,但总的来说人们不使用化学武器,”他说。

Bengio 同意辛顿的观点,即这些问题需要尽快在社会层面上解决。但他表示,人工智能的发展速度超过了社会能够跟上的速度。这项技术的能力每隔几个月就会跃进一次;而立法、监管和国际条约则需要几年时间。

这让 Bengio 怀疑,我们社会目前的组织方式 -- 在国家和全球层面 -- 是否能够应对挑战。“我相信我们应该对我们星球的社会组织采用完全不同的模式的可能性持开放态度,”他说。

辛顿真的认为他能让足够多的当权者分享他的关注吗?他不知道。几周前,他看了部电影《不要抬头》(Don’t Look Up),其中一颗小行星向地球撞去,但没有人能就如何应对达成一致,最后每个人都死了。

他说:“我认为人工智能也是如此,其他难以解决的大问题也是如此。”他说:“美国甚至不能同意将突击步枪从十几岁的男孩手中拿走。”

辛顿的论点令人警醒。我赞同他对人们在面临严重威胁时集体无法采取行动的悲观评估。同样真实的是,人工智能有可能造成真正的伤害 -- 破坏就业市场,加剧不平等,使性别歧视和种族主义恶化等等。我们需要关注这些问题。但我仍然无法从大型语言模型跳到机器人霸主。也许我是个乐观主义者。

辛顿送我出来时,天已经变得灰暗潮湿。“好好享受吧,因为你可能没剩多少时间了,”他说。他笑了笑,关上了门。

微信二维码
售前客服二维码

文章均源于网络收集编辑侵删

提示:仅接受技术开发咨询!

郑重申明:资讯文章为网络收集整理,官方公告以外的资讯内容与本站无关!
NFT开发,NFT交易所开发,DAPP开发 Keywords: NFT开发 NFT交易所开发 DAPP开发