专访“AI 教父”Geoffrey Hinton:为什么我开始害怕自己所建立的技术_人工智能:ethereal翻译名字

撰文:WillDouglasHeaven

来源:麻省理工科技评论

就在杰弗里-辛顿宣布退出谷歌这一重磅消息的四天前,我在伦敦北部一条街道的房子里见到了他。辛顿是深度学习的先驱,他帮助开发了现代人工智能核心的一些最重要的技术,但在谷歌工作了十年后,他选择辞职,专注于他目前对人工智能的新关注。

被GPT-4等新的大型语言模型的能力所震惊,辛顿希望提高公众对他现在认为可能伴随其开创技术的严重风险的认识。

在我们的谈话开始时,我在厨房的桌子旁坐下来,辛顿开始踱步。多年来因慢性背痛的困扰,他几乎从不坐下。在接下来的一个小时里,我看着他从房间的一端走到另一端,我注视着他。他有很多话要说。

这位75岁的计算机科学家因其在深度学习方面的工作,与YannLeCun和YoshuaBengio共同获得了2018年图灵奖,他说他已经准备好转变方向。“我太老了,无法从事需要记住大量细节的技术工作,”他告诉我。“我还好,但已大不如前,这令人烦恼。”

但这并不是他离开谷歌的唯一原因。辛顿想把时间花在他所说的“更多哲学工作”上,一个微小但对他而言非常真实的危险上,即人工智能将变成一场灾难。

Consensys发布《ETH质押提款指南》并推荐选择部分提款,届时将推出纪念NFT:3月8日消息,Consensys发布《ETH质押提款指南》,指南中提到,Shanghai/Capella升级的主要成果是允许质押者提取他们质押的ETH,但更具体地说,它将提供与提款相关的三个关键功能:1.能够将以太坊验证器的取款凭证从旧的0x00类型(源自BLS密钥)更新为较新的0x01类型(源自以太坊地址)。2.部分提款,或从活跃验证者的余额(超过32 ETH)中定期自动“退出”获得的共识层奖励。3.全额提款,或收回“退出”验证者的全部余额。只有具有较新的0x01类型提款凭证的验证者才有资格进行部分和全部提款,然而,目前还没有这样做的必要,因为0x00认证的验证者将继续像信标链诞生以来那样获得奖励。请注意,一旦验证者将其取款凭证从0x00类型更新为0x01类型,就无法再更改。这是从0x00到0x01类型的提款凭证的一次性单向更改。

部分提款使质押者受益,因为质押者可以定期访问他们的验证者获得的CL质押奖励(扣除任何罚款),而不会产生任何gas成本,也不必退出他们的验证者。此外,由于以太坊验证者的有效余额上限为32 ETH,因此验证者余额上的任何剩余ETH都是无用的。部分提款允许质押者访问这些过剩的、非生产性的ETH,并将其重新部署以激活新的以太坊验证器或其他地方。部分提款也应该通过防止过长的退出队列和过多的验证者流失而使以太坊网络受益,这可能会破坏网络的稳定性。

目前,58%的人拥有0x00类型的取款凭据。在剩下的42%中,使用0x01类型的取款凭证,大约61%(或所有以太坊验证器的25%)由Lido验证器集操作。

此外,为庆祝升级,ConsenSys将在3月下旬/4月中旬升级上线时推出其第二个纪念NFT系列,并邀请Web3爱好者通过领取NFT参与。[2023/3/8 12:48:49]

离开谷歌可以让他畅所欲言,而不用像谷歌高管那样必须进行自我审查。他说:“我想谈论人工智能的安全问题,而不必担心与谷歌业务的关联。”“只要谷歌付我薪酬,我就不能这么做。”

ETH Research Grant将首次使用基于PLONK的MACI系统:1月14日消息,以太坊长期研究资助(ETH Research Grant)将于1月15日在DoraHacks.io开始二次方投票。本次投票将首次实验使用DoraHacks MACI-PLONK(基于PLONK系统的MACI零知识投票),这是首次将MACI拓展至PLONK。通过DoraHacks MACI-PLONK,零知识治理的电路设计将更加灵活,并只需要一次零知识证明可信启动。

此前,DoraHacks-MACI使用Groth16系统对投票结果进行零知识证明,自2021年以来,DoraHacks-MACI已经在多次社区治理中被使用,包括Dora Grant DAO、ETHDenver、OpenSea黑客马拉松等。DoraHacks MACK-PLONK将逐步替代DoraHacks MACI,成为未来零知识治理的基础设施。[2023/1/14 11:11:53]

当然,这并不意味着辛顿对谷歌有任何不满意。“这可能会让你大吃一惊,”他说。“我想传达很多关于Google的优点,但如果我不在Google了,它们会更可信。”

辛顿说,新一代的大型语言模型--特别是OpenAI在3月发布的GPT-4--让他意识到,机器正朝着比他想象的要聪明得多的方向发展。而他对这一情况可能发生的事情感到害怕。

“这些东西与我们完全不同,”他说。“有时我觉得这就像外星人登陆了,而人们却没有意识到,因为他们的英语说得很好。”

F1 Dog项目Discord服务器遭到攻击:金色财经报道,据CertiK监测,F1 Dog项目Discord服务器遭到攻击。请社区用户在服务器修复之前不要点击任何链接或声明消息。[2022/12/23 22:03:27]

基石

辛顿最出名的是他在1980年代提出的一种叫做反向传播的技术。简而言之,这是一种允许机器学习的算法。它支撑着今天几乎所有的神经网络,从计算机视觉系统到大型语言模型。

直到2010年代,通过反向传播训练的神经网络的力量才真正产生了影响。辛顿与几个研究生合作,表明该技术在让计算机识别图像中的物体方面比其他任何技术都好。此外,他们还训练了一个神经网络来预测一个句子中的下一个字母,这也是今天大型语言模型的前身。

其中一名研究生是IlyaSutskever,他后来共同创立了OpenAI并领导了ChatGPT的开发。辛顿说:“我们最初意识到,这种东西可能会很神奇。”“但人们花了很长时间才意识到,这需要大规模进行才能取得成功。”早在20世纪80年代,神经网络就是个笑话。当时的主流观点是符号人工智能,即智能涉及处理符号,如文字或数字。

但辛顿并不相信。他研究了神经网络,即大脑的软件抽象,其中的神经元和它们之间的连接由代码表示。通过改变这些神经元的连接方式--改变用来表示它们的数字--神经网络可以在飞行中重新接线。换句话说,它可以被用来学习。

“我父亲是一名生物学家,所以我从生物学的角度思考问题,”辛顿说。“而符号推理显然不是生物智能的核心。”

Celsius Network CEO“问题交易记录”遭前员工曝光:12月20日消息,Tiffany Fong在Twitter上曝光了一份来自Celsius CEO Alex Mashinsky历史交易记录。该交易记录最早可追溯到2018年。其中包括:自2020年初以来,Alex从Celsius平台转移了1810万美元的代币,包含1130万美元的CEL;2022年5月15日(Celsius FUD的峰值),Alex从他的主账户中提取价值288万美元的USDC、BTC、ETH,账户中只剩下CEL。据悉,这份交易记录来自Celsius前员工。[2022/12/20 21:56:44]

“乌鸦可以解决难题,但它们没有语言。它们不是通过存储符号串并操纵它们来完成的。它们是通过改变大脑中神经元之间的连接强度来实现的。因此,通过改变人工神经网络中的连接强度来学习复杂的东西是可能的。”

一种新的智能

40年来,辛顿一直将人工神经网络视为模仿生物神经网络的拙劣尝试。现在他认为情况发生了变化:他认为,在试图模仿生物大脑的过程中,我们已经想出了更好的办法。他说:“当你看到这一点时是很可怕的。”“这是一个突然的翻转。”

辛顿的担心会让很多人觉得是科幻小说的内容。但他是这样思考的。

正如它们的名字所示,大型语言模型是由具有大量连接的大规模神经网络制成的。但与大脑相比,它们是微小的。“我们的大脑有100万亿个连接,”辛顿说。“大型语言模型最多只有5000亿,最多一万亿。然而,GPT-4的知识比任何人都多数百倍。所以也许它实际上有比我们更好的学习算法。”

Kaiko推出市场数据产品跟踪Aave、Compound和MakerDAO:金色财经报道,加密数据提供商Kaiko推出市场数据产品跟踪DeFi借贷协议Aave、Compound和MakerDAO。根据Kaiko数据,这些协议目前持有约150亿美元,占借贷协议锁定的全球流动性总额的78%以上。Kaiko新产品将跟踪借款、存款、还款、取款和清算,可用于监控借贷市场、优化交易策略、分析收益和跟踪钱包动向等。

Kaiko市场数据董事总经理Philippe Redaelli表示,FTX的崩溃导致DeFi协议的使用增加,由于DeFi协议提供的透明度和金融机会,现在比以往任何时候都更需要这些协议。(the block)[2022/11/29 21:10:08]

与大脑相比,人们普遍认为神经网络不善于学习:需要大量的数据和能量来训练它们。另一方面,大脑可以迅速掌握新的想法和技能,使用的能量只有神经网络的一小部分。

“人们似乎拥有某种魔力,”辛顿说。“但只要你把这些大型语言模型中的一个拿出来,并训练它做一些新的事情,这个论点就会不成立。它可以极快地学习新的任务。”

辛顿指的是“少样本学习”,在这种情况下,经过预训练的神经网络,如大型语言模型,只需给几个例子就可以训练它做一些新事情。例如,他指出,其中一些语言模型可以将一系列的逻辑语句串成一个论点,即使它们从未接受过直接这么做的训练。

他说,在学习这样一项任务的速度上,将预先训练好的大型语言模型与人类进行比较,人类毫无优势。

大型语言模型制造了这么多东西,这又是怎么回事?人工智能研究人员将其称为“幻觉”,这些错误通常被视为技术的致命缺陷。产生这些错误的趋势使聊天机器人变得不可信,而且,许多人认为,这表明这些模型没有真正理解他们所说的话。

对此,辛顿的答案是:胡说八道是一个特点,而不是一个错误。“人们总是在虚构,”他说。半真半假和错误记忆的细节是人类谈话的标志:“虚构是人类记忆的标志。这些模型所做的与人一样”

辛顿说,不同之处在于人类通常或多或少会正确地构思。对他来说,编造东西不是问题。计算机只需要多一点练习。

我们还期望计算机要么对,要么错,而不是介于两者之间。“我们不期望它们像人一样喋喋不休,”辛顿说。“当一台计算机这么做时,我们认为它犯了错误。但换成人类,这就是人们工作的方式。问题是大多数人对人类的工作方式有着无可奈何的错误看法。”

当然,大脑仍然比计算机做得更好:驾驶汽车、学习走路、想象未来。而且大脑可以靠一杯咖啡和一片吐司上完成这些任务。他说:“当生物智能在进化时,它无法使用核电站。”

但辛顿的观点是,如果我们愿意支付更高的计算成本,有一些关键的方法可以让神经网络在学习方面击败生物。。

学习只是辛顿论证的第一条线。第二条是交流。他说:“如果你或我学到了一些东西,并想把这些知识传授给其他人,我们不能只是给他们发送一份副本。”“但我可以有一万个神经网络,每个都有自己的经验,它们中的任何一个都可以立即分享它们所学到的东西。这是巨大的区别。就好像我们有一万个人,只要有一个人学到了什么,我们所有人就都会知道。”

所有这些加起来是什么?辛顿现在认为世界上有两种类型的智能:动物大脑和神经网络。“这是一种完全不同的智能形式,”他说。“一种新的、更好的智能形式。”

这是一个巨大的主张。人工智能是一个两极分化的领域:嘲笑的人大有所在,而同意的人也比比皆是。

对于这种新型智能的后果是有益的还是灾难性的,人们也存在分歧。他说:“你认为超级智能是好是坏在很大程度上取决于你是一个乐观主义者还是一个悲观主义者。”“如果你让人们估计坏事发生的风险,比如你家里有人得重病或被车撞的几率是多少,乐观主义者可能会说5%,悲观主义者可能会说100%。而轻度抑郁症患者会说几率可能在40%左右,而且他们通常是对的”。

辛顿是哪种人?“我有轻微的抑郁症,”他说。“这就是为什么我很害怕的原因。”

为什么会出错

辛顿担心,这些工具能够找出方法来操纵或杀死那些没有为新技术做好准备的人。

“我突然改变了对这些东西是否会比我们更聪明的看法。”他说:“我认为它们现在已经非常接近了,它们在未来会比我们更聪明。”“我们如何在这种情况下生存?”

他特别担心,人们可以利用他亲自注入生命的工具来倾斜一些最重要的人类经历的天平,特别是选举和战争。

辛顿认为,智能机器的下一步是有能力创建自己的子目标,即执行一项任务所需的临时步骤。他问道,当这种能力被应用于本质上不道德的东西时会发生什么?

目前,已经有一些实验性项目,如BabyAGI和AutoGPT,将聊天机器人与其他程序连接起来,使它们能够将简单的任务串联起来。当然,这些步骤很微小,但它们预示着一些人想把这项技术带入的方向。辛顿说,即使坏人没有夺取机器,子目标也存在其他问题。

“好吧,这里有一个几乎总是对生物学有帮助的子目标:获得更多能量。因此,可能发生的第一件事就是这些机器人会说,‘让我们获得更多能量吧。让我们将所有电力重新路由到我的芯片。‘另一个重要的子目标是复制更多的自己。听起来如何?”

Meta公司的首席人工智能科学家YannLeCun同意这个前提,但并不同意Hinton的担心。LeCun说:“毫无疑问,机器将在未来变得比人类更聪明--在所有人类智能的领域。”“这是一个关于何时和如何的问题,而不是一个关于是否的问题。”

但他对事情的发展方向有完全不同的看法。”我相信,智能机器将为人类带来新的复兴,一个新的启蒙时代,“LeCun说。“我完全不同意机器会仅仅因为更聪明就统治人类的想法,更不用说毁灭人类了。”

“即使在人类中,我们当中最聪明的人也不是最有统治力的人,”LeCun说。“最有统治力的人绝对不是最聪明的。我们在政界和商界有无数这样的例子。”

蒙特利尔大学教授、蒙特利尔学习算法研究所科学主任YoshuaBengio觉得更不可知。他说:“我听到有人诋毁这些恐惧,但我没有看到任何坚实的论据能让我相信不存在Geoff认为的那种规模的风险。但是,恐惧只有在促使我们采取行动时才是有用的,”他说:“过度的恐惧可能会使人瘫痪,所以我们应该尝试将辩论保持在理性的水平上。”

向上看

辛顿的首要任务之一是尝试与技术行业的领导者合作,看看他们是否能够走到一起,就有哪些风险以及如何应对这些风险达成一致。他认为化学武器的国际禁令可能是如何着手遏制危险人工智能的开发和使用的一种模式。“这并非万无一失,但总的来说人们不使用化学武器,”他说。

Bengio同意辛顿的观点,即这些问题需要尽快在社会层面上解决。但他表示,人工智能的发展速度超过了社会能够跟上的速度。这项技术的能力每隔几个月就会跃进一次;而立法、监管和国际条约则需要几年时间。

这让Bengio怀疑,我们社会目前的组织方式--在国家和全球层面--是否能够应对挑战。“我相信我们应该对我们星球的社会组织采用完全不同的模式的可能性持开放态度,”他说。

辛顿真的认为他能让足够多的当权者分享他的关注吗?他不知道。几周前,他看了部电影《不要抬头》,其中一颗小行星向地球撞去,但没有人能就如何应对达成一致,最后每个人都死了。

他说:“我认为人工智能也是如此,其他难以解决的大问题也是如此。”他说:“美国甚至不能同意将突击步从十几岁的男孩手中拿走。”

辛顿的论点令人警醒。我赞同他对人们在面临严重威胁时集体无法采取行动的悲观评估。同样真实的是,人工智能有可能造成真正的伤害--破坏就业市场,加剧不平等,使性别歧视和种族主义恶化等等。我们需要关注这些问题。但我仍然无法从大型语言模型跳到机器人霸主。也许我是个乐观主义者。

辛顿送我出来时,天已经变得灰暗潮湿。“好好享受吧,因为你可能没剩多少时间了,”他说。他笑了笑,关上了门。

郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。

水星链

TRX谁是00后手机里的「BAT」?_RIA:GLORYD

采访|贾紫璇于玮琳撰文|贾紫璇「已经很难记起上一次打开百度是什么时候了;微信聊天记录在以周为单位缓慢更新;我的抖音月付金额已经超过了支付宝花呗分期.

[0:46ms0-0:918ms