文|Juny??编辑|VickyXiao
进入2023年以来,科技界里彷佛没有了大事,只剩下了人工智能。人人都在谈论ChatGPT、科技圈开卷大模型、OpenAI估值节节攀升、大公司你追我赶硝烟四起……
而这一切繁荣的背后,其实都离不开三位人工智能研究者的工作———曾因提出和发展深度学习神经网络,在2019年获得计算机界最高荣誉“图灵奖”的GeoffreyHinton、YoshuaBengio、YannLeCun。
可以说,没有这三位学者的研究,我们今天根本看不到ChatGPT、Bard的出现,也不会这么快的就能在日常生活中使用语音识别、人脸识别、图片检索、机器翻译、自动驾驶等技术。
其中,GeoffreyHinton是“三巨头”中最核心的人物,被业界誉为“人工智能教父”。他在2013年加入谷歌,把深度学习技术带进了谷歌的多项业务,直接推动谷歌成为了AI技术最出色的公司之一。同时,他还亲自培养了一大批机器学习相关的人才,包括了如今OpenAI的联合创始人和首席科学家IlyaSutskever。
前谷歌CEO Eric Schmidt加入Chainlink Labs担任战略顾问:金色财经报道,Chainlink Labs今天宣布,谷歌前首席执行官Eric Schmidt将担任其战略顾问。据悉,作为商业领袖和软件工程师,Schmidt曾于2001年至2011年担任谷歌的首席执行官。Schmidt表示,区块链和智能合约的推出已经展示了构建新商业模式的巨大潜力,但很明显,区块链的最大优势之一,即与外部世界缺乏联系也是其最大的挑战。[2021/12/8 12:57:41]
“深度学习三大先驱”,图片来自于推特
而就在加入谷歌的第十年、深度学习迎来爆发式发展的当下,几周前,现年75岁的GeoffreyHinton辞去了他在谷歌的工作。而离职的原因,用他的原话来讲,是想要没有任何负担的给所有人讲一些他关于人工智能发展的“真心话”。
来自“人工智能教父”的担忧和警告
如果说谁最热爱深度学习相关的人工智能研究,GeoffreyHinton一定是最有发言权的那一位。从上个世纪70年代至今,GeoffreyHinton作为计算机神经网络的开拓者,已经在这个领域默默耕耘了近50年。
对于GeoffreyHinton来说,从无到有的创造一个全新概念和技术的过程曾经无比艰难。
从上个世纪80年代他提出神经网络理论开始,一直到本世纪初,长达20多年的时间里,学术界对神经网络理论都充满质疑,同时,受制于当时数据集规模限制以及计算机算力的不足,相关研究的进展也一度非常缓慢。在这个漫长的过程中,一些人放弃了、一些人转了研究方向,但GeoffreyHinton从未放弃过关于深度学习神经网络的研究。
谷歌已删除49个伪装成合法加密应用的Chrome扩展程序:谷歌已经从其线上商店删除了49个Chrome扩展程序,这些扩展伪装成Ledger、MyEtherWallet、Trezor、Electrum等合法的加密货币钱包应用程序,但包含恶意代码,旨在窃取加密钱包私钥、助记短语和其他原始秘密。据悉,这49个扩展均是由MyCrypto平台的安全主管Harry Denley发现,Denley表示,这49个扩展似乎是由同一个人/组织创建,虽然所有的扩展功能都是一样的,但是根据具体伪装品牌会根据目标用户的不同而变化。(ZDNet)[2020/4/15]
但如今,深度学习终于守得云开见月明,所有人都开始向深度学习里疯狂砸人力、砸资金,坚守了多年的GeoffreyHinton这时却想要大家都暂停脚步,甚至对自己付出了一生心血的研究感到有些后悔,为什么?
在最近接受纽约时报的专访中,GeoffreyHinton表示,自己此次从谷歌离职并不是因为要批判谷歌,而是他能够在不影响谷歌的情况下,去真实地谈论AI的潜在风险。
在他看来,作为AI技术的领军者,过去这些年谷歌一直扮演着一位“负责任的管家”的角色,小心翼翼地保留和控制着那些可能造成伤害的技术。但由于微软极快的将Bing和ChatGPT结合并向公众发布,挑战了谷歌核心的搜索引擎的业务,所以谷歌也无法像过去那样继续保持着发展节奏,科技巨头陷入了一场可能无法停止的竞争之中。
动态 | 谷歌趋势:“比特币”在尼日利亚搜索热度最高:据Google Trends数据,过去7天的搜索热度中,尼日利亚成为搜索“bitcoin”热度最高的地区。在按区域显示的“bitcoin”搜索热度排行中,前五名依次是:尼日利亚、南非、奥地利、荷兰以及圣赫勒拿。[2018/12/23]
在这样的情况下,他需要以一名研究者而不是谷歌员工的身份站出来,给大家发出警告。结合整个采访来看,Hinton主要有以下几个方面的担忧。
一是在人工智能技术的支持下,他认为互联网将很快被各种虚假信息淹没。这些信息包括文字、照片、视频等,而普通人将越来越难分辨这些信息的真假,引发社会的失序。
二是就业市场可能在就业市场还没有准备好的情况下被颠覆,造成失业潮的爆发。虽然目前像ChatGPT这样的聊天机器人还只是对人类工作的补充,但按照人工智能的发展速度,它们将很快可以取代律师助理、翻译、行政助理等其他任何基础的、重复性的工作。“它消除了苦差事,但带走的可能远不止于此。”Hinton表示。
动态 | 谷歌:比特币仍是最常被搜索的加密术语:据thenextweb报道,谷歌数据显示,“比特币”目前仍然是最常被搜索的加密术语,比“加密货币”和“区块链”等术语的受欢迎程度高出近10倍。而“区块链”现在比“加密货币”更受欢迎。[2018/11/2]
此外,他还担心人工智能技术的接下来的发展会对人类社会构成威胁。他承认,在他们过去的研究之中,人工智能常常能从大量数据中学习进而产生出很多让人意想不到的行为。而当前,包括个人和公司在内的很多使用者们不仅让人工智能自主生成代码,也让人工智能运行和管理着代码。在这种不断的训练之中,很有可能让“自主杀手机器人”真的成为现实。
“很多人都觉着这很遥远,我曾经也是这么认为的,觉得至少还要有30-50年我们才会走到那一天。但就我目前所了解到的信息而言,我已经不这么想了。”Hinton认为,谷歌和微软以及其他大型公司之间的竞争,将很快升级为一场全球性竞争,如果没有某种监管,这场竞争将不会停止,人工智能发展的速度会远超我们的想象,并最终走向失控。
呼吁AI监管的声音越来越强
如果以上这些话从别人口中说出来,大家可能仍然会觉得这些观点带着危言耸听的意味。但当如今世界上人工智能领域最权威的专家、深度学习的奠基人GeoffreyHinton也这么说时,也引发了更多人开始认真思考和关注这个问题。
比特币霸屏维基谷歌等排行榜:早在12月30日,谷歌就曾详细列出的“2017年搜索热度”,其中比特币赫然位列“全球新闻”搜索类别下的第二名, 同样,“如何购买比特币”也占据了“如何…”这一搜索类别的榜单第三位。而如今又有数据爆出,称在维基百科上,比特币的阅读排名为第9位,阅读量高达到1502万。[2018/1/3]
实际上,在此次GeoffreyHinton发声之前,最近几个月来人工智能领域就已经发起过两波大型的联名,呼吁谨慎地发展人工智能技术。
一次是由马斯克、YoshuaBengio等数千名来自学术界和企业界的大佬呼吁至少暂停6个月比GPT-4更强模型的研究的公开信。另一次则是由拥有40多年历史、人工智能领域最权威学术机构之一的人工智能促进协会的19名现任及前任领导人所发布的联名信,其中也包括了微软现任首席科学家、人工智能研究专家EricHorvitz。
虽然此前马斯克他们暂停模型研发的呼吁在业界受到了争议,包括YannLeCun、吴恩达在内的研究者都对停止研发“一刀切”的做法表示了反对,甚至也有人质疑马斯克等人提出暂停研发是为了私利。但目前看来,关于共同加强AI监管、预防潜在性危险发生的观点,大家的看法几乎都是一致的。
在今天GeoffreyHinton的报道发出后,吴恩达第一时间转发了GeoffreyHinton的推特表示支持,感谢Hinton对于人工智能技术所做出的不可估量的贡献,以及对人工智能在虚假信息、自动机器和劳动力影响方面的发声。
一些AI的投资人、研究者今天也纷纷转发了GeoffreyHinton的访谈,呼吁学界、工业界、政府监管机构应该快速行动起来,趁当前技术还在可控范围内,尽快制定好监管框架和应用方案等。
当然,也有研究者并不认同AI威胁论,其中就包括了GeoffreyHinton曾经的学生、研究的伙伴YannLeCun。他此前多次表示,大语言模型根本不算什么,要想真正通往AGI之路,还需要构建“世界模型”。
对此,很多人也很希望这些对于人工智能发展持有不同观点的研究泰斗们能够很快来一场深度对谈,让人们更多的了解当前人工智能发展前方的机遇和风险。
AI会成为新时代的“原子弹”吗?
在此次的访谈中,一个尤其引人关注的地方在于GeoffreyHinton在谈到AI风险时,多次提及了核武器。从一定程度上来看,GeoffreyHinton或许认为AI对人类社会的潜在危险并不亚于核武器。
他表示,跟核武器研究不同,现在AI研究更危险的地方在于,我们目前几乎没有办法知道有哪些组织或者国家正在秘密研究这项技术。理想的情况下,全球各国组织和科学家们应该共同进行合作和对技术进行控制,但显然现在很难做到这一点。
作为深度学习技术的发起人,GeoffreyHinton坦言自己目前甚至有些后悔进行了这项技术的研究。当潘多拉魔盒被打开,作为研究人员很难去防止不好的人利用这些技术去做不好的事。
而Hinton的这种说法也让人不由地想起了当年“原子弹之父”罗伯特·奥本海默相似的心路历程。当年,美国在广岛长崎投放原子弹两个月之后,奥本海默辞去了职务,之后他在担任美国原子能委员会顾问期间一直致力于游说国际机构对军备进行管制,并运用影响力宣扬控制核武器和核不扩散运动。
GeoffreyHinton说,以前人们问他如何从事具有潜在危险的技术时,他总会会引用奥本海默的话:“当你看到一个东西拥有美妙的技术前景时,就尽管去做吧。”但现在,他已经不会再那样说了。
“人们不应该快速扩大AI研究的规模,直到足够了解自己是否能够控制它,”GeoffreyHinton说道。
*参考资料:
https://www.nytimes.com/2023/05/01/technology/ai-google-chatbot-engineer-quits-hinton.html
郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。