马斯克矛盾的AI观:一边呼吁暂停训练 ,一边成立X.AI入局_马斯克:TWITTERX

来源:中国经营报

4月14日,据外媒援引美国内华达州的一份文件报道,特斯拉、推特、SpaceX的公司CEO埃隆·马斯克已于3月9日注册了一家新的人工智能公司,名称为“X.AI”,马斯克是新公司唯一的董事。马斯克家族办公室主任,同时也是马斯克的神经网络公司Neuralink首席执行官的JaredBirchall则担任秘书之职。在此之前,据美媒报道,马斯克在推特内部启动了一个AI项目,为此已购买了约1万个GPU芯片,而且开始招揽AI人才。

图片来源:由无界AI生成

随后在4月18日,马斯克接受福克斯采访时表示,要开始做一个最大程度寻求真相的人工智能,可能会叫做“TruthGPT”。4月20日,就在微软宣布将推特从其广告平台删除之后,马斯克发布推文回应称,“他们非法使用推特数据进行训练。诉讼时间到。”

CoinGecko:代币“X”与埃隆·马斯克无关:金色财经报道,CoinGecko发推称,代币“X”与埃隆·马斯克无关,由于埃隆·马斯克计划将Twitter徽标更改为“X”,其币价今天飙升1,284%。[2023/7/24 15:55:20]

马斯克近期的种种举动,引发业界的广泛猜测——马斯克或将亲自入局做AI,以对抗OpenAI的对话机器人ChatGPT及其背后支撑的GPT大模型。针对新公司X.AI的战略定位和业务范围,以及马斯克推文中提及的“诉讼”是否会付诸实施,《中国经营报》记者通过电子邮件向特斯拉和马斯克方面求证核实,截至发稿前暂未获得回复。

值得注意的是,马斯克拥有的几家公司——特斯拉、SpaceX、太阳城、Neuralink、推特,无一不使用甚至依赖AI技术;而另一方面,从2014年至今,马斯克也在持续不断地发声,提醒高度警惕AI、呼吁监管以确保AI的安全可控。尽管宣示与执行往往并不一定是一致的,现在去评判马斯克的发声或动作,显然还为时尚早,但是,人们从马斯克看似“矛盾”的AI观中,或许可以一窥其“野心”,以及探讨当下大火的生成式AI究竟带来了哪些方面的风险与挑战。

推特:在马斯克合并协议上花费了3310万美元的交易费用:7月27日消息,推特称:推特在马斯克合并协议上花费了3310万美元的交易费用;在2021年和2022年下半年,宏观因素对公司产生了负面影响,并可能在未来时期产生负面影响,如广告营收。(金十)[2022/7/27 2:40:10]

马斯克的X“野心”?

需要注意的是,在注册X.AI公司几乎同一时期里,马斯克还注册了XHoldingsCorp。和XCorp。两家公司,前者意为控股公司,是作为XCorp。的母公司。据外媒4月14日的报道,马斯克于去年10月收购的推特公司已并入XCorp。实体公司中。马斯克在发给推特全体员工的邮件中宣布,推特员工将获得XCorp。的股票。

“X”这一名称与马斯克的渊源颇深。马斯克于1999年3月创立了他的第二家初创公司,命名为X.com。X.com发展与竞争中经历了合并,于2001年6月更名为PayPal,次年被eBay出价15亿美元收购。马斯克在X.com发展中也被解除了CEO职务,直至离开。2017年,马斯克从eBay手中买回了X.com这一域名。到2020年12月,马斯克重申了对X这一名称的支持。2022年10月,随着推特收购案的推进,马斯克在推特上表示,“收购推特是创建X即万能应用的催化剂。”彼时,马斯克并未明确X的目标,只是考虑将推特变成一个“超级微信”。

马斯克回应Twitter起诉:现在他们不得不在法庭上披露机器人信息了:7月11日消息,针对Twitter向特拉华州衡平法院(Delaware Court of Chancery)起诉马斯克必须按照之前的协议完成收购交易,马斯克在社交媒体上发布表情图做出回应,图中文字写道:他们说我无法收购Twitter,然后他们又不愿意披露机器人信息,现在他们想起诉强迫我收购Twitter,这样他们不得不在法庭上披露机器人信息了。[2022/7/11 2:04:42]

谦询智库合伙人龚斌认为,“马斯克的思维武器是第一性原理,即凡事回到本源,回到基本的数学规律、物理学定律、化学原理等去看本质。从他做的事,能够看到他的行事方式是‘如果一件事情在理论上是成立的,理论上能做到最好的,那么就应该想办法把它做出来’。”

美国作家阿什利·万斯撰写的《硅谷钢铁侠:埃隆·马斯克的冒险人生》一书中也提到,“长期以来,他一直想让世界知道,他并不是在顺应潮流,也不是为了发财,他是在追求一个整体的计划。”马斯克向作者表示,“我喜欢把那些对于未来真正重要和有价值的技术,以某些方式变成现实。”

马斯克回应高盛建议Twitter董事会拒绝被其收购:不是针对我个人:金色财经报道,据WSBChairman在社交媒体上披露,Twitter 董事会,不包括 Jack Dorsey,只拥有0.12%的股份,但他们不仅拒绝了马斯克以高出市场价值 20%的价格收购,还威胁要稀释马斯克的股份。据悉,是高盛银行建议Twitter董事会拒绝马斯克的收购交易,但高盛目前对 Twitter 股票给出的目标价格只有 30美元,比马斯克的报价低45%。对此,马斯克回应称:公平地说,对于Twitter董事会而言,他们可能更多的是关注其他潜在竞标者而不是针对我个人。[2022/4/17 14:29:27]

由此不难看出,马斯克亲自创办一家AI公司,对抗他所“抨击”的、处在“闭源”“逐利”“被微软掌控”现状的OpenAI。全联并购公会信用管理委员会专家安光勇认为,马斯克下场做AI,按照他的AI观乃至世界观,可能会采取诸如研究和应用AI技术解决人类面临的重大问题、加强内部对AI伦理的监管机制、与相关组织和机构合作等措施,来推动AI技术被人类利用掌控并助力人类社会发展。

美货币监理署前代理署长:马斯克对加密货币行业的影响是积极的:美国货币监理署前代理署长Brian Brooks接受彭博社采访时表示,马斯克对加密货币行业的影响是积极的,哪怕在市场下跌的日子。「无论他在推动市场上涨还是下跌,从长远看可能都是好事。既然埃隆·马斯克这么感兴趣,说明加密货币一定很重要。」Brooks说:「我当然希望他在发推造成价格波动时,自己没有交易。这是一个言论自由的国家。但短期市场恐慌从来都不是任何人买入和卖出的好理由。」他也提到以太坊的实用性在上升,「我已经all in。」他说以太坊是一个大家搞建设的平台,「那些想干掉银行的人可以在上面打造自己的应用程序,现在这种开发正大规模展开,」因此他对以太坊很有信心。(彭博社)[2021/6/5 23:14:10]

“戒心”由来已久

今年4月中旬,马斯克在接受福克斯采访时警告,人工智能可能导致“文明毁灭”,支持“政府对AI进行监管,尽管受到监管并不好玩”,一旦AI“可能处于控制地位,再制定法规可能为时已晚”。

就在3月29日,非营利组织“未来生命研究所”发出一封联合署名的公开信,呼吁“所有AI实验室立即暂停对比GPT-4更强大的AI系统的训练至少6个月”。马斯克位列这封公开信署名榜单的第一位。

安光勇指出,马斯克对AI持续多年的警惕与戒心,与其利用AI等新型技术扩张商业版图并不矛盾。他看到了新技术的巨大潜力和价值,同时又意识到AI技术的发展带来的潜在威胁和风险。

事实上,马斯克对AI的“戒心”由来已久。本报记者综合社交媒体、公开演讲、媒体报道、产业及行业会议发言等公开渠道不完全统计,从2014年截止到现在,马斯克公开发表的对AI保持高度警惕、呼吁确保安全的言论高达数十次,持续地表达对AI的担忧。尤其是2018年在接受采访时,马斯克直言“人工智能比核武器更危险”。记者注意到,马斯克持续多年对AI的“戒心”大致可以概括为两个层面:一是担忧人工智能的进化可能脱离人类的控制,从而对人类造成负面影响甚至潜在的危险;二是呼吁加强对人工智能的监管,以确保其安全可控。

需要指出的是,马斯克在担忧AI失控的同时,也并不否认AI技术的优势与对商业、社会的驱动力量。而实际上,被马斯克批评的OpenAI无论是在大模型训练中,还是产品服务中也表出现出了满满的“求生欲”。OpenAI方面表示,目前并没有关于GPT-5的训练计划。在发布GPT-4大模型时也表示“花了6个月时间使GPT-4更安全、更一致”。4月25日,OpenAI在ChatGPT可用市场推出了新控件,允许用户关闭其聊天记录。所有禁用聊天历史记录中发生的任何对话都不会用于训练OpenAI的模型,新对话保留30天。

与此同时,包括意大利、德国等欧洲国家、美国、中国在内的相关监管机构或部门也开始关注并探索对生成式AI的监管路径。4月11日,中国国家互联网信息办公室起草了《生成式人工智能服务管理办法》,即日起至5月10日期间面向社会公开征求意见。

AI威胁论见仁见智

马斯克关于AI可能失控、甚至威胁人类的言论究竟是未雨绸缪,还是杞人忧天?显然,现阶段这还是一个见仁见智的事情。马斯克在全球范围内拥有大批支持者,同时也有反对与质疑的声音。

上海申伦律师事务所夏海龙认为,在人类对自身“意识”尚未有充分科学认识的情况下,显然不可能凭空创造出一个意识,因此生成式AI本质上依然只是对人类语言模式的机械模仿,而不存在进化出类人意识的可能。从当下来看,生成式AI对社会、法律的冲击还只是“类似于车马时代汽车造成的冲击”,监管目前只能在内容合规、网络安全等几个传统维度提出要求,后期更细致的监管措施可能需要生成式AI应用的进一步深化、普及。

毫无疑问的是,生成式AI的热潮正在给个人信息保护带来一些挑战和风险。中国科学院信息工程研究所张逸飞发文《大语言模型中的个人信息保护问题探讨》指出,虽然大语言模型有着巨大的潜力和应用价值,但也带来了一些个人信息保护方面的挑战和风险,主要包括数据来源、数据处理、数据安全、偏见诱导四方面的问题。

文章分析认为,在数据来源方面,LLM通常使用来自互联网的公开文本数据作为预训练数据,这些数据可能包含一些用户的个人信息,如姓名、年龄、性别、职业、兴趣爱好、社交关系等。这些信息可能被LLM无意中学习和记忆,并在后续的应用中泄露出来。而在数据处理方面,LLM在预训练和微调过程中需要对数据进行收集、存储、分析和处理,这些操作可能会侵犯用户的个人信息权利,如知情权、选择权、删除权等。用户可能没有充分的意识和能力来保护自己的个人信息,也没有足够的透明度和监督机制来确保数据处理方遵守相关的法律法规和伦理规范。在安全方面,LLM由于参数量巨大,需要借助分布式计算和云服务等技术来进行训练和部署,这就增加了数据被窃取、篡改、滥用或泄露的风险。LLM的模型参数本身也可能包含一些敏感信息,如果被恶意攻击者获取,可能会导致用户的个人信息被还原或推断出来。此外,LLM在应用场景中可能会对用户的个人信息进行分析、预测或推荐,这些操作可能会影响用户的个人自由、尊严和权益,带来歧视、偏见、诱导等问题,甚至被用于产生违反社会主义核心价值观的有害信息,对社会造成危害。用户可能没有足够的知识和能力来判断LLM的输出结果的可靠性和合理性,也没有有效的途径和机制来纠正或申诉LLM的错误或不公正的决策。

郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。

水星链

[0:15ms0-1:31ms