GPT-4爆火 去中心化算力能解决AI算力难题吗_GPT:All In GPT

上周,OpenAI 大型语言模型 GPT-4 一经公布便引发了全球科技圈与媒体的关注,60秒创建出一款小游戏,将一张草图快速变为功能性的网站,完美通过历史、数学等几乎所有的学科考试,检查代码漏洞等等,各种逆天的功能展示它极为强大的能力,可以说,GPT-4 成为了在知识、技能、逻辑领域的全能人才,比以往的任何 AI 都要强大,而这一款疯狂的产品或将预示着 AI 奇点的到来。

GPT-4与GPT-3.5各项考试成绩对比

在 AI 开始不断刷新人们认知的同时,另一个更为底层的领域也同样发生着巨变,那就是算力。众所周知,AI 模型都需要消化大规模的数据,同时也需要消耗更为庞大的算力,诸如图像识别、自然语言处理和机器学习等各种AI应用和模型的训练,都依赖于庞大算力的加持。

Sam Altman:开源GPT-3、降低GPT-4的成本、翻倍模型规模:6月1日消息,AI 开发平台 HumanLoop 创始人 Raza Habib 与 OpenAI 首席执行官 Sam Altman 等 20 多位开发者开展了一次闭门讨论会,Sam Altman 透露了很多关于 OpenAI 的未来规划与目前遇到的情况。具体有:

1. OpenAI 目前严重受限于 GPU,导致他们推迟了许多短期计划,大部分关于 ChatGPT 可靠性和速度的问题都是由于 GPU 资源短缺造成。

2. 给 GPT-4 降本提效是 OpenAI 当前的首要任务。

3. 更长的 ChatGPT 上下文窗口 (最高可达 100 万个 tokens)。将来会有一个记住对话历史记录的 API 版本。

4. GPT-4 的多模态功能要到 2024 年才会公开,在获取更多 GPU 资源前不能将 GPT-4 的视觉版本扩展到所有人。

5. OpenAI 正在考虑开源 GPT-3,他们之所以还没有开源的部分原因是因为他们觉得没多少人和公司有能力妥善管理如此大型的大语言模型。

6. 最近很多文章声称的“巨型 AI 模型的时代已经结束”并不正确,OpenAI 内部数据表明,规模与性能成正比的定律仍成立,OpenAI 的模型规模每年可能会增加一倍或三倍 (多方信息表明 GPT-4 参数规模 10000 亿),而不是增加许多数量级。[2023/6/1 11:52:59]

据 OpenAl 此前发布的数据显示,从2012年到2020年,其算力消耗平均每3.4个月就翻倍一次,8年间算力增长了三十万倍,更不用谈自去年 ChatGPT 推出后爆火所带来的需求暴涨。

Sam Altman:OpenAI在一段时间内不会开启训练GPT-5:4月14日消息,在麻省理工学院的一次活动中,OpenAI首席执行官Sam Altman被问及最近在科技界流传的一封公开信,该公开信要求像OpenAI这样的实验室暂停开发比GPT-4更强大的人工智能系统。这封信强调了对未来系统安全性的担忧,但遭到了包括一些签署方在内的许多业内人士的批评。

对此,Altman确认该公司目前没有训练GPT-5,且在一段时间内不会进行训练。[2023/4/14 14:04:49]

此外,AI 时代算力的增长也远远超过了摩尔定律每18个月翻番的速率,根据中国信息通信研究院的估算,2021年全球超算算力规模大约为14EFlops,预测到2030年全球超算算力将达到0.2ZFlops,平均年增速超过34%。AI 的奇点的到来也将会成就算力领域的黄金时代,同时,算力的发展好坏也将会影响着其未来的发展,两者彼此成就。

Web3社交图谱Relation集成ChatGPT提供AI Chat Bot服务:12月7日消息,Web3社交图谱基础设施Relation宣布集成ChatGPT人工智能对话模型,在Relation IM中提供不受地区限制的AI Bot服务。

此前消息,1月28日,基于Internet Computer的Web3社交基础设施Relation宣布以2000万美元估值完成种子轮融资。[2022/12/7 21:28:47]

OpenAl算力消耗情况 数据来源:阿里研究院《数实融合的第三次浪潮》

目前,关于 AI 算力的优化技术主要有以下几种:

GPT突破1850USDT,单日涨幅23.41%:据MXC抹茶行情显示,GPT现报价1847USDT,单日内涨幅达到23.41%。据介绍,GPT为ECOC公链上的去中心化DEFI生态项目,主要作用为进行合约延时。[2020/12/11 14:56:09]

GPU资源池化:通过虚拟化和远程调用,将GPU从硬件定义转换成软件定义的资源池,实现资源的共享、按需分配、弹性伸缩和统一管理。

计算精度优化:通过混合精度计算,利用不同的浮点数类型在保证模型训练和推理效果的同时,降低数据传输和存储成本。

模型压缩优化:通过参数剪枝、量化等方法,减少模型参数量和计算复杂度,降低模型大小和内存占用。

面对算力需求的增长,短期内可以从软硬件和工程优化等角度解决,但在未来十年,二十年之后呢?当芯片逼近量子极限,当 AI 的进化需要越来越庞大的数据、越来越多的预训练模型参数、越来越高的算法精度时,会带来对算力需求的指数级增长,而且这种增长是长期性的,由此带来的成本问题将会成为一个不可规避的难题。同时这也会让 AI 只有巨头才能入局的游戏,据悉,OpenAI 接受微软投资的很大原因就是为了获得微软云 Azure 的计算支持。

所以,为了能降低成本,并获得更多的算力来支持 AI 项目的进一步发展,很多新兴企只能选择与大型云算力企业合作,作为交换让渡出部分权利,而去中心化的算力系统或许能在一定程度上解决这一问题,并降低 AI 模型训练的门槛。

去中心化算力是指将分散在不同地点、不同设备上的计算资源整合起来,形成一个去中心化的网络。以此,为 AI 应用提供更加灵活、高效、低成本的计算服务,其潜在优势体现以下几个方面:

提供分布式计算能力,支持人工智能模型的训练和运行,使任何人都能运行AI模型,并在来自全球用户的真实链上数据集上进行测试。

去中心化还可以通过创建一个强大的框架来解决隐私问题。

通过提供透明、可验证的计算过程,增强人工智能模型的可信度和可靠性。

通过提供灵活、可扩展的计算资源,支持人工智能模型在各种应用场景下快速部署和运行。

提供去中心化的数据存储和管理方案。

目前,已经有项目在探索以去中心算力+AI的组合,例如:

Gensyn:该协议通过智能合约方式促进机器学习(ML)的任务分配和奖励,来快速实现 AI 模型的学习能力,适用于深度学习计算的L1层,可以在大规模、低成本的网络中实现 ML。

Flux:一个基于区块链技术的去中心化 AI 平台,通过智能合约来规范 AI 任务的发布、执行和验证过程,并使用 Token 作为激励机制。

Golem:一个提供算力市场的点对点去中心化计算网络,支持任何人都可以通过创建共享资源的网络来共享和聚合计算资源。

但去中心化算力网络与 AI 的结合也需要解决验证问题,即如何确保运算结果的正确性和可信性。此外,算力增长所带来的电力消耗也是一个不可忽视的问题,据统计,训练 GPT-3 模型消耗的能源相当于120个美国家庭一年的耗电量,而这只是实际使用模型所消耗的电力的40%左右。

相比算力增长来说,能源电力称不上难题,随着技术的突破,AI 所展现出的潜力将会激发了更多的企业和研究机构投身其中,这些问题可能会被一一解决。而从计算机视觉到自然语言处理,从机器人学到推理、搜索,人工智能所带来的生产力变革正在改变我们当前的工作方式,在技术发展的道路上,科幻照进现实只是时间问题。

来源:DeFi之道

DeFi之道

个人专栏

阅读更多

金色财经 善欧巴

金色早8点

白话区块链

Odaily星球日报

MarsBit

欧科云链

深潮TechFlow

Arcane Labs

BTCStudy

郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。

水星链

[0:46ms0-0:942ms