来源:新智元
前段时间,浙大&微软发布了一个大模型协作系统HuggingGPT直接爆火。
研究者提出了用ChatGPT作为控制器,连接HuggingFace社区中的各种AI模型,完成多模态复杂任务。
整个过程,只需要做的是:用自然语言将你的需求输出。
英伟达科学家称,这是我本周读到的最有意思的论文。它的思想非常接近我之前说的「EverythingApp」,即万物皆App,被AI直接读取信息。
上手体验
现在,HuggingGPT增加了Gradio演示。
项目地址:https://github.com/microsoft/JARVIS
有网友便上手体验了一番,先来「识别图上有几个人」?
HuggingGPT根据推理结果,得出图片中有2个人正在街道上行走。
印度财政部长和国际货币基金组织总裁谈论全球加密货币监管:2月9日消息,在2月9日与国际货币基金组织总裁Kristalina Georgieva举行的虚拟对话中,国际货币基金组织 (IMF) 总裁、印度财政部长Nirmala Sitharaman向多边融资机构提议采用全球协调的方法来监管加密资产。
财政部长和国际货币基金组织负责人讨论了国际货币基金组织和其他重要国际组织在制定一套普遍适用的加密法规方面的作用。[2023/2/9 11:57:36]
具体过程如下:
首先使用图像到文本模型nlpconnect/vit-gpt2-image-captioning进行图像描述,生成的文本「2个女人在有火车的街道上行走」。
接着,使用了目标检测模型facebook/detrresnet50来检测图片中的人数。模型检测出7个物体,2个人。
再使用视觉问题回答模型dandelin/vilt-b32-finetuned-vqa得出结果。最后,系统提供了详细的响应和用于解答问题的模型信息。
数据:DeFi TVL约为420亿美元,MakerDAO位列第一:金色财经报道,数据显示,目前DeFi的TVL约为420亿美元,其中,MakerDAO约为66亿美元,占比15.78%,位列第一。其次是Lido,约61亿美元。第三是AAVE,约38亿美元。[2022/12/5 21:22:34]
另外,让它理解「我爱你」这句话的情感,并将其翻译成泰米尔语。
HuggingGPT调用了以下模型:
首先,使用了模型「dslim/bert-base-NER」对文本「lloveyou」进行情感分类,是「浪漫」。
然后,使用「ChatGPT」将文本翻译成泰米尔语,即「Nanunnaikadalikiren」。
在推理结果中没有生成的图片、音频或视频文件。
转录MP3文件时,HuggingGPT却失败了。网友表示,「不确定这是否是我的输入文件的问题。」
Polygon与沃尔玛旗下Flipkart达成战略合作伙伴关系:12月2日消息,Polygon宣布与沃尔玛旗下印度电商公司Flipkart建立战略合作伙伴关系。Flipkart将建立区块链电子商务中心,该中心将专注于Web3和元宇宙电子商务的研发。
此前Flipkart与Polygon曾合作推出元宇宙购物体验Flipverse。该产品目前处于试点阶段,其将为消费者提供游戏化、互动和身临其境的体验,用户将能够收集公司的忠诚度积分超级币以及来自合作伙伴品牌的数字收藏品。[2022/12/2 21:18:42]
再来看看图像生成的能力。
输入「一只猫跳舞」图像上添加文字「ILOVEYOU」作为叠加层。
HuggingGPT首先使用了「runwayml/stable-diffusion-1-5」模型根据给定的文本生成「跳舞的猫」的图片。
然后,使用同一个模型根据给定的文本生成了「ILOVEYOU」的图片。
安全团队:LPC项目攻击者将178枚BNB转入Tornado.cash:8月1日消息,据派盾(PeckShield)监测,LPC项目攻击者将178枚BNB转入Tornado.cash。
此前消息,7月25日,LPC项目遭闪电贷攻击,攻击者共获利逾4.5万美元。[2022/8/1 2:51:22]
最后,将2个图片合并在一起,输出如下图:
贾维斯照进现实
项目公开没几天,贾维斯已经在GitHub上收获了12.5k星,以及811个fork。
研究者指出解决大型语言模型当前的问题,可能是迈向AGI的第一步,也是关键的一步。
因为当前大型语言模型的技术仍然存在着一些缺陷,因此在构建AGI系统的道路上面临着一些紧迫的挑战。
为了处理复杂的人工智能任务,LLMs应该能够与外部模型协调,以利用它们的能力。
DeFi协议总锁仓量达768.2亿美元,24小时内跌0.61%:金色财经报道,据DefiLlama数据显示,DeFi协议总锁仓量(TVL)达到768.2亿美元,24小时跌幅为0.61%。TVL排名前五分别为MakerDAO(79.8亿美元)、AAVE(65亿美元)、Lido(52.6亿美元)、Uniswap(52.2亿美元)、Curve(51.5亿美元)。[2022/6/27 1:33:45]
因此,关键点在于如何选择合适的中间件来桥接LLMs和AI模型。
在这篇研究论文中,研究者提出在HuggingGPT中语言是通用的接口。其工作流程主要分为四步:
论文地址:https://arxiv.org/pdf/2303.17580.pdf
首先是任务规划,ChatGPT解析用户请求,将其分解为多个任务,并根据其知识规划任务顺序和依赖关系。
接着,进行模型选择。LLM根据HuggingFace中的模型描述将解析后的任务分配给专家模型。
然后执行任务。专家模型在推理端点上执行分配的任务,并将执行信息和推理结果记录到LLM中。
最后是响应生成。LLM总结执行过程日志和推理结果,并将摘要返回给用户。
假如给出这样一个请求:
请生成一个女孩正在看书的图片,她的姿势与example.jpg "/>中的男孩相同。然后请用你的声音描述新图片。
可以看到HuggingGPT是如何将它拆解为6个子任务,并分别选定模型执行得到最终结果的。
通过将AI模型描述纳入提示中,ChatGPT可以被视为管理人工智能模型的大脑。因此,这一方法可以让ChatGPT能够调用外部模型,来解决实际任务。
简单来讲,HuggingGPT是一个协作系统,并非是大模型。
它的作用就是连接ChatGPT和HuggingFace,进而处理不同模态的输入,并解决众多复杂的人工智能任务。
所以,HuggingFace社区中的每个AI模型,在HuggingGPT库中都有相应的模型描述,并将其融合到提示中以建立与ChatGPT的连接。
随后,HuggingGPT将ChatGPT作为大脑来确定问题的答案。
到目前为止,HuggingGPT已经围绕ChatGPT在HuggingFace上集成了数百个模型,涵盖了文本分类、目标检测、语义分割、图像生成、问答、文本到语音、文本到视频等24个任务。
实验结果证明,HuggingGPT可以在各种形式的复杂任务上表现出良好的性能。
网友热评
有网友称,HuggingGPT类似于微软此前提出的VisualChatGPT,似乎他们把最初的想法扩展到了一组庞大的预训练模型上。
VisualChatGPT是直接基于ChatGPT构建,并向其注入了许多可视化模型。文中提出了PromptManage。
在PM的帮助下,ChatGPT可以利用这些VFMs,并以迭代的方式接收其反馈,直到满足用户的要求或达到结束条件。
还有网友认为,这个想法确实与ChatGPT插件非常相似。以LLM为中心进行语义理解和任务规划,可以无限提升LLM的能力边界。通过将LLM与其他功能或领域专家相结合,我们可以创建更强大、更灵活的AI系统,能够更好地适应各种任务和需求。
这就是我一直以来对AGI的看法,人工智能模型能够理解复杂任务,然后将较小的任务分派给其他更专业的AI模型。
就像大脑一样,它也有不同的部分来完成特定的任务,听起来很符合逻辑。
参考资料:
https://twitter.com/1littlecoder/status/1644466883813408768
https://www.youtube.com/watch?v=3_5FRLYS-2A
https://huggingface.co/spaces/microsoft/HuggingGPT
中文推特:https://twitter.com/8BTC_OFFICIAL英文推特:https://twitter.com/btcinchinaDiscord社区:https://discord.gg/defidao电报频道:https://t.me/Mute_8btc电报社区:https://t.me/news_8btc
郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。