解密人工智能内容生成(AIGC)的发展与现状_AIG:WEB3

研究种类:AIGC,Web3

贡献者:RoyDong@THUBA?CoreMember

审核者:Yofu@DAOrayaki

摘要

AIGC是Web3.0时代的生产力工具,AIGC提供大量的生产力,而Web3.0与区块链的应用则决定生产关系与用户主权。

但我们必须认识到AIGC和Web3是两个不同的方向。AIGC作为使用AI技术的生产工具,既可以应用于Web2世界,也可以应用于Web3世界。到目前为止,大多数已经开发的项目仍然在Web2领域。把两者放在一起谈话是不合适的。而Web3希望借助区块链和智能合约技术,让用户拥有虚拟资产的主权。它与创建模式之间本没有直接联系。

本文将从以下四个方面解密AIGC的发展与现状进行:

内容创造形式的演变

技术测概况

AIGC的行业应用

AIGC与Web3

第一部分:内容创造形式的演变

可以分成三个阶段:

第一个阶段是PGC(Professionally-GeneratedContent),专家生成内容,由拥有内容相关领域资质的专业团队进行创作,门槛与成本较高,质量有一定保障,追求电视剧电影等商业化渠道的收益,代表项目就是以爱优腾为首的视频平台。在这些平台上,用户更多地是去接收和搜索视频资源来收看,类似于Web1.0的概念。

但这一阶段创作权掌握在少数专业人士手中,普通创作者的成果很难被大众看见。在第二阶段衍生出了一系列的UGC平台(User-generatedContent,用户生产内容),如Twitter,YouTube,国内爱优腾等视频平台。在这些平台上用户不仅是接收者,也可以是内容的提供方,内容生产的规模极大地扩张了,但用户生产的内容质量则参差不齐,可以将它看作是Web2.0时代的内容创作。

英国独立电影《解密》将描述中本聪被国家安全局绑架:金色财经报道,英国独立电影《解密》将讲述中本聪的故事,该片虚构了中本聪被国家安全局绑架并遭受酷刑的情节。在新冠危机之前,该电影已拍摄了70%。据悉,该片本身也通过加密货币资助。电影制片人Phil Harris表示,这部电影的首映将通过加密本地视频平台进行。他称自己进行了大量研究,以确保与比特币相关的元素看起来真实。该电影的编剧Mick Sands称比特币的存在对美国机构构成威胁令他着迷。Harris预计这部电影将于2020年底上映。[2020/6/20]

那么Web3.0时代的内容创作生态是?AIGC和web3的关联在哪里?

AIGC(AIgeneratedContent,人工智能生成内容),指由人工智能帮助甚至取代人类进行内容创作,可以作为强大的生产力工具,帮助解决Web3.0和元宇宙中的一些实际问题。它生产频率更快,并且可以定制风格,满足每个人的需求。它拥有无限规模的内容创作灵感,效果也不会太差。

第二部分:技术测概况

AIGC技术的快速发展始于GAN(生成对抗网络,2014)模型的发表。它由两个模型组成:生成模型和判别模型。生成器生成“假”数据并试图鉴别器;鉴别器验证生成的数据,并尝试正确识别所有“假”数据。在训练迭代的过程中,两个网络对抗中提升,直到达到平衡状态。

阿桑奇父亲:维基解密的性质与以太坊类似:维基解密创始人朱利安·阿桑奇(Julian Assange)的父亲John Shipton在巴黎EthCC论坛上发表演讲称:“维基解密的性质与以太坊类似,维基百科是一个通过用户间的合作来建立唯一真理来源的网站,而以太坊则是朝着同样的目的努力,尽管是在交易层面。”此外,Shipton还证实了一个传闻,即阿桑奇为知名加密货币游戏Cryptokitties的粉丝和用户。(Decrypt)[2020/3/5]

AIGC技术的快速发展始于GAN(生成对抗网络,2014)模型的发表。它由两个模型组成:生成模型和判别模型。生成器生成“假”数据并试图鉴别器;鉴别器验证生成的数据,并尝试正确识别所有“假”数据。在训练迭代的过程中,两个网络对抗中提升,直到达到平衡状态。

在GAN发表后的两三年时间里,业内对GAN模型进行了各种改造和应用。2016年和2017年,在语音合成、情绪检测、换脸等领域产生了一大批实际应用。

谷歌在2017年开发的Transformer模型逐渐取代了LongandShortTermmemory(LSTM)等传统RNN模型,成为NLP问题的首选模型。

作为Seq2seq模型,它提出了注意力机制,计算每个单词与其上下文的相关性,以确定哪些信息对手头的任务最重要。与其他模型相比,Transformer速度更快,并且可以更长时间地保留有效信息。

动态 | 阿桑奇逮捕后,维基解密已收到近3万美元的比特币:据Crypto Globe消息,维基解密创始人Julian Assange被捕后,政客、演员和模特等业界名流纷纷捐款,呼吁获释Assange。在维基解密的捐款页面上,详细说明除接受传统支付方式外,还包括BTC和Zcash。目前,该组织的比特币钱包余额在几天内从2.3枚BTC跃升至超7.9枚BTC。[2019/4/13]

BERT(来自Transformer的双向编码器表示,2018)使用Transformer构建了一个用于自然语言处理的完整模型框架。它在处理一系列自然语言处理任务上超越了现有的模型。

BERT(来自Transformer的双向编码器表示,2018)使用Transformer构建了一个用于自然语言处理的完整模型框架。它在处理一系列自然语言处理任务上超越了现有的模型。

从那时起,模型的大小不断增加,在最近两年出现了GPT-3、InstructGPT和ChatGPT等一批大模型,其成本也呈几何级数上升。

现今的语言模型有三个特点:大模型、大数据、大计算能力。在上方的图中可以看到模型参数的数量增加得有多快。有人甚至提出了语言模型的摩尔定律,——一年增长十倍。最新发布的ChatGPT模型有1750亿个参数,很难想象在这之后GPT-4中还有多少参数。

动态 | “维基解密”官方BTC地址收到捐款增加,今日共有40多笔捐款:据thenextweb报道,在“维基解密”创始人阿桑奇被捕不久后,维基解密官方的BTC地址收到的打款增加。在阿桑奇被捕的消息传出后不久,维基解密在推特上发布了一个捐赠页面的链接。这可能是导致比特币地址交易量突然飙升的原因。尽管捐款有所增加,但捐赠到其当前地址的总金额只有价值1.5万美元的BTC,其中超过三分之一是维基解密在阿桑奇被捕之前收到的。在撰写本文时,来自Blockchain.com的数据显示,维基解密的BTC地址共收到161笔捐款,今天有40多笔捐款。[2019/4/11]

ChatGPT的优势:

引入了HFRL(HumanFeedbackRL,2022.03)技术,在训练数据集中增加了人的反馈,基于人的反馈进行优化,但由于需要大量的人的注释,成本进一步扩大。

第二点是模型在回答问题时会有自己的原则。之前的聊天机器人在与用户聊天时会将一些负面和敏感的内容一并学习,最后学会谩骂,发表歧视言论。与之前的模型不同,ChatGPT可以识别恶意消息,然后拒绝给出答案。

有记忆:ChatGPT支持连续对话,并能记住与用户之前对话的内容,因此经过多轮对话用户会发现它的答案在不断提升。

第三部分:AIGC的行业应用

在参加2022年奇绩创坛秋季营的55家公司中,有19家AI主题公司、15家元宇宙主题公司和16家大型模型主题公司。与AIGC相关的项目有十余个,其中一半以上是与图像相关的。每个项目的详细信息附在下面的链接中:

Link:https://new.qq.com/rain/a/20221121A04ZNE00

当下AIGC最火的细分赛道当属图像领域,归功于StableDiffusion的行业应用,图像AIGC在2022年迎来了爆发式的增长。具体地,图像AIGC赛道具有以下优势:

声音 | 维基解密:Craig Wright伪造了证明其为比特币创造者的文件:据bitcoinist报道,在2月12日的一系列推文中,维基解密再次公开批评自称为比特币的创造者Craig Wright。Craig Wright被证明是连续造假者,伪造了称其为比特币创造者的文件。[2019/2/13]

与自然语言处理中的大模型相比,CV领域的模型尺寸相对较小,与Web3的契合度也更高,可以与NFT、元宇宙紧密联系在一起。

与文字相比,人们对图片的阅读成本更低,一直是一种更直观和更容易被接受的表达形式。

图片的趣味性和多样性更高,且该部分技术目前趋于成熟,正在快速迭代。

在参加2022年奇绩创坛秋季营的55家公司中,有19家AI主题公司、15家元宇宙主题公司和16家大型模型主题公司。与AIGC相关的项目有十余个,其中一半以上是与图像相关的。每个项目的详细信息附在下面的链接中:

扩散模型

2022年CVPR的论文《High-ResolutionImageSynthesiswithLatentDiffusionModels》

通过向图像中添加噪声,可以将一张图片变成随机的噪声图片,扩散模型与之相反,学习如何去除噪声。然后,该模型将这种去噪过程应用于随机的噪声图片,最终生成逼真的图像。

当前图像AIGC领域也存在一些局限性,具体有下面几点:

模型需要在效果和效率之间做权衡,在秒级别还是难以生成准确的,用户期待的定制效果。

这些公司的运营和维护成本很高,需要大量的图形显卡设备来带动他们的模型。

赛道中近期涌现大量初创公司,竞争激烈,但缺乏杀手级应用程序。

接下来再来讨论下3D-AIGC,这是一个潜力较大的赛道,目前模型尚不成熟,但未来会成为元宇宙中的刚需的基础设施。

类似于2D图像的生成,3D-AIGC项目能够生成三维物品,进而甚至自动地渲染与构建三维场景。当未来元宇宙得到普及之后,会对虚拟的三位资产有大量的需求。当用户处于三维场景中时,用户需要的不再是二维的图片,而是三维的物体和场景。

相比于生成二维图像,在三维上生成虚拟资产需要考虑更多的东西。一个三维的虚拟物体由两部分组成,一个是三维形状,另一个是物体表面的花纹和图案,我们称之为纹理。

因此一个模型需要选取三维虚拟资产可以分两步生成。在我们获得了一个3D对象的几何图形后,我们就可以通过纹理映射,环境贴图等多种方法来赋予它表面的纹理。

而在描述三维物体的几何形状时也需要考虑多种的表达方式有显式的表达形式,比如网格和点云;也有代数、NeRF(神经辐射场)等隐式的表达方式。具体需要选取适配模型的方式。

总之我们最终需要将所有的这些过程都集成到一起,组成一个文本到3D图像的流程管线,管线比较长,在当下也尚未有成熟的应用端模型出现。但扩散模型的流行会促使许多研究者进一步研究三维图像生成技术。目前这一方向的技术模型也在快速迭代。

相对于VR、XR等需要与人互动、对实时性有严格要求的技术。3DAIGC推的实时性要求更低低,应用门槛和速度会更快一些。

第四部分:AIGC与Web3

都说AIGC是web3.0时代的生产力工具,AIGC提供大量的生产力,而web3.0与区块链的应用则决定生产关系与用户主权。

但我们必须认识到AIGC和Web3是两个不同的方向。AIGC作为使用AI技术的生产工具,既可以应用于web2世界,也可以应用于Web3世界。到目前为止,大多数已经开发的项目仍然在Web2领域。把两者放在一起谈话是不合适的。而Web3希望借助区块链和智能合约技术,让用户拥有虚拟资产的主权。它与创建模式之间本没有直接联系。

但两者之间确实又有很多趋同之处:

一方面,它们都依靠程序来优化现有的生产和创作模型。AIGC用AI取代人类进行创造,Web3用智能合约、区块链等去中心化程序取代人工中心化机构。用机器代替人,不会有主观的误差和偏差,效率也会显著提高。

另一方面,Web3和元宇宙将对二维的图片和音频,三维的虚拟物体和场景有很大的需求,而AIGC是一个很好的满足方式。

但在web3.0的概念尚未普及到普罗大众的当下,我们能看到涌现出的项目几乎还是Web2的项目,在web3领域的应用目前大量地还是停留在图像生成的AIGC上,用于NFT的创作。

其实在应用端,AIGC和web3.0的联系不能仅仅依靠“生产力”和“生产关系”之间的联系,因为AIGC同样也能给web2项目带来生产力的提升,而web3项目的优势是不明显的。

所以,为了抓住AIGC发展的机遇,我认为当前web3项目需要在以下两个方面进行优化:

一是寻求AIGC加持下的Web3.0原生项目,即只在Web3端能够应用的项目。或者换句话说,去思考如何用AIGC解决Web3项目目前面临的困境,这样的解决方案也是Web3原生的。例如ReadOn用AIGC去生成文章quiz,开辟了ProofofRead的新模式,解决了ReadFi一直以来存在的刷币问题,为真正阅读的用户提供代币奖励。这很难做到,但web3需要这样的模式创新。

二是用AIGC优化现存Web3应用的效率和用户体验。目前AIGC的应用主要存在于图像和NFT上,但其实创作是一个很宽泛的概念,除图片外还有很多种其他的创作方式。上文提到的3D-AIGC是元宇宙中可供思考的应用渠道,quiz生成也是一个眼前一亮的idea。eduDAO和开发者平台可以思考用AIGC来赋能教育,用于出题或者修改模块化的代码、生成单测等等;GameFi可以思考是否能用AIGC来充当游戏里的NPC;甚至能否借助AIGC的coding能力生成智能合约。

郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。

水星链

[0:0ms0-0:932ms