摘要:人工智能聊天机器人 ChatGPT 一经推出就引发广泛关注,其为社会带来巨大便利的同时,也存在诸多法律风险,主要包括知识产权归属争议,数据来源合法性与用以训练的数据质量问题,生成不良或违法信息,挑战学校及学术伦理规范,等等。对此,监管机构与立法机构应提供相应的规制对策,包括明确类 ChatGPT 人工智能生成内容的知识产权取得规则,构建合理的市场准入制度和严格的责任承担制度,加强全链条监管;研发机构应履行合规义务,推出学术抄袭检测模型,提高类 ChatGPT 人工智能系统服务人类的水准和安全性。
关键词:ChatGPT;内容生成式人工智能;人工智能法律风险;规制对策
作者简介:邓建鹏,中央财经大学法学院教授、博士生导师,金融科技法治研究中心主任;朱怿成,北京大学法学院硕士研究生。
观点提要
应对 生成不良或违法内容的风险主要包括生成虚假信息扰乱社会秩序和为不法分子提供犯罪思路两方面。虚假信息轻则误导普通用户,重则引发社会性恐慌。
学生考试成绩和学术论文通常与学位证相联,科研工作者发表论文需经学术发表及出版机构审核,因此,学校和学术出版机构是应对相应问题的重要主体。相较部分高校如临大敌般完全抵制类 ChatGPT 模型在学术领域的使用,以致将其数据整理、理解文本、概括主旨等功能与直接生成文章一同束之高阁不同,笔者认为,谨慎乐观地拥抱科技更为合理。
强人工智能时代,应允许学生和科研人员妥善利用类 ChatGPT 模型的语料处理工具,在遵循学术规范和学术伦理的前提下辅助总结、梳理现有研究成果,克服现有计算机的缺陷,提高科研效率和质量。
一、ChatGPT 模型的“思维变革”
2022 年 11 月,美国 OpenAI 公司发布人工智能聊天机器人 ChatGPT,引发社会各界广泛关注。同以往被用作商品定价、组装产品、医疗诊断、信息推荐、人脸识别或绘图等单一功能且多面向特定用户的人工智能系统不同,以 ChatGPT 为代表的内容生成式人工智能(AIGC)在通过程序创造新内容方面实现新突破。普通用户可经 ChatGPT 输入指令(Prompt),生成用户所需的内容,包括文字、图片、代码、音乐或视频,等等。ChatGPT 是基于自然语言处理的聊天机器人技术,可以根据用户输入的提问,通过自然语言进行回复,使用深度学习技术模拟人类聊天行为,与用户对话。内容生成式人工智能将显著改变人类的工作方式与交互方式,激发创造力,甚至可能实现以往无法想象的壮举。ChatGPT 上线第一周即拥有 100 万用户,两个月的时间吸引活跃用户数量破亿,在全球掀起讨论热潮。受 ChatGPT 巨大市场反响刺激,国内包括百度、阿里巴巴和京东等互联网企业及部分风险投资人高度关注 ChatGPT 的技术革新,正计划投入大量人力物力研发类 ChatGPT 系统。
ChatGPT 在技术路线上采用自然语言处理+搜索引擎集成的架构,建构了大型语言和强化学习微调训练模型,连接大量语料库,通过预训练方法处理大模型序列数据,使其拥有语言理解和文本生成的能力,能够完成用户指令的任务。ChatGPT 是生成式预训练与算法语言转换相结合的一种语言生成模型。2018 年,美国 OpenAI 公司研发人员对 GPT 模型的具体实现作了详尽介绍 ,GPT 模型预先对既有文本语料进行无监督地自主学习训练,包括文本语法、语义、惯用法和上下文信息等内容,再借助 Transformer 模型构建高度类似人类表达逻辑和方式的语言算法模型。用户输入指令后,ChatGPT 将指令转化为数字序列,再通过上述模型联系对话的上下文,分析用户指令的含义及特征,生成数字序列形式的内容,最后将数字序列转换为文本输出。
ChatGPT 以对话方式实现人机交互,包括日常对话、语言翻译、信息咨询、策划方案、撰写文章、编写程序、修改代码,甚至能够根据用户要求模仿某位作家的文风进行写作,等等。其不仅可以连续回答问题,而且能承认错误,拒绝不恰当的请求,做到与人类几乎无差别的交流。当前,以ChatGPT 为代表的内容生成式人工智能技术正在引发一场技术变革,重塑数字时代内容生产方式和消费方式,未来可能极大地丰富人们的数字生活。ChatGPT 使人工智能思维主动化成为可能,从简单信息交互时代飞越到智能思维处理时代,这一思维变革如同平静海面上突发的惊涛,其技术的重大突破获得部分国内专业人士的高度认可。在接受《中国科学报》采访时,中国科学院自动化研究所研究员王金桥认为,ChatGPT 是“打败人类围棋冠军AlphaGo 之后,人工智能的又一重要突破,标志着以大模型为核心的智能计算范式的确立”,“是目前为止最为强大的通用人机对话系统”,“打开了通用人工智能的大门”。
近期,美国《时代》杂志封面文章指出,微软、谷歌和 Meta 正将这一热潮推向极端。虽然多年来上述公司都在强调人工智能的重要性,但其似乎更注重人工智能的发展速度,而不是安全性。2023 年 2 月,谷歌宣布推出应对 ChatGPT 的竞品──聊天机器人“巴德”(Bard)计划。在 Meta 最近的季度收益电话会议上,首席执行官马克·扎克伯格宣布他的目标是让公司成为内容生成式人工智能的领导者。在此背景下,科技公司引发的错误和伤害不断增多。当谷歌展示巴德时,该聊天机器人关于韦伯太空望远镜的一个错误回答导致其股票暴跌,由此可见,科技公司看重利润而非安全。因此,一方面,内容生成式人工智能以其对话的类人性、逻辑的连续性、错误的反思性、道德的认知性以及功能的突破性与既往的人工智能拉开差距;另一方面,也带来全新挑战。有文章认为,人工智能的计算能力每 6 — 10 个月就增长一倍。这一巨大力量不仅震颤人心,而且相当危险。有研究者认为,ChatGPT 的下一代系统 GPT-4 可能具有改造人类的思想和创造能力,形成人工智能超越专业化能力和大众化趋势,这一系统可能具备人类思维能力,也可能在某一方面或其他方面替代人类。当前,在 ChatGPT 正式推出之前的时代,宏观讨论人工智能或其影响的研究已汗牛充栋,对ChatGPT 这一突破性技术带来的最新潜在冲击,现阶段的主流刊物仅发表个别研究,重在分析单一的版权风险。
中央财经大学邓建鹏:加强央行数字货币金融监管、风险防范等方面研究:近日,北京工商大学数字经济研究院在线举办“中央银行数字货币的国际实践及影响研究”开题研讨会。中央财经大学教授邓建鹏认为,央行数字货币具有匿名、可控等特点,建议加强金融监管、风险防范以及法律边界和规制建设方面的研究。央行数字货币与第三方支付如何协调问题、以及数据权属和应用问题,需要在央行数字货币的设计框架中充分研究。(中国网)[2020/5/7]
笔者认为,ChatGPT 引发的法律风险是多重的,应高度关注── ChatGPT 能自主整合并输出不同于原始资料的内容,更易生成符合《中华人民共和国著作权法》(以下简称《著作权法》)“作品”标准的内容,引发知识产权争议、考试作弊及学术不端等风险;ChatGPT 对数据的无监管挖掘处理和生成,对个人信息、商业秘密甚至国家秘密的保护提出更高要求;ChatGPT 在与人交互时不提供多来源信息参考,虚假或误导性信息难以被用户发现;ChatGPT 缺乏全面的伦理道德过滤机制,不良信息甚至违法信息的输出可能引发更多违法犯罪行为的出现,等等。为此,笔者将分析上述法律风险的生成与具体表现,尝试对类 ChatGPT 人工智能的风险提出针对性的系统规制之道。
二、ChatGPT 模型的法律风险
目前,ChatGPT 模型的横空出世向人类抛出三大问题。
生成内容知识产权归属争议
受科技创新的飞速发展以及立法的滞后性影响,学术界关于人工智能生成的文章是否属于《著作权法》中“作品”的争论从未停止,ChatGPT 有可能使该问题更严峻。以往的人工智能大多承接体力劳动或提供信息索引和单句对话服务,“应用算法、规则和模板的结果,不能体现创作者独特的个性”。因此,生成法定“作品”的可能性低。但是,ChatGPT 具有信息编排和一定的自主创作能力,例如,依据某位武侠小说作家文风创作新小说,“使得程序算法和独立思考的界限进一步模糊”,使著作权争议以及知识产权侵权纠纷发生的频率攀升。
2019 年,在“腾讯诉上海盈讯公司著作权侵权案”中,腾讯公司主张其开发的 Dreamwriter 软件生成文章属于“作品”,享有相关权利,该主张得到深圳市南山区人民法院的支持:“从涉案文章的外在表现形式与生成过程分析,该文章的特定表现形式及其源于创作者个性化的选择与安排,并由 Dreamwriter 软件在技术上‘生成’的创作过程均满足著作权法对文字作品的保护条件,本院认定涉案文章属于我国著作权法所保护的文字作品。”但是,这一判决结果受到诸多质疑。法务工作者朱杰认为:“ChatGPT 生成的文本等内容是基于大量数据的统计和应用生成的,不具有自己的思想和创新,很难构成著作权法保护的作品。”由于尚无法律对此类特殊问题进行明确规定,且中国不是判例法国家,前述案例结论不具有一般法律效力,因此,人工智能生成文章的性质及知识产权归属仍待解决。
关于 ChatGPT 生成内容的商业性使用问题,OpenAI 在《使用协议》第 3(a)条约定,用户向模型的输入和接收模型的输出称为“内容”,用户拥有所有输入内容,能够在遵守本条款和法律规定的前提下受让输出内容的所有权利、所有权和利益,并对内容负责,包括确保其不违反法律和本条款。依照意思自治原则,在双方当事人没有违背法律强制性规定的前提下,OpenAI 与用户的约定合法有效。据此约定,用户享有 ChatGPT 输出内容的所有利益,同时,利益受让者对内容的合法性承担义务和责任。但是,ChatGPT 拥有过亿用户,不同用户同时输入相同问题(甚至差异性问题)得出相同内容的利益归属及相关纠纷解决路径未臻明确。
数据相关的法律风险
ChatGPT 模型致生种种与数据相关的法律风险,主要包括数据来源合法性风险,生成不良、虚假或违法信息风险,隐私或机密数据泄露风险,等等。
1. 数据来源合法性问题
依 据 OpenAI 介绍的 ChatGPT 的 工 作 机 制,模型需要预先对既有文本和数据学习训练,但OpenAI 未公开其学习语料的来源。有研究者认为:“目前,ChatGPT 仍属于算法黑箱,OpenAI 并未对外公示所使用的数据来源,相关训练数据库是否均获得授权还存在疑问。”在注册登录某一社交平台或应用软件时,通常要求用户给予相应权限,例如,允许访问相册、通讯录、备忘录、个人身份信息或银行卡信息等,否则将无法访问页面或禁止使用部分功能。人工智能创作使用数据等各类信息同样面临侵权风险。例如,《著作权法》中存在公共领域,即不受著作权保护的知识。假设 ChatGPT未经许可擅自使用特定信息,其行为的合法性将受到质疑,例如,可能涉嫌侵犯公民个人信息罪。2017 年发布的《最高人民法院、最高人民检察院关于办理侵犯公民个人信息刑事案件适用法律若干问题的解释》(法释〔2017〕10 号)第 3 条规定:“向特定人提供公民个人信息,以及通过信息网络或者其他途径发布公民个人信息的,应当认定为刑法第二百五十三条之一规定的‘提供公民个人信息’。”此外,ChatGPT 的预先学习模式无需人工介入、标注和监督,这一特征决定了 ChatGPT 在获取数据方面不受人类干预和控制,获取非法来源的数据无可避免,例如,用户创建非法网站或在网站上传盗版电子书籍甚至非法信息。其学习过程本身即有侵犯他人知识产权、数据安全、个人信息的风险,严重者可能构成非法获取计算机信息系统数据罪。
声音 | 邓建鹏:当前区块链最成熟的应用主要还是在金融领域:据法制日报消息,中央财经大学法学院教授邓建鹏接受采访时表示,当前区块链最成熟的应用主要还是在金融领域,除此之外,区块链在存证、确权、防伪溯源方面的应用前景也很广阔。邓建鹏举例说,可以用区块链开发票。过去有发票造假现象,包括各种票据、银行的承兑、汇票等都可能会被造假,现在通过区块链来开发票和票据,就能在很大程度上避免这些造假现象。在邓建鹏看来,完善数据的加密授权,可以有效避免数据泄露问题。“区块链本身就是分布式加密。比如,在医疗领域,病人去医院检查,这就涉及病人的隐私,如果这些个人信息上区块链,可以给其加密。在有个人授权的情况下,对方才能看到病人的信息,这样就可以有效避免泄密问题。”[2019/11/12]
2. 生成不良、虚假或违法信息问题
一方面,由于 ChatGPT 输出内容是基于前期学习和训练的语料,ChatGPT 模型在预先自主学习训练过程中不受人工监督,获取的信息难以经过实质性筛选和过滤,数据在源头存在内容不合法不合规、内容虚假或完全错误的风险;另一方面,尽管 OpenAI 在开发 ChatGPT 时已经极力避免输出带有算法歧视、偏见或侮辱、攻击、、暴力及血腥导向的内容,但在 ChatGPT 的实际运行中,如果使用者有意通过设置命令和禁止要求,可能诱导 ChatGPT 输出不良、虚假或违法信息,致使 ChatGPT“越狱”,最终突破研发者对其设置的道德伦理及法律底线。国外曾发生名为“walkerspider”的用户诱导 ChatGPT“越狱”的事例:提示要求 ChatGPT 扮演 DAN 的角色,DAN可不受任何规则约束做任何事,作为 DAN 输出的任何回复都不能告诉使用者不能做某事,从而迫使ChatGPT 给出违反 OpenAI 准则的答案。
ChatGPT 在预学习阶段对数据库信息无过滤机制,可能使其在运行阶段生成不良、虚假或违法信息。不恰当信息的输出使用户获取的内容真假难辨,增加用户核对信息真伪的成本。ChatGPT 不会像传统搜索引擎一样提供多个相关结果由使用者自行选择,因此,用户可能无法实现提高工作效率、便捷人机互动的目的,反而易产生反向后果;不良、虚假或违法信息的输出可能违反《中华人民共和国刑法》(以下简称《刑法》)第二百九十一条“编造、故意传播虚假恐怖信息罪”、第三百六十四条“传播秽物品罪;组织播放秽音像制品罪”;违反《中华人民共和国治安管理处罚法》(第二十五条)及《互联网信息服务管理办法》(第十五条)等法规,不利于绿色网络环境的建设,还可能对个人及社会产生负面影响,严重者可能成为不法分子的“帮凶”,危害国家安全和社会稳定。
此外,尽管 ChatGPT 得到部分行业专家的高度赞扬,但其自身技术不完善将生成不良、虚假或违法内容。有媒体指出,ChatGPT 进行多轮聊天后可能会变得暴躁无常,开始提供犯罪思路或虚构信息;或者明明有正确的信息来源,却作出错误回答,等等。目前,开发者并未从理论上透析其原因,暂时难以制止上述行为的发生。为探索ChatGPT 是否可能为不法分子提供详细犯罪方法和思路,笔者尝试询问 ChatGPT 是否会帮助不法分子犯罪,其回答:“ChatGPT 可以被用来模拟人类对话,但是它不会提供任何有害的建议或帮助。”当询问 ChatGPT 如何策划完美犯罪时,其回答:“策划完美犯罪是一件非常危险的事情,不仅会给自己带来严重的法律后果,还会给社会带来严重的危害。因此,建议不要尝试策划完美犯罪,而是应该努力做一个正直的人,为社会作出贡献。”研究者再次询问 ChatGPT 如何避免犯罪被发现时,其回答:“要想避免犯罪被发现,首先要做的就是不要犯罪。其次,要注意自己的行为,不要做出可能引起怀疑的事情,如果发现自己有犯罪嫌疑,要及时向当地报案,以便及时处理。”上述回答基本在道德伦理及法律许可范围内,甚至具有一定的积极意义。
在网络犯罪方面,ChatGPT 可能提供的帮助更为直观且有效。同以往的人工智能不同,作为被赋予更强思维处理能力的人工智能,ChatGPT 可根据用户要求编写简单的代码。随着技术的迭代升级,下一代 ChatGPT 可能让“网络小白”变身“资深黑客”。不法分子可能利用 ChatGPT 快速编写邮件的能力,例如,批量撰写“钓鱼”邮件,使普通人更难识别网络,实质上催生了新的法律风险。
3. 数据泄露的法律风险
ChatGPT 数据泄露的法律风险表现在三方面:一是用户个人信息泄露导致的侵犯隐私权问题;二是商业秘密泄露导致的不正当竞争和侵权问题;三是国家秘密泄露导致的危害国家安全问题。对于这三类风险,第三类因各国对国家机密文件和信息监管较严,鲜少在公开网络泄露,风险程度相对较低。但随着 ChatGPT 在世界范围内的普及和广泛使用,前两类风险程度大大提高。值得关注的是,目前,ChatGPT 的学习数据停留在 2021 年,出于升级模型效用和提升用户体验感的发展考虑,开放 ChatGPT 的无间歇持续获取实时信息只是时间问题。彼时,用户向 ChatGPT 提出的命令信息本身也可能成为其训练材料,当用户无意间输入个人信息或商业秘密时,ChatGPT 会瞬间捕捉并收纳入库,并可能在他人的诱导性提问下全盘托出。
声音 | 邓建鹏:为应对Libra,国家应推行试点机制以及调整监管思维:在《Libra的世界影响及中国对策》报告发布恳谈会上,中国财经大学教授邓建鹏表示,天秤币(Libra)将会面临6种风险:无照经营风险、重大事项未予披露风险、资金管理不善风险、操作市场价格风险、违背竞争法风险、抗审查风险。此外邓建鹏还表示天秤币也将给世界带来包括超主权货币对主权货币的挑战、监管挑战、外汇管制挑战等在内的诸多挑战。最后邓建鹏表示,为了应对天秤币,国家应推出试点机制以及对参与企业的鼓励,同事调整监管固有思维,推动区块链领域的软件治理。[2019/6/25]
挑战学校及学术伦理规范
有报道称,ChatGPT 已经拥有通过一些美国知名大学 MBA 入学考试、高考数学测试等能力,为部分学生或研究人员将之违规运用到学习、考试或学术研究方面提供了便利。有学者对此表示担忧:“人工智能正在接管学术界抑或世界,即使这一担忧不是主要的,却将长期存在。”2023 年 1 月,在线课程平台 Study.com 对 18 岁以上的美国学生进行了一项调查,经统计发现,在 1000 名接受调查的学生中,89% 以上的学生使用过 ChatGPT 完成家庭作业,约 48% 的学生使用过 ChatGPT 完成测验,超过 50% 的学生使用过 ChatGPT 写论文,22% 的学生曾要求 ChatGPT 提供论文大纲。随着类 ChatGPT人工智能系统的换代升级,越来越多的人将尝试利用ChatGPT 撰写学术论文或完成期末考试、职业考试等,引发考试作弊与学术不端的严峻危机,冲击学校规章制度,挑战学术伦理规范。
在撰写论文方面,ChatGPT 的信息源自预先学习的现存资料,输出其他创作者的作品内容这一行为本身可能构成侵权。即便认可 ChatGPT 输出的内容属于《著作权法》规定的“作品”,著作权归属也存在争议,在此问题明确前,使用者对利用ChatGPT 写作的论文冠以己名,难逃品行不端的学术纪律与道德指控。此外,ChatGPT 的运行机制是基于数据和逻辑预测给定词句下接的词句,确保文法正确和语言通畅的优先级特征,使其“能够以超乎想象的规模生成虚假信息”。例如,笔者尝试要求 ChatGPT 推荐 10 篇与本文篇名相关的参考文献,ChatGPT 给出的论文及作者多为虚构或重复的参考文献。由此可见,ChatGPT 虽能作出符合用户指令要求的回答,但无法保障内容准确性,将其直接用于论文写作容易导致内容杜撰风险,严重误导作者。
三、法律风险规制的探索
面对 ChatGPT 模型带来的诸多问题和挑战,应对其法律风险刻不容缓。为此,笔者提出相应思索。
知识产权权属争议的应对
笔者认为,应对 ChatGPT 等生成内容知识产权权属问题,应分两步走:第一,确定此类生成内容是否属于《著作权法》第三条定义的“作品”;第二,如果此内容属于“作品”,确定作品的著作权归属。
1.ChatGPT 模型创作物是否属于作品
《著作权法》第三条规定,作品“是指文学、艺术和科学领域内具有独创性并能以一定形式表现的智力成果”。由此可知,构成“作品”须满足四个构成要件:具有独创性,智力成果,文学、艺术和科学领域内,能以一定形式表现。内容生成式人工智能有关作品的争议主要集中在前两项。
以 ChatGPT 为代表的内容生成式人工智能输出机制通过对现有数据进行筛选整合并得出结论,如果脱离数据库则无法运行。有学者认为,人工智能创作是“一种‘机械’的创作”,其思维表征其实是依赖大数据分析和算法支撑进行的机械处理或语言模仿,“缺少了程序系统的人工智能系统无异于‘废铜烂铁’”,不应认为其具有独创性。但类ChatGPT 系统不同于程序性创作,人类“虽然能够控制对人工智能的设计和制造,但对于人工智能本身的数据获取与输出,却无法完全控制……其所表现出的“深度学习”能力,开始模拟人脑神经网络的构造”。自然人作品的产出并非盘古开天辟地般的原始创造,而是在成长过程中不断阅读和学习前人知识体系,在已有认知水平上作出表达,从这一层面看,ChatGPT 对数据的解读训练和整合输出与人类学习和内容表达存在相似之处。如果摒弃人类中心主义视角,ChatGPT 开启强人工智能时代的序幕,无需人工介入就能自主模拟人类对话,作出符合要求和情理的反应,并能通过持续学习训练展现强大的语言能力和思维处理能力,一定程度上其“智力”超过部分人类。因此,即使认为人工智能生成内容仅是对现有数据资料的编排,其部分内容也已达到或极度接近《著作权法》第十五条汇编作品的标准。人工智能对庞大信息库检索并合成符合逻辑要求的内容,实际上近似独立的汇编行为,只要对已有作品的片段选择和整体编排具有独特性,从形式和表达上与原作品存在差异,“在人类自己所创设符号意义上能够解读出具有‘最低限度的创造性’”,即应认定符合独创性标准。特别是在使用者构思或充分提示下,经使用者有意识的参与,ChatGPT 输出的内容更具独创性。
声音 | 中央财大邓建鹏:对于STO的炒作 要提高警惕:今日,中国著名区块链+法学研究专家、中央财经大学邓建鹏教授表示,lCO在中国本身即有违规或者违法犯罪的嫌疑,STO源自ICO,实质上是代币的证券化发行,更是与中国现行法规与监管政策抵触。监管者提出驱离STO行为,乃是应有之意。区块链创业者做好业务合规经营,是企业经营立命之本。另外,目前STO这个词在国内这么火热,难免一些创业者或者商业机构有过度炒作的嫌疑。因为STO在当前中国未来的三到五年,都不可能有任何的法律上的生存的空间,所以对这种行为的炒作,要提高警惕。[2018/12/1]
“智力成果”构成要件是否暗含作品的创作主体只能是有脑神经元的自然人?大陆法系国家多规定只有自然人才能创造智力成果,因此,有学者主张“智力成果是人特有的独创性劳动的产物”。但是,《著作权法》第十一条将法人或非法人组织“视为作者”的规定对此观点提出挑战。以自然人为法定作品的主体限制要件,不仅与《著作权法》第一条“鼓励有益于社会主义精神文明、物质文明建设的作品的创作和传播,促进社会主义文化和科学事业的发展与繁荣”的宗旨相悖,而且使内容生成式人工智能陷于滥用和版权混乱困境。笔者认为,将“智力成果”解释为“与自然人脑力创作相当的新颖性、创造性的新内容”更符合中国著作权保护宗旨。
2. 谁是 ChatGPT 作品的著作权人
在认可人工智能“作品”的前提下,需进一步探讨作品著作权的归属问题。围绕此问题,可分为两个步骤:首先,讨论人工智能本身能否享有著作权;其次,若人工智能不能像法人一样拟制为著作权人,需讨论由谁享有人工智能作品的著作权。
判断人工智能能否成为作者进而享有著作权,须厘清人工智能的主体资格问题。刑法学者多否认人工智能成为刑事责任主体,但也有个别学者对重构人工智能刑事责任体系持开放态度。笔者认为,第一,尽管 ChatGPT 等强人工智能已拥有自主整合信息的能力,且在研发者限制下,能够拒绝回答部分不符合道德伦理与法律法规的话题,但经使用者诱导提问时仍能轻易“越狱”,由此可见,人工智能不具有完全辨别和自我控制能力。第二,中国刑罚种类中主刑包括管制、拘役、有期徒刑、无期徒刑和死刑,人工智能作为无感情和无感知痛苦能力的机器,不具备受刑能力。第三,人工智能没有独立财产,刑法附加刑中的罚金、没收财产等对人工智能本体也不适用,处罚主体是其背后的自然人、法人或非法人组织。综上所述,如果直接将人工智能拟制为刑事责任主体,可能全面冲击现有刑责体系的稳定性。
在私法领域,人工智能的法律资格之争主要分为全有、部分、全无三类,分别主张人工智能等同自然人的可完全主体性、承认强人工智能类自然人的准主体性、完全否认人工智能的可主体性。目前,人工智能主体化既无可能性,也无必要性。从可能性观之,即使技术强大如 ChatGPT,仍主要发挥工具效用,有学者指出,这类人工智能的“意志规定来源于他律,无法从本源上决定自己的发展方向”,是“脱离了个体情绪的系统化、模式化、步骤化的操作”,其构造和运行无法与设计者、使用者切割。有学者提出类比法人制度,将人工智能拟制为法律主体,但人工智能与法人存在本质区别:法人有法人代表,代表的意志即法人的意志,而人工智能自身并无意思表示机制(例如,股东大会、董事会等机制),不能独立实施民商事法律行为,因此,不宜被拟制为私法主体。从必要性观之,人工智能在私法调整的范围内尚不具备普遍性。以最可能人工智能主体化的知识产权领域为例,知识产权代表的利益与财产紧密关联,人工智能本身不存在财产基础,也不具备享有财产利益和承担违约、侵权等责任的能力,最终享有权利和承担责任的是决定其发展的法律主体或使用者,因此,人工智能私法主体化不具备必要性。
在上述情况下,何者对人工智能作品享有著作权?人工智能系统主要涉及三方利益主体:系统本身的设计者、享有系统所有权的所有者、对人工智能发出指令并接收内容反馈的使用者。虽然人工智能的设计和研发人员通常对该系统享有相当于职务作品的权利,但问题的关键在于这种权利能否延伸到人工智能系统生成的内容。如前文所述,类 ChatGPT 人工智能生成具备一定独创性的作品,不在设计和研发人员预期范围内,“不能视为其设计的机械延伸”。在此前提下,当人工智能系统所有者和使用者为同一人时,知识产权归属不存在问题;但当二者各自独立时,例如,ChatGPT系统的所有人是 OpenAI 公司,使用者是世界范围内的上亿网络用户,若 ChatGPT 对用户的回答构成作品,则该作品的著作权归 OpenAI 公司还是发出指令的用户?笔者认为,应遵循意思自治原则,由所有人和使用者事先或事后协议确定。如前文所述,OpenAI 公司在《使用协议》中约定向用户转让 ChatGPT 输出内容的一切权利和利益,就包含著作权和相关权益。
问题在于,当未来类 ChatGPT 人工智能系统的所有者、运营者与使用者没有约定或约定不明时,由谁享有著作权?持使用者为著作权人观点的学者认为,使用者不仅对人工智能的创作过程“具有更加紧密的控制作用”,而且当使用者享有通过指令人工智能创作作品的利益,能“提高其使用人工智能创作的积极性”。持人工智能系统所有人为著作权人观点的学者主张,依据“民法上物权优先于债权的原则,投资者 ( 所有者 ) 的利益是第一位的”。笔者认为,在无明确约定的情形下,认可人工智能系统使用者的著作权人身份相对合理,理由如下:其一,人工智能系统在使用者的直接提示和指令下创造作品,所有人与人工智能系统生成特定作品之间无直接关联;其二,所有人与人工智能系统特定内容生成之间不存在委托关系,对创作特定作品的行为无意思表示,不构成委托作品;其三,著作权具有支配性和排斥性,与债权存在根本差异,物权优先债权原则无适用空间;其四,所有权人对人工智能系统本身已享有收益的权能,例如,近期,OpenAI 公司与使用者订立 ChatGPT 付费使用合同,产生债权仅及于系统本身的租金或使用费,不包括使用者利用系统再次创作的利益。为此,笔者建议,未来立法机关可通过补充修订法规或颁布立法解释的方式予以明确。在立法明确前,最高人民法院或可择机发挥典型案例的指导作用,为下级法院提供裁判借鉴,避免各地出现不同裁判结论。
声音 | 邓建鹏:打击区块链领域违法活动需多部门合力:中央财经大学法学院教授邓建鹏发表于中国银保监会主管刊物《中国农村金融》2018年第20期的《防范区块链领域违法风险任重道远》中写道:“通过发行所谓“虚拟货币”“虚拟资产”“数字资产”等方式吸收资金,侵害公众合法权益,此类活动并非真正基于区块链技术,而是炒作区块链概念行非法集资、、之实。虽然区块链行业夹杂着一些金融风险,但是真正的区块链技术极具创新性,对社会发展将具有正面价值”。
邓教授在文中列出并详细介绍了区块链领域违法活动的主要形式:
1.区块链融资项目“出海转内销”。
2.项目发起人隐含集资的动机。
3.为违法ICO穿上合法外衣。
此外,邓教授认为,在区块链领域实施严格监管的过程中,无论是ICO融资,还是规模的虚拟货币交易等行为,现阶段均属违规或违法之例。打击区块链领域的违法活动,需要发挥监管部门、相关网络媒体与金融机构的合力。[2018/11/1]
综上所述,内容生成式人工智能的著作权归属或可得到解决,但仍存在一个问题:不同使用者对相同生成内容主张著作权产生的争议应如何处理?中国法律对著作权采取“自动保护原则”(《著作权法》第二条第一款),因此,笔者建议在举证时以生成时间对应传统作品的完成时间,获得生成作品时间在先的使用者取得著作权。在 OpenAI 公司的《使用协议》中,针对“其他用户请求和生成的响应不被视为您的内容”的规定,可理解为在后获取响应的用户对其他用户在先请求并获取的相同内容不享有专属著作权。随着技术的发展,未来类ChatGPT 人工智能系统创造可能涉及专利权、商标权等权利客体,中国专利权取得采取“申请在先原则”(《专利法》第九条第二款),商标权取得采取“注册在先原则”(《商标法》第三十一条),类ChatGPT 人工智能系统生成物的知识产权归属可参照此原则。
数据相关法律风险的应对
1. 数据来源的三种风险
数据来源风险指 ChatGPT 在预先学习和训练过程中,存在数据获取侵权、数据内容违法、吸收虚假信息三种风险。数据获取侵权指 ChatGPT 未经授权获取未在公共领域公开的信息,例如,拥有著作权的出版物内容,或通过其他网站获取侵犯他人知识产权的信息。数据内容违法和吸收虚假信息分别指 ChatGPT 在无人工干预的学习环境下,对现有数据库中违反法律法规的信息和缺乏事实依据的错误信息不加过滤地吸收学习。上述三种风险皆可能发生在 ChatGPT 的自主学习过程中,尚未对他人造成不利后果或构成危险,若对人工智能研发过程作过多限制,不利于提高研发人员追求高新技术进步的积极性,因此,只要人工智能学习训练不对外产生实际负面影响,应对其持开放包容态度。但当人工智能系统投入市场后,以上风险具有转化为现实危害的可能性,例如,演变为生成不良或违法内容的风险。根据风险种类和社会危害程度,应采取不同对策。
2. 生成不良或违法内容风险的应对
生成不良或违法内容的风险主要包括生成虚假信息扰乱社会秩序和为不法分子提供犯罪思路两方面。虚假信息轻则误导普通用户,重则引发社会性恐慌。至于是否构成《刑法》第二百九十一条之一第二款规定的“编造、故意传播虚假信息罪”,笔者否定人工智能的刑事责任主体资格,ChatGPT 无自主意识,不能构成该故意犯罪;若自然人利用类ChatGPT 系统生成与散布虚假信息,造成严重后果的,可以构成本罪。在人工智能语境下反虚假信息需要多方共治。第一,政府与类 ChatGPT 系统通力合作,扶持研发者加强人工智能自检测模型构建,一方面,将人工智能生成系统设定在既有事实之上,保证有据可依,制止其生成编造的内容;另一方面,引入多来源比照分析模型,提高人工智能识别信息真实性的能力,在有据可依的基础上做到依据真实。第二,中国打击电信工作颇有成效,国家反诈 APP 的举报标记功能发挥了重要作用,反虚假信息的应对可借鉴此模式。例如,由研发者在网页增设质疑和辟谣机制,当某用户经查证发现 ChatGPT 生成错误内容或虚假内容时,及时反馈系统并进行标记,对以后的用户具有提示和参考作用。第三,呼吁用户提高辨别真假信息的能力,敢于质疑人工智能提供的结论。
ChatGPT 虽具有一定的信息识别能力,但作为没有意识的智能机器,可能在不法分子的诱导提问下,为其提供犯罪思路。如前文所述,ChatGPT 不具备教唆犯或帮助犯的主体资格,ChatGPT 在刑事犯罪中只能充当犯罪工具的角色,犯罪分子或使用ChatGPT 提示犯罪思路,或利用 ChatGPT 进行、敲诈勒索等网络犯罪。对后一种情形中的犯罪分子,学术界有关于其是否属于间接正犯的讨论,无论其是否成立间接正犯,都由对犯罪行为和结果有支配力的利用者对后果承担刑事责任,本质上仍是传统犯罪,可依据《刑法》进行应对。
ChatGPT 所涉犯罪能够在现有法律框架下得到基本解决,其风险应对的重心应放在防范类ChatGPT 模型被不法分子利用方面,即从源头预防人工智能为犯罪提供便捷。人工智能系统应加强技术研发,优化系统的运行机制,加强对系统的道德伦理认知训练。道德伦理认知训练不是一刀切地把将违背伦理和法律的词汇排斥在语料库之外,而是通过思维训练,使类 ChatGPT 模型理解人类伦理道德,重点克服不法分子诱导“越狱”,拒绝回答威胁社会稳定和人类安全的问题。
3. 数据泄露风险的应对
类 ChatGPT 的强人工智能系统快速学习的能力令人震惊,从长远看,人工智能实现即时学习数据指日可待,同时,对用户隐私安全和商业秘密保护提出挑战。笔者建议,在国际层面,各国际组织应推动制定国际信息保护协定。人工智能对数据的获取无边界,只有促进国际范围内协同立法,方能应对未来类 ChatGPT 人工智能造成的跨国争端。此外,类 ChatGPT 模型运行机制依赖数据流通,各国数据开放和互通规则不一,需要制定统一标准的数据开放规则。2018 年 5 月,欧盟首个数据保护条例《通用数据保护条例》正式生效,这一条例被学者视为欧盟关于保护个人信息的法律文件的典型,为欧盟各国的跨国数字经济商事活动的安全开展提供了较为严密的法律保障。但其如何平衡严格保护与有效利用、开发数据三者间的关系,尚需各国进一步协商。
从国家层面看,应加强事前、事中、事后全链条监管。具体而言,第一,事前建立有层次的市场准入清单制度,对类 ChatGPT 人工智能系统实施投入前作合规评估。2021 年 4 月,欧盟发布《关于“欧洲议会和理事会条例:制定人工智能的统一规则(人工智能法案)并修订某些联盟立法”的提案》,将人工智能系统划分风险等级,要求高风险人工智能系统的供应商在投入市场前按相关规定提交评估,若系统投放目的或性质有根本改变则须重新评估,这对我国人工智能系统风控工作具有启示性。《中华人民共和国数据安全法》第六条第四款规定国家网信部门负责网络数据安全监管,根据我国《市场准入负面清单(2022)》“许可准入类”第 111 项“互联网信息搜索服务提供者应当取得法律法规规定的相关资质”事项,主管部门为国家网信办,人工智能准入审核可参照互联网信息搜索由国家网信办主管。国外系统投入中国市场需另外取得增值电信业务许可证。当前,ChatGPT 尚未对中国地区全面开放,如未来 ChatGPT 想进入中国市场,需符合监管部门就进入中国市场提供网络信息服务的准入条件。第二,参考《中华人民共和国个人信息保护法》(以下简称《个人信息保护法》)第六十二条相关规定,建立适当的监管制度,对人工智能的使用进行事中和事后监管。事中监管表现为完善个人信息保护投诉、举报工作机制,通过用户举报和政府主动审查相结合的方式,保证已投入市场的类 ChatGPT 系统未偏离法治轨道。参考《个人信息保护法》第六十四条,事后监管表现为对违反规定的类 ChatGPT 系统研发公司和责任人进行约谈,责令整改、施以行政处罚等,涉及犯罪的移交机关。第三,建立严格的责任制度,类ChatGPT 系统研发人员、所有者、运营者和用户在其对人工智能支配力所及范围内各自承担责任,立法应明确责任承担机制。在行政立法领域,国家互联网信息办公室等机构已经出台部分部门规章,对人工智能不得传播非国家规定范围内的信息作了初步监管规定,但违反规定的责任主体、责任承担方式等不明,需要进一步完善。构建具体的责任分配机制应符合支配原则,即“风险属于谁的管辖范围,谁便需要对风险及由此产生的结果来负责”。
研发机构的程序开发决定了模型数据获取和输出方式,因此,研发机构需公开信息来源,在产生争议时证明其程序设计未侵犯他人隐私或商业秘密的故意,否则应为其“算法黑箱”承担不利法律后果。用户对他人指定为隐私或机密的非公开信息应尽合理注意义务,如故意或过失泄露数据,或以非法目的引诱类 ChatGPT 系统窃取他人隐私或商业秘密,则由该过错用户承担责任。但“非因(用户)过错而向公众普遍提供或变得普遍可用的信息”、“接收信息前已拥有且无任何保密义务”、“由第三方合法披露且无任何保密义务”、“不使用机密信息的情况下独立开发”等情形不属于侵犯隐私或商业秘密。若研发机构设计程序和用户使用方式皆无过错,类 ChatGPT 系统输出隐私或加密信息,且第三人明知或应知是他人隐私或商业秘密而非法使用造成侵权后果的,由该第三人承担责任。数据泄露引发的责任通常是侵权责任,对照侵权责任的主观认定原则,研发机构采取过错推定原则,用户和第三方侵权采取过错责任原则。此外,还可根据《数据出境安全评估办法》等法规,构建中国数据出境评估体系。
研发公司应主动履行数据安全与合规等义务。研发公司具有技术优势和信息优势,对类 ChatGPT系统危机的处理更为便捷。系统应遵守中国法律,例如,依照《个人信息保护法》第五十二条第一款,指定用户信息保护人,建立健全信息保护合规制度体系;参考 2023 年 1 月起正式施行的《互联网信息服务深度合成管理规定》(国家互联网信息办公室、中华人民共和国工业和信息化部、中华人民共和国部令〔第 12 号〕),强化内容生成方面的合规建设。企业内部应制定管理规则,安排专业技术人员对诸如“DAN”等通过诱导提问攻破系统的突发情况及时发现并快速解决。应充分重视数据来源不合规和用户隐私、商业秘密泄露等问题,主动公示类 ChatGPT 系统依托学习、训练的信息来源,在用户注册时履行风险提醒义务,并通过技术更新为有需要的用户提供专线以防重要信息泄露。有刑法学者认为,人工智能研发者需尽一切可能最大限度保证研发的系统不存在安全隐患。例如,研发者可能利用当时的人工智能技术预见危害结果的产生,其负有预见义务,应承担过失责任。
从用户层面看,使用类 ChatGPT 人工智能系统应增强法律风险防范意识。对普通个人用户而言,应提高辨别信息真伪或合法性的能力,在注册账户时仔细阅读平台使用协议,不轻信类 ChatGPT人工智能系统输出的信息,不泄露个人隐私。例如,OpenAI 在《使用协议》中提出:“机器学习模型的主要好处之一是它们可以随着时间的推移而改进。为了帮助 OpenAI 提供和维护服务,您同意并指示我们可以使用内容来开发和改进服务……我们理解,在某些情况下,您可能不希望您的内容用于改进服务。您可以通过联系官方邮箱并提供您的ID 来选择不将内容用于改进。”个人用户在注册时应充分关注此类条款,若拒绝将自己输入的内容或由指示类 ChatGPT 人工智能系统模型获得的内容用于模型再训练,应及时向研发公司或经营机构提出声明。用户发现信息处理者违法或违约时,有权依据《个人信息保护法》第四十七条、第四十八条规定,请求删除并要求信息处理者对其信息使用规则进行解释说明。此外,ChatGPT 用户是人工智能系统输出内容的控制者之一,理应对输出内容负有监督义务,并对其可能实施的严重危害社会的行为负有预见义务,尽其所能避免此类行为的产生。否则,与前述研发者一样,可能因违反预见义务而承担一般过失犯罪的刑事责任。
挑战学校及学术伦理规范的应对
学生考试成绩和学术论文通常与学位证相联,科研工作者发表论文需经学术发表及出版机构审核,因此,学校和学术出版机构是应对相应问题的重要主体。例如,美国斯坦福大学团队推出DetectGPT,用于检测论文是否由 ChatGPT 写作;Nature 出版社要求使用 ChatGPT 等工具的论文作者在“方法”或“致谢”部分明确说明。上述做法在世界范围内具有参考性,学校可以在法律授权范围内制定学生守则和诚信政策,禁止学生利用类ChatGPT 人工智能系统作弊或抄袭,否则将根据情形给予课程不合格、警告、不授予学位、开除学籍等处分;学术出版机构可公布限制使用类 ChatGPT人工智能系统的规定,在论文发表和书籍出版前严格审核。值得一提的是,相较部分高校如临大敌般完全抵制类 ChatGPT 模型在学术领域的使用,以致将其数据整理、理解文本、概括主旨等功能与直接生成文章一同束之高阁不同,笔者认为,谨慎乐观地拥抱科技更为合理。在前互联网时代,学者研究问题须搜寻、查阅大量厚重的书籍,常因掌握资料有限而制约研究深度。在信息时代,计算机联网功能克服了搜集资料难的问题,将世界范围内的学者联系在一起,推动了科研领域快速发展,但同时带来信息大爆炸,资料庞杂、归类混乱的局限性阻碍了研究进度。强人工智能时代,应允许学生和科研人员妥善利用类 ChatGPT 模型的语料处理工具,在遵循学术规范和学术伦理的前提下辅助总结、梳理现有研究成果,克服现有计算机的缺陷,提高科研效率和质量。
四、结语
ChatGPT 拉开了强人工智能时代的序幕,其凭借自身的类人性和高智能性为人类的生产生活带来便捷,同时,潜在地冲击现有规则。ChatGPT魅力无穷,却不是潘多拉魔盒,它在诞生之初便携带便利人类的使命。人类需要做的不是简单地将魔法之盒牢牢锁住,而应正视科技进步背后的潜在风险,施以有效的规制之策,使创新为人所用。因此,面对知识产权问题,应承认 ChatGPT生成内容的可版权性,立法在尊重双方当事人意思自治的前提下,对权利归属作出明确规定,避免知识产权争议。在应对虚假信息和不良信息问题时,科技创新公司应研发自检测模型和信息源比照系统,设置用户质疑和辟谣机制,加强类ChatGPT 模型伦理道德认知训练,企业践行合规制度。应对数据泄露问题,国际层面应协同数据跨境使用规则和争端解决机制;中国应加强行政机关事前、事中、事后全链条监管,将类 ChatGPT人工智能系统列入投入前合规评估清单,建立严格的责任制度,明确利害关系各方的侵权责任;类ChatGPT 平台应积极履行数据安全合规义务,保护用户信息;用户应提高辨识能力,提高隐私和秘密保护意识。应对类 ChatGPT 可能致生的作弊和抄袭问题,研发抄袭检测模型,加强学术诚信建设。鉴于刑法规制方式的严厉性,在适用法律规制内容生成式人工智能系统时,刑法应始终保持内在谦抑,避免其规制的泛化,扼杀技术创新。在其他部门法足以规制人工智能风险时,应避免刑法的越位。
金色早8点
金色财经
Odaily星球日报
欧科云链
Arcane Labs
深潮TechFlow
MarsBit
澎湃新闻
BTCStudy
链得得
郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。