欧盟委员会对 ChatGPT 的最新监管方向_人工智能:Mexican Pepe

撰文:Anna Fell?nder,anch.AI 的创始人、ETHICAL AI GOVERNANCE GROUP 委员会成员

2023 年 2 月,欧洲议会 AI 伦理领域的顾问 Anna Fell?nder 在欧盟委员会官网发表了《ChatGPT’s rapid entry – Urgent for the government to appoint an authority for responsible AI》,提出了关于为什么要对生成式 AI 进行监管的背景、原因和解释。笔者认为,这篇文章很有可能代表了未来欧盟委员会对生成式人工智能的监管方向之一,我们看这篇,也主要是作为一个国际动向进行关注。

全文如下:

最近新发布的人工智能方案 ChatGPT,以一种全新的方式挑战着所有人。随着生成式 AI 系统创造的机会,我们同时也面临着具有历史意义的十字路口:

欧盟委员会:将确保整个欧盟范围内自由使用CBDC,并建立法律框架:金色财经报道,欧盟委员会周三发布了一项数字欧元提案,该提案将确保整个欧盟范围内自由使用CBDC,并建立法律框架,以便可以在线和离线从设备到设备进行数字欧元支付。该提案称,数字欧元将与现有的国内和国际私人支付方式(例如银行卡或应用程序)一起使用,它将像数字钱包一样工作,人们和企业可以在欧元区随时随地使用数字欧元进行支付。[2023/6/29 22:08:00]

也就是,究竟是人工智能来控制人类,还是人类来控制人工智能。

瑞典的企业和当局(因为 Anna Fell?nder 在瑞典),需要对人工智能采取 Ethical approach ,也就是伦理学上的考量,但最重要的是,需要建立风险评估框架,来支撑这种发展,从而指导符合人类价值观的人工智能解决方案的发展。

欧盟委员会首席经济学家:欧盟新的加密资产市场法使其处于与大西洋彼岸竞争的有利位置:金色财经报道,欧盟委员会负责经济增长的部门首席经济学家Joachim Schwerin表示,现在很多企业都在寻求增长、保持安全和管理风险,他们不知道美国会发生什么,所以他们来找我们,这有利于竞争力。欧盟新的加密资产市场 (MiCA) 法使其处于与大西洋彼岸竞争的有利位置,大型加密参与者抱怨美国证券交易委员会 (SEC) 沉迷于执法监管,而不是明确规定规则。我听到加密企业说可能正在考虑转移,因为 MiCA 提供的新的监管框架。[2023/6/8 21:22:47]

此外,欧盟人工智能立法,对发展负责任的人工智能来说,指日可待,而政府迫切需要组建发展负责任的人工智能机构。

(1)首先,创造了人们内心期待已久的人工智能民主化,更多的人可以参与进来这次技术带来的迭代,自己去创造由算法在历史数据上生成的新内容。各个组织实现 AI 技术价值的门槛显著降低,新的创新商业模式也层出不穷,能够有效地加强客户和人们的关系。

欧盟委员会:欧盟国家要做好停止加密货币挖矿的准备:10月18日消息,欧盟委员会周二表示,欧盟成员国必须准备好阻止加密货币挖矿,因为该地区由于俄罗斯的天然气供应中断可能存在能源价格上涨、停电或电力短缺等问题。从长远来看,终止税收减免和其他有利于某些成员国目前实施的加密矿工的财政措施也至关重要。

该委员会表示,加密技术的能源消耗在五年内增加了900%,约占全球用电量的0.4%,并承诺到2025年再提交一份关于该主题的报告,建议采取进一步措施减少加密技术的能耗。(CoinDesk)[2022/10/18 17:31:12]

(2)同时,所有个体和社会,每天都面临着由于不受监管的人工智能解决方案,从而导致的道德和法律问题。其中一个原因是,人工智能模型的学习是基于历史数据,而其中,很可能存在不必要的偏见,这种偏见,可能导致社会排斥和歧视,包括其他的违规行为。

欧盟委员会招标区块链前商业化采购:欧盟委员会正招标区块链前商业化采购(pre-commercial procurement,或PCP),该PCP将专注于开发基于欧盟法律框架的新型区块链解决方案,例如通用数据保护法规、电子识别、认证和信任服务法规以及网络信息系统指令。该过程将为能够提供最佳性价比的服务供应商颁发研发合同,此后,这些供应商将分阶段开发解决方案,并减少进入每个后续阶段的承包商数量。(Cointelegraph)[2020/12/9 14:43:50]

比如说,当我们这些个体,批准自己数据在某种情况下被使用时,可能并不会意识到,当我们自己的数据与其他数据结合时,算法如何创造出侵犯个人隐私的见解。

注意:这对公司和各国政府来说,代价都很高,例如可能会撤回投资,或者导致声誉受到损失。最近的案例表明,2021 年,由于人工智能解决方案错误地指责接受父母保险的父母是欺诈。此外,还有个基于 OpenAI 的 GPT-3 的医疗聊天机器人被发出测试,其结果是建议病人自杀。

参考资料:GPT-3 medical chatbot tells suicidal test patient to kill themselves | Boing Boing

生成式人工智能系统,比其他人工智能解决方案具备更高程度的道德风险暴露。其中一个原因是,生成式人工智能系统的使用往往是通过 API 进行的,这使得解决方案的透明度很低,并且,对它的发展难以控制。

同时,道德和法律方面的违规行为,通常发生得很微妙,也很突然,虽然这些违规行为可能会小到无法察觉,但是极有可能造成指数级的损失。

其中一个例子是深度造假,比如说,被用来操纵视频或照片中的面孔和声音。而要注意到的是,生成式人工智能模型通常以 API 的形式提供,这就可以使用户更容易获得和使用该技术,这可能会增加滥用的风险。

需要承认的是,基于 API 的生成性人工智能模型本身并没有风险,但它们的使用方式和训练的数据会使他们具备风险。

欧盟的人工智能立法,即《人工智能法案》,将于 2024 年正式生效。

《人工智能法案》的目标,是让公民和消费者感到信任,并维护欧盟包括人权在内的价值基础。欧盟委员会在《人工智能法》中提议,成员国必须任命或建立至少一个监督机构,负责确保「必要的程序得到遵循」。

随着生成式人工智能系统逐步出现的巨大潜力,尤其是在医疗保健方面,例如正确诊断和优化疾病的治疗,关键是,要有可用的风险评估框架,并任命一个负责任的机构。

人工智能的伦理框架,为所有部门创造了一个高度的创新环境。因此,有关机构迫切需要任命这一负责机构,并提供风险评估框架,以便瑞典企业和瑞典当局不会像 GDPR 那样对人工智能法案缺乏警惕性。

【参考文献】

https://futurium.ec.europa.eu/en/european-ai-alliance/blog/chatgpts-rapid-entry-urgent-government-appoint-authority-responsible-ai

Artificial intelligence: huge potential if ethical risks are addressed | News | European Parliament (europa.eu)

Welcome to anch.AI - AI and Equality in Public Administration- a report by anch.AI and the Swedish Gender Equality Authority.

阿法兔

个人专栏

阅读更多

金色早8点

金色财经

Odaily星球日报

欧科云链

澎湃新闻

Arcane Labs

深潮TechFlow

MarsBit

BTCStudy

链得得

郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。

水星链

[0:31ms0-0:960ms