本报记者 秦枭 北京报道
在给人们带来惊喜之余,AI也衍生出了数据泄露、电信诈骗、个人隐私风险等问题。对此,各国纷纷制定相关政策法规,规范AI的使用。在国内,此前国家网信办、国家发展和改革委员会(以下简称“国家发展改革委”)等七部门联合发布《生成式人工智能服务管理暂行办法》;美国此前也发布了一系列监管文件。
在较早将AI监管议题提上日程的欧洲地区,AI监管法案也将落地。此前,欧洲议会曾通过了《人工智能法案》(AI Act)谈判授权草案。但法案的后续谈判进行了6个月之久,这也让外界产生了欧盟是否会在AI领域落后的担忧。
不过,据外媒最新消息,欧洲议会、欧盟成员国和欧盟委员会的谈判代表已就生成式人工智能工具的一系列控制措施达成一致。《中国经营报》记者注意到,其中就包括在全球关注度都很高的OpenAI的ChatGPT和谷歌的Bard。
狂欢下的隐忧
从去年年底由OpenAI研发的ChatGPT引发的AI浪潮,其发展速度超出了所有人的预期,对各个行业的渗透性、扩散性和颠覆性与日俱增,特别是以预训练大模型、AI for Science等为代表的新兴技术正在引发新一轮 AI 创新热潮。伴随大模型带来的生成式 AI 突破,科技、经济、社会等领域也有望迎来深刻变革。
这种颠覆性主要体现在,大模型的技术迅速迭代,打破了原有AI技术发展的上限,呈现出数据巨量化、模型通用化、应用模式中心化等特点,以“无限生产”的能力重塑企业生产引擎,推动生产效率颠覆式提升。从全球范围看,世界各地均在积极推动大模型研发和应用。
但与此同时,关于AI监管的问题讨论也一直在持续。
当前,生成式AI的快速发展与相关法律法规、标准体系和伦理规范的建立存在矛盾。隐私与数据保护风险、著作权侵权风险、深度伪造风险、失业加剧风险,以及歧视与偏见风险等问题正在不断暴露。
随着问题的凸显,各国也把对于AI的监管提上日程。斯坦福大学发布的《2023年人工智能指数报告》中提到,对127个国家的立法记录调研的结果显示,包含“人工智能”的法案被通过成为法律的数量,从2016年的仅1个增长到2022年的37个。该报告对自2016年以来81个国家的人工智能法律法规记录的分析也同样表明,全球立法程序中提及人工智能的次数增加了近6.5倍。
除了中美两国之外,欧盟在推动AI立法监管上则相对缓慢。
2023年6月,欧洲议会以499票赞成、28票反对和93票弃权,高票通过了《人工智能法案》谈判授权草案。按照欧盟立法程序,在此之后,欧洲议会、欧盟成员国和欧盟委员会在进行“三方谈判”后,以确定法案的最终条款。
据悉,上述草案包括用于监管基础模型的分级管理方法,基础模型的定义是拥有超过4500万用户的模型。聊天机器人ChatGPT被定义为非常有能力的基础模型(very capable foundation models,简称VCFM),VCFM需承担额外的义务,包括定期审查以发现潜在漏洞。
值得注意的是,针对上述法案的谈判进行了6个月之久。争议之处是如何在保护自家的人工智能初创企业与潜在的社会风险之间找到平衡。包括法国和德国在内的一些欧盟国家反对这些规定,称它们会不必要地阻碍本土企业。
对此,谷歌全球总裁兼首席法律官肯特沃克(Kent Walker)表示,欧盟应该以最好的AI规则为目标,而不是制定出第一部AI法规。他表示:“技术领先地位需要在创新和监管之间取得平衡。监管机构不应对人工智能发展进行限制,而是在违反公众信任时追究其责任。”
肯特沃克说:“我们早就说过,AI太重要了,既不能放任不管,也不能不好好监管。监管机构应竞相制定最好的AI法规,而不是第一个AI法规。”
OpenAI首席执行官萨姆奥特曼(Sam Altman)也认为:“我们不需要严格的监管,未来几代人可能也不需要。但在某种程度上,当一个AI模型可以提供的产出相当于整个公司、整个国家或整个世界时,也许我们确实需要一些集体监督。”
不过,荷兰数字化大臣Alexandra Van Huffelen表示:“欧盟必须在今年年底前达成协议,尤其是在通用人工智能方面。全世界都在关注我们,公民、利益相关者、非政府组织和私营部门都希望我们就人工智能达成一项有意义的立法。”
而在政治风险咨询公司Eurasia Group的科技政策分析师尼克莱纳斯(Nick Reiners)看来,“欧盟人工智能法案很难成为行业监管的全球黄金标准,在明年欧洲议会选举之前可能无法达成一致,在周三的最后一轮谈判中,需要敲定的事情实在太多了,即使他们按预期工作到深夜,可能也要推迟到明年了。”
监管成全球共识
不仅是在欧洲,生成式AI的伦理和安全治理已经成为全球 AI 领域普遍关注的议题。
在中国,国家网信办联合国家发展改革委、教育部、科技部、工业和信息化部、公安部等七部门于2023年7月13日联合公布了《生成式人工智能服务管理暂行办法》,坚持发展与安全并重的原则,鼓励创新与治理相结合,实施了包容审慎和分类分级的监管措施,旨在提高监管的高效性、精确性和敏捷性,并于2023年8月15日开始施行。
美国则发布了一系列自愿性标准,如《AI风险管理框架》和《AI权利法案蓝图》,重点强调 AI 的创新和发展,倾向于采用组织自愿遵守的指南、框架或标准等方式进行 AI 应用的软治理。
此外,在2023年10月,联合国也成立了一个高级别人工智能咨询机构,专门针对AI技术带来的风险和机遇进行探讨,同时为国际社会加强治理提供支持。
在此前举办的人工智能安全峰会(AI Safety Summit)上,美国、中国、欧盟等28个国家的代表和企业签署了《布莱切利人工智能安全宣言》,这份宣言重申了“以人为中心、可信任的和负责任的”(human-centric, trustworthy and responsible)AI发展模式,呼吁国际社会的合作,并强调AI的实施以保障人权和实现联合国可持续发展目标为目的。
中国科技部副部长吴朝晖在此次峰会上表示,人工智能治理是全球各国共同面临的重要课题。他强调,在发展人工智能的同时,应当积极倡导以人为本,智能向善,加强技术风险管控。同时,吴朝晖还提出了增强发展中国家在人工智能全球治理中的代表性和发言权的建议,以弥合智能鸿沟和治理能力差距。
中国科学院自动化研究所研究员曾毅认为,虽然先进人工智能有可能通过解决当前健康、教育、环境、科学等领域的未解挑战,但创造这些好处的人工智能系统,本身的属性也成了巨大的风险来源。当规模更大、不确定性更大的模型向所有人开放时,误用、滥用问题将不仅是人工智能科学家面临的挑战,也是全世界面临的挑战。他还提出:“我们需要建立一个涵盖全世界的人工智能安全网络,以解决不可预知的进展和失败。”