类ChatGPT的生成式人工智能(AIGC)大模型引发资本竞逐,各国对于AIGC合规性的重视正在推动相应的监管措施出台。
4月11日,中国国家互联网信息办公室就《生成式人工智能服务管理办法(征求意见稿)》(下称《征求意见稿》)公开征求意见,《征求意见稿》共21条,从生成式人工智能服务商的准入,到算法设计、训练数据选择、模型到内容,以及用户实名和个人隐私、商业秘密等方面提出了相关要求。这意味着,当下爆火的生成式AI产业将迎来首份监管文件。
有关ChatGPT可能引发的安全和伦理问题,目前正引发全球关注。美国拜登政府已经开始研究是否需要对ChatGPT等人工智能工具实行检查。作为潜在监管的第一步,美国商务部11日就相关问责措施正式公开征求意见,包括新人工智能模型在发布前是否应经过认证程序。
值得关注的是,前述《征求意见稿》中也明确了对生成式AI产业的支持和鼓励态度。《征求意见稿》提出,国家支持人工智能算法、框架等基础技术的自主创新、推广应用、国际合作,鼓励优先采用安全可信的软件、工具、计算和数据资源。
给AI立规矩
“这次《征求意见稿》出台速度非常快,可以说实现了与技术发展和应用态势的同步推动,反映了中国网络监管、数字监管日益成熟和敏捷高效的演进态势。”北京师范大学法学院博士生导师、中国互联网协会研究中心副主任吴沈括在接受第一财经记者采访时说。
生成式人工智能是指基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术。以ChatGPT为代表的生成式人工智能,正在激发包括微软、谷歌、Meta、百度、阿里巴巴等国内外科技巨头以及创业者的新一轮AI军备竞赛。仅在《征求意见稿》发布的前一天,就有前搜狗CEO王小川的百川智能,商汤科技以及昆仑万维三家企业宣布杀入生成式人工智能大模型领域。
吴沈括提到,从《征求意见稿》中能够看到,关于国内对于生成式人工智能的监管思路有三个特点:一是充分利用现行法律法规所提供的制度、机制;二是强调风险防范、风险应对和风险管理的基本思路;三是突出了生态式、流程式的监管方式,特别表现在技术应用全生命周期的多层次监管。
《征求意见稿》体现了监管前置的思路。在准入资格方面,《征求意见稿》提出,利用生成式人工智能产品向公众提供服务前,应当按照相关规定向国家网信部门申报安全评估,并履行算法备案和变更、注销备案手续。
《征求意见稿》还要求,企业提供生成式人工智能产品或服务,应当遵守法律法规的要求,尊重社会公德、公序良俗;尊重知识产权、商业道德,不得利用算法、数据、平台等优势实施不公平竞争。而对于使用该服务的用户,需要提供真实身份信息。《征求意见稿》还提到,利用生成式人工智能生成的内容应当真实准确,采取措施防止生成虚假信息。
在责任划分方面,《征求意见稿》提出,利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人,包括通过提供可编程接口等方式支持他人自行生成文本、图像、声音等,承担该产品生成内容生产者的责任;涉及个人信息的,承担个人信息处理者的法定责任,履行个人信息保护义务。
在保护个人隐私、商业机密等方面,《征求意见稿》中有多条提到相关要求。例如,提供者在提供服务过程中,对用户的输入信息和使用记录承担保护义务。不得非法留存能够推断出用户身份的输入信息,不得根据用户输入信息和使用情况进行画像,不得向他人提供用户输入信息;以及禁止非法获娶披露、利用个人信息和隐私、商业秘密。
同时,对于提供者,还要采取适当措施防范用户过分依赖或沉迷生成内容,保证服务的安全、稳舰持续运营;对生成的图片、视频等内容进行标识等。提供者发现用户利用生成式人工智能产品过程中违反法律法规,违背商业道德、社会公德行为时,包括从事网络炒作、恶意发帖跟评、制造垃圾邮件、编写恶意软件,实施不正当的商业营销等,应当暂停或者终止服务。
上海君悦律师事务所的陈怡然律师对第一财经记者表示,《征求意见稿》的发布可以帮助司法实践更好地明确权责划分和责任主体。例如,管理办法针对生成式人工智能能够以及不能向用户提供的服务进行了划定,同时还明确了处罚金额,这将有助于企业为其提供的AI服务承担相应的法律责任。
例如,《征求意见稿》提到,提供者违反本办法规定的,由网信部门和有关主管部门按照《中华人民共和国网络安全法》《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》等法律、行政法规的规定予以处罚。其中拒不改正或者情节严重的,责令暂停或者终止其利用生成式人工智能提供服务,并处一万元以上十万元以下罚款。
全球酝酿监管措施
扩大到全球范围看,有关ChatGPT的首个禁令来自意大利。就在3月31日,意大利个人数据保护局宣布即日起暂时禁止使用ChatGPT。随后,欧盟国家开始跟进酝酿相关监管措施。
据悉,由于创建ChatGPT的公司OpenAI没有在欧盟设立当地总部,这意味着欧盟任何成员国的数据保护机构都可以对其发起新的调查和执行禁令。据媒体报道,ChatGPT的技术应用已经开始激怒欧洲政府,其风险范围包括数据保护、错误信息、网络犯罪、欺诈和学校考试作弊等。
很快,爱尔兰数据保护委员会发表声明称,其正“与意大利监管机构跟进情况,以了解其采取行动的依据”,并将“与所有欧盟数据保护机构就此事进行协调”。
德国数据保护专员对媒体表示,德国可能会追随意大利的脚步,出于数据安全的考虑,禁用ChatGPT。
法国数据隐私监管机构国家信息与自由委员会(CNIL)称,该局收到两份关于ChatGPT的投诉后已开始进行调查。该局已与意大利监管机构联系,以了解更多出台禁令的依据。
比利时数据保护当局也表示,ChatGPT的潜在侵权行为“应在欧洲层面进行讨论”。
英国信息专员办公室警告说,人工智能开发人员绝不应违反数据隐私,那些不遵守数据保护法律的人将面临后果。
挪威数据保护监管机构Datatilsynet则称,其至今没有对ChatGPT进行调查,但“不排除未来会有任何事情发生”。
在布鲁塞尔,欧盟委员会正就人工智能法案进行辩论。不过,欧盟委员会执行副主席维斯塔格(MargretheVestager)则对禁用人工智能系统显得更谨慎。“无论我们使用哪种技术,我们都必须继续推进我们的自由,保护我们的权利。”维斯塔格在推特上表示,“这就是为什么我们不监管人工智能技术,而是监管人工智能的用途。我们不要在几年内丢掉花了几十年才建立起来的东西。”
美国的政策制定者也存有同样隐忧。近日,美国众议院委员会10名议员组成的两党代表团前往硅谷,与顶级技术主管和风险资本家会面,比如微软总裁史密斯(BradSmith)、谷歌全球事务总裁沃克(KentWalker)以及大数据分析公司Palantir和人工智能公司ScaleAI的高管们。
据消息人士透露,他们的讨论主要集中在人工智能的最新发展上。其中,许多高管对美国政府监管人工智能持开放态度。但也有人警告称,现有的反垄断法可能会限制美国竞争的能力。例如,微软发言人表示,该公司总裁不认为竞争法应该因人工智能而被修改。高管们还呼吁美国联邦政府增加对人工智能的投资。
监管与技术发展如何兼顾?
每一次技术革命都伴随着带来巨大的机遇和风险。对于生成式人工智能而言,只有建立起真实的用户调用和模型迭代之间的飞轮,AI模型才能变得越来越聪明,而如何在政策监管和技术发展之间找到平衡也考验着各方。
美国众议院小组主席卡拉格(MikeGallagher)对美国能否采取一些技术专家提议的极端措施表示怀疑,比如暂停部署人工智能。“我们必须找到一种方法,把这些防护栏放在适当的位置,同时允许我们的技术部门进行创新,确保我们的创新。”卡拉格说。
投资咨询公司BCAResearch美国资产部首席策略师唐克尔(IreneTunkel)则在接受第一财经记者采访时认为,在AI领域的竞争,将刺激政策制定者确保人工智能和相关技术不会遇到重大瓶颈。
“为了使美国保持相对于世界其他国家的技术优势,美国政府将需要利用政策和财政支出来促进人工智能在多年内的增长。我们预计,(美国)更多的政府资源将被分配给人工智能,包括国防和非国防性质的资源,而监管环境将促进整个经济领域在公共和私营部门越来越多地采用人工智能。”唐克尔称。
谈及全球监管趋势,吴沈括对记者表示,面对新技术新应用,需要持续地探索一套敏捷高效的监管机制和监管方式,最大限度地及时应对和处置伴生的各种风险类型。此外也需要持续地构建和完善一套经济、便利、可行的合规指引,使各方主体有清晰的合规标准和指向。
“良好的生态治理也需要各方最大限度地凝聚共识,在更大范围内形成有关新技术、新应用的治理的价值共同点以及共同认可的行为准则。”吴沈括表示。
而陈怡然则认为,实践领域还有不少现实问题需要关注。例如,“由AI提供的服务,应该明确提示消费者为AI提供的服务,不得AI伪装成人工,由AI服务造成的问题,由企业担责。如果是涉密的大型企业,则需要限制员工对开源型AI的使用,因为每一次提问都有可能造成泄密。”
在谈及对于监管更进一步的建议时,华东政法大学教授、数据法律研究中心主任高富平对第一财经记者表示,大语言模型的应用涉及个人和公共利益的问题,目前无法控制大语言模型向用户输出的内容,其输出具有较高的智能性和随机性,这也将是未来监管的难点和重点。