划重点:
科技新闻讯 4月17日消息,随着所谓的生成式人工智能(AIGC)越来越火,人们越来越担心这种技术可能造成歧视伤害或加剧虚假信息传播,为此拜登政府已经开始研究是否需要对ChatGPT等人工智能工具进行审查。
事实上,在这股AIGC大潮来袭前,拜登政府就已经对其加以密切关注。早在2022年,白宫就发布了一份长达70多页的文件,名为《人工智能权利法案蓝图》。在很大程度上,这份文件并不具有强制法律效力,但它的发布表明,在不久的将来,美国政府可能会出台相关法律。
如果这份蓝图切实可行,它将彻底改变人工智能的工作方式、外观和功能。但目前还没有任何人工智能系统接近于符合这些规则,甚至不清楚技术上是否可以做到。
这份蓝图是在阿隆德拉纳尔逊领导下制定的,她是一位科学技术学者,后来成为拜登政府科学技术政策办公室负责人。如果说美国政府中有人认真思考过人工智能的未来,并试图让政府这个庞大的实体在人工智能上达成某种共识,那这个人肯定就是纳尔逊。
纳尔逊如今已经卸任公职,目前是智库美国进步中心的高级研究员。她最近接受《纽约时报》旗下播客频道【The Ezra Klein Show】主播埃兹拉克莱因专访,谈及制定这份蓝图的初衷以及她对人工智能未来的看法。
以下为专访全文:
问:我想从你和美国政府如何看待人工智能本身开始这场对话。从政府或公众的角度来看,我们在这个领域试图解决的问题或挑战是什么?
纳尔逊:首先,我要澄清下,我已经不再为政府工作。我此前工作的单位是白宫科技政策办公室,它成立于20世纪70年代,其使命是刺激创新,减轻可预见的伤害。我认为,在某种程度上,这句话实际上已经概括了政府的科学技术政策以及对创新技术的态度。
拜登政府已经认识到,科学技术应该在人们的生活中做有益的事情。因此,创新应该基于使命和价值观设定目标,应该致力于改善人们的生活。我认为,这也是政府此时此刻思考人工智能问题的基矗
问:我想讨论下“可预见伤害”这个概念。在当前情况下,关于人工智能有两种观点:第一种观点认为它会产生很多可预见的伤害,可能存在偏见、不透明,这可能是错的。第二种观点认为人工智能是自成体系的技术,我们还没有真正应对类似技术的经验。因此,危害是不可预见的,这些技术和系统也是无法解释的。我们目前正处于已知和未知之间的位置,这使得监管变得非常困难。你赞成哪种观点?
纳尔逊:事实上,这两种观点我都不完全赞同。我是个学者和研究员,我希望能获得更多信息。在某种程度上,这是个与经验有关的问题,是一个我们需要在选择哪个阵营之前获得更多信息的问题。当然,我认为上述两种观点都有一定道理,毕竟总有些伤害是我们无法预见的,有些用例是我们可能已经想到但却没有认真考虑过的。
所以我认为,在当前情况下,到底倾向于哪种观点取决于具体用例,但这个过程可能带来我们可以预见的危害,甚至目前正在承受的危害。举例来说,面部识别技术在某种程度上伤害了黑人和棕色人种社区,而且这种情况已经持续了好几年。还有其他更广泛的风险。
对于后者,我想说的是,我们已经生活在一个充满高度不确定性、风险迫在眉睫的时代,所以我也想把我们现在思考的已知和未知风险放在我们当前的生活背景下。这不禁让我想起这样一个事实:我们已经在潜在的核灾难阴影下生活了60多年。这是我们每天都要面对的事情。
当然,我也考虑过气候变化对人类生存带来的潜在危害以及其可能引发的灾难性风险。从这个角度来说,我们其实生活在一个充满危险的世界中。所以,尽管出现了新的风险,但我认为,人类对于必须应对的越来越大、往往未知的风险已经不再陌生。
问:我很喜欢这种类比,也很好奇你在人工智能领域中使用或听过哪些类比,你觉得哪些更令人信服?
纳尔逊:我认为,提起与人工智能类似的风险,人们可能首先就会想到气候变化和核灾难。但人工智能是自成体系的,我不确定这种类比是否准确,但我认为它们的确有些相似之处。这些类比可以帮助我们反思,不仅反思迫在眉睫的潜在危害,还有可能的解决方案,这是我更感兴趣的。
在核领域,几十年来,人们始终都在围绕防扩散开展活动。我们知道这些东西很危险,知道它们可能会摧毁世界。我们正共同努力,展开跨部门和全球合作,以试图减轻损害。此外,我们已经看到这些东西被释放后所能造成的破坏,甚至是致命性破坏。当然,在涉及人工智能的国家安全领域,我认为也有类似的潜在风险。
所以,我认为现在的生活充满了巨大的不确定性,其中有些是我们熟悉的,有些则是不熟悉的。然而,同样的情况是,自动化技术实际上也是由人类创造的。虽然它们在快速进化,但它们并不一定要被释放出来。这是一种保守的选择。
ChatGPT和自动化技术能会给世界带来各种可能,其中有好有坏,但其可以帮助我们反思正呈现在我们面前的选择,或者我们愿意接受的结果。
问:我在这些类比中注意到的一件事是,多数都是关于风险和灾难的类比。以核灾难为例,尽管许多人支持防核扩散,但也很多人反对永远搁置这项技术。如果我们不那么害怕负面影响,今天可能已经拥有更便宜、更丰富的核能可用。你如何看待这些类比,因为许多人不希望阻止那些可以带来巨大好处、潜在经济增长、更多科学发现、更多创造力、更多赋权的技术。你如何看待这些类比的积极方面?你提供的类比是否过于偏向负面?
纳尔逊:我认为核能是个很好的例子,我们仍对核能技术心存希望。如果我们能够利用核聚变能源并进行核聚变研究和开发,就有可能拥有取之不尽的绿色能源,这种愿景非常令人兴奋。但我们要做很多事情,比如这些设施应该建在哪里?如何预防灾难?你如何让社区参与这项工作,让社区知道我们正在进入可能拥有巨大机会的领域?
所以我认为,所有这些创新都是为了推动更多创新,但它们实际上也有局限性。让我们回到人工智能,它在科学和健康方面有很大潜力。比如,当拜登总统希望在未来25年内将癌症死亡率降低50%时,你可能会密切关注人工智能技术在癌症筛查、放射学和影像学的发展。这样做有明显的好处,这显然是拯救生命的机会。这是人工智能一个非常积极的用例。
美国宇航局(NASA)在应用人工智能方面也有自己雄心勃勃的计划。人们可能已经很熟悉所谓的DART任务,即尝试通过撞击改变可能正撞向地球的小行星轨道。多年来,人工智能始终是这项工作的核心,帮助小行星建模,模拟它们的形状、速度、加速度以及自转速度等。
因此,地球防御的未来,甚至可能是我们星球的未来,很大程度上取决于这种研究是否成功,以及在研究领域使用人工智能来帮助创造行动和干预的能力。所以,人工智能在科学领域建模和预测方面有广泛的用途,自动化技术有很多值得称赞的地方。
问:你刚刚提到了自动化技术,这些特定的机器学习算法似乎已经有了很多具体用例。比如,我们正在构建系统来计算蛋白质折叠规律、预测小行星轨迹和形状或者更好地阅读放射学报告。
然后通用系统出现,即人们所说的通用人工智能,但无论你是否相信我们会实现这个目标,这些从巨大数据库中学习的系统正展现出出人意料的、可推广的能力。尤其是当你建造的东西是为了与人类进行普遍性互动时,它可能也会让人们误以为它更像是自主智能代理人。
你如何看待这些更精确的自动预测算法和这种似乎越来越占主导地位的大型学习网络平衡之间的区别?
纳尔逊:你使用了与人类互动这个短语,我认为这对我来说就是最主要的区别。在某种程度上,我们在构建与人类互动的系统时,我认为我们需要采用不同的价值主张来反思我们如何看待这项工作。如果我们处理的工作是关于机会的,比如人们获得服务和资源的机会,获得医疗保健的机会,我认为政府、行业和学术界需要以不同的方式考虑这些工具。
问:我认为这是通往《人工智能权利法案蓝图》的一个很好的桥梁。跟我说说这份文件的由来吧!显然,政府始终在考虑推出监管框架。这个过程进行得怎样?
纳尔逊:这是个创建框架和分配资源的过程,用于思考我们如何在自动化系统和自动化技术周围设置安全护栏。这就重新回到了政府科技政策的创始使命上:在尽可能快地推进创新的同时,也尽可能地减轻危害。
《人工智能权利法案蓝图》提出了一种美好的愿景。如果我们的价值观是为人类带来最好的结果,如果我们的政策和价值主张对于技术应该做什么、对使用它们的人意味着什么都有考量,那么无论我们谈论的是四年前我们可能使用的人工智能,还是四个月后将发布的新人工智能模型,这些主张都应该是正确的。
人工智能系统应该是安全的,你的数据隐私应该得到保护,算法不应该被用来歧视你。我想说的是,在部署人工智能系统之前要考虑护栏的两个领域:第一是进行风险评估时,你可以招募“红队”进行对抗测试。第二,你可以进行公众咨询。
问:对于不熟悉这个领域的人,你能解释下什么是红队吗?
纳尔逊:所谓的红队就是你的同事或者其他系统,你把自己的人工智能工具发给他们,然后让他们打败它。你必须对这些系统进行压力测试,让它们以对抗性的方式相互促进。你可以试着让红队在最好和最糟糕的情况下测试自己的系统,预测它根本不应该被使用的方式,试着弄清楚它是如何崩溃的。然后利用这些经验来改进工具或系统。
在系统部署之后,你可以进行持续的风险评估,可以尝试以持续的方式监视工具。所以回到你最初的问题,关于政府能做什么,它可以提供积极的愿景,指导如何构建生成式人工智能的自动化系统。举例来说,国家标准和技术研究所已经开发出人工智能风险评估框架。
问:按照《权利法案》规定,如果我的权利被侵犯,我可以起诉。而当前的这份文件有法律效力吗?
纳尔逊:虽然这份文件还不是法律,但它是一个愿景,是一个框架,涉及到如何执行我们已经制定的法律,以及如何使用现有的规则制定权。它可以提醒我们,有些法律是持久的,同时会给出些方法,让我们现有的法律、政策以及规范等适应新的技术领域。
正如我们在过去几个月里所经历的那样,技术发展的速度惊人。但我们不需要每次有新技术出现时都停止一切,重新发明一切。所以当新技术出现时,有些社会契约不会改变。我们可以回归基本原则,这些原则可以体现在技术政策中,体现在技术发展的工作中,体现在具体的实践中,比如算法风险评估,比如审计,比如红队等等。
问:但我想更深入地了解这份文件的现状,因为其可能作为政府的立法提案出台。但要将其具体化为一项权利法案,需要相当多的工作。这是一个需要讨论的框架,公司可以自愿采用。你的观点是,国会应该把这份文件变成法律,如果公司不遵守,就可以起诉他们?就像我们建国时推出的《权利法案》,它之所以强大,不是因为它只是愿景,而是因为如果你违反了它,我可能会起诉你。如果GPT-5违法,我应该起诉OpenAI吗?
纳尔逊:这份文件的受众有很多。在我看来,如果我还在政府工作,总统可能已经呼吁国会在这些领域采取行动,保护人们的隐私,在竞争和反垄断领域采取行动。因此,有很多有趣的立法草案,围绕着执行算法影响评估,围绕着禁止算法歧视,并以继续确保创新的方式进行。
因此,可以肯定的是,文件中将会涉及到立法者、开发者等不同受众。正如我所说,这份文件试图做的事情是提炼最佳实践,最佳用例,我们从开发者、商业领袖和从业者那里学习并与他们讨论。同样,这份文件也是为普通公众服务的。
我前面已经说过,我们不仅生活在一个在某些方面风险不断增加的世界,也同样生活在一个将会有越来越多不同新技术的世界。我们在制定政策时需要考虑关键的新兴技术。事实上,因为创新如此丰富,创新周期缩短,这意味着我们必须以不同的方式来思考政府和政策制定者的角色。这还意味着,不是每次有新技术出现就要制定新法律。换句话说,即使技术在不断演进,但有些基本原则也不会改变。
我们没有能力创造一种全新的生活方式,一个全新的美国社会,或者政府没办法来想象美国社会每次有颠覆性技术出现时的情景。但我们能做的是,随着技术的快速发展,继续坚守基本的价值观和原则。
问:现在我想说的是,有一种共识:即使是开发人员也不完全理解这些人工智能系统是如何工作的,以及为什么经常会得出结论。因此,为了符合我认为的通俗易懂原则,我们会要求开发者停下来,让这些系统给出解释。我想问的是,你是否认为这种做法应该成为法律?
纳尔逊:我举个更具体的例子来说明。平等就业机会委员会有权围绕雇佣行为和雇佣决定维护公民的权利。有些供应商正在创建算法,公司正在使用这些算法来做出雇佣决策,我们可以知道算法是如何创建的。 算法系统的开发者也可以告诉我们这些系统是如何做决定的。如果有人就就业领域的歧视提出索赔,我们应该能够知道他们使用了什么算法。在某种程度上,这不是商业秘密或其他专有信息,需要让人了解规则,就像你在任何其他招聘决策过程中所做的那样。
问:我认为,在某种程度上,我不认为应该将更狭隘和更宽泛的系统分开。随着有上万亿个参数、更通用的系统出现,并试图提供插件让它们用于数百万种不同的用途,我们知道这种情况将会成为现实,也可以预期这些将被带入商业战略和决策中等。但你需要能够告诉我们,系统是如何做出决定的。我的意思是,公司将不得不以不同的方式建造它们。我始终都在和这些公司聊天,但他们也不知道为什么算法会得出其结论。
我想问的是,无论是在这项法案中,还是在你对这些系统的看法中,国会是否应该要求,在让这些系统能够给出明确解释之前,不能继续建造更大的系统并推出它们?我们相信,为了确保人工智能系统的安全,为了保护我们的权利,我们需要可解释性。
我认为,在这方面已经有前例可循,比如《汽车权利法案》,它不仅对汽车制造方式进行了监管,而且制定这些法规实际上大大增加了汽车制造领域的创新。要想达到同样的目标,我们还有更多工作要做,比如制定更高的燃料标准等等。算法应该有更高层次的可解释性吗?
纳尔逊:如果有人在实验室环境中构建通用人工智能,就不需要清晰易懂。易读性需要出现的地方,国会以及规则制定者可以采取行动的地方,是某些不适合人工智能做决定的领域。因此,易读性规则确实适用于特定的用例,比如汽车安全、就业案件、住房歧视,以及获得住房、医疗服务等。当它被转变为不同的工具时,在就业工具中使用生成式人工智能将不得不遵守劳动法和民权法关于就业的规定。正如你所说,开发人员将不得不弄清楚,他们是否想要使用这些工具,以及如何遵守法律规定。
问:你可能会从对人工智能持更乐观态度的人那里听到一件事,那就是系统中相当高的不透明度和模糊性是我们为让它们真正发挥作用而付出的必要代价。许多人可能对此不在乎,但在其他情况下却并非如此。
比如说,对病人进行某种癌症筛查。医疗保健行业可能是尽管相当严格的领域,这个领域的重点是系统尽可能准确,而不是它是否能够解释其推理。事实上,如果你放慢这些系统的开发速度,试图让它们给出解释,那么也许在你还没来得及推出系统前,人们就已经死亡。你对这种取舍有何看法?
纳尔逊:实际上,我并不反对这些用例。我认为这里并不一定需要我们在其他领域始终谈论的那种易读性。只有当这些东西成为真实用例时,法律、政府才会以特定的方式发挥作用。
问:在《人工智能权利法案》中的安全部分,要求“自动化系统的开发应与不同社区、利益相关者和领域专家协商,以确定系统的关注点、风险和潜在影响”。我们谈谈意见征询问题。比如,OpenAI发布了一项政策或一份愿景文件,说“我们认为需要就如何构建这些系统进行公开的意见征询”。但是现在没有统一的标准。你如何得到足够多的意见?你如何确保征询具有足够的代表性?假如谷歌宣布在市政厅会议上征询了公众意见,但它却没有遵循,这意味着什么?你如何确保这类征询是有意义的?
纳尔逊:我们在开发和部署人工智能技术方面面临着许多挑战,但我认为任何与政策和专业知识相交的领域都变得越来越抽象。因此,《人工智能权利法案蓝图》试图做的,就是在某种程度上围绕这个问题扩大咨询基矗你提到了OpenAI的案例,他们进行了很多意见征询活动,并希望做得更多。我认为我们已经可以看到,随着某些聊天机器人和生成式人工智能工具的推出,更多人的参与可能会改变我们当前的困境。
但由于这些工具正面向消费者发布,因此作为政策制定者,我们试图向人们解释什么是自动化技术,以及从现在起未来5年到10年的影响,有时面临着很大挑战性。不过也正因为如此,我们知道有上亿ChatGPT用户都对这些技术发表了自己的看法。我认为,这种意见征询非常重要,不是专家的人也明白他们可以在这方面发挥作用和发出声音。
问:马克扎克伯格和其他Facebook高管现在已经多次出现在国会。在这些漫长的听证会上,他们可能已经被问了成百上千个问题。其中,已经80多岁的议员奥林哈奇曾问道,你们如何维持用户不为服务付费的商业模式?扎克伯格笑着说:“参议员,我们做广告。”这类情况已经发生过很多次,给人的感觉是公共部门缺乏足够的技术专业知识。我认为这是这些交流总是失败的原因之一,因为它们引发了许多公众质疑,导致人们对公共部门在技术问题上的能力失去信心。
纳尔逊:我把这些事情描述为政治戏剧,这些政治听证会显然对制定技术政策没有太大实质性帮助。我的意思是,需要与更多选民对话、与商界领袖磋商以及做更多其他事情,才能有更大作用。因此我认为,举行政治听证会是一种令人费解的举动,这对我们没有好处。对于社交媒体、生成式人工智能和自动化系统,我们可能会有不同的看法,但帮助应对这些系统的人也应该有更高的专业知识,我们需要更多有专业人才进入公共部门工作。
问:OpenAI始终声称,他们正在做的是了解人工智能的安全性,为此需要在现实条件下运行这些非常强大的模型,进行实验、测试和研究,并试图理解如何控制它。因此,你可以想象,也许政府想要用大量的资金和人力构建自己的系统,这样他们就有能力真正理解它。到目前为止,我所看到的大部分都是围绕着监管私营部门的想法。公共部门也在构建自己的人工智能系统吗?
纳尔逊:实际上,这项工作已经在政府部门进行了1年多。就在刚刚过去的1月份,美国国家人工智能研究资源工作组发布了报告,他们向白宫和国家科学基金会提出了许多建议。事实上,关于人工智能创新方面,我认为有些解决方案是有害的,在推动创新和减轻损害之间取得正确的平衡将落在公共部门身上。
问:为什么没有更多地讨论这些系统的公众愿景?让我感到不解的是,一项潜在的变革性技术真的要留给微软、谷歌和Meta,让它们相互竞争和赚钱吗?我发现,关于这类情况没有太多来自前沿的讨论,这让我感到沮丧。我想知道在人工智能领域是否有更多这样的对话,你已经参与了,但我不知道?你会如何考虑建立这样的目标或计划?
纳尔逊:我认为气候变化领域的发展就是个很好的例子,来自许多不同部门的人都参与进来。我们也正在围绕人工智能建立积极的愿景。在过去的几周里,围绕着生成式人工智能展开了如此多的辩论,其中之一是社会文明的终结是否正在逼近?我发现,很多辩论都让人丧失信心。
对于我们来说,我们需要利用这种有史以来最强大的技术力量,这种生成式人工智能的力量和所有围绕它的东西,无论它是否达到通用人工智能的水平。我们需要想象它对工作的影响,以及人们如何用这些技术和工具工作。21世纪的梦想是,人们将有更多的闲暇时间,有各种各样的可能性。尽管我不再在政府部门工作,但是我确实认为,正在进行的各种努力结合在一起,正开始朝着你和我所向往的那种积极愿景前进。
问:欧盟也始终在努力制定人工智能法规,其《欧盟人工智能法案》是一项涉及面相当广的立法。你能谈谈欧美的做法有什么相似或不同之处吗?
纳尔逊:《欧盟人工智能法案》的制定是个漫长的过程,我认为它将在本月晚些时候最终敲定。他们的方法实际上基于风险案例,并考虑人工智能系统或工具是否上升到特定的风险水平,比如用于监视或干预。但其涉及的风险包括国家安全等问题,而不是用于应对低风险。
美国仍在等待正式的立法,就像拟议和即将出台的人工智能法案一样。但欧盟可能从中借鉴了很多东西,比如国家标准和技术研究所的人工智能风险评估框架,它提供了工具来思考一项技术的特定使用可能有多大风险,以及可能减轻这种风险的方法。另一方面,《欧盟人工智能法案》也有关于公民权利的价值观和原则,这与《人工智能权利法案蓝图》类似。
问:你如何看待人工智能的风险问题。在调查中发现,当与人工智能研究人员交谈时,他们倾向于认为:如果他们能够创造出通用智能,这种技术有10%的机会可能灭绝或严重削弱人类的力量。很多人担心这可能是一项终结人类命运的技术。你认为这些担忧有道理吗?
纳尔逊:正如我所说,我们已经生活在一个人类毁灭的可能性不再是零的世界里。而且我使用了人工智能对齐(AI Alignment)这个术语,它是指让人工智能系统的目标、价值观和行为与人类社会的期望保持一致,但通常这只能通过技术手段实现。不过在现实中,显然不仅仅存在技术问题。
问:作为一名研究科学的学者,你主要研究科学如何在现实世界中发挥作用。你能举个例子,解释下如何将具有破坏性的东西变成富有成效的东西吗?
纳尔逊:我做过的很多研究和写作都是关于边缘社区的,关于非裔美国人社区。有一件事既鼓舞人心又令人惊讶,那就是历史上到现在经常被技术深深伤害的社区,有时是其最虔诚的信徒,比如这个领域的早期采用者和创新者。
因此,我想说的是,我们所有人都相信技术和创新的力量,探索如何利用它们来改善人们的生活。我们需要相信,技术是为人们提供机会的工具,比如可能帮助延长我们的寿命,让我们更健康。(金鹿)