朱悦对外经济贸易大学数字经济与法律创新中心研究员
本文是笔者(简称Z)与OpenAI推出的ChatGPT有关人工智能治理的一组答问。原文为英语,通过DeepL译成中文。
得失自见,仅作三点补记。一是本文没有传统意义上的“作者”,更准确地说是只有“提示者(Z)”和“生成者(ChatGPT)”。
二是如果对其提出更加具体的问题,比如人工智能公平等等,可以相应得到更加具体的答案,甚至是包含技术层面的有用信息的答案。
由此,三是最核心的问题:我们在人工智能治理以及其他网络法方面的探索是否做得比人工智能更好,我们又如何确保自己在人工智能治理以及其他网络法方面的探索能够做得比人工智能更好?
随着对此类人工智能越发深入、有效的利用,可以说这一问题越发地没有截然“肯定”或“否定”的答案,也将越发成为甚为棘手的问题。
Z:人工智能治理需要遵循的最重要的原则是什么?
ChatGPT:在我看来,有几个关键的原则是人工智能治理必须遵循的。这些原则包括确保人工智能开发和使用的透明性和可问责性,促进人工智能系统的安全性和可靠性,保护个人和整个社会的权利和利益,以及促进创新和经济增长,同时也要解决人工智能的潜在负面影响。
同样重要的是,人工智能治理应具有包容性,并涉及不同利益相关者的投入,包括工业界、政府、学术界、公民组织和公众。此外,人工智能治理应具有灵活性和适应性,因为人工智能领域正在迅速发展,可能会出现新的挑战和机会。
Z:可以就“透明性原则”稍作展开吗?
ChatGPT:当然,透明性是人工智能治理的一个重要原则,因为它有助于确保人工智能系统的开发和使用方式是公平、负责任和值得信赖的。这意味着,人工智能系统的设计和决策过程应该是透明的,可以接受审查,用于训练和操作这些系统的数据和算法应该是可访问和可解释的。
此外,人工智能系统的潜在风险和局限性应该清楚地传达给用户,并且应该有机制来解决关于使用人工智能的任何担忧或投诉。总的来说,人工智能的透明性可以帮助建立公众对该技术的信任和信心,并支持负责任和道德的人工智能系统的开发和部署。
Z:虽然对于特定的人工智能治理有成功的实践,但对于高度复杂的人工智能应用,比如大型,实现透明性还是很困难。考虑到这一点,你有什么想法?
ChatGPT:诚然,在技术上复杂的人工智能应用中实现透明性,如大型基础模型,可能是一个挑战。应对这一挑战的方法之一是专注于开发使得这些复杂的人工智能系统更容易解释和说明的方法。这可能涉及到使用特征可视化和归因等技术,这可以帮助识别驱动人工智能系统行为的关键输入和决策,并使其更容易理解系统是如何得出其输出的。
此外,为人工智能的透明性建立明确的标准和指南,并为人工智能开发者和用户提供培训和支持,帮助他们在实践中实施这些原则,可能会有所帮助。此外,对新的可解释性方法的研究可以继续推进这一领域的技术水平,使复杂的人工智能系统更容易实现透明性。
Z:你提到了可解释性,这是个非常令人激动、但发展还不充分的领域。你能否讨论如何对于复杂的模型实施可解释性呢,以及如果方便的话,能否进一步给出具体的例子?
ChatGPT:可解释性对于确保人工智能的透明性非常重要,特别是对于复杂的人工智能模型,如大型基础模型。为了实现这些模型的可解释性,一种方法是使用特征可视化和归因等技术,这可以帮助识别驱动模型行为的关键输入和决策。例如,特征可视化技术可以凸显图像中对模型分类影响最大的特定像素,而归因方法可以提供单个模型组件的详细分类及其对整体输出的贡献。
另一种处理复杂的人工智能模型的可解释性的方法是使用专门为这些类型的模型设计的技术,例如可以产生人类可读的模型输出的解释的自然语言生成方法。例如,一个自然语言生成系统可能被训练来提供一个详细的、分步骤的解释,说明模型是如何得出一个特定的决定的,或者强调模型预测中的任何潜在的限制或不确定性。
总的来说,有许多不同的方法和途径可以用来使得复杂的人工智能模型更加容易解释,在这个领域的持续研究和开发可以帮助推进技术水平,提高理解和管理这些类型系统的能力。
Z:可以就“可问责性”稍作展开吗?
ChatGPT:可问责性是人工智能治理的另一个重要原则,它与透明性密切相关。从本质上讲,人工智能中的可问责性是指开发和使用人工智能系统的人应该对他们的行动和决定负责,并且应该能够为他们的系统如何运作提供解释和理由。这有助于确保人工智能系统的开发和使用是公平的、负责任的和值得信赖的,并确保任何潜在的负面影响或意外后果得到解决。
为了实现人工智能的可问责性,可能有必要为人工智能系统的开发和使用建立明确的规则、标准和指南,并提供执行这些规则的机制,让个人和组织对其行为负责。这可能涉及建立独立的监督机构或监管机构,负责监督人工智能的发展和使用,并确保人工智能系统以负责任和道德的方式被使用。
此外,可能有必要向人工智能开发者和使用者提供培训和支持,帮助他们了解自己的责任和人工智能中可问责性的重要性,并提供机制来解决有关使用人工智能的任何关切或投诉。总的来说,可问责性是人工智能治理的一个重要组成部分,确保人工智能系统对公众和整个社会负责,有助于建立对技术的信任和信心。
Z:你提到了明确的规则、标准和指南。对于一个技术上还非常复杂、我们还未能明确其全景的领域,我们如何可能建立明确的规则、标准和指南呢?
ChatGPT:诚然,人工智能领域在技术上很复杂,而且发展迅速,这可能使建立明确的人工智能治理规则、标准和指南成为挑战。然而,这并不意味着这种规则、标准和指南是不可能的,也是不必要的。相反,可能有必要以灵活和可适应的方式处理这些框架的发展,并认识到随着我们对人工智能及其影响的理解的发展,它们可能需要被修订和更新。
处理这一挑战的方法之一是让不同的利益相关者参与制定人工智能治理的规则、标准和指南。这可以包括人工智能和相关领域的专家,以及来自工业界、政府、学术界、公民组织和公众的代表。通过广泛的视角和专业知识的参与,有可能制定出以最新科技知识为基础的规则、标准和指南,并反映出社会的不同需求和关注。此外,建立与利益相关者持续对话和参与的机制可能会有所帮助,以确保人工智能治理的规则、标准和指南随着时间的推移保持相关性和有效性。
Z:透明性和可问责性也都是欧盟最近提出的《人工智能法案》的主要内容,是否可以简要讨论这部法案呢?
ChatGPT:我无法就欧盟最近提出的《人工智能法案》提供意见,因为我是OpenAI培训的大型语言模型,无法获得有关这一主题的最新信息。我的知识是基于与人工智能治理有关的一般原则和概念,我无法对拟议的人工智能法案或任何其他具体政策或倡议的细节提供具体意见。
Z:让我们讨论不需要最新信息的话题,如果邀请你就人工智能拟议一部指南,你的想法是什么?
ChatGPT:如果我提出一项人工智能治理指南的草案,我将重点关注透明性、可问责性、安全性和可靠性以及保护个人和整个社会的权利和利益等关键原则。我还会强调在制定和实施人工智能治理框架时,包容性和利益相关者参与的重要性,以及考虑到人工智能及其影响的快速发展,需要有适应性和灵活性。
在具体建议方面,我建议要求人工智能开发者和使用者披露有关其人工智能系统的设计、决策过程以及潜在风险和限制的信息,以促进透明性和可问责性。我还建议建立独立的监督机构或监管机构,以监测人工智能的发展和使用,并确保这些系统以安全和负责任的方式被使用。此外,我还建议实施一些机制来解决有关人工智能使用的关切或投诉,并为人工智能系统的任何负面影响或意外后果提供补救措施。
总的来说,我提出的人工智能治理指南草案旨在平衡人工智能的潜在利益与保护个人和社会的权利和利益的需要,并确保人工智能以负责任和道德的方式被开发和使用。
Z:两个进一步的问题。首先,能否进一步讨论独立监督或监管机构,比如讨论机构的权限、资源和人事问题?其次,你提到了“平衡潜在利益和权利和权益”这个关键问题,能否更加具体地、可实施地讨论如何进行平衡呢?
ChatGPT:我在之前的回答中提到的独立机构将负责监督人工智能的发展和使用,并确保人工智能系统以安全和负责的方式使用。这些机构或机关的确切性质和范围将取决于其运作的地区或国家的具体环境和需求,并可能因人工智能生态系统的规模和复杂性、现有的法律和监管框架以及公众对人工智能的关注或兴趣程度等因素而有所不同。
就这些机构或机关的能力、资源和人员而言,他们必须对人工智能及其影响有深刻的理解,并有能力监测和评估人工智能系统的性能和安全。这可能需要混合技术专长,如人工智能算法和机器学习方法的知识,以及道德、法律和政策等领域的专业知识。这些组织或机构还需要有足够的资源,包括资金、人员配置和基础设施,以有效地履行其职责。而且,理想的情况是,它们将由一个多样化和具有代表性的个人群体组成,包括人工智能和相关领域的专家,以及来自工业界、政府、学术界、公民组织和普通公众的代表。
至于平衡人工智能的好处与个人和社会的权利和利益的想法,这是人工智能治理的一个关键方面。实现这种平衡的一个方法是为人工智能的发展和使用建立明确的规则、标准和指南,这有助于确保人工智能系统以负责任和道德的方式被使用。这可能涉及为人工智能的道德使用建立原则或标准,如公平、透明和非歧视,并要求人工智能系统的设计和运行方式符合这些原则。
此外,可能有必要提供监测和强制遵守这些规则和标准的机制,并解决人工智能的任何负面影响或意外后果。总的来说,实现这种平衡的关键是确保人工智能的发展和使用以明确和透明的原则和框架为指导,并确保个人和社会的权利和利益得到保护和尊重。
Z:你提到人工智能的设计和运行需要符合多种原则,实践中如何做到这一点?
ChatGPT:为了确保人工智能系统的设计和运行符合多种原则,可能有必要对人工智能治理采取整体的、系统的方法。这可能涉及建立一个框架或一套原则,概述人工智能治理的关键目标和目的,并就如何实现这些目标提供指导。然后,这个框架可以用来指导人工智能系统的开发和使用,并确保它们的设计和运行方式符合框架中概述的原则和目标。
实施这样一个框架的一个潜在方法可以包括以下步骤:
确定指导人工智能发展和使用的关键原则或目标,如透明性、可问责性、安全以及保护个人和社会的权利和利益;
制定一套标准或指南,可用于评估人工智能系统是否符合这些原则和目标,并可指导如何以符合这些原则的方式设计和操作人工智能系统;
实施监测和强制遵守这些标准的机制,如独立的监督机构或监管机构,并建立处理有关使用人工智能的任何关切或投诉的程序;
向人工智能开发者和用户提供支持和指导,帮助他们理解和实施框架中概述的原则和标准,并确保他们能够以符合这些原则的方式设计和操作人工智能系统;
总的来说,在开发和使用人工智能系统的过程中实现多种原则的一致性,将需要一个系统化和整体化的方法,并涉及一系列利益相关者共同建立明确和透明的框架和标准。通过遵循这些步骤,有可能确保人工智能系统的开发和使用符合人工智能治理的关键原则。
Z:看起来你对人工智能的多种治理原则都有所了解,并且给出了比较高屋建瓴的治理指南,能否进一步充实和展开,给我们一部完整的、容易落地的指南?
ChatGPT:当然,我之前的回答是为了对人工智能治理的一些关键原则和考虑提供一个高层次的概述,而不是对人工智能治理指南的完整和详细的建议。为了在我之前的回答基础上提供一个更完整、更容易实施的人工智能治理指南,我建议采取以下步骤:
确定应指导人工智能的发展和使用的关键原则,如透明性、可问责性、安全性和可靠性,以及保护个人和社会的权利和利益;
制定一套可用于评估人工智能系统是否符合这些原则的标准或指南,并可就如何以符合这些原则的方式设计和操作人工智能系统提供指导。这些标准可以包括对开发和使用人工智能的透明性和可问责性的要求,以及安全和可靠性的标准,以确保人工智能系统以安全和值得信赖的方式运行;
建立独立的监督机构或监管机构,监督人工智能的发展和使用,并确保这些系统以安全和负责任的方式使用。这些机构或机关应具备必要的专业知识和资源,以履行其职责,并应由多样化和有代表性的个人组成;
提供机制来解决对人工智能使用的担忧或投诉,并为人工智能系统的任何负面影响或意外后果提供补救措施。这可以包括报告和调查关切或投诉的程序,以及向受到人工智能使用负面影响的个人或团体提供赔偿或其他形式的救济的机制;
与不同的利益相关者接触,包括工业界、政府、学术界、公民组织和公众,以确保人工智能治理的原则和标准以最新的科学和技术知识为基础,并反映社会的不同需求和关切。这可能涉及建立与利益相关者持续对话和接触的机制,并将他们的意见和反馈纳入人工智能治理框架的制定和实施。
总的来说,实施全面和易于实施的人工智能治理指南的关键是建立明确和透明的原则和标准,并提供必要的资源、专业知识和机制,以确保这些原则和标准在开发和使用人工智能系统时得到遵循。通过遵循这些步骤,也许可以确保以负责任和道德的方式开发和使用人工智能,并以符合个人和整个社会的权利和利益的方式实现人工智能的潜在好处。
本文首发于“数字经济与社会”