人脸识别因应用在进小区、动物园、商场等场景备受争议,最新发布的人工智能伦理安全风险防范指引似乎可以给出答案。
据全国信息安全标准化技术委员会官网1月5日消息,由全国信息安全标准化技术委员会秘书处编制的《网络安全标准实践指南人工智能伦理安全风险防范指引》(以下简称为“指引”)正式发布。
针对人工智能可能产生的伦理安全风险问题,该指引为组织或个人开展人工智能研究开发、设计制造、部署应用等相关活动提供了规范指引。依据规定,部署应用者应以清楚明确且便于操作的方式向用户提供拒绝、干预及停止使用人工智能的机制,并尽可能提供非人工智能的替代选择方案。
21世纪经济报道此前报道,去年11月,上述委员会就对《网络安全标准实践指南人工智能伦理道德规范指引(征求意见稿)》向社会公开征求过意见。据悉,此次指引为最终发布版本,用“伦理安全风险”代替了此前“伦理道德”的表述。
指引介绍了人工智能伦理安全风险防范的六个基本要求,其中要求应尊重并保护个人基本权利、人身、隐私、财产等权利,特别关注保护弱势群体。
对于研究开发者,指引提到,应避免研究开发可能被恶意利用进而损害人的基本权利的人工智能技术;谨慎开展具备自我复制或自我改进能力的自主性人工智能的研究开发,持续评估可能出现的失控性风险等六个具体规范。
对于设计制造者,指引同样给出六个具体规范,包括应不断提升人工智能系统、产品和服务的可解释性、可控性;及时、准确、完整、清晰、无歧义地向部署应用者说明人工智能系统、产品或服务的功能、局限、安全风险和可能的影响等。
对于部署应用者,指引有七点要求,其中明确提及,应以清楚明确且便于操作的方式向用户提供拒绝、干预及停止使用人工智能相关系统、产品或服务的机制;在用户拒绝或停止使用后,应尽可能为用户提供非人工智能的替代选择方案,特别注明用户停止使用包括因主观原因停止使用,以及因客观条件,如生理缺陷等,无法继续使用的情况。
对于用户,指引建议,应以良好目的使用人工智能、充分体现人工智能的正面价值,不应以有损社会价值、个人权利的目的恶意使用人工智能,同时应主动了解并反馈人工智能伦理道德安全风险。
相比征求意见稿,正式指引增加了对研究开发者、设计制造者、部署应用者积极推动安全风险以及相关防范措施宣传培训工作这一基本要求。在对部署应用者对要求上,正式指引增加了使用人工智能作为直接决策依据并影响个人权利时,应具有清晰、明确、可查的法律法规等依据的要求。此外,在术语与定义部分指引对“人工智能”的定义进行了精简,明确了可解释性、可控性的定义,即人工智能决策或行为的机制机理可以被人类理解的特性、人工智能与预期行为和结果一致的特性。
更多内容请下载21财经APP