“未来1020年,AI技术将渗透至与人类密切相关的领域,比如医疗、司法、生产、金融科技等风险敏感型领域,AI技术如果犯错,就会造成较大系统风险。”2020年12月29日,在未来科学大奖周举办的“青年对话”活动中,清华大学计算机系长聘副教授、中国科协全国委员会委员崔鹏说。
活动中,腾讯科学技术协会秘书长张谦表示,面对AI技术所引起的风险问题,首先应该关注的是守住AI产品底线,即避免技术作恶。
在这方面,美团首席科学家夏华夏认为,法律法规方面需要做大量工作,包括制定AI行业的标准、规范,以及从国家层面完善、出台相关法律法规,从而对AI技术发展进行把控。
谈及AI标准化的实践,中国人民大学法学院副教授、未来法治研究院社会责任和治理中心主任郭锐提到两个原则人的根本利益原则和责任原则,“这两个原则的宗旨是让AI的决策和行动尽可能通过人的干预来避免对人的伤害”。
“徒法不足以自行。”郭锐坦言,法律本身也存在局限,规避AI技术潜在风险,需管理者对AI技术有透彻的了解,这样才能对其进行有效管制,“法律是建立包容性社会的重要工具,法律界要和企业、技术等方面专家合作,这样通过法律来对AI技术进行管理约束的目标才能达成。”
星界资本管理合伙人方远认为,各大核心数据平台处于AI风险管理的重要位置,“在互联网和大数据时代,大平台是数据的采集者也是守护者。务必要对数据使用权做出清晰界定,这对整个社会的AI发展有重要意义”。
“AI技术的风险治理需要科技工作者、企业管理者、政策制定者、相关法律专家以及投资人多方努力。”中科院计算所研究员山世光说。
除了守住底线,与会者还提到,要厘清边界,引导技术向善。
崔鹏指出,犯错并非AI特有的风险,人也会犯错。“但人犯错大多数可控、可预测。而目前AI技术犯错的话是不可预测的,或者犯错后人们会发现其犯错机制是无法从技术层面解释的。这涉及到AI在决策和行为上的边界问题。”
厘清边界具体包括AI需要明白它会什么、不会什么,以及人需要明白AI什么事能做、什么事不能做等问题。崔鹏认为,如不厘清边界,AI还会犯更多低级错误,带来更大风险。
郭锐认为,目前AI遇到的伦理问题,实际上是因为它远未达到人类智能的程度,却已被赋予为人类做决策的责任,“还有人把AI技术当作借口,用科学的名义做不符合伦理的决策,这样做是不对的。需要人决策的地方应该由人决策”。
2020年新冠肺炎疫情期间,英国用一套算法得出学生成绩,结果近40%的学生成绩低于教师的预估分数,导致很多学生与名校失之交臂。山世光说,有些人工智能模型或数据模型没有考虑到社会公平、优势累计恶果,导致看起来运算过程很严谨、结果很准,但却并不足以支持AI做出科学决策。
有专家表示,这并非AI技术的错。夏华夏说,真正应承担社会责任的是使用AI技术的人、企业等。AI技术向善需要社会整体文明发展到一定阶段,形成良好氛围。张谦则提到,技术并不可怕,可以通过技术进一步发展解决技术存在的问题。
山世光称:“说到底,我们还是希望AI技术能得到健康发展,满足对科技真、善、美的追求。”