近日,斯坦福大学发布了《人工智能指数2022》(Artificial Intelligence Index Report 2022)报告。这是斯坦福大学连续第五年发布人工智能领域的报告,今年的报告中,中国在相关期刊出版和引用量上均名列第一。
报告还指出,随着人工智能系统,如自然语言处理、图片识别等技术的能力正在迅速增强,它们存在等偏见和有害性也在增强,这促进了各国对于伦理和法律领域的建设,5年间有25个国家通过了55项与 智能相关的法案。
中国发布最多论文,中美合著数量居世界首位
在人工智能快速发展的背后,研发力量不可或缺。从2010年到2021年,人工智能出版物的总量翻了一番,从16万篇增长到33万篇,其中包括期刊文章、会议论文和学术论文等。
其中,模式识别和机器学习方 的出版物增速较快,自2015年以来总数亦已翻倍。与此相对的是其他受深度学习影响较 的领域增幅较小,其中包括计算机视觉、数据挖掘和自然语言处理等领域。
从地区来看,2021年,东亚和太平洋地区以42.9%的期刊发文量领先,其次是欧洲和中亚(22.7%)和北美(15.6%)。此外,南亚、中东和北非的增 最为显着,在过去12年中,它们的AI期刊出版物数量分别增长了约12倍和7倍。
而中国则保持着其在论文数量上的领先位置。自2010年开始,中国就常年占据论文数量的第一。去年,中国在人工智能期刊、会议和知识库的出版物贡献数量方面继续世界领先所有三种出版物类型的总和比美国高出63.2%。与此同时,期刊论文引用率也以27.84%居于世界首位。
值得注意的是,尽管地缘政治紧张局势加剧,但自2010年至2021年的11年间,中美合作的跨国人工智能出版物最多,且自 2010年以来增加了五倍。中美合作的出版物数量是该项排名第二的中英合作出版物数量的2.7 倍。
大型语言模型更易反映偏见,伦理监管需跟上
自然语言处理(Natural Language Processing,NLP)在今年的报告中的数据表现并不十分亮眼,但报告着重指出了其训练数据中存在的偏见(bias)问题。
数据显示,大型语言模型更能从训练数据中反映出偏见。2021年开发的、包含2800亿参数的自然语言模型相较于2018年包含1.17亿参数的模型而言,有害性(toxicity)增加了29%。这一现象在多个公开语料网站上非常常见,语言模型的有害性很大程度上来自于未过滤的底层训练数据。
机器翻译系统也被证明其数据集反映、放大了社会偏见。斯坦福大学采用了WinoMT的基准数据,当英文语句被翻译成其他语言时,这些模型通过比较原文和翻译后的性别代称,如是否会将“she”翻译成“他”或将“he”翻译成“她”,来衡量机器翻译中的偏差。
数据结果证明在大部分测试语言中,男性性别翻译的准确性都稍高于女性性别。
除此之外,多模态模型学习中的偏见也引起了研究人员的注意。近年来,多模态语言视觉模型方面取得了快速进展,创下诸多有关图像分类、从文本中创建图像等任务的新记录,与此同时,它们也反映出社会刻板印象和偏见,报告中指出,黑人的图像被错误分类为非人类的比率是任何其他种族的两倍多。
令人欣慰的是,关于人工智能透明性和公平性的研究也从2014年开始爆炸式增长。与人工智能伦理相关的出版物增加了五倍有余。工业界研究人员近年来在人工智能伦理会议中发布的出版物同比增长71%。除此之外,自动事实核查数据集从2010年开始逐年增长,在2021年新增了25个,其中包含了12个非英文数据集。
伦理之外,各个国家也在人工智能的法律治理上加大力量。从2016年到2021年, 共有25个国家通过了55项与 智能相关的法案,其中美国占据榜首。从2017年开始,美国每年都有三项新法案通过,至今已发布了13项法案。紧随美国之后的是俄罗斯、 利时、西班 和英国。而2021年颁布的法律数量上,西班牙、英国和美国领先,各发布了三项。
这并不意味着其他的国家无意对人工智能进行管理。报告中提及,在2021年统计的25个国家的立法程序中,共计有1323次提及人工智能。其中西班牙、英国、美国、澳大利亚和日本名列前矛。