展会信息港展会大全

“AI开发者日”观察:如何实现AI技术可信赖?
来源:互联网   发布日期:2022-09-06 19:34:00   浏览:17969次  

导读:21世纪经济报道记者 蔡姝越 上海报道 近年来,AI for Science预训练新范式自监督学习计算机图形学深度学习框架等关键词,是AI开发者重点关注的几个研究方向。 9月3日,由机器之心主办的WAICAI开发者日论坛作为世界人工智能大会的重要分论坛之一,在张江科学...

21世纪经济报道记者 蔡姝越 上海报道

近年来,“AI for Science”“预训练新范式”“自监督学习”“计算机图形学”“深度学习框架”等关键词,是AI开发者重点关注的几个研究方向。

9月3日,由机器之心主办的“WAICAI开发者日”论坛作为世界人工智能大会的重要分论坛之一,在张江科学会堂正式拉开帷幕。据悉,“WAICAI开发者日”论坛是大会期间唯一一场面向 AI开发者和技术人员的活动,也是最受关注的人工智能技术论坛之一。

上海市经济和信息化委员会总工程师张宏韬在论坛开幕式致辞中指出,人工智能是上海落实国家战略部署重点发展的三大先导产业之一。“近年来,上海着力建设人工智能上海高地和世界级产业集群,已形成产业集聚、创新活跃、要素融通、开放共享的良好发展生态。AI开发者作为其中一项重要力量,链接了理论技术与应用实践,是人工智能产业发展的加速器和主力军。”他表示。

值得关注的是,多位专家学者在会议中分享了近期在研AI技术的最新进展,包括多模态AI技术、可控文本、AI技术与RPA技术的结合等。此外,如何在技术快速发展的过程中,实现AI“可信赖”,也是本次会议的关键议题之一。

多项AI在研技术取得最新进展

“多模态交互”技术是近期AI领域的关注重点之一。据悉,“模态”(Modality)是德国理学家赫尔姆霍茨提出的一种生物学概念,即生物凭借感知器官与经验来接收信息的通道,如人类有视觉、听觉、触觉、味觉和嗅觉模态。而多模态交互与传统的深度学习(Deep Learning)的不同点在于,用户可以通过声音、肢体语言、信息载体、环境等多个通道与计算机进行交流,充分模拟人与人之间的交互方式。

清华大学惠妍讲席教授、衔远科技创始人周伯文分享了清华协同交互智能研究中心目前的主要研究课题,即“智能体在于以人为中心的世界和环境交互的过程中,如何不断地迭代和自我学习”。主要研究方向就包括多模态表征交互、推理等方面,而研究的核心则会围绕“可信赖AI”进行设计。

上文中提到的多模态AI技术,目前主要存在三个发展趋势。周伯文指出,多模态AI的第一个发展趋势是越来越多的人在构建统一的、跨场景、多任务、多模态的技术原型。第二个发展趋势是越来越多地采用自监督学习(Self-supervised learning)的方式,通过构建自监督任务,能够提高多模态的表征能力,同时缓解了缺少大规模监督数据的挑战。而第三个趋势则在于多模态的表征跟知识的融合开始有更进一步的拓展,如何更精确、更自动化地生成大模型的知识和推理表征,将会是接下来的重点工作。

此外,也有与会专家分享了如何通过AI生成“可控文本”这一技术的最新进展。

澜舟科技创始人兼CEO周明指出,用户在使用AI生成文本时,时常会面临词不达意的情况,此时便需要设定一些可控参数来达到自己想要的效果,这便是生成“可控文本”的技术原理。“基于神经网络的生成模型,目前我们已经构建了能够接受垂直数据或知识的图谱,并已开发了弱标注、学习数据构建、篇章结构建模、自动评测等技术,能够支持用户生成各种各样的文本。”他说。

另一方面,AI技术在机器人流程自动化(以下简称“RPA”)领域的应用与落地,也是本次论坛的重要议题之一。

实在智能创始人兼CEO孙林君认为,AI技术兴起后,在传统的RPA领域中,有很多的地方可以与AI进行结合。比如与语音、OCR等技术的结合,这是简单的加法。“RPA技术本身存在一些瓶颈,比如要去控制各种各样的软件时,首先要识别这些软件中的要素,但是识别过程强依赖于操作系统底层。”他进一步指出,RPA技术能力的瓶颈和AI结合后,可以实现进一步的突破,并能真正泛化至所有行业上的软件,成为普适性的自动化技术。

如何成为“可信赖AI”?

虽然近年来我国的AI技术进展颇丰,但目前仍存在着部分亟待克服的技术难点。

周伯文指出,“多模态理解”加“交互式学习”和以人为中心的设计模式,在未来的应用空间会越来越大,但是在发展过程中存在着一项较大的挑战如何让AI的理解和执行更可控,即如何让AI真正变成“可信赖AI”?

他认为,可信赖AI在发展的过程中主要面临着“鲁棒性”和“公平无偏”两项标准的挑战。

“日常生活中,有三个领域的AI技术容易受到攻击。一是在智能助手领域,可以通过在播放的音乐中插入噪音从而导致系统失控;二是在电商领域,僵尸用户通过一些社交行为改变系统的推荐机制;三则是通过扰动少量文本攻击感情分析系统。”周伯文举例说明了AI技术经常面临的三种攻击类型。

而在社会认知公平无偏的层面,他指出,目前的AI技术仍广泛存在着偏差的风险,尤其是在人脸识别和性别的默认问题中。“用户的行为会影响数据,数据会影响算法,如果数据具有广泛的代表性,那么算法就会出现偏差,随着技术的迭代,这一偏差会不断地放大,这就是人工智能落地发生的真实挑战。”周伯文说。

而聚焦至AI技术中的机器学习(Machine Learning)领域,九章云极开源技术副总裁、D-Lab主任杨健则提到,AI的高度发展,最核心的贡献便是来自机器学习。然而,机器学习随着大量的应用和普及,在实操过程中也出现了瓶颈和短板,在实现可信赖AI这一目标的过程中也遇到了诸多难点。

首先是泛化能力不足。杨健指出,根据福布斯提供的相关数据,全球范围机器学习的项目能够真正投入生产的只有10%多一点,训练不足、数据质量不达标、数据漂移等问题导致绝大部分项目最后无法投产。另一方面,可解释性缺乏,导致机器学习目前难以让用户理解为什么会做出这些决策,从而难以取得用户的信任,也成为了达到可信赖AI这一目标的障碍。此外,机器学习目前对决策任务的支持能力并不足够,仅依靠对未来结果的预测很难提供有效的决策选项。

若要让AI技术真正成为“可信赖AI”,又需要具体符合哪些条件?周伯文认为,可信赖AI需要具备6个原则和要素,即稳健性、可复制、可解释、公平、价值对齐、负责任

“以上提到的6个维度,背后本质上面临的都是技术挑战。但是AI一定具有社会属性,这一点也会倒逼AI开发者思考技术进步。我相信目前存在的问题,将会通过未来技术的进步逐一解决。”他说。


赞助本站

AiLab云推荐
推荐内容
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港