展会信息港展会大全

图灵奖得主约瑟夫·希发基思:讨论AI风险时,需区分是人为因素还是技术风险
来源:互联网   发布日期:2024-10-28 08:13:31   浏览:626次  

导读:划重点 012007年图灵奖得主约瑟夫希发基思表示,谈论AI风险时需区分人为因素和技术风险。 02人为风险包括算法需求不完整性、算法设计缺陷和外部环境威胁。 03技术风险分为两种,一种是用户提出的需求可能不合法或不道德,另一种是用户将系统用于风险中。 04...

划重点

012007年图灵奖得主约瑟夫希发基思表示,谈论AI风险时需区分人为因素和技术风险。

02人为风险包括算法需求不完整性、算法设计缺陷和外部环境威胁。

03技术风险分为两种,一种是用户提出的需求可能不合法或不道德,另一种是用户将系统用于风险中。

04约瑟夫希发基思认为,应针对人为风险和技术风险分别制定相应对策。

05康奈尔大学计算机科学和信息科学讲席教授乔恩克莱因伯格指出,人类自身的排外偏见会导致算法与生俱来的偏见,引发人类社会混乱。

以上内容由腾讯混元大模型生成,仅供参考

“现在,当我们谈论使用人工智能带来的风险时,我们应该区分哪些风险是人类带来的,哪些风险是技术造成。”10月26日,在2024世界顶尖科学家智能科学大会“为人类永续发展制定AI治理框架”主题论坛结束后,Verimag实验室创始人、2007年图灵奖得主约瑟夫希发基思在接受澎湃科技(www.thepaper.cn)采访时表示。

图灵奖得主约瑟夫·希发基思:讨论AI风险时,需区分是人为因素还是技术风险

图灵奖得主约瑟夫希发基思在2024世界顶尖科学家智能科学大会上发表演讲。

约瑟夫希发基思于1946年出生于希腊,在法国完成硕士、博士学位,并成为法国格勒诺布尔大学(Université Grenoble Alpes)VERIMAG实验室创始人和科研主任,2007年希发基思因在模型检查理论和应用方面的贡献获得了图灵奖,这是计算机科学领域的最高荣誉之一。

在此次“为人类永续发展制定AI治理框架”主题论坛上,谈论起当前AI发展带来的风险问题,约瑟夫希发基思表示,现在,当我们谈论使用人工智能带来的风险时,我们应该区分哪些风险是人类带来的,哪些风险是技术造成。对于人工智能来说,非常有可能区分出哪些风险是人类使用技术造成的,哪些是技术本身造成的。

约瑟夫希发基思指出,前者包括算法需求的不完整性、算法设计的缺陷,以及算法部署时可能面临的外部环境威胁。后者分为两种,比如当客户或投资方对AI系统提出的需求可能不合法或不道德,用户也可能将系统用于风险中。对此,约瑟夫希发基思认为,应针对算法设计者和使用者的人为风险以及算法设计部署阶段的技术风险,分别制定相应对策。

“为了避免这一风险,法规非常重要,当前所有出现的问题,都是因为利益相关者没有给出明确的定义要求。技术可以适当地提高标准。”约瑟夫希发基思称。

约瑟夫希发基思在会后接受澎湃科技(www.thepaper.cn)采访时指出,当前,太多人谈论AI(人工智能),但什么是智能,如何真正地实现应用,这些人无法精确地回答。他认为,尽管人类在人工智能研究中取得了长足的进步,并迎来了生成式AI,但目前应用只是弱智能(weak AI),集中在问答应用上,并没有能够同步人工智能能力的技术和法则。

澎湃科技注意到,2024顶科协奖“智能科学奖”得主、康奈尔大学计算机科学和信息科学讲席教授乔恩克莱因伯格在此次论坛上也指出,当前人工智能发展,人类自身的排外偏见会导致算法与生俱来的偏见,进而引发人类社会的一系列混乱。受到经济激励的影响,人们在设计算法时容易陷入“单作”的状态。此外,人类在面对超越人类的AI系统时,认知上的落后会带来麻烦。在和此类AI系统开展合作时,控制权往往不在人类自己手里。但假如人工智能突然把控制权交了出来,那么人类就可能犯下严重错误,因为AI知道该怎么做,人类未必。

所以克莱因伯格认为,“在做人类判断和算法知识判断的时候,都要考虑风险偏见问题。”在设计时既要追求算法的强大,也要注意,事态不能发展到失控的地步。

赞助本站

相关内容
AiLab云推荐
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港