展会信息港展会大全

张晓:“四镜透视”人工智能的发展与治理
来源:互联网   发布日期:2024-08-14 08:48:14   浏览:3288次  

导读:【文/观察者网专栏作者 张晓】 近年来,人工智能展现出推动产业升级与可持续发展的巨大潜力,布局人工智能已经成为全球各国政府的共识,对人工智能的治理也日益引起各界关注。由于其巨大影响力和快速迭代力,国际社会正在越来越多的讨论和逐步形成共识:考虑...

【文/观察者网专栏作者 张晓】

近年来,人工智能展现出推动产业升级与可持续发展的巨大潜力,布局人工智能已经成为全球各国政府的共识,对人工智能的治理也日益引起各界关注。由于其巨大影响力和快速迭代力,国际社会正在越来越多的讨论和逐步形成共识:考虑到潜在的安全风险,我们不能简单沿用传统的“发展先行,治理随后”的模式。相反,人工智能领域需要采取同步发展与治理的策略。

在此背景下,2023年10月,联合国组建高级别人工智能咨询机构,明确将制定人工智能风险管理框架作为其下一步工作重心,旨在监管人工智能发展,应对可能风险。由此,人工智能如何布局、如何发展,需要政府部门、产业主体、科研院所、监管机构等多方共同凝聚智慧,形成有效的人工智能治理方案。

人工智能治理需要发挥政府部门“望远镜”作用,开展前瞻性的研究规划部署。

政府部门要看到人工智能发展的过去与未来,前瞻性研究国内外发展的现状和问题,充分发挥人工智能治理“望远镜”的作用,综合性思考问题,系统性解决问题。

当前,全球各国政府纷纷加速规划布局人工智能产业,通过鼓励跨学科和跨部门的伙伴关系,支持知识和资源共享的开放平台,促进人工智能研发创新和合作创新的文化。例如,2023年10月,习近平主席在第三届“一带一路”国际合作高峰论坛上提出《全球人工智能治理倡议》,欢迎各国政府、国际组织、企业、科研院校、民间机构和公民个人等各主体秉持共商共建共享的理念,协力共同促进人工智能治理。

张晓:“四镜透视”人工智能的发展与治理

北京通用人工智能研究院(Beijing Institute for General Artificial Intelligence,简称BIGAI)是在北京市委市政府的指导和支持下,由北京市科委推动成立的非营利性世界一流新型研发机构。网络图片

与此同时,在强化人工智能安全治理过程中,风险导向成为各国对人工智能的普遍治理路径,欧盟也就《人工智能法案》达成协议。在2023年底举办的首届全球人工智能安全峰会上,包括中国、美国、英国在内的28个国家及欧盟共同签署旨在推动人工智能全球治理的《布莱奇利宣言》,针对人工智能的治理体系具备雏形。

人工智能治理需要发挥产业主体“放大镜”作用,成为产业升级催化剂和加速器。

人工智能大模型成为产业发展的动力引擎,已经初步显现出对各行各业的颠覆式影响,有利于释放生产力的发展潜力,助力产业主体充分发挥“放大镜”的倍增、叠加作用。2024年将是人工智能技术落地产业应用的关键年,以大模型为代表的生成式人工智能技术发展迅猛,加速赋能千行百业。

在人工智能领域,构建越来越大的模型并不一定是最终目标,将人工智能技术转化为具体的、可行的解决方案和产品,对于推动人工智能行业发展和实现商业价值至关重要。智能涌现带来的新技术商业模型、新的智能组织和技术架构,或许仅是人工智能技术落地应用的冰山一角。当前,我国经济已经由高速增长阶段转向高质量发展阶段,处在转变发展方式、优化经济结构、转化增强动力的攻关时期,这就迫切需要产业主体发挥人工智能重大创新的助力作用。

人工智能治理需要发挥监管机制“显微镜”作用,确保AI安全透明和可解释性。

人工智能治理需要确保人工智能系统透明、公平、可解释,通过发挥监管机构的“显微镜”作用,可以将紧迫的问题深入研究,厘清其中缘由,并快速进行解决。监管机构需要关注人工智能系统的目标、方法、数据源和结果的清晰可访问,并允许反馈和监督机制,对利益相关者和公众负责。

其中,可扩展监督、可解释性研究、模型评估等价值对齐方式是行业的主要探索方向。例如,我国的《生成式人工智能服务管理暂行办法》积极应对生成式人工智能在训练数据、算法模型、生成内容、个人信息权益等方面产生的风险;欧盟《人工智能法案》对人工智能进行分级监管和风险规制。

张晓:“四镜透视”人工智能的发展与治理

当地时间2023年6月14日,法国斯特拉斯堡,欧洲议会全体会议上,议员们就人工智能法案进行投票。网络图片

与此同时,人工智能治理议题也正从隐私保护、数据安全、算法黑箱、模型漏洞等传统技术安全议题,向应用于生物、化学、核能、关键基础设施等领域的底层安全问题扩展,监管机构要确保人工智能的参与主体,充分遵守相关的法律、法规和标准,遵循适用的数据保护、隐私、安全、质量规范以及伦理道德约束。

人工智能治理需要发挥利益相关方“多棱镜”作用,实现均衡协调可持续发展。

当前,各国政府、国际组织、学术科研机构、产业组织、科技公司高度关注人工智能治理,这就需要充分发挥“多棱镜”的作用,反映体现多利益相关方的核心关切。以联合国互联网治理论坛(IGF)为代表的全球人工智能多利益相关方,将推动人工智能治理的规则与实践探索进一步走深向实。

多利益相关方需要具备包容性,尊重人的尊严、权利和多样性,在所有的人工智能应用程序执行过程中,确保人工智能系统不会歧视、伤害或利用任何群体的特征,尊重观点和价值观的多样性。

多利益相关方也需要努力通过实施减少能源消耗、废物产生和温室气体排放,并促进社会正义和人类发展的人工智能系统,最大限度地减少人工智能系统对环境、社会和人类福祉的负面影响。

此外,人工智能的伦理问题是一个典型的交叉学科范畴,落到现实语境下要成为可执行的治理行动,更加需要以多方参与的形式、综合运用各种手段,来促进公平和可持续发展。

综上所述,人工智能快速发展势必带来新问题、新挑战、新风险,尽管如此,政府部门要看到人工智能发展的明天,充分发挥治理“望远镜”的作用,积极前瞻性布局,引导产业健康发展。企业要充分发挥“放大镜”的综合作用,加速人工智能技术研发和场景落地,通过新质生产力造福民众。监管部门要更好地发挥“显微镜”的作用,为产业健康可持续发展保驾护航。此外,要调动各方积极性,发挥“多棱镜”的作用,反映多利益相关方诉求,为实现人类可持续发展目标作出贡献。

综上所述,人工智能的发展和治理尚无固定或者成熟模式可依,要实现二者的有机结合,我们需要持续秉承长期主义的理念,坚定而审慎地开拓,致力于寻找一条符合我国国情的人工智能发展路径。

本文系观察者网独家稿件,文章内容纯属作者个人观点,不代表平台观点,未经授权,不得转载,否则将追究法律责任。关注观察者网微信guanchacn,每日阅读趣味文章。

赞助本站

相关内容
AiLab云推荐
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港