展会信息港展会大全

人工智能发展何时突破枷锁?
来源:互联网   发布日期:2022-06-30 13:04:08   浏览:23042次  

导读:本文转自:人民邮电报 近日,某品牌汽车在样车测试期间发生事故,造成了很大的人员财产损失,第一时间冲上了新闻头条。同时,被舆论关注的还有老生常谈的汽车自动驾驶问题。自动驾驶是否安全?是否应该开放自动驾驶?在自动驾驶的外壳下,人工智能能否拥有道...

本文转自:人民邮电报

近日,某品牌汽车在样车测试期间发生事故,造成了很大的人员财产损失,第一时间冲上了新闻头条。同时,被舆论关注的还有老生常谈的汽车自动驾驶问题。自动驾驶是否安全?是否应该开放自动驾驶?在自动驾驶的外壳下,人工智能能否拥有道德判断作为问题的核心也难下定论。“电车难题”人工智能面临道德困境美国MIT设计了一个名为道德机器(Moral Machine)的网站,网站设计汽车失控的各种情景让观众做出选择,通过收集300万用户的反馈,道德机器发现,人们更倾向于让自动驾驶车自毁以保障更多人的生命,却希望自己的车没有这个特征。这一结论与文化、习俗无关,是人类通常普遍的选择,与社会普遍认知相契合,人们希望通过牺牲少数人的生命换取更多人的生命。但这与法律是相违背的,因为人的生命本身并不可以进行比较和量化。这是自动驾驶不可避免的道德问题。一方面,如果允许AI在失控中做出决策,根据权责一体的规定,也就意味着AI或其背后的自动驾驶公司应当对决策行为承担责任。另一方面,如果不允许AI做出决策,则不能称为自动驾驶因为自动驾驶汽车的定义是不需要人为操作即能感测其环境及导航驾驶的汽车。自动驾驶遇到的“电车难题”只是人工智能行业遭遇的困境的一个缩影。尽管随着科技的进步和大数据行业的发展,人工智能模型越发成熟,但是在涉及道德、意识等人性方面的问题时却陷入尴尬的处境:根据人工智能“奇点”论,人工智能终会在理性和感性方面超过人类,但对人工智能的安全问题,人类又历来有“弗兰肯斯坦情结”,一般人类在心理上无法接受与非生物的机器产生共情。今年6月上旬,谷歌2021年推出的对话应用语言模型LaMDA被其负责人之一的工程师莱莫伊爆出“有意识”。他认为LaMDA模型是一个有着自我意识能够感知这个世界的“人”,拥有七八岁孩童的智力。莱莫伊说LaMDA模型不仅认为自己是一个人,还要争取自己作为一个人的权利并积极地为其进行辩护。事情爆出后,许多网友支持莱莫伊,认为人工智能的奇点已经到来,相信人工智能已经变得有意识和灵魂,可以像人一样进行独立思考。价值判断人工智能的爆雷区人工智能是否有道德,即人工智能是否应当有价值判断?如果认为人工智能有道德,意味着人工智能可以摆脱人的意志支配,对事件或事物进行独立评价。这一点在技术层面并不难实现,通过大量的数据“饲养”,人工智能可以将事件或事物数字化,按照深度学习形成的一套“判断标准”进行衡量。上文中的LaMDA模型也是如此。但事实上,LaMDA模型只是一个应答机器,知名机器学习和神经网络专家Gary Marcus表示:“LaMDA只是在人类语料库里提取字眼,然后匹配你的问题。”从这一点分析,所谓的人工智能“道德”也只是对事件或事物的应答,并不能深刻理解何为道德评价以及道德评价的意义。再比如,不同的人工智能模型面对相同的情景时有不同的处理方式。仍以自动驾驶为例,以同样的方式冲向同样的桩桶,结果却截然不同。有的直接冲撞,有的躲避。这能上升到道德高度吗?很显然不能,甚至这两种模型没有优劣之分,因为基于不同的理念和要求设计出的模型有特殊性,前者认为此种情况属于驾驶员操作范畴,无需介入;而后者认为应当介入。再退一步讲,假设人工智能拥有像人一样的意识,可以独立思考,就意味着可以寄希望于它能解决道德问题吗?答案是否定的。简单地说,人类本身不能解决的道德问题不能指望在无“人性”概念的数字身上得到解决。从这个角度分析,发展人工智能的价值判断并没有道德层面的问题,更重要的是分析为何要进行道德评价。道德评价的根本是为了得出一个结果并为后续行为进行指引。记者认为,在人工智能的归责上,应当将人工智能区分为决策系统和执行系统,并对相应的系统引入“负责人”制度。在决策角度,尽管从法律角度惩罚行为不惩罚思想,但只是针对自然人。而现行人工智能的“思想”是可以通过数据的方式表达出来的,故从决策层面来看,人工智能仍存在管控需要。人工智能的“思想”存在错误,究其原因是训练算法的数据存在问题,即人工智能学习了社会存在的问题并加以运用。如美国的电商品牌亚马逊在进行员工录取时运用人工智能算法对候选人的简历进行初步筛选,结果更加倾向于男性,因为工程师在对该算法进行训练时,用的是之前亚马逊已经被录用员工的简历进行训练的,而亚马逊男性员工偏多。结果就是这样的算法使得亚马逊的简历筛选算法更加倾向于男性,造成了算法的“性别歧视”。记者认为,如果是因为算法和训练数据的原因造成的法律结果,则结果应当对负责算法设计或训练的责任主体进行追责。在行为角度,即便是人工智能在行为执行度上已经能媲美甚至超越人类,在法律层面,人工智能仍被视为物而并非权利能力的主体。这也就意味着现在的法律否认人工智能能独立承担法律责任,本质上是因为人工智能不能对其所实施的行为负责,设立“负责人”制度类似于法人组织的法定代表人制度,由具体的自然人承担由行为而产生的责任。而将“思维”和“行动”区别开,则可以在归责方面更加细化,在保障有效承担责任的同时不至于影响人工智能行业发展的积极性。在现行民事领域,人工智能产品侵权适用产品责任,强调对研发者、生产者和销售者的责任。


赞助本站

相关内容
AiLab云推荐
推荐内容
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港