展会信息港展会大全

人工智能的发展需要时刻保持技术道德的监督
来源:互联网   发布日期:2020-07-07 06:58:52   浏览:7305次  

导读:研究人员发现了一种数学方法,可以帮助监管机构和业务管理,并监管人工智能系统做出偏向不道德的选择,这个选择可能会浪费资源和破坏性商业。 人工智能越来越多地用于商业场合。考虑使用AI设置要出售给特定客户的保险产品的价格。为不同的人设置不同的价格是...

研究人员发现了一种数学方法,可以帮助监管机构和业务管理,并监管人工智能系统做出偏向不道德的选择,这个选择可能会浪费资源和破坏性商业。

人工智能越来越多地用于商业场合。考虑使用AI设置要出售给特定客户的保险产品的价格。为不同的人设置不同的价格是有正当理由的,但是“玩弄”他们的心理或购物意愿也可能有利可图。

人工智能有很多可供选择的潜在策略,但有些不道德,不仅会带来道德上的代价,而且会产生巨大的潜在经济损失,如果利益相关者发现使用了这种策略,他们将对其施加一定的惩罚-监管机构可能处以数十亿美元,人民币或欧元的巨额罚款,客户可能会抵制你。

因此,在越来越多的决策无需人工干预的环境中,因此有强烈的动机去了解AI系统在什么情况下可能采取不道德的策略,并降低这种风险或在可能的情况下完全消除风险。

来自华威大学,帝国理工大学,EPFL和Sciteb Ltd的数学家和统计学家聚集在一起,帮助企业和监管机构制定新的“不道德优化原则”,并提供一个简单的公式来估算其影响。他们在2020年7月1日(星期三)在皇家学会开放科学杂志上发表的名为“不道德的优化原则”的论文中列出了全部细节。

“我们建议的“不道德优化原则”可用于帮助监管机构,合规人员和其他人员找到可能隐藏在较大策略空间中的问题策略。可以期望优化会不成比例地选择许多不道德策略,对其进行检查应显示在哪里问题可能会出现,因此建议如何修改AI搜索算法以避免将来出现此类问题。

赞助本站

人工智能实验室
AiLab云推荐
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港