许多专家认为人工智能(AI)可能会导致世界末日——只不过不是好莱坞电影让我们相信的那样。例如,电影情节中,机器人的智力会不断增长,直到它们取代人类。现实远没有那么戏剧化,但可能会带来一些不可思议的文化转变。
去年,埃隆·马斯克,史蒂芬·霍金和比尔·盖茨等行业领军人物致信在阿根廷召开的国际联合会议,称成功采用人工智能可能是人类取得的最大成就之一,或许也是人类历史上的最后一次成就。他们指出,人工智能带来了独特的伦理困境,如果不加以认真考虑的话,它可能会比核能更危险。
我们怎样才能在忠实于我们的道德义务的同时,实现人工智能技术?这个解决方案需要系统的努力。
建立伦理委员会
透明度是有效整合人工智能的关键。企业可能错误地认为道德只是缓解风险的一种行为。这种心态只会让创新陷入僵局。
创建一个公司道德委员会,从一开始就与你的股东一起决定哪些行为是道德的,哪些不是。将这一道德准则与你的商业文化价值观结合起来,在增加公众信任的同时,创造创新的产品。一个道德委员会成员应该参与所有新产品的设计和开发阶段,包括任何包含人工智能的产品。诚信是一个组织的基矗因此,你的道德观念必须是积极主动的,而不是被动的。
追求“安全”的创新
一个坚实的道德基础会带来好的商业决策。例如,开发一款产品,后来你发现它会对整个行业产生负面影响,这是没有意义的。从一开始就运用你的道德准则,你就能在明智地分配资源的同时创造积极的影响。
然而,一个道德委员会不是去告诉设计和开发团队他们能做什么和不能做什么。相反,该委员会应当鼓励团队在不侵犯公司文化价值观的前提下进行创新。可以把它看作是一个重要的制衡体系;一个部门可能会如此专注于一项新创新的潜力,以至于部门成员从来不会停下来考虑更大的后果。一个道德委员会可以根据令人兴奋的新进展来保护你的商业诚信,这些新进展有可能彻底重塑你的组织。
人工智能仍然是一个相对较新的概念,所以有可能做一些合法但不道德的事情。道德对话不仅仅是团队成员遵循的清单。他们需要对新产品和公司的意图提出尖锐的问题和反剩这种“苏格拉底式的方法”需要时间,可能会在团队成员之间制造紧张氛围——但这是值得的。
创建一个坚实的基础
不知道从哪里开始你的道德准则?首先阅读斯坦福大学“《百年人工智能研究》。这份报告以五年为时间跨度,回顾了人工智能对文化的影响,从人工智能的创新角度,展望了未来社会的机遇和挑战,并展望了未来的变化。它的目的是指导决策和制定政策,以确保人工智能造福人类。
把这份报告作为你的人工智能计划的一个有见地的框架。其他伦理框架的基本要素包括:
· 监督保障。你的公司道德是一种协作的努力。因此,你的道德委员会应该有一系列的制衡机制。
· 风险评估标准。每项创新都应满足基本要求,以确保降低风险。这些要求应该来自于你的道德委员会、开发人员、设计团队、高管层和利益相关者之间的讨论。
选择自治,而不是规则
科技行业担心的一个问题是,自我监管的失败只会导致外部监管。斯坦福大学的报告认为,要对人工智能进行充分监管是不可能的。风险和机会因范围和领域而异。尽管科技行业对监管的理念不以为意,但斯坦福大学的报告显示,各级政府都应该更清楚地认识到人工智能的潜力。
一个科技行业领袖委员会计划在本月召开会议,讨论人工智能的伦理问题,以及为企业制定一个大规模最佳实践指南的可能性。希望?这种讨论将产生自省,从而导致所有的人工智能公司都做出道德决策,使社会受益。这一过程需要时间,而科技公司的竞争是出了名的。但在这一点上,我们一致同意:这是值得付出努力的。(选自:huffingtonpost.com 翻译:媒体见外智能编译机器人 审校:吴曼)