财联社7月17日讯(编辑 周子意)脑神经技术正日渐成为人工智能领域(AI)中一个有争议的应用,争议声围绕着关于隐私和人权的讨论。
越来越多人指出,脑神经技术和AI技术的结合可能会对人脑内的精神隐私构成威胁,这激起了一些关于建立道德框架、保障个人自由的呼吁声。
目前,联合国已经对脑神经技术的“潜在有害性”进一步发出警告,暗示大脑植入物和扫描可能会导致AI侵犯人类的私人思想。
神经技术
脑神经技术并不是一个新概念。研究人员长期以来一直在开发能够扫描、修复和增强人类大脑和神经系统的技术,脑机接口技术(BCI)就是其中典型的一种。
脑神经技术对很多人来说无疑是奇妙的,它让盲人看到外面的世界、让瘫痪者能够行走。
教科文组织的经济学家Mariagrazia Squicciarini称,AI 算法能够“以前所未有的方式”处理、学习数据,为脑神经技术注入了新的活力,就像“给神经技术打了类固醇(激素)一样”。
然而,随着近期强大的机器学习和AI模型的爆炸式增长,并逐渐渗透到脑神经技术领域,关于其监管问题的讨论也将被放大。
联合国秘书长安东尼奥古特雷斯对此也表示,AI技术正在“以惊人的速度发展”。
为了应对这些挑战,联合国上周在巴黎主办了神经技术伦理国际会议。该活动召集了政策制定者、人工智能专家、民间团体和私营企业,围绕神经技术的伦理问题展开了讨论。
伦理问题
在上周的会议召开之前,教科文组织总干事Audrey Azoulay传达了她的担忧情绪。
她指出,“脑神经技术可以帮助解决许多健康问题,但它也可以进入和操纵人们的大脑,产生一些关于我们的身份和情绪的信息。所以它可能威胁到我们的人格尊严、思想自由和隐私。我们迫切需要在国际层面建立一个共同的道德框架。”
联合国教科文组织负责社会和人文科学的助理总干事Gabriela Ramos在会议期间强调,“我们正走在通往另一个世界的道路上,在那个世界,算法将能够解码人们的心理过程,并直接操纵隐藏在人们大脑中的意图、情绪和决定背后的大脑机制。”
此次会议前,联合国教科文组织采访了患有癫痫的Hannah Galvin,她的大脑中曾安装了脑神经技术设备,以检测癫痫发作并通知患者何时躺下。
不过按照Galvin的说法,这个装置最终让她的生活变得更糟,她说她每天癫痫发作多达100次,所以这个装置不断地在提示她。
Galvin最终选择把这个装置移走了,她告诉联合国教科文组织,“我觉得脑袋里有个人,但那个人不是我。我变得越来越沮丧。我一点也不喜欢它。”
(财联社 周子意)