展会信息港展会大全

AI发展加深贫富差距?人类社会或难逃平庸宿命
来源:互联网   发布日期:2023-04-21 16:51:02   浏览:7085次  

导读:OpenAI创始人Sam Altman曾表示不担心AI取代人类的工作之后,人类何去何从的问题,他认为真正的难题是财富分配问题。 AI的指数级发展会带来平等还是加深鸿沟?如何实现AI为人人的目标?对技术的依赖又是否会影响到我们的思想甚至存续? 知识万象邀请中国人民...

OpenAI创始人Sam Altman曾表示不担心“AI取代人类的工作之后,人类何去何从”的问题,他认为真正的难题是财富分配问题。

AI的指数级发展会带来平等还是加深鸿沟?如何实现“AI为人人”的目标?对技术的依赖又是否会影响到我们的思想甚至存续?

知识万象邀请中国人民大学哲学院教授刘永谋、经济学家梁捷、中国科学院计算技术研究所博士牛雪松、前北京科技大学教师季燕江,详解我们距离“AI为人人“的时代有多远。

核心要点

1. AI发展会让穷人更穷?“全民发钱”是最优解吗?

季燕江:有观点认为了解或使用GPT的人是某种程度上的“精英“,这带来上一波互联网革命我们就曾讨论过的老问题:AI是否会造成新的鸿沟?GPT作为创造财富并重新分配的机会,是否会让穷人更穷、富人更富?

梁捷:AI技术的应用短期内确实有可能进一步拉大贫富差距。因为现在确实不是所有人都能接触到人工智能,且有良好教育背景的人更容易适应AI发展并在短期内抓住机会,完成财富投资和资金分配。但我认为这只是短期的临时现象。

随着IT技术发展,数字鸿沟其实在不断缩小,智能手机发明普及后曾经的“上网难”问题被解决,将大家拉到了同一起跑线。所以相信不久的将来就会有帮助人们使用AI的程序被开发出来,做更好的普及,缩小技术鸿沟,最后做到AI面前人人平等。所以长期来看,AI会让大家站在同一起跑线上,反而有机会缩小贫富差距,让社会更平等。

刘永谋:第一,我非常赞同梁老师的乐观看法,即强调人类运用和控制技术来为社会谋得更多福利、促进社会进步。

第二,这一问题是制度与技术结合的问题。我不赞同技术决定论,即技术有自己的内在发展规律,这一规律决定社会走向两极分化或更加平等,而无法通过人为控制或改变。我认为必须是人的努力和技术发展二者相结合才能决定或重塑我们的未来。制度搞得好,可能就走向平等;搞不好,贫富差距可能就很大。

第三,马克思是工具论者,认为包括AI在内的所有技术,就只是一种工具,人可以控制它。先进技术一定是能推动社会进步发展的革命性力量,但在现实中又被统治阶级控制。因为这一阶级有钱有权有势,会最先使用到先进技术、使用得更好,并将其用于维护自己统治。所以长远来看,对AI技术的使用,需要靠全社会的普通劳动者和制度设计者共同努力,推动社会平等

季燕江:OpenAI创始人Sam Altman曾设想,随着AI发展,将不需要那么多人工作,很多人会失业并需要重新训练才能进入新的就业岗位。他主张在全球范围内进行全民基本收入(UBI,即Universal Basic Income)实验,即被试者不需要工作,就会收到一笔钱保障个人有一定品质的生活,可以学一些感兴趣的东西并将其实践。

未来可能体现为技术巨头赚了足够多钱,政府将其中一部分通过税收的形式收上来并每年无条件发放给每个公民一定数额。各位如何看待UBI实验?企业和政府未来应该做些什么解决AI发展带来的潜在社会问题?

梁捷:远在GPT出现前UBI的概念就已经出现。前几年美国总统大选时一名叫杨安泽的候选人就是UBI的积极支持者,该政策已经在西欧部分国家试点。它最核心的特点就是无条件发钱,有人将其形容为“直升机撒钱”。那这里就涉及一个问题:一个人在没有经济压力的情况下应该干什么?

马克思1846年的《德意志意识形态》一文中说过,“共产主义社会未来是早上打鱼,中午狩猎,晚上讨论哲学。”UBI就是要实现这个目标。它相信绝大多数人拿了钱之后不会在家游手好闲。

Universal Basic Income定义(图源:Stanford Basic Income Lab网站)

工作对我们而言意味着什么?它的意义真的有点复杂。尽管很多人都在抱怨工作累,但我们工作不仅能得到经济回报,更能得到人生意义和价值。UBI就希望让我们免除后顾之忧,让我们做发自内心想做的工作。过去认为这一计划只在欧洲富裕国家可以实施,发展中国家民众拿到钱后很有可能就不干活了。过去主流经济学认为人都是理性的,给我钱我才干活。UBI则挑战了这一假设,认为人在没有压力的情况下爱干嘛干嘛,反而能发挥很大创造力。

AI和ChatGPT这种可以快速替代大量“狗屁工作”的新发明出现,重提UBI就显得更有说服力,每个人都可以想象如何从狗屁工作中解放,充分发挥自己的聪明才智。但要做这个UBI实验其实很困难,因为它挑战了很多国家的劳动力市场制度、税收制度甚至是法律制度,给民众发钱也占了很大一部分GDP,在动辄人口上亿的大国推行更困难,未来几十年都没那么容易实现。

当然,我们也可以期待,AI对人类劳动替代到底会达到什么程度?若能达到80%的替代,或许UBI的阻力会小很多。就目前在经济学界,绝大多数学者还是认为UBI是过于激进的制度,可以小做尝试,但全面推开还需要很长时间。

2. 我们距离“AI为人人”有多远?算法偏见实为人类社会的真实反映?

季燕江:在人工智能的开发过程中,不仅有相关技术背景的工程师,还有心理学家等人文背景的专家参与。若要实现“AI为人人”,从技术和人文角度可以有哪些路径?

牛雪松:如何让整个网络空间中所有人都有表达权、大家的话语都是同样权重,多年前就曾有过相关研究。GPT产品其实使用了一套偏强化学习框架,训练出大模型后将人的反馈输入,消除模型中的偏见或种族主义等问题。其他科技公司的产品也用到了类似的利用强化规则学习的方法,一定程度上削平不平等。

刘永谋:第一,GPT出现的价值观偏差、意识形态不安全和虚假信息等问题,其实就是人类社会真实状况的反映。因为它使用的海量自然语言都是我们人类自己在网络留下的足迹,是在所有信息中寻找一个正确率最高的回答,所以反映了我们自身。性别歧视、种族歧视,都是人类自身存在的问题。所以它也提示我们要从思想上迭代进化,抛弃一些不平等的想法。

第二,为什么我国也要开发相关产品?因为ChatGPT的训练目前是基于美国数据,所以它不是一个纯技术产品,而是技术和语料、文化相结合的产物,所有有必要开发中国的AI产品,不能用“技术中性”论来忽视掉背后的问题。AIGC(人工智能生成内容)生产要比PGC(专业生产内容)和UGC(用户生产内容)生产快得多,如果我们没有控制和引导,这面镜子就会反过来影响甚至控制我们,我们的思想反而成了ChatGPT为我们塑造的。所以一定要重视起来、积极解决。

第三,之前有相关人士通过生命未来研究所联名呼吁暂停GPT4.0的训练。我们当然不能说ChatGPT背后的安全问题无关紧要,有人怀疑它或将成为颜色革命(编者注:颜色革命即21世纪初期,在前苏联和中东北非地区发生的以颜色命名,以和平的非暴力方式进行的政权更迭运动。)的武器也不算是空穴来风。但我觉得暂停训练没什么用,实际上也暂停不了,毕竟呼吁得响亮的马斯克也食言了,暗地里重金加码成立AI公司。面对AI技术,我们应该控制和利用,要正确面对它而不是逃避。

该联名呼吁已得到两万余人支持,其中不乏各领域专家学者(图源:生命未来研究所网站)

季燕江:GPT类产品基本都是大公司、大模型、大资源,若我们要讨论平等,就涉及到我们是否要“多元化”的问题。小公司没有太多硬件资源,是否也能训练出针对特定需求的GPT类产品,并实现AI领域内的去中心化?

牛雪松:其实在GPT的大模型出来前,大家做的就是本地化操作,针对一个具体场景进行解析,比如翻译场景中就是只能英译汉,需要英译法就得重新做一套模型。GPT为我们带来的新启发就是当整体数据量都被用于训练时,模型能力将远超从前。现在这个节点,让小公司基于GPT拿到小模型并应用于生产场景,这条路线似乎还不是很成熟。不过大家也做了一些努力并小有成就,比如针对自动驾驶、医疗、金融等专业领域的模型正在发布或内测状态。所以未来随着技术和算力迭代,小公司肯定也能获得更大算力,模型本身算力也会压缩,是可以实现的

3. 我们的思想会被AI控制吗?AI技术普及将导致人类社会走向平庸?

季燕江:GPT类产品已经向我们展示了AI的强大能力。但同时,有人认为存在IT巨头或掌握AI制定权的机构控制人类思想的潜在风险:他们通过AI训练、影响我们的生活,控制我们的思想,我们有了AI却丧失了自由的思维,失去了在精神层面自我发展和迭代的机会。对于这种悲观的展望,各位认为要做什么来补救?

刘永谋:我认为我们未来必然会生活在机器人代替绝大多数人类劳动的社会,理论上50~100年内技术即可达到这一水平。在这一假设基础上,我们来展望人类未来,有两种极端看法,一种悲观,一种乐观。

乐观看法,未来实现“数字共产主义”,机器人生产出供所有人过上好生活的物质资料,在此背景下若能设计出完美的制度,就可以进入机器乌托邦的美好社会。大多数人会赞同这种设计,即机器人属于全社会,按照社会统一生产平均分配,带有公有制色彩;所有人都有同等的财富分配权利,每个人都实现经济自由。这种经济自由实现后会有大量闲暇时间,人们可能会从事哲学艺术、文化科技等工作来提升个人境界。这就是AI乌托邦的理想社会状况。

悲观看法,就是电子圆形监狱形成。ICT技术(编者注:指信息与通信技术,覆盖了所有通信设备或应用软件)会加剧社会规训化的趋势,使得当代社会逐渐成为专制的“电子圆形监狱”(electronic panopticon),所有人的一举一动甚至思想都在监控中。社会是一台巨大智能机器,每个人都是机器上的智能零件,随时可以标准化替换。

这样的社会有四大特点:第一是极度强调科学和效率,抛弃人文;第二是极力扩张经济,向外探索;第三是极端理性主义;第四是等级制,即知识就是发言权,实现公开等级的数字化制度。机器人监控我们的行动,并对我们随时采取行动。

英国哲学家边沁于1785年提出圆形监狱(Panopticon)(图源:UCL网站)

但这两种极善极恶的情况都不大可能出现,人类历史总是好坏参半。人们吃饱穿暖了真的就会搞艺术哲学吗?剥削者是否愿意为走向数字共产主义付出巨大代价?反过来,电子圆形监狱不仅监控普通人,还监控极权者,反而可以用作民主用途。所以我们更应该采取第三种看法,即务实主义,走介于乌托邦与敌托邦之间的路。而不同国家历史文化不同,走的路可能会不同。

未来很有可能介于两个极端之间。“技术工具论”认为技术就是工具,科技要发展,我们应好好使用;“技术实体论”认为技术有内定好的自主性,或让我们灭亡,或让我们更好;二者之间的“制度设计论”则认为文化和技术结合时的不同社会文化要素会带来不同结果。

我个人观点则是“技术控制的选择论”,即无法证明技术仅是工具还是有一定自主性。这些观点背后是我们是否要控制技术的问题。我们关注每一项新技术,考虑其风险并了解如何去控制它为社会造福,尽管要做一些必要牺牲,但还是要控制技术,这样社会才能进步。

牛雪松:我个人比较认同技术工具论。技术其实是提高我们生产力的方式,人有很多技术替代不了的情感、思考等东西,不管技术怎么发展,它始终是人类生产的,替代不了人。或许《黑客帝国》未来可能真的会成为现实,但目前它离我们还是很遥远。我们还是要好好生活,拥抱技术,让技术更好促进生活。

《黑客帝国》剧照(图源:豆瓣)

梁捷:AI进步速度非常快,水平也很高,但是否能达到人类智慧巅峰,有待商榷。AI能创作出像莎士比亚文集、《红楼梦》等代表人类智慧巅峰的伟大作品吗?恐怕不行,这大概是80分与99分的区别。

我们需要担心的问题是当AI逐渐普及,未来的年轻人整日与GPT待在一起,学习AI生产的80分作品,人类智慧是否会逐渐向80分水平靠拢?或许整体平均值提高对社会有利,但我们还是希望社会上能有极少数的人为我们提供了不起的超过100分的作品。所以我们每个人都需要更深入思考,思想等最精华的最巅峰的结晶或许并不能依靠GPT,仍需要我们自己努力,避免平庸化社会

嘉宾介绍

刘永谋 中国人民大学哲学院教授、国家发展与战略研究院研究员

梁捷 经济学家,现执教于上海财经大学

牛雪松 中国科学院计算技术研究所博士

季燕江 圆桌主持人、前北京科技大学教师

整理:王嘉欣

版权声明:本文系科技新闻《知识万象》独家稿件,未经授权禁止媒体转载,但欢迎转发至个人朋友圈。

赞助本站

人工智能实验室
相关内容
AiLab云推荐
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港