生成式人工智能可以帮助人类挤出知识的水分。透过生成式人工智能这面模仿性智能的镜子,可以逼迫人类不再假装知道不知道的事情,不再表达人类没有感觉到的东西。生成式人工智能的错误也可以揭示它是如何工作的,因为一旦它完美地模拟了人类,人类就根本无法理解它了。
中国社会科学院哲学所科技哲学研究室主任、中国科协-复旦大学科技伦理与人类未来研究院教授段伟文。
9月7日,由复旦大学、上海报业集团主办,复旦大学哲学学院、复旦大学计算机科学技术学院、澎湃新闻共同承办的外滩大会见解论坛“大语言模型消除人机鸿沟:人类主体性是强化还是弱化”在上海黄浦世博园C1场馆成功举办。中国社会科学院哲学所科技哲学研究室主任、中国科协-复旦大学科技伦理与人类未来研究院教授段伟文在论坛上表示,生成式人工智能可以帮助人类挤出知识的水分。
在题为《生成式人工智能与人的可塑性》的演讲中,段伟文谈到了生成式人工智能与人类之间的关系。他表示,生成式人工智能这一非人类智能也可能具有一般或通用的理性能力,人的心智和理性不再是实现智能和通用智能的唯一基矗但当机器比人类更好地模拟工作时,人类还需要工作吗?当机器比人类自己更好地模拟人类时,还需要人类做什么?段伟文表示,是时候重新思考人类所知道的、人类所做的、人类想要的以及人类是谁。
他认为,生成式人工智能可以帮助人类挤出知识的水分。生成式人工智能表明,人类在很大程度上一直在模仿知识和意义。而生成式人工智能非常擅长模仿教育和商业语言,实际上是表明哪些知识是模仿性的。透过生成式人工智能这面模仿性智能的镜子,可以逼迫人类不再假装知道不知道的事情,不再表达人类没有感觉到的东西。“我们要把大模型作为人的智能镜子,通过观察生成式人工智能重新思考自己。”
除此之外,生成式人工智能的错误也可以揭示它是如何工作的,因为一旦它完美地模拟了人类,人类就根本无法理解它了。
根据皮尤中心近期的一项调查报告,42%的专家对2035年会看到“人类+技术”演变的变化既兴奋又担忧。段伟文表示,大模型为人类开拓了一个宽广空间,但另一方面是否会带来同质化风险?AI恋爱软件的出现让人工智能和人类建立了亲密关系,这种亲密关系会如何影响人类社会?错误的信息正在改变人类社会的进程,聊天机器人在假新闻中扮演了重要角色,如何治理AI带来的虚假信息?人类智能和机器智能达到高度统一时,人类如何自处?这些问题都值得思考。