当每个人都在讨论ChatGPT时,人工智能与人类的关系就叠加了新的层次。
之前人类在被动接受AI提供的服务,那么现在的关系则是趋于正常化的互动,这种“正常化”指的是AI更像是一个“人”,不再像从前的机器人那样逻辑生硬,语言笨拙,思考力不足。互动的良好体验同时带来了惊喜和恐慌。如果以前说AI取代人类是“狼来了”,那么现在狼是不是已经在门口虎视眈眈了?
欧盟对AI的使用体现在多个领域,其中德国“解码者”是热衷尝试用AI工具编辑稿件的企业之一。“解码者”是一个连接人工智能、政治和经济的知识平台,他们做了一个测试,用OpenAI的GPT-3语言模型来写文章摘要,以方便读者阅读。结果,AI写的摘要还不错,但常常遗漏文章中的要点。AI没能打败编辑团队。紧张的编辑当然不希望自己被AI取代,但他们的结论也并非谎言,因为这些比对都是公开透明的。后来AI培训师又对这个语言模型加以训练、升级……现在,“解码者”在公开招聘人工编辑。
来看看招聘的要求吧:
你可以用简单且结构良好的行文方式解释复杂的主题。
你可以参考该领域当前事件的发展回顾过去和评价未来。
你能跳出框架思考,并且对技术与社会之间的互动感兴趣。
我们不能简单断言AI没有能力达到上述条件。通过学习和训练,AI完全有可能写出漂亮的摘要,阐释复杂的主题,统筹一篇好稿子,但“解码者”的招聘至少透露了一种信息:人工智能与人类本身的非线性的、创造性的智能不是一回事,以前不是,目前也还不是。
谷歌的聊天机器人工具Bard凸显的是另一种短板,一位用户想问詹姆斯韦伯太空望远镜的新发现,然后机器人显示的答案是欧洲南方天文台甚大望远镜拍摄的行星图像,跟韦伯望远镜其实没什么关系。
微软把ChatGPT嵌入Bing后,谷歌立刻感受到阵阵寒气。所以也希望Bard能迎接挑战。现在类似AI聊天机器人的技术异常火爆,许多行业都在试图把它镶嵌在自身产品中,以改变甚至颠覆市常
但不论是“解码者”在内容编辑方面的尝试,还是谷歌Bard在准确性上的不足,都指向一个现实,那就是市场长期以来所担心的:这些工具有可能传递不那么准确的信息。
欧洲教育界认为,有必要对ChatGPT的使用进行限制,例如法国巴黎政治大学认为,禁止使用基于人工智能的工具写作业,否则将被开除。法国有不少教育专家也持类似观点,认为可以鼓励师生“玩”ChatGPT,但如果用来完成作业可能不会取得好成绩,因为“代写”作业首先是道德问题,况且ChatGPT也不一定就能完成得更好。
不难得出这样的结论:随着AI的技术缺陷被飞速修补,未来不一定属于拥有这些工具的人,而更可能属于能够明智地选择和使用这些工具的人。
在欧盟机构眼中,AI带来了巨大机会,也伴随着巨大风险,是个需要强约束的领域。欧盟正在讨论的人工智能法案中,希望能把ChatGPT等生成式人工智能工具列入“高风险”类别,通过强有力的监管框架解决人们对技术风险的担忧。不过这样难免会限制创新。欧盟一些正在开发AI工具的企业认为,他们的开发节奏会因为该法案而放缓。
监管机构在努力追赶技术的步伐。而技术的优点和风险的平衡点一向难以锚定和把握,眼前是一个乐观和悲观同在的未来。