本文根据武汉大学信息管理学院教授龚艺巍与其学生的行业话题系列讨论活动的内容整理而成。
本次参与讨论学生:梁渝琴、孙华梅、杨昕奕、虞佳缘、宋依宁以及ChatGPT
以ChatGPT为代表的生成式AI主要能做什么,和分析式AI相比进步在哪里?
ChatGPT是一个自然语言处理工具模型,同时也是通用型AI的重要里程碑。相比之下,过去大部分AI工具的使用场景较为单一,不同的功能场景需要使用不同的AI工具。而ChatGPT采用的模式是一种大语言模型(LLM),它所有能力都是通过一个模型实现的。因此具有强大的通用能力。这种通用能力的根源来自于它的预训练技术。大规模的预训练配合极其庞大的语料库和上千亿参数的模型,使其运算规模远超过去的一些AI技术。而该通用能力也大大降低了非AI专业人士的使用门槛,在使用场景上和应用的便利性上是一个重大的突破。
ChatGPT和DALL-E2等工具都属于生成式AI,可以根据用户的要求和提示,生成文本或图像等内容,具有一定的“创造力”。与之对应的是分析式AI,它的主要功能面向数据的分布。包括对数据进行分类以及对趋势的预测等。比如常见的推荐系统、图像识别、文字识别都是它比较擅长的功能。生成式AI不单是对数据的归纳,还会学习数据产生的模式,从而创造出新的数据样本,而不仅仅是在原来的样本上进行加工和提龋例如,为生成式AI提供同一个作者的若干本书籍,它就有可能模仿该作者的写作风格创作一些新的文字。两者在功能上说不上谁比谁进步,但是它们在应用方向上确实会有明显的不同。
以ChatGPT为代表的AI,可以具有哪些商业模式、盈利方式和场景?
2023年可以说是通用大语言模型和生成式AI步入商用的元年,虽然ChatGPT是去年提出来的,但今年将会是它商业化的第一年。据称ChatGPT的收费订阅模式将很快会启用。而根据OpenAI与投资者的协议,他们对未来有一个高达1500亿美金的营收目标。下面是我们对商业模式和盈利方式的一些猜想。
(1)商业模式上可以从toB和to C两个方向考虑。在to C端,它可以采用会员制解锁一些新功能,或者在高峰期拥堵时提供更高的优先权,或者允许提高生成答案的规模上限。这种收费订阅的模式已经初现端倪。其次,它可以作为产品推荐的入口,在其回答当中植入产品的广告和介绍。例如当用户提出某个场合送什么礼物的问题这类问题的时候,它可以参照目前搜索引擎的广告模式。微软目前也已将Bing集成ChatGPT的功能,由此可见to C端的商业模式已渐渐浮出水面。在to B端,首先它可以提供比较具有针对性的AI模型,比如针对新媒体运营的使用客户,进行功能调整,分化出UI设计、图像绘画等不同类型的行业化版本。其次,它可能给商业用户提供接口,可以让客户在他们的产品里接入AI的功能,这种场景类似于旅游网站上的地图应用插件,从而在B端按功能或者数据量进行收费。也可以跟一些公司达成合作,把AI数据接口提供给他们使用,在自己的软件或者应用上直接使用chatGPT功能,比如说我们可能打开夸克,就像bing一样可以直接用这个功能。
(2)分具体行业来看应用场景,首先比如媒体行业,生成式AI对媒体行业有着非常深远的影响。它们能够在几乎是全流程的各个环节,不管是从采访的语音或文字,还是到图片的生成和修饰,到作品的发布,它如同一个加速器。大多数媒体的时间性都非常高,特别是新闻媒体,因此生成式AI对于媒体行业来讲影响是非常大的。另外,对于电商行业来说,它们的使用场景可以分为售前、售中和售后三种。在售前阶段,AI可以在搜索推荐等功能上提供价值,特别是交互式的商品搜索和比较上。在售中阶段,AI可以辅助商家对店铺和商品的管理包括图文的生成与展示,应用虚拟主播的产品介绍视频等。在售后阶段,客服机器人可以提供常见的售后服务。
(3)我们也可以从单个通用能力来看。例如它有写代码和debug的能力,其实是可以提供给很多行业,许多公司会有自己的程序员和代码编辑与托管平台,这是一个普遍的应用场景。而它的开放对话能力,可以充当智能助手,比如像Siri,小爱等,ChatGPT能够输出更加流畅的对话。还有就是它的翻译能力,目前ChatGPT的翻译质量还比较高,覆盖的语种也比较多,同时它也可以做一些润色和内容的生成。
这些分功能和行业的应用或多或少会涉及到定制化和和小型化的需求,以及对专业领域的语料进行“投喂”的需求。普通人可能漫无边界地去问一些奇奇怪怪的问题,那么我们需要一个很大的通用模型。与此同时,它的回答往往不够准确甚至会瞎编乱造。但如果是针对个别企业或者是某个具体的行业,那么对投喂的语料和对答案的要求就要专业很多。这个过程不会一蹴而就,只有经过一段时间的学习和训练才能应用到严肃的场景当中去。
ChatGPT等AI的广泛使用对学术界和科学研究会有什么影响?
AI作为一个工具,在一定程度上可以提升研究人员的工作效率。首先它可以帮助快速检索相关领域的文献,然后帮助研究人员了解领域内的相关研究及方向。也可以帮助研究人员进行编程对数据进行处理和分析。最后还可以在论文撰写过程中提供辅助,除了语法检查和润色,甚至可以基于某个期刊的格式要求进行检查。但是如果直接使用AI来撰写文献综述,在学术伦理方面可能会存在一定的问题。首先,我们不见得能保证文献来源的可靠性,它可能会出现张冠李戴的问题。而这种使用方式也会存在一定的学术诚信问题。即便以上问题得以解决,其知识产权的界定也会成为争议。
对于热衷于发表综述类论文的研究者,AI的广泛使用可以说是祸福相依。首先,系统性的文献综述需要非常大的时间精力投入,AI可以加速该过程,减轻负担,同时也会因数量增加而提高对这类文章的要求。那些没有深入的理解和分析,更多是罗列发表现状、作者分布和主题变迁的综述将逐渐失去其价值。同理,对于一些热衷于对不同领域进行元分析和文献计量但又对该领域缺乏深入了解的研究人员,AI的广泛使用会使其失去原有的战场,因为领域内的其他学者可以在AI的帮助下做得更深入。
而对于大多数针对某一个领域进行长期研究的科研工作者,AI会是一个非常有用的工具。但是对于有一些其研究不针对具体的领域,而是针对某个方法的,那么这一类研究人员可能会受到比较大的影响。因此,学术研究要积累对某一个领域的知识,深入到这个领域,对领域内的现象及其背后的机理有深入了解,而不是停留在学习某个研究方法的层面上。研究方法和AI一样,都是工具。
以ChatGPT为代表的AI将会替代哪些典型工作,如何避免被AI替代?
通常而言对于创造性需求比较低,高重复性而且是高规范性的工作是比较容易被替代的。比如一些简单的信息服务业,像留学中介当中的一些职位,AI能够实现对留学信息的整理,甚至帮助申请人进行文书材料的生成和润色,因此简单的中介服务将失去市常
更多的岗位,可能通过使用ChatGPT而提高效率从而削减规模,但没有办法完全把人取代掉。(1)有些工作岗位除了有智力和体力劳动,还具有责任性。常见的争论是会计工作是否会被AI取代。AI可以替代会计的重复性和规范性劳动,但是无法承担会计的责任,使之成为了一个有趣的争论。(2)此外,与人打交道的工作还是很难被AI替代的,因为人会有各种各样的问题和情绪,机器满足不了更高层次的情感需求。像教师这样的工作,老师与学生相处是人与人之间建立关系,AI无法替代教师为学生建立人与人的关联。情绪价值是人类能够明显战胜AI之处。就像 AI很难去胜任心理医生。从这个层面上看,即使是在许多人认知当中可替代性较高的销售人员,表面上门槛很低,但如果能够掌握好相关的技能,通过其人格魅力会将销售过程转变成为客户提供的情绪价值的过程。这种高层次的社交能力,在将来也很难被AI替代。(3)此外AI很难处理大型的社会技术系统。AI对系统的复杂性往往缺乏足够好的理解。系统之所以复杂,是因为我们很难精确地去描述它。计算机并不擅长处理那些模糊的关系,虽然我们有各种模糊算法,但实际上这些技术都是在精确度的上面做了一些概率上的处理。但很多系统的复杂性不仅是它的概率,还有它的多元性。因此在复杂系统的管理上,包括对架构和规则的设计,AI都很难给出足够好的支撑。因为里面有很多的多元化考虑和非常多的可能性,以及不同利益之间的权衡,甚至多人之间的沟通,需要去平衡从而让让各方实现妥协和统一。因此,AI很难成为管理者,也无法完成包括对管理规章制度的制定,战略方向的规划等工作。我们可以利用 AI来进行分析,但是人际管理、风险界定、战略决策最终都是人来完成。所以管理的能力和人际交往的相关的能力也是不可替代的。
因为目前的AI技术和工具还是无法理解复杂的人类情感和复杂的社会技术系统。因此,不想被AI替代,需要培养一些高层次的能力。首先是逻辑思考能力和观察能力。AI可以生成内容,但它并不知道什么样的内容才是最合适的。而人可以从不同的角度去思考,得出更妥当的指引。AI会完成更多的基础性的劳动并提供答案,而我们需要转型成那个提出问题的人。我们的教育往往过多地强调解决问题的技能,却忽略了提出问题也是一种思考能力。
所以在学习和工作或者在职业发展的过程当中,如果是只会一些数据分析,特别是那种低级的、简单的数据分析,并且停留在这个阶段,就很容易被AI替代的。想要避免被AI替代,要学会利用AI去辅助处理精细的工作,同时要有把控复杂系统的能力和人与人之间交往的能力,要培养表达能力和协调能力,观察能力和思考能力,能够体会人的情况,提供情感价值,建立信任关系,实现对复杂系统的管理。
如何评判AI的发展和使用过程中的信息安全和信息伦理问题?
AI从诞生之日起一直伴随着对其信息安全和伦理问题的争论,包括信息茧房、数据隐私、数据透明性和数据对称,以及不当的使用(如深度伪造)等。这些问题都需要适度地监管。
前面提到过在创作和科学研究领域,AI的使用也会引起一些科研诚信和知识产权方面的问题。面对不当的AI使用,除了在规则和道德层面的约束,剩下的也只能“用魔法打败魔法”了。现在也有研究人员正在开发检测AI生成内容的AI工具,从而检测可能存在的学术不端等问题。有点类似于目前使用的查重工具,但是会更加智能。在过去,不同语种之间的重复发表是很难被检测出来的。但是当这类AI工具成熟起来,通过跨语种的检测,不光是AI生成的内容,甚至连过去的那些学术不端可能会被揭示出来。
前面提到的通过ChatGPT投放广告,也可能带来一些诱导用户的争议,这些争议也曾发生在搜索引擎的使用过程中。同样,前面提到过通过小型化实现商业化的猜想,其中也涉及到投喂数据时产生的数据安全问题。类似问题,在云计算发展的过程中也有过类似的经验和争论。其实很多企业也面临数据上不上云的问题,跟现在面对是否使用自己的数据投喂第三方提供的AI面临的尴尬和困境是相似的。做和不做都会有风险。一方面投喂自己的数据可能会面临数据泄露的风险;另一方面,如果自己不用AI但竞争对手上了AI,同样存在市场竞争落败的风险。因此这两个风险是同时存在的。这个时候就要看企业的决策者,他认为哪个风险会更高,或者哪个收益会更大。那么对于我们来讲,将来要成为决策者需要考虑和具备的一些知识和能力,包括数据安全、数据伦理、数据治理等方面,才是更为必要的。