亲爱的读者:
见字如面,很高兴通过书信这一传统的方式来进行交流,感觉既熟悉又奇特,虽然每天有大量的电子邮件往来,但距离上次写信已经过去了十多年。
过往的十多年移动互联网的迅猛发展改变了很多的事情,信息的传递和交互变得越来越快、个人的信息吞吐量也变得越来越大、物理的距离变得越来越不可见、移动设备变得越来越成为个体的一部分、我们对已知变得越来越自信、对未知却变得越来越焦虑。而2023年之后,你一定在好奇人工智能能强到什么地步,能发挥什么样的作用,对个体和社会有什么长远的影响。
如果能向通用智能提一个问题,不知道你会问什么。可能你会问明天哪只股票会涨停。但我会问,“HI,AI,你对我有什么问题?”硅基智能被认为拥有和人类一样的思考方式似乎在一夜之间发生,尽管在此之前,人类已经为此努力了数十年。
正如历史上每次关键性的科技变革,AI技术的指数级增长带来的第一个社会疑问不仅是“你能为我做什么?”更是“你会给我惹什么麻烦?”从当下的数据质量、数据合规问题,到AI会否能带来贫富分化、大面积失业,乃至脑补到AI对抗人类。
与以往的技术革命不同,AI变革着眼于人类核心的感知、认知、记忆和推理能力,使得人工智能具备了像人一样自主学习和解决问题的能力。挑战历史叠加挑战人性,让我们对AI的未来充满谨慎和敬畏。我们的焦虑是,人类对自身的认识仍存在许多未知领域,我们如何确保黑盒中的人工智能是安全可控的呢?当人工智能的智力超越人类时,我们该如何定位这种新的智能?
任何技术的发展都需要回归以人为本的初心,确保技术能力为你我服务。在大模型“军备竞赛”的当下,确保大模型“对齐”人类的价值观和共识,才能避免偏离正确的发展轨道,进而避免其伤及你我。
首先,大模型中的“对齐”(alignment)概念对我们有巨大的意义:大模型开发者要求AI系统与人类价值观和基本利益保持一致,这样才能给AI加上“紧箍咒”,避免它们做出偏离人类普世价值观的事情。模型的规模和模型的潜在风险成正相关,模型越大,不确定性越高,对价值对齐的需求也就越强烈。没有价值对齐的AI模型可能输出不可估量的负面内容或能力,这种负面能力可能帮助网络黑产进行群体攻击、诈骗,可能诱导有负向价值倾向的人类走向不可逆的极端,包括冲突、伤害,或生产有类似情绪诱导作用的内容。为了让大模型更加安全、可靠,就需要尽可能地防止模型的有害输出或滥用。这是当前AI价值对齐的核心要义。
其次,除了机器与人的价值对齐,人与人之间的价值对齐也对AI的发展具有深远意义。我们常说,技术是中立的,但技术使用的场景却有对错。我们需要在何种场景下正确使用通用技能达成共识,这是全人类目前面临的关键问题。通用智能只有在正确合适的场景中应用,才能推动科技、商业、社会乃至全人类文明的发展。目前,智能化已成为人们得力的助手,提高了人类工作效率和生活质量。在生产活动中,机器人承担了更多繁琐重复的工作,极大地提高了生产效率和质量。在生活中,智能家居、智能交通、智能医疗、智能金融等技术已经有了一定普及,给人们带来更便捷、舒适的生活体验。
我所在的金融科技行业,运用AI在全流程业务中服务金融业务已经多年:智能语音客服节省了人力成本,智能风控系统加强了金融安全能力,智能反欺诈系统精准识别了“黑灰产”风险。在数以千万笔的金融科技交易中,AI触角无处不在,提升着交易的效率和准确度。不过我们始终坚持着一个更核心要义,AI应该让我们变得更加追求善良,这是我们对AI的要求,也是对自身的要求。
AI的业务道德之外,社会道德和行事标准是更高的价值要求。我们需要警惕由技术发展不平衡带来的贫富分化问题,思考如何公平分配通用智能的红利,更好地连接弱势群体。例如,我们可以扩大AI在偏远地区教育中的应用,降低教育质量的地域差异。总的来说,AI应该让人类更团结,而不是更分裂。
尽管挑战和机遇并存,智能化社会已势不可挡,我们应该从现在开始做好拥抱通用智能的准备。在个体层面,普罗大众也在学习运用AI工具让生活更加便利,这个学习适应的过程也许有点缓慢,但这就类似当年我们学习使用电脑和手机的过程。第一步也许先是成为一个好的prompt engineer(提示工程师),给通用智能下有效的指令。未来,我们可以更关注做什么,而不是怎么做。
2024年,我们将继续看到AI生态的进步。第一,大模型会更侧重应用落地;第二,基础模型会收敛,市面上不会有成百上千基础模型版本;第三,会有更多企业关注怎样做垂类模型;第四,AI生态将更加丰富。模型之外,我们也会看到硬件和架构的快速演进以及基于大模型的应用兴起。
让技术归于人本,让AI对齐人性,硅基智能就一定能够成为人类社会发展进步的重要力量。让我们一起来期待和见证新的一年人-机的更奇妙的连接,也让我们一起来期待AI和我们一起创造更美好的未来。
陈磊
2023年12月
(作者系上海市人工智能高级工程师、信也科技副总裁)