展会信息港展会大全

中国工程院院士谭建荣:生成式AI时代,每个人都将是“作家、制片人、导演”,但要防范五大风险
来源:互联网   发布日期:2023-09-21 10:15:30   浏览:7525次  

导读:每经记者:淡忠奎每经编辑:杨欢 图片来源:每经记者 淡忠奎 摄 它(生成式AI)跟以前的人工智能有什么不同呢?过去我们搞的很多人工智能应用基本都不能通过图灵测试,但是生成式人工智能轻易通过,ChatGPT写的文章比一般秘书写得还好,你分不清是人写的还是...

每经记者:淡忠奎每经编辑:杨欢

中国工程院院士谭建荣:生成式AI时代,每个人都将是“作家、制片人、导演”,但要防范五大风险

图片来源:每经记者 淡忠奎 摄

“它(生成式AI)跟以前的人工智能有什么不同呢?过去我们搞的很多人工智能应用基本都不能通过图灵测试,但是生成式人工智能轻易通过,ChatGPT写的文章比一般秘书写得还好,你分不清是人写的还是机器写的。很多文科的专业像翻译,也包括理工科对某个事的分析、判断以及实际的解决方案,都可以用生成式人工智能来解决。”

9月20日下午,2023成都创新创业交易会人工智能前沿科技成果转化对接活动上,中国工程院院士、中国大数据技术与产业联盟理事长谭建荣做了题为《生成式人工智能及其风险防范:关键技术与发展趋势》,分享了自己对生成式人工智能最新发展趋势以及风险防范的思考。

他认为,生成式人工智能积累了很多阶段,现在集中爆发了,“特别是用于生成文本、图像、音频、视频和代码”。在生成式人工智能时代,每个人都将成为作家、制片人和导演等,至少现在每个人成为作家已经“不是很遥远,部分已经实现”。

与此同时,也要防范生成式AI带来的社会价值风险、用户使用风险、数据合规风险、数据安全风险和数据质量风险,将大模型“用活、用好”,跟社会治理、数据治理以及人民对美好生活的追求更好的结合。

每个人将是“作家、制品人、导演”

在谭建荣看来,人工智能最简洁的表述就是“计算机思维,或者计算机模拟人的思维”。如何判断?就是靠著名的图灵测试,简单而言“就是人机对话放出来,你分不清哪一句是人说的,哪一句是机器说的。这时候我们就说机器有思维了”。

他认为,生成式人工智能需要深厚的技术积淀,包括高性能训练与推理、复杂环境支持、多样训练方式、丰富算法集成、多语言支持和低成本接入训练等。比如,ChatGPT、Lens Studio以及国内的文心一言、华为盘古等典型示例。

“不仅能够写文章,而且能作曲、画画等。很多文科的专业像翻译,也包括理工科对某个事的分析、判断以及实际的解决方案,都可以用生成式人工智能来解决。”谭建荣认为,信息技术的推进在三个方面非常令人震惊,确实是颠覆性技术。其中,第一项就是生成式人工智能。第二项则是元宇宙数字空间,要打造一个虚拟现实、增强现实和数字孪生等在内的虚拟空间,“我们每个人在数字空间里都有一个虚拟化身。”

在他看来,生成式人工智能、元宇宙数字空间和拟人化机器人三项技术交叉融合发展,将是一个颠覆性技术。甚至有观点认为,这样将会产生人类2.0版本,完全自动化、人机一体化。“生成式人工智能能够生成内容、生成解决方案,或者通过深度学习、神经网络等算法,通过大量数据的训练,使得计算机能够像人类一样思考和创作。”

生成式人工智能拥有六大能力,包括分析能力、学习能力、判断能力、创造能力、预测能力和写作能力。它能积累了很多阶段,现在集中爆发了,“特别是用于生成文本、图像、音频、视频和代码”。

谭建荣举了一个例子过去我们要拍照片可能就要请专业摄影师,因为没有经过训练搞不清快门、焦距、光圈等等。但是现在手机上有个智能系统就知道具体环境下感光是多少,焦距应该怎么调,所以现在每个人都是摄影师。

“在生成式人工智能时代,我们每个人都将是作家,每个人将作为制片人,每个人将成为导演,“我们现在都每个人成为作家,已经不是很遥远,部分已经实现了。”他说。

防范生成式AI“五大风险”

“任何技术都是双面的。生成式人工智能有很多应用,但是也有一些风险。”谭建荣表示,生成式人工智能有五大风险。

其中包括,社会价值风险、用户使用风险、数据合规风险、数据安全风险、数据质量风险。以用户使用风险为例,机器深度学习后生成的内容能够达到“以假乱真”的效果,而且人工智能应用的门槛在不断降低,“一旦被恶意使用,将会给个人和社会造成安全风险和实质性伤害”。

而模型基于学习需要对用户的数据留存、分析可能侵犯个人和商业隐私、版权和著作权以及相关数据保护法案。

那么,如何制定防范措施呢?谭建荣认为,我们首先要制定能力的政策,包括公正、透明、隐私保护等方面。切实保证AI的合理使用,尊重他人的合法权利,防止对他人身心健康的伤害,“包括肖像权、名誉权和个人隐私的损害等。”

第二,还要建立责任的机制,包括社会主义核心价值观等,比如不能歧视少数民族,不能歧视老年人,不能歧视妇女和小孩等;第三,是要投资AI的安全研究。我们过去对网络安全已经有很多研究,做了很多防火墙,但是对人工智能安全的研究还相对较少,“一些诈骗团伙也开始利用一些人工智能技术诈骗,很难提防”;第四,还要限制人工智能的滥用,制定法律法规限制生成式人工智能(GAI)的滥用,比如使用GAI进行欺诈、恶意攻击等活动要受到法律的制裁。

除此之外,还要增加问责制,包括知识产权的风险、算法的风险、数据安全和个人信息保护的风险、能力道德的风险等。“整个生成式人工智能是一项新的制度,很多方面还在有待探索。包括很多公司在中国发布了很多大模型,但是很多大模型的应用案例还没有看到。”他说。

每日经济新闻

赞助本站

AiLab云推荐
推荐内容
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港