展会信息港展会大全

清华大学教授黄民烈:AIGC时代保障数据安全要靠算法而不是人
来源:互联网   发布日期:2024-04-30 14:11:05   浏览:4690次  

导读:【环球时报-环球网报道 记者 倪浩】生成式人工智能(AIGC)时代实现数据安全,要依靠算法和工具,而不是人。在4月27日下午在2024中关村论坛数据安全治理与发展论坛上,清华大学计算机科学与技术系教授、人工智能研究院基础模型研究中心副主任黄民烈教授表示...

【环球时报-环球网报道 记者 倪浩】生成式人工智能(AIGC)时代实现数据安全,要依靠算法和工具,而不是人。在4月27日下午在“2024中关村论坛数据安全治理与发展论坛”上,清华大学计算机科学与技术系教授、人工智能研究院基础模型研究中心副主任黄民烈教授表示,与过去传统的数字经济时代不同,人工智能(AI)时代尤其是生成式人工智能(AIGC)的出现,让人类所面临的数据安全问题已有很大的不同,而进行风险管控的方法也有根本的不同。

清华大学教授黄民烈:AIGC时代保障数据安全要靠算法而不是人

清华大学计算机科学与技术系教授黄民烈在发言 (主办方供图)

在这次论坛的圆桌会议上发言时,黄民烈表示,“过去,我们把一些不好的、脏的、有害的数据过滤掉,清洗干净就可以了。但是现在,生成式人工智能(AIGC)是一种生成式的模型,它会通过训练组合生成新的内容,这些新的内容在过去的语料里根本没有出现过,但它依然可能是有害的。所以,即使是我们把大模型训练之前的有害数据清除的很干净,在生成式人工智能(AIGC)时代我们依然会面临有害内容产生的风险。”

那么怎么应对生成式人工智能(AIGC)所带来的新的数据全安的风险呢?要靠算法的研究,而不是人。黄民烈说,一般情况下,在各种大模型中,人们采用关键词过滤,进行风险检测后上线,对外提供服务。但是,有些人依然有办法让它“越狱”,让这种安全管控失效,并产生有害的内容。为杜绝这种风险,就要依赖背后的算法的研究。

黄民烈说,“这些算法有几类,其中包括研究有针对性的对抗和攻击的方法,比如事先让一些算法自动发现这个模型的漏洞和风险;第二,可以研究算法去追踪模型存在哪些漏洞,再针对性的制定安全手段。这两种手段都是通过算法把一些问题在大模型上线前进行自动修复。

“一句话来讲,在生成式人工智能(AIGC)时代,在数据安全层面,其实我们面临的是不断组合和创造出来的新的数据安全风险问题,这种风险彻底的解决是需要我们的算法和工具的支撑,而不是靠人。”黄民烈说,靠一些静态的方法去做一些相对固定的检测,实际上是不能够胜任新的生成式人工智能(AIGC)时代的数据检测和安全的要求的。

赞助本站

相关内容
AiLab云推荐
推荐内容
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港