展会信息港展会大全

AI&Society 内容生态沙龙现场直击
来源:互联网   发布日期:2019-12-02 07:45:45   浏览:11209次  

导读:人工智能技术的社会影响已然发生。比如个性化算法推荐对内容生产、用户认知的影响,日益增长的摄像头与视频数据对用户隐私与安全的影响等,这些现象中,既潜伏了重要的社会议题,也昭示着下一代技术的发展方向。A……...

人工智能技术的社会影响已然发生。比如个性化算法推荐对内容生产、用户认知的影响,日益增长的摄像头与视频数据对用户隐私与安全的影响等,这些现象中,既潜伏了重要的社会议题,也昭示着下一代技术的发展方向。AI & Society MEET将围绕人工智能与社会发展相关主题不定期举办,通过跨学科交流、产学经验互换等途径逐渐拉平横在算法工程师、社会学家和个人使用者之间的信息分野,让共识和未来方向浮显。

11月30日,北方迎来今年冬季第一次降雪,而在烟雨朦胧的南京,由腾讯研究院和南京大学新闻传播学院联合主办的AI & Society主题沙龙也正式拉开帷幕。本次沙龙围绕AI与内容生态发展,探讨AI时代下新技术对内容生产、分发、消费的影响。

关键词一

呼唤「善因」,也要关切「善果」

图:周葆华

作为拥抱新技术的大国,我们在取得政策与商业成功的同时,也面对着伦理规范的社会压力,亟需解决社会道义与社会形象问题。一批科技企业自我觉醒,关注技术中心的向善力量。自腾讯提出「科技向善」这一愿景和使命,越来越多向善问题被提出。「向善」究竟是指什么?「善因」和「善果」是怎样的关系呢?周葆华教授分享了他的观点。

l 向善

「向善」分为「善因」与「善果」。善因是企业端和生产端的目标、动机、理念或话语;善果是在社会端和受众端,科技的实际效果与影响。腾讯说「向善是一种选择,科技是一种能力」,正是表达了目标与能力之间的关系,即目标不一定代表能力,理念不一定代表实践。技术也可能带来非预期的效果,「善因」不能替代对「善果」的测量,当我们呼唤「善因」时,也要关切「善果」。

对善果的评价有应然和实然两个角度,是应该从规范角度去评价,还是从实际效果角度去评价?由于技术包含在媒介的内部,受到AI和算法的影响,媒介的非个体选择性更强,由此「善果」研究与传播学领域内的「媒介效果研究」有近似之处。

l 智能媒体推荐算法的「善因」和「善果」

算法会封装于特定的编码和程序之中,呈现为应用的形态。在操作层面,算法价值受到训练集和测试集之间匹配度的影响。

算法的善因:评估/设计原则

满意度/信任度、准确性、覆盖率、多样性、新颖性、惊喜性、实时性、健壮性、透明性。项亮《推荐系统实践》

算法的善果:研究难度高

何为「善」?社会科学家从社会公共利益角度关注算法的效果,常常与特定的政治与民主规范价值有关,例如研究新闻和政治信息的关注,研究用户实际接触信息或观点的多样性等。

故而算法的善果研究挑战在于,研究的是分发/技术效果,而不是内容讯息的效果;算法具有更强的隐蔽性和不可见性;算法技术与其他因素(用户选择性)效果的混淆与螺旋影响;算法平台的差异,算法逻辑的差异与演进,不同平台,不同的逻辑可能带来不同的影响。

因而单纯的算法效果的研究并不多。更多的研究聚焦于多样性效果。

关键词二

你是「真」的在交流吗?

图:牟怡

在人工智能时代,「真实」的边界被机器生成内容所打破,当AI应用于越来越多的交流场景中,用户会信任TA吗,又会对其有着怎样的认知评价?牟怡教授用众多的实证研究结果为我们解答这些疑问,并留给未来一个更严肃的讨论人们一方面恐惧被AI所代替,另一方面无法拒绝AI所带来的高效率,而当机器的身份为了效率而不再透明时,真实性是否就成为了伪命题?

l 人机交流中的认知评价与信任度

在不同场景下,不同的创作类型(图/文),内容生产方和内容接受方对「真实性」都有不同的理解。牟怡教授的实验研究表明,告知内容的创作者身份会对观者有一定的影响。而:

机器创作内容=带来「没有人的原汁原味的真实的」体验

此外,牟怡教授还针对不同国家对于AI的态度进行调查,结果表示,中美两国由于政府对AI的宣传而导致各自对AI真实性的外显理解是相反的。且中国受访者内心对AI的态度并不如真人。而德国则无论内隐还是外显,对AI的态度都相对更加积极。

牟怡教授在实验中发现人们对「非自然」的女性作者建议的评价会高于中性作者建议的评价。

人机交流不仅仅是对人际交流的简单复制,「向机器暴露真实自我的研究」表明,与AI聊天时暴露的人格更差,并且无法依据与AI聊天时的文本判断出对话者的性别。

l 身份透明度与真实性

机器身份透明能够加强真实性。既然非人身份可能会带来不同的期待与认知,我们是否要保证非人身份的透明度?但《Nature》子刊的一篇文章表明,在不揭示机器人身份的前提下,人机合作的效率会大大提升。这就引发了新一轮的讨论:要如何平衡非人身份的透明原则和人机协作的效率?

也许在未来,人机界限会逐渐被人为地模糊,真实性或将成为伪命题。

关键词三

「社交机器人」

图:吴晔

你或许不知道推特上的@Beetle Jucie和@DearAssistant,但对微博的「僵尸粉」应该不陌生。「社交机器人」早已经悄悄在我们的社交媒体里弥漫开来。我们在日常生活里感受也许并不深刻,但吴晔教授发现社交机器人可能给研究者们带来的巨大机遇和挑战。

l 什么是社交机器人?

「社交机器人是由软件操作的账号,能够利用算法生成内容、创建互动。」真正的社交机器人需要满足两个必要条件:动作是机器操作的、发布内容是机器生成的。活跃在各大社交媒体(FB、推特等)上的「账号」是最经典的社交机器人。吴晔教授发现以往学者多从技术和社会的视角进行研究,研究平台以推特为主,且问题领域的交叉性明显,政治是重要的议题。

l 如何识别社交机器人?

机器学习特征识别法Botometer工具

社会网络识别法

蜜罐检测法

众包式人工识别法

l 社交机器人对传播学的影响

因果倒置:当前计算传播学的误区在于用于识别社交机器人的特征又被用于分析人机差异。

机遇:可以利用社交机器人重新验证传播学的大部分理论,甚至提出新的理论。例如加入社交机器人后重新验证议程设置的作用等。

挑战:当以无介入的方式采集社交媒体数据时,由于社交机器人的属性(例如性别)对行为是没有意义的,当社交机器人占比过多时,会对研究结果产生影响,进而导致结果无意义。对研究计算社交媒体传播的学者尤为重要。

信度和效度检验:计算传播学应当有类似于量化研究中的信度效度的工具,增强数据集的抗干扰能力。

关键词四

「可视化图OR数据表格?」

图:祝建华

似乎用颜色丰富、线条流畅精美的可视化图示的展示学术成果已经成为当下学者们热捧的创新能力。但是这种内容呈现方式真的适合严谨的学术内容创作吗?「千文不如一图,千图不如一影;无图无真相,有图有影响。」祝建华教授对这句话有着自己独特的理解。他从阅读理解、科学探索和学术造假三个角度去反思这一对图示视觉呈现过于重视的现象。

l 图像雅而不信

在翻译中,有信达雅的准则。当雅与信有冲突的时候,应该在不损害信的基础上之追求雅已是共识。学术研究也是如此。从媒体丰富度和信息论角度来看,有这样一个公式:

Message=information+redundancy+noise

消息=信息(数据结果)+信息冗余(图表解释)+噪音(演示形式)

可视化图表并不传达信息,而是帮助解释信息,更加适合用于大众科普,因为读者对于数据的小数点并不敏感。而对于展现科学研究的成果来说,准确性更加重要。「噪音」过多的可视化图示会延长读者的阅读时间,转移和分散读者的注意力。

l 图像不善于表达多元关系

以图像为主的分析大多是二元分析,而将第三者变量Z排除在外;但科学实验大多是分析多变量之间的互相影响,表格要比图更能提供准确的信息。

l 图像更易学术造假

图像识别还未能普遍应用于学术不端检测,故而图像是学术造假的重要来源。

祝老师并非在「反可视化」,而是在反思可视化在科研中的应用场景。最后,他给出以下权衡图表选择时的建议:

图:合影留念

专家们分享了自己最新的研究兴趣和研究思路,尽管许多想法还只是萌芽阶段,但寻求志同道合伙伴的热情不减,期待业界和学界有更多的相关讨论和研究出现。

我们整理了这些精彩的观点,以期也能够与你进行一场跨越时空的AI& Society沙龙,欢迎留言互动……

赞助本站

人工智能实验室
AiLab云推荐
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港