查看原文
其他

对抗虚假信息,科研怎么才能跟上

Peter东 混沌巡洋舰 2023-04-28


计算和通讯技术促进了信息的交流,这对社会和经济带来了无数的好处。也在互联网上虚假信息的数量、多样性和传播速度上,扮演了重要的角色。技术进步削弱了传统媒体以及他们提供的编辑监督,在传统上值得信赖的组织中制造混乱和破坏信任。从而为操纵、影响和欺骗大众创造了新的机会。


为此,必须开发新方法来来理解和解决虚假信息的问题。与虚假信息作斗争的挑战需要一个全面的反应,这远远超出了计算机研究的范围,包括教育、心理学、新闻学和社会学等诸多学科。本文借鉴圣菲研究所应用复杂性研究员Garland针对该问题提出的倡议[1],讨论该如何针对虚假信息进行研究。


倡议指出:应对虚假信息的解决方案,首先需要能帮助社会组织和广大公民理解和对抗信息污染。要将信息的传播环境看成生态系统,关注信息所具有的众多维度,例如信息可以是包含情绪,可以按照是否准确,是否有趣等多个评价标准,而通过构建对虚假信息的“需求方”的更深入的理解和模型,则能够更巧妙的通过助推手段,来遏制虚假信息。


其次,在“供应方面”,计算科学家可以和社会学家合作,更好地理解信息传播的过程,例如超级传播者,越过临界点之后的病毒式传播。同时,开发自动化的工具,例如[2]中所描述的,可以用来找到虚假信息传播过程中的关键个体。这样的算法可在虚假信息传播之前发现和隔离它们,或者至少减轻它们的影响,而[7]的研究,则说明可以通过算法识别包含恶意/挑衅的文本。


具体来看,这类研究有六个目标,一是大范围地检测虚假信息,例如识别Deep Fake合成的视频,找出机器人账户,算法生成的虚假信息等;二是量化虚假信息的影响范围,包括长期的和次生伤害;三是提供数据访问的“基础设施”,从而可以让更多的研究者,能够获得信息传播的数据;四是探讨互联网背景下新的伦理规范,例如定义何为公共空间,隐私的范围多广;五是找出合适的教育干预手段,提升大众对虚假信息的免疫力;六是培养专业人士,让他们具有持续对抗虚假信息的技能和工具。


接下来,会通过一个例子,来自3月17日的自然杂志:标题为:“Shifting attention to accuracy can reduce misinformation online”,该文通过大规模的在线实验,指出了一种社交平台可以很容易执行,且具有扩展性地对抗虚假信息的方法,即通过提醒大众关注信息的真实性来减少虚假信息的转发与传播。之后将详述该研究的方法及结论,并探讨类似的研究该如何本土化。


对虚假信息传播过程,一个常见的误区是,人们之所以分享虚假信息,是由于人们误以为她们分享的信息是准确的。通过在亚马逊机器人上招募1015位美国受试,向其展示36则来自社交媒体的真实新闻,其中一半标题是虚假的,一半的标题是准确的,一半偏向共和党,一半偏向民主党。受试者被随机评价新闻的准确性,以及自己是否愿意分享这样的信息。


结果发现(左图)不管是否倾向自己的党派,人们都能够根据标题判断新闻的真假,尽管和自己立场相同的假新闻,被判定真的概率高10%,但相对真实和虚假新闻被正确判定的差异影响较小。而右图展示的是否愿意分享信息的概率,无论是否自己党派相悖的信息,真实和虚假的信息在分享意图上差异不大。



这意味着,人们是否选择分享信息,和该信息是否准确关系不大。而根据科学杂志对16年美国大选中推特上的大规模研究[3],也发现了相同的趋势。而当询问那些因素会影响分享的意图时,人们普遍指出信息的准确性十分重要。见下图


为何人们会愿意分享自己明知不准确的信息?对该问题的回答是激励分享的动机不仅是传播准确的信息,还有塑造自身人设,吸引朋友或陌生人的关注,由于人们的注意力有限,因此在真实分享时起到关键作用的指标,和被问到那些指标对分享意图重要时,会出现显著差异。这并非由于受试者都在口是心非,而是由于注意力的范围有限。


如果对上述矛盾现象的解释,是人在决定分享信息时的注意力有限,那么通过在分享前,提醒他们关注信息的准确性,就能够降低虚假信息的分享意图。干预的手段很简单,让受试者在决定分享前,评估一则和党派倾向无关的新闻的准确性,而实验结果指出,这样的干预能显著增加真实信息的分享意图,降低虚假信息的分享意图,见下图。




这样的干预手段,对于那些看起来最不靠谱的新闻标题,效果最明显。下图中的每个点横轴代表新闻标题的准确性打分,纵轴代表干预对分享意图造成的影响。可以看出,准确性越差的新闻标题,如果在分享前对受试者进行提醒,分享意图的降幅越大。而这进一步说明了人们会分享这些虚假信息,不是由于人性的虚伪,而是由于注意力的有限。





之后,研究者在推特上,针对5000名用户进行实验,向他们发消息,要其判定一则与政治无关消息的准确性,之后评价其24小时内,分享信息的模式和他们日常的模式有什么区别。结果发现这些用户对主流媒体的转发频率上升,而转发信息来源是充斥虚假信息的社交媒体的概率降低。




这项研究,其意义在于打破了人们之所以在社交媒体分享虚假信息,是因为他们不在意或无法判别信息的真假这一观念。中国的互联网生态圈中,养生/健康类在虚假信息中尤为突出,而老年人,三四线城市居民,普遍被认为更容易被相关谣言攻陷,而想要抹平这一数字鸿沟,就需要先了解是什么因素决定了他们的分享行为。


虚假信息的提供者在操纵人类情感方面非常出色,这对于世界各地都是普世的。但我们不能简单的认为上述基于美国人的调查,就一定符合中国国情。我们可以先模仿上文中推特的实验,给一些用户推送通知,让他们通过投票,根据标题及一则信息的摘要,判断其准确性。再看看干预后其是否会更多分享诸如丁香园这样可靠来源的咨询。同时还可以通过多次的推送消息,来研究长期的,而不是推送信息24小时内的影响。


作为一个个体,你能做的阻止虚假信息传播的最好的事情就是确保你不是问题的一部分。如果你在网上看到一篇让你气愤的文章,你可能会花些时间反驳,而这时的你,根据[4]的模型,会更容易相信/传播虚假信息,而[5]的研究,指出存在吸引关注等动机时,人们会由于注意力的有限,而传播虚假信息。


针对虚假新闻的研究,还可以借用传染病学的模型,信息流行病(infodemics)来自自然人类行为去年10月的论文[6],该研究关注新冠疫情下的虚假信息,按照信息的危害程度,针对不同类型的信息,给予不同的打分。之后对各地区某段时间社交网络用户的发布的新冠相关信息进行汇总,给出代表该地区的信息流行病的严重程度的“信息流行病风险指数(Infodemic Risk Index )”。并发现在不同地域,信息流行病严重程度的变化是独立的,和社会经济发展程度,单日新增病例没有相关性。


信息的传播过程,就像任何其他复杂系统一样,注定了对抗虚假信息,不能使用简单的堵塞的方式来,解决这个问题需要与系统进行互动,同时尊重对权利、伤害和正义的伦理关切。这需要专业人士,来平衡量化研究对海量数据的需求与保护用户隐私,避免伤害用户体验之间的权衡;而要想真正了解不同文化背景下虚假信息传播的不同,需要构建多语言数据库,采用自然语音处理技术,来自动化地收集分析数据,而这也需要学术圈和产业界的通力合作。


  1. https://cra.org/ccc/wp-content/uploads/sites/2/2020/11/An-agenda-for-disinformation-research.pdf
  2. Automatic detection of influential actors in disinformation networks
  3. Fake news on twitter during the 2016 U.S. Presidential election
  4. Spite is contagious in dynamic networks
  5. Shifting attention to accuracy can reduce misinformation online
  6. Assessing the risks of ‘infodemics’ in response to COVID-19 epidemics
  7. Countering hate on social media: Large scale classification of hate and counter speech



您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存