为了控制假新闻传播,新闻机构和平台究竟应该依赖算法排除,还是靠受众自己分辨?最近,一项试验结果表明,这两者办法是可以被结合起来的。
人工智能微调:将人为劝导和智能算法相结合
Reddit 论坛的 “/r/worldnews” 板块和麻省理工大学的研究者通过合作调研发现,鼓励用户对潜在的假新闻和耸人听闻的报道进行事实核查,不但能让用户评论数量翻倍,同时还能让这些假新闻的 “得分(Reddit score)” 降低(即将权重被刷到页面底部),调查报告表示:“这项数据能显著影响文章在子板块(subreddit)里的排名。”
调研组组长、博士生内森-马提亚斯表示,这项研究证明了所谓 “人工智能微调(AI nudge)” 的能力,这种技术把人为劝导和智能算法结合起来实现理想的结果,同时也不增加任何影响用户习惯的规则。这个想法的灵感来源于理查德-泰勒和凯斯-桑斯坦的研究,他们相信,“微调”可适用于政府和其他机构。
马提亚斯说:“研究结果显示,我们关注的很多问题,比如假新闻泛滥,是由一系列人为和算法因素的综合作用造成的。通过劝导受众改变行为模式,我们甚至都不需要去控制算法系统。”
用户“怀疑+反对”新闻信息源
他们的试验是这样进行的:子板块的版主提供了一系列 “总被举报” 的 ”标题党、不实信息” 新闻消息源,名单们大部分是英国和澳大利亚的八卦小报(有趣的是,《纽约邮报》也在名单之中)。
这些在两个月的时间里被提交到子板块的网站链接要么无监管;要么有用户评论表示怀疑、需要事实核查,如果无法独立证实,还会给文章点 “反对(downvote)”。
报告中表示:置顶评论带有怀疑倾向,往往会让评论区内包含至少一个链接的概率提升 1.28%;置顶评论中带有怀疑倾向同时还点反对的概率提升则为 1.47%。这两项的影响都是很显著的。
讨论 “r/worldnews” 板块里的小报内容如果鼓励事实核查链接,能把评论带链接的平均概率提升到 201%;如果鼓励怀疑真实性并点反对,可以把平均概率提升到 203%。
总体来说,小报文章若有鼓励事实核查的置顶评论,其得分占到了没有置顶评论文章的 49.1%,效果显著。但置顶评论中包含鼓励反对的内容,却没有发现明显的数据改变。鼓励怀疑能让小报文章的得分增长放缓,鼓励怀疑和反对则能稍微主张这些文章流量的增长。
事实核查给向用户放权
马提亚斯和合作伙伴梅瑞-莫的研究项目名叫 “CivilServant”,就是为了帮助和引导网络社区进行各种试验,议题包括管理、骚扰等等。马提亚斯选择 Reddit 的原因,也是因为这家论坛 “给了用户很大权力”,不管是自上而下的社区管理,还是自我监管。
因此,Reddit 是个理想的研究对象,论坛内容有其重要性,每天都影响着数百万人如何获取新闻信息。在其新用户的板块中,注册人数就超过 1500 万,每天文章发布量达到 450 篇,算得上是英文互联网上规模最大的世界新闻讨论单组了。所以如果能处理好不靠谱的新闻源,绝对能控制假新闻的传播。
反作用:或反助长假消息传播
试验结果是乐观的,但研究者依然有他们的担忧。比如在事实核查的过程中,“/r/worldnews” 的用户不自觉就助长了这些信息的传播。因为 Reddit 网站的算法是受文章评论活跃度影响的,无法分辨这些评论的意图是什么。所以,事实核查评论突增,反而会让该文章更流行。
这就是所谓的反作用了。早在 2010 年布伦丹-尼汉和杰森-雷弗勒发表的论文中就提到了这个概念,在某些情况下,修正虚假信息的举措反而会助长虚假信息的传播。去年还有一篇论文,则表示虽然这种反作用出现的频率并不高,但依然值得担忧。比如唐纳德-特朗普关于选举骗局的言论虽然引来了媒体疯狂的事实核查,但却导致更多人相信他的话。马提亚斯说:“这就是算法引发的结果。”
另外,建议用户点反对,效果并不明显。马蒂亚斯发现这些文章被点反对后,事实核查所造成的效果反而会被抹去,但因为缺乏相关数据,还很难寻找出原因。一个可能的理由,就是心理学上讲的 “逆反”——或许有用户不喜欢版主这样鼓励他人点反对的做法,反而去点赞了。
这项试验的很多结果都只适用于 Reddit 一家网站,马提亚斯也表示,有些结果也值得其他网站和新闻机构借鉴。
“我希望这项试验能够激发新闻机构去思索受众的力量,跟他们合作,以应对像假新闻这样的挑战。”他说,“Reddit 的版主们完全可以选择找团队人工审查的办法,但我们还是找到了新办法,邀请规模更广的受众群体来一起处理这个问题。”