幸好这个世界上还存在这样一种东西。
刷屏
2016年,微信覆盖人口超过了8个亿,这意味着什么?意味着我们被刷屏的几率越来越高了。
每隔一段时间,我们就会经历一次刷屏。所有人都在迫不及待地告诉你一个相同的信息。
于是,“判断之球”就被传在了你的脚下——信?还是不信?转发?还是不转发?
这真的是个问题。
例如2016年11月末这一次,许多人都被搞蒙了。同一天,几乎是以中午为分界线。先是被一种声音刷屏,然后又被完全相反的声音刷屏。
就在那一天,我也写了一篇文章《转发的,你给我站住》。很多转发的同学在朋友圈和公众号留言问我:“王老师,我实在有些迷茫。社交媒体上的信息,究竟应该怎样判断真伪呢?”
这真的是个好问题。
信息级联
我们常说,要学会独立思考。
谈何容易啊?
战国时代,就有“三人成虎”的成语。有些话,说的人多了,即便是假话,也可能误导你相信,并且做出无法挽回的错误决策。
社交媒体上出现的这种刷屏行为,在信息科学中有一个名字,叫做信息级联(information cascade)。其含义是每一个人都没有完整信息的时候,他除了试图用有限的信息辅助决策以外,还会做一件很重要的事儿,就是参考他人的行为。因为他相信别人一定有不同的信息渠道,可以用来印证或者否定自己的判断。
曾经有这样一个实验。在一个箱子里面放了3个球,只有红球和白球。但是被试(实验的对象)并不知道哪种球有2个,哪种球有1个。
被试排好队,依次上来摸出来一个球。摸出来的球只有本人能看到,排在后面的人不能看。摸完球,被试需要对所有人公布自己的判断——我认为箱子里面有2个X色球。
排在后面的诸位只能看见前面人的判断,却不了解他到底摸到了什么颜色的球。
猜对的有奖励,人数不设上限。所以没有人有说谎的激励。每个人都做出最大努力,希望猜对。但是经常出现的结果是——所有人的答案都是错误的。
试想你摸到了一个红球,但是你前面20多人都宣布箱子里面有2个白球。你有没有可能认为箱子里面有2个红球呢?
不会吧。你会认为既然箱子里面有红球,你摸到也是正常。但是这么多人都说白球多,那就一定是白球多。
于是,为了正确,为了赢,你也会宣布白球多。看到没有,你的判断与你见到的事实已经无关了。
你的话会让排在后面的人更加坚信白球多的“事实”,即便他们摸到的大多都是红球。
你明白为什么证券市场会出现暴涨暴跌了吧?因为许多人都暗自认为别人手里一定有内幕信息。既然某支股票的走势突然变得异常,自己若无动于衷,显然就会成为最后的傻瓜。于是,必须马上行动!
权威
一般人掌握的信息不全面,做不了准确判断,怎么办呢?
有人自然而然地想到了——让权威来判断,我们大家都信权威,不就好了吗?
这不是什么新手段,人们一直就是这么做的。冯小刚导演曾经在《编辑部的故事》里面演了一个角色,“偷听敌台”之后到处散播“星星撞地球”的谣言,加上一个“业余天文爱好者”的鼓吹,弄得人心惶惶。
最后人民群众是怎么识破谣言的?
靠的是电视新闻的辟谣。
问题在于,《编辑部的故事》拍摄的年代,别说社交媒体、智能手机,就连BP机还没普及呢。
今天你让电视新闻辟谣。那新闻节目也播不成新闻了,整天辟谣也辟不完啊。
我们先假设权威的判断一定是正确的。然后呢?什么时候我们会发觉谣言存在?一定是谣言已经传播得很广了吧?谣言已经传播了,电视台再去找专家,录制节目再播放……黄花菜都凉了。
别忘了,信息进入我们的头脑,会有“先入为主”效应。姗姗来迟的辟谣效果不会很理想。
话又说回来了,权威的判断就一定是正确的吗?
呵呵。
荷兰著名心血管专家Don Poldermans的研究成果指出为了预防非心脏病手术的病人因手术引起心脏病,在术前使用β受体阻滞剂会非常有效。2011年这一研究成果被写入了新版欧洲心脏病指南。
事后证明,权威Don Poldermans的研究对数据进行了操纵。大样本实验的结论是β受体阻滞剂的使用可以使手术期死亡率提高27%。
从2011年开始,到研究造假被揭穿,欧洲大概有16万人就是因为这个心脏病指南不明不白地被治死在了手术台上。
你,真的还敢迷信权威吗?
群体智慧
自己信息不全,又不能完全依赖权威,日子可怎么过啊?
幸好这个世界上还存在着一种东西,叫做群体智慧。
对于一个事物,每个个体观察角度都不同,因此难免看法偏颇。但是把大家的判断以合理的方式综合起来,那效果就大不相同了。
数十年前,一艘美军的潜艇在某海域失踪。美国军方当然希望尽快找到潜艇。可是潜艇的可能沉没范围过于宽广,以当时的技术搜寻起来,那真叫大海捞针。
所有能找到的专家都表示无计可施。一个军官却想出了非常异类的办法——他找到了一群不同职业、不同背景的普通人,把掌握的全部信息给他们看,让他们做出猜测。猜测的办法是下注,奖品是威士忌。然后依据下注多少调整权重,对每个个体的判断进行了汇总综合。
很快,这艘潜艇就被找到了。你猜沉没地点距离大伙儿猜测的综合结果有多远?
只有220码!
关键
社交媒体的信息甄别,一样可以用群体智慧。
用的办法很简单,社交媒体平台只需要给普通用户揭示一条关键数据。
这条关键数据就是,在你的朋友圈里面,有多少人读到了这条信息(N),有多少人转发了这条信息(M)。社交媒体平台只需要把这个比例数据M/N展示给用户,就算完成任务。
你的朋友圈里面的人,是你最信赖的人群。他们比远在异国他乡的某个专家更让你放心。从前你只知道哪些人转发了消息,现在你却可以看见冰山下面的情景——那些读了消息,但根本就没有转发的人。他们“不转发”的动作,同样代表了自己的判断和意见。
你再不会因为刷屏而误以为全世界都相信这个消息了吧?这个关键数据远比全网转发比例对你更有用。因为你的朋友圈才是你最好的信息过滤器。
如果你是搞人工智能的,可能早就发现了吧?对,我这是用社交媒体用户构造了一个巨大的深度神经网络。
隐患
我们曾经采用复杂系统仿真印证了该方法甄别社交媒体虚假信息很有效。
但是,世界上没有十全十美的东西。这个方法也存在隐患。
隐患一是如果你的好友太少,或者好友整体对信息缺乏起码的判断能力,你可能每天都要耗费大量的时间被错误信息灌输。本来可以帮助你的局部网络转发比例反倒更可能误导你。
这个问题解决起来相对容易。你可以多加一些你信任的、喜欢独立思考的人为好友,并且依据虚假信息转发情况经常清理朋友圈。 :-P
隐患二在于社交媒体平台可能并不愿意揭示这样的转发信息。因为这里有个“蛋-鸡悖论”。如果只有我看到别人转发,我才肯转发,那么一条新出现的信息可能永远不会被传播出去。人家社交媒体平台也有用户活跃度的KPI考核好不好?
对这个问题,解决起来也不难。只要设定阈值,在转发次数和覆盖人群低于阈值的时候,不显示局部转发比例就可以了。本来嘛,即便是错误信息,一共也没有传到几十个人,那就没有必要弄得那么兴师动众了啊。
想要干大事儿,不学会妥协怎么行? :-)
讨论
你之前在甄别社交媒体信息的时候,采用过什么方法?管用吗?欢迎留言,咱们一起交流讨论。