“5G 导致新冠肺炎”的理论符合以上所有特征。
所以说,如果科技公司想要遏制阴谋论的传播,其实不是什么难事。但这涉及一个更复杂的问题——言论自由和公共辩论。
Facebook 发言人称,他们已经在采取积极措施,阻止错误信息和有害内容在平台上传播,并将人们导向有关冠状病毒的可靠信息。Facebook 已经开始删除宣传新冠病毒与 5G 有关的内容。
YouTube 也表示,他们将积极删除违反其政策的视频,并减少向用户推荐宣称“5G 技术与冠状病毒相关”的视频。但是,YouTube 同时表示,与 5G 相关的其他阴谋论视频将被保留,只要它们不提冠状病毒。
YouTube 的做法很值得玩味。很明显,YouTube 完全可以做到分辨什么是阴谋论,什么不是,但它选择移除那些特别危险的,但对其他的保持宽容。
类似的,可参考 YouTube 对平台上的白人至上主义、反女权主义、反 LGBT 主义等极端言论的做法。只要不宣扬恐怖主义、不鼓励人身伤害、不出现色情裸露镜头,基本都可以安全存活,甚至被推荐。
《纽约时报》在 2019 年 6 月发布了一篇长文,探讨 YouTube 上的极端主义言论对一个本不具政治立场的年轻人的影响。事实是,虽然 YouTube 的理想是成为一个公共辩论的平台,允许所有不同声音的存在,但它的算法机制往往只会把你感兴趣的东西持续不断地推荐给你。
也就是说,如果你本人偏右,那么你看到的东西会使你越来越右。如果你爱好阴谋论,你看到的东西会使你越来越相信阴谋论。
基于兴趣爱好的算法推荐机制很危险。这不是 YouTube 一家平台的问题。中国年轻人常用的几乎所有提供娱乐内容的平台也都依赖算法推荐内容,比如哔哩哔哩、抖音、快手、今日头条。