2024年12月24日
国际刊号:ISSN1004-3799 国内刊号:CN14-1155/G2 邮发代号:22-101

网上有害信息举报专区

织就"信息茧房"的人,或许就是你自己

2020-08-12 17:07:04 来源:中国青年报作者:杨鑫宇

你听说过“信息茧房”吗?近段时间,与“信息茧房”有关的讨论,几乎是社交网络上最受大众关注的专业话题。说它备受关注,是因为随手打开微博、论坛,便不难觅得这四个字的身影;而说它是专业话题,则是因为这个生动的比喻,出自美国法学家凯斯·桑斯坦早年在其著作《信息乌托邦》中提出的一个学理性概念。事实上,当很多人兴致勃勃地谈论“信息茧房”时,他们并没有仔细思考是谁织就了“信息茧房”,自己又身处怎样的信息环境之中。

在与“信息茧房”相关的常见讨论中,最常被指责的对象,是最近几年在互联网领域大热的推荐算法。推荐算法最大的卖点,就是能够根据用户的习惯与偏好,为其提供“量身定做”的个性化信息流。许多以推荐算法为核心的互联网产品,都凭着这一优势在市场上异军突起。然而,事物总有两面,这种“量身定做”常常会令人怀疑:算法的自我迭代,是否让用户看到的内容越来越极端而单一?与用户的既有认知相异的信息,又是否会直接遭到算法的屏蔽?

由于这些质疑,与“信息茧房”的形象正好相符,于是,许多人都认为“算法”是制造“信息茧房”的元凶。然而,结合“信息茧房”的原始定义,我们却不难发现,这口“大锅”并不能轻率甩给算法。

“信息茧房”的概念,是凯斯·桑斯坦在2006年提出的。当时连互联网都尚未充分普及,推荐算法根本不存在。他之所以提出这一概念,为的不是警告互联网公司,而是直接提醒公众:不要只注意自己选择的东西和使自己愉悦的通信领域。因为久而久之,这种看似“舒适”的选择,很可能将个体桎梏于像蚕茧一般的“茧房”中。在这种情况下,只看到算法的影响,而忽略个体的主观能动性,既是对问题本质的误读,也是对个体责任的逃避。

对于推荐算法,曾经有人总结道:“算法没有价值观。”在某种意义上,这句话既对也不对。之所以说它对,是因为算法本身只是一串由逻辑组成的代码,它既不会主动思考,也无法形成自己的价值观。然而,之所以说它不对,是因为算法的背后总是存在着应用算法的人,而这些应用者的价值观,很可能在算法的运作过程中受到算法的放大,进而被推向极端。推荐算法的存在,确实会让一个对信息有明显偏好的人,看到的信息越来越合其心意,但归根结底,主动作出这种选择的并不是算法,而依然是算法背后的人。

事实上,推荐算法并不是第一个为此“背锅”者。在算法诞生之前,有线电视的节目单和门户网站的新闻集,也曾被舆论指为“信息茧房”的成因。然而,就算我们把时间回溯到广播电视尚未兴起的年代,书籍报刊的读者,也总是会有自己的偏好与选择。大众传媒的发展与传播技术的进步,固然让这种选择变得更加简单,但是,看什么或不看什么的权利,终究掌握在每个人自己手中。

在同样一道选择题面前,有人甘愿为了舒适放弃判断,在单一信源的喂养之下成为“信息偏食者”,也有人为了保持理智与清醒,敢于“捏着鼻子”直面自己厌恶的信息,成为“信息杂食者”。在我们做完选择之后,自然会有推荐算法帮我们构建自己的信息流,但这个选择,只能由我们亲自作出。

如果你不想被“信息茧房”控制,要做的其实很简单,那就是身体力行地跳出自己的“舒适圈”,主动去接触你之前不愿接触的信息。自己站在舒适圈内不愿挪窝,而将责任全部推给外部原因,只会让人陷入“斗争的幻觉”之中,而无助于打破真正的信息隔离。这当然不是说企业与社会没有责任对大环境加以改善,但对个体而言,自我的觉醒与行动,是最基本的先决条件。

 


【责任编辑:关俊龙】

视频推荐

图片新闻