新网Logo
首页>互联网热点>

“信息茧房”这种概念,可能在误导你对技术的认知

登录 注册

“信息茧房”这种概念,可能在误导你对技术的认知

  • 来源:网络
  • 更新日期:2020-07-09

摘要:这个理论真的有意义吗? 本文来自合作媒体:腾讯研究院(ID:cyberlawrc),作者:腾讯研究院。猎云网经授权发

这个理论真的有意义吗?

本文来自合作媒体:腾讯研究院(ID:cyberlawrc),作者:腾讯研究院。猎云网经授权发布。

你肯定有过这样的体验:

闲来无事,打开一个新闻资讯或短视频App,上翻下翻,刷来刷去也都不觉得腻烦。因为App所推送的,不管是资讯还是视频,都是你感兴趣的内容。

在其背后发挥作用的,其实就是“推荐算法”。算法根据过往收集的用户信息偏好、社交关系以及数据标签,通过协同过滤等方式,向你推荐高度匹配的个性化内容。

比如你关注体育,那信息列表里肯定充斥着与体育相关的信息;你爱好历史,信息列表里也都会是历史文化类的资讯。

与此同时,算法认定的你不感兴趣的内容,就被过滤掉了。

这本来是提升分发效率的一项举措。但也有人担心:如果只推送我感兴趣的内容、赞同的观点,那会不会导致我的视野狭窄、封闭?

这种怀疑有一定道理,并且支持者不在少数。“信息茧房”这样的理论就在这一背景下兴起,并得到了来自学界与大众层面的认可。今天刚刚出炉的江苏卷作文题目,也是cue到了这一概念。

“信息茧房”理论由美国法学教授凯斯·桑斯坦在《信息乌托邦》一书中提出,指的是信息体系个人化所导致的信息封闭的后果:

当个体只关注自我选择的或能够愉悦自身的内容,而减少对其他信息的接触,久而久之,便会像蚕一样逐渐禁锢于自我编织的“茧房”之中。

这一理论是在Web1.0时代被提出,用以描述信息“偏食”所带来的风险。随着算法推荐在当下成为一种主流的内容分发机制,其原理确实有可能带来信息接收窄化、信息结构失衡等风险。

于是,“信息茧房”这一理论也自然而然地被挪用在算法推荐的内容分发机制之上,并逐渐成为后者的“原罪”。

这个理论经过媒体报道、口口相传,俨然成为了定理,许多人将它奉为圭臬。根据浙江大学融媒体研究中心日前发布的《2020中国智能媒体使用研究报告》,在有关“智媒风险”的调查中,“信息茧房”效应最受关注:

据受访者对26个题项的回答显示,“信息茧房”的担忧得分值最高,超越“隐私安全”和“人文价值”,并且在全年龄层的关注度也处于最高。

可以说,“信息茧房”已经成为各方主体不得不重视的一个问题。

“信息茧房”是一个伪概念

身处在这个概念横飞的时代,有太多概念支配我们的思想与生活,因其口口相传,我们便无暇理会其合理性。

同样,尽管“信息茧房”如此盛行,我们熟稔于使用,却未曾停下来思考:这个理论真的有意义吗?

答案很可能是否定的。

严格来说,这个理论在学术界并未得到任何实证依据的支撑,相反,还有大量的反面依据。

2016年,Seth Flaxman等学者进行了一项很有代表性的实验。研究人员选择了5万名参与者,要求他们报告自己最近阅读、观看或收听的新闻媒体,同时通过电子手段直接监测和记录他们的实际新闻消费行为,包括网页浏览历史等。

通过两项数据的对比,研究发现,人们实际的媒体消费比他们自己想象的更具有多样性。也就是说,人们只是自以为陷入了信息封闭的境地之中,所谓茧房效应根本不存在。

其实,从逻辑判断的角度就能发现,这个理论根本站不住脚。

要知道,网络并非信息无菌室,我们不太可能只垂青某一个信息端口,而是会从不同的端口来汲取信息。在算法推荐类的资讯App之外,我们大可通过公号、微博、编辑推荐类的App来拓宽信息渠道,避免单一化。

退一步说,信息偏食的后果也没有那么严重。假设一个人对历史文化领域感兴趣,那么,即便不去接收篮球相关的体育新闻,对他而言似乎也没有什么影响。

信息偏食是人的本性,即便是在传统媒体时代,我们阅读报纸时也只是挑选自己感兴趣的文章来阅读。某种程度上,算法推荐只是便捷化了这一挑选的过程。

因此,“信息茧房”只是一个站不住脚的“伪概念”,或者说是一种“揣测”。

技术发展史,就是人类的恐惧史

事情当然没有那么简单。一如吴晓波老师所言:

世界如此喧嚣,真相何其稀少。

对于“信息茧房”,我们更应该思考的是:为什么这个理论会如此盛行,拥趸众多并被大量滥用?

答案可能是:人类天然惧怕新事物及其带来的改变。

在媒介技术发展史上,包括文字、书籍、电视、互联网在内的任何一种媒介形式,都受到过与算法一样的讨伐:

《斐德罗篇》中,苏格拉底斥责文字损害人类记忆,呼唤重回口语时代。

广播、电视出现后,以尼尔·波兹曼为代表的文化评论家又抨击电子媒介会损害人类形成于印刷时代的、缜密理性的思维模式,并将由此带来一个“娱乐至死”的年代。

当计算机面世之后,它更被打造成洪水猛兽一样的可怕形象,其中最有代表性的声音,当数尼古拉斯·卡尔在《浅薄》一书中对网络导致人类思维退化的批判。

当下人们对推荐算法技术的恐惧,无疑也是这一轮回的最新一环。因算法与内容及其延伸出的与思想的接近性,我们便害怕被操纵,害怕思想的独立性被左右,害怕技术被恶人加以利用并支配我们的生活,所以我们警惕、我们怀疑、我们批判。

我们用“信息茧房”这样的理论进行批判,就像19世纪初砸毁生产机器的卢德分子一样。

人类从未想好如何与技术相处

在处理与技术的关系方面,人类似乎从未找到一个很好的平衡点——

要么是极端的轻视,将技术视为实现自身目的的某种工具,即为技术的“工具观”。

要么是极端的恐惧,将技术视为一种怪物,特别是当它以算法这样的“黑箱”面貌出现时,就更加害怕它侵入我们的生活,威胁人类的主体性。

或许,“轻视”与“恐惧”这两种情绪在某种程度上是相通的。雷吉斯·德布雷说过这样一句话:

对技术价值的轻视已经深深地刻在我们的精神基因中。

我们恐惧于技术的迅猛发展会影响到人类“万物之灵长”的至上地位,因此希望就被寄托在由暂时的恐惧情绪而带来的对技术的重视,尝试解构技术权威,进而驾驭技术、更好地“轻视”技术,使之为我们所用。

所以,恐惧背后,仍然是一种轻视,或者说恐惧恰恰是轻视的一部分。

但至少对当下而言,“信息茧房”这样的理论,正是利用了这种恐惧情绪而有机可乘。这些理论的盛行,又恰恰加重了人类社会对于技术的误读。

那么,我们究竟应该以何种态度、姿态来面对技术,面对与我们朝夕相伴、深度渗透到社会生活方方面面的技术?

在人工智能还未生成意识、成为世界主宰之前,人类仍然是技术的引导者。“种善因、得善果”,像面对牙牙学语的婴儿一样,我们有必要将技术引导向一个正途。

这其实也是为何“科技向善”成为社会主流议题的原因。科技是人类的“造物”,它没有善恶,但缔造者应有价值观。如何引导科技通向“善”途,正是科技发展迅猛的当下,我们亟需直面的一个问题。

由腾讯研究院出品的《科技向善》这本新书,也正是在这一背景下推出的。书中以案例研究的方式,详尽展现了腾讯、阿里、苹果、美团等科技公司在引导科技向善方面所付出的努力,AI科技寻人、算法正义联盟、信息无障碍、青山计划……这些案例显示了科技向善何以可能又何以可为的具体路径。