首页 >> 新闻传播学 >> 新媒体
算法推送新闻中的认知窄化及其规避
2019年10月31日 09:45 来源:《新闻与写作》2018年第9期 作者:王斌 李宛真 字号

内容摘要:

关键词:

作者简介:

  内容提要:

  算法进入传媒业后,对媒体进行社会环境守望和议程设置的核心功能提出了挑战,也即算法推送内容对用户信息接收的“过滤气泡”效应。相关实证研究表明“过滤气泡”确实存在,但其产生更多归因于媒体内容提供方还是用户个人因素却存在争议。本文分析了算法推送中“过滤气泡”的双重影响,同时提出了算法推送“窄化”的规避路径,为了戳破“过滤气泡”,媒体机构正在积极开发测试项目和应用程序,一是改进算法程序以保证推送内容多样化,二是推动算法的运作过程透明化,从而更利于内容提供方和用户意识到信息接触的偏向性所在,进而监测并控制“过滤气泡”的产生,以改善人们在使用算法新闻时的认知局限性。

  关键词:

  算法/个性化推荐/过滤气泡/认知窄化

  作者简介:

  王斌,中国人民大学新闻学院副教授、中国人民大学马克思主义新闻观研究中心副主任;李宛真,中国人民大学新闻学院2017级研究生。

  基金项目:

  本文系北京社科基金重点项目“智媒时代首都媒介深度融合的模式与战略研究”(17XCA001)、中国人民大学马克思主义新闻观研究中心重点项目“互联网新闻学前沿问题研究”(RMXY2018B003)的研究成果。

 

  算法进入传媒业后,引发了诸多业内变革和社会关切。其中最核心的莫过于对传媒社会职责的可能性影响。媒体一直被认为是社会的守望者,通过新闻价值判断、新闻选择等新闻生产机制对大千世界的变动进行环境监测,进而影响公众对大部分个人所无法亲身经历和体验的事实的了解和认知,起到了议程设置和社会协调的功能。算法介入新闻选择和新闻生产后,使得外部世界转化成李普曼所说的“我们脑中的世界”增加了新的影响因素,因此,人们非常关注基于算法推送的新闻内容是否会改变之前形成的公众认知框架及其社会判断。

  一、算法推送新闻的核心议题:智能化选择中的“过滤气泡”

  “过滤气泡(Filter Bubble)”一词最早由公民行动网站MoveOn.org的前执行董事Eli Pariser提出,他于2011年3月发布了TED演讲《当心网上“过滤气泡”》,同年5月出版书籍《The Filter Bubble:What the Internet Is Hiding from You》(过滤气泡:互联网向你隐藏了什么)。在接受著名的文化创意类网站Brain Pickings的创始人Maria Popova采访时,Pariser认为“过滤气泡”就是人们在网上冲浪所处的个人化的信息世界,这是由一系列个性化的过滤器为网络用户构造出来的独特环境,而这些过滤器盛行于互联网①。他认为个性化搜索、新闻推送以及其他以用户为导向的内容限制了我们接触新知识和新观点的范围和途径,并提到了自己的一次亲身经历:他在政治思想上倾向“进步派”,但为了保持与自由派和保守派人士的友好关系而在Facebook上同时关注了两派的讨论动态,但是长时间下来Pariser发现了一件怪事,关于保守派的消息从他的新闻推送中消失了。他意识到Facebook的算法“编辑”了新闻,因为他平时点击自由派的友人动态胜过保守派②。

  媒体内容提供者、社交网络和搜索引擎都面临着同样问题。例如谷歌会根据用户过去的在线轨迹来调整搜索显示内容,因此,两个不同用户搜索同一关键词会得到截然不同的搜索结果。Pariser说:“互联网向我们展示了它认为我们想看到的世界,但不一定是我们需要看到的世界③。”所有由算法构造的过滤器组成了“过滤气泡”,每个人的“过滤气泡”取决于个人网络生活的独特信息,包括你是谁,你做了什么,而每个人的“过滤气泡”也决定了你在网上能看到什么。公众对“过滤气泡”的担忧使得媒体机构开始反思自己在网络“过滤气泡”泛滥中所扮演的角色,开始响应在算法推荐的构建中承担算法责任的呼吁,这不仅仅是为了吸引和留住用户,媒体机构尝试还给公众一个关于算法推荐“黑箱”如何操作的真相,这更关乎社会责任和对公众权利的维护。

  与“过滤气泡”相关的概念还有“信息茧房”“回音室效应”等,在个性化推荐已经成为互联网内容提供商的主要信息筛选途径时,人们普遍表达了对算法推荐所构建的网络世界的不信任。“过滤气泡”是否真的存在?如何消除互联网的“过滤气泡”?针对这种局面,媒体机构试图构建一个关于内容生产的美好图景:不仅要展示给用户喜欢的内容,也要展示出让他们不喜欢或受到挑战的信息,从而达到对信息摄入的平衡。这样的内容打包方式是否会为用户所接受,又会对他们产生什么影响?

  二、算法推送中“过滤气泡”的双重影响

  1.算法推荐扩大了用户信息接触的可能性范围

  牛津大学路透新闻研究院发布的《2017年数字新闻报告》指出,虽然“回音室效应”和“过滤泡沫”现象无疑是真实存在的,但调查显示,社交媒体、聚合应用和搜索引擎的使用者相对非使用者来说能更多体验到信息的多样性,算法推荐能使用户更大范围接触到网络资源。受访者中有一半以上(54%)倾向于使用算法而不是通过编辑或者记者来选择接触内容,且这一比例在智能手机用户和年轻用户中占比更高④。读者所能接触到的信息数量随着互联网资源增长而增长,讯息生产的电子化和爆炸式增长,决定了网络算法会比“人工”编辑更加适应互联网媒体中的信息生态圈。算法推荐拥有许多传统编辑不具备的优势,例如对海量信息的快捷处理,针对不同用户喜好推出个性化内容,甚至利用大数据自动生成新闻。用户对“算法推荐”的青睐更多是因为其顺应了互联网时代信息海洋“取之不尽,用之不竭”的特点和与之对应的媒体发展新形态。

  在牛津大学路透新闻研究院进行的这项研究中,大多数受访者认同使用算法推荐能接收到平时不会使用的信息,人们有时也会尝试阅读平时不感兴趣的新闻。使用搜索引擎阅读新闻或者使用新闻聚合应用的群体,习惯阅读更多的在线新闻品牌,其中社交媒体用户每周访问4.34个不同品牌,而非社交媒体用户每周3.10个⑤。虽然个性化推荐会根据用户的浏览轨迹来推测个人喜好,但目前的个性化推荐并未产生完全的“信息闭环”,处于无形之中的“过滤气泡”尚未能阻碍用户获取信息的自主性。在扩大信息接触范围之后,我们所能看到的内容质量才是“过滤气泡”令人忧虑的地方。

  2.算法推荐呈现出信息接收的“窄化”效应

  矛盾的是,随着受众的信息接触范围扩大,社交媒体、搜索引擎等产品的功能设计却同时助长了“信息壁垒”的建立:我们可以选择自己感兴趣的内容,管理或者屏蔽自己的好友,这些功能都使得我们看到更多自己喜欢的东西,而屏蔽掉与自己相左的观点。也就是说即使用户接触到更大范围的网络资源,但这些网络信息不一定被用户所接收和内化。

  更令人担忧的是,算法推荐内容往往缺乏对内容的审查和把关,信息的质量无法保证,其中可能包含着假消息或者极端的观点。麻省理工学院教授Cesar Hidalgo认为,社会网络的“过滤气泡”淹没了温和的观点,却助长了极端观点的传播,大多数温和派在社交网络中选择保持沉默⑥。个性化推荐的算法相当于“黑箱操作”,算法是否能区分“事实”与“虚构”,是否会导致低质量新闻和虚假新闻的广泛传播,这是算法推荐在技术上仍需解决的问题。

  美国明尼苏达大学的计算机科学家们⑦从个人层面上测量内容多样性以考察“过滤气泡”效应。他们分析了明尼苏达大学“MovieLens”电影推荐系统从2008年2月至2010年8月的数据,研究发现观看并可能接受推荐内容的用户(简称“接收组”)和完全不接受推荐内容的用户(简称“非接收组”)从长期来看都存在推荐内容多样性降低的效应(窄化效应)。有趣的是,“接收推荐组”相对“非接收推荐组”的“窄化效应”更弱。Nguyen等人使用欧几里得距离来计算电影之间的相似性,并将“内容多样性”定义为用户列表中任何两部影片的最大距离。随着时间推移,“接收组”和“非接收组”的多样性测量距离均值分别为34.36和33.73,说明“非接收组”的内容多样性下降更快。

  用户推荐内容带来的窄化效应说明“过滤气泡”真实存在,但“过滤气泡”产生的多少和用户的使用习惯息息相关。如果用户在使用某一平台或综合使用多个平台的个性化推荐功能时,能有意识地关注和浏览不同类别的信息,则不仅可以促进推荐内容算法对个人喜好的精准描写,还能促进推荐内容的多样化,从而减少“过滤气泡”的影响。

  3.算法推荐效应的复合原因

  推荐内容存在“窄化效应”更多是因为算法,还是个人的因素?Nguyen等人⑧给出一种关于个人行为“固化”的解释,当人观看的电影越多,会形成固定的类型偏好,另外由于优秀的电影数量有限,人们在寻找新电影的时候更愿意待在自己的“舒适空间”。因此,如果人们心理上确实已经存在对某类电影的固定偏好,那么使用算法推荐非但没有窄化这类用户的接触内容,反而可能扩大他们接触新事物的机会。

  脸书核心数据科学小组(Facebook Core Data Science Team)研究了1010万美国脸书用户参与共享新闻的互动轨迹。该研究发现:无论是保守派、中间还是自由派人士,都倾向于拥有同质性意识形态的朋友关系⑨。也就是说人们接触到什么样的信息更多取决于其他因素,例如朋友的多样性,而不是搜索引擎的算法。对信息进行过滤的原因在于人们的精力和时间有限。Bakshy和Rosenn⑩的另一则研究则指出,接触到社交网络分享信息的人更容易传播信息,而且其中的弱关系正是传播新信息的主要途径。也就是说人们的“过滤气泡”不完全由算法推荐内容产生,而更可能是自我定型和限制。

  无论“窄化效应”在多大程度上归因于个人偏好,在算法上的功能改进都可以缓解或抵消推荐内容的“窄化效应”。例如在算法设计上延缓“窄化效应”,或者在推送页面上提醒用户应该注重内容的多样性,向用户提供多样性测量指数,并且目前已经有媒体平台或程序已经着手测试新的推荐算法。

  相比阅读内容的“窄化效应”,我们更应担心个性化推荐未知的一面——对隐私的记录以及用户甚至不知道自己何时经历了“信息过滤”。比如即使使用谷歌的“隐身模式”进行搜索,所得到的搜索结果仍然是基于历史搜索记录而进行算法过滤的(浏览器不可能呈现给用户所有搜索结果,这样的成本太高),而“隐身模式”功能仅仅是删掉了用户的Cookies信息和搜索历史,并不代表谷歌删掉了关于用户的偏好信息。由此造成的可能后果是:用户可能看不见自己的过往活动记录,而互联网却可以通过IP地址和登录信息来记录用户的行为轨迹,而这些信息可能被广告商和政府利用。

  三、多样化和透明化:算法推送窄化的规避路径

  算法推送机制对于公众而言目前仍是一个“黑箱”操作,人们难以决定和控制个人信息环境被算法个性化裁决的程度,这引发了公众对算法设计者承担“算法责任”的呼吁。但是每个人对于个性化推荐的看法不尽相同,个体的认知需求和认知偏好有差异性,一些人要求推荐内容变得多样化,而也有人更愿意看到让自己舒心的倾向性内容。因此,规避算法推送带来的认知窄化就有两个基本的路径:其一是扩大算法推送的选择,增加信息推送的多样化,以便进行认知纠偏;其二是公开算法的偏向性或局限性本身,使得“过滤气泡”的产生过程透明化,进而让用户自己决定“气泡”生成的程度和对自己的影响。现在很多设计者开始着手改进个性化推荐,开发了试图戳破和控制“过滤气泡”的媒介实践项目。目前较为可行的办法大致可以分为以下类别。

  1.减少或杜绝使用个性化推荐算法

  Gabriel Weinberg是互联网搜索引擎DuckDuckGo的创始人兼CEO,为了表示对谷歌等搜索引擎涉及个人隐私的不满,他创建的搜索引擎DuckDuckGo不会追踪个人历史和轨迹,也就是说用户可能会在搜索结果中看到更多的挑战自己的观点。Weinberg甚至建立了专门网页(11)来详细说明互联网对个人行为轨迹的记录以及隐私的泄露问题。DuckDuckGo“保护用户隐私”的新主张吸引了小部分乐意体验的科技达人,但其用户基数与谷歌等大型企业相比仍相差甚远,尤其是算法的不透明性让大部分互联网用户很难相信这个新鲜的搜索引擎究竟能在何种程度上保证用户的隐私安全。但是其与主流引擎相抗争、呼吁隐私安全的理念至少提醒了公众对过分依赖于个性化推荐算法的反思以及对个人隐私泄露的担忧。

  新闻网站Piqd(12)则聘用了媒体、科学、政治、经济等各个领域的专家从事新闻编辑和推荐工作,“专家编辑”们从各个领域精选文章并撰写摘要和点评。读者只要点击感兴趣的模块,即可看到当天推出的精编版新闻。Piqd不但借鉴了传统编辑生产内容时精选、优质的特点,也利用了互联网资源丰富、更新迅速的优点。和DuckDuckGo相似,Piqd也是小众产品,是为了弥补个性化推荐的潜在缺陷和不能满足的使用需求。Piqd的精选文章和编辑导读作为精读材料能满足部分读者更高的知识需求,但产出的主题范围和文章篇幅有限,无法涵盖网络上所有具备新闻价值的主题,题材上也无法满足所有读者的需求。从读者角度来说,除了每日精读的需求,用户也需要依据个人偏好聚合的短讯消息推送。在算法革命愈加深入的今天,网络用户必须依靠智能算法才能处理好繁杂的信息世界。而完全杜绝个性化算法的产品,则更像是智能生活快节奏中的一点调味剂。

  2.反向个性化推荐:“猜你不喜欢”

  偏左派激进观点的卫报(The Guardian)推出一档新闻栏目“Burst your bubble”,旨在为自由派人士推送一些保守派文章以扩大读者能接触到的观点视角,但是该栏目的文章更新不定期且数量较少,最近更新文章日期为2018年5月31日,上一篇文章更新于2018年4月13日。与其说这是一个新闻栏目,倒不如说是尝试为读者打破“过滤气泡”的概念品,从文章更新数量和阅读量来说都不能说是一个成功的新闻产品。

  应用程序Terra Incognita由麻省理工学院媒体实验室(MIT Media Lab)的Ethan Zuckerman,Catherine D'Ignazio和Matt Stempeck创建,可以向用户提供他们可能从不会在Google上搜索或在主流报道中看到的世界其他地区的新闻。Terra Incognita的推荐系统不是基于“相似性”给用户推送新闻,而是基于“偶然性”。每当打开Terra Incognita,它都会给用户推荐从未阅读过相关新闻的世界其他城市,例如日本广岛、孟加拉国达卡等等。

  比起杜绝使用算法推荐,这种“反偏好”推荐显得更为激进,但是是否人性化、是否符合用户需求却值得商榷了。除非是能起到国际影响力的重要事件,作为中国用户,很难对孟加拉国达卡等国的社会新闻产生太多兴趣,随机推送的世界新闻对特定用户来说缺乏重要性和接近性,也许读者会出于好奇心而花费一些时间阅读平时不常关注的新鲜消息,但并不会长期花费主要精力在非重要、接近性低且不感兴趣的事物上。因此,基于用户的阅读倾向来说,纯粹为了不同而不同的“反个性化”推荐无法动摇“过滤气泡”产生的根本,甚至无法改善个性化推荐中的“窄化效应”,而仅仅是针对用户推出的一种新奇尝试。

  3.个性化推荐与多样化内容的打包组合

  针对“过滤气泡”最为有效的方式,可能是基于用户偏好有意识地增加推送内容的多样性,瑞士日报NeueZürcherZeitung(NZZ)耗时半年开发了一款个性化新闻阅读App名叫“Companion”。这个应用程序仍然会基于机器学习式的个性化算法为读者选择性提供瑞士日报的新闻内容,并在用户使用“Companion”的过程中不断记录他们的消费习惯。这主要是为了发挥推荐算法的优势——让用户在最短时间内阅读到想了解的资讯。“Companion”app的产品开发总监RouvenLeuener说:“我们不想让用户感觉自己在经历‘过滤气泡’的威胁,因此App也需要提供一些复合型内容。”所以“Companion”的个性化算法的不同之处在于,不仅仅推送用户已阅读文章的相似内容,还会基于已阅读文章的含义推送一些“惊喜”的讯息(13)。也就是说“Companion”并非完全根据用户阅读轨迹来推送消息,其算法设计使得推荐内容中将呈现用户从未涉足的全新领域。瑞士日报积极开发个性化算法的同时,也未放弃对人工编辑板块的坚守。

  瑞士日报编辑新闻的方式值得在媒体机构中推广,由于每家媒体当日生产的新闻数量有限,结合用户需求提供个性化推送,并聘用人工编辑在自家媒体中筛选高质量内容组成精编版,以这两种方式为组合来满足部分用户对多样化内容的需求。然而这种操作模式在新闻聚合平台、大型门户网站上却不太适用,主要是因为平台上每日流动新闻太多,只能以算法推荐的形式滚动呈现给用户,而对内容质量和来源的把关严密程度则有所下降。在这种情形下想要减少“过滤气泡”的产生,应提高个性化推荐的准确程度,并改进算法以减轻随时间推移而形成的内容“窄化效应”,还应提升算法甄别“假新闻”的能力,保证推送新闻的质量。作为阅读新闻的用户,则应当自主地使用不同推送模式的新闻应用,同时保证阅读内容的宽度和深度。

  4.测量“过滤气泡”程度和内容偏向

  以上三种类型均属于改进算法程序以保证推送内容多样化的方法,同时,还有一类方法是试图提升算法运作过程的透明化,以利于内容提供方和用户监测并控制“过滤气泡”的产生。Ghostery是一款用于监测用户在线活动相关的跟踪机制的工具。用户使用这款小程序可以详细了解与算法追踪机制相关联的潜在公司,以及在这些追踪机制对用户浏览造成负面影响时阻止这些追踪。值得注意的是,某些企业或程序记录用户信息并非一定是坏事,用户信息可以用于改进软件和优化用户体验,这款软件仅会对可能造成负面的“过滤气泡”进行阻止。无论如何,在浏览网页时能够了解是谁在记录自己的活动轨迹是必要的,追踪软件的使用能让用户对“过滤气泡”的概念和影响有更深入的了解。尽管追踪轨迹工具能帮助防止隐私外泄和了解浏览轨迹,但如果该应用程序的数据库泄露或用作商业用途,岂不同样是损害了用户的隐私权,因此在使用时仍需了解清楚此类程序的运作机制和可信任程度。

  像PopUrls或Flipboard这类被称作新闻聚合“仪表盘”的应用程序,则可以帮助用户精准地控制阅读每日新闻的方式以及阅读内容的多样性。用户可以选择想要查看的推送内容并利用个性化布局功能设置优先阅读顺序。这类应用程序能够让用户自己决定个性化推荐顺序并了解到接触内容的多样化程度。把选择自主权交回到用户手中,不失为一个好的办法。这与传统阅读新闻的方式相似,读者在阅读一份报纸时,可以选择重点阅读的内容也可以选择想要略过的部分。但这也意味着想要避免“信息壁垒”只能依靠个人自觉性,用户自身将承担更多责任。

  新闻应用程序Read Across the Aisle在扩大新闻内容多元化的道路上走得更远,帮助用户形成阅读内容多元化的习惯。该程序创建了一个包含20个左右新闻品牌的意识形态频谱,其中位于最左边的是赫芬顿邮报,最右边的是福克斯新闻,并依据该频谱记录用户从这些新闻品牌阅读新闻的频率。该程序会显示用户花费了多少时间阅读某些来源的新闻并计算出用户的意识形态偏向。一旦用户的阅读习惯偏向左右一方时,应用程序会发出通知建议用户调整阅读内容。当然用户不一定要始终保持阅读内容的中立性,他们有选择价值偏向的权利,这款软件更多是对个人价值偏向进行“素描”并提醒用户。但是这款应用程序是存在缺陷的,首先程序对新闻媒体意识形态倾向及其倾向程度的判断具有主观性,这种判断不一定能得到所有用户的认同,其次具有某种意识形态倾向的媒体并非发布的每篇报道都带有同种价值倾向,也有可能出现中立或对立的观点或文章,再者程序纳入监测的新闻品牌数量有限。虽然这款应用程序的测量准确度不一定可靠,但为我们提供了测量“过滤气泡”的一种思路,可通过逐步纳入更多的新闻品牌,改进意识形态频谱计算方法等途径来提升测量的准确度。

  麻省理工学院的Cesar Hidalgo教授也为Facebook设想了一些类似的减少“过滤气泡”的方法:例如Facebook可以开发算法以识别用户偏见,在推送内容的上方设置一个“翻页”按钮,点击之后可以向用户展示完全相反观点的资讯;或者当算法检测到用户正在关闭或者删除某篇推送内容时,会弹出提醒建议用户关注相关的朋友或页面以扩大观点视角(14)。既然算法能够识别用户的个人偏好并据此产生个性化推送内容,同样的,算法也可以将收集到的个人阅读偏好图谱呈现给每个用户。只有了解到“过滤气泡”的存在,我们才能应对算法筑成的无形的“信息壁垒”。在透明化算法机制的基础上,利用算法来识别个人偏见并据此针对性地推出多元化内容,是解决“过滤气泡”的关键方法,也是未来个性化推荐的改进方向。

  随着Google和Facebook的算法“黑匣子”及其推荐内容备受争议,人们越来越认识到算法并非是中性的。为了应对信任危机,Google和Facebook以各种方式作出反应,包括在新闻领域与独立的事实核查人员进行合作以及对可以戳破“过滤气泡”的新算法进行测试。“数字新闻计划”(Digital News Initiative,DNI)就是由谷歌和欧洲出版商们建立合作关系,从技术和创新方面支持高质量数字新闻报道的一项资助项目。上文中提到瑞士日报(NZZ)的“Companion”App正是“数字新闻计划”第一轮资助项目之一。互联网企业与媒体机构正通力合作,试图构建“算法责任”以换回公众信任。在算法开发者的合作框架下,算法的“透明化”进程才有发展的可能,公众才能更清楚地了解到算法对个人生活产生的影响。

  信息技术的发展既是个性化推荐算法的基础,也是未来完善个性化算法的助力器。媒体组织和互联网企业在多个方面的行动让我们看到了“过滤气泡”被控制和透明化的可能,然而在努力戳破“过滤气泡”的行动中,仍存在两点担忧:一是在大部分算法都处于“黑箱”操作的背景下,声称可破除“过滤气泡”的算法程序大受公众欢迎,例如搜索引擎DuckDuckGo和追踪用户轨迹软件Ghostery,但我们又能给予此类算法程序多少信任呢?二是互联网“过滤气泡”是否真的能被消除?我们将“过滤气泡”的产生归咎于算法的偏见,但其实也部分源于人类自身既有的认知壁垒和观点极化倾向。麻省理工学院公民媒体中心研究员Nathan Matias将“过滤气泡”的定义引申到现实生活中,即使我们不生活在互联网制造的“气泡”之中,也难逃现实环境中观点的偏见和局限(15)。媒体机构尽其所能地为用户提供客观多元的新闻产品,但信息的接收和内化仍取决于个人,是否能消除“过滤气泡”最终将依靠个人的选择。我们目前所能确定的是,这些不断改进推荐算法的行动也许无法完全消除“过滤气泡”,但至少能提醒我们畅游互联网时也正身处“过滤气泡”之中。

  ①Maria Popova(May.12,2011).The Filter Bubble:Algorithm vs.Curator & the Value of Serendipity.Retrieved Jan.19,2018,from Brain Pickings,https://www.brainpickings.org/2011/05/12/the-filter-bubble/.

  ②Bianca Bosker(Mar.7,2011).Facebook,Google Giving Us Information Junk Food,Eli Pariser Wams.Retrieved Jan.19,2018 from The Huffington Post,https://www.huffingtonpost.com/2011/03/07/eli-parisefacebook-google-ted_n_832198.html.

  ③Bianca Bosker(Mar.7,2011).Facebook,Google Giving Us Information Junk Food,Eli Pariser Warns.Retrieved Jan.19,2018 from The Huffington Post,https://www.huffingtonpost.com/2011/03/07/eli-pariser-facebook-google-ted_n832198.html.

  ④Nic Newman with Richard Fletcher,Antonis Kalogeropoulos,David A.L.Levy and Rasmus Kleis Nielsen.Reuters Institute Digital News Report 2017,2017:16,http://www.digitalnewsreport.org/.

  ⑤Nic Newman with Richard Fletcher,Antonis Kalogeropoulos,David A.L.Levy and Rasmus Kleis Nielsen.Reuters Institute Digital News Report 2017,2017:43,http://www.digitalnewsreport.org/.

  ⑥Sally Adee(Nov.18,2016).How can Facebook and its users burst the 'filter bubble'.Retrieved Jan.19,2018 from New Scientist,https://www.newscientist.com/article/2113246-how-can-face-book-and-its-users-burst-the-filter-bubble/.

  ⑦TienT.Nguyen,Pik-Mai Hui,F.Maxwell Harper,Loren Terveen,Joseph A.Konstan.Exploring the filter bubble:the effect of using recommender systems on content diversity.In Proceedings of the 23rd international conference on World wide web(WWW '14).ACM,New York,NY,USA,2014:677-686.

  ⑧TienT.Nguyen,Pik-Mai Hui,F.Maxwell Harper,Loren Terveen,Joseph A.Konstan.Exploring the filter bubble:the effect of using recommender systems on content diversity.In Proceedings of the 23rd international conference on World wide web(WWW '14).ACM,New York,NY,USA,2014:685.

  ⑨Eytan Bakshy,Solomon Messing,Lada A.Adamic.Exposure to ideologically diverse news and opinion on Facebook.Science,2015,348:1130-1132.

  ⑩Eytan Bakshy,Itamar Rosenn,Cameron Marlow,Lada Adamic.The role of social networks in information diffusion.In Proceedings of the 21st international conference on World Wide Web(WWW '12).ACM,New York,NY,USA,2012:519-528.

  (11)网页地址参见privatebrowsingmyths.com

  (12)网页地址参见www.piqd.com

  (13)Mdlina Ciobanu(Mar.3,2017).NZZ is developing an app that gives readers personalised news without creating a filter bubble.Retrieved Jan.19,2018 from Journalism.co.uk,https://www.journalism.co.uk/news/nzz-is-develop-ing-an-app-that-gives-readers-personalised-news-without-creating-a-filter-bubble/s2/a700550/.

  (14)Sally Adee(Nov.18,2016).How can Facebook and its users burst the 'filter bubble' Retrieved Jan.19,2018 from New Scientist,https://www.newscientist.com/article/2113246-how-can-facebook-and-its-users-burst-the-filter-bubble/.

  (15)Sally Adee(Nov.18,2016).How can Facebook and its users burst the 'filter bubble'?.Retrieved Jan.19,2018 from New Scientist,https://www.newscientist.com/article/2113246-how-can-facebook-and-its-users-burst-the-filter-bubble/.

 

    (原文刊于《新闻与写作》2018年第9期)

 

作者简介

姓名:王斌 李宛真 工作单位:

转载请注明来源:中国社会科学网 (责编:张赛)
W020180116412817190956.jpg
用户昵称:  (您填写的昵称将出现在评论列表中)  匿名
 验证码 
所有评论仅代表网友意见
最新发表的评论0条,总共0 查看全部评论

回到频道首页
QQ图片20180105134100.jpg
jrtt.jpg
wxgzh.jpg
777.jpg
内文页广告3(手机版).jpg
中国社会科学院概况|中国社会科学杂志社简介|关于我们|法律顾问|广告服务|网站声明|联系我们