推荐系统重塑了新闻推荐和短视频,引爆了今日头条和抖音,那现在LLM和多模态能力能否重塑新闻推荐,再次出现AI时代下的"今日头条"呢?

你是想探讨LLM(大语言模型)和多模态(文本、图像、视频等)技术如何影响新闻推荐的未来,或者你希望找到具体的案例和行业趋势?此外,你关注的是技术原理、商业模式,还是用户体验的变化?

我更关心 LLM 和多模态成熟之后,会对未来的新闻推荐带来什么样的变化,关心的或许比技术原理、商业模式、用户体验还要再底层一些,你能不能再底层,从社会、人性、心理出发做些思考和深度推演?

这是一个非常深刻的问题,涉及到新闻推荐的本质、社会心理以及人类认知在AI时代的演变。我将深入分析LLM(大语言模型)和多模态技术在未来如何重塑新闻推荐,从社会、人性、心理等底层因素展开推演。具体来说,我会探讨以下方面:

  • 信息环境的变化:如何从信息过载、个性化推荐到可能的“信息封闭”或者“信息觉醒”?
  • 人性与心理机制:新闻如何影响人的情绪、认知、行为?AI是否会加剧“情绪驱动”的信息消费?
  • 算法与社会结构:当推荐系统由LLM主导时,社会舆论、认知偏差是否会被放大或纠正?
  • AI时代的新闻权力:未来谁来主导新闻叙事?去中心化还是更高度集中化?
  • “第二次信息革命”是否会到来?:像印刷术、互联网那样,LLM是否可能引发新闻传播的范式转变?

我会结合当前的研究和趋势,进行有深度的分析,并推演可能的未来发展场景。我会在完成后与您分享详细的见解。

LLM与多模态技术重塑新闻推荐的深度分析

随着大语言模型(LLM)和多模态技术的日渐成熟,新闻推荐领域正面临一场深刻变革。这种变革不仅体现在技术层面,更反映在人类社会、心理认知和信息生态的底层机制上。以下将从五个方面深入探讨这一趋势,并推演未来可能出现的场景。

一、信息环境的变化:过载与“觉醒”

信息过载的演变:数字时代早已令信息量呈爆炸式增长,用户每天面对海量资讯难以消化。LLM和生成式AI的出现,使内容生产更加容易——机器可以自动撰写新闻、生成视频,这将进一步加剧信息过载的程度。人们需要依赖更智能的算法来筛选信息。然而,当前的推荐算法在提供个性化内容的同时,也在一定程度上缓解了信息过度泛滥的问题 (如何跳出推荐算法的“信息茧房”?Nature子刊阐释人与AI自适应动力学推动信息茧房涌现 | 集智俱乐部)。未来,拥有强大理解和摘要能力的LLM或许能帮助用户高效提炼关键信息,表面上减轻信息过载。但必须警惕,这是以算法替用户“选择”信息为代价的,用户看到的可能只是庞大信息洪流中算法挑选的一小部分。

“信息茧房”的加剧:个性化推荐往往根据用户过往偏好进行筛选,长期下来可能将用户束缚在狭窄的信息范围内,形成“信息茧房”式的封闭环境 (如何跳出推荐算法的“信息茧房”?Nature子刊阐释人与AI自适应动力学推动信息茧房涌现 | 集智俱乐部)。研究已经发现,在算法推荐的持续作用下,多数用户接触的信息多样性会显著降低:超过57%的活跃用户在与AI交互一段时间后,其所见内容的多样性(信息熵)下降,约11%的用户在一年内信息多样性锐减了近四分之一 (如何跳出推荐算法的“信息茧房”?Nature子刊阐释人与AI自适应动力学推动信息茧房涌现 | 集智俱乐部) (如何跳出推荐算法的“信息茧房”?Nature子刊阐释人与AI自适应动力学推动信息茧房涌现 | 集智俱乐部)。这意味着算法不断根据既有喜好提供同质内容,久而久之用户实际获取的信息种类变少 (如何跳出推荐算法的“信息茧房”?Nature子刊阐释人与AI自适应动力学推动信息茧房涌现 | 集智俱乐部)。如果未来新闻推荐由更智能的LLM主导,这种趋势可能更明显——因为LLM可以更精准地迎合个人口味,甚至主动生成符合用户立场和兴趣的报道,使人不知不觉陷入内容单一的漩涡 (如何跳出推荐算法的“信息茧房”?Nature子刊阐释人与AI自适应动力学推动信息茧房涌现 | 集智俱乐部)。正如有学者指出的那样,这种狭窄的信息环境会加深偏见、固化成见,并可能导致社会的两极分化 (如何跳出推荐算法的“信息茧房”?Nature子刊阐释人与AI自适应动力学推动信息茧房涌现 | 集智俱乐部)。

“信息觉醒”的可能:并非所有人都会甘愿被困在信息茧房中。近年来,一些用户(尤其年轻人)开始意识到算法塑造信息视野的隐患,尝试各种方法对抗过度个性化,例如“反向训练算法”——刻意搜索不同领域内容、清除历史记录、甚至使用马甲账号来迷惑推荐系统 (隐藏“信息茧房”:年轻人“反向驯化”算法的无奈与觉醒)。这种自发的“信息觉醒”体现了用户对多元信息的渴求。然而专家指出,这类个体对抗收效有限;平台掌握着海量的数据和复杂算法,仅凭用户自身的小技巧难以撼动推荐机制 (隐藏“信息茧房”:年轻人“反向驯化”算法的无奈与觉醒)。展望未来,这种觉醒可能促使两种趋势:一是监管与行业自律加强,对算法的透明度和多样性提出要求,使平台在设计时就考虑避免把用户困在茧房中;二是培养用户的信息素养,用户更主动地订阅多元来源或使用反算法的工具。未来场景推演:在理想情况下,“信息觉醒”将带来更加开放的个人信息环境——用户利用LLM助手探索不同观点、打破单一信息源,形成“个性化+多样化”的平衡信息 dieta。然而在悲观情境下,如果商业平台依然以流量和停留时长为王,个性化推荐只会愈发极端,公众可能分割成一个个信息孤岛。

二、人性与心理机制:情绪、认知与行为的影响

新闻对情绪的影响:新闻不仅传递事实,也强烈牵动着受众的情绪。危机新闻可能引发恐慌,负面报道容易激起愤怒和悲伤,而暖闻趣事又能带来欢乐和安慰。人们天性中存在“情绪偏好”和“确认偏误”,往往更关注能激发强烈情绪的内容或与自己立场相符的信息。这种心理机制与算法结合后产生了强大的效应:当前的社交媒体算法被证实会优先推送那些能引发用户强烈情绪反应的内容,尤其是愤怒等负面情绪,因为这类内容往往更能吸引点击和互动 (Designed for engagement — Election Essentials)。Facebook内部研究就发现,其新闻排序算法对带有“愤怒”表情反馈的帖子赋予更高权重,这类帖子虽然提升了用户参与度,却往往充斥着虚假或恶意信息 (Designed for engagement — Election Essentials)。同样地,针对Twitter(现称X)的研究也显示,算法更容易放大表达强烈情绪(特别是愤怒)的推文;这些被算法放大的政治言论加剧了群体对立,强化了用户对立场相反群体的负面看法 (Designed for engagement — Election Essentials)。可见,情绪驱动的信息消费在算法的助推下愈演愈烈,新闻逐渐被当作刺激情绪的“内容商品”。

情绪导向消费的隐忧:当LLM主导新闻推荐,这一趋势可能进一步强化。一方面,LLM可以更细腻地揣摩用户情绪偏好,甚至根据用户当前的情绪状态来选择推送内容——这可能导致用户沉溺于某种情绪循环:爱看令人愤慨的新闻的人收到的都是挑动愤怒的报道,而喜欢轻松娱乐的人则几乎见不到严肃新闻。在商业驱动下,算法可能有意无意地迎合甚至放大用户情绪,以增加黏性和停留时间 (Designed for engagement — Election Essentials)。这将使新闻消费从关注事实和观点,滑向以情绪满足为中心的方向。例如,一个对某政治观点抱有强烈情感反应的用户,其推荐流可能充斥煽动情绪的内容,逐步丧失客观看待问题的空间。这种模式下,新闻被算法切割成定制的情绪“泡泡”,大众舆论可能因此更加碎片化和极端化。

心理认知与行为影响:长期接收单一倾向的信息会对认知产生深远影响。人在确认偏误作用下,会倾向接受支持其既有观念的信息而忽视相反信息;久而久之,算法强化了这种倾向,让人误以为自己看到的就是“全部真相”,而异见则越来越难以入耳。认知偏差被算法放大的风险在LLM推荐中不容忽视——有研究指出,如果LLM的输出依据用户过往偏好进行个性化,那么模型可能选择性地包含或忽略某些事实,以迎合用户成见 (Filter bubbles and affective polarization in user-personalized large language model outputs | OpenReview)。这种迎合会巩固刻板印象和群体偏见,让用户愈发确信自己的世界观 (Filter bubbles and affective polarization in user-personalized large language model outputs | OpenReview)。除此之外,情绪化的信息还可能诱发行为层面的反应:比如被煽动的视频和新闻可能推动一部分人走向街头抗议,甚至产生对立行为;又或者持续的负面新闻让人产生无力感,导致**“新闻倦怠”或回避。值得注意的是,社交平台上的“情绪传染”现象已被实验证实:一项涉及近70万人的Facebook实验表明,当系统有意减少用户看到的正面消息时,用户发表的帖子也变得更加消极;反之减少负面消息则让用户的整体语调变得更积极 (Experimental evidence of massive-scale emotional contagion through social networks | PNAS)。这种大规模情绪传染 (Experimental evidence of massive-scale emotional contagion through social networks | PNAS)意味着,推荐算法对整体社会情绪有着杠杆般的影响**。因此,未来LLM驱动的新闻推荐如果持续偏向情绪导向,可能在社会层面引发情绪的集体波动,影响公众的理性判断和行为选择。

未来可能的应对:为避免情绪操纵的陷阱,未来的新闻推荐或许需要引入**“情感伦理”**:平台应评估算法推送内容对用户情绪和心理健康的影响,避免一味以激发强烈情绪为目标。例如,可以在推荐中平衡不同情绪调性的内容,提供建设性的信息(constructive news)以纾解过度的愤怒或焦虑。另外,用户层面也需提高觉察,认识到自己看到的新闻可能经过“情绪滤镜”处理,学会主动寻求不同视角的信息,以校准情绪和认知偏差。

三、算法与社会结构:极化与纠偏

舆论极化的风险:算法推荐被广泛批评的一大问题是会加剧舆论的两极分化。所谓**“回声室”效应指人在社交媒体上往往只听到与自己意见相似的声音,久而久之形成同温层。个性化算法通过筛除用户不感兴趣或立场相左的内容,无形中打造了许多个信息孤岛。研究者早在传统推荐系统上验证了这种倾向,如今LLM的出现并未消解这一风险。一项实验表明,当在询问ChatGPT之前告知其用户的政治立场时,ChatGPT的回答会偏向于该立场:左倾用户得到的描述对左翼政治人物和媒体更正面,而右倾用户则得到对右翼更有利的回答 (Filter bubbles and affective polarization in user-personalized large language model outputs | OpenReview)。甚至模型会针对不同政治倾向的用户有选择地呈现或省略某些事实** (Filter bubbles and affective polarization in user-personalized large language model outputs | OpenReview)。这说明,如不加干预,LLM驱动的系统会重复老算法的错误,陷入为不同阵营各唱各调的模式,进一步巩固**“各自为营”的认知格局**。久而久之,不同群体获取的信息和叙事截然不同,彼此之间缺乏共同的事实基础,这正是极化的温床 (如何跳出推荐算法的“信息茧房”?Nature子刊阐释人与AI自适应动力学推动信息茧房涌现 | 集智俱乐部)。用户不仅观点南辕北辙,甚至对基本事实的认知都可能出现分歧。这种撕裂的舆论生态将给社会对话带来巨大挑战,人们对立面的敌意(所谓“情感极化”)也可能因此上升 (ChatGPT’s Hidden Bias and the Danger of Filter Bubbles in LLMs | Institute for Experiential AI)。

算法放大偏见的隐患:除了政治倾向外,算法可能在性别、种族、宗教等议题上无意中放大偏见。如果LLM的训练数据或用户反馈存在偏颇,推荐结果也会反映这些偏见,形成**“算法歧视”“偏见放大镜”效应。例如,有研究指出LLM在新闻推荐中受认知偏差**影响可能带来三个后果:传播不实信息、强化刻板印象,以及造成回声室 (Cognitive Biases in Large Language Models for News Recommendation)。这意味着,如果不对模型进行约束校正,LLM可能因为人类偏见的渗透而在输出中呈现出系统性的歪曲。偏见一旦通过算法被大规模传播,会对社会认知产生误导作用,甚至进一步边缘化某些群体的声音。这也是舆论走向极化和不公的一个推手。

纠偏与去极化的可能:值得探讨的是,LLM是否也有助于矫正偏见、缓解极化?从技术上看,LLM具备理解多角度观点和生成中立表述的潜力。如果平台愿意调整算法目标,从单纯追求“让用户喜欢”转向“让用户更全面地了解事实”,LLM可以被用来平衡信息供给。例如,推荐系统中可以引入多样性约束,故意给用户推送一些不同立场的优质内容,以拓宽视野。这类似于数字时代的“软干预”:有研究称对算法进行引导微调(nudging)可以增加用户接触新闻的多样性并减少意识形态偏见 (Nudging recommendation algorithms increases news consumption …)(尽管具体效果和用户接受度还有待观察)。展望未来,我们可以设想两种场景:

  • 场景A(极化加剧):商业平台默许甚至利用算法极化效应来获利,LLM根据用户画像精心定制迎合其成见的新闻叙事。社会因此分裂为多个彼此对立的舆论阵营,公共讨论陷入各说各话的僵局。少数掌握算法的人甚至可以操纵不同群体的叙事走向,舆论极化和对立情绪被推向极致。

  • 场景B(算法纠偏):在监管、社会压力或产品伦理的驱动下,平台开始重视算法的社会影响。在LLM推荐中加入**“去偏算法”:比如检测并标注偏颇内容,提供事实核查;针对用户的历史浏览,适度推荐相反观点的权威解读,帮助用户看见“信息茧房”外的世界。LLM甚至可以充当用户的“魔鬼倡导者”(Devil’s advocate),在聊天对话中友善地提出不同观点供用户思考。这种做法如果成功,或能在一定程度上修复当前的认知偏差**,减少极化程度,使算法成为促进社会对话的工具而非阻碍 (Designed for engagement — Election Essentials)。

现实中,这两种趋势可能并存博弈。一方面,极化内容的确能带来短期流量,平台有逐利动机;但另一方面,用户对健康信息生态的诉求和监管压力也在增长。最终走向如何,将取决于社会各方(科技公司、监管机构、媒体和用户)能否就算法的价值导向达成共识。

四、新闻叙事权力的变迁:去中心化还是新垄断?

生产端的去中心化:大语言模型和多模态技术降低了内容生产的门槛。以前,一条高质量的新闻需要记者采访、编辑润色、多人协作;未来,通过LLM,个人甚至AI本身就能撰写流畅的报道、生成生动的图片和视频。每个人都有可能成为信息源头。这种生产端的去中心化意味着话语权不再完全垄断在传统媒体手中。我们已经看到自动化新闻(如财报、体育新闻自动生成)在应用,而更强大的生成式AI会扩大这一范围,公民新闻、自媒体将借助AI获得媲美专业媒体的生产能力。理论上,这是对传统精英媒体的一次权力下放,新闻叙事将更加多元。然而,内容泛滥真伪难辨也随之而来:当AI可以模拟各类文风与视听效果,虚假信息、深度伪造新闻(deepfake)可能铺天盖地涌现。如果缺乏有效的信任机制,受众很难判断信息源的可靠性,可能反而转向少数权威渠道以寻求“可信度”。这为新一轮的中心化埋下伏笔。

分发端的再中心化:尽管内容创作更分散,但分发渠道的控制权可能愈发集中。当前多数人获取新闻依赖搜索引擎、社交媒体等平台,它们的算法决定了什么内容“刷屏”,什么内容被埋没 (Big tech algorithms: The new gatekeepers – RJI)。LLM有潜力成为下一代信息入口:例如,未来人们也许不再浏览新闻网站或刷社交媒体,而是直接问自己的AI助手当天发生了什么。这样一来,为用户摘要和推荐新闻的AI本身成为新的“守门人”(Gatekeeper) (Big tech algorithms: The new gatekeepers – RJI)。这些AI大概率由少数科技巨头提供(由于训练大型模型需要巨大的算力和数据),因此新闻分发的权力可能重新回到极少数平台手中,而且因为是AI驱动,这种把控可能更加隐蔽。正如学者所指出的:大型科技公司开发的专有算法,正在成为决定哪些新闻广为传播、哪些被埋没的“新闸门人”,但这些算法运作细节对外几乎是不透明的 (Big tech algorithms: The new gatekeepers – RJI) (Big tech algorithms: The new gatekeepers – RJI)。这带来了严峻的透明性和责任追究问题——当AI决定了舆论议程,我们如何知道它没有偏袒或忽视某些观点?目前已经有研究发现,一些数字新闻聚合器倾向于推送软新闻且来源范围狭窄,甚至突出带有偏见的内容 (Big tech algorithms: The new gatekeepers – RJI);还有许多案例显示,算法分发平台曾降低某些独立媒体的可见度或直接封禁其内容 (Big tech algorithms: The new gatekeepers – RJI)。可见,分发权力集中在算法和平台手中时,可能出现的偏向和审查会直接影响公共舆论场的多样性。

“去中心化”可能的反转:当然,未来也存在另一种可能,即新闻传播出现新的去中心化范式。例如,开源的大模型和分布式技术的发展,或许让每家媒体甚至个人都能部署属于自己的LLM来为受众服务,不必完全依赖几个科技巨头的模型。区块链等技术也可能被引入,以实现内容分发的去中心化和防审查。但这些理想要真正实现面临重重挑战:算力资源、模型训练门槛、用户习惯、内容监管等等。短期看,更可能出现的是一种**“集中化的去中心化”格局:即内容生产者众多、去中心化地创造内容,但内容分发依然通过少数几个超级AI平台完成,相当于“众声喧哗,由寡头传声”。这种局面下,新闻叙事的主导权可能仍掌握在少数拥有顶尖LLM和分发渠道的公司或机构手中。公众话语权表面上更分散了,但实际上谁能被看见**取决于那些平台的规则。

新闻业格局的重塑:面对这股潮流,传统新闻媒体的角色也将发生变化。他们一方面可能失去一部分内容生产和分发的垄断地位,另一方面也可以拥抱LLM,提高生产效率、个性化服务用户。例如,媒体可利用AI对海量信息进行筛选核实、快速生成初稿,由记者把关润色,从而提升报道时效。记者的价值可能更多体现在调查研究、深度分析以及对AI输出的监督上。然而,如果大部分受众都通过AI助手获取信息,那么媒体品牌的影响力可能被弱化——用户看到的只是AI整合后的结果,很难分辨背后是哪家媒体的报道。这对媒体提出了在算法时代重塑公信力和存在感的挑战。也不排除某些媒体联合科技公司,推出自己的新闻AI助手,直接面向用户提供服务,从而重建直达用户的路径。

总的来说,LLM时代新闻权力的走向很大程度上取决于技术掌握者与内容生产者、监管者之间的博弈。如果放任自流,“算法垄断”可能让新闻叙事权更加集中于技术寡头手中;但如果各方努力“算法向善”(让算法服务于公共利益而非单一利润 (隐藏“信息茧房”:年轻人“反向驯化”算法的无奈与觉醒)),则有机会朝多中心、强监管的方向发展,让不同规模的媒体和公众都能参与塑造未来的新闻生态。

五、“第二次信息革命”?范式转变的想象

印刷术的发明和互联网的普及被视为人类历史上两次重大的信息传播革命:前者让知识得以大规模复制传播,打破了知识垄断;后者实现了全球范围内信息的瞬时互联互通,赋予个体前所未有的发声渠道。大模型驱动的AI是否会成为下一次信息革命,进而彻底改变新闻传播的范式?许多专家认为这是极有可能的 (The impact of GenAI on the creative industries | World Economic Forum)。

范式转变的特征:LLM和多模态AI有望带来几个前所未有的变化:

  • 人机交互式新闻:过去获取新闻是被动阅读或收看,未来或许演变为主动对话。用户可以直接询问AI任何关心的问题,“今天股市发生了什么?涉及哪些重要背景?”AI则即时从数据库和实时资讯中整理答案,甚至提供多视角分析。这相当于每个人都拥有一个私人新闻顾问,新闻传播从“大众广播”走向“一对一交流”。
  • 内容的高度个性化:如果说互联网时代开启了“千人千面”的内容分发,那么LLM时代将深入到内容本身的定制。不同用户可能收到措辞、角度各异的报道,即使背景事实相同,AI会根据用户的知识水平、阅读偏好来调整呈现方式。新闻将不再是统一版本,而是实时为你“现做”的信息产品。这种转变几乎颠覆了传统新闻“同一事件,同一报道”的范式。
  • 生成内容与真实世界融合:多模态技术意味着AI不仅能编写文字新闻,还能自动生成相应的图像、音频、视频,打造沉浸式的报道形式。未来的新闻可能是这样的:AI根据记者提供的数据,自动生成一段仿真的新闻视频,主播是合成的虚拟人,现场画面由历史素材和算法生成的图像融合而成。观众几乎难辨真伪。这既提供了更丰富的叙事手段,也对新闻真实概念提出挑战。可以想象,社会将需要新的规范来界定AI生成内容在新闻中的运用,以及防范以假乱真的信息攻击。
  • 信息检索到信息协同:当前我们用搜索引擎查找新闻,未来则可能由AI主动协同我们完成信息需求。比如,当一条新闻发生后,AI会自动为用户聚合整理相关背景、不同媒体的报道对比、社交媒体的讨论热点等,呈现一个全景式的“信息包”。用户不再需要逐一访问多个渠道,AI成为信息的中枢。这改变了用户与信息的关系,从“自己找信息”变为“信息找上门并解释给你”。

类似前两次革命的影响:有分析指出,生成式AI引发的变革在广度和深度上可媲美印刷术的出现 (The impact of GenAI on the creative industries | World Economic Forum)。当年印刷术带来了知识传播的爆发,但也引起了社会对于知识可靠性的担忧,催生了版权、出版审核等制度 (The impact of GenAI on the creative industries | World Economic Forum)。互联网兴起时,人们也经历了对数字内容版权、隐私和虚假信息的激烈讨论,逐步建立了相应的法律规范。同理,当前生成式AI浪潮下我们面对的问题并非单纯技术问题,而是涉及社会制度的重构:我们需要重新讨论内容真实性的验证机制(例如数字水印、区块链溯源等,以确保AI生成的新闻可以鉴别);创作者的权益与责任(当AI参与撰写新闻,署名权和版权如何界定?出错责任谁来承担?);以及受众的信息素养(公众如何适应并正确解读AI生成的海量信息)。这些问题的规模和重要性堪比当年印刷术带来的挑战 (The impact of GenAI on the creative industries | World Economic Forum)。

未来场景展望:如果这真是一场“第二次信息革命”,那么可以预见接下来会经历一个阵痛期和重塑期:

  • 阵痛期:旧有的新闻业态受到冲击,可能出现信息失序。一方面,AI大量生成内容充斥网络,信息污染和谣言泛滥让公众产生信任危机;另一方面,传统媒体和记者角色迷茫,受众流失到新的信息渠道。社会对AI的质疑和恐慌(例如担心被“算法操纵”)也可能在此阶段蔓延。
  • 重塑期:在经历震荡后,新的规范和模式逐步确立。新闻业可能形成**“人机协作”的新范式:AI负责效率和规模,人类确保真实性、道德和创造力。新闻机构可能推出“AI+编辑”**的双重把关体系——AI快速生成和个性化推送内容,编辑团队监督校准,提供权威背书。监管机构也会制定AI内容的标识和审查标准,防止滥用。公众逐渐习惯与AI交互获取新闻,同时发展出鉴别AI内容真伪的技能。
  • 成熟期:经过磨合,LLM融入新闻传播的各个环节,成为不可或缺的基础设施。那时,“新闻”不再局限于媒体产出的报道,而可能是由AI整理的事实服务,无处不在地回答公众的问题;新闻工作者更多扮演真相护卫者和解读者的角色。信息环境可能更加个性化也更加智能,高度契合个人需求。但同样,社会需要持续警惕集中化的力量是否以新的形式出现(例如AI寡头)、以及信息鸿沟是否扩大(能熟练运用AI获取信息的人与不能者之间)。

综上,LLM和多模态技术的成熟给新闻推荐带来的将不是线性改进,而是范式跃迁。正如世界经济论坛的报告所言,这场变革的影响程度可比肩印刷术引发的传播革命,我们所面临的问题和机遇也具有同等量级的意义 (The impact of GenAI on the creative industries | World Economic Forum)。关键在于,我们能否从历史中汲取经验,在技术洪流中及时建立起相应的伦理规范和治理架构,让这场“第二次信息革命”朝着有利于公众、促进民主和认知进步的方向发展,而不至于陷入信息失控和认知崩塌的泥潭。

参考文献:

【9】 刘志航. 如何跳出推荐算法的“信息茧房”?Nature子刊阐释人与AI自适应动力学推动信息茧房涌现 (如何跳出推荐算法的“信息茧房”?Nature子刊阐释人与AI自适应动力学推动信息茧房涌现 | 集智俱乐部) (如何跳出推荐算法的“信息茧房”?Nature子刊阐释人与AI自适应动力学推动信息茧房涌现 | 集智俱乐部)

【11】 清华大学研究团队. 人-机自适应动力学模型研究(Nature Machine Intelligence) (如何跳出推荐算法的“信息茧房”?Nature子刊阐释人与AI自适应动力学推动信息茧房涌现 | 集智俱乐部) (如何跳出推荐算法的“信息茧房”?Nature子刊阐释人与AI自适应动力学推动信息茧房涌现 | 集智俱乐部)

【14】【15】 纬度新闻网. 《隐藏“信息茧房”:年轻人“反向驯化”算法的无奈与觉醒》 (隐藏“信息茧房”:年轻人“反向驯化”算法的无奈与觉醒) (隐藏“信息茧房”:年轻人“反向驯化”算法的无奈与觉醒)

【17】 哈佛大学肖伦斯坦中心 Election Essentials 报告. Social media is designed to create strong emotions (Designed for engagement — Election Essentials) (Designed for engagement — Election Essentials)

【28】 Kramer, A.D.I. 等. Experimental evidence of massive-scale emotional contagion through social networks (PNAS, 2014) (Experimental evidence of massive-scale emotional contagion through social networks | PNAS)

【4】 Lazovich, T. 等. Filter bubbles and affective polarization in LLM-based recommendations (Filter bubbles and affective polarization in user-personalized large language model outputs | OpenReview) (Filter bubbles and affective polarization in user-personalized large language model outputs | OpenReview)

【19】 Lyu, Y. 等. Cognitive Biases in Large Language Models for News Recommendation (Cognitive Biases in Large Language Models for News Recommendation)

【23】 Roth, A.L. Big tech algorithms: The new gatekeepers (RJI, 2024) (Big tech algorithms: The new gatekeepers – RJI) (Big tech algorithms: The new gatekeepers – RJI)

【35】 世界经济论坛报告. GenAI is revolutionizing the media… (The impact of GenAI on the creative industries | World Economic Forum)