AI 时代,以及 AGI 到来之后,类似 Wikipedia 这样的产品还有意义吗?知识库,以及经过事实核查的知识库对这个世界还重要吗?

你的问题很有趣!你是想探讨 AGI 时代 Wikipedia 等知识库的价值和意义,还是想了解学术界或技术界对这一问题的看法?

另外,你更关注哪个方面:

  • 知识库的生存和发展(比如 Wikipedia 这样的开源、众包知识库是否会被 AI 取代)
  • 知识的可信性(AI 生成的信息是否会削弱对经过事实核查的知识库的需求)
  • 其他角度?

让我知道你的具体兴趣点,我可以更有针对性地研究这个话题!

  1. 我关注前沿领域的学者、专家对这个问题的观点。
  2. 我希望寻找这类知识产品的最佳发展与迭代路径。

好的,我会收集前沿领域学者和专家对 AGI 时代 Wikipedia 及类似知识库产品未来价值的看法,并研究这类知识产品可能的最佳发展与迭代路径。

我将关注:

  • AGI 可能如何影响 Wikipedia 及其他开源、众包知识库的生存与发展。
  • 事实核查在 AI 生成信息时代的作用,以及专家的观点。
  • 学术界、技术界和行业领袖对知识库未来的预测。
  • 可能的产品演进方向,包括 AI+人类协作的最佳实践。

研究完成后,我会向你汇报最新发现。

AGI 时代的 Wikipedia 及众包知识库未来展望

AGI 对 Wikipedia 等众包知识库的影响

知识库的可见性与生存挑战: 随着生成式 AI 的兴起,Wikipedia 正面临“隐身化”的风险。一方面,大型模型广泛利用 Wikipedia 作为训练数据,但在提供答案时往往不直接引用来源 (Wikipedia is facing an existential crisis: Can Generation Z save it? - Telegraph - Telegraph)。这意味着 Wikipedia 的内容被 AI 消化利用,却不被用户察觉,其在公众中的可见度正在下降 (Wikipedia is facing an existential crisis: Can Generation Z save it? - Telegraph - Telegraph)。有分析指出,Wikipedia 正在被简化为 AI 的幕后知识库,“可见度缩小” 导致潜在读者和编辑对其重要性的认知减弱 (Wikipedia is facing an existential crisis: Can Generation Z save it? - Telegraph - Telegraph)。例如,当人们在聊天机器人中看到一段含糊来源的信息时,即使发现错误,也不一定意识到源头是 Wikipedia,从而丧失去 Wikipedia 更正的动机 (Wikipedia is facing an existential crisis: Can Generation Z save it? - Telegraph - Telegraph)。

存在性危机与参与度下降: 这一趋势引发了对 Wikipedia 生存发展的担忧。在 2023 年度的维基年会上,与会者就强调了 Wikipedia 面临被边缘化甚至“湮没”的生存威胁 (Wikipedia is facing an existential crisis: Can Generation Z save it? - Telegraph - Telegraph)。一些专家直言,如果任由 AI 把 Wikipedia 内容“抽取”走而不给予反馈,志愿编辑社区可能萎缩,新内容和维护更新将难以为继 (Wikipedia is facing an existential crisis: Can Generation Z save it? - Telegraph - Telegraph) (Wikipedia is facing an existential crisis: Can Generation Z save it? - Telegraph - Telegraph)。近期数据显示,Wikipedia 流量近年在下降,如何维持读者参与度与捐赠成为重大挑战 (Wikipedia’s AI Challenge: How the free encyclopedia adapts in the age of ChatGPT)。因此,有人呼吁采取措施吸引新一代(如 Z 世代)参与编辑,以 “为维基生态注入新鲜血液”,防止其过早衰落 (Wikipedia is facing an existential crisis: Can Generation Z save it? - Telegraph - Telegraph)。

AI 依赖与知识库的基础价值: 矛盾的是,Wikipedia 依然是 AI 知识的基石。几乎所有大型语言模型(LLM)训练时都包含了 Wikipedia,而且往往是其最大的数据来源之一 (Wikipedia’s value in the age of generative AI – Wikimedia Foundation)。正因如此,有观点认为在充斥机器生成内容的互联网中,由人类协作打造且可靠来源支撑的 Wikipedia “反而更加宝贵” (Wikipedia’s value in the age of generative AI – Wikimedia Foundation)。维基媒体基金会指出,Wikipedia 20 多年来的价值在于开放的志愿者社区反复创造、分享和打磨知识的过程,这使其内容具有可信度和可靠来源 (Wikipedia’s value in the age of generative AI – Wikimedia Foundation)。当 AI 对互联网内容的大规模利用导致信息泛滥甚至质量下降时,人类编辑的知识库将成为辨别真实性的重要参考 (Wikipedia’s value in the age of generative AI – Wikimedia Foundation) (Wikipedia’s value in the age of generative AI – Wikimedia Foundation)。正如一位观察者所言:“我认为 Wikipedia 正变得愈发重要,只是其直接能见度在降低” (Wikipedia is facing an existential crisis: Can Generation Z save it? - Telegraph - Telegraph) (Wikipedia’s value in the age of generative AI – Wikimedia Foundation)——换言之,即使用户不直接访问,它依然在为信息生态提供养分。维基媒体的产品技术官也强调,在 AI 内容泛滥的时代,人类创造的原创内容是防止模型退化的关键:如果未来 AI 系统缺乏新的真人知识输入,它们的性能将停滞甚至劣化(所谓“模型崩塌”现象) (Wikipedia’s value in the age of generative AI – Wikimedia Foundation)。这意味着维系像 Wikipedia 这样的知识库不仅对人类有益,也对 AI 本身的长期发展至关重要 (Wikipedia’s value in the age of generative AI – Wikimedia Foundation) (Wikipedia’s value in the age of generative AI – Wikimedia Foundation)。

AI 生成信息时代的事实核查作用

AI 失真与谣言风险: 在 AI 生成内容盛行的环境下,事实核查被公认为比以往任何时候都更重要。这是因为当前的生成模型常常生成看似可靠却实际错误的信息,甚至会伪造出处引用 (Wikipedia Creator Jimmy Wales Describes Current AI as “Terrible” & “Doesn’t Work at All,”, Yet Foresees Superhuman Capabilities in 50 Years’ Time) (AI Is Tearing Wikipedia Apart)。Wikipedia 创始人吉米·威尔士就批评目前的 ChatGPT “写维基文章很糟糕”,不仅内容常有谬误,还会捏造并不存在的来源来蒙混过关 (Wikipedia Creator Jimmy Wales Describes Current AI as “Terrible” & “Doesn’t Work at All,”, Yet Foresees Superhuman Capabilities in 50 Years’ Time)。维基社区的专家同样担忧,如果不经过严谨核查,让这类机器生成内容长驱直入 Wikipedia,将充斥大量错误,危及百科的可靠性 (AI Is Tearing Wikipedia Apart) (AI Is Tearing Wikipedia Apart)。乔治亚理工学院的艾米·布鲁克曼教授指出,大模型本身并不具备分辨真假的能力,其文字只是模拟人类语气 (AI Is Tearing Wikipedia Apart)。她的建议是:“我们可以用这些模型生成初稿,但唯一可行的办法是一定要由人来编辑审校并检查所有来源” (AI Is Tearing Wikipedia Apart)。换言之,每个由 AI 给出的断言都必须经人工验证,确保有可靠出处支撑 (AI Is Tearing Wikipedia Apart)。如果没有这样的核查,“人们可能会把未经检查的东西随手加进去,最终拉低 Wikipedia 内容质量” (AI Is Tearing Wikipedia Apart)。

必要性与挑战并存: “在充满貌似有理却实则荒谬答案的洪流中辨别真相,将变得无比珍贵” (ChatGPT is reshaping information infrastructures (opinion))。这句话道出了事实核查在 AI 时代的必要性。然而,要在海量AI生成信息中落实全面核查,也面临巨大挑战。首先是规模问题——生成式 AI 可以在几秒钟内产出成千上万字内容,但人工核实每个细节耗时耗力。有观察指出,一些小语种或冷门主题维基如果引入机器生成文本,志愿者可能难以应对井喷的巡查工作,从而被低质内容淹没 (AI Is Tearing Wikipedia Apart)。即使在主要语言的 Wikipedia,据近期研究,2024年8月新创建的英文维基文章中有 5%以上疑似含有大量AI生成内容,且这类文章质量偏低,经常带有宣传或偏见 (The Rise of AI-Generated Content in Wikipedia)。这迫使社区投入更多精力去检测和清理机器产出 (The Rise of AI-Generated Content in Wikipedia) (The Rise of AI-Generated Content in Wikipedia)。然而,目前的AI内容检测工具精度有限,在不同篇幅、领域下可靠性不一 (The Rise of AI-Generated Content in Wikipedia)。其次,模型“幻觉”问题尚未解决——正如OpenAI自己所承认的,LLM “会在不知道答案时编造事实” (AI Is Tearing Wikipedia Apart)。这意味着即便开发者也提醒用户不能全信 AI 输出,需要辅以外部校验。然而很多用户可能并不了解这一点,增加了误信谣传的风险。事实核查机构和技术也在与时俱进,例如国际新闻事实核查网络和一些初创企业正尝试利用生成式 AI 辅助核查工作,但目前在处理小语种内容、理解上下文细微差别等方面仍显局限 (General News - Ghana AI Summit & Awards)。总的来看,在AI生成信息时代,**“不求证就不要轻信”**应成为铁律:无论是百科编辑还是普通读者,都需具备更强的信息鉴别意识和工具支持,以应对层出不穷的AI谬误。

学术界、技术界和业界对知识库未来的观点

人类在知识创造中的持久优势: 多位领军人物认为,即使AI继续进化,人类在知识体系中仍将扮演不可取代的角色。Wikipedia 联合创始人吉米·威尔士乐观估计,人类编者相对于 AI 的优势还将持续数十年。他指出,目前的 AI 虽然擅长仿造文本,但在真实性和判断力上远不及人类,“未来的知识构建始终需要人类参与” (Wikipedia Creator Jimmy Wales Describes Current AI as “Terrible” & “Doesn’t Work at All,”, Yet Foresees Superhuman Capabilities in 50 Years’ Time) (Wikipedia Creator Jimmy Wales Describes Current AI as “Terrible” & “Doesn’t Work at All,”, Yet Foresees Superhuman Capabilities in 50 Years’ Time)。威尔士甚至预言,也许需要 50 年 AI 才可能在综合智能上超越人类,但即便那时,其主要作用也应该是协助而非替代人类进行智力任务 (Wikipedia Creator Jimmy Wales Describes Current AI as “Terrible” & “Doesn’t Work at All,”, Yet Foresees Superhuman Capabilities in 50 Years’ Time)。这种观点得到很多学者赞同——研究在线协作的布鲁克曼教授也强调,大模型只能充当助手,终审权还应在人类手中 (AI Is Tearing Wikipedia Apart) (AI Is Tearing Wikipedia Apart)。她坦言:“让 AI 起草没有问题,但最后每一点都得由人检查” (AI Is Tearing Wikipedia Apart)。这表明专家普遍相信,人类的常识、批判性思维和道德判断是 AI 难以企及的,从而确保了我们在知识生产中的主导地位。

知识库不可或缺的未来地位: 在技术产业层面,Wikipedia 等开放知识库被视为未来信息生态的基础设施,其重要性不仅不会削弱,反而会因AI的发展而提升。维基媒体基金会的展望指出,一个可持续的未来信息生态需要源源不断的原创内容供给,而只有依靠全球志愿者共同创造才能满足这一需求 (Wikipedia’s value in the age of generative AI – Wikimedia Foundation) (Wikipedia’s value in the age of generative AI – Wikimedia Foundation)。如果让互联网充斥无源头的机器二次加工内容,AI 很快将“忘记自己曾经知道的东西”,出现模型退化 (Wikipedia’s value in the age of generative AI – Wikimedia Foundation)。因此,行业领袖呼吁各大AI公司投入力量支持和激励人类创造,以维护训练数据的新鲜和高质量 (Wikipedia’s value in the age of generative AI – Wikimedia Foundation) (Wikipedia’s value in the age of generative AI – Wikimedia Foundation)。许多观察家预测,未来大众会越来越重视有人工验证的可靠来源,“由人审核的信息将更受青睐” (Wikipedia’s value in the age of generative AI – Wikimedia Foundation)。这意味着像 Wikipedia 这样有严格引用和社区审议机制的知识库,在抗击错误信息、提供可信知识方面将扮演更关键的角色。甚至可以说,人类与AI的“共生”关系会让知识库成为维护真相的中流砥柱:人类社区不断产出高质量内容,AI 依赖这些内容训练提升,而更强的 AI 又能为人类提供知识服务——二者相辅相成。正如维基媒体基金会的产品官所言,纯粹由生成式AI打造一个维基百科替代品,看似可能但“将是无人真正想要的东西” (Wikipedia’s value in the age of generative AI – Wikimedia Foundation)。因为那样的产物会缺失公众信任、集体智慧以及对多元观点的包容,这些恰恰是当前 Wikipedia 成功的基石 (Wikipedia’s value in the age of generative AI – Wikimedia Foundation) (Wikipedia’s value in the age of generative AI – Wikimedia Foundation)。因此学界和业界普遍预测,未来的知识平台不会走向全自动化取代人类,而是强化人机合作,保持人文原则,以抵御信息污染并持续进化 (Wikipedia’s value in the age of generative AI – Wikimedia Foundation)。

AI+人类协作的知识产品演进方向

拥抱 AI 工具,提升协作效率: 面对 AI 浪潮,Wikipedia 等知识库并非拒之门外,而是在积极探索与其共生的路径。专家建议,将 AI 视为助手可以大大提高志愿编辑的效率和体验。例如,计算机科学教授 John Samuel 提出,机器智能可用于帮助新手编辑寻找高质量来源并核实信息,使编辑过程更高效、门槛更低 (Wikipedia’s AI Challenge: How the free encyclopedia adapts in the age of ChatGPT)。许多重复性劳动(如格式调整、初稿撰写、链接检查)都可由智能工具代劳,腾出人力专注于内容本身的准确性和完善。维基社区也在开发相关工具,例如错误检测 AI:吉米·威尔士就设想过有一个 AI 可以扫描文章并提示其中的错误或不一致之处,供人类编辑审阅更正 (Wikipedia Creator Jimmy Wales Describes Current AI as “Terrible” & “Doesn’t Work at All,”, Yet Foresees Superhuman Capabilities in 50 Years’ Time)。另外,AI还能用于总结讨论、提炼共识,帮助编辑者快速了解某条目讨论页上的主要观点,使社区协作更顺畅 (Wikipedia’s AI Challenge: How the free encyclopedia adapts in the age of ChatGPT)。这些应用表明,合理运用 AI 可以增强人类的工作,而非削弱其价值。

制定规则,确保人类主导: 为了安全地引入 AI,知识库社区正在建立明确的政策和规范。Wikipedia 正草拟关于大型语言模型(LLM)使用的指导方针,其中核心是强调人类监督与责任 (Wikipedia’s AI Challenge: How the free encyclopedia adapts in the age of ChatGPT)。根据拟议框架,任何 AI 生成的内容都必须经由志愿者审查,不能无人过目直接发布 (Wikipedia’s AI Challenge: How the free encyclopedia adapts in the age of ChatGPT) (Wikipedia’s value in the age of generative AI – Wikimedia Foundation)。事实上,维基媒体多年来在反垃圾和内容推荐中已经运用了机器学习,但始终遵循“人控机器”的原则——即工具服务于人,由社区制定规则,最终编辑决策权属于人类 (Wikipedia’s value in the age of generative AI – Wikimedia Foundation) (Wikipedia’s value in the age of generative AI – Wikimedia Foundation)。这种治理经验也为业界提供了范例:未来 AI 与内容平台的结合,需要 “将人类贡献和互惠置于核心”,而非让算法单方面主导 (Wikipedia’s value in the age of generative AI – Wikimedia Foundation)。只有这样才能既享受技术之利,又避免由于过度自动化带来的偏见放大、责任缺失等问题。

AI 与人协作的最佳实践: 综合专家和行业观点,可以勾勒出知识库产品未来迭代的几大原则:

迈向共建未来: 展望未来,Wikipedia 及类似知识库很可能沿着**“AI + 人类”双轮驱动的道路演进。在这一过程中,关键在于始终牢记技术只是手段,人类才是目的。维基媒体基金会倡导将人类对知识的理解与贡献置于新技术应用的中心,将其视为 generative AI 系统的设计目标,而非事后附加的考虑 (Wikipedia’s value in the age of generative AI – Wikimedia Foundation)。如此一来,AI 的引入将有助于减轻现有人力的负担、缓解信息增速带来的压力,同时防止大模型产生的谬误和虚构信息泛滥** (Wikipedia’s value in the age of generative AI – Wikimedia Foundation)。更重要的是,这确保了人类创造力受到认可,知识共享的社区价值得以延续 (Wikipedia’s value in the age of generative AI – Wikimedia Foundation)。总而言之,大多数专家相信,一个可信的未来知识生态将由AI 与人类密切协作来打造:AI 提供强大的工具和智能支持,人类则把关方向和真实性,两者共同维护一个不断更新且值得信赖的知识库,为全人类服务 (Wikipedia’s value in the age of generative AI – Wikimedia Foundation) (Wikipedia’s value in the age of generative AI – Wikimedia Foundation)。