最近玩《原神》做赛诺1的传说任务,在须弥追查神明灌装知识走私这事儿,突然发现多莉1对神明灌装知识的分析,和《未来简史》2以及《超图解未来简史》3里讲的算法 / AI 主导未来的逻辑简直如出一辙,越想越觉得后怕,就想着把这些想法记下来。不得不说,《原神》这游戏真的藏了不少东西。

为啥会有这种感觉呢?多莉和旅行者聊神明灌装知识时的那些看法,跟《未来简史》、《超图解未来简史》里对算法 / AI 主导未来的描述如出一辙,核心都是外部系统绕开人类自主思考和决策的过程,接管我们的核心能力,一点点侵蚀人的主体性,还会引发根本难根治的系统性风险。结合现在我们越来越离不开 AI 算法的现状,接下来我从危害性、杜绝难度、深层隐喻这三个维度,聊聊神明灌装知识和 AI 算法的共通之处。
一、核心危害性:对人类主体性的双重侵蚀
- 认知权威被外部系统接管(信念固化 vs 算法盲从)
多莉觉得,神明灌装知识代表的是普通人很难接触到的认知内容,要是能轻易获取还直接 “灌” 进人脑,使用者会对这些知识深信不疑、几乎忘不掉,一旦内容出错,想纠正都难。说白了就是外部知识直接植入大脑,这个过程里内容特别容易造假,还没法分辨,直接剥夺了人质疑、反思、修正的能力,人就成了被动装知识的容器。
赫拉利则认为,现在外部算法的信息优势已经全面超过人类了。基于大数据和 AI 的算法,能整合远超人类感知范围的信息 —— 比如我们的行为、生理、社交、环境数据,比我们自己还能精准预判偏好、需求、行为,甚至未来的选择,真就是 “算法比你更懂你”。就像导航软件给你推路线、酒店、餐厅;短视频 APP 按算法给你推视频,我妈之前刷短视频,看到有些自媒体乱发的新闻,也不管是演的还是 AI 生成的,都当成真的;还有那些帝国主义国家社交媒体操纵选举的丑闻,以及医疗诊断、婚恋匹配这些事儿,全是算法在起作用。
当算法比我们自己的 “内心想法” 还靠谱时,人会主动把选择权交给算法。这就导致决策的权威变了,从 “自己的体验和判断” 转到了 “外部算法系统”。我们主动把做决定的权力交出去,慢慢就陷进算法茧房里,只能被动接收算法投喂的信息,价值观也被算法塑造,彻底失去独立判断的能力。更别说交通调度、金融交易、疫情监测,还有企业管理、司法量刑这些关键社会系统,慢慢都靠算法自动运行,人类能监督、干预的空间越来越小。
所以说到底,神明灌装知识和 AI 算法的本质是一样的:外部系统取代人类,成了 “真理 / 决策的来源”,把人的批判性思维彻底毁掉。
- 核心能力退化(思考萎缩 vs 算法依赖)
多莉认为,长期过量使用灌装知识,普通人的思考能力将会慢慢变差,最后就变成只能 “存储知识” 的图书馆。因为直接用灌装知识,跳过了 “学习 — 思考 — 实践” 的完整过程,大脑 “用进废退”,慢慢就没了创造、整合、解决新问题的能力,人也会变得固执又呆滞。
就像现在有些学生,啥作业、调研任务都靠 AI 完成,自己根本不动脑。
赫拉利也说,人类总靠算法做计算、判断、选择,我们大脑里的 “生化算法” 被外部算法取代,慢慢就丢了自主决策、深度思考、共情这些核心能力,最后成了只提供数据的节点,或是被算法支配的工具人。
所以这两者的本质都是:外部系统让人类 “变笨”,从主动创造的人,变成只会被动使用、被动存储的存在。
- 个体被系统性异化(知识容器 vs 数据燃料)
多莉觉得,有了灌装知识,人就不再是有独立智慧的主体,只是灌装知识的载体,价值只体现在 “存储和执行” 上。
赫拉利也认为,在算法的影响下,人不再是价值的中心,只是提供数据的人,价值高低全看能给算法的数据流贡献多少。
说到底,神明灌装知识和 AI 算法都指向同一个结果:人的主体性被消解,从 “目的” 变成了被利用的 “手段”。
二、杜绝困难:系统性失控与治理失效
- 需求刚性,市场自发泛滥(人性弱点 vs 技术诱惑)
多莉觉得,短期内灌装知识对所有人都有好处:研发的人想靠它搞研究;中间商想靠它赚钱;客户能轻松拿到原本很难获得的知识,满足 “走捷径” 的心理,低投入、高收益、零门槛就能获取知识,所以市场需求特别大,根本禁不了。就算想禁止,也没人愿意听,每个人都觉得自己占了便宜,自然不想有人来管这事儿。
赫拉利也认为,算法能提供极致的效率、精准的服务、即时的满足感,人根本没法抗拒 “让算法替自己思考” 的诱惑,技术渗透到生活的方方面面,根本挡不住。
这两者面临的困境是一样的:人都想走捷径、图便利,这种人性的弱点,成了治理和禁止的最大阻力。
- 黑箱运作,难以监管(知识黑箱 vs 算法黑箱)
多莉说,灌装知识的内容来源说不清、质量没法控、出了错也追不到源头,教令院根本没法一个个审查、鉴别、管控。
赫拉利则认为,AI 算法的逻辑又复杂又不透明,根本没法解释(也就是常说的 “算法黑箱”),政府和普通人想监督、追责、纠错,几乎不可能。
两者的共性就是:外部系统的 “黑箱属性”,让监管和纠错变得难上加难。
- 权力集中,阶层分化(知识垄断 vs 数据霸权)
多莉认为,少数势力(比如走私团伙、教令院)垄断了灌装知识的生产和分配,普通人只能被动接受,知识带来的权力高度集中在少数人手里。
赫拉利觉得,未来少数科技巨头或精英阶层会垄断数据和算法的权力,大多数人会沦为 “无用阶级”,社会的两极分化、阶层固化会越来越严重。
最终的结果都是:外部系统让不平等加剧,形成 “掌控者 — 被支配者” 的二元结构。
- 成瘾性依赖,难以戒除(知识成瘾 vs 算法成瘾)
多莉觉得,快速获取灌装知识的快感会让人上瘾,使用者会主动放弃思考,越用越依赖,越依赖思考能力就越差。
赫拉利也认为,算法会通过精准投喂信息、即时反馈的方式制造成瘾性,让人陷入 “依赖算法 — 能力退化 — 更依赖算法” 的恶性循环。
这都是同一个陷阱:一旦形成依赖,就会闭环,人慢慢就没了挣脱的动力和能力。
三、深层隐喻:对 “人类本质” 的共同挑战
- 对 “自主过程” 的否定
灌装知识直接否定了 “学习 — 思考 — 实践” 这套人类正常的认知过程。算法 / AI 则否定了 “自由意志 — 自主决策 — 意义建构” 的人类存在过程。
两者都在一点点拆解 “人类主体性” 的根基。
- 对 “人文价值” 的替代
灌装知识:用 “存储知识” 替代了 “创造智慧”。算法 / AI:用 “数据效率” 替代了情感、共情、道德、人生意义这些东西。
两者都是用工具理性,碾压了人类的价值理性。
- 终极走向:人类被整合进外部系统
灌装知识:让人变成知识网络里的一个节点。算法 / AI:让人变成全球数据处理系统的一个组件。
两者都在暗示:人类作为独立主体的时代,可能快要结束了。
附表:神明灌装知识与 AI / 算法的核心对比表
| 对比维度 | 神明灌装知识(多莉观点・须弥) | AI / 算法(赫拉利观点・《未来简史》、《超图解未来简史》) | 核心共性 |
|---|---|---|---|
| 核心危害性 1:认知层面 | 知识直接植入,使用者丧失质疑、反思、纠错能力,信念固化 | 算法替代人类成为决策权威,人陷入盲从,被算法塑造价值观、困在信息茧房 | 外部系统剥夺人类批判性思维,接管认知权威 |
| 核心危害性 2:能力层面 | 长期使用导致思考能力退化,沦为单纯存储知识的 “图书馆” | 人类依赖算法,大脑生化算法被替代,丧失自主决策、深度思考等核心能力 | 外部系统导致人类核心能力退化,从主动创造者降格为被动使用者 |
| 核心危害性 3:个体异化 | 人成为灌装知识的载体,价值仅在于 “存储与执行” | 人成为数据提供者,价值由算法对数据流的贡献度定义 | 消解人类主体性,让人从 “目的” 沦为 “手段” |
| 杜绝困难 1:人性层面 | 低成本、零门槛获取知识,契合 “走捷径” 需求,市场自发泛滥 | 提供极致效率与即时满足,人类难以抗拒依赖,技术渗透无孔不入 | 人性对便利、捷径的追求,成为治理与杜绝的天然阻力 |
| 杜绝困难 2:监管层面 | 内容来源不明、质量不可控,黑箱运作,教令院难以监管追责 | 算法逻辑复杂、不透明,黑箱属性导致公众与政府难以监督纠错 | 外部系统的黑箱运作,让监管、鉴别、追责几乎无法实现 |
| 杜绝困难 3:社会层面 | 少数势力垄断生产与分配,知识权力集中,加剧阶层差距 | 少数科技精英 / 巨头垄断数据与算法权力,导致社会两极分化、固化 | 权力集中形成 “掌控者 — 被支配者” 二元结构,加剧社会不平等 |
| 深层隐喻 | 否定 “学习 — 思考 — 实践” 的认知过程,用知识存储替代智慧创造 | 否定 “自由意志 — 自主决策” 的存在过程,用数据效率替代人文价值 | 解构人类主体性,用工具理性碾压价值理性,预示人类独立主体地位的危机 |
四、灌装知识是算法未来的 “须弥寓言”
多莉对灌装知识的批判,其实就是算法 / AI 时代人类困境的提前预演。
当外部系统(不管是灌装知识还是算法)能绕开人类自主的过程、提供极致的便利、接管我们的核心能力时,人类必然会面临认知权威丧失、思考能力退化、主体性被消解、社会失控、阶层固化这些系统性风险。而人总想走捷径的天性、系统本身的黑箱属性、权力不断集中的趋势,又让这些风险很难禁止、很难逆转。
赫拉利认为,数据主义的崛起和阶层分化,会直接重塑社会结构。
数据主义成为新 “宗教”
宇宙的本质就是数据流,包括人类在内的所有实体,价值都体现在处理和贡献数据的能力上。让数据自由流动、让算法优化一切,数据主义会取代人文主义,成为未来的主流意识形态。
人类阶层的两极分化
少数精英会通过生物科技、基因编辑、脑机接口升级自己的 “算法”,拥有超强的认知、体能和寿命,掌控数据和算法的权力,成为 “超人类” 或 “神人” 阶层;大多数普通人的 “生化算法” 会被 AI 和机器人全面超越,在经济、军事、社会系统里变得没什么用,要么沦为 “数据提供者”,要么被算法边缘化,成了 “无用阶级”。
自由与平等的终结
算法主导的社会,会把 “效率和数据最优” 当成目标,而不是人文主义追求的 “自由、平等”。个体的选择权、隐私、主体性会被系统性地让渡出去,人类从 “主体” 变成了算法系统里的 “数据节点”。
人类的未来命运:被算法定义与整合
在数据主义的框架下,生命的意义不再由个人的体验赋予,而是由算法判定的 “对数据流的贡献度” 来定义 —— 也就是算法说了算的 “意义”。人类的价值,全看能不能给系统提供有效数据、执行算法的指令。
未来,人类会通过脑机接口、基因改造、数字孪生这些技术,和算法系统深度融合,变成半机械人或数字人,最终被整合进全球数据处理系统,成为其中的一部分。
当外部算法全面超越并整合人类的 “生化算法” 后,人类作为独立物种的时代就会结束,文明的主导权会彻底交到算法手里。
五、人类应该如何应对算法主导的未来?
既然算法主导的未来可能面临这些问题,我们该怎么应对?核心策略其实多莉和旅行者的讨论里已经点出来了:守住自主思考的能力、保持批判性思维、不无底线依赖算法、推动系统透明化和监管、坚守人文价值—— 别让灌装知识(或是算法)把我们变成只会 “存东西” 的图书馆,或是只会 “提供数据” 的节点。
结合《未来简史》《超图解未来简史》里的观点,我觉得可以从这几个方面主动应对:
- 认知层面:打破对算法的盲从,重新找回自己的主体性
承认生物算法有局限,但别彻底躺平
我们得认清,人类本身就是一套 “生化算法”,自由意志也有边界,但不能把人生的关键决策权全交给外部 AI 算法 —— 职业选择、婚恋、价值观、人生意义这些事儿,得自己说了算。
警惕数据主义的洗脑
别把 “数据越多、算法越优” 当成唯一的真理,要重新守住人文价值:情感、共情、创造力、道德良知、人与人之间的温度,这些都是纯算法没法真正替代的核心。
培养对算法的批判性思维
别盲从推荐算法、流量算法、评分算法,主动给自己的信息 “降噪”,别被算法困在信息茧房里,也别让算法随便塑造自己的价值观。
- 能力层面:练就算法替代不了的核心竞争力
深耕「非标准化、高感性、高创造力」的能力
算法擅长的是计算、复刻、执行、做标准化的工作;我们要守住的是:原创的创意、跨领域整合的能力、价值判断、共情沟通、伦理决策、审美和精神层面的感悟。尽量避开那些容易被 AI 替代的重复性、流程化、纯计算类的工作。
掌握基础的数字素养,看懂算法的底层逻辑
不一定非要精通编程,但得懂大数据、推荐机制、隐私抓取、算法偏见这些基本原理,知道算法是怎么给我们贴标签、做预判、操控选择的,做到 “知道规则,不被规则绑架”。
保持终身学习,别沦为 “无用阶级”
不断更新自己的认知和技能,别死守一个专业,培养跨界思维、系统思维,让自己始终有独一无二的价值,没法被机器和算法批量替代。
- 个人行为层面:守住隐私和选择权,主动给自己设防
主动控制个人数据的流出
精简 APP 授权、关掉不必要的权限、少过度暴露自己的生活轨迹、消费偏好、思想观点,别免费给算法当 “数据燃料”。
刻意摆脱对算法的依赖
别整天无脑刷算法推荐的内容,遇到事儿也别全靠算法做决定;重要的事,一定要自己思考、线下体验、和真人沟通,保住人类原生的感知和判断能力。
建立多元的信息来源
别只看单一平台的算法推荐,主动读经典书籍、和不同圈层的人交流、独立思考,别让算法替自己塑造世界观。
- 社会与制度层面:给算法立规则、划底线
通过立法约束算法的权力
政府和监管机构要划定算法的红线,禁止算法歧视、禁止操控舆论、禁止过度采集隐私、禁止垄断性的数据霸权,让算法受法律和伦理的约束,而不是毫无边界地主导人类的生活。
推动算法透明化
医疗、教育、招聘、司法、流量分发这些公共领域的算法,要做到可解释、可监督、可追责,别让黑箱算法暗地里决定人的命运和资源分配。
让技术普惠,缩小算法带来的阶层鸿沟
别让少数精英垄断数据和算法资源,要推动数字素养的普及、合理开放公共数据,防止社会变成 “算法统治的精英 + 无用的普通人” 这种两极结构。
- 精神与价值层面:重新定义人生的意义
拒绝让算法定义自己的价值
放弃使用数据评分、流量高低、算法贴的标签来评判自己的价值,回归到体验生活、情感联结、自我成长、心怀善意、追求精神富足这些人文的本源上。
守住人与人之间真实的联结
强化家庭、社群、现实中人与人的深度情感羁绊,对抗算法带来的个体原子化、孤独化,还有对虚拟社交的过度依赖。
面对算法主导的未来,我们要在认知上保持清醒、不盲从;在能力上守住自己的不可替代性;在行为上做好防护,保住隐私和选择权;在社会层面推动立规则,限制算法的霸权;在精神层面回归人文本心 —— 让算法成为人类的工具,而不是人类的主宰。

《须弥寓言警告:不被灌装知识与算法吞噬才有未来》等您坐沙发呢!