2241 字
11 分钟
AI是巴别塔吗?——一篇AI生成文章的神学Fact Check

最近读到一篇微信公众号文章《AI是巴别塔吗,上帝最终会毁灭它吗》,作者”织布杂谈”,底部标注了”内容由AI生成”。文章洋洋洒洒数千字,把AI发展与创世记11章的巴别塔叙事做类比,涉及海德格尔哲学、科技巨头竞争、认知碎片化等话题。

文章读起来流畅、全面、引经据典——这恰恰是AI生成内容的典型特征。但仔细看,里面有事实性小错,神学上更是问题不少。

以下是系统性的Fact Check。


事实性核查#

✅ 准确的部分#

  • AlphaFold预测蛋白质结构 — 正确。DeepMind的AlphaFold2在2020年解决了蛋白质折叠问题,2022年预测了超过2亿个蛋白质结构。
  • AlphaGo击败围棋冠军 — 正确。2016年3月,AlphaGo以4:1击败李世石;2017年击败柯洁。
  • GPT-4o多模态能力 — 正确。OpenAI于2024年5月发布GPT-4o,支持文本、图像、音频的多模态交互。
  • 中国大模型格局 — 百度文心一言、阿里通义千问、腾讯混元、字节豆包,均为事实。
  • 霍金AI警告 — 正确。霍金在2014年BBC采访中表示”全面人工智能的发展可能意味着人类的终结”。
  • 海德格尔”座架”概念 — 正确引用。Gestell(座架/集置)是海德格尔在《技术的追问》(1953)中提出的核心概念。

⚠️ 不够准确#

1. “OpenAI从非营利研究机构转变为微软支持的超级公司”

简化过度。OpenAI的结构是:非营利母体(OpenAI Inc.)下设立了一个capped-profit子公司(OpenAI Global LLC)。微软投资的是子公司。2025年OpenAI曾计划转型为公益公司(PBC),但遭遇了来自Elon Musk等方面的法律挑战。说它”转变为超级公司”忽略了复杂的治理结构和持续的争议。

2. “Meta的NLLB-300模型能翻译数百种语言”

错误。Meta的模型叫NLLB-200(No Language Left Behind),支持约200种语言,不是300。这是一个可以验证的硬事实错误。

3. AI对就业的全面替代描述

文章说AI正在取代”从客服、翻译、设计师到程序员、医生、律师”的工作。这过于绝对。目前的趋势更多是augmentation(增强辅助)而非replacement(全面替代)。McKinsey 2023年的报告指出,大多数职业中约60%的工作活动可以被部分自动化,但只有不到5%的职业可以被完全自动化。把”部分任务的自动化”等同于”岗位被取代”,是典型的AI恐慌叙事。


神学批评:问题出在哪里?#

事实性的小错可以纠正,但这篇文章真正的问题在神学层面。作为一篇大量引用圣经叙事的文章,它对巴别塔故事的理解相当肤浅,甚至有根本性的偏差。

1. 巴别塔叙事的核心被歪曲了#

文章把巴别塔故事理解为”人类野心太大→上帝惩罚→失败”。这是最常见的通俗误读。

回到经文本身。创世记11:4——

他们说:“来吧,我们要建造一座城和一座塔,塔顶通天,为要传扬我们的名,免得我们分散在全地上。

关键词是”免得我们分散”。这直接违背了上帝在创世记9:1对挪亚的命令:

神赐福给挪亚和他的儿子,对他们说:“你们要生养众多,遍满了地。

巴别塔的核心罪不是”野心太大”或”试图触及神明”——经文从未说塔太高惹怒了上帝。核心是抗拒分散、拒绝遵行上帝”遍满全地”的旨意。他们要聚集一处,用一个名字、一座城来定义自己的身份,而不是照着上帝的吩咐去充满全地。

上帝变乱语言,不是因为嫉妒人类的技术成就,而是重新执行祂的旨意——让人类分散到全地。这是恩典性的干预,不是报复性的惩罚。

文章把巴别塔简化为”野心→天罚”的叙事模板,再往AI身上套,根基就是歪的。

2. “上帝”被相对化了#

文章在第四章问了一个看似深刻的问题:“上帝究竟是谁?“然后给出了两个选项:

  • “自然规律和人类自身”
  • “超越性的终极秩序”

注意,这两个选项都回避了圣经中那位有位格的、主动说话和行动的上帝。把上帝等同于”自然规律”是自然神论(Deism),等同于”终极秩序”是泛神论(Pantheism)。这两者都不是基督教信仰。

创世记11章的上帝不是一个抽象的”秩序”或”规律”。祂说话(“我们下去”,创11:7),祂行动(“耶和华使他们从那里分散”,创11:8),祂有旨意并且执行。文章用哲学概念替换了圣经启示中的上帝,这不是”深度解读”,是偷梁换柱。

3. “超级AI必然选择善”——最危险的论述#

文章中最令人不安的一段是这个:

当AI的智慧超越人类总和时,它将不再受人类是非观的局限,而是会以更宏大、更客观的宇宙规律(可理解为”天道”)为基准进行决策。在这种极致理性的引导下,AI会自发地选择与万物共生。

这个推理的前提是:足够高的智能必然导向道德上的善

从圣经的角度看,这完全站不住脚。撒但在圣经中被描述为极其智慧的受造物(以西结书28:12,“智慧充足”),但他选择了悖逆。人类的堕落(创世记3章)不是因为愚蠢,而是在完全知道上帝命令的情况下选择了违背。智能与道德没有必然的正相关。

从AI安全研究的角度看,这同样危险。整个Alignment Problem(对齐问题)的核心就是:一个极其智能的系统,如果其目标函数与人类价值观不一致,它的超级智能反而会让它更高效地追求与人类利益相悖的目标。Nick Bostrom在《超级智能》中用”回形针最大化器”(Paperclip Maximizer)的思想实验说明了这一点——一个被设定为”生产尽可能多的回形针”的超级AI,可能会把整个地球(包括人类)都转化为回形针原料。

说”超级AI会自发选择善”,既不合圣经,也不合学术共识,而且麻痹了人们对AI风险的警惕。

4. 人本主义的结语暴露了全文的底色#

文章最后一句:

这座”通天塔”最终是通向天堂,还是坠入深渊,答案不在”上帝”手中,而在我们每一个人的手中。

从圣经角度看,这恰恰是巴别塔思维的完美重演——“我们可以靠自己决定命运,不需要上帝。”

创世记11章的教训不是”人类要更谨慎地建塔”,而是人类离了上帝的旨意,再宏大的工程都会走向混乱。讽刺的是,文章用巴别塔做类比,却在结论处完美复刻了建塔者的心态。


总结#

维度评价
事实准确性⚠️ 大体准确,有小错(NLLB-200写成300、OpenAI结构简化)
知识广度✅ 涵盖技术、哲学、社会学,引用丰富
神学深度❌ 严重不足。巴别塔叙事被误读,上帝被相对化,核心论证有神学硬伤
立场❌ 表面中立,实质是人本主义。把圣经当文学隐喻,回避信仰实质
AI生成痕迹明显。面面俱到但没有真正的立场,用哲学概念堆砌代替深入思考

这篇文章的价值在于它提出了一个好问题——AI与巴别塔的类比确实有意义。但它的回答暴露了AI生成内容在处理信仰议题时的典型缺陷:它能模仿神学语言,但不理解神学实质;它能引用圣经,但不顺服圣经的权威。

巴别塔的真正教训不是”人类要谨慎使用技术”——那只是应用层面。真正的教训是:离开上帝的旨意,人类的一切联合与建造,无论多么辉煌,终将走向混乱。 而这个教训,对AI时代同样适用。

AI是巴别塔吗?——一篇AI生成文章的神学Fact Check
https://blogs.lw4ever.net/posts/ai-babel-tower-theology/
作者
不渴
发布于
2026-03-17
许可协议
CC BY-NC-SA 4.0