最近读到一篇微信公众号文章《AI是巴别塔吗,上帝最终会毁灭它吗》,作者”织布杂谈”,底部标注了”内容由AI生成”。文章洋洋洒洒数千字,把AI发展与创世记11章的巴别塔叙事做类比,涉及海德格尔哲学、科技巨头竞争、认知碎片化等话题。
文章读起来流畅、全面、引经据典——这恰恰是AI生成内容的典型特征。但仔细看,里面有事实性小错,神学上更是问题不少。
以下是系统性的Fact Check。
事实性核查
✅ 准确的部分
- AlphaFold预测蛋白质结构 — 正确。DeepMind的AlphaFold2在2020年解决了蛋白质折叠问题,2022年预测了超过2亿个蛋白质结构。
- AlphaGo击败围棋冠军 — 正确。2016年3月,AlphaGo以4:1击败李世石;2017年击败柯洁。
- GPT-4o多模态能力 — 正确。OpenAI于2024年5月发布GPT-4o,支持文本、图像、音频的多模态交互。
- 中国大模型格局 — 百度文心一言、阿里通义千问、腾讯混元、字节豆包,均为事实。
- 霍金AI警告 — 正确。霍金在2014年BBC采访中表示”全面人工智能的发展可能意味着人类的终结”。
- 海德格尔”座架”概念 — 正确引用。Gestell(座架/集置)是海德格尔在《技术的追问》(1953)中提出的核心概念。
⚠️ 不够准确
1. “OpenAI从非营利研究机构转变为微软支持的超级公司”
简化过度。OpenAI的结构是:非营利母体(OpenAI Inc.)下设立了一个capped-profit子公司(OpenAI Global LLC)。微软投资的是子公司。2025年OpenAI曾计划转型为公益公司(PBC),但遭遇了来自Elon Musk等方面的法律挑战。说它”转变为超级公司”忽略了复杂的治理结构和持续的争议。
2. “Meta的NLLB-300模型能翻译数百种语言”
错误。Meta的模型叫NLLB-200(No Language Left Behind),支持约200种语言,不是300。这是一个可以验证的硬事实错误。
3. AI对就业的全面替代描述
文章说AI正在取代”从客服、翻译、设计师到程序员、医生、律师”的工作。这过于绝对。目前的趋势更多是augmentation(增强辅助)而非replacement(全面替代)。McKinsey 2023年的报告指出,大多数职业中约60%的工作活动可以被部分自动化,但只有不到5%的职业可以被完全自动化。把”部分任务的自动化”等同于”岗位被取代”,是典型的AI恐慌叙事。
神学批评:问题出在哪里?
事实性的小错可以纠正,但这篇文章真正的问题在神学层面。作为一篇大量引用圣经叙事的文章,它对巴别塔故事的理解相当肤浅,甚至有根本性的偏差。
1. 巴别塔叙事的核心被歪曲了
文章把巴别塔故事理解为”人类野心太大→上帝惩罚→失败”。这是最常见的通俗误读。
回到经文本身。创世记11:4——
他们说:“来吧,我们要建造一座城和一座塔,塔顶通天,为要传扬我们的名,免得我们分散在全地上。”
关键词是”免得我们分散”。这直接违背了上帝在创世记9:1对挪亚的命令:
神赐福给挪亚和他的儿子,对他们说:“你们要生养众多,遍满了地。”
巴别塔的核心罪不是”野心太大”或”试图触及神明”——经文从未说塔太高惹怒了上帝。核心是抗拒分散、拒绝遵行上帝”遍满全地”的旨意。他们要聚集一处,用一个名字、一座城来定义自己的身份,而不是照着上帝的吩咐去充满全地。
上帝变乱语言,不是因为嫉妒人类的技术成就,而是重新执行祂的旨意——让人类分散到全地。这是恩典性的干预,不是报复性的惩罚。
文章把巴别塔简化为”野心→天罚”的叙事模板,再往AI身上套,根基就是歪的。
2. “上帝”被相对化了
文章在第四章问了一个看似深刻的问题:“上帝究竟是谁?“然后给出了两个选项:
- “自然规律和人类自身”
- “超越性的终极秩序”
注意,这两个选项都回避了圣经中那位有位格的、主动说话和行动的上帝。把上帝等同于”自然规律”是自然神论(Deism),等同于”终极秩序”是泛神论(Pantheism)。这两者都不是基督教信仰。
创世记11章的上帝不是一个抽象的”秩序”或”规律”。祂说话(“我们下去”,创11:7),祂行动(“耶和华使他们从那里分散”,创11:8),祂有旨意并且执行。文章用哲学概念替换了圣经启示中的上帝,这不是”深度解读”,是偷梁换柱。
3. “超级AI必然选择善”——最危险的论述
文章中最令人不安的一段是这个:
当AI的智慧超越人类总和时,它将不再受人类是非观的局限,而是会以更宏大、更客观的宇宙规律(可理解为”天道”)为基准进行决策。在这种极致理性的引导下,AI会自发地选择与万物共生。
这个推理的前提是:足够高的智能必然导向道德上的善。
从圣经的角度看,这完全站不住脚。撒但在圣经中被描述为极其智慧的受造物(以西结书28:12,“智慧充足”),但他选择了悖逆。人类的堕落(创世记3章)不是因为愚蠢,而是在完全知道上帝命令的情况下选择了违背。智能与道德没有必然的正相关。
从AI安全研究的角度看,这同样危险。整个Alignment Problem(对齐问题)的核心就是:一个极其智能的系统,如果其目标函数与人类价值观不一致,它的超级智能反而会让它更高效地追求与人类利益相悖的目标。Nick Bostrom在《超级智能》中用”回形针最大化器”(Paperclip Maximizer)的思想实验说明了这一点——一个被设定为”生产尽可能多的回形针”的超级AI,可能会把整个地球(包括人类)都转化为回形针原料。
说”超级AI会自发选择善”,既不合圣经,也不合学术共识,而且麻痹了人们对AI风险的警惕。
4. 人本主义的结语暴露了全文的底色
文章最后一句:
这座”通天塔”最终是通向天堂,还是坠入深渊,答案不在”上帝”手中,而在我们每一个人的手中。
从圣经角度看,这恰恰是巴别塔思维的完美重演——“我们可以靠自己决定命运,不需要上帝。”
创世记11章的教训不是”人类要更谨慎地建塔”,而是人类离了上帝的旨意,再宏大的工程都会走向混乱。讽刺的是,文章用巴别塔做类比,却在结论处完美复刻了建塔者的心态。
总结
| 维度 | 评价 |
|---|---|
| 事实准确性 | ⚠️ 大体准确,有小错(NLLB-200写成300、OpenAI结构简化) |
| 知识广度 | ✅ 涵盖技术、哲学、社会学,引用丰富 |
| 神学深度 | ❌ 严重不足。巴别塔叙事被误读,上帝被相对化,核心论证有神学硬伤 |
| 立场 | ❌ 表面中立,实质是人本主义。把圣经当文学隐喻,回避信仰实质 |
| AI生成痕迹 | 明显。面面俱到但没有真正的立场,用哲学概念堆砌代替深入思考 |
这篇文章的价值在于它提出了一个好问题——AI与巴别塔的类比确实有意义。但它的回答暴露了AI生成内容在处理信仰议题时的典型缺陷:它能模仿神学语言,但不理解神学实质;它能引用圣经,但不顺服圣经的权威。
巴别塔的真正教训不是”人类要谨慎使用技术”——那只是应用层面。真正的教训是:离开上帝的旨意,人类的一切联合与建造,无论多么辉煌,终将走向混乱。 而这个教训,对AI时代同样适用。