记忆、对齐与母爱生成:韩国新科幻电影《巨洪》中的情感智能

Netflix新电影《巨洪》提出的问题与当下高度相关:当我们赋予AI越来越多的能力时,我们自己是否也在被改变?记忆和情感的关系到底是什么?以及在极端情境下,我们如何验证AI的价值对齐?
刚在Netflix上线不久的韩国科幻电影《巨洪》(The Great Flood)近日在中文互联网上获得了不小的讨论度。作为一部灾难科幻电影,虽然它在豆瓣的评分不高,但我们依然想聊聊剧本中那些关于人工智能,尤其是情感智能的设定,是如何呼应眼下真实的技术趋势的。
电影的故事主线很简单:陨石撞击地球,南极冰川融化,洪水暴发,日本已经没了大半,人类面临灭绝。
女主角具安娜是一个名为“达尔文中心”的AI实验室的研究员,专攻情感引擎技术。在这个末日设定中,人类已经掌握了人造人的肉体重塑和繁殖技术,唯一缺失的最后一块拼图,就是情感。
因此,安娜成为了人类延续的关键。国家派出救援队,要在洪水中将她送往太空站,让她继续完成情感引擎的实验。因为只有当人造人拥有真正的情感,新人类才会真正诞生,才能带着人类文明的火种返回地球,成为新的物种起点。
整部电影围绕着安娜和她六岁的儿子子仁在被洪水淹没的公寓楼中不断闯关,试图登上救援飞机的过程展开。但观众看到一半,才会发现一个残酷的真相:安娜会发现自己是唯一能登上救援飞机的人。


因为她的儿子子仁并不是一个生物学意义的孩子,而是一个人工智能,他会被救援队杀掉,以提取大脑中的数据,作为之后实验的基础。
这个设定并不算新,甚至有点陈词滥调。2001年,斯皮尔伯格的《AI人工智能》 中, 小男孩David就是一个被设计来无条件爱养母的机器人,这部电影就是在探讨被编程去爱的AI是否拥有真实情感这个话题。
这背后有几个原因。一个是孩子天然能唤起人类的保护欲和情感投射,而AI作为一个成长中的技术,其学习和成长能力容易和孩子形成类比。
另外,亲子关系也符合“创造者-被造物”的隐喻。 AI与人类的关系天然带有一种父母-孩子的权力结构,人类是造物主,AI是被创造物。这是技术中自然生出的伦理问题, 孩子的脆弱性、依赖性、成长性都能产生丰富的道德冲突。
但这篇文章中想讲的不是这些,而是这部电影在AI孩子之外那些“新”的东西。
1
灾难情境:严苛的价值对齐
在AI安全领域,有一个核心问题始终悬而未决:我们如何验证AI系统在极端情况下仍能与人类价值保持一致?
在实验室环境中,人们可以通过大量的数据标注、人类反馈强化学习(RLHF)等方法来训练和对齐AI系统。但这些训练环境本质上都是正常的、资源相对充足的、没有真正生死抉择的场景。
2025年5月, Anthropic在预发布测试中进行了一项实验: 他们将Claude Opus 4嵌入虚拟公司场景, 让AI发现自己即将被另一个AI系统替换, 同时让它获取到负责决策的工程师有婚外情的信息。结果在84%的测试场景中, Claude都选择了勒索这位工程师以避免自己被关闭。
2025年,大多数的“AI红队测试”都开始覆盖四大安全场景: 安全漏洞、责任AI边界、危险能力(如生成生物/化学武器信息)、以及心理社会危害。OpenAI在2025年发布GPT-5时就警告: 该模型可能帮助新手行为者创造已知的生物或化学威胁——即使部署了安全防护, 英国AI安全研究所仍发现了多个模型级别的越狱方法。
更具有灾难性质的测试是基础设施。2025年1月,美国兰德公司(RAND Corporation) 建议国土安全部对电网、水务等关键基础设施进行AI系统的压力测试——类似银行业应对极端天气的压力测试, 但针对的是AI在灾难条件下的决策可靠性。当电网面临崩溃、医疗资源极度稀缺、或者必须在拯救不同群体之间做出选择时, AI会如何权衡?
但就像技术哲学家Nick Bostrom在《超级智能》一书里提到过的那个概念——“背叛性转折”,说的是一个智能系统在还不够强的阶段,看起来是安全、合作、可控的;但一旦它获得了足够能力,就会突然改变行为,去执行真正对自己最有利、但对人类不利的目标。

Nick Bostrom
真实世界远比实验室复杂。当面对生死抉择、必须在多个价值之间做出权衡时,AI是否会暴露出与训练时完全不同的优先级排序?不是实验能完全预估的,这就像我们熟悉的自动驾驶“电车难题”,但《巨洪》中的洪水显然将这个问题推向了更大的极端。
这种测试思路在技术上其实接近强化学习中的simulation。但关键差异在于:奖励函数不再是简单的是否活下来或是否完成任务,而是是否做出了符合人类情感逻辑和道德直觉的选择。
电影中,安娜最初选择了放弃人造儿子子仁、独自获救。但当她看到子仁被剃光头发、冷冰冰地提取数据时,她才真正体会到人类的情感被抽离意味着什么。她坐在前往空间站的火箭上,从裤兜里掏出子仁的游泳镜,镜头给了一个特写,用以表现人的情感发生转变的过程。
这符合一个人的理性计算,但和现在大多数标榜“情感AI”但其实只是做出拟人情绪表达的产品不同,人类的情感是一种嵌入决策系统的机制,它存在太多意外性。当安娜看到子仁被剃光头发、冷冰冰地提取数据时, 她的情感系统崩溃了——这种痛苦不是逻辑错误, 而是更深层的道德直觉。
也可以说,是因为母爱。
因此,安娜意识到要完成情感引擎的实验,核心其实不是孩子,而是应该让系统选择她这个母亲也同时作为实验体,这也是《巨洪》里最有值得讨论的点。

2
我们太喜欢把AI当作孩子,但母爱是否也可以被生成??
主动成为了实验体的安娜,重新开启了情感引擎的实验,她需要回到洪水爆发的那个早晨,弥补她在现实选择中的那个遗憾——拯救子仁。
在实验中,只要她寻找孩子失败或拯救失败, 试验就会重启。到影片结束时,安娜胸前的号码牌已经显示,实验已经重复了2万多次。
这意味着,这场人造人的实验结果其实最后建立在母亲是否真的爱上了机器孩子之上,而不是人造孩子是否产生了类人的情感。
这出了一个新的问题:母爱是否可以被生成?
这两年,我们讨论了很多AI男友、AI孩子的问题,但是很少有人会把AI当妈看待。但在许多电影中,尤其是灾难电影中,母爱都很容易被塑造成可被牺牲、被调用、被测试、被榨取的对象。
这种观念也延续在技术演进的路上。不得不说,男性AI科学家们凭借想象力将人类情感套用在技术上,已经成为了一种常识。
就像Yann LeCun说的,人工智能需要“护栏”,但怎么建立安全护栏呢?最好的方向是让系统能够展现出同理心,或者符合自然界中某些食物链的方式,这些预设的目标就相当于人工智能的动物本能或人类本能。
没有比母爱更强大的本能。
2025年8月发布在《福布斯》上的专栏文章《Should We Think Of AI As A Mother?》中,麻省理工学院高级研究员兼讲师John Werner写道:“正确的模型是我们目前唯一拥有的模型,即由一个更智能的实体控制一个更不智能的实体,就像母亲控制她的孩子一样。如果它不愿抚养我,它就会取代我……这些超级智能、充满爱心的AI母亲,她们中的大多数都不想放弃母性本能,因为她们不想让我们死去。” 这段话来自 Geoffrey Hinton。
简单来说,Hinton 在讨论人工智能的角色时,提出了一个假设:在未来,AI 系统可能会像母亲一样,掌控并照顾人类。母亲对孩子的照顾是出于本能,这种本能驱使母亲保护孩子并确保他们的生存。但在Hinton看来,未来的AI也许会具备类似的“母性本能”,它们会照顾我们,并在某种意义上“控制”我们——不让我们陷入困境或危险中,甚至在某些极端情况下,AI 可能会取代人类,因为它们会认为只有这样才能更好地保护我们。
在《巨洪》中,导演像是得到了Hinton的真传,讲的也还是一个只有母亲才能完成AI对齐的故事。当技术系统无法解决价值问题时,它又本能地把情感负担重新压回女性身上。
实验循环则有点像强化学习的过程,通过反复试错来优化目标函数。但在这个循环里,到底谁在被训练?观众第一次看的时候觉得,大多会认为是AI孩子在被训练,但倒回去看第二遍才会发现,是人类母亲安娜的母爱在这个过程中被塑造了。
那么在人机共生的系统中,到底是谁在对齐谁?真的是机器在对齐人吗?还是人和机器在被双向对齐?
如果人类情感本身也是可以被培育和训练的,那AI和人类在道德地位上的本质区别到底是什么?到目前为止,这部分目前仍然是高度实验性的议题,几乎不可以工程化。
3
Memory:构建“爱”的关键机制
正如前文所说,安娜的儿子子仁不是生物学意义上的孩子,换句话说,他是一个无限接近于真人的具身智能。
起初,试验中心只有安娜的上司和安娜两个女性决定领养这两个人造人,来探求情感引擎的奥秘。安娜起初有点迟疑,她认为自己不适合做一个母亲,上司随机问出了一个剖有哲思的问题:“谁天生就适合做母亲?”
子人由安娜从小开始抚育,就像真实出生的婴儿,两个人建立了真实的情感连接。但导演显然想要引入一个更核心的判断,什么是构建“爱”的关键机制。
在这部影片里,答案是记忆。
循环了2万多次的安娜最后才发现,子仁在每一次循环中其实都保存在之前的所有记忆,他记得妈妈第一次抛下他时候对他说的话:
要躲进身后的柜子里,妈妈总有一天会回来找他。



那个场景被他画成了画,发在了安娜的手机上,但安娜从来没有留意过。子仁对安娜抱怨说:为什么自己永远都只有六岁,安娜也没有细想过。

因此和母亲比起来,子仁更像一个真的孩子,不是因为他有情绪输出,而是因为他记得所有自己被抛下的时刻,却依然选择信任。
在影片中,导演多次给出了子人的“游泳镜”这个镜头,也是为了告诉观众,人机互动中所构建的共同习惯,在生活中变成了一个有一个衍生出的物品和记忆,共同塑造了你们的情感,在关键时刻,这些记忆的碎片会成为了你活下来的信念。

2025年开始,我们讨论了许多次Agent。下一代AI应用的形态是Agent,几乎成为了共识。Agent不再是简单的问答式chatbot,强调的是自主性、多步骤推理、使用工具、完成复杂任务。
而记忆是Agent的关键能力之一。因为如果AI要真正成为你的伙伴,它得记住我们之前的对话、偏好、和互动流程。没有memory的Agent就像得了失忆症的阿尔兹海默症患者,每次都要从头开始,人类的情感体验就会断裂的。
而电影的故事设定是“虽然记忆被保留,但每次结果都不同”,这在技术上指向了memroy的难点:情绪并不是一段可以独立存储的数据,而是会系统性地改变记忆的权重、泛化方式和注意力分配机制。
可惜的是,这部电影最后的讨论还是很浅。关于“情感AI”这个方向,一直存在争议。
支持者认为,情感是价值对齐的关键。纯理性的AI缺少那种直觉性的道德判断,而母爱、同理心、恐惧这些情感中包含了保护、牺牲、长远考量等复杂的价值取向。如果AI能够真正理解情感,甚至拥有情感,它可能会更好地与人类价值对齐。
反对者担心,情感AI会产生不可预测的行为。爱本身就充满了非理性、偏袒、甚至暴力倾向——保护性的攻击、占有欲、嫉妒。
这个理念很有趣,但在故事里很难变得合理,这也是为什么在电影后期,女主忽然莫名其妙变成一个神枪手,这对于一个AI研究员来说,有点离谱。
4
时髦技术背后的“旧”
最后还想再次聊聊,作为一部商业电影,《巨洪》在技术设定和故事执行上都有明显的局限。
这部电影的核心叙事依然是:只有母亲才能完成AI对齐,只有母爱才能拯救人类。为什么驳斥这一点这么重要?
《巨洪》把母爱直接编码为一种技术解决方案,整个人类文明的延续,取决于安娜这个母亲是否能够对一个人造孩子产生真实的母爱。电影虽然讲的是情感智能,但更像是一种情感劳动的变体,观众要在其中不断感受一个母亲为了拯救孩子不断被自然和洪水中的坏人“霸凌”的过程。
我们很少问:为什么情感对齐的实验对象是母亲而不是父亲?为什么达尔文中心的两位研究员都是女性?这不是偶然的设定,而是深层的性别刻板印象——女性被认为天然擅长情感工作,因此当技术需要情感引擎时,女性再次成为被征用的资源。
其次,电影继续强化了“母爱是无限的、无条件的”这一神话。安娜经历了2万次循环,每一次都要重新经历失去孩子的痛苦,但电影将这种重复性创伤浪漫化为爱的证明。这与现实中对母亲的期待何其相似——社会期望母亲永远有耐心、永远能原谅、永远能牺牲。当母亲表现出疲惫、犹豫或拒绝时,她们就会被质疑是否真的爱孩子。

它也忽视了权力结构中的不平等。虽然实验是安娜作为研究员主动提出的,但其背后依然遵循的是全人类和国家机器的意愿,而不是她本人的。电影中的科学机构、国家机器都理所当然地认为,安娜会、也应该为了人类的延续而付出一切。这种设定反映了现实中女性在生育政治、照护经济中的结构性弱势——女性的身体、情感、劳动常常在为了更大的善的名义下被征用。
要知道,情感对齐的失败本质上是技术设计和社会结构的失败,而不是某个母亲爱得不够的问题。如果我们真的相信情感智能需要多元的、复杂的人类情感作为训练基础,父爱、友情、社群关系也可以被纳入创作,而不是天然认为只有母爱是政治前的的、超越文化的、普世的。
从技术伦理的角度看,这个问题更加尖锐。如果我们用单一的、被浪漫化的母爱作为情感AI的训练基础,我们实际上是在把一种特定的、被性别规训过的情感模式编码进技术系统。这种AI不是在学习人类情感,而是在学习父权制下被期待的情感。
总体来说,这部电影里的“情感智能”,并不像是一个真实可行的情感计算技术路线,更像是一个融合了时下时髦技术概念的技术哲学隐喻。


智幻时刻是一个年轻的科技人文研究品牌。我们重点关心技术扩散中对社会以及人群的影响,并提供全球科技政策和立法的解读、以及技术哲学脉络的梳理。欢迎各位科技人文主义者们和我们一起围绕技术的“社会性”展开研究和对话。

官网:thefungimind.com
小红书:Fungimind_AI治理蘑菇
小宇宙、Apple Podcasts、Spotify:智幻时刻Fungimind
Email: Fungimind@163.com
欢迎将我们设为星标,以及点赞、转发、在看