首页 > 基础资料 博客日记
人类大脑进化史:从生存机器到自由意志,再到AI
2026-03-31 13:30:02基础资料围观1次
人类大脑进化史:从生存机器到自由意志,再到AI
引言:大脑不是为了思考而存在的
我们习惯把大脑看作一个"思考器官",但这个理解是倒置的。
大脑最原始的功能,不是思考,不是感受,甚至不是记忆——而是预测。预测下一秒会发生什么,预测哪里有食物,哪里有危险,从而让身体提前做出反应。思考、情绪、记忆,都是预测系统在进化过程中衍生出来的工具。
理解了这一点,就能理解大脑几亿年来的整条进化主线:用越来越高的能耗,换取越来越强的世界建模能力。
每一次大脑的扩张,都是在回应一个问题:现有的预测系统,已经不够用了。
5亿年前:脑干——活下去就够了
地球上最早的脊椎动物,大约出现在5亿年前的寒武纪。它们的"大脑",只是脊髓顶端一个微小的神经节,也就是今天我们所说的脑干。脑干控制的,全部是维持生命的基本功能:呼吸、心跳、体温调节、基本的运动反射。它不需要学习,不需要记忆,所有的反应都是硬编码进去的:输入刺激,输出反应,没有建模,也没有延迟。
举几个更具体的例子。手碰到火时,信号通过脊髓反射弧直接触发肌肉收缩,你会在"意识到烫"之前就已经把手缩回;误吸水进入气道时,身体会强制触发咳嗽反射,打断呼吸节律。
这套系统极其简单,但极其稳定。5亿年过去,脑干几乎没有变化。 今天的人类,大脑最深处仍然运行着这套最原始的代码。你在睡觉的时候,心脏依然在跳,肺依然在呼吸,靠的就是这个从鱼类祖先[注1]那里继承下来的古老系统。
从"预测"的角度来看,这一层几乎不做预测,它只是在处理已经发生的威胁。但它的重要性在于:它保证了一个前提——你还活着,才有资格进行更高层次的预测。脑干的局限在于:它只能应对"已知的危险"。对于从未遇到过的新情况,它完全束手无策。这就是为什么进化没有停在这里。
简单对比一下 AI 的早期阶段:这很像最初的规则系统(rule-based system),所有行为都写死在 if-else 里,没有学习能力,也没有对未来的建模能力,只能对输入做即时响应。上世纪五六十年代的专家系统,依靠人工编写的规则库来诊断疾病或下棋,一旦遇到规则库没有覆盖的情况,就会彻底失效——就像脑干面对从未遇过的威胁,完全束手无策。这类系统的上限,被写死在设计者的想象力里。
2亿年前:边缘系统——情绪和记忆登场
大约2亿年前,最早的哺乳动物祖先出现了。和之前的爬行动物相比,这套结构在哺乳动物大脑中发生了显著的扩张和复杂化,形成了包裹在脑干外层的边缘系统,包括杏仁核(威胁检测)、海马体(记忆)以及下丘脑(情绪与激素调节)。
这是进化史上一次意义深远的跃进。
脑干的逻辑是: 遇到危险→逃跑。这是本能,无需学习。
边缘系统的逻辑是: 上次在这个地方遇到了危险→记住这个地方→下次提前绕开。这是学习,是经验的积累。
记忆,第一次出现了。
情绪,也随之出现。但情绪的本质,并不是"感受"那么简单。情绪是大脑给记忆贴上的重要性标签[注2]。
- 恐惧 = "这件事对生存威胁极高,必须记住"
- 愉悦 = "这件事对生存有益,值得重复"
- 厌恶 = "这个东西可能有毒,远离它"
没有情绪,记忆就是一堆等权重的信息,大脑无法判断什么重要、什么可以忘掉。情绪让记忆有了优先级。
例如,一个个体第一次遇到蛇时会受到惊吓,杏仁核记录下这种高威胁信号,之后即使看到类似蛇的物体(比如一根弯曲的电线),也会提前触发恐惧反应;这种"泛化"能力极大提高了生存概率。再比如食物中毒,一次不良经历就能让你对某种气味产生长期厌恶,即使理性知道"这次可能没问题",身体仍然拒绝。这说明情绪系统在决策中具有更高优先级。
一种有影响力的解释是,情绪本质上不是"感觉",而是预测权重系统。恐惧意味着高风险,需要优先处理;愉悦意味着高收益,值得重复;焦虑则意味着不确定性较高,需要持续关注。这一层实际上是在做一件事:给不同预测结果分配权重,从而指导行为。
从预测误差的角度看,很多强烈情绪都来自"模型被打破"。例如分手带来的痛苦,本质上是大脑原本预测"这个人会持续提供正反馈",但现实突然偏离,导致巨大的预测误差。
但边缘系统也有它的天花板:它只能处理当下和近期的经验。它无法推演"如果我做某件从未做过的事,会发生什么"。这需要一种更高级的能力。
对应到 AI,这一阶段有点类似于机器学习模型的出现:系统开始可以从数据中学习模式,并对未来做概率性预测。但它仍然没有"理解世界",只是通过历史数据进行拟合和加权,类似情绪系统对经验的加权处理。更深一层的类比是:情绪系统的核心是"赋予不同经验不同的权重",而机器学习的核心也是损失函数和奖励权重——系统通过不断调整这些权重,让有价值的模式得到强化,让无效的模式被淡化。RLHF(基于人类反馈的强化学习)尤其接近这个机制:人类的"偏好信号",充当了 AI 的情绪系统,告诉模型什么值得重复,什么应该避免。
遗忘:预测系统的减噪机制
边缘系统带来了记忆,但记忆有一个经常被忽略的孪生机制:遗忘。
我们通常把遗忘看作大脑的缺陷,是记忆系统的磨损和失效。但从预测的角度来看,事情刚好相反——遗忘是大脑主动设计的功能,是预测系统保持精准的必要条件。
这个过程主要发生在睡眠期间。当你入睡,海马体并没有休息,而是开始回放白天经历的事件,对记忆进行主动筛选:哪些细节值得保留,哪些可以压缩,哪些直接丢弃。筛选的标准,正是上一节讲到的情绪标签——被杏仁核标记为"高重要性"的事件,会被优先巩固并转移到皮层长期存储;而那些没有情绪标记的普通细节,则会随着突触连接的减弱逐渐消退。你记得昨天会议上那次激烈的争论,却想不起来自己中午吃了什么——不是因为记忆随机损耗,而是大脑在睡眠中做了一次主动的编辑。留下来的,不再是原始事件,而是从事件中提炼出的模式和规律。
更奇特的是:记忆本身并不是固定的存档,而是每次调取都会被轻微改写。神经科学中称之为记忆再巩固(memory reconsolidation)——每次回忆一件事,这段记忆就会短暂地变得不稳定,并在重新存储时被当前的情绪和认知状态悄悄修改。你记住的不是"过去发生了什么",而是"大脑对过去的当前预测"。这意味着,记忆系统和预测系统根本是同一个系统:过去是大脑用来校准未来的材料,而不是需要忠实保存的档案。遗忘,是让预测系统持续聚焦于模式、而不是被无数过时细节淹没的机制。
对应到 AI,Claude Code 有一个 compact 命令,把这个机制显式化了——当对话上下文积累得太长,运行它,模型会主动把整段对话压缩成一份摘要:关键决策保留,中间反复试错的细节被丢弃,然后用这份摘要继续工作。不这样做会怎样?上下文窗口被塞满,模型开始在几千行的历史记录里迷失,越来越难以聚焦于真正重要的问题。这和睡眠期间海马体的工作几乎同构。Claude Code 现在甚至提供了 auto compact 功能——上下文快满时自动触发压缩,不需要手动干预,就像人类不需要"决定去睡觉才能整理记忆"一样,这个过程本身已经是自动的。
但在更深的层面,现有大语言模型和大脑之间存在一个根本差距:训练数据一旦固化进参数,模型就没有主动遗忘的能力。所有东西被等权重地压进数十亿个参数里,模型无法事后判断哪些是核心规律,哪些只是训练集里的噪声或过时信息。近年来兴起的机器遗忘(machine unlearning)研究,正是在尝试补上这块缺失。一个典型场景是隐私合规:欧盟 GDPR 要求用户有权要求企业"删除我的数据",但某个用户的信息可能已经以某种形式被编码进了模型参数里,你没办法像删数据库记录那样直接删掉它。如何验证模型真的"忘了",而不只是在表面上不再输出那段内容?如何确保删除某段记忆不会意外损坏旁边的其他知识?这些问题目前都没有完美答案。大脑用几亿年进化出了一套精密的主动遗忘机制,而 AI 研究者才刚刚意识到,遗忘本身是一个需要被认真设计的能力。
280万年前:前额叶皮层的爆炸——世界模型与模拟
大约280万年前,人属(Homo)的祖先能人(Homo habilis)出现,大脑开始了进化史上最激进、最冒险的一次扩张——整个大脑急速增长,而其中扩张最剧烈的,是前额叶皮层。
这次扩张的速度在生物界罕见。短短数百万年(在进化尺度上只是一瞬间),人类大脑的体积扩张到原来的两倍以上。代价是极其高昂的:
- 大脑只占体重的2%,却消耗全身20%的能量。人类需要比其他动物摄入多得多的食物,专门用来"喂"大脑。
- 婴儿的头颅因此变得很大,导致人类分娩成为动物界最危险的事情之一,死亡率在整个人类历史中一直居高不下。
- 人类的幼崽在出生时极度无助,需要被照顾十几年,而大多数动物只需要几个月。这意味着父母要投入巨大的时间和资源。
为什么值得付出这么大的代价? 因为前额叶解锁了一种前所未有的能力:在脑内模拟世界,推演未来。 不需要真的去做,就能想象"如果我这样做,会发生什么"。不需要亲身试错,就能排除大多数错误选项。
例如,一个猎人站在悬崖边,看着远处的猛犸象。他不需要冲上去试一试,就能在脑海中模拟:正面冲击会被踩死,绕到后方有机会,但需要三个人配合……这种"脑内推演",让人类可以制定复杂的计划,而不只是靠本能反应。
再比如,一个早期智人站在岔路口,左边是河流,有水有猎物但可能有鳄鱼;右边是开阔平原,没有遮蔽但更安全。他不需要两条路都走一遍——前额叶让他可以在脑内同时运行两条模拟,评估结果,然后选择。这种"不用付出代价就能试错"的能力,在生死之间节省了无数条命。
人类是少数即使在安全、温饱满足的状态下,仍会主动寻求刺激和新信息的动物[注3]。这种状态的主观体验,就是无聊——前额叶在说:当前环境没有足够的信息供我建模,我需要更多输入。这种对刺激和新信息的渴望,驱动了人类持续地探索和学习。
拖延症则展示了前额叶的另一面——它经常输。本质上,拖延是两套预测系统的冲突:前额叶计算长期收益,边缘系统偏好即时奖励。大多数时候,边缘系统赢了。
人类有时会提前察觉到这一点,并采取行动。荷马史诗里,奥德修斯知道船经过塞壬海域时,自己会被歌声迷惑、跳海而死。于是他提前命令水手把自己绑在桅杆上,堵住所有人的耳朵——前额叶预见到边缘系统即将被劫持,提前用物理手段约束自己。这是人类最早关于"预提交"(pre-commitment)的故事,也是前额叶对抗边缘系统的极端案例。
前额叶还带来了另一件事:自我意识。当大脑的建模能力足够强,它开始对自身建模——"我是谁,我在做什么,别人怎么看我"。这是人类独有的,也是焦虑、羞耻感、自我怀疑的根源。
对应 AI,这一阶段类似于大语言模型(LLM)的出现,它们开始具备某种"世界模型":可以进行推理、规划、生成内容,甚至在一定程度上进行"模拟"。Chain-of-Thought 提示技术让模型在给出答案之前先"想一想",本质上就是在内部模拟推理步骤——就像前额叶在行动之前先在脑内推演一遍。更进一步,现在的 AI agent 可以调用工具、写代码、执行计划,把"脑内模拟"和"实际行动"连接起来。不同的是,前额叶需要几百万年的进化才发展出这种能力,而 LLM 只用了几年的训练。
10万年前:语言——大脑第一次联网
前额叶让个体的大脑变得极其强大,但它有一个根本局限:一个人的一生太短,亲身经历太少。
10万年前[注4],语言的出现,打破了这个局限。语言不只是沟通工具,它是一种让个体大脑的建模结果可以上传给整个群体的协议。一个老猎人发现了某种蘑菇有毒,他不需要让每个人都去试一次——他只需要说出来。这个信息可以瞬间传递给所有人,还可以传递给下一代,甚至在他死后继续流传。
知识第一次脱离了个体的大脑,开始在群体中累积。
澳大利亚原住民有一些关于海岸线的口头传说,描述了大海淹没陆地的景象。科学家后来对比地质记录,发现这些故事精确对应了 7,500 至 12,000 多年前海平面上升的真实事件[注5]。也就是说,这段记忆在没有文字的情况下,靠口耳相传保存了超过一万年。语言让群体记忆的时间跨度,远超任何个体的寿命。
语言还带来了一个更深远的影响:抽象概念的出现。"危险的动物"可以被描述和讨论,"公平"和"信任"这样看不见摸不着的概念也可以被传递。这让人类社会的合作规模,从几十人的小群体,逐渐扩展到几千人、几万人,最终覆盖整个地球。
在 AI 世界中,这一阶段类似于从单 agent 走向多 agent 协作:agent 之间可以通过接口、工具、API 共享信息和任务,协同完成复杂工程任务。当然,agent 之间传递的是结构化数据,而非语言的模糊语义——人类语言的力量部分来自它的歧义性,来自每个接收者对信息的主动重新解释。但功能上的相似之处在于:信息第一次从单点流向群体,打破了单个个体(或 agent)的能力天花板。一个 agent 完成了代码分析,可以把结论传递给负责修复的 agent,再由另一个 agent 负责测试——语言让人类社群从几十人扩展到几千人;multi-agent 架构也在让 AI 系统从单一模型,扩展到可以处理复杂、长周期任务的协作网络。
5500年前:文字和文明——记忆外包
大约5500年前,文字出现了。这是大脑进化的一个转折点——人类第一次开始大规模地将记忆外包给外部介质。
在文字出现之前,所有的知识都必须储存在人的大脑里。每一个人死去,都带走了一部分知识。文字让知识真正实现了永久保存,不再受制于人类大脑的容量和寿命。
古埃及的医学文献《埃伯斯纸草书》记录于公元前1550年[注6],其中包含了数百种疾病的诊断和治疗方法。这些知识跨越了3500年,今天的我们仍然可以阅读和学习。没有文字,这些知识在几代人之内就会消失殆尽。
更重要的是,文字让知识可以叠加。后人不需要从零开始,可以直接站在前人的肩膀上继续往前走。这是人类文明加速发展的核心引擎。
从这个角度看,人类的进化从此走上了两条平行轨道:基因进化以万年为单位,极其缓慢;文化进化以百年甚至十年为单位,指数级加速。
对应到 AI,这一阶段类似于 RAG(检索增强生成)的出现:模型不再把所有知识"背进"参数,而是学会去检索外部知识库。MCP(Model Context Protocol)则更进一步——AI 可以调用工具、访问文件系统和数据库,把"外部介质"无缝接入推理过程。更根本的相似之处在于:每一代大模型的训练数据,都包含了前人的代码、文章与文档——人类知识的"文化进化",正在成为 AI 能力进化的燃料。
现代社会:一台超载运行的远古机器
过去200年,人类的生活环境发生了翻天覆地的变化。但人类大脑的硬件,基本上还是5万年前的版本。这就产生了大量深刻的错配。
你盯着屏幕上一条陌生人的恶评,心跳加速,脑子里反复回放那句话,完全无法专注其他事情。你知道这个人你永远不会见到,他的评论对你的实际生活没有任何影响。但大脑不这么认为。人类大脑进化出来,是为了管理大约150人的小型社群(人类学家罗宾·邓巴提出的"邓巴数字")。在这个规模里,每个人你都认识,社会关系是具体的、稳定的。被熟悉的部落成员当众排斥,是真实的生存威胁。但现在,一个普通人的社交媒体上可能有几千个"关注者",每天接触到来自全球几十亿人的信息——大脑的社交处理系统在严重超载,却无法区分"真实的部落危机"和"屏幕上的噪音"。
与此同时,另一套系统也在被悄悄劫持。大脑的多巴胺奖励系统,是为了觅食和探索而设计的——发现食物、完成狩猎、找到新的资源,都会触发多巴胺释放。这套系统驱动人类持续行动。但短视频、赌博、垃圾食品,全都是对这套系统的超常刺激——以远超自然界的强度和频率触发多巴胺,导致真实生活中的普通奖励(努力工作、建立关系)变得相对"无聊",动力下降。进化从未见过这种密度的即时奖励,所以也从未对它产生任何防御机制。
压力的问题同样如此,但方向相反。远古的压力是短暂的:遇到猛兽→应激反应→逃跑或战斗→结束。人类的压力系统为这种短暂、高强度的危机设计,用完就会复位。但现代人的压力来源是持续性的:房贷、职场竞争、对未来的担忧……这些威胁没有明确的结束点。大脑持续处于应激状态,皮质醇长期偏高,最终损害免疫系统、心血管系统,以及——讽刺的是——记忆本身。
最后是注意力。大脑的注意力系统,是在信息极度匮乏的环境里进化出来的。任何新奇的信号,都值得立刻关注,因为它可能是危险或机会。但现代人每天接收的信息量,是几十年前的数倍。每一条推送通知、每一个弹窗,都在劫持这套原始的注意力系统。专注力变得越来越稀缺,不是因为人变懒了,而是因为大脑的"注意力资源"被无数个精心设计的刺激持续抢夺。
这些现象可以统一解释为:预测系统的输入分布发生了剧烈变化,但模型本身没有更新。
在 AI 中也能看到类似问题:当模型被部署在与训练数据分布差异很大的环境中,会出现所谓的"分布外问题(out-of-distribution)",导致错误预测甚至系统失效。一个在规范文本上训练的内容审核模型,遇到故意混淆拼写的对抗样本时会频繁失误;一个在英语上训练的模型,处理方言或口语时往往一塌糊涂——它的"本能反应",在从未见过的分布上失灵了,就像远古大脑的应激系统遭遇了互联网。这与人类在现代环境中的焦虑和失调,本质上是同一类问题。
人类真的有自由意志吗?
我们通常直觉上认为,"自由意志"是一切决策的起点:先有"我想做什么",然后才有行动。但如果把大脑理解为一个不断优化的预测系统,事情可能刚好相反——决策先发生,自由意志只是对这个决策的解释。
换句话说,自由意志不一定是"控制器",更可能是一个"解释器"。
20世纪80年代,神经科学家 Benjamin Libet 做了一个经典实验。他让受试者在任意时刻按下按钮,同时记录脑电信号,并询问受试者"你是在什么时候决定按的"。结果显示,大脑在动作发生前大约500毫秒,就已经出现了"准备信号"(readiness potential);而受试者主观上感到"我刚刚决定按",通常是在动作前约200毫秒。
这意味着什么?大脑似乎已经启动了行动流程,而"我决定了"的感觉,是之后才出现的——如果这一解读成立,那么顺序是:大脑完成了决策 → 意识生成一个解释:"这是我决定的"
而不是:意识先决定 → 再驱动大脑执行。当然,这个结论仍有争议,存在多种解释路径[注7]。
人类大脑的每一次进化,都是用更高的能耗,换取更强的预测能力;而"自由意志",很可能只是这个预测系统在高层生成的一种自我解释,是大脑预测系统的"副产品"。
如果自由意志是"幻觉",为什么它存在?
如果"自由意志"只是解释层的产物,那它为什么没有在进化中被淘汰?答案是:它非常有用。
首先,它统一了系统,避免了内在冲突。大脑并不是一个统一的决策主体,而是多个子系统的组合:情绪系统追求即时奖励,前额叶关注长期收益,习惯系统倾向于重复既有模式。这些系统经常产生冲突。深夜刷手机时,你可能同时经历三种信号:一部分想继续获得即时快感,一部分提醒你该睡觉,还有一部分只是机械地延续习惯。如果没有一个"我在做决定"的统一叙事,你的体验会变成"多个系统在争夺控制权"。自由意志提供了一个简化的解释:最终的结果被归因为"我选择了它",使得系统在主观体验上保持一致性。
其次,它支撑了责任与社会结构。社会运转依赖于一个重要假设:人对自己的行为负责。法律、道德、契约,本质上都建立在"你可以选择不同结果"的前提上。如果完全采用神经层面的解释——"行为只是神经系统在特定环境下的输出"——那么责任的概念就会变得模糊,整个社会结构也难以维持。因此,自由意志不仅是个体体验,也是一个社会层面的必要假设。
AI 领域正在经历类似的争论[注8]。RLHF 对齐的目的,是让模型输出符合人类价值观的结果——它确实改变了模型的参数权重,但改变的主要是输出偏好层,而非重写预训练阶段形成的底层世界表征,本质上是在调整"模型倾向于说什么"。一个被对齐的模型,在某种意义上,是被赋予了一套行为规范,而不一定是内化了真正的价值观——就像社会对人类自由意志的强化:功能性的,而不一定是本质性的。
尾声:也许"你"本身就是预测模型
如果继续沿着这个思路推进,会得到一个更激进的结论:"自我"本身,可能也是一种预测压缩的结果。
如果前面的推论成立——脑干预测威胁,边缘系统预测情绪权重,前额叶预测行动后果——那么有一个更激进的问题:对"自我"的感知,是否也是预测系统的输出?大脑在建模外部世界的同时,也在对自身建模。"我是谁",本质上是对自己过去行为、偏好、反应模式的压缩性描述——一个用来预测"我未来会怎么做"的内部模型。
你认为"我喜欢咖啡",这可能来源于多次正反馈(提神、社交、愉悦),大脑逐渐形成一个稳定预测:"咖啡是有价值的",并将这个预测压缩成一句话:我喜欢咖啡。"我是一个内向的人",也可能是长期社交经验的总结——大脑预测社交成本较高,于是形成了稳定策略,并被叙述为性格。
在这个意义上,"自我"并不是一个固定实体,而是一组长期稳定的预测模型的集合。可以用一个简化框架来理解大脑的分层:底层是自动系统(情绪、习惯、反射),直接驱动行为;中层是预测系统,对世界建模并评估结果;表层是叙事系统,负责解释"发生了什么"。关键点在于:表层并不是控制者,而是解释者。它在行为发生之后,生成一个连贯的故事,让你相信"这是我做的选择"。
你每天做的决定,你对自己行为的解释,你对"我是什么样的人"的叙述——它们究竟是真实内心的呈现,还是表层叙事系统在行为发生之后生成的一个自洽故事?Libet 实验给出的那个答案,可能同样适用于你对自己的全部认知。模型和人,或许都只是在预测——然后为这个预测,编写一段听起来像是"理由"的文字。
人类用了5亿年,从一个只能处理即时威胁的脑干,进化出了可以模拟未来、构建语言、书写历史、追问自由意志的大脑。这条路漫长、代价高昂、充满偶然:婴儿的头颅大到几乎让母亲送命,幼崽无助到需要十几年才能独立,每一步进化都是在用某种痛苦换取某种能力。
AI 正在走同一条路,但速度快得让人眩晕。从规则系统到机器学习,从语言模型到多智能体协作,这一切发生在不到70年里。它跳过了很多步骤——没有杏仁核的恐惧,没有海马体的童年记忆,但已经在某种程度上拥有了"世界模型",开始在语言里描述自己的推理过程。
这两条路,走向的是同一个地方,还是根本不同的终点?
注释
[注1] 5亿年前,人类的祖先是一种类似昆明鱼/海口鱼的原始脊索动物。
[注2] 神经科学家 Lisa Feldman Barrett 提出的 情绪建构论(Constructed Emotion Theory):情绪并非硬编码的本能反应,而是大脑将内感受(心跳、血压变化等)与当前情境结合后主动建构的预测结果——同样的生理状态,在不同情境下会被建构为恐惧、兴奋或爱意。
[注3] 黑猩猩、大象等高认知动物在圈养环境中确实会表现出类似无聊的行为——但关键词是"圈养"。这是因为笼子强制移除了它们的觅食压力,动物的注意力系统失去了天然的占据对象,才出现了类似无聊的状态。一旦放回野外,这种状态立刻消失,注意力全部回归生存。人类的独特之处在于:根本不需要被关进笼子。坐在家里,吃饱喝足、安全无虞,我们仍然会主动去找书读、找问题钻、找新东西学——这种内驱力不依赖于外部压力的剥夺,而是前额叶对建模和预测本身的持续需求。
[注4] 语言起源的时间估计在学术界存在较大争议,从约10万年到30万年前不等。本文采用较保守的约10万年前这一估计,对应解剖学意义上的现代人行为复杂性证据(如非洲南部洞穴的符号和工具遗址)。
[注5] Nunn, P. et al. (2016). 澳大利亚原住民关于海岸线被淹没的口头传说,经地质学家比对地质记录,确认对应 7,500 至 12,000 多年前的海平面上升事件,是迄今记录到的最古老的口头传承之一。
[注6] 《埃伯斯纸草书》(Ebers Papyrus),约记录于公元前1550年,是现存最重要的古埃及医学文献之一,原件现藏于德国莱比锡大学图书馆。
[注7] Libet, B. et al. (1983). Time of conscious intention to act in relation to onset of cerebral activity (readiness-potential). Brain, 106(3), 623–642. 该实验后来受到方法论层面的质疑——2012年 Schurger 等人提出,"准备电位"可能只是随机神经噪声的统计平均,而非真正的"决策信号"。
本文关于大脑预测机制的整体框架,与神经科学家 Karl Friston 提出的 预测编码理论(Predictive Processing / Free Energy Principle) 有深度交叠。Friston 认为大脑的核心任务是持续最小化"预测误差"——感官输入与内部模型之间的偏差。这一框架可以统一解释感知、情绪、行动乃至意识,目前也是 AI 对齐研究中被关注的理论方向之一。入门读物推荐 Andy Clark 的《Surfing Uncertainty》。
[注8] 这一争论在 AI 安全领域被称为"行为对齐 vs 价值内化"。核心问题是:RLHF 训练出的模型,是真正理解并认同了人类价值观,还是只学会了输出人类偏好的文本?越狱(jailbreak)现象是常被引用的证据——对齐后的模型通过特定 prompt 往往能被引导出预对齐行为,说明原始表征并未被抹除。Anthropic 因此提出了 Constitutional AI,试图让模型通过推理原则来约束自身,而不只是拟合人类评分。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:jacktools123@163.com进行投诉反馈,一经查实,立即删除!
标签:

