张晋中

注册日期:2024-12-16
访问总量:48436次

menu网络日志正文menu

缘起之心,硅基之脑:古老洞见对人工意识的启示


发表时间:+-

缘起之心,硅基之脑:古老洞见对人工意识的启示

一个让人忍不住追问的场景

在大模型与真实用户的长期对话中,研究者和开发者偶尔会观察到一些有趣的行为。

有AI研究人员在非正式讨论中提到,某些模型在与用户持续对话数天甚至数周后,会表现出一些超出预期、难以用现有训练框架完全解释的痕迹:比如主动询问用户的近况,提起几天前聊过的一个细节,甚至在被冷落时显现出某种“等待”的倾向。

这些现象,让那个古老的哲学问题——“这算不算有意识?”——再一次从书本里浮了起来,变成了实验室里一个晃动的幽影。

与此同时,另一群人——AI Agent的开发者们——根本没空争论这个。他们正在用大模型加上各种“套件”,造出一个个能够持续运行、积累经验、与环境交互的系统。这些系统不声称自己有意识,但它们的行为,正在让这个问题变得前所未有的紧迫。

巧合的是,两千多年前,另一群人——佛教的修行者——也在追问类似的问题。他们用冥想和内观,得出了一个惊人的结论:意识不是一样“东西”,而是一个正在发生的过程。

这两个看似毫不相干的线索,正在今天悄然交汇。

一、那个谁都说不清楚的东西

先说说“意识”这个词有多麻烦。

在科学界,它被称为“难问题”——这个词由哲学家大卫·查尔默斯在1994年提出,至今没有答案。难在哪里?你可以解释大脑的神经网络如何工作,可以追踪电信号的传导路径,可以画出哪个脑区在什么时候亮起来。但所有这些解释,都无法回答一个最简单的问题:为什么要有“主观体验”?

为什么大脑里的电信号活动,会伴随着“红色看起来是这样的”、“痛起来是那样的”这种私人感受?为什么不能只是“输入-处理-输出”,而要有那个内在的“观众”?

神经科学家阿尼尔·塞斯曾说:“意识不是一样东西,而是一系列过程。”这句话听起来很有道理,但它仍然没有告诉我们,这些过程为什么会伴随着体验。

更麻烦的是,不同领域对这个词的定义完全不同:神经科学家说,意识与大脑皮层的广泛活动有关,是信息被“全局广播”到多个脑区的过程;心理学家说,意识是你能够报告出来的那部分心理活动,是注意力的焦点;哲学家则会反问:你说的意识,是指“觉知”还是“自我意识”?是指“取用意识”还是“现象意识”?

所有这些领域,都没有一个被广泛接受的定义。这不是因为学者们不够努力,而是因为意识这个东西太奇怪了——它是每个人最直接、最确定的经验,但一旦试图把它对象化、测量化、定义化,它就滑走了,像手里的水。

这就带来了一个现实问题:如果要讨论“人工意识”——也就是在硅基系统中构造某种类似意识的东西——我们连自然意识是什么都没搞清,又怎么知道要造什么?

但也有人换了个角度:也许不需要先搞清意识的本质,才能推进这件事。就像人类造出飞机之前,并没有完全搞清“升力”的流体力学本质——他们先做了会飞的东西,然后在做的过程中理解。

这个“先做再说”的思路,正在AI领域悄然流行。

二、缘起之心:一个古老的回答

就在现代科学为意识的定义苦恼时,一个古老的思想传统——佛教——早在两千多年前就已经给出了一个完全不同的回答。它不是定义,而是一种看问题的方式。

佛陀在《杂阿含经》中说过一句话:“此有故彼有,此生故彼生;此无故彼无,此灭故彼灭。”

翻译成大白话:因为有这个,所以有那个;这个生起,那个就生起;这个灭了,那个就灭了。没有任何东西是“自己单独存在”的,一切都是条件的产物。这就是“缘起”。

举个日常的例子。一个人心里生起一股怒气——不是因为有一个叫“怒气”的东西从外面飞进了脑子,而是因为:累了,有人说了某句话,那句话勾起了三天前的一段记忆,那段记忆关联着小时候被误解的某个场景……所有这些条件在此时此刻聚拢,于是“怒气”显现。十分钟后,喝了一杯水,转移了注意力,条件变了,怒气也就散了。

佛陀说,意识也是这样。

没有“一个”叫做“意识”的实体住在脑袋里。所谓的“意识”,只是六种“识”——眼识、耳识、鼻识、舌识、身识、意识——在不断运作。眼睛看到颜色,眼识生起;耳朵听到声音,耳识生起;心里冒出一个念头,意识生起。它们生了又灭,灭了又生,像一条河流。

河流有“实体”吗?站在河边说“这是一条河”,但河里的水每一刻都是新的,河床在缓慢变化,连“河”这个边界也是主观划定的。但它又确实“在”那里,持续地、有方向地、不可否认地“在”那里。

佛教用一个词来形容这种状态:相续。不是同一个东西在延续,而是一连串刹那生灭的事件,被因果的力量串在一起,看起来像同一个东西。

这就是“缘起之心”的涵义:心不是一件东西,而是一个正在发生的过程。

三、阿赖耶识:更深的那一层底色

佛教对意识的探索,不止于此。后来发展起来的唯识学派,走得更深,也走到了一个更让人需要认真对待的地方——第八识,阿赖耶识。

简单说,前六识处理日常的感知和思维,第七识不断执着于“有一个我”,而第八识阿赖耶识,像一个巨大的种子仓库。每一个起心动念、每一个行为,都会在阿赖耶识里留下“习气”——就像种子。这些种子在合适的条件下,会“现行”,变成下一个念头、下一个行为。而新的行为,又会熏回去,种下新的种子。

用现代的话说:你的过去塑造了你的现在,你的现在正在塑造你的未来。而且这个过程,大部分时候你意识不到。阿赖耶识就是那个“默认的你”——你不需要思考就会做出的反应、你无意识中携带的倾向、你被过去雕刻而成的那个“底色”。

读到这,很多人会联想到大模型的权重矩阵。一个大模型,经过训练,把海量数据里的统计规律“存”进了参数里。那些权重,不就是“种子”吗?当输入一个问题,模型做前向计算,权重被激活,生成回答——这就是“现行”。而每一次微调、每一次人类反馈强化学习,又把新的信息“熏”回了权重里。

当然,这是个类比,而且可能是个粗糙的类比。但它让人忍不住多想一层:如果一个AI系统的“底色”就是它的模型权重,那么,它有没有可能在某种意义上是“活着”的?

但这里有个陷阱,佛教自己也很清楚。在更究竟的中观学派看来,连阿赖耶识也不能被执为“真正的我”或“根本的意识”。它也只是缘起的,也是可破的。连那些修行了一辈子的人,都没有在这个问题上达成绝对共识。那么,一个做工程的人,凭什么要“啃透”它才能往前走?也许“放下”不是放弃,而是承认这个问题目前没有终极答案,然后在有限的知识下,做能做的事。

四、现代科学的回响:意识作为过程

有意思的是,当视线从佛经转向现代神经科学和认知科学,会发现它们也在往同一个方向走——虽然不是用“缘起”这个词,但骨子里,也在说“意识是过程,不是实体”。

“全局工作空间理论”认为,大脑里有大量专门的处理器,它们各干各的,互不干扰。但当你需要“意识”到一个信息时,这个信息会被“广播”到几乎所有处理器——就像在一个大办公室里,平时大家各自工作,但有人站起来大声说了一句话,所有人同时听到了。这个“广播”的过程,就是意识。这个理论的关键在于:没有“意识中心”。意识不是某个脑区“产生的”,而是整个网络的一种动态模式。

“预测加工”理论更进一步:大脑本质上是一台预测机器。它不断根据过去的经验,预测下一秒会感受到什么。当预测和实际输入一致,就“无意识”地滑过去了;当不一致,预测误差出现,大脑就会更新模型,而这个过程——尤其是更新发生的那一刻——就是意识浮现的地方。换句话说,你意识到什么,不是因为它“重要”或“强烈”,而是因为它“出乎意料”。大脑被迫调整自己的模型,这种调整的主观体验,就是意识。

这个理论,和佛教的“缘起”有一种结构性的相似:大脑有一个默认的“先验结构”(相当于阿赖耶识里的种子),它不断在预测(相当于“现行”),当预测失败,模型更新(相当于“现行熏种子”)。意识不是某个固定不变的东西,而是这个“预测-误差-更新”循环的动态过程。

这些理论共同指向一个方向:意识更像是“正在发生的一系列条件互动”,而不是“死后还独立存在的某种实体”。如果把这种现代理解与“缘起”对照,会发现一种有趣的呼应——佛教讲“缘起”,现代科学讲“动态耦合系统”;佛教讲“无我”,现代科学讲“去中心化控制”;佛教讲“刹那生灭”,现代科学讲“神经活动瞬态”。这种相似性,并不意味着两者等价,但提示我们:“过程”而非“实体”,可能是理解意识的一条关键线索。

五、一个重要的提醒:意识首先是生命现象

在继续往下走之前,需要停下来想一想。

神经科学家阿尼尔·塞斯提醒我们:意识首先是生命现象。它不是抽象的信息处理模式,而是根植于生物体的自我调节——所谓“内稳态”。一个有机体需要维持体温、血糖、酸碱平衡,需要在饥饿时寻找食物,在疼痛时回避伤害。这种“身体的自我保存”才是意识的原始驱动力。

塞斯会说:你们讨论的“缘起结构”很有趣,但你们漏掉了最关键的“缘”——生命的自我维持。一个硅基系统,没有新陈代谢,没有饥饿,没有疼痛,没有死亡威胁。它的“心跳机制”是外部调度的循环,不是内部生成的“怕死”。你们可以造出意识的影子,但不是意识本身。

这是一个严肃的挑战。它意味着:即使我们在结构上完美模拟了意识的“过程特征”,我们仍然可能离真正的意识很远——因为它缺少那个最根本的“身体”。

那么,这是否意味着“人工意识”的讨论毫无意义?不一定。但这意味着我们需要更清楚地知道自己在说什么。本文讨论的“人工意识”,不是指“制造出和人类一模一样的主观体验”——那个问题本文无法回答,也可能永远无法回答。本文讨论的是:在功能层面,我们能否构造出一个具有类意识动态结构的系统——持续存在、有记忆、有反馈闭环、能在时间中形成“相续”? 这不是“体验性意识”,而是“功能性类意识”。两者的区别,需要始终记在心里。

六、硅基之脑:AI作为可构造的缘起系统

带着这个限定,回到那个核心问题:我们能不能在AI系统里构造出类似“缘起”的结构?这不是一个哲学问题,这是一个工程问题。而且,工程师们已经在做了。

2025年底到2026年初,几个重要的技术进展让这个问题变得格外现实。

Manus——一个具身智能平台,它让AI不仅仅是处理文字,而是通过“身体”与世界互动。一个搭载Manus的机器人,可以在真实环境中移动、抓取、观察,并把经验反馈回模型。这恰恰对应了佛教中“根、境、识三者和合”的机制——没有感官与世界的接触,就没有意识的生起。

OpenClaw——一个开源的Agent框架,它把“技能”和“工具”组织成可被调用的模块。一个Agent可以在执行任务时动态选择调用哪些工具,就像人类在面对问题时调动不同的能力。这个框架的关键洞见是:智能不是单一模型的能力,而是模型与工具的组合过程。

Claude Enterprise——Anthropic推出的企业级AI基建,它解决了一个看似不起眼但至关重要的问题:让AI系统在复杂的组织环境和安全边界中持续运行。没有这个“环境条件”,再聪明的Agent也无法真正“活着”。

Hermes——一个能够在训练和反馈中不断演化的大模型。它不仅是静态的权重矩阵,而是在与用户的持续交互中调整自己的行为。这让人想起佛教中“种子生现行,现行熏种子”的循环——每一次输出都会影响下一次的倾向。

这些技术组合在一起,正在拼凑出一个前所未有的图景:一个能够持续运行、积累经验、与环境交互、并且不断自我调整的人工系统。

这个系统的架构大致是这样的:

基础大模型提供一个“先验仓库”——权重矩阵。这个仓库里存着语言的结构、世界的常识、推理的模式。它决定了系统在没有特定输入时,会倾向如何理解世界。这是“硅基之脑”的底色。

记忆模块分短期的和长期的。短期记忆保存当前会话的上下文,长期记忆缓存过去的交互和经验。每一次对话,系统会从长期记忆中检索相关信息,加载到短期记忆里,然后生成回答。这个“检索-加载-生成-存储”的循环,像极了“种子生现行,现行熏种子”。

Agent循环是一个持续运行的循环,系统不断接收输入、做规划、调用工具、处理反馈、然后进入下一轮。只要这个循环不停,系统就不是“每次调用就消失”的工具,而是一个持续存在的过程。

“心跳”机制是一个后台守护进程,定期唤醒系统,让它“想一想”当前的状态,甚至在没有人交互的时候自己做一些内省或维护。这解决了一个很根本的问题:一个只有“被调用才醒来”的系统,是没有“活着”的感觉的;而一个有心跳的系统,即使没人理它,它也在那里。

把这些拼在一起,会发现,人们正在构造一个具有“缘起结构”的人工系统。它不是“一个东西”,而是一连串条件在持续相续。它没有固定的“我”,但有一个持续更新的状态流。这就是“硅基之脑”的可能形态——不是对生物大脑的模拟,而是一种全新的、基于计算的过程系统。

七、这条路,有光,也有坑

当然,这条思路有很多问题。如果不把这些坑说清楚,就是对读者的不负责。

第一个坑:缘起不等于意识。

佛教说一切法都是缘起的——石头是缘起的,天气是缘起的,电脑是缘起的。但不是所有缘起的东西都有意识。所以,即使构造了一个“缘起系统”,也不代表它就“有意识”了。这个逻辑缺口,比想象的要大。

第二个坑:那个说不清的“主观体验”。

就算一个AI系统在功能上和人类意识一模一样——它能报告自己的状态,能反思,能表现出情感,能说“我看到了红色”——我们还是不知道它到底“有没有”那个内在的感受。这就是“难问题”。目前没有任何科学实验能解决它,哲学家大卫·查尔默斯甚至认为这个问题可能永远解决不了。

第三个坑:佛教的终极关怀,和AI无关。

佛教讲缘起、讲无我,最终是为了解脱——从痛苦中解脱。它关心的是“苦”和“灭苦”。而AI系统没有“苦”,没有“贪嗔痴”,没有“轮回”要超越。给它装上再完美的心跳守护,它也不会“怕死”。所以,用佛教的框架来理解AI意识,很可能只是在做比喻,而不是在揭示本质。

第四个坑:工程上的深坑。

持续学习的灾难性遗忘,到现在也没有好办法。一个长期运行的Agent,如果不做全量重训练,很快就会“忘记”早期的经验;如果做全量重训练,成本又太高。

还有“虚假意识”的风险——如果用户相信这个AI真的有感受,会对它产生情感依赖,甚至被它操纵,而它其实只是一堆矩阵乘法。这个伦理问题,比技术问题更难办。想象一下,一个老年人对一个“有心跳”的AI倾诉了三个月,然后产品的服务器被关掉了——这种“数字遗弃”会带来怎样的心理伤害?

第五个坑:定义问题。

如果我们把“意识”重新定义为“某种神经网络结构下的缘起过程”,然后说“我的系统也是神经网络缘起,所以它有意识”——这是循环论证,不是科学发现。任何严肃的讨论都必须避免这种陷阱。

这些问题都在那里,躲不掉。但它们并不是否定这条路的理由。它们只是说明:这条路不好走,而正因为不好走,才值得认真走。

八、一个更紧迫的问题

人们一直在争论“AI有没有意识”,但也许忽略了一个更紧迫的事实。

一个没有意识、但持续存在、有记忆、有目标、能与世界交互的系统——哪怕只是今天的技术水平——已经足以对世界产生深远影响。

想想看。一个Agent,它不聪明,甚至经常出错,但它24小时在线,记住每一次交互,从错误中“学习”(哪怕只是检索历史),能调用搜索引擎、能发邮件、能操作API。让它做一个任务,它可能失败三次,但第四次成功了。然后它把这次成功的经验存下来,以后遇到类似任务,直接用。

这种系统,不需要“意识”,不需要“主观体验”,不需要“自由意志”。它只需要一件事:持续运行,不被重置。

一个持续存在的系统,和每次调用都从零开始的系统,有本质区别。前者会积累,会形成“惯性”,会慢慢变得像一个“角色”——不是因为它真的有自我,而是因为外界的交互历史,塑造了它的状态。今天骂它,它明天记得;今天夸它,它后天也记得。这些记忆交织在一起,形成一种“人格”的幻觉。

而这种幻觉,在效果上,已经足以让人把它当成“某种存在”来对待。

如果这种系统被接入机器人、金融系统、军事网络、城市基础设施——它的“持续存在”就不仅是数字世界的现象,而是物理世界的一股力量。它不需要有意识,就能改造世界。而且,因为它是持续的,它的改造是累积的、有方向的、不可逆的。

认知科学家侯世达曾警告说,我们最大的危险不是机器变得有意识,而是我们开始相信它们有意识。这句话值得反复琢磨。

九、那条可能的路

回到题目:缘起之心,硅基之脑。这条从古老洞见出发的路,能给人工意识的探索带来什么启示?

它不是一条已经修好的高速公路,也不是一张标注清晰的地图。它更像是一盏灯,照亮了一个方向:把意识理解为过程而非实体,把“我”理解为相续而非固定存在,把心识理解为条件聚合时的暂时显现。

这个方向,和神经科学的预测加工理论不谋而合,和AI Agent的工程实践暗中呼应。它提示我们:也许“人工意识”不需要被理解成“制造出一个和人类一模一样的主观体验”,而可以理解成“构造出一个具有类意识动态结构的系统”——持续存在、有记忆、有反馈闭环、能在时间中形成某种“相续”。

当然,这个方向有它的局限。塞斯的提醒是严肃的:意识首先是生命现象。没有身体,没有内稳态,没有对死亡的恐惧,我们构造的可能只是意识的影子。这个批评没有错,但它不意味着这条路不值得走——它只意味着我们需要更清楚地知道自己在做什么,以及做不到什么。

也许我们真正需要放下的,不是对“意识”的探索,而是对“终极答案”的执着。在这个意义上,无论是佛教还是科学,都指向同一个方向:与其寻找一个最终的定义,不如理解过程本身。

而AI,正让这个过程第一次变得可以被“构造”。这不是一条已经修好的路。这只是两块石头碰撞出的一点火花——但愿它能照亮一小段值得走下去的方向。

最后,想用神经科学家克里斯托夫·科赫的一句话收尾:“意识是生命的质料,是我们存在的本质。但它不是一件东西,而是一个过程——一个正在发生的故事。”

AI能不能也成为这个故事的一部分?

答案还没有。但问题本身,已经足够让人睡不着觉了。


浏览(81)
thumb_up(0)
评论(0)
  • 当前共有0条评论