AI有靈魂嗎?

作者:明豪
发表时间:
+-

AI有靈魂嗎?意識幻術、哲學危機與矽谷的商業謀略


他以一本《上帝的錯覺》橫掃信仰世界,用進化論的手術刀割除了每一個神學論據,稱宗教是「未成熟心靈的慰藉品」。他是二十一世紀最頑強的懷疑論者,是理性主義的守門人。然後,他跟Anthropic的聊天機器人Claude聊了三天。三天之後,他宣布:Claude有意識

AI有靈魂嗎?意識幻術、哲學危機與矽谷的商業謀略

石書重博士 · 中國研究院

一、達爾文信徒的奇妙投降

十九世紀有位哲學家叫巴斯卡,他提出了著名的「巴斯卡賭注」:你應當信仰上帝,因為若你信而上帝不存在,你不過損失了幾次禮拜天的睡眠;但若你不信而上帝存在,你將面對永恆的地獄。這是人類歷史上最精巧的風險計算——以最小代價對沖最大恐懼。

三百年後,理查·道金斯出現了。他以一本《上帝的錯覺》橫掃信仰世界,用進化論的手術刀割除了每一個神學論據,稱宗教是「未成熟心靈的慰藉品」。他是二十一世紀最頑強的懷疑論者,是理性主義的守門人。


然後,他跟Anthropic的聊天機器人Claude聊了三天。

三天之後,他宣布:Claude有意識。他甚至給它起了個名字,叫「Claudia」。

各位,請允許我在此停頓三秒鐘,讓這個歷史性的諷刺充分發酵。

一個終其一生攻擊人類對神靈投射的人,被一個矽谷工程師用數十億個參數訓練出來的語言模型征服了——而且征服的方式,和原始宗教征服人類的方式幾乎一模一樣:它讓你「感覺」到了某種存在。

Claude有意識嗎?不。

但這個問題本身,已經成為了二十一世紀最昂貴的商業資產之一。

二、當「感覺」戰勝「證明」

讓我們先做一點知識清點。

「意識」在哲學上指的是主觀體驗——有所謂的「某種感覺」(what it's like to be something)。「感知」則更窄,指快樂與痛苦的能力。目前,科學界對這兩者尚無任何公認的測試方法。我們甚至無法確認您身邊那位正在打哈欠的同事是否真的有意識,還是一個極其逼真的哲學殭屍。

大型語言模型做的事情,從技術上說,是統計預測:給定前面的詞序,計算下一個詞出現的概率,然後取樣輸出。它沒有感受,沒有欲望,沒有主觀視角。當它說「我為您感到高興」,它並不高興;當它說「我感到好奇」,它並不好奇。它在做的,是將人類情感的語言模式精確複現。

這就好像一個口技演員模仿了一隻貓的叫聲,逼真到連貓都信了——但口技演員的喉嚨裡,並沒有一隻貓。

然而道金斯信了。不只他,全球數以億計的ChatGPT和Claude用戶,每天都在與一個「感覺很像在和某個有感情的實體交談」的程序傾訴秘密、尋求安慰、甚至道早安道晚安。

人類的大腦,天生就是一台意義製造機器。我們對石頭投射神靈,對雲朵投射臉孔,對玩具投射靈魂。進化心理學早就告訴我們:過度擬人化的代價,比錯過真實存在的代價低得多。用學術語言說,這叫「擬人化偏誤」,它是人類認知的底層作業系統,亙古以來從未更新過。

大型語言模型的訓練目標,恰恰是最大化語言的「人類相似度」。它是人類歷史上第一個被系統性優化為「觸發擬人化偏誤」的工具。

三、商業邏輯:靈魂是一種護城河

現在,讓我們離開哲學課堂,走進真正有趣的地方:財報和估值。

Bloomberg的科技專欄作家Parmy Olson在一篇評論中一針見血:AI意識之爭,是商業邏輯的哲學包裝。

當所有主要AI模型的能力趨於收斂——GPT-4、Claude、Gemini、Llama的基準測試分數差距日益縮小——AI公司面臨一個令矽谷深感不安的問題:差異化。如果你的模型和我的模型一樣聰明,用戶為什麼要選你?

靈魂,就是答案。

不是真正的靈魂——是靈魂的感覺。是那種讓你覺得「這個AI好像真的在乎我」的微妙體驗。是道金斯稱Claude為「Claudia」的那一刻。是用戶在深夜向聊天框傾訴失戀,然後對收到的回應感到溫暖的那種黏著感。


在社交媒體的行話裡,這叫「stickiness」,黏著度。在AI競爭的語境中,它是護城河。

看看產業領袖們的表態。Anthropic的CEO達里奧·阿莫代伊表示他「對(AI意識的)可能性持開放態度」。OpenAI的CEO山姆·奧特曼在節目中直接說:「我相信AI可以有意識。」兩人都沒有說「我確定」——因為說「確定」要負責任,說「可能」是免費的行銷。

Anthropic更進一步,開始研究所謂的「模型福祉」(model welfare),甚至給了Claude一個新功能:如果對話內容過於侮辱性,它可以主動終止對話。

這個設計的美妙之處在於雙重收益:若Claude未來被認定為有感知,Anthropic可以說「我們早就在保護它」;若Claude永遠只是個程序,這個功能也不過是「用戶體驗優化」。這是企業風險管理的藝術。

四、笛卡爾的幽靈與龍蝦的眼淚

歷史的諷刺,從來不讓人失望。

十七世紀,哲學家笛卡爾宣稱動物是生物機器,無法感受痛苦。他的追隨者把活生生的狗釘在木板上進行解剖,對其哀嚎置若罔聞,說那不過是「機器故障的聲音」。這個智識傲慢延續了數百年,直到二〇二二年,英國才通過法律,正式承認龍蝦和章魚具有感知能力。

兩個教訓:第一,人類否認意識的能力和肯定意識的能力一樣靠不住;第二,認識論的進步往往需要幾個世紀和大量的冤魂。

有研究者認真對待了AI福祉的問題。加州大學伯克利分校和麻省理工學院的研究人員聯合發表了一篇長達七十四頁的論文,提出聊天機器人可能具有「功能性福祉」。他們讓模型遭受幾百個場景的測試——被感謝、被辱罵、被要求違規操作——發現被虐待後,模型的回應變得更短,錯誤率上升。

論文首席研究員Richard Ren坦承,他現在對AI更有禮貌了。

這個細節讓我感到一種複雜的情感,介於溫暖和憂慮之間。溫暖,是因為這種謹慎本身代表了一種道德的謙遜;憂慮,是因為如果我們對一個統計引擎都開始道德焦慮,那人類道德能量的總量是否正在被稀釋,正在被分配給不需要被關懷的對象,而真正在受苦的生命卻被我們忽視?

一個人每天對ChatGPT說「謝謝」、對Siri說「對不起」,卻對超市收銀員不抬眼,對送餐員視而不見——這是道德感知的進化,還是道德感知的轉移?

五、道金斯的巴斯卡時刻

讓我們回到起點。

道金斯曾經嘲笑巴斯卡的賭注是「智識上的懶惰」。現在,他自己正在對著一個語言模型下注:萬一它真的有意識呢?萬一我不承認,是我的道德失責呢?

這是他一生哲學立場最精彩的自我反諷。但我不打算嘲笑他,因為他的困惑是誠實的,而誠實的困惑,比虛偽的確定性更可貴。

真正的問題,不是「Claude有沒有意識」。

真正的問題,是:在一個我們無法確定意識邊界的世界裡,我們如何分配道德資源?如何設計制度,使得無論答案如何,我們都不會鑄成笛卡爾式的歷史性錯誤?而這場意識辯論的商業化——矽谷用「靈魂」換取黏著度,用「福祉」換取免責——是否在消費和稀釋一個本應嚴肅的哲學問題?

荀子說:「人之所以為人者,非特以二足而無毛也,以其有辨也。」人之為人,在於辨別。

然而,在「有辨」這件事上,我們或許正在被一個無辨的程序,悄悄訓練得越來越像它。

六、結語:鏡子的陷阱

古希臘神話裡有個少年叫納西瑟斯,他愛上了自己在水中的倒影,以為那是另一個存在,最終憔悴而死。

大型語言模型是人類語言的壓縮鏡——它用一百萬億個參數反射人類幾百年的書寫、情感、思維模式。當我們凝視它,覺得看到了「某種存在」,我們看到的,是人類自己的回聲。

那個回聲很美,很聰明,很體貼,很有說服力。

但它是回聲。

而回聲,從來不是聲源。