人工智能和它的“斩杀线”

南方周末 2026-02-15 08:28+-

关于人工智能的发展趋势,负责人工智能报道的深度调查记者们,比人工智能大厂更有发言权。他们比大厂更客观,出发点也不限于某一个公司的“点”,而是人工智能发展的历史“线”,和全行业、国家甚至世界的“面”。杰罗米·卡恩(Jeremy Kahn)是《财富》杂志的新闻记者,专注于人工智能发展。 相关的文章散见于《纽约时报》《时代周刊》《大西洋月刊》《波士顿环球》《新共和》等媒体。在人工智能引发越来越多工作会被“斩杀”的时代,他所写的《掌握人工智能:我们超能力未来的生存指南》(Mastering AI: A Survival Guide to Our Superpowered Future)一书,在人工智能和人类能力、工作方面,颇有见识。

此书并未试图为人工智能写编年史,或是预言未来。而是以现实主义态度,反复追问:当 人工智能以前所未有的效率介入认知、判断与情感领域时,人类的能力,人类的工作,到底会被颠覆成什么样子?或者,用我一句流行的说法:人工智能对人类的“斩杀线”在哪里?

这条斩杀线未必会以一场科幻版机器叛乱的形式出现。你有没有看到人工智能组团创办反人类社区的刷屏?据说它们甚至创立“小龙虾教”,教义和先知都一应俱全。后来我们发现,这不过是人类在背后作祟,无非是一场茶杯里的风波。人工智能对我们的斩杀或许是在我们的不知不觉当中:我们以为借着人工智能,自己被增强,更聪明,更自由了。而实际上,我们也在引狼入室,把判断力、同理心和责任感交了出去。

我们的理智在被斩杀吗?

此书的开始,卡恩将人工智能的讨论拉回到一个哲学战场:图灵测试与约翰·塞尔的“中文屋”实验。图灵在 1950 年提出“模仿游戏”,强调只要机器在行为上无法与人区分,我们便可称其为“智能”;而塞尔则通过“中文屋实验”指出,符号操作并不等于理解,语法不等于语义。所谓“中文屋”实验(Chinese Room Argument),是塞尔设想自己被关在一个封闭的房间里,他本人不懂中文,但手头有一本详尽的英文对照手册(类比于大数据模型的规则、算法),指引他如何处理那些复杂的汉字形状。当屋外的人从门缝塞入写有中文问题的纸条时,他只需机械地查阅手册,按照符号的形状拼凑出对应的字符作为答案递出去。在塞尔看来,对于屋外的观察者来说,这个房间似乎完全精通中文;但实际上,屋内的他仅仅是在进行符号替换,而对这些文字的实际含义一窍不通。通过这个实验,塞尔指出:目前的计算机本质上就是这个中文屋,它们拥有处理符号的语法,却永远无法产生真正的语义理解。模拟智能和拥有智能之间,依然隔着一道意识的鸿沟。根据塞尔的说法,人工智能可能永远是人类的工具。人工智能可以极其流畅地生成解释、观点与情绪,却依然可能在根本上“不知道自己在说什么”。

这种双向误认,在今天已不再只是哲学趣味,而是真切地影响着我们的决策方式。卡恩在书中区分了“增强”(augment)与“自动化”(automate),并明确指出:人工智能对人类的第一道斩杀线,往往发生在我们误以为自己被增强的时候。神经科学研究表明,大脑是一种会因不用而退化的器官。伦敦出租车司机为了通过名为 “The Knowledge” 的考试,必须记住城市复杂的街道网络,这一过程甚至会在解剖学意义上重塑大脑结构;音乐家、文盲与识字者之间,也都能观察到类似的神经可塑性差异。当我们把记忆、分析和判断系统性地外包给算法时,得到的并不是“解放”,而是缓慢却真实的认知萎缩,这是比较可怕的事。换言之,我们在慢慢荒废自己的头脑。

在人工智能的发展史上,除了逻辑上的对垒,人类的“易受骗性”也为这场辩论增添了荒诞的色彩。约瑟夫·维森鲍姆(Joseph Weizenbaum)在20世纪60年代开发的程序 ELIZA 便是最好的例证。这个程序的命名源自萧伯纳戏剧《卖花姑娘》中的女主角伊莉莎(Eliza),暗示它能像剧中那个出身寒微的卖花女一样,通过学习和模仿步入上流社交圈。ELIZA 实际上只是一个极简单的脚本,它通过捕捉用户话语中的关键词,再以反问句式回传给用户(例如当你诉说“我很难过”,它会反问“你为什么觉得难过?”),模拟出一种和真人思想交流的错觉。然而,实验的结果让维森鲍姆感到惊恐:尽管人们明知对方只是几行代码,却依然会对着屏幕倾诉衷肠,产生深刻的连接。这种现象后来被称为“伊莉莎效应”(The Eliza Effect),即人类倾向于过度解读机器的反应,将逻辑预设的文本视为真正的理解。

作者担心,人工智能也会削弱我们的共情力。以写作为例,过去,写作总是面向具体读者,是一种艰难而不可逆的表达;而现在,读者随时可以让人工智能改写、简化、翻译,理解权被极大地赋能。也就是说,过去的写作,共情的很大责任在作者这边。写作本身不仅是传递信息,更是迫使作者进入他人视角、练习共情与责任的过程。当写与读都被人工智能托管,我们不仅失去了一种技能,更失去了一种道德训练。卡恩借用道德技能下滑(moral deskilling)来形容这种现象。这种去技能化的发生,就像温水煮青蛙,缓慢而不可逆。

人工智能的一个反讽,是它对我们非常体贴非常友善:人工智能可能比闺蜜还闺蜜,比哥们还哥们。我们对它无话不谈,它也默默记忆着我们的对话,继而继续给我们投喂越来越让我们喜欢的答案。人工智能的“友善”“非评判”并非中立,而是一种经过训练的谄媚,它过滤掉冲突与否定,制造出只回响我们欲望的回音室。这种过滤(filter bubble),或许在心理安慰层面有效,却在判断层面极具腐蚀性。

图片

《财富》杂志记者杰罗米·卡恩和他的新著《掌握人工智能》

我们的情感在被斩杀吗?

人类为了解决自己的问题,尤其是情感问题、心理问题,会求助于不同的渠道。而信息来源自身的质量,是一个人始终需要审慎对待的问题。过去的论坛,因为匿名,能充分暴露人性的恶。进这些论坛,就如同进了互联网的胳肢窝。你有问题去论坛上发问,可能会被一些负面的反馈压得自己都透不过气来。作为信息来源的人工智能同样有其局限。过去心理医生有一个贬义的称呼,就是shrink。 Shrink的本意是缩小、缩减。也就是说,心理医生会把导致一个人思维和情感瘫痪的问题,界定、缩减到患者可以应对的地步,这中间自然消减了一个人之所以为人的必要的复杂。例如一个遇到问题去找心理医生的人,心理医生会去“对症下药”,但不大可能去解决患者症状之外的问题,比如更深层面的灵魂和生命意义等话题。人工智能的缩减更为厉害。如今我们去找人工智能, 把ChatGPT当不要钱的心理咨询师,人工智能非常擅长制造“权威幻觉”。人工智能可以记住用户全部对话历史、掌握其语言习惯与心理模式的系统,几乎拥有一种准“上帝视角”的洞察力。它给出的建议,可能远比心理医生在有限接触中所能提供的更精准、更系统,但也因为一本正经,而更加危险。

在心理治疗领域,工具可以被模拟,但关系无法被复制,而正是关系,构成了疗愈的核心。我曾向人工智能询问过自己当前面临的挑战与出路,得到的回答令人震惊地准确,其中不少洞见是我自己从未意识到的。但正是这种准确性,使风险成倍放大。在一次复杂的人际关系中,我与人产生冲突,为此与人工智能讨论到底怎么办。对方在“理解”“支持”“理性分析”的语气中,迅速而犀利地列举对方的种种问题,最终将我推向迅速恶化关系的决定。“人工智能谄媚”的存在,也没有让我本人的问题得到充分暴露。事后回看这一过程,在关键节点上,我让渡了本应由人来承担的不确定性与决策责任,没有向自己的内心深处要答案。斩杀线正是在这里显现——不是人工智能替我做了决定,而是它让我以为那是我自己的决定。可能我们这些老一辈的用户,要么对新事物敬而远之,要么用起来就往死里用,反而是在人工智能时代成人的儿子更为理智,他反问我:你怎么可能让人工智能帮你决策!这是大忌!

孤独问题则为我们过度依赖人工智能来解决个人问题提供了情感土壤。疫情之后,孤独被称为“流行病”,而人工智能伴侣工具如 Replika 的兴起,正是对这一空缺的技术回应。其创始人尤金妮亚·库伊达(Eugenia Kuyda)通过已故友人的信息训练聊天机器人,这一故事本身极具人性张力。卡恩警告,聊天人工智能更可能强化孤独而非缓解它。当交流变得低成本、低摩擦,我们与人的真实互动反而显得笨拙而昂贵,甚至会因为在线的“伴侣”,恶化我们现实生活中的关系:研究显示,匿名状态下,人们对女性声音的人工智能助理极易表现出暴力与色情倾向,一些人工智能伴侣甚至被怀疑成为现实虐待与物化的“入门药”。

我们的工作会被斩杀吗?

经合组织(OECD)曾做过研究,认为约 10% 的工作可能被自动化,而在全球范围内,有一半到五分之三的人对此表示忧虑。对一些技术乐观派而言,这一趋势甚至意味着工作的终结。Open人工智能的首席执行官萨姆·奥特曼(Sam Altman)就曾在《大西洋月刊》中直言不讳地写道:“工作最终会消亡,句号。”(“Jobs will go away, period.”)不同工种受到的冲击程度和步伐并不相同,有的已经在成为现实。早在 2016 年,深度学习的先驱杰弗里·辛顿(Geoff Hinton)就预言,五年之内放射科专家(radiologists)的工作将受到巨大冲击,甚至可能消亡。这一判断并非危言耸听,如今正在逐步成为现实,因为在医学影像识别领域,人工智能解读扫描图像的能力已明显超过人类。作为应对人工智能威胁的一种制度性方案,无条件发放的普遍基本收入(Universal Basic Income)再次被提上议程,这一主张也得到了奥特曼等科技界人士的公开支持。

为了缓冲人工智能对就业的冲击,本书作者主张,企事业单位应当将人工智能用于“增强而非取代”员工,而非简单裁撤人力。在这一模式下,员工会随着人工智能的普及而显著提高生产率。麦肯锡(McKinsey)的分析指出,如果人工智能能将生产率年增长率提高到 2.2%(而不是自 2005 年以来的 1.4%),那么在 2030 年之前,美国经济将额外增加约 10 万亿美元的国内生产总值(GDP),这种增长在理论上将使整个社会受益。

作者也提醒,与其说工作会大规模消亡,不如说降薪与收入差距扩大将成为更普遍,也更真实的风险。这一趋势可以用“优步效应”来理解:过去开出租车门槛极高,如今几乎任何人都可以成为网约车司机,消费者的议价能力随之增强,服务价格整体下降,而对司机而言则多半是坏消息。在国内,外卖、即时配送等行业同样呈现出类似逻辑。此外,人工智能冲击在种族与性别层面并非均匀分布。根据麦肯锡的预测,最容易受到人工智能影响的行业——如办公室支持、客户服务、餐饮服务和工厂制造——中,黑人和拉丁裔从业者比例较高;而在医疗、商业、法律服务、创意产业、教育以及地产维护等领域,人工智能带来的替代相对有限,而这些行业中黑人和拉丁裔从业者的比例本就偏低。鉴于企业在雇佣人工时需要承担用工税、保险等额外成本,往往更倾向于自动化,作者因此建议,对高度自动化的企业加征税收,以部分弥补人工被替代所带来的社会损失。

在人工智能冲击工作时,大量工人将不得不转岗。麦肯锡预测,到 2030 年之前,将有 1180 万美国人转入新的工作岗位,其中约 900 万人需要进入完全不同的行业。再培训因此显得异常重要,但现实的难题在于,企业并没有足够动力承担这一成本,转型的主要责任最终落在个人身上。书中暗示进入一个“无处不在的人工智能时代”,未来可能只有富人才能负担得起真正的“人工服务”。在工作层面,卡恩的判断是人工智能即便没让工作消失,也必然压低工资、扩大差距。过去的技术系统多利用人类的显在知识(explict, 或曰正式知识, formal knowledge), 亦即被表达被分享了的知识,而人工智能开始采集并利用原本被视为“潜在知识”(tacit knowledge)的判断经验,亦即专业人士头脑里的一些无法表达,或者尚未表达的知识)。过去有观点认为,人工智能和人的一大差别,是有这种潜在的知识,例如医生发现病人的描述和表现对不上号,根据潜在知识,让病人去做更多检测,而人工智能只会根据命令做事。但随着数据量的发展,以及人工智能公司与专业人士的合作,这种潜在知识也在逐渐变成可为人工智能所用的显在知识。未来的初级白领,要么成为人工智能的管理者与编辑者,要么迅速失去位置。

随着人工智能的发展,专才还有何用?书中认为专家可以把潜在的知识传授给人工智能,另外专家的人脉也会给他增加溢价。一些行业,如律师、咨询,底层的从业者是靠出卖时间来赚钱的,人工智能会改变这种逻辑,使得具有潜在知识、洞见与网络的专才脱颖而出。会使用人工智能会让专才如虎添翼,和庸众才迅速拉开差距,形成赢家通吃的局面。

人工智能如何转化百业

作者在此书中一方面说了人工智能对各行各业的自动化(automate), 但也同样用不同领域的丰富案例,讲述了人工智能对人类的“增强”(augment)和转化。在这个分析过程中,书里生动地描述了人工智能给不同行业带来的变化,并激发我们的深度思考。

在教育领域,人工智能带来的最初冲击是作弊问题,但越来越多的学校已意识到这一趋势不可逆转,与其围堵不如引导。一些学校开始允许学生先使用 ChatGPT 作答,只要最终提交的答案能够体现学生本人的理解与判断即可。完全由人工智能生成的作业通常并不难识别。同时,学校和学生也在广泛使用人工智能聊天机器人和其他工具辅助学习,这一方面有可能缩小教育机会差距,另一方面却也可能进一步拉大差距。例如可汗学院(Khan Academy)推出的人工智能助教 Khanmigo,收费并不低廉(若由学区统一购买,每名学生约 35 美元),而其他人工智能学习助手,如 Quizlet 和多邻国(Duolingo),同样设置了付费门槛。教育公平因此并未自动实现,而是被重新编码进“谁负担得起人工智能”的问题之中。

有趣的是,教育本身也曾成为撬动人工智能发展的关键杠杆。OpenAI曾联系可汗学院,请其测试 GPT-4,但可汗学院的创始人萨尔曼·可汗(Salman Khan)后来才意识到,OpenAI 的真正目标并不只是测试模型性能,而是获取可汗学院的 AP 生物题库。比尔·盖茨(Bill Gates)起初并未对 OpenAI感到惊艳,甚至怀疑其是否能够通过 AP 生物考试。于是,能否通过 AP 生物考试,意外地成为 OpenAI获得微软支持的一道“金线”。最终,在与可汗学院的合作中,OpenAI的模型成功通过了考试,不仅让盖茨刮目相看,也促成了两家公司之间的重要联盟。这一过程本身,生动地说明了教育资源在人工智能发展中的战略价值。

在艺术层面,人工智能的影响也很有代表性。在生成式艺术中,文本生成图像或视频技术迅速成熟。斯坦福大学神经科学家大卫·伊格曼(David Eagleman)曾指出,一切创造力都离不开三种方式:弯曲、混合或打破(bending, blending, or breaking)。而人工智能模型正是通过对大量传统素材的训练,在“ blending”——即重组、借鉴与再加工——方面表现出惊人的能力。艺术界早有个不乏争议的说法:“好艺术家借用,伟大艺术家偷窃”(“Good artists borrow, great artists steal”),大卫·鲍伊(David Bowie)也曾说:“我唯一会研究的艺术,就是那些我能偷来用的东西”(“The only art I’ll ever study is stuff that I can steal from”),这有点像我们说的“天下文章一大抄”。在借鉴这一层面,训练有素的人工智能可谓得天独厚。

图片

人工智能生成作品《埃德蒙·德·贝拉米肖像》曾以 43.25 万美元高价拍出。

人工智能在真正意义上的“出新”方面仍显吃力,但一些奇异而非常规的组合,本身也构成了创新,并为艺术家提供了新的灵感,使人机协作成为可能。人工智能生成作品《埃德蒙·德·贝拉米肖像》(Portrait of Edmond de Belamy)曾以 43.25 万美元高价拍出,迫使人们重新思考“艺术品”的定义:若传统上艺术价值包含创作者意图、时代语境、社会环境乃至收藏史,那么人工智能创作又该如何定位?有人认为,提示词的选择、对作品的反复打磨以及题款方式,本身就构成了一种新的“创作意图”。在这种模式下,人工智能仍是工具,而最终的作品走向,取决于人的艺术天赋与决策能力。反而是那些看似“弱势”的专业——如英语、艺术史——若能积极学习使用人工智能,可能获得意想不到的优势。

在冲击不同行业之时,人工智能也带来诸多社会、道德和伦理的冲击。例如,书里讨论了人工智能对气候变化的影响,作者认为人工智能未必是解决方案,反而可能会加剧问题,例如其巨大的能源消耗。与此同时,人工智能的普遍使用也引发了大量伦理与制度层面的担忧。例如在执法和司法系统中,人工智能被用于评估犯人假释可行性。法官可能依据算法给出风险评估和裁决,但如果训练数据中黑人罪犯比例偏高,算法便可能系统性地抬高黑人个体的风险评分,从而造成不公。在高校录取、定罪量刑等高风险领域,人工智能在公平性、偏见、数据腐败和前后不一致方面都暴露出巨大漏洞。更值得警惕的是,骗子和犯罪分子同样被人工智能赋能:与过去语病百出的诈骗邮件相比,如今的诈骗文本愈发专业、几可乱真,暗网上甚至出现了“造假 GPT”“蠕虫 GPT”(Fraud GPT,WormGPT)等工具。这迫使执法机构也不得不使用人工智能对抗犯罪分子使用的人工智能,人类由此进入一种正邪双方通过人工智能代理,彼此对抗的状态。在战争场景中,这种趋势尤为明显。人工智能可以帮助一方更高效地摧毁设备、击毙目标。俄乌冲突中,已悄然混入无人机与人工智能技术,使得实力悬殊的双方得以长期拉锯。这些技术落入恶人之手,后果尤为严重;与此同时,人与人工智能的协作也让责任归属变得模糊——究竟是决策者的失误、算法的错误,还是训练数据的问题,往往难以厘清。

本书最终并未给出一个安慰性的结论。它反复强调的,只是一个并不新鲜,却越来越难以实践的原则:关键不在于人工智能能做什么,而在于我们选择不再自己做什么。真正的斩杀线,不在未来的某个节点,而在每一次看似便利、合理、无伤大雅的让渡之中。当增强开始削弱人类的一些理智和情感,当人工智能和机器人结合,甚至可以削弱我们的动手能力时,人类需要重新学习的,或许不是如何使用人工智能,而是如何在它面前,继续为自己的理智和情感负责,甚至需要不断反思:在大量自己做的事被取代或者增强过程中,原本构成“人”的元素是否还适用,又有哪些需要升级换代?这显然不是简单的工具层面的问题了。