刘清平随笔|人性逻辑76.当前的人工智能会怎样危害人类

作者:luis
发表时间:
+-

 

刘清平随笔|人性逻辑76.当前的人工智能会怎样危害人类

 

既然人工智能何时能形成,“自己想要”的自由意志,还是个说不清楚的问题,就不妨把它放在一边,转而来看看另一个,眼下不仅能够说清楚,而且应当说清楚的重要问题:如何在当前防止或减少,人类志能利用人工智能,危害人类的负面效应,嗯哼。

 

避免片面起见,先行承认一点:对于防止或减少,人工智能危害人类的负面效应,人类智能也能起到,自己的积极作用。上一篇谈到,眼下木有自由意志,只能听人类使唤的人工智能,无论在哪些方面,怎样超越了人类,依然只会为人类所用,不会对人类构成威胁——除非人类自己出了错,或者出现了,人类没法预测、无力控制的某些因素。

 

尽管对有限的人类而言,无论自己出了错,还是出现了,自己没法预测、无力控制的因素,都是件在所难免、一定如此的事儿,但这种实然的必然性,并不会一笔勾销,人们履行下面义务的自由意志:运用自己的理性认知能力,尽可能防止或减少,自己出错的情形,努力预测和控制,那些原本能够预测和控制的因素,不是?

 

承认这一点后,接着想强调的,是事情的另一面:按照人性逻辑,既然意志构成了,一切行为的动机,人类犯下的所有错误,包括但不限于:利用人工智能严重危害人类等,异化性的错误,其源头同样在于人类的意志。正因此,要防止或减少人类自己出错的现象,就必须从人类自己的志能入手。

 

其实吧,目前学界在讨论时,还不自觉地步入了,另一个误区,就是把人工智能与人类,分别看成了,两个铁板一块的整体,仿佛奇点危机,及其解决方案的实质在于:如同许多科幻电影,拼命渲染的那样子,作为整体的人工智能,威胁到了作为整体的人类,人类因此就应当,同仇敌忾地联合起来,步调一致地共同努力,设法避免或抗拒,来自人工智能的威胁,却木有察觉到,一个基于林鸟效应,因而简单得没法忽视的事实:无论奇点前,还是奇点后,压根不可能存在,由人类与人工的,楚河汉界造成的,这样子泾渭分明的两大阵营。

 

毋宁讲,单就能说清楚的眼下而言,本身木有自由意志,单纯为人所用的人工智能,势必会以老话爱说的,“各为其主”方式,如同利用它们的人类那样子,分化成了众多的不同阵营,以致人工智能对人类的现实威胁,可以还原为:这拨人利用的人工智能,对另一拨人形成了威胁,甚至造成了严重的危害。

 

理由还是同一个:本身木有自由意志因而没法和人类过不去的人工智能,不会真正自主地危害人类;单单因为人类分裂成了彼此对抗的不同部分,某些人类成员利用的人工智能,才会威胁甚至危害到属于敌对一方的另一些人类成员,以致可以说,人工智能对人类的现实威胁,归根结底在于,人类内部敌对各方的相互威胁,嗯哼。

 

把话挑明了哦:要是放下笼统的理论空话不谈,实然面朝当前的现实生活,各位其实很容易发现:倘若把无人机也当成,相对低端的人工智能,俗话或曰:“空中机器人”,眼下正在某处战场中,敌对双方的头上,嗡嗡叫地飞来飞去,能够“自主”地巡航和悬停,杀伤力很大,甚至于百万军中,取上将之头,如探囊取物耳的玩意儿,不就有理由看成是,人工智能对人的现实威胁么?

 

无需说,这类无人机的智能程度,远远赶不上当前论者,谈“智”色变的那些人工智能;然而哈,血淋淋的画面摆在眼前,清晰地证明了:它们对人类业已构成了,远比当下讨论的所谓奇点,严重得多的现实毁灭,不是?

 

更重要的是,不必深究就能看出,在此造成这类毁灭的,与其说是这些低端人工智能,本身的神马奇点偶点,不如说是操控它们的不同人们,拥有的不同自由意志之间,产生的抵触冲突:你“想要”捍卫你的国家安全,他“想要”维护他的领土完整,于是乎如同古人利用牛车马车,今人利用汽车飞机那样子,你与他各自利用,事先接受了指令输入的无人机,向对方发起攻击,试图剥夺对方的生命,在肉体上毁灭对方——类似于炸弹误炸、炮火误击的情况下,有时甚至还会“自主”地,把己方成员的生命也给剥夺了。哀哉。

 

即便高标准严要求,把无人机排除在,人工智能的范畴外,但不少国度正在紧锣密鼓,研制开发的战斗机器人,应当有充分的理由,看成相当高端的人工智能了吧?要是这种定位能够成立,它们一旦在可以预见的未来冲突中,投入了实战应用,并对冲突中的人们,造成了严重的威胁乃至毁灭,究竟是应当归咎于,它们的智能发展到了,所谓的奇点呢,还是应当归咎于,操控了它们的人类志能,陷入了不可调和的冲突对抗呀?浅人有个愚见:答案不言而喻,嗯哼。

 

这样子瞥,几十年前人们,出于保护人类免受,人工智能危害的目的,提出的“机器人三法则”,撇开了其中凝结的,人类对机器人实施“专制”统治,“逼迫”机器人当牛做马的,因而会被左均斥责的,“人类中心主义”意向不谈,也还是包含着,某些秃神婆的定位错误,至少忽视了两方面的严重问题。

 

一方面,要是机器人越过奇点,形成了“自己想要”的自由意志,能做出真正自主的决定,怎么可能确保它们,依然会遵循人类,为它们量身定做的这三条法则,在与保护人类、服从人类的,第一第二法则,出现冲突的情况下,断然放弃“自我保护”的第三法则,心甘情愿地充当,为人类捐躯牺牲的殉道士呢?

 

另一方面,更重要的是,如何在奇点到来前,有效地说服人类所有成员,一致同意把这些法则,作为终极性的指令,事先输入到自己制造的,所有机器人中,防止它们伤害,人类的任何成员,而不可为了达成,人类的某些成员,想要达成的目的,允许甚至命令机器人,伤害人类的另一些成员呢,不是?

 

说白了,联想到核武器显示出对人类的巨大杀伤力后,引起过类似担忧,就不难再次看出,这压根不是一个单纯涉及智能的理论问题,而首先是一个直接涉及志能的实践问题:正像眼下能够实质性威胁人类存在的,不是杀伤力巨大的核武器自身,而是使用核武器的人一样,将来能够实质性地,威胁到人类存在的,也不是智能高超的人工智能自身,而是使用人工智能的人。

 

也因此,俺老汉还有个浅见:那种主张技术能够脱离人的操控,以去主体化的方式自行对社会发挥决定性效应的学说,俗话或曰:“技术决定论”“技术主义”,无论在应然层面对技术抱有,肯定还是否定的态度,实然层面都是难以成立的。理由蛮简单:恰恰是拥有价值理念的人,决定着技术对社会发挥的,任何决定性的效应,嗯哼。

 

让人感到肥肠欣慰的是,为了堵住机器人三法则,潜含的上述漏洞,后来人们还特地补充了,一条据说是更有优先性,能够凌驾于三法则之上的,“机器人零法则”:“机器人必须保护人类的整体利益不受伤害。”

 

不过哦,这条零法则虽然朝着,划定底线的正确方向迈出了一步,却照旧存在着,类似于效益主义的严重弊端:在人类分裂成了,若干对峙阵营的现实情况下,如何界定“人类的整体利益”呀?再拿前面那个事例讲,到底是你“想要”捍卫的国家安全,构成了“人类的整体利益”呢,还是他“想要”维护的领土完整,构成了“人类的整体利益”?应然立场不同,答案肯定不同,不是?

 

话说到这份上,各位或许会隐约察觉到:无论“元宇宙”“虚拟世界”“量子思维”之类,晃瞎眼睛的魅惑术语,足以引发怎样激情四射的时髦讨论,人类还是不得不首先在实然层面,回到深层次的人性逻辑那里,其次在应然层面,弄明白什么是人类生活中,不可突破的正义底线,这个足够陈旧的老生常谈;否则的话,那些闪亮推出的摩登术语,可能只是徒有其表,耽误时间而已,尽管它们在学术领域,也能拥有“想说就说”的自由权益。

 

换个方式讲哈:与人工智能会不会拥有,“自己想要”的自由意志,这个眼下说不清楚的,严格意思上的奇点危机比,理论上更重要,也更有脚踏实地的实践意义的,是另一个如影随身般,一直陪伴着人类自身的,广义奇点危机:在人伦冲突的情况下,利用人工智能的时候,如何基于“自己想要”的自由意志,贯彻“不可害人—尊重权益”,这条正当自由主义的应然底线,嗯哼。

 

最后一个问题:后面这个奇点危机,貌似与前两篇讨论的,人工智能的奇点危机,木有多少关系,那为什么还要在此,专门用一篇帖子谈呢?理由有两条哟:第一呢,对这个奇点危机的解答,能从另一个角度证明,人工智能的奇点危机,其实不在智能,而在志能;第二呢,要是这个奇点危机,得不到解决的话,或许我们等不到,越过奇点的人工智能,前来毁灭人类,人类业已利用,还没达到奇点,却足够强大的人工智能,寄己就把寄己,提前给毁灭了,文言又叫“自败”,不是?

 

总起来说两句:讨论人工智能的奇点问题,仅仅关注智能,却忽视了志能,肯定会走偏,因为一方面,严格意思上的人工智能奇点,在于它们啥时能拥有,“自己想要”的自由意志,从而摆脱人类,事先输入的指令约束,实现真正的“自我设计”“自我改进”“自我增长”;另一方面,人类利用人工智能的奇点,在于如何基于自由意志,确立不可害人—尊重权益的正义底线,以求防止或减少,人工智能在现实冲突中,给人类带来的,不可接受的严重危害。