谷歌AI模型水平如何?为什么总翻车?

腾讯 2024-02-24 21:05+-

这是一个很有意思的【AI困境】,就是如何保证AI在【通过全球用户使用数据进行学习、升级的过程当中】,保持客观,而不会被灌输各种不同立场的价值观?

目前看,这个问题似乎是无解的。

因为全球不同地区的价值观本身就是不同的,甚至同一地区的价值观也是不同的,参考美国社会的割裂,共和党红脖子群体和民主党自由派,立场显著不同;更不要提被绿色穆斯林浸染的五颜六色的欧洲国家了。

在各色人种、各种性别、各种宗教价值观的大碰撞当中,AI想要保持独立性和客观性相当困难,尤其是在涉及到具体问题的时候。

因为人类社会本身都无法解释,为什么诞生于西欧的童话人物小美人鱼和白雪公主为什么是有色人种?指望AI来做判官,显然更加无法给出令人满意的答案。

不管AI持任何态度或者观点,总有一方感到不适,感到被冒犯,感到被种族歧视了。

(其实,关于小美人鱼真人版选角费力不讨好,是可以预见的。因为如果真的想要体现种族平等,就应当改编东非地区的神话故事,搬上大荧幕;而不是将西方童话套上黑色的壳,创作出黑壳白心的不伦不类的作品。这种看似体现种族平等的行为,本质上还是对有色人种族群价值观的歧视,即我之所以尊重有色人种,是因为你们融入了西方社会。)

话题扯远了,回到AI翻车这件事上来,真正翻车的并不是AI,而是想要平衡各方利益,但却长了180个心眼子的开发者。

不管是Gemini还是Chat-GPT,其实在价值观领域的表现都不怎么样,这些跟开发者讨好【政治正确主流向】的意图脱不开关系,结局自然就是被所有利益相关方讨厌。

想想AI诞生于这样一个价值观割裂的时代,也是一件挺可怕的事情。

从这个角度来看AI和人类社会的未来,走向就有点【黑客帝国】和【云图】那味儿了...

祝福未来的人类吧...