硅谷大厂里,不讲普通话,已经会被排斥了?
在硅谷互联网大厂里,多元文化正在向“监狱帮派”演变吗?
前Glean和谷歌搜索创始团队成员Deedy Das在X上转发一则有关Meta实习经历的帖子,引发有关硅谷互联网大厂中“监狱帮派”现象的讨论:
“在大科技公司里,有些上百名员工的部门,由中国或印度的副总裁领导,这些部门几乎100%是单一种族,以至于不说英语……就像监狱里的帮派一样。”
po主在帖子里提到了自己朋友在Meta实习中遇到的事情,并提出了自己的困惑:
『Meta 里都是华人吗?
我有两个朋友在 Meta 实习,他们团队成员主要是华人,彼此之间都讲普通话。
其中一个朋友能流利地说普通话,但另一个不会说,因此感觉有点被孤立,因为团队只会在与他交谈时使用英语。
首先,我是美籍华人,所以我发这个帖子不是出于种族歧视,但需要讲普通话才能更好地融入团队,这点让我有点不舒服。
这是在 Menlo Park 和 Bellevue 地区。其他地方也是这样吗?Meta大多数软件工程团队是这样的吗?我在微软和亚马逊实习的朋友在 Bellevue 地区没有类似经历。』
原帖截图中出现了两条评论。
网友NewChameleon说,
『团队中如果有某个 X 国籍的经理,那么 X 国籍的人会占多数,这里的 X 可以是华人、印度人、白人等等。这种情况虽然不是普遍存在,但很常见。』
网友FeistyDoughnut4600则更一针见血地指出:
『所以这就像监狱里的帮派一样,明白了。』
Deedy转发这个帖子时附上的评论也给“监狱帮派”这个词划了重点:
『在大型科技公司中,有些组织有超过100名员工,由华人或印度裔副总裁领导,这些组织几乎完全是单一民族的,他们甚至不说英语。
为什么会这样?因为每个人都害怕大声说出自己的想法。“就像监狱里的帮派一样。”』
Deedy还补充表示:
『如果说,他们自己不主动排除群体外的人,新候选人就会自己选择不加入这些组织。
我不认可刻意地在组织中注入多样性,但现在这种做法太糟糕了。这些组织像一家迷你公司一样运作,有自己内部的小政治。』
网友的评论出奇地一致:
就像迷你公司一样,里面甚至有内部政治斗争。任何大公司都是这样的。
你雇佣什么样的人就得到什么样的结果,包括他们的能力和语言。这个组织是自我选择的。
有什么可大惊小怪的呢?在印度,人们甚至会按照地区组成小团体。特伦甘纳语团队或泰米尔语团队非常常见。
硅谷DEI文化的大起大落
硅谷拥有来自世界各地的人才,多种多样的语言和文化成为硅谷科技公司的特色之一。硅谷的公司也认识到,不同背景、技能和经验的人才对于推动创新和业务成功的重要性。为了吸引和保留人才,这些公司正在努力营造一个包容性的工作场所,让所有员工感到自己被接纳、尊重并能够充分发挥潜力。
DEI文化由此应运而生。DEI是"Diversity, Equity, and Inclusion"的缩写,意为"多样性、公平性和包容性"。DEI文化的关键在于让每个人都感到被欢迎、被尊重和重视。
然而,近年来DEI在硅谷遭遇了一波“大起大落”。
在2020年的“黑人的命也是命”(Black Lives Matter)抗议活动之后,各公司都承诺要促进其成员的性别和种族多样性。许多公司纷纷聘请了历史上第一个首席多元化和包容官。据就业网站Indeed的数据,在乔治·弗洛伊德(George Floyd)被杀后的三个月里,DEI的招聘信息激增了123%。
但好景不长。在席卷科技行业的裁员潮之下,“多样性”、“多元化”这样的标签被无情的现实撕了个粉碎:
据Indeed数据,到2023年年中,与一年前同期相比,与DEI相关的职位发布骤降44%。这一数字与2020年至2021年期间形成鲜明对比,当时这些职位增加了近30%。
诸如谷歌和Meta等科技巨头都削减了DEI项目规模。为硅谷科技公司DEI项目提供服务的某业内人士表示,某些企业的DEI预算削减幅度高达90%。
AI时代的DEI
被打破的不仅仅是承诺,还有更多利害关系。
Hella Social Impact是一家提供DEI培训服务的公司,其创始人Stefania Pomponi直言不讳地对客户表示:“员工是你们公司最宝贵的资产,DEI项目预算的削减将影响你们的业务”。她指的是关于多样化团队产生更高绩效结果的各种研究。
当下,这些科技公司正在推进十年来最大的技术转变——人工智能。人工智能以此前难以预见的速度飞速发展,DEI工作现在比以往任何时候都更加重要。需要多样化的视角来确保AI产品没有偏见,并且能够反映他们所服务用户的真实需求。
以图像识别为例。谷歌和Facebook两家科技巨头都曾经闹过笑话。Google Photos 将黑人的照片标记为“大猩猩”,Facebook将视频中的黑人识别为“灵长类动物”。
此类算法偏见与AI核心技术之一机器学习的技术环节有关。比如,机器学习使用的数据集如果带有来自现实社会的偏见,那么算法就会习得这些偏见。换句话说,如果AI歧视黑人、歧视女性,很大一部分原因是现实生活中本来就存在歧视黑人、歧视女性的现象。
即使通过对齐让AI符合伦理与政治正确,AI也是“心知肚明”。