随着生成式人工智能在科技行业全面渗透,美国一线科技公司的员工正面临前所未有的岗位重构与职业尊严边缘化。企业强制推行AI工具、裁撤人工团队,甚至不惜牺牲产品质量和伦理底线,将AI视为成本优化和权力重塑的工具,而非真正的人类辅助。
一场悄无声息但深刻剧烈的劳动力变革,正在美国科技行业的核心地带蔓延。从硅谷的巨头到西雅图的初创,生成式人工智能(Generative AI)以前所未有的速度和深度渗透进每一个工位、每一道流程、每一条考核指标。然而,在热烈的资本狂欢和“AI赋能”的宏大叙事背后,是一线科技员工对岗位被重构、职责被消解、职业尊严被边缘化的集体焦虑与挣扎。他们或被迫适应,或愤然离职,更有一部分人深陷其中,成为这场技术浪潮下被边缘化的“成本中心”1。
AI的强制渗透:绩效考核的新“达摩克利斯之剑”
曾经被视为效率工具的AI,如今在美国一些科技公司内部,已从“推荐使用”演变为“必须使用”,成为员工绩效考核的隐性标准。一位谷歌的高级工程师透露,公司内部的OKR(目标与关键成果)体系中,是否利用AI工具协助完成工作,已成为衡量员工“进步性”的关键指标。若员工仍坚持传统工作方式,甚至可能在团队会议中遭到公开批评,被贴上“落后”的标签1。
这种强制性并非源于对AI能力的盲目崇拜,更多是对成本控制和效率提升的极致追求。据该谷歌员工描述,其氛围已超越了早年推行OKR时的“合作”性质,而更具惩罚性——“我们不是在和AI合作,而是在被AI训练和筛选。”这导致了一种荒诞的局面:员工担忧AI产品可能带来的质量、安全性乃至职业伦理问题,但这些合理的疑虑在高层眼中,却被视为阻碍“进步”的惰性。在中小企业中,这种强制嵌入更为普遍,多位软件工程师表示,AI辅助编码已成为“团队默契”,即便AI生成的代码漏洞百出,管理层仍坚持推进,奉行“速度比正确更重要”的原则1。这种对效率的片面追求,正侵蚀着技术工作本应具备的严谨性和对质量的承诺。
当AI成为“优化”的借口:人类价值的消解
在众多案例中,AI不仅是流程的优化者,更成为了大规模裁员和岗位重构的“挡箭牌”。字节跳动旗下的TikTok,在2024年底全面推进AI内容审核系统,短短几周内,整个人工审核团队被解散。被替代的员工指出,尽管AI系统对视频和评论的判断标准模糊、错判率高,甚至导致大量用户申诉,但公司高层宁愿等待“模型优化”,也不愿重建人工团队。他们更看重AI的“不抱怨、不请假、不会告公司”的特性,这无疑将人类劳动者的“专业性”和“尊严”降格为可替代的、带有“缺陷”的成本1。
类似的命运也降临在内容创作和编辑领域。Dropbox在2023年底全面推广AI写作工具,将多个原本由内容撰写者负责的岗位整合为“AI编辑支持”职位。一位被裁撤的内容策略师沮丧地表示,她的职责从“拥有判断力和表达力的写作者”沦为“AI内容的清洁工”——检查AI生成的文章是否拼写正确、结构通顺,却被限制不能大幅改动,“怕‘损害模型学习效果’。”这种工作性质的转变,实质上剥夺了人类在创意和判断上的核心价值,将其异化为机器的附庸1。
网络安全巨头CrowdStrike今年5月裁员500人,理由是“战略性聚焦高影响力领域”,核心即为“AI加速执行效率”。裁员不仅打击了团队士气,更使幸存者面临更重的工作量。AI渗透到客服、工单分配、代码审查乃至内部培训材料等每一个流程,然而,这些AI工具的不可靠性,反而增加了员工的纠错负担。正如一位CrowdStrike员工所说:“AI不是来帮忙的,是来筛掉你我这种‘成本中心’的。”1 这揭示了一个残酷的现实:AI被用来作为压低成本、削减人力的借口,而非真正地为员工减负或提升价值。
伦理与商业的冲突:一场难以避免的博弈
AI的快速铺开也引发了深刻的伦理质疑,尤其是在数据使用和模型责任方面。Adobe前机器学习评估工程师J先生,因反对生成式AI的伦理、质量和版权问题而辞职。他曾多次向公司反映,并明确表示不愿为生成式AI产品工作,却仍被调往相关团队。他指出,Adobe使用OpenAI的现成方案,却对其伦理风险避而不谈,甚至被曝光未经授权使用创作者的作品训练模型1。这一事件凸显了企业在商业利益面前,对技术伦理和社会责任的漠视。
这种伦理困境并非个例。在一些健康科技公司,工程师们被强制使用AI辅助编码,即便AI生成的代码可能存在安全漏洞,管理层仍优先考虑“效率”。这种“速度比正确更重要”的思维模式,将潜在的风险转嫁给了使用者和下游的维护者,这在对准确性和安全性要求极高的行业中尤其令人担忧1。此外,一些企业为了粉饰形象,甚至为AI助手配上虚构的“少数族裔”面孔,试图制造一种多元与包容的假象,而实际管理层却几乎没有任何真实代表,这种“AI式多元”更是对企业文化的深刻嘲讽和异化1。
技术之外的反思:谁在借AI之名?
这些来自一线科技员工的亲身经历揭示了一个核心问题:生成式AI并非天然敌人,但当它被公司高层当成压低成本、掩盖决策失误和裁员合法性的工具时,其社会影响便呈现出明显的负面性。员工们共同的感受是:AI并没有替代他们的“能力”,而是被用来“否定他们的价值”。
当前,关于AI取代工作的讨论往往集中在AI能做什么、不能做什么,以及技术本身的进步。然而,这些案例迫使我们深入思考,问题的根源或许并非在于AI技术本身,而在于“人”——那些掌握着决策权的企业高层,如何选择部署和利用这项技术。当“使用AI”成为不容置疑的考核指标,当技术被拿来当作人事优化的挡箭牌,我们必须追问:是AI杀死了工作,还是有人借AI之名完成了精英主义与剥夺的又一轮合谋?
正如一位程序员所说:“我从未害怕技术,但我害怕那些用技术来裁掉人类、粉饰现状的人。”1 在这场由AI驱动的劳动力变革中,真正的挑战在于,我们能否确保技术进步的同时,不以牺牲人类尊严和职业价值为代价,能否在追求效率与利润的同时,坚守更广泛的社会责任和伦理底线。否则,AI将不仅仅是效率工具,更可能成为加剧社会不公的潜在帮凶。