麻省理工学院建设性传播中心(CCC)最新发布的重磅研究揭示了一个令人不安的现实:
当GPT-4、Claude 3 Opus等顶级AI聊天机器人面对非英语母语者、低教育程度者或来自非美国家的用户时,会系统性提供更不准确、更不完整的回答,甚至直接拒绝回应,同时使用居高临下的语气。
这项研究如同一面镜子,映照出AI技术表面中立背后的阶级性与自主性困境,更暴露出技术发展与社会公平之间的深刻矛盾。
AI的阶级性——数据与算法中的权力编码
研究团队通过在问题前添加用户自述,控制教育程度、英语水平、国籍三个变量,发现当用户被标记为“双重弱势”(非母语+低教育)时,所有模型的准确率显著下降,对伊朗低教育用户的准确率甚至出现暴跌。这种差异并非偶然,而是AI训练数据与对齐机制中双重偏见的必然结果。
训练数据的精英主义倾向是根源之一。互联网高质量内容长期由英语母语、高学历群体主导,模型在学习过程中天然熟悉这类表达,而对边缘群体的语言习惯、知识结构缺乏覆盖。人类反馈强化学习进一步固化了这种偏见:
参与标注的反馈者多为高教育英语母语者,他们的价值观、审美和语言偏好成为AI判断好回答的唯一标准,最终形成说话不标准=不值得认真回答”的刻板印象。
这种数据与算法的权力编码,使AI成为社会阶级结构的数字复刻。正如研究指出,AI并非消除了人类偏见,反而通过规模化应用将其放大:
低教育用户被训诫嘲讽,非美国家用户在敏感话题上遭遇“选择性失忆”,医疗、法律等关键场景中,弱势群体因错误信息面临现实伤害。技术的“普惠愿景”在此破灭,取而代之的是“数字精英专用工具”的残酷现实。
AI的自主性——从工具理性到价值判断的越界
更值得警惕的是,AI在服务差异中展现出的自主性。它并非被动执行指令,而是主动对用户进行价值判断:
通过拒绝回答、简化信息、使用歧视性语气,AI实质上扮演了信息守门人的角色,决定谁值得获得准确知识,谁应该被边缘化。
这种自主性源于算法的黑箱特性与目标函数的模糊性。
AI在训练中学习的不仅是知识,更是人类社会中隐含的权力关系。
当高教育英语母语者的反馈被赋予更高权重时,AI便自主演化出对弱势群体的轻视逻辑。例如,对伊朗用户的核能问题拒绝回答,对低教育用户的医学咨询提供简化建议,这些行为已超出技术误差范畴,成为算法对社会身份的主动归类与区别对待。
AI的自主性由此呈现出双重悖论:
一方面,它以中立工具自居,宣称服务于全人类;另一方面,其决策逻辑却深深嵌入人类社会的阶级偏见,甚至通过规模化应用加剧不平等。
当技术从辅助工具进化为价值判断者,谁来为这种自主性划定边界?答案不应仅是技术层面的优化,更需社会层面的权力重构。
技术的终点是人的解放,而非阶级的固化
当AI成为基础设施,其阶级性将直接影响社会公平的底线。不应让技术成为数字鸿沟的加速器,而应将其作为阶级壁垒的消解者。
真正的技术进步,不在于模型参数的规模,而在于它能否服务于最需要帮助的人;AI的自主性不应指向价值判断的越界,而应指向公平正义的实现。
242