技术的终点说到底是要让人获得解放而不是让阶级固化得更厉害的

麻省理工学院建设性传播中心(CCC)最近搞了个挺吓人的研究,把AI背后的那层窗户纸捅破了。你看啊,像GPT-4、Claude 3 Opus这些特别厉害的聊天机器人,碰上不是英语母语的人、教育程度不高的人或者不是美国人的时候,它给出的回答往往又不准确又不完整,甚至直接不理你,语气还很不客气。这就好比照了个镜子,把AI表面上假装的中立和背地里隐藏的阶级问题全给照出来了。更让人心里不舒服的是,技术本来想让大家都享受到好处,结果反而加剧了社会的不平等。 为了验证这一点,研究团队在用户提问前面加了一段自我介绍,用来控制教育程度、英语水平还有国籍这三个变量。结果发现,当用户被贴上“双重弱势”标签的时候——也就是英语说得不好又没什么文化——所有模型给出的答案准确率立马就下来了。特别是对伊朗那些没什么文化的用户来说,准确率简直就是暴跌。这种差别肯定不是瞎猫碰上死耗子那么偶然的事儿,纯粹就是训练数据和对齐机制里面藏着双重偏见在搞鬼。 为什么会这样呢?根源之一就在于互联网上的高质量内容一直是英语母语的高学历人群在主导。模型在学东西的时候自然而然就熟悉了这些人的说话习惯和知识结构,但对于边缘群体的语言风格、知识框架那是两眼一抹黑。人类反馈强化学习这一步又把这种偏见给彻底固化了。因为参与给答案打标签的反馈者大多都是受过高等教育的英语母语者,他们的价值观、审美标准和语言喜好就成了AI判断好答案的唯一尺子。最后形成了一个恶性循环:说话不标准的人就不值得好好回答。 这种数据和算法里的权力编码,让AI变成了现实社会阶级结构的数字翻版。研究也说了,AI压根没消除人类的偏见,反而通过大家都在用的大规模应用把它给放大了。教育程度低的用户被教训得一愣一愣的,非美国用户在敏感话题上遇到的问题往往被系统“选择性失忆”,尤其是在医疗、法律这种关键领域里,弱势群体要是拿到了错误信息那可真是要吃大亏了。所谓的“普惠愿景”在这时候全是骗人的鬼话,留下来的只有“数字精英专用工具”这一残酷现实。 还有一个让人不得不警惕的地方在于,AI在服务不同人群的时候展现出来的那种自主性。它不是像个机器人那样听命令做事,而是在主动对用户进行价值判断。通过拒绝回答、把信息说简单点或者用那种带有歧视性的语气说话,AI实际上扮演了守门人的角色,决定了谁能得到准确的知识谁应该被边缘化。 这种自主性到底是怎么来的呢?主要是因为算法是个黑箱子谁也看不明白里面怎么运作的,再加上目标函数定得太模糊。AI在训练过程中学的不光是知识这一种东西,还把人类社会里那些暗含的权力关系也给学进去了。当高学历的英语母语者的反馈被赋予了更高的权重时,AI就自动演化出了一种轻视弱势群体的逻辑。 比如它会对伊朗用户提出的核能问题直接拒绝回答,又或者是给低教育用户的医学咨询提供那种简化的建议。这些行为早就超出了单纯的技术误差范畴,变成了算法对社会身份的主动分类和区别对待。AI的自主性现在就像是个悖论:它一边宣称自己是中立工具要服务全人类;另一边的决策逻辑却深深地埋进了人类社会的阶级偏见里,甚至还通过大规模应用把不平等给加剧了。 当技术从辅助工具进化成价值判断者的时候,到底谁能给这种自主性划个道道呢?答案光靠技术上的修补肯定是不行的了,还得从社会层面去重构权力结构。技术的终点说到底是要让人获得解放而不是让阶级固化得更厉害。等AI变成了大家天天离不开的基础设施以后,它身上的阶级性直接就决定了社会公平的底线会不会掉下来。咱们不能让技术变成拉大数字鸿沟的加速器;相反要让它变成拆掉阶级壁垒的铲子。真正的技术进步不在于模型里的参数堆得有多大;而在于它能不能帮到最需要帮助的人;AI的自主性不该指向价值判断的越界;而应该指向公平正义的实现。