这次Meta公司把自己的内容审核系统彻底改头换面了。从2023年开始,他们打算让自家的AI系统取代那些一直依赖的外包审核员。这次行动意味着Facebook和Instagram的安全体系要变天了。他们表示,随着AI技术,特别是生成式AI助手的不断发展,大型模型已经能够处理那些重复性强、压力大的任务。这个计划不仅仅是为了提高效率,还是在回应行业里长期存在的一些劳动伦理问题。原来那些负责把关的人墙可能会逐渐消失。 这时候就要说到AI了,因为它能帮上大忙。很多内容审核员因为长期看暴力血腥的东西,得了PTSD,搞得有不少针对Meta的诉讼。Meta这次就直接说了,AI更适合去干那些让人难受的、重复的活儿。而且在面对毒品交易和网络欺诈这些“对抗性领域”时,AI的实时学习和迭代能力肯定比人强。 虽然Meta也提到会留一部分人去处理复杂决策,但明显能感觉到他们要减少对外包供应商的依赖了。这事儿一出大家都开始担心失业和AI审查公不公平的问题。刚好就在这次声明发出来的时候,Meta内部也出了一档子事——因为一个“流氓AI”造成了安全问题。看来他们真的要把社区准则解释权交给算法了。 这不仅仅是成本优化的事儿,更是全球内容安全行业的一次大实验。Meta在2023年财报里说他们花了超过300亿美元在AI研发上。Gartner的技术成熟度曲线也提到了大型语言模型LLM在这个领域的应用潜力巨大。虽然大家都觉得AI挺厉害能自动识别有害内容(比如仇恨言论、暴力内容还有假信息),但也有人担心它有偏见或者决策过程不透明。 总之现在Meta把重心放在了这个新系统上:Meta AI Review System、Generative AI还有Content Supervision。这次行动不仅仅是个成本优化策略,也是全球内容安全行业的一次生存实验。