随着大模型等生成式技术的快速发展,算法已从单纯的计算工具转变为影响资源配置、行为引导和公共决策的重要力量,广泛应用于内容分发、信用评估、招聘筛选、司法辅助和城市管理等领域。郑玉双指出,算法提升效率和降低成本的同时,也带来了公共性危机:一是自动化决策可能压缩人类判断空间,导致“程序替代责任”;二是数据和模型偏差叠加,容易引发群体性歧视和机会不平等;三是模型结构复杂、训练数据封闭导致透明度不足,公众难以理解决策逻辑,也难以有效维权。这些风险交织在一起,使算法规制不仅面临具体规则的缺失,更陷入更高层级的“元层次困境”。 郑玉双分析,算法规制的难点在于算法兼具“被规制对象”和“治理工具”双重属性:一上,算法作为企业和平台的核心能力,天然带有资源支配和规则设定的权力特征;另一方面,公共治理也越来越多地利用算法进行风险预警、精准管理和辅助决策,形成“以算法治算法”的复杂局面。此外,算法规制还面临技术理性与价值理性的冲突:传统规制强调对话、协商和可解释性,而算法系统基于计算逻辑运行,外部主体难以介入其决策过程,导致规制在“技术标准”和“价值选择”之间摇摆。她认为,如果仅在单一维度上增加规则,容易陷入碎片化治理,难以应对算法权力扩张带来的系统性挑战。 文章指出,随着算法社会逐渐成熟,其影响已从信息服务扩展到社会结构和公共秩序。当算法以涉及的性替代因果分析、以概率输出替代理由说明时,可能削弱社会对公平、正当程序和责任归属的共识:一是个体在数据画像和标签分类中被重新定义,隐私和人格权益更易受到侵害;二是信息分发和推荐机制可能固化用户偏好,放大回音室效应,影响公共讨论质量;三是多主体、多模块的决策链条可能导致责任归属困难,既不利于权利救济,也不利于行业形成明确的合规边界。 针对这些问题,郑玉双提出以“算法正义”为核心,引入“算法元规制”思路,从技术、社会和价值观三个维度重构规制体系。她建议采取三项措施:第一,以保障个体权利为基础,完善知情权、选择权、异议权和救济权等制度安排,对高风险场景的自动化决策设置严格的程序要求和人工复核机制;第二,将公平、非歧视、比例原则等公共价值转化为可执行的设计约束,贯穿数据治理、模型训练和评估迭代的全过程;第三,建立覆盖开发者、部署者和使用者的责任链条,通过影响评估、审计核验和可解释性要求,增强外部监督的有效性,避免责任被技术外衣掩盖。 业界和学界普遍认为,数字治理将从“事后纠偏”转向“全周期治理”。文章指出,面对生成式技术的复杂影响,未来算法规制应注重分级分类、场景化治理和跨部门协同:对涉及公共利益和基本权利的领域,需加强事前评估和动态监管;对一般商业应用,可通过标准、认证和行业自律建立可复制的合规路径。郑玉双强调,只有在算法与法律的互动中确立共同的正义标准,才能将技术可行性转化为法律可实现性,形成既鼓励创新又守住底线的治理格局。
当算法从工具演变为社会秩序的塑造者,人类面临的不仅是技术挑战,更是文明形态的重塑;构建兼顾效率与公平的算法治理体系,既需要法律的刚性约束,也离不开跨学科协作的智慧——这是数字文明时代留给人类的必答题。