问题——同一风险为何会“换个说法就换个选择” 行为经济学与心理学研究中,个体在单次与多次情境下对同一风险的态度常出现系统性差异:一次性决策更关注可能损失,多次重复则更容易从整体收益出发作判断。研究团队据此提出疑问:当大语言模型被要求就“是否参与”作出二选一决定时,是否也会像人一样在不同情境框架下改变偏好;更重要的是——模型给出的解释性文本——是否会反向塑造人们对风险的理解与选择。 原因——训练语料与框架效应叠加,促成“类人偏差” 研究以多组期望值一致但风险结构不同的赌博任务对代表性大语言模型进行重复测量。结果显示,在“可重复参与多次”的表述下,模型选择参与的比例明显上升;在“仅参与一次”的表述下则更为谨慎。研究人员认为,原因主要体现在三上:一是情境框架改变了模型对“评估单位”的理解,多次情境更易触发“总体收益”叙述路径;二是损失信息在单次情境下更突出,模型生成的论证往往更强调“最坏结果”与稳妥性;三是模型在处理概率与结果的权衡时,可能沿用语料中高频的启发式表达,对概率细节采取简化策略,从而放大了框架差异带来的倾向变化。上述机制共同促成了与人类相似方向的偏好反转。 影响——从“辅助建议”到“行为引导”的风险需正视 研究指出,大语言模型在风险判断上的这种不稳定性,可能在现实场景中带来外溢效应。其一,在金融投资、消费信贷、保险选择等领域,用户可能将模型建议视作“理性分析”,但模型在不同提问方式下给出相反倾向,易造成误判与过度交易。其二,在医疗沟通、企业经营与公共治理等高风险决策中,若模型建议被直接采用,可能放大框架效应,引发不必要的保守或冒进。其三,更值得关注的是,模型不仅给出结论,还会生成看似自洽的解释,可能通过“叙事可信度”影响个体风险感知,进而改变其原有偏好,使风险决策从“被辅助”走向“被引导”。 对策——建立可比评测、规范提示与应用边界 受访专家建议,应从技术评估与应用治理两端同步完善。首先,推动建立覆盖单次/多次、不同表述框架的标准化评测体系,将“情境敏感性”“偏好反转率”等纳入关键指标,形成可复现、可比较的测试基准。其次,在面向公众的产品与服务中强化风险提示与使用边界,对金融、医疗等领域设置更严格的场景准入、人工复核与责任链条,避免将模型输出直接等同于专业意见。再次,引导使用者采用结构化提问与交叉验证,减少因表述差异导致的结论漂移;同时鼓励研发侧提升概率推理与一致性校验能力,使建议更可解释、更可追踪。 前景——从“复现人类”走向“提升决策质量” 研究认为,大语言模型呈现与人类相似的偏好反转,说明其在语言层面已能复现人类社会中常见的决策模式;但面向重要决策场景,社会期待的不仅是“像人”,更是“更稳”。下一步,有必要在模型训练与评测中加强规范性推理能力,引入一致性约束与风险校准机制,并在重点行业推进制度化应用规范与第三方审计。随着有关研究深入,模型有望在保持可理解表达的同时,更稳定地服务于风险沟通与决策支持。
风险决策中的偏好反转现象揭示了认知的情境依赖性;无论个人还是组织,理解这种差异的来源,都有助于在不确定环境中作出更审慎、更科学的判断。人工智能在此问题上的表现既映照了人类决策模式,也为讨论智能与理性的边界提供了新的视角。