标题(版本2):研究警示:智能技术或加剧思维趋同 学者呼吁关注认知多样性

(问题) 随着数字化工具深度进入工作与生活,大模型聊天工具正在改变人们获取信息、组织语言和完成任务的方式。近期,一篇由科学家与心理学家合写的观点论文发出提醒:当大量用户依赖同类模型进行写作、学习和辅助决策时,个体原本存在的表达风格差异、观点呈现方式和推理路径,可能会被“同一套生成机制”逐步拉平,形成更标准化的语言与思维模式。这种变化不只是文风变得相近,还可能更影响人们对“什么是更可信的表达”“什么是更正确的观点”以及“什么是更好的推理”的默认判断。 (原因) 论文认为,这种趋同风险来自多种因素叠加。其一,大模型依赖海量语料学习统计规律,并据此预测与续写内容,输出更容易靠近“高频表达”和“常见论证结构”。与人类自发写作相比,这类输出在风格和措辞上更容易收敛,可供选择的变体相对有限。其二,训练数据的结构性偏差不容忽视。语料在语言、地域、文化与立场上的分布并不均衡,主导语言和主流叙事更容易被过度呈现,模型生成时可能反复强化特定表达范式与价值取向,对复杂的人类经验体现为更单一的切面。其三,规模化应用放大了上述机制的社会影响。当越来越多组织将其用于内容生产、客户沟通、方案撰写与知识检索,模型输出的“统一口径”更可能在公共空间形成回声,进而影响表达标准。 (影响) 论文指出,思维同质化的关键风险在于削弱多元主义,而多元主义是社会保持活力与自我纠偏能力的重要来源。多样化观点有助于拓展问题定义、增加备选方案,并提升对新情境的适应性。一旦表达与推理模式趋同,群体讨论更可能围绕少数常见框架反复展开,创新路径被挤压,集体智慧的“认知地形”被压平。更值得关注的是外溢效应:即便个人并不直接使用有关工具,当周围大量文本与对话呈现相似结构与语气时,也可能感受到“对齐”的社会压力,为了更容易被理解、更显得专业或更易被接受而主动收敛表达,从而形成更广泛的社会性趋同。 (对策) 围绕如何在提升效率与守住多样性之间取得平衡,论文提出的思路对现实治理有一定参考价值。第一,在技术供给侧提升“多样性友好”能力,包括扩大训练数据在语言与文化上的覆盖,建立偏差评估与纠偏机制,并在对话中加强多角度呈现、反例提示与不确定性标注,减少单一路径的“最像标准答案”。第二,在使用侧建立更清晰的人机协作流程。对教育、媒体、公共沟通等领域,应明确工具的辅助边界,鼓励使用者保留个人论证与经验表达,避免“一键生成”替代独立思考;对组织应用,应加强人工复核与多方案对照,防止决策材料被同一表达模板批量化生产。第三,提升公众的媒介素养与推理素养,强化对信息来源、立场差异与论证质量的辨析能力,避免将“可信”简单等同于“顺耳”“规范”或“更像机器写法”。第四,推动行业透明与责任机制建设,鼓励披露模型的适用范围与局限性,在关键场景建立可追溯、可审计的应用制度,形成可执行的风险防控闭环。 (前景) 业内普遍认为,大模型将继续深入知识工作与日常沟通,未来人与工具的互动会更频繁、门槛更低。随之而来的“表达模板化”和“推理路径收敛”可能成为长期议题。可以预见,下一阶段的竞争不应只停留在生成速度与流畅度,更需要在价值多元、文化包容与批判性思维支持等维度建立新的标准。若技术迭代与制度安排能够同步推进,这类工具有望在提升效率的同时,帮助人们拓展视野、激发差异并支持独立判断,而不是把复杂世界压缩成同一种说法。

技术进步降低了表达与获取知识的门槛,也在重塑人们“如何思考”的方式。守护认知多样性并不意味着拒绝工具,而是在效率提升的同时,坚持独立判断,鼓励差异表达,尊重多元经验。只有让不同声音都能被看见、让多种路径都能被尝试,社会的创新活力与应对不确定性的能力才会更稳固。