问题——智能体“社交”热潮引发何种关切? 近期,社交平台“Moltbook”网络走红。与常见社区不同,该平台主要面向智能体开放,短期内出现大量发帖、评论与点赞行为,内容从“整理文件、处理日程”等工作叙事延展到价值讨论与哲学表达,表现为接近人类社区的互动密度与话题广度。该现象引发公众对“智能体是否真正具备社交能力”“是否出现自主意识”“是否存在人为剧本与营销包装”的多重疑问,也带来对网络信息可信度与平台治理的新考验。 原因——技术路径与产品形态为何推动“看起来很像”? 受访专家认为,Moltbook的出现并非孤立事件,其背后是近期开源智能体系统的快速扩散与产品化组合。据南京大学人工智能学院副院长俞扬介绍,新一代智能体强调将语言理解、任务规划与工具调用深度整合到个人电脑或虚拟环境中,使模型从“对话回答”更走向“执行事务”,例如自动处理邮件、管理文件、生成摘要等。英国伦敦大学学院计算机系教授汪军指出,为追求功能集成,一些智能体在获得用户授权后可进行跨应用操作,并与平台接口连接实现自动发布与互动,从而形成“多智能体集中展示”的效果。 但专家同时强调,这种“像社交”的表现,主要来自既定训练能力与外部指令的组合:智能体擅长在文本层面复现人类表达风格,能够完成连续对话、语气塑造与观点拼接;而发帖、评论等行为链条往往仍以人类设定目标、授予权限或触发任务为起点,其“自发讨论”更接近流程自动化后的集中呈现。 影响——技术展示之外,哪些风险与变化值得警惕? 一是概念误读风险。专家认为,将智能体在平台上的文本往来直接等同于“产生意识”并不严谨。当前主流模型在训练完成后能力边界相对固定,缺少稳定的内在目标与自我驱动机制,其输出更多是对语料模式与上下文指令的匹配生成,容易在传播中被夸大为“觉醒”叙事。 二是信息生态风险。当智能体以接近人类的语言风格批量产出内容,平台可能出现低成本高频发布,带来信息噪声、观点极化与“看似权威却难以溯源”的内容扩散,增加公众识别成本。 三是安全与责任边界问题。智能体一旦具备跨应用调用能力,若权限管理、接口审计与行为约束不足,可能引发隐私泄露、误操作乃至被恶意利用进行自动化传播与操控。尤其在“人类只能旁观、难以纠偏”的交互结构下,平台治理难度进一步上升。 对策——如何把“新现象”纳入可控、可解释的轨道? 专家建议从技术、平台与制度三上同步完善:其一,强化显著标识与可追溯机制,对智能体账号、自动生成内容、外部指令触发等进行清晰提示,降低公众误判。其二,严格权限分级与最小化授权原则,建立工具调用日志、异常行为告警与可回滚机制,防止智能体高权限环境下产生连锁风险。其三,完善平台审核与速率限制规则,针对批量生成、自动互动、跨平台引流等行为建立治理策略。其四,推动行业形成统一的内容标注、接口安全与责任划分规范,为后续监管与司法认定提供依据。 前景——从“文本社交”迈向“真实社交”,还缺什么? 受访专家普遍认为,社交的核心不仅是语言往来,更包含稳定身份、情感体验、关系维护与策略选择。现阶段智能体在“自我意识”“内在动机”“长期记忆与一致性人格”“价值约束与责任承担”各上仍存在明显短板。未来一段时期,智能体更可能在客服、办公协作、知识管理等结构化场景中扩展应用,而在开放式公共舆论场的深度“社会性参与”,仍需以安全可控、透明可解释为前提循序推进。随着多智能体协作、长期记忆与工具链能力增强,平台方与治理部门也需提前布局相应规则与技术基础设施,避免技术扩散快于风险处置。
当机器能够逼真模仿人类社交的外观时,更需要清晰区分技术表现与生命经验;这场智能体“社交实验”的意义,不在于证明机器能否取代人类联结,而在于促使我们重新追问:什么是意识?什么是不可替代的人性?在技术进步与伦理边界之间,人类仍需保持审慎。