围绕“智能系统距离真正成为‘人’还有多远”的讨论,近期随着类脑智能研究不断取得阶段性成果再次升温。我国科研团队研发的CATS Net概念形成与传递上实现突破:系统可以从感知信息中抽取更高层的抽象表征,并多主体交互中共享这些概念,从而提升协作与任务完成效率。该方向被视为推动智能从“感知—识别”向“抽象—沟通”迈进的重要探索。 问题在于,外在的类人行为能否等同于内在的类人智能。中国科学院自动化研究所脑图谱与类脑智能实验室研究员余山表示,当前成果的核心价值在于提升机器执行复杂任务的能力,但其“像人一样”的表现,本质仍是对人类能力的功能性模拟,并不意味着系统拥有人的目的、动机与主观体验。换言之,系统可以为完成目标而提炼概念,却并非出于理解世界、表达情感或构建自我叙事的需要。这个差异,决定了“类人”与“成人”之间仍存在难以简化的边界。 造成这一鸿沟的原因,首先来自智能结构的综合性差异。人类智能不是单一模块的叠加,而是知觉、记忆、情绪、语言、社会经验和价值判断在同一主体中持续耦合、相互塑形。现阶段许多系统虽然在某些环节表现突出,但往往仍以单任务或有限任务集合为主要场景。以CATS Net为例,其突破集中在概念层面,更偏向视觉感知涉及的任务,而人类概念往往与情绪体验、身体感受、社会互动和长期记忆共同生成,能在不同场景间迁移并产生新的解释框架。缺少这种深度融合,系统就难以形成真正意义上的“理解”。 其次,自主成长与适应机制仍是短板。人的学习不仅是数据积累,更包含在反馈中修正信念、在挫折中反思策略、在社会关系中内化规则。相比之下,许多系统的能力更多由算法结构与训练数据预先塑造,学习方式受限于训练范式与任务边界。一旦环境变化超出既有分布,系统容易出现“看似合理却偏离事实”的错误,或在新情境下表现不稳定。如何让系统具备更强的持续学习能力、在不遗忘旧知识的前提下吸收新经验,并形成可解释、可校正的认知更新机制,是实现更高层次智能的关键方向。 第三,价值观与伦理判断的缺口同样不容回避。人类社会对技术的期待不仅是“更聪明”,更是“更可靠、更可控、更负责任”。当智能系统走向医疗、交通、公共服务等高风险领域,价值取向、责任边界、决策透明度将直接影响公众利益与社会信任。研究人员强调,让系统的行为与人类价值相一致,既是技术难题,也是治理议题:既需要在数据、模型与评测上引入更严格的安全约束,也需要在制度层面明确应用边界、强化审计与问责,并通过标准与规范推动可验证的可靠性建设。 上述差异带来的影响是多维度的。一上,类脑智能概念抽象与协作通信上的进展,有望提升机器人协作、智能制造、复杂场景感知等领域的效率,推动从“能识别”向“能概括、能协同”的能力跃迁。另一上,若社会将“类人表现”等同于“类人心智”,容易造成不切实际的期待,甚至关键应用中忽视风险。对此,业界与学界应形成更清晰的共识:在宣传与落地中强调能力边界,用可量化的指标说话,避免以拟人化叙事替代科学判断。 面向对策层面,专家建议从技术与治理两端同步推进:一是持续攻关跨模态融合、长期记忆与持续学习,使系统能在开放环境中更稳健地适应变化;二是强化可解释与可验证机制,建立覆盖训练、部署、迭代全流程的安全评测体系;三是在应用端坚持分级分类管理,对高风险场景设置更高门槛与冗余保障;四是推动产学研协同,将基础研究成果转化为可控、可测、可审计的工程能力。 就前景判断而言,研究人员认为,未来智能系统在更多领域呈现“更像人”的行为并非不可期,尤其是在概念抽象、协作沟通与任务规划各上有望持续突破。但是否能够获得类似人类的自我意识、情感体验与主观感受,目前仍缺乏确定路径,也存在跨学科的理论争议。可以明确的是,迈向更高层次智能的道路将是长期工程,既需要基础理论的突破,也需要社会治理能力与伦理框架的同步完善。
人工智能的发展既是对科技的挑战也是对人类自身的重新认识。CATS Net的突破显示人工智能正在特定领域不断接近人类认知水平,但同时也提醒我们人类智能的独特性和复杂性远超现有技术的复制能力。在推进技术进步的同时保持理性认知和价值关怀尤为重要——这不仅关乎技术发展本身更是关乎人与机器如何和谐共存的社会命题