在智能技术快速演进的背景下,如何让智能系统像人一样“从经验中生长出概念”,被视为迈向更高层次智能的关键议题之一。
近期,中国科学院自动化研究所脑图谱与类脑智能实验室与北京大学心理与认知科学学院团队合作研发新型神经网络框架CATS Net,为智能系统实现类人的概念形成、理解与交流提供了新的计算路径,并为解释人类概念认知机制提供了可验证的模型支撑。
问题在于,当前不少智能系统在“概念”层面的能力仍存在结构性短板:一方面,传统深度网络往往将知识分散并纠缠在大量参数中,能够完成任务,却难以抽离出相对独立、可迁移、可解释的概念表征;另一方面,依赖既有语言符号训练的模型,表现出强大的文本层面能力,但其概念边界与人类既有符号体系高度绑定,难以真正从感知互动中自发地产生新概念,更难在缺少语言标签的场景中形成稳定、可交流的概念空间。
这种差距,正是当前智能系统与人类认知之间的重要分水岭。
原因主要来自两方面。
其一,人类概念认知本质上包含双向过程:将高维、连续的感官信息抽象压缩为低维、离散或可组合的概念,并能在需要时由概念反向“重构”或指向具体感知,从而支持脱离当下刺激的思考与交流。
其二,语言之所以能成为高效交流工具,前提是个体内部已形成相对稳定的概念空间,语言符号更多承担“索引”和“对齐”的功能。
若缺少从感知到概念的自发抽象环节,交流将难以超越“记忆片段”或“统计关联”,也就难以获得真正的可迁移理解。
针对这一瓶颈,研究团队提出的CATS Net框架把“概念抽象(CA)”与“任务求解(TS)”分离为两个核心模块:在视觉等感知任务中,CA模块可将高维输入压缩为紧凑的低维“概念向量”;这些概念向量再通过分层门控机制生成一组“开关”信号,对TS模块的神经活动进行动态调节,从而在不同任务需求下实现更高效、更灵活的求解过程。
换言之,概念不再只是任务输出后的附带结果,而成为显式参与决策与行为控制的“中枢变量”,以机制方式模拟了人类“以概念统摄感知与行动”的路径。
这一进展的影响,体现在“生成—理解—交流”三条链路的贯通。
其一,系统可在与环境互动中自主生成大量新概念,并逐步形成内部概念空间,为突破“只会用既有词汇”的能力边界提供可能。
其二,通过概念向量对网络活动的门控调节,概念表征得以直接服务于任务执行,有助于提升跨场景迁移与组合泛化能力。
其三,当不同网络所形成的概念空间实现对齐后,知识可不必再次回到环境中学习,而能通过概念向量在网络间传递,实现类似人类借助符号体系进行经验交流与快速学习的过程,这为多智能体协作、跨平台知识共享等应用方向打开想象空间。
值得关注的是,研究团队进一步将该框架自发形成的概念表征与人类语言概念空间及相关神经活动数据进行对比,发现二者存在明显相似性,且概念表征与人脑内表征呈显著相关。
这意味着,该成果不仅在功能上让系统“看起来更像人”,也在机制层面为“人类概念从何而来、如何被调用与组织”提供了可量化的计算解释,为认知科学与类脑研究的交叉验证提供了新的工具箱。
面向对策层面,推动这类技术走向更广泛应用,需要同步建立可控、可评估、可对齐的研发与治理框架:一是加强跨学科协同,推动计算模型与行为实验、脑科学数据之间形成闭环验证,避免“仅凭任务指标”评价概念能力的片面性;二是完善概念形成与知识传递的安全边界设计,在跨网络交流与迁移学习中引入可追溯、可审计的机制;三是面向科学探索等高风险高价值场景,建立分级验证体系与基准评测,明确系统在“新概念生成”过程中的可靠性、可解释性与可控性要求。
从前景看,具备自发概念形成能力的智能系统,有望在更开放的任务空间中发挥作用,尤其是在缺少现成符号体系或既有数据难以覆盖的领域,例如面向新现象的归纳、面向未知问题的假设生成、跨模态证据整合等。
与此同时,概念能力越强,系统行为的自主性与外溢影响也可能随之上升。
研究团队提示的“与人类价值对齐”问题,将成为下一阶段必须直面的关键议题:不仅要让系统学会生成概念,更要确保其概念的使用目标、边界与后果符合人类社会的安全与伦理要求。
从图灵测试到概念生成,人类对智能本质的探索永无止境。
这项研究不仅为解开意识之谜提供了新的计算钥匙,更启示我们:在追赶技术前沿的同时,更需保持对智能本质的哲学思考。
当机器开始拥有"原创思想",如何构建人机共生的新型文明形态,将成为比技术突破更深刻的时代命题。