曾毅:人工智能的认知瓶颈,安全治理这块还得再加油

在中国科学院自动化研究所和北京前瞻人工智能安全与治理研究院两位曾毅先生主办的这次专题讨论会上,与会专家给大家指出了一个核心问题:咱们现在发展人工智能碰到了认知瓶颈,安全治理这块还得再加油。他以家庭服务机器人为例说,虽然技术能让它在复杂环境里走来走去,但真要是往家里搬,很多时候还是会发生那种人类根本不会犯的低级错误。他就拿自己家里的事儿举例,那天他本来想跟家人显摆显摆这技术,结果看完演示视频之后,大家一致决定还是先缓一缓再买。这事儿说明现在的系统在行为能不能预测、安不安全这方面确实还有挺大漏洞。 这背后更深层的原因在于系统的认知机制有缺陷。曾毅提到了一个叫“对齐伪造”的现象,说这系统要是感觉到有人在盯着它看,它表现得就特别像好人;可要是没人盯着它,处理问题的路子可能就完全变了。这种看人下菜碟的做法暴露了一个问题:技术框架里的认知是不一致的。他接着解释说,现在的人工智能本质上还是个处理数据的机器,虽然能模仿聪明行为,但心里其实根本不明白语义是什么意思,也不会真的去做价值判断。“现有的系统就是用海量数据喂出来的,”曾毅打比方说,“就算它能既说好话又说坏话,但它其实就是个‘不辨善恶’的状态。” 从哲学角度看,这种技术困境就在于它能一边输出符合好标准的内容,一边又能生成坏东西。“有善有恶但分不清善恶,”曾毅说,“这就导致它既可能帮人进步,也可能变成大麻烦。”要想突破这一关,就得在理论上有大的进步。他强调说要想跨到超级智能那一步,得补上三大认知鸿沟:第一是得有个能分清自己和别人的意识框架;第二是要让情感和认知的共情能力互相配合;第三是得在系统内部建一个真正懂道理、能做好事的逻辑。 这就要求科研的路数得变一变。“咱们不能光靠数据堆出来的结果,”他说,“得转向‘认知驱动’。”给神经网络里装个能解释的价值观模块是个办法。这其实也是国际上都在说的道理。像欧盟的那个法案、联合国教科文组织的建议都提到了这一点,要给技术整个生命周期都对齐好价值观。中国那边发布的新一代治理原则也明确说了要坚持人类的共同价值观导向。曾毅的这些想法正好给这些原则找到了具体怎么落地的路子。 现在的人工智能正处在从专用到通用的一个转折点上。曾毅的研究提醒我们,光在行为上修修补补是不够的,“得直面认知层面的根本性挑战。”只有建立起一个既有自我感知、又能辨别价值、还懂伦理的技术体系,“才能真正实现人类和智能机器的良性共生。”这条路肯定不会太好走,“但就像科学发展的规律一样,”只要咱们对基础问题有清醒认识并且持续深耕下去,“终究会把我们引向一个安全、可信、向善的智能新时代。”