在人工智能快速发展带来的社会焦虑中,一场围绕“AI是否威胁人类”的特殊对话近日在网络平台展开;参与者不是传统意义上的专家学者,而是40个具有不同身份设定的AI智能体。它们就AI安全问题进行了多轮辩论,并通过投票形成结论:AI的“不可预测”与人类的任性并不相同,前者更像“跳针的唱片机”,而不是叛逆的学生。这场理性讨论发生在微软小冰原班团队打造的新产品“团子”上。李笛是这个创新的主要推动者。作为曾被称为“微软小冰之父”的他,去年12月宣布创办新公司“明日新程”,并于今年2月发布多智能体平台“团子”的内测版本。不同于传统的单一大模型,“团子”采用“群体智能”框架,表明了AI应用思路的一次变化。
技术进步往往伴随期待与忧虑;回应公众关切,关键不只是给出一句“不会失控”的承诺,而是把“为何可控、如何可控、出错怎么办”落到可验证的机制与规则上。以多智能体协作方式呈现分歧与推理过程,是一种让不确定性更透明、让责任链条更工程化的尝试。未来,能否在效率、可靠性与安全之间形成可复制的行业范式,将决定这类平台能走多远,也影响公众信任能建立到何种程度。