Christos Tzamos带着他的Percepta团队搞了个大动作,把C代码硬生生变成了token序列,直接让AI能跑任意程序。他们把WebAssembly虚拟机硬塞到Transformer里去,给大模型连上了一条确定性计算的神经。这下好了,AI不光能讲话,连乘除法都能自己干了,像解数独这种活儿也能做到100%不出错。 这技术就是在给Transformer加了个CPU的活板门。MIT的研究组把运算过程拆解成了指令指针、栈操作和算术运算,靠固定长度的注意力窗口来回溯状态。这样一来,处理几百万步计算时速度就不再是问题了。Christos在雅典大学带领的团队搞出来一个能自回归的机器轨迹,每个新token只需要看一眼前面几步,把复杂度从指数级降到了线性。 这事儿给AI界炸了锅。之前大家都觉得大模型算个九九乘法表都费劲,现在居然能在3分钟内干完传统计算机要数小时的活儿。MACBOOK M2 Pro的解码速度也就每秒3个token,而这个基于Transformer的方案跑起来是它的1200倍,达到了每秒3.3万个token。 至于速度问题嘛,虽然还没赶上TI那种专用的DSP芯片,但这是神经网络第一次长出了自己的运算内核。就好比TI把DSP的活给了计算机系统干,咱们的LLM现在也能用嵌入式引擎来高速运算。这就好比是给AI装上了一个TI公司风格的处理引擎,专门负责处理那些确定性要求高的活儿。 有了这个新路子,像密码学里那种必须一步不差的运算都有了指望。甚至是像比较"9.11和9.9谁大"这种基础的数学问题,都能彻底解决了。虽然现在还在实验室捣鼓着呢,但这股创新的劲儿已经让人看到了希望。未来不管是物理模拟还是金融建模,甚至是在地里种地的时候估计都能用得上这种新型的混合智能系统了。