研华与高通联手打造边缘ai 基础设施

2026年3月10日这天,研华正式宣布了一个好消息,说要和高通联手,把边缘侧生成式人工智能的应用做得更快更大。这次合作的核心就是把高通的Dragonwing AI本地部署设备给研华的SKY-641E3 4U高性能边缘服务器用起来,搞成一个一体的解决方案。SKY-641E3里用的是高通Cloud AI 100 Ultra加速器,这个硬件是专门给边缘环境设计的。它既有数据中心那种强推理能力,又能在边缘场景下轻松装进去,性能和部署都兼顾了。这块板卡用的是PCIe FH3/4L标准,功率只有150W,INT8精度下的算力能飙到870 TOPS。板子上还自带了128 GB的LPDDR4x内存,带宽能跑到548 GB/s,搭配PCIe Gen 4 x16接口,数据传输快得很。它有64个专用AI核心,能稳稳地支撑起边缘侧的推理任务。 SKY-641E3本身是双路处理器设计的,每颗处理器能扛住400W的TDP。它的扩展能力特别强,给了用户10个PCIe 4.0 x16插槽和2个PCIe 4.0 x8插槽。每个插槽默认能给75W的电,不过还能把4个插槽升级到350W,这样就能随便装那种高性能的AI加速器了。电源模块也很给力,是1+1冗余的2700W交流电源,24小时不间断供电完全没问题。这个服务器专门用来跑本地AI的,在单块高通Cloud AI 100 Ultra卡上就能跑像Llama这样的109B规模的大模型。单卡还能支持20个用户同时访问,配合高通的AI推理套件,RAG和定制化的应用都能一键搞定,门槛低效率高。 这次深度合作有个好处就是把功耗和带宽的瓶颈给突破了。因为用了双方的专有技术,单张卡就能处理超大规模的模型推理,不用非得组多卡集群了。这样部署起来省事多了,成本也能省不少。再加上一键部署的工具,RAG这些应用很快就能上线。在边缘端既能省点延迟又能保护隐私,总体的拥有成本也能降下来。SKY-641E3现在已经针对制造、零售、医疗这些行业做了优化,能用来做预测性维护、医学影像分析、智能监控这些事儿。总的来说,研华和高通这次联手就是要把边缘AI搞得更强更省电更好用,给各行各业的客户提供本地化的生成式AI基础设施,帮大家赶紧实现数字化升级。