riverbed推了个针对企业的ai 数据传输优化解决方案。大家都得面对数据在好多云服务商那边乱七八糟散着没法

Riverbed最近推了个针对企业的AI数据传输优化解决方案。大家都知道以前电脑存储空间不够,搞不定大任务,所以才把业务搬到了云端,那儿资源几乎用不完。Chalan Aras,他是Riverbed负责加速业务的副总裁兼总经理,说现在大家都往云端塞了几十PB的数据,急着想用AI技术来挖这些信息。 不过麻烦的是,这些数据通常不在AI干活的那个最方便的地方。好多公司用的是多云策略,数据就像散落在不同地方的碎片。哪怕你把一个项目需要的全部数据都扔在一个云里面,可能也会碰到一些不好的情况,比如那个地方电费太贵了,根本没地方塞能让AI工作的GPU。不管是哪种情况,企业都得花大力气去挪动大量的数据。 挪数据的成本可不低,光出口费一项就能高达每PB 8万美元。Aras还特意提醒说,就算是同一个云服务商内部互相传数据,这钱也得照算。而且这活儿还不能马虎,必须盯着看,保证正确的数据都能完完整整送到该去的地方。速度也是个大瓶颈——用10Gbps的带宽传1PB数据大概要9天时间。 这就只是历史数据了。通常搞AI模型得天天给它最新的东西喂进去,可能一天一次甚至两次。虽然传的量比一次性的少多了,但快不快还是很重要,毕竟模型是24小时在线的。Aras解释说,Riverbed这回是把自己25年的数据移动经验全都拿出来给客户用了。 具体怎么做呢?就是从存储里把数据抓出来,然后专门优化一下怎么通过网络传过去。Aras说了句挺形象的话:“我们就把它端上来。”举个例子说有个公司想把1PB的数据挪到新地方做训练用,发现按原来的流程得花12天。这才是第一波呢,后面还有20PB等着搬呢。这公司早就把最抢手的GPU时间订好了,眼看着截止日期就快到了。 结果Riverbed在三四个礼拜内就把活儿干完了,比原计划的八九个月快多了。还有一次在金融服务行业合并后,一家公司要把大概30PB的数据从一个云移到另一个云去。Riverbed也在刚过一个月的时候就把这事儿办妥了,还满足了各种合规要求。 说白了现在的IT团队以前做存储处理决策往往是看当时的具体情况来的。再加上每个部门或者业务线都有自己的小算盘,搞得现在的公司通常都在本地数据中心、多个云环境和一堆SaaS软件里来回折腾。想把所有东西都挪到一个云里是可能的,但得掂量掂量那家公司能不能包办所有需求而不跟你讲条件。 Aras指出了个关键问题:哪怕是最大的超大规模云服务商也没办法在全世界每个角落都有驻地据点。出于这个还有别的原因吧,就算是意味着得舍弃那种签一个合同、用一套技能的简单做法,还是得多找一个服务商备用比较稳妥。 系统分布在多个地方其实挺省心的,主要是到了所有数据都得聚拢在一处的时候才会出问题。随着AI越来越普及,这种需求变得越来越常见了。 要想把数据的最大价值给榨干出来?那你就得真的去动真格的挪海量数据——不光是搬一次就算了,这是个长期要做的事。 特别是智能体AI对这方面要求特别高。智能体得从无数个地方把信息给扒拉出来才能快速回应你的提示或者指令。虽然这样对用户来说挺方便的(能马上拿到答案),但背后确实需要你不停地去搬运大量的数据来支持它那种实时响应的能力。 Aras说Riverbed以前的活儿大多是干那种一次性的大事儿(比如帮你把本地系统移到云端),但现在客户越来越需要那种持续不断地给AI项目输送养料的服务了。 好在Riverbed这套方法是通用的:不管是一次性的大迁移还是长期的运维需求它都能搞定。 Q&AQ1:企业搞AI项目时在数据传输这块儿都遇到过啥坎儿? A:大家都得面对数据在好多云服务商那边乱七八糟散着没法统一管理、传送费贵得吓人(哪怕是内部传输每PB出口费也得8万)、速度慢得离谱(1PB走10Gbps得等9天)、还要严防死守保证数据安全完整这些麻烦事儿。 Q2:Riverbed是咋帮咱们解决这些老大难的? A:Riverbed是拿出自己那25年的老底儿了,通过把数据从仓库里揪出来再针对网络特性好好优化一遍来提高传输效率。比如以前那种要八九个月才能干完的30PB大迁移任务?现在只用一个多月就解决了。 Q3:为啥智能体AI非得频繁挪数据才行? A:因为智能体要从好几个地方凑齐信息才能对用户的指令做出有效反应嘛。虽然这样我们能很快拿到答案(比如你一问它就能回),但这背后需要你持续不断地往那边运送大量新鲜的数据来支撑它这种全天候在线的实时响应能力。