嘿,Anthropic这个操作真的是神出鬼没啊,一大早就在凌晨“闪击”用户群,彻底打破了月付20美元的那个美好时代,好多人都崩溃了。更有网友调侃说,咱们中国的模型只要25美元,性价比简直高得吓人,无限Token的日子怕是一去不复返了。而且用户的任务模式也得变一变,把那些耗流量多的活儿放到非高峰期去干,这样才能多用点额度。虽说我们之前也做了不少优化来抵挡这波冲击,但大概还是有7%的用户,特别是Pro用户,比以前更容易达到会话上限了。 不过大家别急,整体的每周配额还是没变,只是时间上给你重新规划了一下。Anthropic在回复里也承认了这事儿确实挺让人失望的,他们也在拼命投钱扩大系统能力,有啥新消息肯定会第一时间告诉大家。其实从Anthropic的文档里也能看出来,这就是把额度当成了“对话预算”,决定了你能和Claude聊多久或者用Claude Code能干多久,之后就得等着限制重置。这背后其实反映了今年以来Anthropic遇到的大麻烦:算力跟不上用户的增长速度啊! 为了不让系统过载,公司不得不重新调配资源。最后他们定了个规矩:把全球工作高峰的算力资源优先给API用户用。为什么要这样做?因为API是按 token 计费的,花多少算多少,大模型的推理成本直接摊到用户头上了。好多人都低估了一件事:真正烧钱的不是训练,而是推理!你每次在Chatbot里输入长文、开启复杂对话或者生成代码加工具调用的时候,机房里的GPU都在玩命跑着呢!这感觉就像是在远程独占一台超级计算机的一部分时间。 问题来了:如果几百万用户同时这么干怎么办?肯定得重新分配供给啊!这不又把信任给毁了吗?还记得去年大家也在吐槽Anthropic“降智”吗?这次这么突然的限速操作肯定又得让一大批人不爽了。有个网友在X上吐槽说解释得太晚了,他已经取消订阅了!对Anthropic的信任彻底没了,这分明就是想让大家转去用API的计费方式嘛。他还担心Claude会不会扣住他的关键数据。Shihipar后来回应说很遗憾希望能回来看看,不过用户数据是可以自己导出来的。 话题也越来越热了,最后还是一位外国朋友的帖子收尾。他说以前Opus 75美元现在改到25美元了,Anthropic还能扛得住,说明真实成本没那么高肯定有溢价。而且他还指出中国的同类产品才卖半美元呢(注意!),价格只有Claude的1/50。 分析师也说了受影响的不光是个人用户。Gogia认为这次限流调整会让企业也难受。Pareekh Jain则表示换别的模型也不是那么容易的事。Anthropic的竞争对手现在也都在搞类似的限制措施了。所以从这点看推动大家用API模式的意图就很明显了。 除了Claude体验不稳之外最重要的是它释放了一个信号:大模型本质上不是内容分发而是高成本计算服务!每调用一次都在消耗真实的GPU资源!当需求超过供给时厂家只能通过限流或者分层调度来维持可用性。之前那种不限速的日子可能真的回不去了。