根据 CNBC 深度报道,在硅谷本周两场闭门会议中,多位 AI 新创 CEO 与工程师直言当前 AI agent 规模化部署面临“token 大量浪费”与“系统之间极度混乱”两大结构性问题。这份现场记录与 Nvidia 执行长黄仁勳 3 月称 AI agent 为“下一个 ChatGPT”的乐观预期形成鲜明对比,显示这条赛道的实际瓶颈不在算力,而在决策设计、token 效率与多系统整合。
最大问题是把所有事情丢给 LLM
AI 新创 Meibel 执行长 Kevin McGrath 在会议上指出:“我们现在处理的最大问题,是误以为所有事情都需要被大型语言模型处理——把所有 token 和所有钱都丢给一个 AI bot,它就会烧掉几百万个 token。”他强调企业在设计 agent 工作流时,必须更清楚判断哪些任务真正需要 LLM、哪些用更便宜的规则式逻辑或传统机器学习即可完成。
这个观察呼应 Anthropic Claude 企业版转向按量计费之后的市场反应——当 token 消耗直接转为成本,“盲目丢给 agent”的开发模式立刻显现财务压力。Meibel 的观点代表一群反 hype 的工程实践派:agent 架构的艺术在于约束,而非放任。
多 agent 协作系统互相依赖形成混乱
CNBC 报导中另一个反复出现的关键词是“chaotic”。当企业同时运行多个 AI agent——例如一个处理客服、一个处理排程、一个处理财务——agent 之间的信息传递、状态一致性、错误回复都会相互影响,任何一个 agent 的行为失常都会连锁扩散。Karpathy 本周也提到他个人同时运行 10–20 个 agent 的工作流,但承认 code review 与 PR 流程成为新瓶颈。
这类多 agent 系统的混乱,本质是分布式系统的老问题在 LLM 时代的重演:没有明确的 SLA、没有事务边界、没有失败重试语义。Anthropic、OpenAI 虽然推出 MCP、Agent SDK 等协议层,但在企业导入实战中,标准化仍远远落后于 agent 数量的增长。
黄仁勳的 25 万美元 token 薪资论遇冷
Nvidia 执行长黄仁勳在 3 月 GTC 与后续访谈中大力推广“token 薪资”概念,宣称“如果一位年薪 50 万美元的工程师没有消耗至少 25 万美元的 token,我会深感不安”。他的逻辑是:工程师应当用 AI agent 取代自身低阶动作,而消耗 token 的绝对额度就是生产力的代理指标。此论述可参见 黄仁勳最新专访(上)中对 AI 算力需求的完整阐述。
但 CNBC 报导中的现场意见显示,硅谷工程师群体对此论述越来越保留:消耗 token 的多寡不等于生产力,甚至可能是 agent 设计不良的信号。工程师的真实价值仍在“决定哪些任务值得叫 agent、如何拆解任务、如何设计错误处理”——这些工作本身无法被 token 消耗量度量。
Crypto 与 AI agent 的交叉仍需时间
对 crypto 产业而言,本周 AI 吞噬全球创投 80%、以及 DeFi 项目积极整合自主 agent 的趋势,都建立在“agent 技术已达到可部署水准”的前提上。但 CNBC 这篇报导提醒:即使在纯 web2 企业环境中,agent 的 token 效率与多系统整合都尚未稳定。将 agent 放入 7×24 运行、资产即时可被盗的链上环境,技术风险与财务风险都会被放大。Crypto × AI 的真正起点,可能还要等到 agent 框架层(如 MCP、LangGraph、Cloudflare Agents)的标准化成熟。
这篇文章 硅谷 AI Agent 现实:Token 大量浪费、系统整合“极度混乱”,黄仁勳“下一个 ChatGPT”预测待验证 最早出现于 链新闻 ABMedia。
相关文章