Según un reportaje en profundidad de CNBC, en dos reuniones privadas celebradas esta semana en Silicon Valley, varios CEO y ingenieros de nuevas empresas de IA señalaron que la implementación a escala de los agentes de IA enfrenta dos problemas estructurales principales: «desperdicio masivo de tokens» y «una confusión extrema entre sistemas». Esta constancia in situ contrasta de manera marcada con el optimismo expresado por el CEO de Nvidia, Huang Renxun, quien en marzo dijo que los agentes de IA serían «el próximo ChatGPT», lo que muestra que el cuello de botella real de esta vía no está en el cómputo, sino en el diseño de decisiones, la eficiencia de tokens y la integración de múltiples sistemas.
El problema máximo es delegar todo al LLM
El CEO de la startup de IA Meibel, Kevin McGrath, señaló en la reunión: «El mayor problema que estamos tratando ahora es que suponemos erróneamente que todo debe ser procesado por grandes modelos de lenguaje: arrojamos todos los tokens y todo el dinero a un bot de IA, y quema cientos de millones de tokens». Enfatizó que, al diseñar los flujos de trabajo de los agentes, las empresas deben determinar con mayor claridad qué tareas realmente requieren un LLM y cuáles pueden resolverse con lógica basada en reglas más barata o con aprendizaje automático tradicional.
Esta observación se hace eco de la reacción del mercado tras el giro de la versión empresarial de Anthropic Claude hacia el cobro por uso: cuando el consumo de tokens se convierte directamente en costos, el modelo de desarrollo de «enviar a ciegas el trabajo al agente» revela de inmediato una presión financiera. La postura de Meibel representa a un grupo de profesionales de ingeniería anti-hype: el arte de la arquitectura de agentes consiste en imponer límites, no en dejar que todo se descontrole.
La confusión se forma por la dependencia mutua entre sistemas de colaboración de múltiples agentes
Otra palabra clave que aparece repetidamente en el reporte de CNBC es «chaotic». Cuando una empresa ejecuta varios agentes de IA al mismo tiempo —por ejemplo, uno que atiende al servicio al cliente, otro que gestiona la agenda y otro que se ocupa de las finanzas— la transmisión de mensajes entre agentes, la coherencia del estado y las respuestas ante errores se afectan mutuamente; cualquier comportamiento anómalo de un agente se propaga en cadena. Karpathy también mencionó esta semana que ejecuta flujos de trabajo con simultáneamente 10–20 agentes, pero admitió que la revisión de código y el proceso de PR se han convertido en el nuevo cuello de botella.
La confusión de este tipo de sistemas de múltiples agentes, en esencia, es la repetición en la era del LLM de los problemas tradicionales de los sistemas distribuidos: no hay SLA claros, no hay límites transaccionales, y no hay semántica de reintentos ante fallos. Aunque Anthropic y OpenAI han lanzado capas de protocolos como MCP y Agent SDK, en la práctica de la adopción empresarial, la estandarización aún va muy por detrás del crecimiento en la cantidad de agentes.
El “salario” de tokens de 250.000 dólares de Huang Renxun se enfría
En marzo, el CEO de Nvidia, Huang Renxun, impulsó con fuerza el concepto de «salario en tokens» en el GTC y en entrevistas posteriores, afirmando: «Si un ingeniero con un salario anual de 500.000 dólares no consume al menos 250.000 dólares en tokens, me sentiría muy inquieto». Su lógica es: los ingenieros deberían sustituir sus propias acciones de bajo nivel con agentes de IA, y el monto absoluto de tokens consumidos sería un indicador proxy de productividad. Este planteamiento puede consultarse en la última entrevista de Huang Renxun (parte superior), donde desarrolla a fondo las necesidades de cómputo de IA.
Pero las opiniones in situ recogidas por el reporte de CNBC muestran que el grupo de ingenieros en Silicon Valley se mantiene cada vez más reservado ante este argumento: la cantidad de tokens consumidos no equivale a productividad e incluso podría ser una señal de un diseño deficiente de los agentes. El verdadero valor de un ingeniero aún reside en «decidir qué tareas vale la pena llamar a un agente, cómo descomponer las tareas y cómo diseñar el manejo de errores»; estos trabajos en sí no pueden medirse por el volumen de consumo de tokens.
La intersección entre Crypto y agentes de IA aún requiere tiempo
Para la industria de crypto, esta semana, la tendencia de que la IA devore el 80% de la financiación de capital de riesgo global y el hecho de que los proyectos DeFi integren activamente agentes autónomos se basan en el supuesto de que la tecnología de agentes ya alcanzó un nivel “desplegable”. Pero este reporte de CNBC recuerda que: incluso en entornos empresariales puramente web2, la eficiencia de tokens de los agentes y la integración de múltiples sistemas todavía no son estables. Colocar a los agentes en entornos on-chain donde se opera 24×7 y los activos pueden ser robados en tiempo real amplifica tanto los riesgos técnicos como los riesgos financieros. El verdadero punto de partida de Crypto × AI quizá aún tenga que esperar a que madure la estandarización de la capa del framework de agentes (como MCP, LangGraph, Cloudflare Agents).
Este artículo “Realidad de los agentes de IA en Silicon Valley: desperdicio masivo de tokens, integración de sistemas «extremadamente caótica», la predicción de Huang Renxun sobre «el próximo ChatGPT» por verificar” apareció por primera vez en 鏈新聞 ABMedia.
Artículos relacionados
Databricks 称:顶级 AI 模型在日常企业任务中落后 更小的专用模型表现更佳
La IA se devora el 80% del capital global de venture, Q1 2026 se lleva 240 mil millones de dólares: ¿cómo responden los actores de la industria cripto a la reasignación de capital?
El robot humanoide honor gana el Medio Maratón de Yizhuang de Pekín 2026 en 50 minutos 26 segundos
La policía de Hong Kong advierte de la estafa cripto de "trading cuantitativo con IA"; una mujer pierde 7,7 millones de HKD
Cofundador de Ethereum Lubin: la IA será un punto de inflexión crítico para las criptomonedas, pero el monopolio de los gigantes tecnológicos plantea un riesgo sistémico
Luffa与数字资产平台合作集成AI驱动的加密交易