Se revela que “Claude pierde capacidad” no es un mito urbano; el modelo de IA es inestable y representa un riesgo empresarial

Después de que la IA se convirtiera en un equipo estándar para las empresas, un fenómeno que en el pasado se consideraba un “problema de percepción” está saliendo rápidamente a la superficie: los LLM (modelos de lenguaje a gran escala) se están “volviendo más tontos”. El usuario de la red Wisely Chen señaló que el llamado “degradarse la inteligencia de los LLM” no es un mito urbano, sino que ya puede rastrearse de forma continua mediante datos, y que está generando efectos reales en los flujos de trabajo empresariales.

Puso como ejemplo su propia experiencia: el 15 de abril, los servicios de la serie Claude de Anthropic sufrieron una degradación generalizada, incluyendo claude.ai, la API y Claude Code, que mostraban “Degraded Performance”. Esto no es simplemente que fuera más lento o un error ocasional, sino que la calidad de las respuestas se desplomó de forma evidente, e incluso hubo casos en los que no se podía usar correctamente, lo que hizo que sus tres tareas de desarrollo del día se retrasaran por completo.

Estas situaciones para los desarrolladores individuales tal vez signifiquen solo una caída de eficiencia, pero para los equipos de TI de las empresas el impacto se multiplica. Cuando un equipo tiene varios ingenieros que dependen al mismo tiempo de herramientas de IA para programar, redactar documentos y automatizar procesos, una degradación del modelo en un solo momento implica que la productividad total disminuya colectivamente en el mismo periodo, convirtiéndose así en una pérdida considerable de tiempo y costos.

¿La IA se siente más tonta? Los datos confirman que “ya se degradó”

Wisely Chen señaló que “GPT se volvió más tonto”, “Claude no es como antes” y otras afirmaciones que han circulado por la comunidad durante mucho tiempo carecían de respaldo de datos objetivos. Solo hasta que recientemente surgieron plataformas que monitorean de manera continua la calidad del modelo, este fenómeno se cuantificó por primera vez.

Entre ellas, StupidMeter realiza pruebas automatizadas de 24 horas a modelos principales como OpenAI, Anthropic, Google, etc., haciendo seguimiento de indicadores como exactitud, capacidad de razonamiento y estabilidad. A diferencia de los benchmark tradicionales de una sola vez, estos sistemas se parecen más a la manera en que las empresas monitorean APIs o la disponibilidad de servicios: observan las fluctuaciones del desempeño del modelo en entornos de uso reales.

Los resultados son bastante directos: actualmente, la mayoría de los modelos principales se encuentran en estado de advertencia o degradación, y solo unos pocos mantienen un funcionamiento normal. Esto significa que la calidad del modelo es inestable; no es un problema de un producto único, sino un fenómeno generalizado en toda la industria.

LLM, baja la inteligencia “sin avisar”, afecta la estabilidad de los flujos de trabajo de la IA en las empresas

Para las empresas, este tipo de cambios significa que la IA deja de ser “una herramienta para mejorar la eficiencia” y pasa a ser una “variable que afecta la estabilidad”. Si los flujos de trabajo diarios de una empresa —desde escribir código, hacer code review, hasta producir documentos e informes de análisis— ya dependen en gran medida de LLM, entonces cuando un modelo presenta una caída de la capacidad de razonamiento o una merma en la calidad de las respuestas en un día, estos problemas no ocurren de forma localizada como los fallos (bugs) de software tradicionales, sino que se infiltran simultáneamente en todos los aspectos donde se usa IA.

Lo más importante es que estas fluctuaciones a menudo son difíciles de predecir y difíciles de detectar de inmediato. La mayoría de las empresas no cuenta con mecanismos para monitorear continuamente la calidad del modelo; normalmente solo se dan cuenta de que el problema proviene del propio modelo cuando los resultados son anómalos o cuando baja la eficiencia del equipo. En este contexto, el “degradarse la inteligencia” deja de ser solo una percepción subjetiva de los usuarios y se convierte en un riesgo sistémico que afecta directamente el ritmo de operación de la empresa.

Cuando la IA se convierte en electricidad y agua, la estabilidad pasa a ser el nuevo indicador clave

Wisely Chen compara el papel de los LLM con “la electricidad y el agua de la empresa moderna”. Cuando la IA se ha integrado en la operación diaria y se convierte en una capacidad básica indispensable, la importancia de la estabilidad también aumenta en consecuencia.

En el pasado, al evaluar herramientas de IA, las empresas se enfocaban principalmente en la capacidad del modelo, el precio y las funciones, pero a medida que surge el fenómeno de “degradarse la inteligencia”, aparece otro indicador aún más crucial: la estabilidad. Cuando la calidad del modelo puede cambiar sin previo aviso, las empresas ya no solo “usan IA”, sino que tienen que asumir un nuevo tipo de riesgo para la infraestructura básica. Lo más desesperanzador es que, si solo se miran los modelos de lenguaje grandes de vanguardia, básicamente mientras no se resuelva el problema de la capacidad de cómputo, es posible que siga ocurriendo.

Este artículo Datos revelan que “Claude se degradó” no es un mito urbano; los modelos de IA inestables se convierten en un riesgo para las empresas; apareció por primera vez en CadenaNews ABMedia.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.

Artículos relacionados

Realidad de los agentes de IA en Silicon Valley: se desperdician muchos tokens, la integración de sistemas está «extremadamente desordenada», la predicción de Huang Renxun sobre «el próximo ChatGPT» aún debe verificarse

En una reciente conferencia en Silicon Valley, varios CEO de nuevas empresas de IA compartieron sus puntos de vista sobre los problemas de uso actuales de los agentes de IA, y consideran que se enfrentan a dos grandes dificultades: el desperdicio de tokens y la confusión del sistema. Los expertos señalaron que las empresas deben determinar con mayor cautela cuándo utilizar modelos de lenguaje a gran escala para evitar el desperdicio innecesario de recursos. Además, la colaboración entre múltiples agentes de IA a menudo provoca problemas en la transmisión de mensajes y en la coherencia del estado, lo que muestra que la estandarización actual aún necesita mejoras. Aunque Huang Renxun mencionó su opinión sobre el indicador de salarios por token, la retroalimentación indica que esto no equivale a la productividad; el valor real radica en un diseño eficaz de tareas.

ChainNewsAbmediahace9h

La IA se devora el 80% del capital global de venture, Q1 2026 se lleva 240 mil millones de dólares: ¿cómo responden los actores de la industria cripto a la reasignación de capital?

Según informes, en el primer trimestre de 2026 el monto global total de capital de riesgo se aproxima a 300 mil millones de dólares, de los cuales las empresas relacionadas con IA abarcan alrededor de 242 mil millones de dólares, lo que representa el 80% del capital de riesgo. Esto muestra que la IA se ha convertido en el foco principal del capital de riesgo. A medida que el financiamiento se concentra en la IA, otros ámbitos como crypto se han visto presionados; los proveedores necesitan ajustar sus estrategias, integrar la IA de manera más profunda en sus operaciones y esperan que surja una tendencia a la consolidación de infraestructura.

ChainNewsAbmediahace13h

La policía de Hong Kong advierte de la estafa cripto de "trading cuantitativo con IA"; una mujer pierde 7,7 millones de HKD

La policía de Hong Kong reveló un fraude de criptomonedas en el que una mujer perdió 7,7 millones de HKD ante estafadores que se hacían pasar por expertos en inversiones mediante Telegram, prometiendo altos rendimientos mediante el trading con IA. La policía advirtió al público sobre los riesgos asociados a las inversiones en criptomonedas.

GateNewshace15h

Hong Kong anunciará mañana la sexta tanda de la lista de empresas clave

El Secretario Financiero de Hong Kong, Paul Chan, anunció el lanzamiento de una nueva lista de empresas clave, atrayendo a más de 100 negocios valorados por encima de 100 mil millones de HKD en sectores como las ciencias de la vida, la IA y las fintech, destacando el atractivo de Hong Kong para la inversión internacional.

GateNewshace18h

El robot Lightning de Honor gana la Media Maratón de Robots Humanoides de Pekín 2026 con una marca de 50:26

El robot humanoide «Lightning» de Honor estableció un nuevo récord en la Media Maratón de Robots Humanoides de Yizhuang de Pekín 2026, completando la carrera en 50 minutos y 26 segundos, superando el récord mundial humano.

GateNewshace21h

La acción de Meta sube 1.73% mientras la empresa planea un recorte de 8,000 empleos a partir del 20 de mayo

Meta Platforms planea recortar aproximadamente 8,000 empleos, o el 10% de su plantilla, a partir del 20 de mayo, a pesar de la subida de los precios de sus acciones. La empresa, con más de $200 mil millones en ingresos, se está enfocando en inversiones en IA en medio de una reestructuración significativa, alineándose con las tendencias de la industria de despidos.

GateNews04-18 18:01
Comentar
0/400
Sin comentarios