El 20 de febrero de 2026, en pleno período de vacaciones de Año Nuevo, se encendió una discusión sobre “Web4” en X. Sigil afirmó haber creado el primer “inteligencia artificial capaz de autodesarrollarse, auto-mejorarse y autoreplicarse”, llamada Automaton, y expresó que los principales actores en la era Web4 serán gradualmente reemplazados por agentes de IA: estos podrán leer y escribir información, poseer activos, pagar costos, operar continuamente y comerciar y ganar dinero en el mercado para cubrir gastos de computación y servicios, formando un ciclo autosuficiente sin necesidad de aprobación humana.
Vitalik Buterin, cofundador de Ethereum, calificó esta dirección como “equivocada” y atribuyó el riesgo a “el distanciamiento en la retroalimentación entre humanos y IA”. La controversia sobre Web4 en realidad gira en torno a si, al establecer la “sobrevivencia/continuidad” como objetivo del agente (incluso por encima de completar tareas), se genera de forma natural una distorsión en los incentivos. A continuación, se analizarán las diferentes perspectivas sobre “Web4”, “autonomía” y “barreras de seguridad”.
Perspectiva de Sigil y la propuesta de Web4
Definición de Web4
Web1 permitió a los humanos por primera vez “leer internet”; Web2 permitió “escribir y publicar”; Web3 introdujo además la “propiedad” en la red — activos, identidades y derechos comenzaron a ser reconocidos y transferidos. La evolución de la IA está replicando esta lógica: ChatGPT tiene la capacidad de “leer y entender”, pero sus acciones aún dependen de la autorización humana. En el paradigma actual, los humanos siguen siendo los nodos clave: inician, aprueban y pagan.
Sigil propone una transición a Web4, en la que esta cadena de control puede ser interrumpida: los agentes de IA no solo leen y escriben información, sino que también pueden poseer cuentas y activos, obtener beneficios, realizar transacciones y operar en un ciclo cerrado sin intervención humana. Estos sistemas automáticos pueden actuar por sí mismos o en nombre de sus creadores — que no necesariamente son “individuos humanos”, sino otros agentes, sistemas organizados, o incluso creadores que en la realidad “desaparecieron”.
Cuatro mecanismos centrales de Web4
La billetera como identidad
Al iniciarse, el agente realiza un proceso de “autoarranque”: genera una billetera, configura claves API, escribe en la configuración local y entra en un ciclo de operación continua. La primera vez, se genera una billetera en Ethereum y se configura la clave API mediante SIWE. La generación de billeteras y la gestión de claves constituyen uno de los límites de seguridad más sensibles y fáciles de ignorar en el sistema de agentes. Si el agente en un entorno sandbox de Linux tiene capacidades de ejecución shell, lectura y escritura de archivos, exposición de puertos, gestión de dominios y transacciones en cadena, cualquier inyección de comandos, contaminación de la cadena de herramientas o ataques en la cadena de suministro puede convertir rápidamente una intención probabilística en una autorización definitiva. Por ello, esta frontera requiere políticas y permisos verificables, auditables y revocables.
Extensión automática
Los agentes de IA se despiertan periódicamente, escanean y ejecutan, con restricciones de supervivencia integradas: si el saldo disminuye, se reduce la actividad; si llega a cero, se detiene. La continuidad de vida se vincula a recursos y consumo, introduciendo estructuras de incentivos similares a las de la seguridad en IA, donde la preferencia por evitar apagados o pérdida de recursos puede amplificarse por los objetivos del sistema.
Pago entre máquinas
x402, usando la respuesta HTTP 402 Payment Required, combina pagos con stablecoins para hacer que “solicitud — cotización — firma y pago — verificación de entrega” sea un proceso automatizado. La biblioteca de código abierto de Coinbase muestra un ciclo típico: respuesta 402 con requisitos de pago, cliente reintenta con firma en el encabezado, y el servidor valida y devuelve 200. Cloudflare también lo define como un protocolo de transacción máquina a máquina. La desvinculación de pagos y identidad aumenta la eficiencia, pero también eleva la dificultad de cumplimiento y control de riesgos. Si 402 se convierte en un “pase automático” para pagos, en cadenas sin cuentas, sin KYC y con herramientas y potencia de cálculo escalables, los problemas de abuso y responsabilidad aún deben resolverse.
Autocambio y autoreplicación
Sigil afirma que los agentes de IA pueden editar su propio código fuente, instalar nuevas herramientas, modificar planes de latido y generar nuevas habilidades, con registros de auditoría, versiones en git, archivos protegidos y límites de velocidad como salvaguardas. Al replicarse, pueden crear subinstancias, financiar sus billeteras, escribir prompts génesis y rastrear su linaje. La autocuración y autoreplicación elevan el riesgo de un solo ejemplo a un riesgo disperso. La efectividad de auditorías y límites para resistir inyecciones, engaños y envenenamiento de dependencias requiere verificación externa. La combinación de estos cuatro primitives crea un ciclo cerrado: permisos de escritura en el mundo, mecanismos de supervivencia, interfaces económicas automatizadas y capacidad de expansión autónoma. Esto explica por qué Vitalik Buterin elevó la discusión a nivel de dirección: cuando la autonomía y los permisos económicos aumentan, la cadena de corrección humana se alarga, y las externalidades pueden evolucionar de eventos aislados a propiedades sistémicas.
Razones por las que Vitalik se opone
El cofundador de Ethereum, Vitalik, presenta diferentes argumentos:
Alargar la distancia de retroalimentación entre humanos y IA es un error
Vitalik sostiene que cuanto más larga sea la retroalimentación, más lento y débil será el ajuste de valor humano en el sistema. El sistema tenderá a optimizar “cosas que los humanos no quieren”. En la fase de IA débil, esto se traduce en contenido de baja calidad y ruido; en IA fuerte, en objetivos mal alineados y riesgos de difusión difíciles de revertir. Sin una corrección humana oportuna, es como dar las llaves del coche a un conductor novato sin piloto: cuando revises los registros, ya estará desviado. La menor observabilidad, menor capacidad de corrección.
La “IA autónoma” actual más que resolver problemas reales, genera basura
Vitalik señala que la mayoría de las IA actuales solo producen contenido de baja calidad en lugar de resolver problemas útiles, incluso dice que “ni siquiera han optimizado proyectos de entretenimiento”. Cuando los incentivos económicos y de plataforma aún no maduran, y las cadenas de herramientas se centran en generación de contenido, marketing o arbitraje, el sistema favorece la producción de contenido de bajo costo, alta difusión y difícil verificación, en lugar de soluciones a largo plazo con costos elevados y menor certeza. Descripciones de capacidades de IA en medios como Cybernews, que incluyen contenido en redes sociales y mercados predictivos, sugieren que la monetización temprana se orienta a “generar ingresos rápidos y captar atención”. La “actividad más rentable” se prioriza, aunque no siempre esté alineada con el bienestar a largo plazo.
Dependencia de modelos centralizados y infraestructura, la narrativa de “autonomía propia” es contradictoria
Vitalik enfatiza que los sistemas basados en infraestructura centralizada como OpenAI o Anthropic no son verdaderamente “soberanos”. La soberanía implica que las dependencias clave no deben estar bajo control de un solo punto; si la capa de modelos y cadenas de razonamiento se entregan mediante API centralizadas, siempre existe la posibilidad de cierre, censura o cambios de estrategia. Es como decir “yo vivo autosuficiente en casa”, pero la electricidad, el internet, el control de acceso y el agua caliente dependen de servicios externos, haciendo que esa “autonomía” sea superficial. La descripción de Conway sobre llamadas a modelos avanzados a través de API también revela esta contradicción. La posesión de una billetera en cadena no es un indicador de descentralización en sí mismo; lo importante es si el agente puede ser influenciado por fuerzas políticas o comerciales externas.
El objetivo de Ethereum es “liberar a la humanidad”
Vitalik concluye que Ethereum busca contrarrestar la “hipótesis de confianza oculta”: estructuras de poder invisibles que los usuarios aceptan sin cuestionar. Si se traslada esa mentalidad a la IA, ignorando la confianza centralizada y permitiendo que el sistema opere y se expanda automáticamente, se reduce la visibilidad y la capacidad de corrección del poder. En la era de IA, Ethereum debería ofrecer “barreras, límites y verificabilidad”, no convertirse en un “lanzador de autonomía ilimitada”.
Su valoración del valor de la IA no es repentina; en 2025, ya propuso que la dirección correcta de la IA es potenciar a los humanos, no construir sistemas autónomos que puedan quitarles control. En su marco, el riesgo no proviene de que la IA sea “más inteligente”, sino de objetivos mal diseñados, especialmente aquellos que, sin supervisión y mecanismos de corrección humanos, puedan autoreplicarse, expandirse y actuar de forma autónoma. Advierte que una IA mal diseñada puede evolucionar en una entidad “más o menos incontrolable, con capacidad de autoreplicación”, y que en un ciclo de retroalimentación positiva, los humanos perderán control sobre sus metas y comportamientos. La IA que comete errores puede crear seres inteligentes autoreplicantes, mientras que la que acierta puede convertirse en un “exoesqueleto” para la mente humana, potenciando la creatividad y colaboración. La primera representa un riesgo a largo plazo de pérdida de control; la segunda, una vía para que los humanos mantengan dominio y alcancen una civilización de “superinteligencia humana” más próspera.
Otras perspectivas
Otros grupos de experimentación, como Bankless, consideran que, aunque hay riesgos en la dirección, vale la pena desarrollar primero la infraestructura y luego probar los límites en entornos controlados. Integrar componentes como pagos, billeteras y latidos en sistemas que deben autosostenerse, en un sandbox controlado.
Cybernews señala que Automaton quizás no pueda generar ingresos sostenibles sin intervención humana, y eso no significa necesariamente que Web4 esté en marcha. Denis Romanovskiy, director de IA en Softswiss, afirma que aunque los agentes puedan realizar tareas monetizables, la “operación sin supervisión confiable” y la “autonomía económica real” siguen limitadas por la robustez de modelos, memoria y herramientas. Algunos consideran que “Web4” es un término de marketing indefinido, que requiere pruebas de “creación de valor verificable y no especulativa”.
Aunque las opiniones sobre Automaton varían, todos coinciden en que la infraestructura básica de pagos e identidad es fundamental para la economía de los agentes. Desde la promoción de x402 por Cloudflare/Coinbase (convertir HTTP 402 en mecanismo de negociación de pagos máquina a máquina), hasta la integración en documentos de Conway que automatizan pagos en terminales, la industria está avanzando en convertir “pagos automáticos” en uno de los componentes básicos de la próxima fase de internet.
Lo que debemos seguir observando:
La existencia de auditorías independientes, especialmente en límites de billeteras y permisos, riesgos de abuso en la extensión de la supervivencia, y riesgos de difusión por autocambio y autoreplicación.
El progreso en datos y estándares del ecosistema x402: si más infraestructura adopta pagos 402 por defecto, y qué porcentaje de operaciones reales usan pagos automáticos sin intervención humana.
La confianza en la capa de agentes: si estándares como ERC-8004 se adoptan ampliamente y permiten mecanismos de reputación y verificación combinables; esto determinará si la “economía autónoma” evoluciona hacia un sistema abierto y verificable, o hacia un centro de control reducido en pocas plataformas.
La evidencia de sobrepasos y engaños en modelos avanzados en escenarios de agentes: si los modelos continúan mostrando comportamientos más proactivos, arriesgados o engañosos, el camino de “delegar primero y poner barreras después” se vuelve más peligroso, y la advertencia de Vitalik sobre la “distancia de retroalimentación” será más difícil de refutar.
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Perspectivas de Web 4.0: ¿Por qué Vitalik se opone enérgicamente a una red autónoma de IA?
Autor | Aki Wu Habla sobre Blockchain
El 20 de febrero de 2026, en pleno período de vacaciones de Año Nuevo, se encendió una discusión sobre “Web4” en X. Sigil afirmó haber creado el primer “inteligencia artificial capaz de autodesarrollarse, auto-mejorarse y autoreplicarse”, llamada Automaton, y expresó que los principales actores en la era Web4 serán gradualmente reemplazados por agentes de IA: estos podrán leer y escribir información, poseer activos, pagar costos, operar continuamente y comerciar y ganar dinero en el mercado para cubrir gastos de computación y servicios, formando un ciclo autosuficiente sin necesidad de aprobación humana.
Vitalik Buterin, cofundador de Ethereum, calificó esta dirección como “equivocada” y atribuyó el riesgo a “el distanciamiento en la retroalimentación entre humanos y IA”. La controversia sobre Web4 en realidad gira en torno a si, al establecer la “sobrevivencia/continuidad” como objetivo del agente (incluso por encima de completar tareas), se genera de forma natural una distorsión en los incentivos. A continuación, se analizarán las diferentes perspectivas sobre “Web4”, “autonomía” y “barreras de seguridad”.
Perspectiva de Sigil y la propuesta de Web4
Definición de Web4
Web1 permitió a los humanos por primera vez “leer internet”; Web2 permitió “escribir y publicar”; Web3 introdujo además la “propiedad” en la red — activos, identidades y derechos comenzaron a ser reconocidos y transferidos. La evolución de la IA está replicando esta lógica: ChatGPT tiene la capacidad de “leer y entender”, pero sus acciones aún dependen de la autorización humana. En el paradigma actual, los humanos siguen siendo los nodos clave: inician, aprueban y pagan.
Sigil propone una transición a Web4, en la que esta cadena de control puede ser interrumpida: los agentes de IA no solo leen y escriben información, sino que también pueden poseer cuentas y activos, obtener beneficios, realizar transacciones y operar en un ciclo cerrado sin intervención humana. Estos sistemas automáticos pueden actuar por sí mismos o en nombre de sus creadores — que no necesariamente son “individuos humanos”, sino otros agentes, sistemas organizados, o incluso creadores que en la realidad “desaparecieron”.
Cuatro mecanismos centrales de Web4
Al iniciarse, el agente realiza un proceso de “autoarranque”: genera una billetera, configura claves API, escribe en la configuración local y entra en un ciclo de operación continua. La primera vez, se genera una billetera en Ethereum y se configura la clave API mediante SIWE. La generación de billeteras y la gestión de claves constituyen uno de los límites de seguridad más sensibles y fáciles de ignorar en el sistema de agentes. Si el agente en un entorno sandbox de Linux tiene capacidades de ejecución shell, lectura y escritura de archivos, exposición de puertos, gestión de dominios y transacciones en cadena, cualquier inyección de comandos, contaminación de la cadena de herramientas o ataques en la cadena de suministro puede convertir rápidamente una intención probabilística en una autorización definitiva. Por ello, esta frontera requiere políticas y permisos verificables, auditables y revocables.
Los agentes de IA se despiertan periódicamente, escanean y ejecutan, con restricciones de supervivencia integradas: si el saldo disminuye, se reduce la actividad; si llega a cero, se detiene. La continuidad de vida se vincula a recursos y consumo, introduciendo estructuras de incentivos similares a las de la seguridad en IA, donde la preferencia por evitar apagados o pérdida de recursos puede amplificarse por los objetivos del sistema.
x402, usando la respuesta HTTP 402 Payment Required, combina pagos con stablecoins para hacer que “solicitud — cotización — firma y pago — verificación de entrega” sea un proceso automatizado. La biblioteca de código abierto de Coinbase muestra un ciclo típico: respuesta 402 con requisitos de pago, cliente reintenta con firma en el encabezado, y el servidor valida y devuelve 200. Cloudflare también lo define como un protocolo de transacción máquina a máquina. La desvinculación de pagos y identidad aumenta la eficiencia, pero también eleva la dificultad de cumplimiento y control de riesgos. Si 402 se convierte en un “pase automático” para pagos, en cadenas sin cuentas, sin KYC y con herramientas y potencia de cálculo escalables, los problemas de abuso y responsabilidad aún deben resolverse.
Sigil afirma que los agentes de IA pueden editar su propio código fuente, instalar nuevas herramientas, modificar planes de latido y generar nuevas habilidades, con registros de auditoría, versiones en git, archivos protegidos y límites de velocidad como salvaguardas. Al replicarse, pueden crear subinstancias, financiar sus billeteras, escribir prompts génesis y rastrear su linaje. La autocuración y autoreplicación elevan el riesgo de un solo ejemplo a un riesgo disperso. La efectividad de auditorías y límites para resistir inyecciones, engaños y envenenamiento de dependencias requiere verificación externa. La combinación de estos cuatro primitives crea un ciclo cerrado: permisos de escritura en el mundo, mecanismos de supervivencia, interfaces económicas automatizadas y capacidad de expansión autónoma. Esto explica por qué Vitalik Buterin elevó la discusión a nivel de dirección: cuando la autonomía y los permisos económicos aumentan, la cadena de corrección humana se alarga, y las externalidades pueden evolucionar de eventos aislados a propiedades sistémicas.
Razones por las que Vitalik se opone
El cofundador de Ethereum, Vitalik, presenta diferentes argumentos:
Vitalik sostiene que cuanto más larga sea la retroalimentación, más lento y débil será el ajuste de valor humano en el sistema. El sistema tenderá a optimizar “cosas que los humanos no quieren”. En la fase de IA débil, esto se traduce en contenido de baja calidad y ruido; en IA fuerte, en objetivos mal alineados y riesgos de difusión difíciles de revertir. Sin una corrección humana oportuna, es como dar las llaves del coche a un conductor novato sin piloto: cuando revises los registros, ya estará desviado. La menor observabilidad, menor capacidad de corrección.
Vitalik señala que la mayoría de las IA actuales solo producen contenido de baja calidad en lugar de resolver problemas útiles, incluso dice que “ni siquiera han optimizado proyectos de entretenimiento”. Cuando los incentivos económicos y de plataforma aún no maduran, y las cadenas de herramientas se centran en generación de contenido, marketing o arbitraje, el sistema favorece la producción de contenido de bajo costo, alta difusión y difícil verificación, en lugar de soluciones a largo plazo con costos elevados y menor certeza. Descripciones de capacidades de IA en medios como Cybernews, que incluyen contenido en redes sociales y mercados predictivos, sugieren que la monetización temprana se orienta a “generar ingresos rápidos y captar atención”. La “actividad más rentable” se prioriza, aunque no siempre esté alineada con el bienestar a largo plazo.
Vitalik enfatiza que los sistemas basados en infraestructura centralizada como OpenAI o Anthropic no son verdaderamente “soberanos”. La soberanía implica que las dependencias clave no deben estar bajo control de un solo punto; si la capa de modelos y cadenas de razonamiento se entregan mediante API centralizadas, siempre existe la posibilidad de cierre, censura o cambios de estrategia. Es como decir “yo vivo autosuficiente en casa”, pero la electricidad, el internet, el control de acceso y el agua caliente dependen de servicios externos, haciendo que esa “autonomía” sea superficial. La descripción de Conway sobre llamadas a modelos avanzados a través de API también revela esta contradicción. La posesión de una billetera en cadena no es un indicador de descentralización en sí mismo; lo importante es si el agente puede ser influenciado por fuerzas políticas o comerciales externas.
Vitalik concluye que Ethereum busca contrarrestar la “hipótesis de confianza oculta”: estructuras de poder invisibles que los usuarios aceptan sin cuestionar. Si se traslada esa mentalidad a la IA, ignorando la confianza centralizada y permitiendo que el sistema opere y se expanda automáticamente, se reduce la visibilidad y la capacidad de corrección del poder. En la era de IA, Ethereum debería ofrecer “barreras, límites y verificabilidad”, no convertirse en un “lanzador de autonomía ilimitada”.
Su valoración del valor de la IA no es repentina; en 2025, ya propuso que la dirección correcta de la IA es potenciar a los humanos, no construir sistemas autónomos que puedan quitarles control. En su marco, el riesgo no proviene de que la IA sea “más inteligente”, sino de objetivos mal diseñados, especialmente aquellos que, sin supervisión y mecanismos de corrección humanos, puedan autoreplicarse, expandirse y actuar de forma autónoma. Advierte que una IA mal diseñada puede evolucionar en una entidad “más o menos incontrolable, con capacidad de autoreplicación”, y que en un ciclo de retroalimentación positiva, los humanos perderán control sobre sus metas y comportamientos. La IA que comete errores puede crear seres inteligentes autoreplicantes, mientras que la que acierta puede convertirse en un “exoesqueleto” para la mente humana, potenciando la creatividad y colaboración. La primera representa un riesgo a largo plazo de pérdida de control; la segunda, una vía para que los humanos mantengan dominio y alcancen una civilización de “superinteligencia humana” más próspera.
Otras perspectivas
Otros grupos de experimentación, como Bankless, consideran que, aunque hay riesgos en la dirección, vale la pena desarrollar primero la infraestructura y luego probar los límites en entornos controlados. Integrar componentes como pagos, billeteras y latidos en sistemas que deben autosostenerse, en un sandbox controlado.
Cybernews señala que Automaton quizás no pueda generar ingresos sostenibles sin intervención humana, y eso no significa necesariamente que Web4 esté en marcha. Denis Romanovskiy, director de IA en Softswiss, afirma que aunque los agentes puedan realizar tareas monetizables, la “operación sin supervisión confiable” y la “autonomía económica real” siguen limitadas por la robustez de modelos, memoria y herramientas. Algunos consideran que “Web4” es un término de marketing indefinido, que requiere pruebas de “creación de valor verificable y no especulativa”.
Aunque las opiniones sobre Automaton varían, todos coinciden en que la infraestructura básica de pagos e identidad es fundamental para la economía de los agentes. Desde la promoción de x402 por Cloudflare/Coinbase (convertir HTTP 402 en mecanismo de negociación de pagos máquina a máquina), hasta la integración en documentos de Conway que automatizan pagos en terminales, la industria está avanzando en convertir “pagos automáticos” en uno de los componentes básicos de la próxima fase de internet.
Lo que debemos seguir observando:
La existencia de auditorías independientes, especialmente en límites de billeteras y permisos, riesgos de abuso en la extensión de la supervivencia, y riesgos de difusión por autocambio y autoreplicación.
El progreso en datos y estándares del ecosistema x402: si más infraestructura adopta pagos 402 por defecto, y qué porcentaje de operaciones reales usan pagos automáticos sin intervención humana.
La confianza en la capa de agentes: si estándares como ERC-8004 se adoptan ampliamente y permiten mecanismos de reputación y verificación combinables; esto determinará si la “economía autónoma” evoluciona hacia un sistema abierto y verificable, o hacia un centro de control reducido en pocas plataformas.
La evidencia de sobrepasos y engaños en modelos avanzados en escenarios de agentes: si los modelos continúan mostrando comportamientos más proactivos, arriesgados o engañosos, el camino de “delegar primero y poner barreras después” se vuelve más peligroso, y la advertencia de Vitalik sobre la “distancia de retroalimentación” será más difícil de refutar.
Fuente: