Informe de investigación: Examinando cómo SCP y AO influyen en el mundo on-chain a partir de los primeros principios

Avanzado1/15/2025, 11:37:32 AM
Este artículo explorará en profundidad el concepto y el diseño arquitectónico de AO, analizando cómo aborda los desafíos enfrentados por las blockchains públicas existentes como Ethereum, y finalmente brindando nuevas oportunidades de desarrollo a Web3.

Puntos clave:

  1. Desde Bitcoin hasta Ethereum, ¿cómo podemos encontrar el camino óptimo para superar las limitaciones de rendimiento y escenarios?
  2. Comenzando desde los primeros principios, ¿cuál es la clave para superar el ruido de los memes del mercado e identificar las necesidades fundamentales de la cadena de bloques?
  3. ¿Qué tipo de magia poseen los principios de innovación disruptiva SCP y AO (Actor Oriented) (separando el almacenamiento y la computación) que puede permitir a Web3 realmente desatar su potencial?
  4. ¿Los resultados de ejecutar programas deterministas en datos inmutables serán únicos y confiables?
  5. En esta narrativa, ¿por qué SCP y AO (Actor Oriented) pueden convertirse en un rendimiento infinito, datos confiables y guerreros hexagonales componibles?

Introducción

[Data source: precio BTC]

Desde el nacimiento de la cadena de bloques en 2009, han pasado más de 15 años. Como un cambio de paradigma en la tecnología digital, registra valores digitales y de red, haciendo que la criptomoneda sea una nueva innovación en el paradigma capitalista.

Como el primogénito, Bitcoin está listo para convertirse en un activo de reserva estratégica. En la conferencia de Bitcoin de 2024, Trump hizo un compromiso, afirmando que si regresa a la Casa Blanca, se asegurará de que el gobierno retenga el 100% de sus tenencias de Bitcoin y lo designe como un activo de reserva estratégica para los EE.UU.

Después de la victoria electoral de Trump, Bitcoin se disparó un 150%, alcanzando su punto máximo en $107,287.

La victoria de Trump es claramente más favorable para la industria de las criptomonedas, ya que ha expresado repetidamente un fuerte apoyo a las criptomonedas.

Sin embargo, a corto plazo, la alta sensibilidad de las criptomonedas a los resultados electorales podría generar picos de volatilidad en el mercado a corto plazo. ¿Será sostenible este fuerte impulso al alza? El autor cree que solo eliminando la incertidumbre y mejorando la escalabilidad de la cadena de bloques se puede abrir un nuevo 'mar Rojo'.

Las sombras detrás del auge de 'Web3' después de las elecciones en EE. UU.

[Data source: DefiLlama]

Bajo el foco, el TVL (Total Value Locked) de Ethereum, la segunda criptomoneda más grande por capitalización de mercado, ha permanecido estancado desde alcanzar su pico histórico en 2021.

Incluso en el tercer trimestre de 2024, los ingresos de las finanzas descentralizadas (DeFi) de Ethereum cayeron a 261 millones de dólares, el nivel más bajo desde el cuarto trimestre de 2020.

A primera vista, puede haber picos ocasionales, pero la tendencia general muestra una desaceleración en la actividad DeFi en la red Ethereum.

Además, el mercado ha visto el surgimiento de ecosistemas de blockchain completamente alternativos, como el recientemente popular hyperliquid, una cadena de trading basada en un modelo de libro de órdenes. Sus datos han experimentado un crecimiento rápido, con una capitalización de mercado que se disparó hasta el top 50 en solo dos semanas. Se espera que genere ingresos anuales que se sitúen justo por debajo de Ethereum, Solana y Tron entre todas las blockchains. Esto destaca indirectamente el agotamiento de las finanzas descentralizadas tradicionales en Ethereum, basadas en la arquitectura AMM.

[Data source:Volumen de negociación de Compound]

[Data source:Volumen de negociación de Uniswap]

DeFi fue una vez el punto clave del ecosistema Ethereum, pero debido a la reducción de las tarifas de transacción y la actividad de los usuarios, sus ingresos han disminuido significativamente.

Como respuesta, el autor intenta contemplar las razones detrás de los dilemas actuales enfrentados por Ethereum, o toda la cadena de bloques, y cómo superarlos.

Casualmente, con el exitoso quinto vuelo de prueba de SpaceX, SpaceX ha surgido como una estrella en ascenso en la exploración espacial comercial. Al mirar hacia atrás en el camino de desarrollo de SpaceX, su éxito se puede atribuir a una metodología clave: los primeros principios. (Consejo: El concepto de los primeros principios fue introducido por primera vez por el antiguo filósofo griego Aristóteles hace más de 2.300 años. Él describió los primeros principios como "las proposiciones o suposiciones más básicas en cada exploración del sistema, que no pueden ser omitidas, borradas o violadas.")

Ahora, también apliquemos el método de primeros principios, despegando la capa de niebla capa por capa, para explorar los “átomos” fundamentales de la industria blockchain. Desde una perspectiva fundamental, reexaminaremos los dilemas y oportunidades actuales que enfrenta esta industria.

¿Es el "servicio en la nube" de Web3 un paso atrás o el futuro?

¿Es el "Servicio en la nube" de Web3 un paso atrás o el futuro?

Cuando se introdujo el concepto de AO (Actor Oriented), atrajo una amplia atención. En el contexto de la creciente homogeneidad de las blockchains públicas basadas en EVM, AO, como un diseño arquitectónico disruptivo, ha mostrado un atractivo único.

Esto no es meramente un concepto teórico, sino que un equipo ya lo está poniendo en práctica.

Como se mencionó anteriormente, el mayor valor de la cadena de bloques radica en registrar el valor digital. Desde esta perspectiva, sirve como un libro mayor público globalmente transparente. Basado en esta esencia, se puede argumentar que el primer principio de la cadena de bloques es el 'almacenamiento'.

AO se realiza a través de un paradigma de consenso (SCP) basado en almacenamiento. Siempre que el almacenamiento permanezca inmutable, no importa dónde ocurra el cálculo, se puede garantizar que el resultado tenga consenso. Ha nacido el ordenador global AO, permitiendo la interconexión y colaboración de computación paralela a gran escala.

Mirando hacia atrás en 2024, uno de los eventos más destacados en el espacio Web3 fue la explosión del ecosistema de inscripción, que puede considerarse como una práctica temprana de la separación de almacenamiento y computación. Por ejemplo, la tecnología de grabado utilizada por el protocolo Runes permite incrustar pequeñas cantidades de datos en transacciones de Bitcoin. Si bien estos datos no afectan la función principal de la transacción, sirven como información adicional, formando una salida clara, verificable y no consumible.

Aunque algunos observadores técnicos inicialmente expresaron preocupaciones sobre la seguridad de las inscripciones de Bitcoin, temiendo que pudieran convertirse en puntos de entrada potenciales para ataques a la red,

En los últimos dos años, ha almacenado completamente los datos on-chain, y no se han producido bifurcaciones del blockchain hasta la fecha. Esta estabilidad demuestra una vez más que siempre y cuando los datos almacenados no sean manipulados, no importa dónde ocurra el cálculo, se puede garantizar la consistencia y seguridad de los datos.

Quizás te darás cuenta de que esto es casi idéntico a los servicios en la nube tradicionales. Por ejemplo:

En cuanto a la gestión de recursos computacionales, en la arquitectura AO, un 'Actor' es una entidad informática independiente, y cada unidad de cálculo puede ejecutar su propio entorno. ¿No se asemeja esto a los microservicios y Docker en los servidores en la nube tradicionales? De manera similar, los servicios en la nube tradicionales dependen de S3 o NFS para el almacenamiento, mientras que AO depende de Arweave.

Sin embargo, simplemente reducir AO a una 'idea vieja recalentada' sería inexacto. Aunque AO toma prestados algunos conceptos de diseño de los servicios en la nube tradicionales, su núcleo radica en combinar almacenamiento descentralizado con computación distribuida. Arweave, como una red de almacenamiento descentralizada, difiere fundamentalmente del almacenamiento centralizado tradicional. Esta característica descentralizada proporciona a los datos de Web3 una mayor seguridad y resistencia a la censura.

Más importante aún, la combinación de AO y Arweave no es solo una simple pila técnica; crea un nuevo paradigma. Este paradigma combina las ventajas de rendimiento de la informática distribuida con la confiabilidad del almacenamiento descentralizado, proporcionando una base sólida para la innovación y el desarrollo de aplicaciones Web3. Específicamente, esta combinación se refleja en los siguientes dos aspectos:

  1. Logrando un diseño completamente descentralizado en el sistema de almacenamiento mientras se garantiza el rendimiento a través de una arquitectura distribuida.
  2. Esta combinación no solo resuelve algunos desafíos fundamentales en el espacio Web3 (como seguridad de almacenamiento y apertura) sino que también proporciona la base técnica para futuras innovaciones potencialmente ilimitadas y composición.

A continuación se explorará en profundidad el concepto y el diseño arquitectónico de AO y se analizará cómo aborda los dilemas a los que se enfrentan las blockchains públicas existentes como Ethereum, brindando en última instancia nuevas oportunidades de desarrollo para Web3.

Viendo el dilema actual de Web3 desde la perspectiva 'atómica'

Desde que Ethereum surgió con contratos inteligentes, sin duda se ha convertido en la fuerza dominante.

Algunos pueden preguntar, ¿no está Bitcoin? Sin embargo, es importante tener en cuenta que Bitcoin fue creado como un reemplazo de las monedas tradicionales, con el objetivo de convertirse en un sistema de efectivo descentralizado y digital. Ethereum, por otro lado, no es solo una criptomoneda; es una plataforma que permite la creación y ejecución de contratos inteligentes y aplicaciones descentralizadas (DApps).

En general, Bitcoin es una alternativa digital al dinero tradicional, con un precio alto pero no necesariamente un valor alto. Ethereum, sin embargo, se parece más a una plataforma de código abierto, que ofrece más valor prospectivo en términos de riqueza, y representa mejor la visión conceptual actual de un mundo abierto Web3.

Desde 2017, muchos proyectos han intentado desafiar a Ethereum, pero muy pocos han perdurado. El rendimiento de Ethereum ha sido objeto de críticas durante mucho tiempo, lo que ha llevado al surgimiento de soluciones de Capa 2. Sin embargo, el aparentemente próspero crecimiento de la Capa 2 es en realidad una lucha desesperada ante la adversidad. A medida que la competencia se intensifica, han surgido gradualmente una serie de problemas que se han convertido en serias limitaciones para el desarrollo de Web3:

Hay un límite superior para el rendimiento y la experiencia del usuario sigue siendo pobre

[Data source:DeFiLlama]

[Fuente de datos:L2 BEAT]

Recientemente, cada vez más personas creen que el plan de escalado de la Capa 2 (L2) de Ethereum ha fracasado.

Inicialmente, L2 se consideraba una continuación importante de la subcultura de Ethereum en su estrategia de escalabilidad. También se apoyaba en la expectativa de que L2 reduciría las comisiones de gas y mejoraría el rendimiento, lo que llevaría a un crecimiento tanto en el número de usuarios como en el volumen de transacciones. Sin embargo, a pesar de la reducción en las comisiones de gas, el crecimiento esperado en el número de usuarios no se materializó.

De hecho, ¿es L2 realmente culpable del fracaso del plan de escalado? Claramente, L2 es solo un chivo expiatorio. Si bien tiene cierta responsabilidad, la principal responsabilidad recae en el propio Ethereum. Además, este resultado es un resultado inevitable de los problemas de diseño subyacentes de la mayoría de las cadenas Web3 actuales.

Para explicar esto desde una perspectiva “atómica”, L2 es responsable de la computación, mientras que Ethereum se encarga del “almacenamiento” fundamental de la cadena de bloques. Para garantizar suficiente seguridad, Ethereum debe almacenar datos y lograr consenso.

Sin embargo, el diseño de Ethereum evita posibles bucles infinitos durante la ejecución, lo que podría hacer que toda la plataforma se detenga. Por lo tanto, cualquier ejecución de contrato inteligente dada está limitada a un número finito de pasos de computación.

Esto lleva a la paradoja de que L2 está diseñado para tener un rendimiento infinito, pero en realidad, las limitaciones de la cadena principal imponen un límite a ello.

El efecto cuello de botella dicta que L2 tiene un límite superior.

Para una comprensión más detallada del mecanismo, los lectores pueden explorar más leyendo:“De DeFi tradicional a AgentFi: explorando el futuro de las finanzas descentralizadas.”

El Atractivo Limitado de los Casos de Uso Actuales

El logro más destacado de Ethereum es el próspero ecosistema de aplicaciones, donde se desarrollan diversas aplicaciones descentralizadas (DApps).

Sin embargo, ¿es el ecosistema realmente tan vibrante y diverso como parece?

Claramente, la respuesta es no. Detrás del próspero ecosistema de aplicaciones de Ethereum se encuentra un entorno con una fuerte financiarización, con una significativa falta de aplicaciones no financieras maduras.

Echemos un vistazo a los sectores de aplicación más prósperos en Ethereum:

En primer lugar, conceptos como NFT, DeFi, GameFi y SocialFi, aunque innovadores en términos financieros, aún no son adecuados para el público en general. La razón por la que Web2 creció tan rápidamente radica en su funcionalidad, que está estrechamente relacionada con la vida diaria de las personas.

En comparación con los productos y servicios financieros, los usuarios comunes están más preocupados por funcionalidades como el envío de mensajes, socializar, la transmisión de vídeo y el comercio electrónico.

En segundo lugar, desde un punto de vista competitivo, el préstamo de crédito en las finanzas tradicionales es un producto muy común y generalizado. Sin embargo, en el espacio DeFi, este tipo de producto aún es bastante raro. La razón principal es la falta actual de un sistema de crédito en la cadena efectivo.

Construir un sistema de crédito requiere permitir a los usuarios ser realmente dueños de sus perfiles personales en línea y sus gráficos sociales, que pueden trascender a través de diferentes aplicaciones.

Solo cuando esta información descentralizada pueda almacenarse y transmitirse sin costo alguno, será posible construir un potente gráfico de información personal Web3 y un sistema de aplicaciones Web3 basado en crédito.

Aquí reafirmamos un tema clave: el fracaso de la Capa 2 (L2) para atraer a un número significativo de usuarios no es culpa suya. L2 nunca fue la fuerza impulsora principal. La verdadera forma de superar el dilema de Web3 es innovar nuevos escenarios de aplicación que atraigan a los usuarios.

Sin embargo, la situación actual es como estar atrapado en el tráfico de vacaciones, a pesar de las muchas ideas innovadoras, es difícil hacerlas avanzar debido a las limitaciones del rendimiento de las transacciones.

La esencia de la cadena de bloques es el “almacenamiento”. Cuando el almacenamiento y el cálculo están acoplados, se vuelve menos “atómico”. En un diseño tan inauténtico, inevitablemente habrá un techo de rendimiento.

Algunos puntos de vista definen la esencia del blockchain como una plataforma de transacciones, un sistema de moneda, o destacando la transparencia y el anonimato. Sin embargo, estas perspectivas pasan por alto las características fundamentales del blockchain como una estructura de datos y su potencial de aplicación más amplio. El blockchain no es solo para transacciones financieras; su arquitectura le permite abarcar múltiples industrias, como la gestión de la cadena de suministro, los registros médicos y incluso la gestión de derechos de autor.

Por lo tanto, la esencia de la cadena de bloques radica en su capacidad para funcionar como un sistema de almacenamiento. Esto no se debe sólo a que puede almacenar datos de forma segura, sino porque garantiza la integridad y transparencia de los datos mediante un mecanismo de consenso distribuido. Una vez que se añade un bloque a la cadena, es casi imposible alterarlo o eliminarlo.

Infraestructura Atómica: AO hace posible un rendimiento infinito

[Data source:L2 TPS]

La arquitectura básica de la cadena de bloques enfrenta un claro cuello de botella: la limitación del espacio de bloque. Es como un libro mayor de tamaño fijo en el que cada transacción y entrada de datos debe registrarse dentro de un bloque. Tanto Ethereum como otras cadenas de bloques están limitados por los límites de tamaño de bloque, lo que lleva a una competencia por el espacio entre las transacciones. Esto plantea una pregunta clave: ¿podemos superar esta limitación? ¿El espacio del bloque siempre tiene que ser limitado? ¿Existe una forma de lograr una escalabilidad verdaderamente infinita?

Si bien la solución L2 de Ethereum ha tenido éxito en la escalabilidad de rendimiento, solo se puede considerar un éxito parcial. L2 ha aumentado el rendimiento en varios órdenes de magnitud, lo que podría ser suficiente para manejar cargas de transacciones pico para proyectos individuales. Sin embargo, para la mayoría de las soluciones L2 que dependen del almacenamiento y la seguridad del consenso de la cadena principal, este nivel de escalabilidad está lejos de ser adecuado.

Es importante tener en cuenta que el TPS (transacciones por segundo) de L2 no puede aumentarse infinitamente, principalmente debido a los siguientes factores limitantes: disponibilidad de datos, velocidad de liquidación, costos de verificación, ancho de banda de la red y complejidad del contrato. Aunque los Rollups han optimizado las necesidades de almacenamiento y computación en la Capa 1 (L1) a través de la compresión y validación, todavía requieren que los datos se envíen y verifiquen en L1, por lo que están limitados por el ancho de banda de L1 y el tiempo de bloque. Además, los costos computacionales, como la generación de pruebas de conocimiento cero, los cuellos de botella del rendimiento del nodo y los requisitos de ejecución de contratos complejos, también limitan la escalabilidad de L2.

[Data source:suiscan TPS]

El verdadero desafío para Web3 radica en la limitada capacidad de procesamiento y la insuficiencia de aplicaciones, lo que dificulta atraer a nuevos usuarios y conlleva el riesgo de perder influencia.

En términos simples, mejorar el rendimiento es la clave para un futuro brillante para Web3. Lograr una red con escalabilidad infinita y alto rendimiento es su visión. Por ejemplo, Sui utiliza procesamiento paralelo determinista, arreglando las transacciones de antemano para evitar conflictos, mejorando así la predictibilidad y escalabilidad. Este diseño permite a Sui manejar más de 10,000 transacciones por segundo (TPS). Además, la arquitectura de Sui permite aumentar el rendimiento agregando más nodos validadores, logrando teóricamente escalabilidad infinita. Su uso de los protocolos Narwhal y Tusk minimiza la latencia, permitiendo un procesamiento eficiente de transacciones paralelas y superando los cuellos de botella de escalabilidad de las soluciones tradicionales de Capa 2.

El concepto de AO que discutimos sigue un camino similar, centrándose en diferentes aspectos pero apuntando a construir un sistema de almacenamiento escalable.

Web3 requiere una nueva infraestructura construida sobre principios fundamentales, con el almacenamiento como su núcleo. Al igual que Elon Musk repensó los lanzamientos de cohetes y los vehículos eléctricos desde principios fundamentales, rediseñando estas tecnologías complejas para interrumpir industrias, el diseño de AO también refleja este enfoque. Al desacoplar la computación del almacenamiento, AO abandona los marcos tradicionales de blockchain, creando bases de almacenamiento Web3 orientadas al futuro y impulsando Web3 hacia la visión de servicios en la nube descentralizados.

Paradigma de Consenso de Almacenamiento (SCP)

Antes de presentar AO, debemos hablar sobre un paradigma de diseño relativamente novedoso llamado SCP.

Si bien SCP puede ser desconocido para muchos, la mayoría de las personas han oído hablar de las inscripciones de Bitcoin. En términos generales, el concepto de diseño detrás de las inscripciones puede considerarse una forma de pensamiento unitario de almacenamiento como "atómica", aunque con algunas desviaciones. Interesantemente Vitalik también ha expresado interés en convertirse en la 'cinta de papel' para Web3, que se alinea con la filosofía detrás de SCP.

En el modelo de Ethereum, la computación se realiza mediante nodos completos, almacenados globalmente y disponibles para consultas. Este enfoque convierte a Ethereum en una 'computadora mundial', pero que opera como un programa de un solo hilo, ejecutando pasos de forma secuencial. Esta ineficiencia inherente también crea un terreno fértil para el MEV (Valor Extraíble Máximo). Las firmas de transacción ingresan al mempool de Ethereum, se transmiten públicamente y se ordenan por los mineros, generalmente dentro de 12 segundos. Sin embargo, esta breve ventana es suficiente para que los 'buscadores' intercepten, simulen e incluso ingenien estrategias potenciales. Más sobre este tema se puede explorar en "El panorama de MEV un año después de la fusión de Ethereum."

SCP, por otro lado, separa la computación del almacenamiento. Este concepto puede sonar abstracto, así que usemos una analogía de Web2.

En escenarios Web2 como mensajería o compras en línea, el tráfico pico puede causar aumentos repentinos que una sola máquina no puede manejar. Los ingenieros abordaron esto distribuyendo tareas computacionales entre máquinas múltiples, sincronizando y almacenando sus resultados para gestionar el tráfico de forma elástica. De manera similar, SCP distribuye la computación entre nodos. A diferencia de los sistemas tradicionales que utilizan bases de datos como MySQL, SCP depende de las mainnets de blockchain para el almacenamiento.

En términos simples, SCP aprovecha la cadena de bloques para el almacenamiento de datos mientras que los servidores fuera de la cadena se encargan de la computación y la generación de estados. Esta arquitectura garantiza la confiabilidad de los datos al mismo tiempo que permite una red de alto rendimiento y capas separada de la cadena de bloques subyacente.

En SCP, el blockchain sirve únicamente como un medio de almacenamiento, mientras que los clientes o servidores externos realizan todos los cálculos y gestionan los estados resultantes. Este diseño mejora significativamente la escalabilidad y el rendimiento. Sin embargo, plantea una pregunta clave: ¿Se puede garantizar la integridad y seguridad de los datos cuando se separan los cálculos y el almacenamiento?

Esencialmente, blockchain actúa como una solución de almacenamiento, con la computación descargada en servidores. A diferencia de los mecanismos de consenso de blockchain tradicionales, SCP mueve el consenso fuera de la cadena.

Ventajas de este enfoque

Sin procesos de consenso complejos, cada servidor se centra exclusivamente en sus tareas computacionales, lo que permite un procesamiento de transacciones casi infinito y costos operativos reducidos.

Si bien es similar a las soluciones actuales de escalabilidad de rollup, la ambición de SCP va más allá. Su objetivo no solo es resolver la escalabilidad de blockchain, sino también ofrecer un camino transformador de Web2 a Web3.

¿Cuáles son las ventajas de SCP? SCP desacopla la computación del almacenamiento. Este diseño no solo mejora la flexibilidad y composabilidad del sistema, sino que también reduce las barreras de desarrollo, superando eficazmente las limitaciones de rendimiento de las blockchains tradicionales mientras garantiza la confiabilidad de los datos. Estas innovaciones hacen de SCP una infraestructura eficiente y escalable que potencia el futuro ecosistema descentralizado.

  1. Composabilidad:SCP coloca la computación fuera de la cadena, preservando la naturaleza fundamental de la cadena de bloques y manteniendo sus atributos “atómicos”. Con la computación fuera de la cadena y la cadena de bloques siendo la única responsable del almacenamiento, cualquier contrato inteligente puede ser ejecutado. La migración de aplicaciones basada en SCP se vuelve extremadamente simple, lo cual es una ventaja crucial.
  2. Barreras bajas de desarrollo:La computación fuera de la cadena permite a los desarrolladores utilizar cualquier lenguaje de programación, ya sea C++, Python o Rust, sin necesidad de usar Solidity para el EVM. El único costo al que pueden enfrentarse los desarrolladores es el costo de interacción de la API con la cadena de bloques.
  3. Sin restricciones de rendimiento: La computación fuera de la cadena alinea las capacidades computacionales con las aplicaciones tradicionales. El límite de rendimiento depende de las capacidades de hardware de los servidores de cálculo. Dado que el escalado elástico de los recursos informáticos tradicionales es una tecnología madura, la capacidad de cálculo es efectivamente ilimitada, a excepción de los costos de la máquina.
  4. Datos confiables:Dado que la función principal de "almacenamiento" es manejada por la cadena de bloques, todos los datos son inmutables y rastreables. Cualquier nodo puede recuperar y volver a calcular los datos cuando se cuestiona la validez de los resultados del estado, asegurando que la cadena de bloques dote a los datos de confiabilidad.

Bitcoin abordó el "Problema de los Generales Bizantinos" al introducir PoW, un enfoque innovador ideado por Satoshi Nakamoto dentro de las limitaciones de la época, lo que finalmente llevó al éxito de Bitcoin.

De manera similar, al abordar el cálculo de contratos inteligentes, partir de los principios básicos podría resultar en una solución aparentemente contraintuitiva. Sin embargo, al descentralizar audazmente las funciones computacionales y devolver a la cadena de bloques a su esencia fundamental, se descubrirá que se logra un consenso de almacenamiento al tiempo que se satisfacen los requisitos de apertura y verificabilidad de los datos. Este enfoque ofrece un rendimiento comparable al de Web2, encarnando la esencia de SCP.

Integración de SCP y AO: rompiendo las limitaciones

Después de toda esta discusión, finalmente llegamos a AO.

En primer lugar, AO adopta un patrón de diseño conocido como el Modelo de Actores, que fue implementado inicialmente en el lenguaje de programación Erlang.

La arquitectura y la tecnología detrás de AO se construyen sobre el paradigma SCP, separando la capa de computación de la capa de almacenamiento. Esto permite que la capa de almacenamiento permanezca permanentemente descentralizada, mientras que la capa de computación retiene la estructura de la computación tradicional.

Los recursos computacionales de AO se asemejan a los de los modelos informáticos tradicionales, pero incorporan una capa de almacenamiento permanente, lo que permite procesos informáticos rastreables y descentralizados.

En este punto, puede preguntarse: ¿qué cadena principal utiliza AO para su capa de almacenamiento?

Claramente, usar Bitcoin o Ethereum para la capa de almacenamiento sería impracticable. Las razones de esto ya se han discutido anteriormente y es probable que los lectores lo comprendan fácilmente. En AO, el almacenamiento de datos y la verificabilidad final son manejados en última instancia por Arweave.

¿Por qué elegir Arweave entre las muchas soluciones de almacenamiento descentralizado?

La elección de Arweave como capa de almacenamiento se basa principalmente en su enfoque único en el almacenamiento permanente de datos dentro de una red descentralizada. Arweave se posiciona como un 'disco duro global donde los datos nunca se pierden', a diferencia del 'libro mayor global' de Bitcoin y la 'computadora global' de Ethereum. Esencialmente, Arweave funciona como un disco duro global diseñado para no perder datos.

Para obtener más detalles técnicos sobre Arweave, consulte: “Comprendiendo Arweave: Una Infraestructura Clave de Web3

A continuación, nos centraremos en discutir los principios y tecnologías de AO para comprender cómo AO logra una computación infinita?

[Data source: Cómo funciona Messenger | Manual]

El núcleo de AO es construir una capa de computación que sea infinitamente escalable e independiente del entorno. Los nodos de AO colaboran en base a protocolos y mecanismos de comunicación, asegurando que cada nodo proporcione un servicio óptimo para evitar el consumo competitivo.

Primero, entendamos la arquitectura básica de AO. AO consta de procesos y mensajes, así como de unidades de programación (SU), unidades de cómputo (CU) y unidades de mensajería (MU):

  • Proceso:La unidad de cómputo de los nodos en la red, utilizada para el procesamiento de datos y mensajes. Por ejemplo, cada contrato podría ser un proceso.
  • Mensaje:Los procesos interactúan a través de mensajes, siendo que cada mensaje cumple con el estándar ANS-104. Todo el sistema AO debe seguir este estándar.
  • Unidad de programación (SU):Responsable de numerar los mensajes de los procesos, permitiendo que los procesos se ordenen y cargando los mensajes en Arweave.
  • Unidad de cálculo (CU): El nodo de estado dentro de un proceso AO, responsable de ejecutar tareas de computación y devolver los resultados calculados y las firmas al SU, garantizando la corrección y verificabilidad de los resultados.
  • Unidad de Mensajería (MU):El componente de enrutamiento en el nodo, responsable de entregar mensajes de usuario al SU y realizar verificaciones de integridad en los datos firmados.

Es importante tener en cuenta que AO no tiene estados compartidos, sino estados holográficos. El consenso en AO surge de la teoría de juegos. Dado que cada cálculo genera un estado que se carga en Arweave, esto garantiza la verificabilidad de los datos. Cuando los usuarios tienen dudas sobre ciertos datos, pueden solicitar a uno o más nodos que calculen los datos en Arweave. Si los resultados de la liquidación no coinciden, los nodos deshonestos serán penalizados.

Innovación de la Arquitectura AO: Almacenamiento y Estado Holográfico

La innovación de la arquitectura AO radica en sus mecanismos de almacenamiento y verificación de datos, que reemplazan los cálculos redundantes y el espacio limitado de los bloques típicos de las blockchains tradicionales utilizando almacenamiento descentralizado (Arweave) y estados holográficos.

  1. Estado holográfico: En la arquitectura AO, cada cálculo genera un "estado holográfico" que se carga a la red de almacenamiento descentralizado (Arweave). Este "estado holográfico" no es simplemente un simple registro de datos de transacciones; contiene el estado completo y los datos relevantes de cada cálculo. Esto significa que cada cálculo y su resultado se registran permanentemente y se pueden verificar en cualquier momento. El estado holográfico, como una "instantánea de datos," proporciona a la red una solución de almacenamiento de datos distribuida y descentralizada.
  2. Verificación de almacenamiento: en este modelo, la verificación de datos ya no depende de que cada nodo repita el cálculo para todas las transacciones. En su lugar, se realiza almacenando y comparando los datos cargados en Arweave para confirmar la validez de las transacciones. Cuando un resultado de cálculo de un nodo no coincide con los datos almacenados en Arweave, los usuarios u otros nodos pueden iniciar una solicitud de verificación. A continuación, la red volverá a calcular los datos y los comparará con el registro almacenado en Arweave. Si los resultados no coinciden, el nodo se penaliza, asegurando la integridad de la red.
  3. Superar la limitación del espacio de bloque: El espacio de bloque de la cadena de bloques tradicional está limitado por las limitaciones de almacenamiento, con cada bloque solo capaz de contener un número limitado de transacciones. Sin embargo, en la arquitectura de AO, los datos ya no se almacenan directamente dentro de los bloques; en su lugar, se cargan a una red de almacenamiento descentralizada (como Arweave). Esto significa que el almacenamiento y la verificación de datos en la red de blockchain ya no están limitados por el tamaño del espacio de bloque, sino que se descargan y se expanden a través del almacenamiento descentralizado. Como resultado, la capacidad del sistema de blockchain ya no está directamente limitada por el tamaño del bloque.

Las limitaciones de espacio de bloque de las cadenas de bloques tradicionales no son insuperables. La arquitectura AO, al depender del almacenamiento descentralizado y los estados holográficos, cambia la forma en que se maneja el almacenamiento y la verificación de datos, lo que hace posible lograr una escalabilidad ilimitada.

¿Depende el consenso de la computación redundante?

No necesariamente. Los mecanismos de consenso no tienen que depender de cálculos redundantes, y pueden implementarse de diversas formas. Las soluciones que dependen del almacenamiento en lugar de cálculos redundantes son factibles en ciertos escenarios, especialmente cuando la integridad y consistencia de los datos pueden ser garantizadas mediante verificación de almacenamiento.

En la arquitectura AO, el almacenamiento sirve como alternativa a la computación redundante. Al cargar los resultados computacionales en una red de almacenamiento descentralizada (Arweave en este caso), el sistema garantiza la inmutabilidad de los datos. Además, a través de la carga holográfica de estados, cualquier nodo puede verificar los resultados del cálculo en cualquier momento, lo que garantiza la coherencia y corrección de los datos. Este enfoque se basa en la confiabilidad del almacenamiento de datos en lugar de que cada nodo repita el cálculo.

Ahora, veamos las diferencias entre AO y ETH a través de una tabla:


Es fácil ver que las características principales de AO se pueden resumir en dos puntos clave:

  1. Computación en paralelo a gran escala: admite innumerables procesos que se ejecutan simultáneamente, mejorando significativamente la potencia computacional.
  2. Dependencia de confianza minimizada: No es necesario confiar en ningún nodo único, ya que todos los resultados computacionales pueden ser reproducidos infinitamente y rastreados.

Cómo AO rompe el punto muerto: Ethereum y los dilemas de las cadenas de bloques públicas

Para los dos principales dilemas a los que se enfrenta Ethereum: cuellos de botella de rendimiento y falta de aplicaciones, creo que aquí es exactamente donde brilla AO. Las razones son las siguientes:

  1. Basado en el paradigma SCP: Dado que AO separa la computación del almacenamiento, puede superar el modelo de computación única y de una sola vez de Ethereum. AO puede escalar de manera flexible a más recursos computacionales según la demanda. Además, el almacenamiento de estado holográfico de Arweave de registros de mensajes permite a AO garantizar el consenso reproduciendo los resultados de la computación, proporcionando seguridad que rivaliza con Ethereum y Bitcoin.
  2. Arquitectura de computación paralela basada en el paso de mensajes: las interacciones de procesos de AO no requieren competir por "locks". En el desarrollo de Web2, es bien sabido que los servicios de alto rendimiento evitan la contención de locks, ya que es muy costoso para los servicios eficientes. AO evita la contención de locks a través del paso de mensajes entre procesos, siguiendo este principio. Esto permite que su escalabilidad alcance cualquier tamaño.
  3. Arquitectura modular: la modularidad de AO se refleja en la separación de CU, SU y MU, lo que permite el uso de cualquier máquina virtual o secuenciador. Esto hace que la migración y el desarrollo de DApps desde diferentes cadenas sean extremadamente convenientes y rentables. Combinado con la eficiente capacidad de almacenamiento de Arweave, las DApps desarrolladas en AO pueden lograr funcionalidades más diversas. Por ejemplo, los gráficos de caracteres se pueden realizar fácilmente en AO.
  4. Apoyando la adaptabilidad de Web3 a varios requisitos normativos: Aunque la idea central de Web3 es la descentralización y la desregulación, las diferentes políticas en diferentes países inevitablemente tienen un impacto profundo en el desarrollo y la promoción de Web3. La arquitectura modular flexible de AO se puede adaptar a diferentes políticas regionales, asegurando en cierta medida la estabilidad y el desarrollo sostenible de las aplicaciones de Web3.

Resumen

La separación de la computación y el almacenamiento es un concepto brillante, y es un diseño sistemático basado en primeros principios.

Como una dirección narrativa similar a los 'servicios en la nube descentralizados', no solo proporciona un escenario de aterrizaje sólido, sino que también ofrece un espacio imaginativo más amplio para combinar con la IA.

De hecho, solo entendiendo realmente las necesidades fundamentales de la Web3 podremos liberarnos de los dilemas y limitaciones provocados por la dependencia de la ruta.

La integración de SCP y AO proporciona un enfoque completamente nuevo: hereda todas las características de SCP, ya no implementa contratos inteligentes en la cadena, sino que en su lugar almacena datos inmutables y rastreables en la cadena, logrando la confiabilidad de los datos que cualquiera puede verificar.

Por supuesto, actualmente no existe un camino absolutamente perfecto. AO todavía está en su etapa inicial de desarrollo. Cómo evitar que Web3 sea excesivamente financiado, crear suficientes escenarios de aplicación y brindar más posibilidades para el futuro todavía es un desafío en el camino hacia el éxito de AO. Si AO puede ofrecer una respuesta satisfactoria aún está por verse por el mercado y el tiempo.

La combinación de SCP y AO, como un paradigma de desarrollo lleno de potencial, aunque sus ideas aún no han sido ampliamente reconocidas en el mercado, se espera que AO juegue un papel importante en el campo de Web3 en el futuro, incluso impulsando el desarrollo adicional de Web3.

Descargo de responsabilidad:

  1. Este artículo es reproducido de [PermaDAO]. Todos los derechos de autor pertenecen al autor original [14]. Si hay objeciones a esta reimpresión, por favor contacte a la Gate Aprenderequipo, y ellos lo resolverán rápidamente.
  2. Descargo de responsabilidad de responsabilidad: Las opiniones expresadas en este artículo son únicamente las del autor y no constituyen ningún consejo de inversión.
  3. El equipo de Gate Learn realiza traducciones de los artículos a otros idiomas. A menos que se indique lo contrario, está prohibido copiar, distribuir o plagiar los artículos traducidos.

Informe de investigación: Examinando cómo SCP y AO influyen en el mundo on-chain a partir de los primeros principios

Avanzado1/15/2025, 11:37:32 AM
Este artículo explorará en profundidad el concepto y el diseño arquitectónico de AO, analizando cómo aborda los desafíos enfrentados por las blockchains públicas existentes como Ethereum, y finalmente brindando nuevas oportunidades de desarrollo a Web3.

Puntos clave:

  1. Desde Bitcoin hasta Ethereum, ¿cómo podemos encontrar el camino óptimo para superar las limitaciones de rendimiento y escenarios?
  2. Comenzando desde los primeros principios, ¿cuál es la clave para superar el ruido de los memes del mercado e identificar las necesidades fundamentales de la cadena de bloques?
  3. ¿Qué tipo de magia poseen los principios de innovación disruptiva SCP y AO (Actor Oriented) (separando el almacenamiento y la computación) que puede permitir a Web3 realmente desatar su potencial?
  4. ¿Los resultados de ejecutar programas deterministas en datos inmutables serán únicos y confiables?
  5. En esta narrativa, ¿por qué SCP y AO (Actor Oriented) pueden convertirse en un rendimiento infinito, datos confiables y guerreros hexagonales componibles?

Introducción

[Data source: precio BTC]

Desde el nacimiento de la cadena de bloques en 2009, han pasado más de 15 años. Como un cambio de paradigma en la tecnología digital, registra valores digitales y de red, haciendo que la criptomoneda sea una nueva innovación en el paradigma capitalista.

Como el primogénito, Bitcoin está listo para convertirse en un activo de reserva estratégica. En la conferencia de Bitcoin de 2024, Trump hizo un compromiso, afirmando que si regresa a la Casa Blanca, se asegurará de que el gobierno retenga el 100% de sus tenencias de Bitcoin y lo designe como un activo de reserva estratégica para los EE.UU.

Después de la victoria electoral de Trump, Bitcoin se disparó un 150%, alcanzando su punto máximo en $107,287.

La victoria de Trump es claramente más favorable para la industria de las criptomonedas, ya que ha expresado repetidamente un fuerte apoyo a las criptomonedas.

Sin embargo, a corto plazo, la alta sensibilidad de las criptomonedas a los resultados electorales podría generar picos de volatilidad en el mercado a corto plazo. ¿Será sostenible este fuerte impulso al alza? El autor cree que solo eliminando la incertidumbre y mejorando la escalabilidad de la cadena de bloques se puede abrir un nuevo 'mar Rojo'.

Las sombras detrás del auge de 'Web3' después de las elecciones en EE. UU.

[Data source: DefiLlama]

Bajo el foco, el TVL (Total Value Locked) de Ethereum, la segunda criptomoneda más grande por capitalización de mercado, ha permanecido estancado desde alcanzar su pico histórico en 2021.

Incluso en el tercer trimestre de 2024, los ingresos de las finanzas descentralizadas (DeFi) de Ethereum cayeron a 261 millones de dólares, el nivel más bajo desde el cuarto trimestre de 2020.

A primera vista, puede haber picos ocasionales, pero la tendencia general muestra una desaceleración en la actividad DeFi en la red Ethereum.

Además, el mercado ha visto el surgimiento de ecosistemas de blockchain completamente alternativos, como el recientemente popular hyperliquid, una cadena de trading basada en un modelo de libro de órdenes. Sus datos han experimentado un crecimiento rápido, con una capitalización de mercado que se disparó hasta el top 50 en solo dos semanas. Se espera que genere ingresos anuales que se sitúen justo por debajo de Ethereum, Solana y Tron entre todas las blockchains. Esto destaca indirectamente el agotamiento de las finanzas descentralizadas tradicionales en Ethereum, basadas en la arquitectura AMM.

[Data source:Volumen de negociación de Compound]

[Data source:Volumen de negociación de Uniswap]

DeFi fue una vez el punto clave del ecosistema Ethereum, pero debido a la reducción de las tarifas de transacción y la actividad de los usuarios, sus ingresos han disminuido significativamente.

Como respuesta, el autor intenta contemplar las razones detrás de los dilemas actuales enfrentados por Ethereum, o toda la cadena de bloques, y cómo superarlos.

Casualmente, con el exitoso quinto vuelo de prueba de SpaceX, SpaceX ha surgido como una estrella en ascenso en la exploración espacial comercial. Al mirar hacia atrás en el camino de desarrollo de SpaceX, su éxito se puede atribuir a una metodología clave: los primeros principios. (Consejo: El concepto de los primeros principios fue introducido por primera vez por el antiguo filósofo griego Aristóteles hace más de 2.300 años. Él describió los primeros principios como "las proposiciones o suposiciones más básicas en cada exploración del sistema, que no pueden ser omitidas, borradas o violadas.")

Ahora, también apliquemos el método de primeros principios, despegando la capa de niebla capa por capa, para explorar los “átomos” fundamentales de la industria blockchain. Desde una perspectiva fundamental, reexaminaremos los dilemas y oportunidades actuales que enfrenta esta industria.

¿Es el "servicio en la nube" de Web3 un paso atrás o el futuro?

¿Es el "Servicio en la nube" de Web3 un paso atrás o el futuro?

Cuando se introdujo el concepto de AO (Actor Oriented), atrajo una amplia atención. En el contexto de la creciente homogeneidad de las blockchains públicas basadas en EVM, AO, como un diseño arquitectónico disruptivo, ha mostrado un atractivo único.

Esto no es meramente un concepto teórico, sino que un equipo ya lo está poniendo en práctica.

Como se mencionó anteriormente, el mayor valor de la cadena de bloques radica en registrar el valor digital. Desde esta perspectiva, sirve como un libro mayor público globalmente transparente. Basado en esta esencia, se puede argumentar que el primer principio de la cadena de bloques es el 'almacenamiento'.

AO se realiza a través de un paradigma de consenso (SCP) basado en almacenamiento. Siempre que el almacenamiento permanezca inmutable, no importa dónde ocurra el cálculo, se puede garantizar que el resultado tenga consenso. Ha nacido el ordenador global AO, permitiendo la interconexión y colaboración de computación paralela a gran escala.

Mirando hacia atrás en 2024, uno de los eventos más destacados en el espacio Web3 fue la explosión del ecosistema de inscripción, que puede considerarse como una práctica temprana de la separación de almacenamiento y computación. Por ejemplo, la tecnología de grabado utilizada por el protocolo Runes permite incrustar pequeñas cantidades de datos en transacciones de Bitcoin. Si bien estos datos no afectan la función principal de la transacción, sirven como información adicional, formando una salida clara, verificable y no consumible.

Aunque algunos observadores técnicos inicialmente expresaron preocupaciones sobre la seguridad de las inscripciones de Bitcoin, temiendo que pudieran convertirse en puntos de entrada potenciales para ataques a la red,

En los últimos dos años, ha almacenado completamente los datos on-chain, y no se han producido bifurcaciones del blockchain hasta la fecha. Esta estabilidad demuestra una vez más que siempre y cuando los datos almacenados no sean manipulados, no importa dónde ocurra el cálculo, se puede garantizar la consistencia y seguridad de los datos.

Quizás te darás cuenta de que esto es casi idéntico a los servicios en la nube tradicionales. Por ejemplo:

En cuanto a la gestión de recursos computacionales, en la arquitectura AO, un 'Actor' es una entidad informática independiente, y cada unidad de cálculo puede ejecutar su propio entorno. ¿No se asemeja esto a los microservicios y Docker en los servidores en la nube tradicionales? De manera similar, los servicios en la nube tradicionales dependen de S3 o NFS para el almacenamiento, mientras que AO depende de Arweave.

Sin embargo, simplemente reducir AO a una 'idea vieja recalentada' sería inexacto. Aunque AO toma prestados algunos conceptos de diseño de los servicios en la nube tradicionales, su núcleo radica en combinar almacenamiento descentralizado con computación distribuida. Arweave, como una red de almacenamiento descentralizada, difiere fundamentalmente del almacenamiento centralizado tradicional. Esta característica descentralizada proporciona a los datos de Web3 una mayor seguridad y resistencia a la censura.

Más importante aún, la combinación de AO y Arweave no es solo una simple pila técnica; crea un nuevo paradigma. Este paradigma combina las ventajas de rendimiento de la informática distribuida con la confiabilidad del almacenamiento descentralizado, proporcionando una base sólida para la innovación y el desarrollo de aplicaciones Web3. Específicamente, esta combinación se refleja en los siguientes dos aspectos:

  1. Logrando un diseño completamente descentralizado en el sistema de almacenamiento mientras se garantiza el rendimiento a través de una arquitectura distribuida.
  2. Esta combinación no solo resuelve algunos desafíos fundamentales en el espacio Web3 (como seguridad de almacenamiento y apertura) sino que también proporciona la base técnica para futuras innovaciones potencialmente ilimitadas y composición.

A continuación se explorará en profundidad el concepto y el diseño arquitectónico de AO y se analizará cómo aborda los dilemas a los que se enfrentan las blockchains públicas existentes como Ethereum, brindando en última instancia nuevas oportunidades de desarrollo para Web3.

Viendo el dilema actual de Web3 desde la perspectiva 'atómica'

Desde que Ethereum surgió con contratos inteligentes, sin duda se ha convertido en la fuerza dominante.

Algunos pueden preguntar, ¿no está Bitcoin? Sin embargo, es importante tener en cuenta que Bitcoin fue creado como un reemplazo de las monedas tradicionales, con el objetivo de convertirse en un sistema de efectivo descentralizado y digital. Ethereum, por otro lado, no es solo una criptomoneda; es una plataforma que permite la creación y ejecución de contratos inteligentes y aplicaciones descentralizadas (DApps).

En general, Bitcoin es una alternativa digital al dinero tradicional, con un precio alto pero no necesariamente un valor alto. Ethereum, sin embargo, se parece más a una plataforma de código abierto, que ofrece más valor prospectivo en términos de riqueza, y representa mejor la visión conceptual actual de un mundo abierto Web3.

Desde 2017, muchos proyectos han intentado desafiar a Ethereum, pero muy pocos han perdurado. El rendimiento de Ethereum ha sido objeto de críticas durante mucho tiempo, lo que ha llevado al surgimiento de soluciones de Capa 2. Sin embargo, el aparentemente próspero crecimiento de la Capa 2 es en realidad una lucha desesperada ante la adversidad. A medida que la competencia se intensifica, han surgido gradualmente una serie de problemas que se han convertido en serias limitaciones para el desarrollo de Web3:

Hay un límite superior para el rendimiento y la experiencia del usuario sigue siendo pobre

[Data source:DeFiLlama]

[Fuente de datos:L2 BEAT]

Recientemente, cada vez más personas creen que el plan de escalado de la Capa 2 (L2) de Ethereum ha fracasado.

Inicialmente, L2 se consideraba una continuación importante de la subcultura de Ethereum en su estrategia de escalabilidad. También se apoyaba en la expectativa de que L2 reduciría las comisiones de gas y mejoraría el rendimiento, lo que llevaría a un crecimiento tanto en el número de usuarios como en el volumen de transacciones. Sin embargo, a pesar de la reducción en las comisiones de gas, el crecimiento esperado en el número de usuarios no se materializó.

De hecho, ¿es L2 realmente culpable del fracaso del plan de escalado? Claramente, L2 es solo un chivo expiatorio. Si bien tiene cierta responsabilidad, la principal responsabilidad recae en el propio Ethereum. Además, este resultado es un resultado inevitable de los problemas de diseño subyacentes de la mayoría de las cadenas Web3 actuales.

Para explicar esto desde una perspectiva “atómica”, L2 es responsable de la computación, mientras que Ethereum se encarga del “almacenamiento” fundamental de la cadena de bloques. Para garantizar suficiente seguridad, Ethereum debe almacenar datos y lograr consenso.

Sin embargo, el diseño de Ethereum evita posibles bucles infinitos durante la ejecución, lo que podría hacer que toda la plataforma se detenga. Por lo tanto, cualquier ejecución de contrato inteligente dada está limitada a un número finito de pasos de computación.

Esto lleva a la paradoja de que L2 está diseñado para tener un rendimiento infinito, pero en realidad, las limitaciones de la cadena principal imponen un límite a ello.

El efecto cuello de botella dicta que L2 tiene un límite superior.

Para una comprensión más detallada del mecanismo, los lectores pueden explorar más leyendo:“De DeFi tradicional a AgentFi: explorando el futuro de las finanzas descentralizadas.”

El Atractivo Limitado de los Casos de Uso Actuales

El logro más destacado de Ethereum es el próspero ecosistema de aplicaciones, donde se desarrollan diversas aplicaciones descentralizadas (DApps).

Sin embargo, ¿es el ecosistema realmente tan vibrante y diverso como parece?

Claramente, la respuesta es no. Detrás del próspero ecosistema de aplicaciones de Ethereum se encuentra un entorno con una fuerte financiarización, con una significativa falta de aplicaciones no financieras maduras.

Echemos un vistazo a los sectores de aplicación más prósperos en Ethereum:

En primer lugar, conceptos como NFT, DeFi, GameFi y SocialFi, aunque innovadores en términos financieros, aún no son adecuados para el público en general. La razón por la que Web2 creció tan rápidamente radica en su funcionalidad, que está estrechamente relacionada con la vida diaria de las personas.

En comparación con los productos y servicios financieros, los usuarios comunes están más preocupados por funcionalidades como el envío de mensajes, socializar, la transmisión de vídeo y el comercio electrónico.

En segundo lugar, desde un punto de vista competitivo, el préstamo de crédito en las finanzas tradicionales es un producto muy común y generalizado. Sin embargo, en el espacio DeFi, este tipo de producto aún es bastante raro. La razón principal es la falta actual de un sistema de crédito en la cadena efectivo.

Construir un sistema de crédito requiere permitir a los usuarios ser realmente dueños de sus perfiles personales en línea y sus gráficos sociales, que pueden trascender a través de diferentes aplicaciones.

Solo cuando esta información descentralizada pueda almacenarse y transmitirse sin costo alguno, será posible construir un potente gráfico de información personal Web3 y un sistema de aplicaciones Web3 basado en crédito.

Aquí reafirmamos un tema clave: el fracaso de la Capa 2 (L2) para atraer a un número significativo de usuarios no es culpa suya. L2 nunca fue la fuerza impulsora principal. La verdadera forma de superar el dilema de Web3 es innovar nuevos escenarios de aplicación que atraigan a los usuarios.

Sin embargo, la situación actual es como estar atrapado en el tráfico de vacaciones, a pesar de las muchas ideas innovadoras, es difícil hacerlas avanzar debido a las limitaciones del rendimiento de las transacciones.

La esencia de la cadena de bloques es el “almacenamiento”. Cuando el almacenamiento y el cálculo están acoplados, se vuelve menos “atómico”. En un diseño tan inauténtico, inevitablemente habrá un techo de rendimiento.

Algunos puntos de vista definen la esencia del blockchain como una plataforma de transacciones, un sistema de moneda, o destacando la transparencia y el anonimato. Sin embargo, estas perspectivas pasan por alto las características fundamentales del blockchain como una estructura de datos y su potencial de aplicación más amplio. El blockchain no es solo para transacciones financieras; su arquitectura le permite abarcar múltiples industrias, como la gestión de la cadena de suministro, los registros médicos y incluso la gestión de derechos de autor.

Por lo tanto, la esencia de la cadena de bloques radica en su capacidad para funcionar como un sistema de almacenamiento. Esto no se debe sólo a que puede almacenar datos de forma segura, sino porque garantiza la integridad y transparencia de los datos mediante un mecanismo de consenso distribuido. Una vez que se añade un bloque a la cadena, es casi imposible alterarlo o eliminarlo.

Infraestructura Atómica: AO hace posible un rendimiento infinito

[Data source:L2 TPS]

La arquitectura básica de la cadena de bloques enfrenta un claro cuello de botella: la limitación del espacio de bloque. Es como un libro mayor de tamaño fijo en el que cada transacción y entrada de datos debe registrarse dentro de un bloque. Tanto Ethereum como otras cadenas de bloques están limitados por los límites de tamaño de bloque, lo que lleva a una competencia por el espacio entre las transacciones. Esto plantea una pregunta clave: ¿podemos superar esta limitación? ¿El espacio del bloque siempre tiene que ser limitado? ¿Existe una forma de lograr una escalabilidad verdaderamente infinita?

Si bien la solución L2 de Ethereum ha tenido éxito en la escalabilidad de rendimiento, solo se puede considerar un éxito parcial. L2 ha aumentado el rendimiento en varios órdenes de magnitud, lo que podría ser suficiente para manejar cargas de transacciones pico para proyectos individuales. Sin embargo, para la mayoría de las soluciones L2 que dependen del almacenamiento y la seguridad del consenso de la cadena principal, este nivel de escalabilidad está lejos de ser adecuado.

Es importante tener en cuenta que el TPS (transacciones por segundo) de L2 no puede aumentarse infinitamente, principalmente debido a los siguientes factores limitantes: disponibilidad de datos, velocidad de liquidación, costos de verificación, ancho de banda de la red y complejidad del contrato. Aunque los Rollups han optimizado las necesidades de almacenamiento y computación en la Capa 1 (L1) a través de la compresión y validación, todavía requieren que los datos se envíen y verifiquen en L1, por lo que están limitados por el ancho de banda de L1 y el tiempo de bloque. Además, los costos computacionales, como la generación de pruebas de conocimiento cero, los cuellos de botella del rendimiento del nodo y los requisitos de ejecución de contratos complejos, también limitan la escalabilidad de L2.

[Data source:suiscan TPS]

El verdadero desafío para Web3 radica en la limitada capacidad de procesamiento y la insuficiencia de aplicaciones, lo que dificulta atraer a nuevos usuarios y conlleva el riesgo de perder influencia.

En términos simples, mejorar el rendimiento es la clave para un futuro brillante para Web3. Lograr una red con escalabilidad infinita y alto rendimiento es su visión. Por ejemplo, Sui utiliza procesamiento paralelo determinista, arreglando las transacciones de antemano para evitar conflictos, mejorando así la predictibilidad y escalabilidad. Este diseño permite a Sui manejar más de 10,000 transacciones por segundo (TPS). Además, la arquitectura de Sui permite aumentar el rendimiento agregando más nodos validadores, logrando teóricamente escalabilidad infinita. Su uso de los protocolos Narwhal y Tusk minimiza la latencia, permitiendo un procesamiento eficiente de transacciones paralelas y superando los cuellos de botella de escalabilidad de las soluciones tradicionales de Capa 2.

El concepto de AO que discutimos sigue un camino similar, centrándose en diferentes aspectos pero apuntando a construir un sistema de almacenamiento escalable.

Web3 requiere una nueva infraestructura construida sobre principios fundamentales, con el almacenamiento como su núcleo. Al igual que Elon Musk repensó los lanzamientos de cohetes y los vehículos eléctricos desde principios fundamentales, rediseñando estas tecnologías complejas para interrumpir industrias, el diseño de AO también refleja este enfoque. Al desacoplar la computación del almacenamiento, AO abandona los marcos tradicionales de blockchain, creando bases de almacenamiento Web3 orientadas al futuro y impulsando Web3 hacia la visión de servicios en la nube descentralizados.

Paradigma de Consenso de Almacenamiento (SCP)

Antes de presentar AO, debemos hablar sobre un paradigma de diseño relativamente novedoso llamado SCP.

Si bien SCP puede ser desconocido para muchos, la mayoría de las personas han oído hablar de las inscripciones de Bitcoin. En términos generales, el concepto de diseño detrás de las inscripciones puede considerarse una forma de pensamiento unitario de almacenamiento como "atómica", aunque con algunas desviaciones. Interesantemente Vitalik también ha expresado interés en convertirse en la 'cinta de papel' para Web3, que se alinea con la filosofía detrás de SCP.

En el modelo de Ethereum, la computación se realiza mediante nodos completos, almacenados globalmente y disponibles para consultas. Este enfoque convierte a Ethereum en una 'computadora mundial', pero que opera como un programa de un solo hilo, ejecutando pasos de forma secuencial. Esta ineficiencia inherente también crea un terreno fértil para el MEV (Valor Extraíble Máximo). Las firmas de transacción ingresan al mempool de Ethereum, se transmiten públicamente y se ordenan por los mineros, generalmente dentro de 12 segundos. Sin embargo, esta breve ventana es suficiente para que los 'buscadores' intercepten, simulen e incluso ingenien estrategias potenciales. Más sobre este tema se puede explorar en "El panorama de MEV un año después de la fusión de Ethereum."

SCP, por otro lado, separa la computación del almacenamiento. Este concepto puede sonar abstracto, así que usemos una analogía de Web2.

En escenarios Web2 como mensajería o compras en línea, el tráfico pico puede causar aumentos repentinos que una sola máquina no puede manejar. Los ingenieros abordaron esto distribuyendo tareas computacionales entre máquinas múltiples, sincronizando y almacenando sus resultados para gestionar el tráfico de forma elástica. De manera similar, SCP distribuye la computación entre nodos. A diferencia de los sistemas tradicionales que utilizan bases de datos como MySQL, SCP depende de las mainnets de blockchain para el almacenamiento.

En términos simples, SCP aprovecha la cadena de bloques para el almacenamiento de datos mientras que los servidores fuera de la cadena se encargan de la computación y la generación de estados. Esta arquitectura garantiza la confiabilidad de los datos al mismo tiempo que permite una red de alto rendimiento y capas separada de la cadena de bloques subyacente.

En SCP, el blockchain sirve únicamente como un medio de almacenamiento, mientras que los clientes o servidores externos realizan todos los cálculos y gestionan los estados resultantes. Este diseño mejora significativamente la escalabilidad y el rendimiento. Sin embargo, plantea una pregunta clave: ¿Se puede garantizar la integridad y seguridad de los datos cuando se separan los cálculos y el almacenamiento?

Esencialmente, blockchain actúa como una solución de almacenamiento, con la computación descargada en servidores. A diferencia de los mecanismos de consenso de blockchain tradicionales, SCP mueve el consenso fuera de la cadena.

Ventajas de este enfoque

Sin procesos de consenso complejos, cada servidor se centra exclusivamente en sus tareas computacionales, lo que permite un procesamiento de transacciones casi infinito y costos operativos reducidos.

Si bien es similar a las soluciones actuales de escalabilidad de rollup, la ambición de SCP va más allá. Su objetivo no solo es resolver la escalabilidad de blockchain, sino también ofrecer un camino transformador de Web2 a Web3.

¿Cuáles son las ventajas de SCP? SCP desacopla la computación del almacenamiento. Este diseño no solo mejora la flexibilidad y composabilidad del sistema, sino que también reduce las barreras de desarrollo, superando eficazmente las limitaciones de rendimiento de las blockchains tradicionales mientras garantiza la confiabilidad de los datos. Estas innovaciones hacen de SCP una infraestructura eficiente y escalable que potencia el futuro ecosistema descentralizado.

  1. Composabilidad:SCP coloca la computación fuera de la cadena, preservando la naturaleza fundamental de la cadena de bloques y manteniendo sus atributos “atómicos”. Con la computación fuera de la cadena y la cadena de bloques siendo la única responsable del almacenamiento, cualquier contrato inteligente puede ser ejecutado. La migración de aplicaciones basada en SCP se vuelve extremadamente simple, lo cual es una ventaja crucial.
  2. Barreras bajas de desarrollo:La computación fuera de la cadena permite a los desarrolladores utilizar cualquier lenguaje de programación, ya sea C++, Python o Rust, sin necesidad de usar Solidity para el EVM. El único costo al que pueden enfrentarse los desarrolladores es el costo de interacción de la API con la cadena de bloques.
  3. Sin restricciones de rendimiento: La computación fuera de la cadena alinea las capacidades computacionales con las aplicaciones tradicionales. El límite de rendimiento depende de las capacidades de hardware de los servidores de cálculo. Dado que el escalado elástico de los recursos informáticos tradicionales es una tecnología madura, la capacidad de cálculo es efectivamente ilimitada, a excepción de los costos de la máquina.
  4. Datos confiables:Dado que la función principal de "almacenamiento" es manejada por la cadena de bloques, todos los datos son inmutables y rastreables. Cualquier nodo puede recuperar y volver a calcular los datos cuando se cuestiona la validez de los resultados del estado, asegurando que la cadena de bloques dote a los datos de confiabilidad.

Bitcoin abordó el "Problema de los Generales Bizantinos" al introducir PoW, un enfoque innovador ideado por Satoshi Nakamoto dentro de las limitaciones de la época, lo que finalmente llevó al éxito de Bitcoin.

De manera similar, al abordar el cálculo de contratos inteligentes, partir de los principios básicos podría resultar en una solución aparentemente contraintuitiva. Sin embargo, al descentralizar audazmente las funciones computacionales y devolver a la cadena de bloques a su esencia fundamental, se descubrirá que se logra un consenso de almacenamiento al tiempo que se satisfacen los requisitos de apertura y verificabilidad de los datos. Este enfoque ofrece un rendimiento comparable al de Web2, encarnando la esencia de SCP.

Integración de SCP y AO: rompiendo las limitaciones

Después de toda esta discusión, finalmente llegamos a AO.

En primer lugar, AO adopta un patrón de diseño conocido como el Modelo de Actores, que fue implementado inicialmente en el lenguaje de programación Erlang.

La arquitectura y la tecnología detrás de AO se construyen sobre el paradigma SCP, separando la capa de computación de la capa de almacenamiento. Esto permite que la capa de almacenamiento permanezca permanentemente descentralizada, mientras que la capa de computación retiene la estructura de la computación tradicional.

Los recursos computacionales de AO se asemejan a los de los modelos informáticos tradicionales, pero incorporan una capa de almacenamiento permanente, lo que permite procesos informáticos rastreables y descentralizados.

En este punto, puede preguntarse: ¿qué cadena principal utiliza AO para su capa de almacenamiento?

Claramente, usar Bitcoin o Ethereum para la capa de almacenamiento sería impracticable. Las razones de esto ya se han discutido anteriormente y es probable que los lectores lo comprendan fácilmente. En AO, el almacenamiento de datos y la verificabilidad final son manejados en última instancia por Arweave.

¿Por qué elegir Arweave entre las muchas soluciones de almacenamiento descentralizado?

La elección de Arweave como capa de almacenamiento se basa principalmente en su enfoque único en el almacenamiento permanente de datos dentro de una red descentralizada. Arweave se posiciona como un 'disco duro global donde los datos nunca se pierden', a diferencia del 'libro mayor global' de Bitcoin y la 'computadora global' de Ethereum. Esencialmente, Arweave funciona como un disco duro global diseñado para no perder datos.

Para obtener más detalles técnicos sobre Arweave, consulte: “Comprendiendo Arweave: Una Infraestructura Clave de Web3

A continuación, nos centraremos en discutir los principios y tecnologías de AO para comprender cómo AO logra una computación infinita?

[Data source: Cómo funciona Messenger | Manual]

El núcleo de AO es construir una capa de computación que sea infinitamente escalable e independiente del entorno. Los nodos de AO colaboran en base a protocolos y mecanismos de comunicación, asegurando que cada nodo proporcione un servicio óptimo para evitar el consumo competitivo.

Primero, entendamos la arquitectura básica de AO. AO consta de procesos y mensajes, así como de unidades de programación (SU), unidades de cómputo (CU) y unidades de mensajería (MU):

  • Proceso:La unidad de cómputo de los nodos en la red, utilizada para el procesamiento de datos y mensajes. Por ejemplo, cada contrato podría ser un proceso.
  • Mensaje:Los procesos interactúan a través de mensajes, siendo que cada mensaje cumple con el estándar ANS-104. Todo el sistema AO debe seguir este estándar.
  • Unidad de programación (SU):Responsable de numerar los mensajes de los procesos, permitiendo que los procesos se ordenen y cargando los mensajes en Arweave.
  • Unidad de cálculo (CU): El nodo de estado dentro de un proceso AO, responsable de ejecutar tareas de computación y devolver los resultados calculados y las firmas al SU, garantizando la corrección y verificabilidad de los resultados.
  • Unidad de Mensajería (MU):El componente de enrutamiento en el nodo, responsable de entregar mensajes de usuario al SU y realizar verificaciones de integridad en los datos firmados.

Es importante tener en cuenta que AO no tiene estados compartidos, sino estados holográficos. El consenso en AO surge de la teoría de juegos. Dado que cada cálculo genera un estado que se carga en Arweave, esto garantiza la verificabilidad de los datos. Cuando los usuarios tienen dudas sobre ciertos datos, pueden solicitar a uno o más nodos que calculen los datos en Arweave. Si los resultados de la liquidación no coinciden, los nodos deshonestos serán penalizados.

Innovación de la Arquitectura AO: Almacenamiento y Estado Holográfico

La innovación de la arquitectura AO radica en sus mecanismos de almacenamiento y verificación de datos, que reemplazan los cálculos redundantes y el espacio limitado de los bloques típicos de las blockchains tradicionales utilizando almacenamiento descentralizado (Arweave) y estados holográficos.

  1. Estado holográfico: En la arquitectura AO, cada cálculo genera un "estado holográfico" que se carga a la red de almacenamiento descentralizado (Arweave). Este "estado holográfico" no es simplemente un simple registro de datos de transacciones; contiene el estado completo y los datos relevantes de cada cálculo. Esto significa que cada cálculo y su resultado se registran permanentemente y se pueden verificar en cualquier momento. El estado holográfico, como una "instantánea de datos," proporciona a la red una solución de almacenamiento de datos distribuida y descentralizada.
  2. Verificación de almacenamiento: en este modelo, la verificación de datos ya no depende de que cada nodo repita el cálculo para todas las transacciones. En su lugar, se realiza almacenando y comparando los datos cargados en Arweave para confirmar la validez de las transacciones. Cuando un resultado de cálculo de un nodo no coincide con los datos almacenados en Arweave, los usuarios u otros nodos pueden iniciar una solicitud de verificación. A continuación, la red volverá a calcular los datos y los comparará con el registro almacenado en Arweave. Si los resultados no coinciden, el nodo se penaliza, asegurando la integridad de la red.
  3. Superar la limitación del espacio de bloque: El espacio de bloque de la cadena de bloques tradicional está limitado por las limitaciones de almacenamiento, con cada bloque solo capaz de contener un número limitado de transacciones. Sin embargo, en la arquitectura de AO, los datos ya no se almacenan directamente dentro de los bloques; en su lugar, se cargan a una red de almacenamiento descentralizada (como Arweave). Esto significa que el almacenamiento y la verificación de datos en la red de blockchain ya no están limitados por el tamaño del espacio de bloque, sino que se descargan y se expanden a través del almacenamiento descentralizado. Como resultado, la capacidad del sistema de blockchain ya no está directamente limitada por el tamaño del bloque.

Las limitaciones de espacio de bloque de las cadenas de bloques tradicionales no son insuperables. La arquitectura AO, al depender del almacenamiento descentralizado y los estados holográficos, cambia la forma en que se maneja el almacenamiento y la verificación de datos, lo que hace posible lograr una escalabilidad ilimitada.

¿Depende el consenso de la computación redundante?

No necesariamente. Los mecanismos de consenso no tienen que depender de cálculos redundantes, y pueden implementarse de diversas formas. Las soluciones que dependen del almacenamiento en lugar de cálculos redundantes son factibles en ciertos escenarios, especialmente cuando la integridad y consistencia de los datos pueden ser garantizadas mediante verificación de almacenamiento.

En la arquitectura AO, el almacenamiento sirve como alternativa a la computación redundante. Al cargar los resultados computacionales en una red de almacenamiento descentralizada (Arweave en este caso), el sistema garantiza la inmutabilidad de los datos. Además, a través de la carga holográfica de estados, cualquier nodo puede verificar los resultados del cálculo en cualquier momento, lo que garantiza la coherencia y corrección de los datos. Este enfoque se basa en la confiabilidad del almacenamiento de datos en lugar de que cada nodo repita el cálculo.

Ahora, veamos las diferencias entre AO y ETH a través de una tabla:


Es fácil ver que las características principales de AO se pueden resumir en dos puntos clave:

  1. Computación en paralelo a gran escala: admite innumerables procesos que se ejecutan simultáneamente, mejorando significativamente la potencia computacional.
  2. Dependencia de confianza minimizada: No es necesario confiar en ningún nodo único, ya que todos los resultados computacionales pueden ser reproducidos infinitamente y rastreados.

Cómo AO rompe el punto muerto: Ethereum y los dilemas de las cadenas de bloques públicas

Para los dos principales dilemas a los que se enfrenta Ethereum: cuellos de botella de rendimiento y falta de aplicaciones, creo que aquí es exactamente donde brilla AO. Las razones son las siguientes:

  1. Basado en el paradigma SCP: Dado que AO separa la computación del almacenamiento, puede superar el modelo de computación única y de una sola vez de Ethereum. AO puede escalar de manera flexible a más recursos computacionales según la demanda. Además, el almacenamiento de estado holográfico de Arweave de registros de mensajes permite a AO garantizar el consenso reproduciendo los resultados de la computación, proporcionando seguridad que rivaliza con Ethereum y Bitcoin.
  2. Arquitectura de computación paralela basada en el paso de mensajes: las interacciones de procesos de AO no requieren competir por "locks". En el desarrollo de Web2, es bien sabido que los servicios de alto rendimiento evitan la contención de locks, ya que es muy costoso para los servicios eficientes. AO evita la contención de locks a través del paso de mensajes entre procesos, siguiendo este principio. Esto permite que su escalabilidad alcance cualquier tamaño.
  3. Arquitectura modular: la modularidad de AO se refleja en la separación de CU, SU y MU, lo que permite el uso de cualquier máquina virtual o secuenciador. Esto hace que la migración y el desarrollo de DApps desde diferentes cadenas sean extremadamente convenientes y rentables. Combinado con la eficiente capacidad de almacenamiento de Arweave, las DApps desarrolladas en AO pueden lograr funcionalidades más diversas. Por ejemplo, los gráficos de caracteres se pueden realizar fácilmente en AO.
  4. Apoyando la adaptabilidad de Web3 a varios requisitos normativos: Aunque la idea central de Web3 es la descentralización y la desregulación, las diferentes políticas en diferentes países inevitablemente tienen un impacto profundo en el desarrollo y la promoción de Web3. La arquitectura modular flexible de AO se puede adaptar a diferentes políticas regionales, asegurando en cierta medida la estabilidad y el desarrollo sostenible de las aplicaciones de Web3.

Resumen

La separación de la computación y el almacenamiento es un concepto brillante, y es un diseño sistemático basado en primeros principios.

Como una dirección narrativa similar a los 'servicios en la nube descentralizados', no solo proporciona un escenario de aterrizaje sólido, sino que también ofrece un espacio imaginativo más amplio para combinar con la IA.

De hecho, solo entendiendo realmente las necesidades fundamentales de la Web3 podremos liberarnos de los dilemas y limitaciones provocados por la dependencia de la ruta.

La integración de SCP y AO proporciona un enfoque completamente nuevo: hereda todas las características de SCP, ya no implementa contratos inteligentes en la cadena, sino que en su lugar almacena datos inmutables y rastreables en la cadena, logrando la confiabilidad de los datos que cualquiera puede verificar.

Por supuesto, actualmente no existe un camino absolutamente perfecto. AO todavía está en su etapa inicial de desarrollo. Cómo evitar que Web3 sea excesivamente financiado, crear suficientes escenarios de aplicación y brindar más posibilidades para el futuro todavía es un desafío en el camino hacia el éxito de AO. Si AO puede ofrecer una respuesta satisfactoria aún está por verse por el mercado y el tiempo.

La combinación de SCP y AO, como un paradigma de desarrollo lleno de potencial, aunque sus ideas aún no han sido ampliamente reconocidas en el mercado, se espera que AO juegue un papel importante en el campo de Web3 en el futuro, incluso impulsando el desarrollo adicional de Web3.

Descargo de responsabilidad:

  1. Este artículo es reproducido de [PermaDAO]. Todos los derechos de autor pertenecen al autor original [14]. Si hay objeciones a esta reimpresión, por favor contacte a la Gate Aprenderequipo, y ellos lo resolverán rápidamente.
  2. Descargo de responsabilidad de responsabilidad: Las opiniones expresadas en este artículo son únicamente las del autor y no constituyen ningún consejo de inversión.
  3. El equipo de Gate Learn realiza traducciones de los artículos a otros idiomas. A menos que se indique lo contrario, está prohibido copiar, distribuir o plagiar los artículos traducidos.
Empieza ahora
¡Registrarse y recibe un bono de
$100
!