Incluso los usuarios experimentados pueden encontrar difícil comprender algunos de los términos criptográficos más complejos. A veces solo tienes que asentir mientras alguien menciona casualmente blobs y la Tolerancia a Fallos Bizantinos en sus historias. Reconocida por su rápida invención, la industria del bitcoin ha creado un vocabulario sofisticado que a veces desafía incluso a los expertos experimentados. Abordemos este problema de una vez por todas.
Este artículo descompone en siete las frases más complejas y a menudo malinterpretadas en el entorno de blockchain, por lo tanto, ofrece una investigación exhaustiva de sus significados, usos y futuras consecuencias para el dinero digital.
Tolerancia a Fallos Bizantinos: La Piedra Angular de la Seguridad en Blockchain
La mayoría de los millones de entusiastas de las criptomonedas podrían haber oído algo sobre la Tolerancia a Fallos Bizantinos. Sin embargo, el 99,9% de ellos no pueden definir razonablemente qué es.
Normalmente, las personas que estudian la historia de la creación de Bitcoin y descubren que Satoshi Nakamoto utilizó la minería precisamente para resolver el problema de Tolerancia a Fallos Bizantinos tampoco tienen una comprensión clara de qué es.
¿Es convencional considerar que el problema se relaciona con la minería? No, realmente.
La Tolerancia a Fallos Bizantinos (BFT), un término derivado de un problema teórico en ciencia de la computación conocido como el Problema de los Generales Bizantinos, es crucial para la tecnología blockchain. Presentado por primera vez en 1982 por Leslie Lamport, Robert Shostak y Marshall Pease, este problema destaca las dificultades para alcanzar el consenso en un sistema distribuido donde los miembros podrían ser hostiles o poco fiables.
En el Problema de los Generales Bizantinos, múltiples generales deben coordinar un ataque a una ciudad. Solo pueden interactuar a través de mensajeros; ciertos generales podrían ser traidores tratando de socavar la estrategia. La dificultad es formular un plan que permita a los generales obedientes estar de acuerdo incluso con traidores presentes.
La tolerancia a fallos bizantinos en el contexto de blockchain es la capacidad de un sistema de operar como se pretende y alcanzar el consenso incluso en el caso de que algunos de sus componentes fallen o actúen maliciosamente. Mantener la integridad y seguridad de las redes distribuidas depende de esto.
Mediante el mecanismo de consenso de prueba de trabajo (PoW), Satoshi Nakamoto, el autor seudónimo de Bitcoin, resolvió esencialmente el Problema de los Generales Bizantinos para las monedas digitales. Los mineros en PoW compiten para resolver problemas matemáticos desafiantes; el ganador obtiene la oportunidad de añadir el próximo bloque de la cadena de bloques. Debido a que este método es computacionalmente costoso, los mineros tienen un gran incentivo financiero para actuar honestamente.
La solución PoW funciona porque:
- Participar es costoso, lo que desalienta la actividad benigna o negativa.
- La complejidad de los acertijos garantiza que ninguna entidad pueda dominar fácilmente la red.
- La regla de la cadena más larga ofrece un enfoque sencillo para encontrar la versión correcta de la cadena de bloques.
Sin embargo, PoW no es la única respuesta al Problema de los Generales Bizantinos en blockchain. Para resolver BFT de manera más eficiente energéticamente, se han creado otros sistemas de consenso como prueba de participación delegada (DPoS) y prueba de participación (PoS).
Por ejemplo, Ethereum utilizó un método de consenso BFT llamado Gasper cuando cambió de PoW a PoS, a veces conocido como "The Merge". Fuertes garantías de Tolerancia a Fallos Bizantinos se obtienen al combinar Casper FFG (un sistema de finalización basado en PoS) con la regla de elección de bifurcación LMD-GHOST, reduciendo así enormemente el consumo de energía.
Comprender las ideas básicas que garantizan la confiabilidad y seguridad de los sistemas blockchain depende de un conocimiento de BFT. Nuevos métodos para BFT siguen surgiendo a medida que la tecnología evoluciona, determinando así el rumbo de los sistemas distribuidos.
Nonce: La Pieza del Rompecabezas Criptográfico
Nonce es un tipo de disparate en blockchain. Lo siento por esa broma. Mientras que otros podrían haberlo escuchado una o dos veces y simplemente creer que es un componente del código de seguridad, los mineros y desarrolladores saben qué es. Bueno, en cierto grado lo es.
Aunque parezca sencillo, la idea de un nonce es bastante importante en la tecnología blockchain, especialmente en sistemas de prueba de trabajo como Bitcoin. "Nonce" es el término para "número que solo se usa una vez" y es una parte fundamental del proceso de minería que asegura y verifica las transacciones en la cadena de bloques.
Dentro del proceso de minería de Bitcoin, un nonce es un campo de 32 bits (4 bytes) que se encuentra en el encabezado del bloque. Los mineros controlan este número en un esfuerzo por generar un hash del encabezado del bloque que satisfaga requisitos particulares, más específicamente, un hash menor que un valor objetivo determinado por el grado de dificultad actual de la red.
El proceso de minería funciona así. Un minero reune un bloque de transacciones pendientes.
Se crea el encabezado del bloque, que incluye varios elementos:
- Número de versión
- Hash del bloque anterior
- Raíz de Merkle (un hash que representa todas las transacciones en el bloque)
- Marca de tiempo
- Objetivo de dificultad
- Nonce (iniciado en 0)
El minero hashea el encabezado del bloque usando el algoritmo SHA-256. Si el hash resultante cumple con los criterios de dificultad, se considera que el bloque ha sido "resuelto", y el minero lo difunde a la red. Si el hash no cumple con los criterios, el minero incrementa el nonce y lo intenta de nuevo.
Este incremento del nonce y el rehashing continúan hasta que se descubre un hash válido o se agota el espacio del nonce: 2^32, o aproximadamente 4 mil millones de posibilidades. Si el espacio del nonce se agota sin un hash correcto, los mineros pueden cambiar otros componentes del encabezado del bloque (como la marca de tiempo) y comenzar de nuevo.
El nonce cumple varios roles significativos.
La red puede cambiar la dificultad de la minería al obligar a los mineros a identificar un nonce particular que genere un hash que coincida con requisitos especificados. Esto mantiene el tiempo de bloque—alrededor de 10 minutos para Bitcoin—consistente independientemente de las variaciones en el poder de hash total de la red.
El nonce es la variable que los mineros controlan para realizar el verdadero "trabajo" en la prueba de trabajo. Determinar el nonce correcto indica que un minero ha utilizado recursos computacionales.
Manipular la cadena de bloques es bastante complicado, ya que el nonce que resolverá un bloque es impredecible. Para superar regularmente a los mineros honestos, un atacante debería controlar más de la mitad del poder de hash de la red.
El nonce proporciona a los mineros un campo de juego equitativo. Encontrar un bloque legítimo es básicamente al azar, dependiendo de la capacidad de procesamiento que un minero ofrezca.
Aunque la idea de un nonce es ampliamente conocida en sistemas de PoW, versiones de ella se aplican en otros contextos. En las transacciones de Ethereum, por ejemplo, se utiliza un nonce para garantizar que cada transacción se maneje solo una vez y en la secuencia correcta.
La función de los nonces podría cambiar conforme se desarrolla la tecnología blockchain. Para los sistemas de prueba de participación, por ejemplo, la idea de minería y nonces tal como se aplica en PoW está ausente. No obstante, en muchos sistemas blockchain, la idea básica de emplear números erráticos de una sola vez para garantizar la seguridad y equidad sigue siendo importante.
Rollups: Optimizando Transacciones de Capa-2
Si estás en el mundo de DeFi, debes haber oído hablar de rollups. Aun así, es probable que lo que sepas al respecto esté de alguna manera relacionado con soluciones de capa 2 sobre la blockchain de capa 1.
Bueno, sí, pero hay más.
Los rollups se han convertido en una respuesta potencial para aumentar el rendimiento de las transacciones y reducir las tarifas a medida que los sistemas blockchain como Ethereum enfrentan problemas de escalabilidad. Los rollups son métodos de escalado de capa-2 que publican datos de las transacciones en la capa-1 mientras realizan la ejecución de transacciones fuera de la blockchain principal (capa-1).
Los rollups son fundamentalmente el proceso de "agrupar" varias transacciones en un solo lote para enviarlo a la cadena principal. Este método reduce significativamente el volumen de datos requerido para ser procesado por la cadena principal, promoviendo así una mayor escalabilidad.
Los rollups generalmente vienen en dos variedades:
Los rollups optimistas realizan el cálculo, mediante una prueba de fraude, en caso de un desafío y asumen que las transacciones son válidas por defecto. Sus características importantes incluyen:
- Más baratos y rápidos que los ZKroll-ups para cálculos generales.
- Portabilidad más sencilla de aplicaciones de Ethereum actuales gracias a la compatibilidad con la Máquina Virtual de Ethereum (EVM).
- Período de desafío, generalmente durando una semana, permite a cualquiera cuestionar los resultados de las transacciones. Ejemplos incluyen Arbitrum y Optimism.
Los rollups de conocimiento cero (ZK) generan pruebas criptográficas—a través de pruebas de validez—que confirman la precisión de las transacciones agrupadas fuera de ella. Una de las principales características es una finalización más rápida, debido a que la validación instantánea de las pruebas de validez en la cadena lo garantiza.
Potencialmente mayor escalabilidad que los rollups optimistas; criptografía más compleja los hace más difíciles de aplicar para cálculos generales. Particularmente, dos de ellos son StarkNet y zkSync.
Los rollups presentan varios beneficios:
Los rollups pueden aumentar significativamente el número de transacciones por segundo (TPS) que la red puede procesar al mover cálculo fuera de cadena. Las tarifas de transacción se reducen ya que menos datos deben ser procesados en la cadena principal. Los rollups heredan la seguridad de la cadena principal, ya que los datos importantes todavía se almacenan en la capa-1. Particularmente con los rollups de conocimiento cero, la finalización de transacciones se puede lograr mucho más rápido que en la cadena principal.
Aún así, los rollups también presentan dificultades:
Dificultad técnica: Usar rollups—especialmente ZK-rollups—es complicado. Los operadores de rollups son bastante importantes y podrían causar algún grado de centralización. En rollups optimistas, los usuarios podrían experimentar retrasos al retirar dinero a la cadena principal debido a la fase de desafío.
Los rollups probablemente se vuelvan más cruciales en las soluciones de escalado a medida que el ecosistema blockchain evoluciona. Proyectos como Ethereum 2.0 muestran la importancia de esta tecnología en el futuro de blockchain, ya que esperan incluir la escalabilidad centrada en rollups como un componente principal de su roadmap.
Blobs: Los Trozos de Datos que Remodelan Ethereum
Las blobs ahora son algo en el compromised key is significantly reduced.
-
Increased Resilience: If one operator fails or goes offline, the validator can continue to function as long as the threshold of active participants is maintained.
-
Improved Decentralization: DVT allows multiple entities to share in the responsibilities and rewards of validation, promoting a more decentralized network.
Despite these advantages, implementing DVT comes with challenges:
-
Complexity of Setup: Configuring a distributed validator involves more complexity compared to a traditional setup.
-
Coordination and Communication: Operators must be able to coordinate effectively to ensure timely validation actions.
-
Incentive Alignment: Ensuring that all participants are properly incentivized can be difficult, as different operators may have different motivations and resources.
In conclusion, Distributed Validator Technology (DVT) provides a path to enhance security, resilience, and decentralization in proof-of-stake networks like Ethereum. It represents a significant step forward in ensuring the robustness of future blockchain infrastructures.
Now, here's the translation following the given format:
Content: Ethereum universe. Many consumers, meanwhile, cannot really understand what blobs are. And finally the word becomes one of those you wish you knew, but it's never a good time to explore the tech specs.
Contenido: Universo Ethereum. Mientras tanto, muchos consumidores realmente no pueden entender qué son los blobs. Y finalmente, la palabra se convierte en una de esas que deseas conocer, pero nunca es un buen momento para explorar las especificaciones técnicas.
Let's fix it, then.
Arreglémoslo, entonces.
Particularly in relation to the forthcoming Dencun upgrade—a mix of Deneb and Cancun upgrades—blobs, short for Binary Large Objects, mark a major shift in Ethereum's scaling road map.
Particularmente en relación con la próxima actualización Dencun, una mezcla de las actualizaciones de Deneb y Cancún, los blobs, abreviatura de Objetos Binarios Grandes, marcan un cambio importante en el mapa de escalamiento de Ethereum.
Understanding blobs calls for exploring the technical sides of Ethereum's data management and path towards higher scalability.
Entender los blobs requiere explorar los aspectos técnicos de la gestión de datos de Ethereum y el camino hacia una mayor escalabilidad.
Blobs in the Ethereum context are big amounts of data away from the execution layer—where smart contracts run—but nevertheless part of the Ethereum ecosystem. Designed as transitory, they stay on the network for eighteen to twenty-25 days before being thrown away.
En el contexto de Ethereum, los blobs son grandes cantidades de datos alejados de la capa de ejecución, donde se ejecutan los contratos inteligentes, pero que sin embargo forman parte del ecosistema Ethereum. Diseñados como temporales, permanecen en la red de dieciocho a veinticinco días antes de ser desechados.
Key characteristics of blobs include:
Las características clave de los blobs incluyen:
-
Size: Each blob can be up to 128 KB in size, significantly larger than the data typically included in Ethereum transactions.
Tamaño: Cada blob puede tener un tamaño de hasta 128 KB, significativamente mayor que los datos típicamente incluidos en las transacciones de Ethereum.
-
Purpose: Blobs are primarily intended to serve layer-2 solutions, particularly rollups, by providing a more cost-effective way to post data on the Ethereum mainnet.
Propósito: Los blobs están destinados principalmente a servir a soluciones de capa-2, particularmente rollups, al proporcionar una forma más rentable de publicar datos en la red principal de Ethereum.
-
Verification: While blobs are not processed by the Ethereum Virtual Machine (EVM), their integrity is verified using a cryptographic technique called KZG commitments.
Verificación: Aunque los blobs no son procesados por la Máquina Virtual de Ethereum (EVM), su integridad se verifica utilizando una técnica criptográfica llamada compromisos KZG.
-
Temporary Nature: Unlike traditional blockchain data that is stored indefinitely, blobs are designed to be temporary, reducing long-term storage requirements.
Naturaleza Temporal: A diferencia de los datos tradicionales de blockchain que se almacenan indefinidamente, los blobs están diseñados para ser temporales, reduciendo los requisitos de almacenamiento a largo plazo.
Blobs are intimately related to the idea of "proto-danksharding," an intermediary stage toward complete sharding in Ethereum (we'll discuss this in a minute). Named for its proposers Protolambda and Dankrad Feist, protos-danksharding presents a novel transaction type (EIP-4844) allowing blob insertion.
Los blobs están íntimamente relacionados con la idea de "proto-danksharding", una etapa intermedia hacia el sharding completo en Ethereum (discutiremos esto en un momento). Nombrado por sus proponentes Protolambda y Dankrad Feist, el proto-danksharding presenta un nuevo tipo de transacción (EIP-4844) que permite la inserción de blobs.
Here's how blobs work in the context of proto-danksharding:
Así es como funcionan los blobs en el contexto de proto-danksharding:
-
Layer-2 solutions (like rollups) generate transaction data.
Las soluciones de capa-2 (como los rollups) generan datos de transacción.
-
This data is formatted into blobs.
Estos datos se formatean en blobs.
-
The blobs are attached to special transactions on the Ethereum mainnet.
Los blobs se adjuntan a transacciones especiales en la red principal de Ethereum.
-
Validators and nodes verify the integrity of the blobs using KZG commitments, without needing to process the entire blob data.
Los validadores y nodos verifican la integridad de los blobs utilizando compromisos KZG, sin necesidad de procesar todos los datos del blob.
-
The blob data is available for a limited time, allowing anyone to reconstruct the layer-2 state if needed.
Los datos del blob están disponibles por un tiempo limitado, permitiendo a cualquiera reconstruir el estado de la capa-2 si es necesario.
-
After 18-25 days, the blob data is discarded, but a commitment to the data remains on-chain indefinitely.
Después de 18-25 días, los datos del blob se descartan, pero un compromiso con los datos permanece en la cadena indefinidamente.
Blobs' introduction has various advantages:
La introducción de los blobs tiene varias ventajas:
-
Reduced Costs: By providing a more efficient way for rollups to post data on Ethereum, blob transactions can significantly reduce fees for layer-2 users.
Costos Reducidos: Al proporcionar una forma más eficiente para que los rollups publiquen datos en Ethereum, las transacciones de blobs pueden reducir significativamente las tarifas para los usuarios de capa-2.
-
Increased Scalability: Blobs allow for more data to be included in each Ethereum block without increasing the computational load on the network.
Mayor Escalabilidad: Los blobs permiten incluir más datos en cada bloque de Ethereum sin aumentar la carga computacional en la red.
-
Improved Data Availability: While blob data is temporary, it ensures that layer-2 data is available for challenge periods in optimistic rollups or for users who need to reconstruct the layer-2 state.
Mejor Disponibilidad de Datos: Aunque los datos del blob son temporales, aseguran que los datos de capa-2 estén disponibles para períodos de desafío en rollups optimistas o para usuarios que necesiten reconstruir el estado de la capa-2.
-
Preparation for Sharding: Proto-danksharding serves as a stepping stone towards full sharding, allowing the Ethereum ecosystem to gradually adapt to new data management paradigms.
Preparación para el Sharding: El proto-danksharding sirve como un puente hacia el sharding completo, permitiendo que el ecosistema Ethereum se adapte gradualmente a nuevos paradigmas de gestión de datos.
Blobs' introduction, meantime, also brings difficulties:
La introducción de los blobs, mientras tanto, también trae dificultades:
-
Increased Bandwidth and Storage Requirements: Nodes will need to handle larger amounts of data, even if temporarily.
Requisitos Aumentados de Ancho de Banda y Almacenamiento: Los nodos necesitarán manejar mayores cantidades de datos, incluso si es temporalmente.
-
Complexity: The addition of a new transaction type and data structure increases the overall complexity of the Ethereum protocol.
Complejidad: La adición de un nuevo tipo de transacción y estructura de datos aumenta la complejidad total del protocolo de Ethereum.
-
Potential Centralization Pressures: The increased resource requirements might make it more challenging for individuals to run full nodes.
Presiones Potenciales de Centralización: Los mayores requisitos de recursos podrían hacer que sea más desafiante para los individuos ejecutar nodos completos.
Blobs and proto-danksharding are a key component in balancing scalability, decentralization, and security as Ethereum keeps developing towards Ethereum 2.0. Blobs provide the path for a more scalable Ethereum ecosystem by offering a more efficient data availability layer, especially helping layer-2 solutions growingly significant in the blockchain scene.
Los blobs y el proto-danksharding son un componente clave en el equilibrio entre escalabilidad, descentralización y seguridad a medida que Ethereum sigue desarrollándose hacia Ethereum 2.0. Los blobs proporcionan el camino para un ecosistema Ethereum más escalable al ofrecer una capa de disponibilidad de datos más eficiente, especialmente ayudando a que las soluciones de capa-2 sean cada vez más significativas en el escenario blockchain.
Proto-danksharding: Ethereum's Stepping Stone to Scalability
Proto-danksharding ya fue mencionado anteriormente. Vamos a investigarlo más de cerca.
Representing a major turning point in Ethereum's scalability road plan, it is sometimes known as EIP-4844 (Ethereum Improvement Proposal 4844). Aiming to drastically lower data costs for roll-ups and other layer-2 scaling solutions, this idea—named for its proposers Protolambda and Dankrad Feist—serves as an intermediary toward true sharding.
Representando un punto de inflexión importante en el plan de escalabilidad de Ethereum, a veces se le conoce como EIP-4844 (Propuesta de Mejora de Ethereum 4844). Apuntando a reducir drásticamente los costos de datos para roll-ups y otras soluciones de escalamiento de capa-2, esta idea, nombrada por sus proponentes Protolambda y Dankrad Feist, sirve como un intermediario hacia el sharding completo.
First one must comprehend sharding before one can grasp proto-danksharding.
Primero se debe comprender el sharding antes de que uno pueda entender el proto-danksharding.
Sharding is a method of database partitioning whereby a blockchain is broken out into smaller, more controllable shards. By means of parallel data storage and transaction processing, each shard can theoretically increase the capacity of the network. Implementing full sharding, however, is a difficult task requiring major modifications to the Ethereum protocol.
El sharding es un método de particionamiento de base de datos por el cual una blockchain se divide en partes más pequeñas y manejables llamadas shards. Mediante el almacenamiento paralelo de datos y el procesamiento de transacciones, cada shard puede aumentar teóricamente la capacidad de la red. Sin embargo, implementar el sharding completo es una tarea difícil que requiere modificaciones importantes al protocolo de Ethereum.
Proto-danksharding brings many important ideas:
Proto-danksharding aporta muchas ideas importantes:
-
Blob-carrying Transactions: A new transaction type that can carry large amounts of data (blobs) that are separate from the execution layer.
Transacciones con Blobs: Un nuevo tipo de transacción que puede llevar grandes cantidades de datos (blobs) que están separados de la capa de ejecución.
-
Data Availability Sampling: A technique that allows nodes to verify the availability of blob data without downloading the entire blob.
Muestreo de Disponibilidad de Datos: Una técnica que permite a los nodos verificar la disponibilidad de datos del blob sin descargar todo el blob.
-
KZG Commitments: A cryptographic method used to create succinct proofs of blob contents, enabling efficient verification.
Compromisos KZG: Un método criptográfico utilizado para crear pruebas concisas del contenido de los blobs, permitiendo una verificación eficiente.
-
Temporary Data Storage: Blob data is only stored by the network for a limited time (18-25 days), after which it can be discarded while maintaining a commitment to the data on-chain.
Almacenamiento Temporal de Datos: Los datos del blob solo son almacenados por la red por un tiempo limitado (18-25 días), después del cual pueden ser descartados mientras se mantiene un compromiso con los datos en la cadena.
Proto-danksharding operates in this manner:
Así funciona el proto-danksharding:
-
Layer-2 solutions (like rollups) generate transaction data.
Las soluciones de capa-2 (como los rollups) generan datos de transacción.
-
This data is formatted into blobs (binary large objects).
Estos datos se formatean en blobs (objetos binarios grandes).
-
The blobs are attached to special transactions on the Ethereum mainnet.
Los blobs se adjuntan a transacciones especiales en la red principal de Ethereum.
-
Validators and nodes verify the integrity of the blobs using KZG commitments, without needing to process the entire blob data.
Los validadores y nodos verifican la integridad de los blobs utilizando compromisos KZG, sin necesidad de procesar todos los datos del blob.
-
The blob data is available for a limited time, allowing anyone to reconstruct the layer-2 state if needed.
Los datos del blob están disponibles por un tiempo limitado, permitiendo a cualquiera reconstruir el estado de la capa-2 si es necesario.
-
After the retention period, the blob data is discarded, but a commitment to the data remains on-chain indefinitely.
Después del período de retención, los datos del blob se descartan, pero un compromiso con los datos permanece en la cadena indefinidamente.
Proto-danksharding has numerous important advantages:
El proto-danksharding tiene numerosas ventajas importantes:
-
Reduced Costs: By providing a more efficient way for rollups to post data on Ethereum, blob transactions can significantly reduce fees for layer-2 users. This could potentially reduce costs by a factor of 10-100x.
Costos Reducidos: Al proporcionar una forma más eficiente para que los rollups publiquen datos en Ethereum, las transacciones de blobs pueden reducir significativamente las tarifas para los usuarios de capa-2. Esto podría potencialmente reducir los costos por un factor de 10-100x.
-
Increased Scalability: Blobs allow for more data to be included in each Ethereum block without increasing the computational load on the network. Ethereum's data capacity might so rise by up to 100x.
Mayor Escalabilidad: Los blobs permiten incluir más datos en cada bloque de Ethereum sin aumentar la carga computacional en la red. La capacidad de datos de Ethereum podría así aumentar hasta 100x.
-
Improved Data Availability: While blob data is temporary, it ensures that layer-2 data is available for challenge periods in optimistic rollups or for users who need to reconstruct the layer-2 state.
Mejoro de la Disponibilidad de Datos: Aunque los datos del blob son temporales, aseguran que los datos de capa-2 estén disponibles para períodos de desafío en rollups optimistas o para usuarios que necesiten reconstruir el estado de la capa-2.
-
Gradual Protocol Evolution: Proto-danksharding allows the Ethereum ecosystem to adapt to new data management paradigms gradually, paving the way for full sharding in the future.
Evolución Gradual del Protocolo: El proto-danksharding permite que el ecosistema Ethereum se adapte gradualmente a nuevos paradigmas de gestión de datos, allanando el camino para el sharding completo en el futuro.
However, implementing proto-danksharding also presents challenges:
Sin embargo, implementar el proto-danksharding también presenta desafíos:
-
Increased Complexity: The addition of a new transaction type and data structure increases the overall complexity of the Ethereum protocol.
Complejidad Incrementada: La adición de un nuevo tipo de transacción y estructura de datos aumenta la complejidad general del protocolo Ethereum.
-
Node Requirements: Nodes will need to handle larger amounts of data, even if temporarily, which could increase hardware requirements.
Requisitos de Nodo: Los nodos necesitarán manejar mayores cantidades de datos, incluso si es temporalmente, lo que podría aumentar los requisitos de hardware.
-
Potential Centralization Pressures: The increased resource requirements might make it more challenging for individuals to run full nodes, potentially leading to some degree of centralization.
Presiones Potenciales de Centralización: Los mayores requisitos de recursos podrían hacer que sea más difícil para los individuos ejecutar nodos completos, lo que podría llevar a un cierto grado de centralización.
-
Ecosystem Adaptation: Layer-2 solutions and other Ethereum tools will need to be updated to fully leverage the benefits of proto-danksharding.
Adaptación del Ecosistema: Las soluciones de capa-2 y otras herramientas de Ethereum deberán actualizarse para aprovechar completamente los beneficios del proto-danksharding.
A pivotal stage in Ethereum's development, protos-danksharding balances the demand for more scalability with the difficulties of putting intricate protocol updates into effect. A more scalable Ethereum environment is made possible by offering a more effective data availability layer.
Una etapa crucial en el desarrollo de Ethereum, el proto-danksharding equilibra la demanda de más escalabilidad con las dificultades de implementar actualizaciones de protocolo complejas. Un entorno de Ethereum más escalable es posible al ofrecer una capa de disponibilidad de datos más efectiva.
Distributed Validator Technology (DVT): Enhancing Proof-of-Stake Security
La tecnología de validadores distribuidos (DVT) ha adquirido relevancia en el mundo de Ethereum desde la Fusión en 2022, cuando se abandonó el protocolo de Prueba de Trabajo en favor de la Prueba de Participación.
But many people still don’t understand how this technology works.
Pero muchas personas todavía no comprenden cómo funciona esta tecnología.
Maintaining network security and decentralization depends critically on the idea of Distributed Validator Technology (DVT). Particularly in networks like Ethereum 2.0, DVT marks a dramatic change in the way validators behave inside proof-of-stake systems.
Mantener la seguridad de la red y la descentralización depende críticamente de la idea de la Tecnología de Validadores Distribuidos (DVT). Particularmente en redes como Ethereum 2.0, la DVT marca un cambio dramático en la forma en que los validadores se comportan dentro de los sistemas de prueba de participación.
Fundamentally, DVT lets one validator run several nodes, therefore dividing the tasks and dangers related to validation among several participants.
Fundamentalmente, la DVT permite que un validador opere varios nodos, dividiendo así las tareas y los peligros relacionados con la validación entre varios participantes.
This method contrasts with conventional validator configurations in which one entity oversees all facets of the validation process.
Este método contrasta con las configuraciones convencionales de validadores en las que una entidad supervisa todos los aspectos del proceso de validación.
DVT's fundamental elements consist in:
Los elementos fundamentales de la DVT consisten en:
-
Validator Client: The software responsible for proposing and attesting to blocks.
Cliente Validador: El software responsable de proponer y atestiguar bloques.
-
Distributed Key Generation (DKG): A cryptographic protocol that allows multiple parties to collectively generate a shared private key.
Generación de Claves Distribuidas (DKG): Un protocolo criptográfico que permite a múltiples partes generar colectivamente una clave privada compartida.
-
Threshold Signatures: A cryptographic technique that enables a group of parties to collectively sign messages, with a certain threshold of participants required to create a valid signature.
Firmas umbrales: Una técnica criptográfica que permite a un grupo de partes firmar colectivamente mensajes, con un cierto umbral de participantes necesarios para crear una firma válida.
Usually, the DVT procedure proceeds this:
Normalmente, el procedimiento de la DVT procede de esta manera:
-
A group of operators come together to form a distributed validator.
Un grupo de operadores se unen para formar un validador distribuido.
-
They use DKG to generate a shared validator key, with each operator holding a portion of the key.
Utilizan DKG para generar una clave de validador compartida, con cada operador ocupando una parte de la clave.
-
When the validator needs to perform an action (e.g., proposing or attesting to a block), a threshold number of operators must cooperate to sign the message.
Cuando el validador necesita realizar una acción (por ejemplo, proponer o atestiguar un bloque), un número umbral de operadores debe cooperar para firmar el mensaje.
-
The resulting signature is indistinguishable from one produced by a single validator, maintaining compatibility with the broader network.
La firma resultante es indistinguible de una producida por un solo validador, manteniendo la compatibilidad con la red en general.
DVT has various important benefits:
La DVT tiene varios beneficios importantes:
-
Enhanced Security: By distributing the validator key across multiple operators, the risk of a compromised key is significantly reduced.
Seguridad Mejorada: Al distribuir la clave del validador a través de múltiples operadores, el riesgo de una clave comprometida se reduce significativamente.
-
Increased Resilience: If one operator fails or goes offline, the validator can continue to function as long as the threshold of active participants is maintained.
Resiliencia Aumentada: Si un operador falla o se desconecta, el validador puede continuar funcionando siempre que se mantenga el umbral de participantes activos.
-
Improved Decentralization: DVT allows multiple entities to share in the responsibilities and rewards of validation, promoting a more decentralized network.
Descentralización Mejorada: La DVT permite que múltiples entidades compartan las responsabilidades y recompensas de la validación, promoviendo una red más descentralizada.
Despite these advantages, implementing DVT comes with challenges:
A pesar de estas ventajas, la implementación de la DVT viene con desafíos:
-
Complexity of Setup: Configuring a distributed validator involves more complexity compared to a traditional setup.
Complejidad de la Configuración: Configurar un validador distribuido implica más complejidad en comparación con una configuración tradicional.
-
Coordination and Communication: Operators must be able to coordinate effectively to ensure timely validation actions.
Coordinación y Comunicación: Los operadores deben ser capaces de coordinarse eficazmente para asegurar acciones de validación oportunas.
-
Incentive Alignment: Ensuring that all participants are properly incentivized can be difficult, as different operators may have different motivations and resources.
Alineación de Incentivos: Asegurar que todos los participantes estén debidamente incentivados puede ser difícil, ya que diferentes operadores pueden tener diferentes motivaciones y recursos.
In conclusion, Distributed Validator Technology (DVT) provides a path to enhance security, resilience, and decentralization in proof-of-stake networks like Ethereum. It represents a significant step forward in ensuring the robustness of future blockchain infrastructures.
En conclusión, la Tecnología de Validadores Distribuidos (DVT) proporciona un camino para mejorar la seguridad, resiliencia y descentralización en redes de prueba de participación como Ethereum. Representa un paso significativo hacia garantizar la solidez de las infraestructuras blockchain futuras.Contenido: el único punto de fallo se reduce drásticamente. Incluso si un operador es comprometido o se desconecta, el validador puede continuar funcionando.
-
Mayor tiempo de actividad: con múltiples operadores, las posibilidades de que el validador esté disponible para realizar sus deberes en todo momento mejoran considerablemente, lo que podría llevar a mayores recompensas y mejor rendimiento de la red.
-
Descentralización: DVT permite una red más descentralizada al permitir que operadores más pequeños participen en la validación sin asumir todo el riesgo y la responsabilidad de operar un validador de manera independiente.
-
Protección contra recortes: en los sistemas de prueba de participación, los validadores pueden ser penalizados (recortados) por conducta inapropiada. Al requerir que varios operadores concuerden en las actividades, DVT puede ayudar a evitar recortes inadvertidos.
Sin embargo, DVT también presenta ciertos desafíos:
-
Complejidad: implementar DVT requiere protocolos criptográficos sofisticados y coordinación entre múltiples partes, agregando complejidad a las operaciones del validador.
-
Latencia: la necesidad de que múltiples operadores se coordinen podría introducir potencialmente latencia en las acciones del validador, aunque esto puede mitigarse con una implementación adecuada.
-
Suposiciones de confianza: mientras DVT reduce los puntos únicos de fallo, introduce la necesidad de confianza entre los operadores de un validador distribuido.
-
Consideraciones regulatorias: la naturaleza distribuida de DVT puede plantear preguntas sobre el cumplimiento regulatorio y la responsabilidad en algunas jurisdicciones.
DVT probablemente se volverá más crucial en mantener su seguridad y descentralización a medida que las redes de prueba de participación se desarrollen. Mientras varias implementaciones están ahora en desarrollo o en despliegue temprano, proyectos como Ethereum 2.0 están investigando agresivamente la inclusión de DVT.
La adopción de DVT podría tener amplios efectos en la arquitectura de redes de prueba de participación, habilitando así nuevos tipos de agrupamiento de validadores y delegación que logren un equilibrio entre seguridad, descentralización y accesibilidad.
Repartición Dinámica: Particionamiento Adaptativo del Blockchain
Por último, pero no menos importante, hablemos sobre la repartición dinámica. Basado en la idea de la repartición pero añadiendo una capa de flexibilidad que permite a la red reaccionar a las necesidades cambiantes en tiempo real, ofrece un nuevo método de escalabilidad del blockchain.
A menudo referido como "el santo grial de la repartición" por algunos aficionados del blockchain, esta tecnología promete resolver uno de los problemas más persistentes en el diseño de blockchain: equilibrar la capacidad de la red con el uso de recursos. Suena realmente complicado, ¿verdad?
Entender la repartición dinámica requiere primero una comprensión de los fundamentos de la repartición:
Adaptada a sistemas de blockchain, la repartición es un método de particionamiento de bases de datos. Implica dividir el blockchain en fragmentos más pequeños y manejables. Cada fragmento puede almacenar datos en paralelo y manejar transacciones, aumentando teóricamente la capacidad de la red.
La repartición dinámica avanza esta idea permitiendo que la red cambie la cantidad y disposición de fragmentos dependiendo del estado actual de la red.
Esta estrategia flexible presenta una serie de posibles beneficios.
La red puede garantizar un uso efectivo de los recursos de la red creando nuevos fragmentos durante períodos de alta demanda y fusionando fragmentos no utilizados durante baja demanda.
La repartición dinámica permite que el blockchain expanda su capacidad sin utilizar un hard fork o una actualización significativa del protocolo a medida que el uso de la red aumenta. Redistribuir datos y transacciones entre fragmentos ayuda a la red a mantener un rendimiento más constante a lo largo del blockchain.
La repartición dinámica también puede permitir que la red cambie con eventos inesperados, como la ruptura de fragmentos o aumentos de demanda.
El proceso de repartición dinámica involucra típicamente varios componentes clave.
El Sistema de Monitoreo analiza continuamente métricas de la red, como el volumen de transacciones, la utilización de fragmentos y el rendimiento de nodos. El motor de decisiones utiliza algoritmos predefinidos y posiblemente técnicas de aprendizaje automático para determinar cuándo y cómo repartir la red. El protocolo de coordinación asegura que todos los nodos en la red estén de acuerdo con la nueva configuración de fragmentos y ejecuten el proceso de repartición de manera consistente. A medida que los fragmentos se dividen o combinan, se mueve de forma segura la información de datos y estado entre ellos.
Aquí hay una sinopsis condensada de posibles aplicaciones de la repartición dinámica:
-
El sistema de monitoreo detecta que un fragmento particular está procesando consistentemente cerca de su capacidad máxima.
-
El motor de decisiones determina que este fragmento debe ser dividido en dos para equilibrar la carga.
-
El protocolo de coordinación inicia el proceso de repartición, asegurando que todos los nodos estén al tanto del cambio inminente.
-
La red ejecuta un proceso cuidadosamente coreografiado para crear el nuevo fragmento, migrar los datos relevantes y actualizar la información de enrutamiento.
-
Una vez completo, la red ahora tiene un fragmento adicional para manejar la carga aumentada.
Aunque la repartición dinámica ofrece posibilidades emocionantes, también presenta desafíos técnicos significativos.
Implementar un sistema que pueda repartir de manera segura y eficiente una red de blockchain en vivo es extremadamente complejo, requiriendo mecanismos sofisticados de consenso y coordinación. Además, garantizar que toda la información de estado pertinente se mantenga precisa y esté fácilmente disponible cuando los datos fluyen entre fragmentos es un problema no trivial en la gestión de estado.
La repartición dinámica tiene que considerar transacciones a través de varios fragmentos, lo que puede volverse más complicado dependiendo de la disposición de los fragmentos. Luego están las cuestiones de seguridad. El propio procedimiento de repartición tiene que ser seguro contra ataques que apunten a la manipulación de la red durante esta operación quizás vulnerable. Los procedimientos de monitoreo y toma de decisiones de la repartición dinámica añaden una carga computacional extra a la red.
No obstante estas dificultades, varias iniciativas de blockchain están activamente buscando y creando técnicas de repartición dinámica. Near Protocol, por ejemplo, ha establecido un tipo de repartición dinámica en su red principal para que la red pueda cambiar la cantidad de fragmentos dependiendo de la demanda.
La repartición dinámica puede volverse cada vez más importante a medida que la tecnología blockchain se desarrolle para construir redes escalables y flexibles capaces de permitir la adopción general de aplicaciones y servicios distribuidos.