bitcoin
Bitcoin (BTC) $ 71,051.00
ethereum
Ethereum (ETH) $ 2,095.42
tether
Tether (USDT) $ 1.00
bnb
BNB (BNB) $ 656.64
usd-coin
USDC (USDC) $ 0.999999
xrp
XRP (XRP) $ 1.40
binance-usd
BUSD (BUSD) $ 1.01
dogecoin
Dogecoin (DOGE) $ 0.095576
cardano
Cardano (ADA) $ 0.261831
solana
Solana (SOL) $ 87.92
polkadot
Polkadot (DOT) $ 1.41
tron
TRON (TRX) $ 0.298004
bitcoin
Bitcoin (BTC) $ 71,051.00
ethereum
Ethereum (ETH) $ 2,095.42
tether
Tether (USDT) $ 1.00
bnb
BNB (BNB) $ 656.64
usd-coin
USDC (USDC) $ 0.999999
xrp
XRP (XRP) $ 1.40
binance-usd
BUSD (BUSD) $ 1.01
dogecoin
Dogecoin (DOGE) $ 0.095576
cardano
Cardano (ADA) $ 0.261831
solana
Solana (SOL) $ 87.92
polkadot
Polkadot (DOT) $ 1.41
tron
TRON (TRX) $ 0.298004

Hoskinson podría estar equivocado sobre el futuro de la computación descentralizada

-

spot_img

El trilema de blockchain asomó su cabeza una vez más en el Consensus en Hong Kong en febrero, hasta cierto punto, poniendo a Charles Hoskinson, el fundador de Cardano, en desventaja, teniendo que asegurar a los asistentes que los hiperescaladores como Google Cloud y Microsoft Azure son no un riesgo para la descentralización.

Se señaló que los grandes proyectos blockchain necesidad hiperescaladores, y que uno no debería preocuparse por un único punto de falla porque:

  • La criptografía avanzada neutraliza el riesgo
  • La computación multipartita distribuye material clave
  • La informática confidencial protege los datos en uso

El argumento se basó en la idea de que “si la nube no puede ver los datos, la nube no puede controlar el sistema”, y se dejó allí por limitaciones de tiempo.

Pero hay una alternativa al argumento de Hoskinson a favor de los hiperescaladores que merece más atención.

MPC y la informática confidencial reducen la exposición

Esto era una especie de bastión estratégico en el argumento de Charles: que tecnologías como la computación multipartita (MPC) y la computación confidencial garantizan que los proveedores de hardware no tuvieran acceso a los datos subyacentes.

Son herramientas poderosas. pero ellos no disolver el riesgo subyacente.

MPC distribuye material clave entre múltiples partes para que ningún participante pueda reconstruir un secreto. Eso reduce significativamente el riesgo de que un solo nodo esté comprometido. Sin embargo, la superficie de seguridad se expande en otras direcciones. La capa de coordinación, los canales de comunicación y la gobernanza de los nodos participantes se vuelven críticos.

En lugar de confiar en un único poseedor de claves, el sistema ahora depende de un conjunto distribuido de actores que se comportan correctamente y de que el protocolo se implementa correctamente. El único punto de falla no desaparece. De hecho, simplemente se convierte en una superficie de confianza distribuida.

La informática confidencial, en particular los entornos de ejecución confiables, introduce una compensación diferente. Los datos se cifran durante la ejecución, lo que limita la exposición al proveedor de alojamiento.

Pero los entornos de ejecución confiables (TEE) se basan en suposiciones de hardware. Dependen del aislamiento de la microarquitectura, la integridad del firmware y la correcta implementación. La literatura académica, por ejemplo, aquí y aquí, ha demostrado repetidamente que continúan surgiendo vulnerabilidades arquitectónicas y de canal lateral en las tecnologías de enclave. El límite de seguridad es más estrecho que el de la nube tradicional, pero no es absoluto.

Leer  La FIFA comienza la plataforma de coleccionables de Power Soccer NFT

Más importante aún, tanto MPC como TEE a menudo operan sobre una infraestructura de hiperescalador. El hardware físico, la capa de virtualización y la cadena de suministro siguen concentrados. Si un proveedor de infraestructura controla el acceso a las máquinas, el ancho de banda o las regiones geográficas, conserva su influencia operativa. La criptografía puede impedir la inspección de datos, pero no impide las restricciones de rendimiento, los cierres o las intervenciones de políticas.

Las herramientas criptográficas avanzadas dificultan los ataques específicos, pero aún así no eliminan el riesgo de falla a nivel de infraestructura. Simplemente reemplazan una concentración visible por otra más compleja.

El argumento de que “ninguna L1 puede manejar la computación global”

Hoskinson señaló que los hiperescaladores son necesarios porque ninguna Capa 1 puede manejar las demandas computacionales de los sistemas globales, haciendo referencia a los billones de dólares que han ayudado a construir dichos centros de datos.

Por supuesto, las redes de Capa 1 no se crearon para ejecutar ciclos de entrenamiento de IA, motores comerciales de alta frecuencia ni canales de análisis empresarial. Existen para mantener el consenso, verificar las transiciones estatales y proporcionar disponibilidad de datos duradera.

Tiene razón sobre para qué sirve la Capa 1. Pero los sistemas globales necesitan principalmente resultados que cualquiera pueda verificar, incluso si el cálculo se realiza en otro lugar.

En la infraestructura criptográfica moderna, la computación pesada se realiza cada vez más fuera de la cadena. Lo que importa es que los resultados puedan probarse y verificarse en cadena. Esta es la base de los paquetes acumulativos, los sistemas de conocimiento cero y las redes informáticas verificables.

Centrarse en si una L1 puede ejecutar computación global pasa por alto la cuestión central de quién controla la ejecución y la infraestructura de almacenamiento detrás de la verificación.

Si el cálculo se realiza fuera de la cadena pero depende de una infraestructura centralizada, el sistema hereda modos de falla centralizados. La colonización sigue siendo descentralizada en teoría, pero el camino para producir transiciones estatales válidas está concentrado en la práctica.

La cuestión debería ser la dependencia en la capa de infraestructura, no la capacidad computacional dentro de la Capa 1.

Leer  Luffa y Rei Network socio para reinventar la comunicación descentralizada en Web3

La neutralidad criptográfica no es lo mismo que la neutralidad de participación

La neutralidad criptográfica es una idea poderosa y algo que Hoskinson utilizó en su argumento. Significa que las reglas no se pueden cambiar arbitrariamente, que no se pueden introducir puertas traseras ocultas y que el protocolo sigue siendo justo.

Pero la criptografía continúa hardware.

Esa capa física determina quién puede participar, quién puede permitírselo y quién termina excluido, porque el rendimiento y la latencia están, en última instancia, limitados por las máquinas reales y la infraestructura en la que se ejecutan. Si la producción, distribución y alojamiento de hardware permanecen centralizados, la participación queda económicamente limitada incluso cuando el protocolo en sí es matemáticamente neutral.

En los sistemas de alta computación, el hardware es el que cambia las reglas del juego. Determina la estructura de costos, quién puede escalar y la resiliencia bajo la presión de la censura. Un protocolo neutral que se ejecuta en una infraestructura concentrada es neutral en teoría pero limitado en la práctica.

La prioridad debería desplazarse hacia la criptografía combinada con diversificado propiedad del hardware.

Sin diversidad de infraestructura, la neutralidad se vuelve frágil bajo presión. Si un pequeño conjunto de proveedores puede limitar las cargas de trabajo, restringir regiones o imponer barreras de cumplimiento, el sistema hereda su influencia. La equidad en las reglas por sí sola no garantiza la equidad en la participación.

La especialización supera a la generalización en los mercados informáticos

Competir con AWS a menudo se plantea como una cuestión de escala, pero esto también es engañoso.

Los hiperescaladores optimizan la flexibilidad. Su infraestructura está diseñada para atender miles de cargas de trabajo simultáneamente. Capas de virtualización, sistemas de orquestación, herramientas de cumplimiento empresarial y garantías de elasticidad: estas características son fortalezas para la computación de uso general, pero también son capas de costos.

La prueba de conocimiento cero y la computación verificable son deterministas, densas en computación, con ancho de banda de memoria limitado y sensibles a las canalizaciones. En otras palabras, premian la especialización.

Una red de prueba especialmente diseñada compite en prueba por dólar, prueba por vatio y prueba por latencia. Cuando el hardware, el software de prueba, el diseño de circuitos y la lógica de agregación se integran verticalmente, la eficiencia aumenta. Eliminar capas de abstracción innecesarias reduce los gastos generales. El rendimiento sostenido en clústeres persistentes supera el escalamiento elástico para cargas de trabajo estrechas y constantes.

Leer  Novastro aprovecha a Terminus para integrar activos tokenizados y pagos del mundo real en APAC

En los mercados informáticos, la especialización supera consistentemente a la generalización para tareas constantes y de gran volumen. AWS optimiza para opcionalidad. Una red de pruebas dedicada optimiza una clase de trabajo.

La estructura económica también difiere. El precio de los hiperescaladores para los márgenes empresariales y la amplia variabilidad de la demanda. Una red alineada en torno a incentivos de protocolo puede amortizar el hardware de manera diferente y ajustar el rendimiento en torno a una utilización sostenida en lugar de modelos de alquiler a corto plazo.

La competencia se centra en la eficiencia estructural para una carga de trabajo definida.

Utilice hiperescaladores, pero no dependa de ellos

Los hiperescaladores no son el enemigo. Son proveedores de infraestructura eficientes, confiables y distribuidos globalmente. El problema es la dependencia.

Una arquitectura resiliente utiliza proveedores importantes para capacidad de ráfaga, redundancia geográfica y distribución perimetral, pero no ancla las funciones principales a un único proveedor o a un pequeño grupo de proveedores.

La liquidación, la verificación final y la disponibilidad de artefactos críticos deben permanecer intactas incluso si una región de la nube falla, un proveedor sale de un mercado o las restricciones políticas se endurecen.

Aquí es donde el almacenamiento descentralizado y la infraestructura informática se convierten en una alternativa viable. Los artefactos de prueba, los registros históricos y los aportes de verificación no deben poder retirarse a discreción del proveedor. En cambio, deberían vivir de una infraestructura que esté económicamente alineada con el protocolo y estructuralmente difícil de desactivar.

Los Hypescalers deben usarse como un opcional acelerador en lugar de algo fundamental para el producto. La nube aún puede ser útil para alcances y ráfagas, pero la capacidad del sistema para producir pruebas y persistir en aquello de lo que depende la verificación no está controlada por un solo proveedor.

En un sistema así, si un hiperescalador desaparece mañana, la red sólo se ralentizaría, porque las partes más importantes pertenecen y son operadas por una red más amplia en lugar de alquilarse desde un punto de estrangulamiento de una gran marca.

Así es como se fortalece el espíritu de descentralización de las criptomonedas.

spot_img

LEAVE A REPLY

Please enter your comment!
Please enter your name here

spot_img

ÚLTIMAS PUBLICACIONES

Una tendencia lenta en las criptomonedas puede centrarse en Ripple (XRP)

Ripple (XRP) se encuentra actualmente en 1,41 dólares, esperando una oportunidad de ascender en el radar del mercado. El precio de XRP ha explorado anteriormente...

Un analista dice que los alcistas de Bitcoin han ganado y...

Editorial confiable contenido, revisado por los principales expertos de la industria y editores experimentados. Divulgación de anuncios Durante la última semana, el Los alcistas de Bitcoin...

Donald Trump anuncia que organizará otra cena con los poseedores de...

Según información del sitio web oficial de $TRUMPun proyecto criptográfico vinculado al presidente estadounidense Donald Trump, se llevará a cabo un evento especial para $TRUMP...

Ethereum y Solana vuelven a encabezar la actividad de los desarrolladores,...

Editorial confiable contenido, revisado por los principales expertos de la industria y editores experimentados. Divulgación de anuncios Ethereum y Solana lideran actualmente la actividad de los...

Más populares