Даже опытным пользователям может быть трудно понять некоторые из более сложных жаргонизмов в криптовалюте. Иногда вам просто приходится кивать, когда кто-то небрежно упоминает кластеры и Общий Сбой Византийских Генералов в своих историях. Известная своей быстрой изобретательностью, индустрия биткоина создала сложный словарный запас, который иногда испытывает на прочность даже опытных экспертов. Пора раз и навсегда разобраться с этой проблемой.
Эта статья разбирает на атомы семь самых сложных и часто неправильно интерпретируемых фраз в среде блокчейна, предлагая тщательное исследование их значений, использования и будущих последствий для цифровых денег.
Общий Сбой Византийских Генералов: Основа Безопасности Блокчейна
Большинство из миллионов энтузиастов криптовалюты могли услышать что-то об Общем Сбое Византийских Генералов. Однако 99.9% из них не могут разумно объяснить, что это такое.
Обычно, те, кто изучает историю создания биткоина и обнаруживает, что Сатоши Накамото использовал майнинг для решения проблемы Общего Сбоя Византийских Генералов, также не имеют ясного понимания, что это такое.
Считается ли, что эта проблема относится к майнингу? Нет, не совсем.
Общий Сбой Византийских Генералов (BFT) – термин, происходящий из теоретической проблемы компьютерных наук, известной как Проблема Византийских Генералов, имеет важное значение для технологии блокчейн. Впервые представленная в 1982 году Лесли Лэмпортом, Робертом Шостаком и Маршалом Пизом, данная проблема подчеркивает трудности достижения консенсуса в распределенной системе, где участники могут быть враждебными или ненадежными.
В Проблеме Византийских Генералов нескольким генералам необходимо согласовать атаку на город. Они могут общаться только с помощью посыльных; некоторые генералы могут быть предателями, пытающимися подорвать стратегию. Задача заключается в выработке стратегии, позволяющей верным генералам прийти к согласию, даже в присутствии предателей.
Общий сбой византийских генералов в контексте блокчейна является способностью системы функционировать так, как задумано, и достигать консенсуса, даже в случае отказа или злонамеренных действий некоторых ее компонентов. Сохранение целостности и безопасности распределенных сетей зависит от этого.
Путем использования механизма консенсуса "доказательство работы" (PoW), Сатоши Накамото, псевдонимный автор Bitcoin, по сути, решил Проблему Византийских Генералов для цифровых валют. Майнеры в PoW конкурируют в решении сложных математических задач; победитель получает возможность присоединить следующий блок к блокчейну. Поскольку этот метод требует больших вычислительных затрат, у майнеров есть значительный финансовый стимул действовать честно.
Решение PoW работает, потому что:
- Участие дорогостоящее, что отпугивает как добросовестную, так и негативную активность.
- Сложность задач гарантирует, что ни одна сущность не может легко доминировать в сети.
- Правило самой длинной цепочки предлагает простой способ найти правильную версию блокчейна.
Впрочем, PoW не является единственным решением Проблемы Византийских Генералов на блокчейне. Чтобы решить BFT более энергоэффективным способом, были созданы другие системы консенсуса, такие как делегированное доказательство доли (DPoS) и доказательство доли (PoS).
Например, Ethereum использовал метод консенсуса BFT, известный как Gasper, когда перешел от PoW к PoS, иногда называемого «The Merge». Сильные гарантии Общего Сбоя Византийских Генералов достигаются путем комбинирования Casper FFG (финальной системы на основе PoS) с правилом выбора форк LMD-GHOST, что значительно снижает потребление энергии.
Осознание основных идей, обеспечивающих надежность и безопасность систем блокчейна, зависит от понимания BFT. Новые методы BFT продолжают появляться по мере развития технологии, следовательно, определяя направление распределенных систем.
...
Подробнее о терминах в следующих разделах...
перевести следующие содержания на ru. оформите результат следующим образом:
Пропустите перевод для markdown ссылок.
Содержимое: Ethereum universe. Многие потребители, тем временем, не могут действительно понять, что такое блоки. И наконец слово становится одним из тех, о которых вы желаете знать, но никогда не подходящее время, чтобы исследовать технические спецификации.
Давайте решим эту проблему.
В частности, в связи с предстоящим обновлением Dencun — смесью обновлений Deneb и Cancun — блоки, сокращение от двоичных больших объектов, означают значительный сдвиг в дорожной карте масштабирования Ethereum.
Понимание блоков требует исследования технических аспектов управления данными Ethereum и пути к более высокой масштабируемости.
Блоки в контексте Ethereum — это большое количество данных, находящихся вдали от слоя исполнения, где работают смарт-контракты, но, тем не менее, часть экосистемы Ethereum. Они спроектированы как временные, остаются в сети в течение восемнадцати - двадцати пяти дней, прежде чем их выбросят.
Ключевые характеристики блоков включают:
- Размер: Каждый блок может быть размером до 128 КБ, что значительно больше данных, обычно включаемых в транзакции Ethereum.
- Назначение: Блоки предназначены в первую очередь для обслуживания решений второго слоя, в частности сверток, предоставляя более экономически эффективный способ размещения данных в сети Ethereum.
- Проверка: Хотя блоки не обрабатываются виртуальной машиной Ethereum (EVM), их целостность проверяется с помощью криптографической техники, называемой обязательствами KZG.
- Временная природа: В отличие от традиционных данных блокчейна, которые хранятся бесконечно, блоки спроектированы как временные, уменьшая долгосрочные требования к хранению.
Блоки тесно связаны с идеей "прото-данкшардинга", промежуточной стадии к полной шардинге в Ethereum (мы обсудим это через минуту). Названо в честь его предложителей Протоламбы и Данкрада Фейста, прото-данкшардинг представляет собой новый тип транзакции (EIP-4844), позволяющий вставку блока.
Вот как работают блоки в контексте прото-данкшардинга:
- Решения второго слоя (например, свертки) генерируют данные транзакций.
- Эти данные форматируются в блоки.
- Блоки присоединяются к специальным транзакциям в сети Ethereum.
- Валидаторы и ноды проверяют целостность блоков, используя обязательства KZG, без необходимости обрабатывать все данные блока.
- Данные блока доступны в течение ограниченного времени, позволяя любому восстанавливать состояние второго слоя, если это необходимо.
- Через 18-25 дней данные блока удаляются, но обязательство по данным остается в цепочке навсегда.
Введение блоков имеет различные преимущества:
- Сниженные расходы: Предоставляя более эффективный способ для сверток размещать данные в сети Ethereum, транзакции с блоками могут значительно снизить комиссии для пользователей второго слоя.
- Увеличенная масштабируемость: Блоки позволяют включать больше данных в каждый блок Ethereum, не увеличивая вычислительную нагрузку на сеть.
- Улучшенная доступность данных: Хотя данные блоков временные, они обеспечивают доступность данных второго слоя в периоды вызова в оптимистических свертках или для пользователей, которые нуждаются в восстановлении состояния второго слоя.
- Подготовка к шардингу: Прото-данкшардинг служит в качестве ступени к полному шардингу, позволяя экосистеме Ethereum постепенно адаптироваться к новым парадигмам управления данными.
Ввод блоков, тем временем, также приносит трудности:
- Увеличенные требования к пропускной способности и хранению: Узлы будут нуждаться в обработке больших объемов данных, даже если временно.
- Сложность: Добавление нового типа транзакции и структуры данных увеличивает общую сложность протокола Ethereum.
- Потенциальные давления централизации: увеличенные требования к ресурсам могут сделать более сложным для людей запуск полных узлов.
Блоки и прото-данкшардинг являются ключевыми компонентами в балансе масштабируемости, децентрализации и безопасности, поскольку Ethereum продолжает развиваться к Ethereum 2.0. Блоки предоставляют путь к более масштабируемой экосистеме Ethereum, предлагая более эффективный слой доступности данных, особенно помогая решениям второго слоя, становящимся все более значимыми в блокчейн-сцене.
Прото-данкшардинг: ступень Ethereum к масштабируемости
Прото-данкшардинг уже упоминался выше. Давайте исследуем это более подробно.
Представляя важный поворотный момент в дорожной карте масштабируемости Ethereum, он иногда известен как EIP-4844 (E Ethereum Improvement Proposal 4844). Стремясь резко снизить стоимость данных для сверток и других решений для масштабирования уровня два, эта идея — названная именем предложителей Протоламбы и Данкрад Фейст — служит как промежуточный шаг к настоящей шардинге.
Сначала необходимо понять шардинг, прежде чем можно понять прото-данкшардинг.
Шардинг — это метод разделения базы данных, при котором блокчейн разбивается на меньшие, более управляемые части. Путем параллельного хранения данных и обработки транзакций каждая часть теоретически может увеличить емкость сети. Однако, реализация полной шардинга — сложная задача, требующая значительных изменений в протоколе Ethereum.
Прото-данкшардинг приносит множество важных идей:
-
Транзакции, содержащие блоки: новый тип транзакции, который может нести большие объемы данных (блоки), которые отделены от слоя исполнения.
-
Выборка доступности данных: метод, позволяющий узлам проверять доступность данных блока без загрузки всего блока.
-
Обязательства KZG: Криптографический метод, используемый для создания кратких доказательств содержания блока, позволяющий эффективную проверку.
-
Временное хранение данных: Данные блока хранятся в сети только ограниченное время (18-25 дней), после чего они могут быть удалены, сохраняя при этом обязательство по данным в цепочке.
Прото-данкшардинг действует таким образом:
- Решения второго уровня (например, свертки) генерируют данные транзакций.
- Эти данные форматируются в блоки (двоичные большие объекты).
- Блоки присоединяются к специальным транзакциям в сети Ethereum.
- Валидаторы и ноды проверяют целостность блоков, используя обязательства KZG, без необходимости обрабатывать все данные блока.
- Данные блока доступны для ограниченного времени, позволяя любому восстанавливать состояние второго уровня, если это необходимо.
- После истечения срока хранения данные блока удаляются, но обязательство по данным остается в цепочке навсегда.
Прото-данкшардинг имеет множество важных преимуществ:
-
Сниженные расходы: Предоставляя более эффективный способ для сверток размещать данные в сети Ethereum, транзакции с блоками могут значительно снизить комиссии для пользователей второго слоя. Это может потенциально снизить затраты в 10-100 раз.
-
Увеличенная масштабируемость: Блоки позволяют включать больше данных в каждый блок Ethereum, не увеличивая вычислительную нагрузку на сеть. Емкость данных в Ethereum может увеличиться таким образом до 100 раз.
-
Улучшенная доступность данных: Хотя данные блоков временные, они обеспечивают, что данные второго уровня доступны для периодов вызовов в оптимистичных свертках или для пользователей, которые нуждаются в восстановлении состояния второго уровня.
-
Постепенная эволюция протокола: Прото-данкшардинг позволяет экосистеме Ethereum адаптироваться к новым парадигмам управления данными постепенно, прокладывая путь к полной шардинге в будущем.
Однако внедрение прото-данкшардинга также несет вызовы:
-
Увеличенная сложность: Добавление нового типа транзакций и структуры данных увеличивает общую сложность протокола Ethereum.
-
Требования к узлам: Узлам потребуется обрабатывать больше объемов данных, даже временно, что может повысить требования к оборудованию.
-
Потенциальные давления централизации: Увеличенные требования к ресурсам могут сделать более сложным для людей запуск полных узлов, что может привести к некоторой степени централизации.
-
Адаптация экосистемы: Решения второго слоя и другие инструменты Ethereum потребуется обновить для полного использования преимуществ прото-данкшардинга.
Ключевой этап в развитии Ethereum, прото-данкшардинг балансирует спрос на большую масштабируемость и сложностями внедрения сложных обновлений протокола. Более масштабируемая среда Ethereum обеспечивается за счет более эффективного слоя доступности данных.
Технология распределенного валидатора (DVT): увеличение безопасности Proof-of-Stake
Технология валидатора стала значимой в мире Ethereum с момента слияния в 2022 году, когда протокол Proof-of-Work был заменен на Proof-of-Stake.
Но многие по-прежнему не понимают, как эта технология работает.
Поддержание безопасности и децентрализации сети критически зависит от идеи технологии распределенного валидатора (DVT). Особенно в сетях, таких как Ethereum 2.0, DVT знаменует собой резкое изменение в поведении валидаторов внутри систем Proof-of-Stake.
В основном, DVT позволяет одному валидатору запускать несколько узлов, тем самым распределяя задачи и риски, связанные с валидированием, среди нескольких участников. Этот метод контрастирует с традиционными конфигурациями валидаторов, в которых одно лицо отвечает за все аспекты процесса валидации.
Фундаментальные элементы DVT состоят из:
- Клиент валидатора: Программное обеспечение, отвечающее за предложение и аттестацию блоков.
- Распределенное создание ключей (DKG): Криптографический протокол, который позволяет нескольким участникам коллективно генерировать совместный приватный ключ.
- Подписи с порогом: Криптографическая техника, которая позволяет группе участников коллективно подписывать сообщения, при этом для создания действительной подписи требуется определенный порог участников.
Обычно процедура DVT происходит так:
-
Группа операторов объединяется для создания распределенного валидатора.
-
Они используют DKG для генерации общего ключа валидатора, при этом каждый оператор хранит часть ключа.
-
Когда валидатор должен выполнить действие (например, предложить или аттестировать блок), необходим порог числа операторов для кооперации в подписании сообщения.
-
Полученная подпись неотличима оСодержание: единственная точка отказа значительно сокращается. Даже если один оператор скомпрометирован или вышел из сети, валидатор может продолжать работать.
-
Увеличенное время безотказной работы: С несколькими операторами шансы валидатора быть доступным для выполнения своих обязанностей в любое время значительно увеличиваются, что потенциально приводит к более высоким наградам и улучшению производительности сети.
-
Децентрализация: Технология распределенного валидации (DVT) позволяет более децентрализованную сеть, позволяя небольшим операторам участвовать в валидации без полного принятия на себя риска и ответственности за независимое управление валидатором.
-
Защита от порезки: В системах на основе доказательства доли (proof-of-stake) валидаторы могут подвергаться наказанию (порезке) за неправомерные действия. Требуя согласования ряда операторов на действия, DVT может помочь избежать случайного порезки.
Тем не менее, у DVT также есть определенные проблемы:
-
Сложность: Реализация DVT требует сложных криптографических протоколов и координации между несколькими сторонами, что добавляет сложности в операции валидатора.
-
Задержка: Необходимость координации между несколькими операторами может потенциально привести к задержкам в действиях валидатора, хотя это можно смягчить при правильной реализации.
-
Предположения о доверии: Хотя DVT уменьшает единственные точки отказа, он вводит необходимость доверия между операторами распределенного валидатора.
-
Регуляторные соображения: Распределенная природа DVT может создать вопросы о соблюдении нормативных требований и ответственности в некоторых юрисдикциях.
DVT вероятно станет более важным для поддержания безопасности и децентрализации по мере развития сетей на основе доказательства доли. Хотя различные реализации сейчас находятся на стадии разработки или раннего развертывания, такие проекты, как Ethereum 2.0, активно изучают включение DVT.
Принятие DVT может значительно повлиять на архитектуру сетей на основе доказательства доли, позволяя новые виды объединения валидаторов и делегирования, которые достигают баланса между безопасностью, децентрализацией и доступностью.
Динамическое ресшардинг: Адаптивное разделение блокчейна
И, наконец, давайте обсудим динамическое ресшардинг. Основанное на идее шардирования, но добавляющее слой гибкости, позволяющий сети реагировать на изменяющиеся потребности в реальном времени, оно предлагает новый метод масштабирования блокчейна.
Часто называемая "священным Граалем шардирования" некоторыми энтузиастами блокчейна, эта технология обещает решить одну из самых длительных проблем в дизайне блокчейна: балансировку пропускной способности сети с использованием ресурсов. Звучит действительно сложно, не правда ли?
Понимание динамического ресшардинга требует сначала понимания основ шардирования:
Адаптированное для систем блокчейна, шардирование — это метод разделения базы данных. Он включает в себя разбиение блокчейна на более мелкие, более управляемые части — шарды. Каждый шард может параллельно хранить данные и обрабатывать транзакции, тем самым теоретически увеличивая пропускную способность сети.
Динамическое ресшардинг продвигает эту идею, позволяя сети изменять количество и расположение шардов в зависимости от текущего состояния сети.
Эта гибкая стратегия предлагает ряд возможных преимуществ.
Сеть может гарантировать эффективное использование сетевых ресурсов, создавая новые шарды в периоды высокого спроса и объединяя неиспользуемые шарды при низком спросе.
Динамическое ресшардинг позволяет блокчейну расширять свою пропускную способность без использования хардфорка или значительного обновления протокола по мере увеличения использования сети. Повторное распределение данных и транзакций между шардами помогает сети поддерживать более стабильную производительность по всему блокчейну.
Динамическое ресшардинг также может позволить сети адаптироваться к непредвиденным событиям, таким как сбои шардов или всплески спроса.
Процесс динамического ресшардинга обычно включает в себя несколько ключевых компонентов.
Система мониторинга непрерывно анализирует метрики сети, такие как объем транзакций, использование шардов и производительность узлов. Двигатель принятия решений использует заранее определенные алгоритмы и, возможно, методы машинного обучения для определения, когда и как проводить ресшардинг сети. Протокол координации обеспечивает согласие всех узлов в сети с новой конфигурацией шарда и последовательное выполнение процесса ресшардинга. Шарды разделяются или объединяются, перемещая данные и информацию о состоянии между ними безопасно.
Вот краткое изложение возможных приложений динамического ресшардинга:
-
Система мониторинга обнаруживает, что определенный шард постоянно обрабатывает близко к своей максимальной емкости.
-
Двигатель принятия решений определяет, что этот шард следует разделить на два, чтобы сбалансировать нагрузку.
-
Протокол координации инициирует процесс ресшардинга, обеспечивая знание всех узлов о предстоящем изменении.
-
Сеть проводит тщательно скоординированный процесс создания нового шарда, миграции соответствующих данных и обновления информации о маршрутизации.
-
По завершении сеть теперь имеет дополнительный шард для обработки увеличенной нагрузки.
Хотя динамическое ресшардинг предлагает захватывающие возможности, он также представляет собой значительные технические вызовы.
Реализация системы, способной безопасно и эффективно ресшардировать живую сеть блокчейна, крайне сложна и требует сложных механизмов консенсуса и координации. Также обеспечение того, чтобы вся соответствующая информация о состоянии была точно сохранена и легко доступна при передаче данных через шарды, представляет собой нетривиальную задачу управления состоянием.
Динамическое ресшардинг должен учитывать транзакции через несколько шардов, что может усложниться в зависимости от расположения шардов. Затем, вопросы безопасности. Сам процесс ресшардинга должен быть защищен от атак, направленных на манипуляцию с сетью во время этой, возможно, уязвимой операции. Процедуры мониторинга и принятия решений в динамическом ресшардинге добавляют дополнительную вычислительную нагрузку на сеть.
Несмотря на эти трудности, различные блокчейн-инициативы активно занимаются изучением и созданием методов динамического ресшардинга. Например, Near Protocol установила своего рода динамическое ресшардинг на своей основной сети, позволяя сети изменять количество шардов в зависимости от спроса.
По мере развития технологии блокчейна динамическое ресшардинг может стать все более важным в создании масштабируемых, гибких сетей, способных обеспечить общее принятие распределенных приложений и услуг.