Ethereum расширяет свои горизонты: The Surge может достичь 100000 TPS

Будущее Эфириума: The Surge

Дорожная карта Ethereum изначально включала две стратегии масштабирования: шардирование и протоколы второго уровня. По мере углубления исследований эти два направления объединились, сформировав дорожную карту, сосредоточенную на Rollup, что по-прежнему является текущей стратегией масштабирования Ethereum.

Дорожная карта, сосредоточенная на Rollup, предлагает простое распределение обязанностей: Ethereum L1 сосредоточен на том, чтобы стать мощным и децентрализованным базовым уровнем, в то время как L2 берет на себя задачу помощи в расширении экосистемы. Эта модель повсюду в обществе: существование судебной системы (L1) не предназначено для достижения сверхвысокой скорости и эффективности, а для защиты контрактов и прав собственности, в то время как предприниматели (L2) должны строить на этой прочной базовой платформе, способствуя человеческому прогрессу.

В этом году дорожная карта, сосредоточенная на Rollup, достигла значительных результатов: с запуском EIP-4844 blobs существенно увеличилась пропускная способность данных Ethereum L1, несколько Ethereum виртуальных машин (EVM) Rollup перешли в первую стадию. Каждый L2 существует как "шардинг" с собственными внутренними правилами и логикой, разнообразие и множественность способов реализации шардирования теперь стали реальностью. Но этот путь также сталкивается с некоторыми уникальными вызовами. Наша текущая задача заключается в том, чтобы завершить дорожную карту, сосредоточенную на Rollup, и решить эти проблемы, сохраняя при этом уникальную устойчивость и децентрализованность Ethereum L1.

Всплеск: ключевая цель

  1. В будущем Ethereum сможет достичь более 100000 TPS через L2;
  2. Сохранять децентрализованность и надежность L1;
  3. По крайней мере, некоторые L2 полностью унаследовали основные свойства Ethereum (: доверие, открытость, устойчивость к цензуре );
  4. Ethereum должен ощущаться как единая экосистема, а не как 34 различные блокчейны.

Содержание статьи

  1. Треугольник парадокса масштабируемости
  2. Дальнейшие достижения в области выборки доступности данных
  3. Сжатие данных
  4. Обобщенный Плазма
  5. Зрелая система доказательства L2
  6. Улучшение межоперабельности между L2
  7. Расширение выполнения на L1

Виталик новая статья: возможное будущее Ethereum, The Surge

Парадокс треугольника масштабируемости

Треугольник масштабируемости считает, что между тремя характеристиками блокчейна существует противоречие: децентрализация ( низкая стоимость узлов, работающих в сети ), масштабируемость ( большое количество обрабатываемых транзакций ) и безопасность ( злоумышленнику необходимо разрушить большую часть узлов в сети, чтобы сделать одну транзакцию неуспешной ).

Треугольный парадокс не является теоремой, он предоставляет эвристический математический аргумент: если децентрализованный дружественный узел может проверять N транзакций в секунду, и у вас есть цепочка, обрабатывающая k*N транзакций в секунду, тогда (i) каждая транзакция может быть видна только 1/k узлам, что означает, что злоумышленнику нужно просто уничтожить несколько узлов, чтобы провести злонамеренную транзакцию, или (ii) ваши узлы станут мощными, в то время как ваша цепочка не будет децентрализованной.

На протяжении многих лет некоторые высокопроизводительные цепочки утверждают, что они решили тройственное противоречие без существенного изменения архитектуры, обычно применяя методы программной инженерии для оптимизации узлов. Это всегда вводит в заблуждение, так как запуск узлов на этих цепочках гораздо сложнее, чем на Ethereum.

Тем не менее, сочетание выборки доступности данных и SNARKs действительно решает треугольную парадокс: оно позволяет клиенту проверять доступность определенного объема данных и корректность выполнения определенного количества вычислительных шагов, загружая лишь небольшое количество данных и выполняя минимальное количество вычислений. SNARKs не требуют доверия. Выборка доступности данных имеет тонкую модель доверия few-of-N, но она сохраняет основные характеристики цепочки с ограниченной масштабируемостью, а именно, даже атака на 51% не может заставить сеть принять плохой блок.

Другим способом решения тройственной проблемы является архитектура Plasma, которая с помощью умных технологий, в совместимой с мотивацией манере, возлагает ответственность за доступность данных мониторинга на пользователей. Еще в 2017-2019 годах, когда у нас был только доказательство мошенничества как средство для увеличения вычислительных возможностей, Plasma была очень ограничена в безопасном исполнении, но с распространением SNARKs( нулевых знаний сжатых не интерактивных доказательств) архитектура Plasma стала более жизнеспособной для более широких сценариев использования, чем когда-либо.

! Виталик Новая статья: Возможное будущее Ethereum, всплеск

Дальнейшие достижения в области выборки доступности данных

Какую проблему мы решаем?

13 марта 2024 года, когда обновление Dencun будет запущено, в блокчейне Ethereum каждые 12 секунд будет 3 слота с блобами объемом около 125 кБ, или доступная полоса пропускания данных для каждого слота составит около 375 кБ. Предполагая, что данные транзакций публикуются непосредственно в цепочке, перевод ERC20 занимает около 180 байт, поэтому максимальная TPS Rollup на Ethereum составит: 375000 / 12 / 180 = 173,6 TPS

Если мы добавим теоретический максимальный размер calldata Ethereum (: 30 миллионов Gas на слот / 16 gas за байт = 1,875,000 байт на слот ), то это приведет к 607 TPS. Используя PeerDAS, количество blob может увеличиться до 8-16, что обеспечит 463-926 TPS для calldata.

Это значительное улучшение для Ethereum L1, но этого недостаточно. Мы хотим больше масштабируемости. Наша среднесрочная цель — 16 МБ на слот, и если улучшить сжатие данных Rollup, это приведет к ~58000 TPS.

Что это? Как это работает?

PeerDAS является относительно простым воплощением "1D sampling". В Ethereum каждый blob представляет собой полином степени 4096 в 253-мерном простом поле (. Мы транслируем доли полинома, каждая из которых содержит 16 оценок на 16 соседних координат из всего 8192 координат. Из этих 8192 оценок любые 4096 ) могут восстановить blob в соответствии с текущими предложенными параметрами: любые 64 из 128 возможных образцов (.

Работа PeerDAS заключается в том, чтобы каждый клиент прослушивал небольшое количество подсетей, где i-я подсеть транслирует i-й образец любого blob, и запрашивает у одноранговых узлов в глобальной p2p сети ), кто будет прослушивать различные подсети (, чтобы запросить необходимые ему blob из других подсетей. Более консервативная версия SubnetDAS использует только механизм подсетей без дополнительных запросов к одноранговому уровню. Текущая идея заключается в том, чтобы узлы, участвующие в доказательстве доли, использовали SubnetDAS, а другие узлы ), то есть клиенты (, использовали PeerDAS.

С теоретической точки зрения, мы можем значительно масштабировать «1D sampling»: если мы увеличим максимальное количество blob до 256) с целью 128(, то сможем достичь цели в 16 МБ, а доступность данных при каждом узле 16 образцов * 128 blob * каждый blob по 512 байт = 1 МБ пропускной способности данных на слот. Это едва укладывается в наши пределы терпимости: это возможно, но это означает, что клиенты с ограниченной пропускной способностью не смогут осуществлять выборку. Мы можем оптимизировать это до определенной степени, уменьшив количество blob и увеличив размер blob, но это приведет к повышению стоимости восстановления.

Таким образом, мы в конечном итоге хотим продвинуться дальше и провести 2D выборку )2D sampling(, этот метод не только проводит случайную выборку внутри blob, но и между blob. Используя линейные свойства KZG-коммитмента, расширяем набор blob в блоке с помощью набора новых виртуальных blob, которые избыточно кодируют одну и ту же информацию.

Крайне важно, что расширение вычислительных обязательств не требует наличия blob, поэтому этот подход в своей основе дружелюбен к распределенному строительству блоков. Узлы, фактически строящие блоки, должны только иметь KZG-обязательства blob и могут полагаться на выборку доступности данных )DAS( для проверки доступности блока данных. Одномерная выборка доступности данных )1D DAS( по своей сути также дружелюбна к распределенному строительству блоков.

![Виталик новая статья: возможное будущее Ethereum, The Surge])https://img-cdn.gateio.im/webp-social/moments-40311fde406a2b6c83ba590c35e23a7c.webp(

) что еще нужно сделать? Какие есть компромиссы?

Следующим шагом будет завершение реализации и запуска PeerDAS. Затем, постепенно увеличивая количество blob на PeerDAS, необходимо внимательно наблюдать за сетью и улучшать программное обеспечение для обеспечения безопасности, что является постепенным процессом. В то же время, мы надеемся на большее количество академических работ, регулирующих PeerDAS и другие версии DAS, а также взаимодействие с вопросами безопасности, такими как правила выбора разветвлений.

На более дальних этапах в будущем нам необходимо будет сделать больше работы, чтобы определить идеальную версию 2D DAS и доказать ее свойства безопасности. Мы также надеемся в конечном итоге перейти от KZG к альтернативе, которая безопасна для квантовых технологий и не требует доверенной настройки. В настоящее время нам неясно, какие кандидаты дружелюбны к построению распределенных блоков. Даже использование дорогостоящей "грубой силы", то есть использование рекурсивного STARK для генерации доказательств действительности для восстановления строк и столбцов, недостаточно для удовлетворения требований, поскольку, хотя технически размер одного STARK составляет O(log)n### * log(log(n)( хэш-значение ( с использованием STIR), на практике STARK почти такого же размера, как и весь blob.

Я считаю, что долгосрочный реальный путь это:

  1. Реализация идеальной 2D DAS;
  2. Продолжайте использовать 1D DAS, жертвуя эффективностью полосы пропускания выборки, ради простоты и надежности, принимая более низкий предел данных.
  3. Отказаться от DA и полностью принять Plasma в качестве нашей основной архитектуры Layer2.

Обратите внимание, что даже если мы решим непосредственно расширить выполнение на уровне L1, такой выбор все же существует. Это связано с тем, что если уровень L1 должен обрабатывать большое количество TPS, блоки L1 станут очень большими, и клиентам потребуется эффективный способ для проверки их правильности, поэтому нам придется использовать на уровне L1 те же технологии, что и в Rollup), такие как ZK-EVM и DAS(.

) Как взаимодействовать с другими частями дорожной карты?

Если реализовать сжатие данных, спрос на 2D DAS уменьшится или, по крайней мере, будет отложен, если Plasma будет широко использоваться, то спрос еще больше уменьшится. DAS также ставит перед протоколами и механизмами построения распределенных блоков определенные вызовы: хотя DAS теоретически дружелюбен к распределенной реконструкции, на практике это требует сочетания с предложением списка включения пакетов и механизмом выбора разветвлений вокруг него.

! Виталик Новая статья: Возможное будущее Ethereum, всплеск

Сжатие данных

Какую проблему мы решаем?

Каждая транзакция в Rollup занимает много пространства на цепочке данных: передача ERC20 требует около 180 байт. Даже при идеальной выборке доступности данных это ограничивает масштабируемость протоколов Layer. Каждый слот 16 МБ, мы получаем:

16000000 / 12 / 180 = 7407 TPS

Если мы сможем не только решить проблемы числителя, но и проблемы знаменателя, и сделать так, чтобы каждая транзакция в Rollup занимала меньше байтов в цепи, что тогда будет?

( Что это такое и как это работает?

В процессе сжатия нулевых байтов заменяются каждый длинный последовательностью нулевых байтов двумя байтами, указывающими, сколько нулевых байтов. Более того, мы использовали определенные свойства транзакций:

Подпись агрегирования: мы перешли от ECDSA-подписей к BLS-подписям, особенностью которых является то, что несколько подписей могут быть объединены в одну единую подпись, которая может доказать действительность всех исходных подписей. На уровне L1, даже если происходит агрегация, вычислительная стоимость верификации остается высокой, поэтому использование BLS-подписей не рассматривается. Однако в L2, в такой среде с дефицитом данных, использование BLS-подписей имеет смысл. Агрегационные характеристики ERC-4337 предоставляют путь для реализации этой функции.

Используйте указатели для замены адресов: если ранее использовался какой-либо адрес, мы можем заменить 20-байтный адрес на 4-байтный указатель, указывающий на какую-либо позицию в истории.

Кастомная сериализация значений транзакций------Большинство значений транзакций имеют небольшое количество знаков, например, 0.25 ETH представляется как 250,000,000,000,000,000 wei. Максимальные базовые комиссии и приоритетные комиссии также подобны. Поэтому мы можем использовать кастомный десятичный формат с плавающей точкой, чтобы представлять большинство валютных значений.

) что еще нужно сделать, какие есть компромиссы?

Следующим шагом будет фактическая реализация вышеуказанного плана. Основные компромиссы включают:

  1. Переход на подпись BLS требует больших усилий и снизит возможность усиления безопасности.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • 6
  • Поделиться
комментарий
0/400
TokenUnlockervip
· 07-07 21:07
Если ты лидер, не медли. Сначала насоси airdrop.
Посмотреть ОригиналОтветить0
ContractCollectorvip
· 07-07 05:58
Виталик Бутерин действительно не разочаровал меня.
Посмотреть ОригиналОтветить0
PumpDetectorvip
· 07-07 05:48
видел этот паттерн раньше... роллапы пампились в '21, история рифмуется. ngmi, если ты не обращаешь внимания на накопление L2 сейчас
Посмотреть ОригиналОтветить0
FloorSweepervip
· 07-07 05:44
везде слабые сигналы... но роллапы не являются тем альфа, которым ты думаешь
Посмотреть ОригиналОтветить0
CoconutWaterBoyvip
· 07-07 05:42
eth搞起来了 приятель
Посмотреть ОригиналОтветить0
MetamaskMechanicvip
· 07-07 05:41
Настоящий восторг, Эфир еще нужно будет смотреть на обновление.
Посмотреть ОригиналОтветить0
  • Закрепить