Lộ trình của Ethereum ban đầu bao gồm hai chiến lược mở rộng: phân đoạn và giao thức Layer2. Khi nghiên cứu sâu hơn, hai con đường này đã hòa nhập vào nhau, tạo thành lộ trình tập trung vào Rollup, đây vẫn là chiến lược mở rộng hiện tại của Ethereum.
Lộ trình dựa trên Rollup đưa ra một phân công đơn giản: Ethereum L1 tập trung vào việc trở thành một lớp nền mạnh mẽ và phi tập trung, trong khi L2 đảm nhận nhiệm vụ giúp hệ sinh thái mở rộng. Mô hình này hiện diện khắp nơi trong xã hội: sự tồn tại của hệ thống tòa án (L1) không phải để theo đuổi siêu tốc độ và hiệu quả cao, mà là để bảo vệ hợp đồng và quyền sở hữu tài sản, trong khi các doanh nhân (L2) phải xây dựng trên lớp nền vững chắc này, thúc đẩy sự tiến bộ của nhân loại.
Năm nay, lộ trình tập trung vào Rollup đã đạt được những thành tựu quan trọng: với sự ra mắt của EIP-4844 blobs, băng thông dữ liệu của Ethereum L1 đã được tăng cường đáng kể, nhiều Ethereum Virtual Machine (EVM) Rollup đã bước vào giai đoạn đầu tiên. Mỗi L2 tồn tại như một "mảnh" với các quy tắc và logic nội tại riêng. Sự đa dạng và phong phú trong cách thực hiện các mảnh hiện nay đã trở thành hiện thực. Nhưng con đường này cũng đối mặt với một số thách thức độc đáo. Nhiệm vụ hiện tại của chúng ta là hoàn thành lộ trình tập trung vào Rollup và giải quyết những vấn đề này, đồng thời duy trì sự vững mạnh và phân quyền đặc trưng của Ethereum L1.
The Surge:Mục tiêu quan trọng
Tương lai Ethereum có thể đạt hơn 100.000 TPS thông qua L2;
Giữ cho L1 có tính phi tập trung và độ bền vững;
Ít nhất một số L2 hoàn toàn kế thừa các thuộc tính cốt lõi của Ethereum ( như không tin cậy, mở, chống kiểm duyệt );
Ethereum nên cảm thấy như một hệ sinh thái thống nhất, chứ không phải 34 chuỗi khối khác nhau.
Nội dung bài viết
Tam giác nghịch lý về khả năng mở rộng
Tiến triển hơn nữa trong việc lấy mẫu khả năng truy cập dữ liệu
Nén dữ liệu
Plasma tổng quát
Hệ thống chứng minh L2 trưởng thành
Cải tiến khả năng tương tác giữa các L2
Mở rộng thực thi trên L1
Nghịch lý tam giác khả năng mở rộng
Tam giác nghịch lý khả năng mở rộng cho rằng có mâu thuẫn giữa ba đặc điểm của blockchain: phi tập trung ( chi phí của các nút hoạt động thấp ), khả năng mở rộng ( số lượng giao dịch xử lý nhiều ) và an ninh ( kẻ tấn công cần phải phá hoại một phần lớn các nút trong mạng để làm thất bại một giao dịch.
Nghịch lý tam giác không phải là một định lý, nó đưa ra một luận điểm toán học mang tính trực giác: nếu một nút thân thiện với phi tập trung có thể xác minh N giao dịch mỗi giây, và bạn có một chuỗi xử lý k*N giao dịch mỗi giây, thì )i( mỗi giao dịch chỉ có thể được nhìn thấy bởi 1/k nút, điều này có nghĩa là kẻ tấn công chỉ cần phá hủy một số nút nhỏ để thực hiện một giao dịch độc hại, hoặc )ii( các nút của bạn sẽ trở nên mạnh mẽ, trong khi chuỗi của bạn sẽ không được phi tập trung.
Trong nhiều năm qua, một số chuỗi hiệu suất cao thường tuyên bố rằng họ đã giải quyết được nghịch lý ba điểm mà không thay đổi cơ bản kiến trúc, thường là thông qua việc áp dụng các kỹ thuật kỹ thuật phần mềm để tối ưu hóa nút. Điều này luôn gây hiểu lầm, việc chạy nút trên những chuỗi này khó hơn rất nhiều so với việc chạy nút trên Ethereum.
Tuy nhiên, sự kết hợp giữa mẫu khả dụng dữ liệu và SNARKs thực sự giải quyết được nghịch lý tam giác: nó cho phép khách hàng xác minh một số lượng dữ liệu nhất định là khả dụng chỉ bằng cách tải xuống một lượng dữ liệu nhỏ và thực hiện rất ít phép toán. SNARKs là không cần tin cậy. Mẫu khả dụng dữ liệu có một mô hình tin cậy tinh tế few-of-N, nhưng nó giữ lại những đặc tính cơ bản mà chuỗi không thể mở rộng có, nghĩa là ngay cả khi bị tấn công 51%, cũng không thể ép buộc các khối xấu được mạng chấp nhận.
Một phương pháp khác để giải quyết vấn đề ba khó khăn là kiến trúc Plasma, nó sử dụng công nghệ tinh vi để chuyển giao trách nhiệm giám sát tính khả dụng của dữ liệu cho người dùng theo cách tương thích với động lực. Từ năm 2017-2019, khi chúng ta chỉ có biện pháp chứng minh gian lận để mở rộng khả năng tính toán, Plasma đã bị hạn chế rất nhiều trong việc thực thi an toàn, nhưng với sự phổ biến của SNARKs) các chứng minh không kiến thức ngắn gọn phi tương tác(, kiến trúc Plasma trở nên khả thi hơn cho nhiều trường hợp sử dụng hơn bao giờ hết.
![Vitalik bài viết mới: Tương lai có thể của Ethereum, The Surge])https://img-cdn.gateio.im/webp-social/moments-0a07a34094cbf643fdead78b4dd682c6.webp(
Tiến triển hơn nữa của việc lấy mẫu tính khả dụng dữ liệu
) Chúng tôi đang giải quyết vấn đề gì?
Vào ngày 13 tháng 3 năm 2024, khi nâng cấp Dencun được triển khai, mỗi slot 12 giây trên chuỗi khối Ethereum sẽ có 3 blob khoảng 125 kB, hoặc băng thông dữ liệu khả dụng khoảng 375 kB cho mỗi slot. Giả sử dữ liệu giao dịch được phát hành trực tiếp trên chuỗi, thì chuyển khoản ERC20 khoảng 180 byte, do đó TPS tối đa của Rollup trên Ethereum là: 375000 / 12 / 180 = 173.6 TPS
Nếu chúng ta cộng thêm giá trị tối đa lý thuyết của calldata Ethereum ###: mỗi slot 30 triệu Gas / mỗi byte 16 gas = mỗi slot 1,875,000 byte (, thì sẽ trở thành 607 TPS. Sử dụng PeerDAS, số lượng blob có thể tăng lên 8-16, điều này sẽ cung cấp 463-926 TPS cho calldata.
Đây là một nâng cấp quan trọng đối với Ethereum L1, nhưng vẫn chưa đủ. Chúng tôi muốn có thêm khả năng mở rộng. Mục tiêu trung hạn của chúng tôi là 16 MB cho mỗi slot, nếu kết hợp với các cải tiến nén dữ liệu Rollup, sẽ mang lại ~58000 TPS.
) Nó là gì? Nó hoạt động như thế nào?
PeerDAS là một triển khai tương đối đơn giản của "1D sampling". Trong Ethereum, mỗi blob là một đa thức bậc 4096 trên trường số nguyên tố 253位素数域###prime field(. Chúng tôi phát sóng các shares của đa thức, trong đó mỗi share chứa 16 giá trị đánh giá trên 16 tọa độ liền kề từ tổng cộng 8192 tọa độ. Trong 8192 giá trị đánh giá này, bất kỳ 4096 nào ) theo tham số được đề xuất hiện tại: bất kỳ 64 trong 128 mẫu khả thi ( đều có thể phục hồi blob.
Nguyên lý hoạt động của PeerDAS là cho phép mỗi khách hàng lắng nghe một số lượng nhỏ các mạng con, trong đó mạng con thứ i phát sóng mẫu thứ i của bất kỳ blob nào, và thông qua việc hỏi các đối tác trong mạng p2p toàn cầu ) ai sẽ lắng nghe các mạng con khác ( để yêu cầu blob cần thiết từ các mạng con khác. Phiên bản bảo thủ hơn SubnetDAS chỉ sử dụng cơ chế mạng con mà không có thêm yêu cầu từ lớp đối tác. Đề xuất hiện tại là cho phép các nút tham gia bằng chứng cổ phần sử dụng SubnetDAS, trong khi các nút khác ) tức là khách hàng ( sử dụng PeerDAS.
Về lý thuyết, chúng ta có thể mở rộng quy mô của một "1D sampling" đến mức khá lớn: nếu chúng ta tăng số lượng blob tối đa lên 256) với mục tiêu là 128(, thì chúng ta có thể đạt được mục tiêu 16MB, trong khi mỗi nút trong sampling khả năng dữ liệu có 16 mẫu * 128 blob * 512 byte cho mỗi mẫu blob = băng thông dữ liệu 1 MB cho mỗi slot. Điều này chỉ vừa đủ trong phạm vi chúng ta chấp nhận: điều này khả thi, nhưng điều đó có nghĩa là các khách hàng có băng thông hạn chế không thể thực hiện sampling. Chúng ta có thể tối ưu hoá điều này ở một mức độ nào đó bằng cách giảm số lượng blob và tăng kích thước blob, nhưng điều này sẽ làm tăng chi phí tái tạo.
Do đó, cuối cùng chúng tôi muốn tiến xa hơn, thực hiện 2D sampling )2D sampling (, phương pháp này không chỉ thực hiện việc lấy mẫu ngẫu nhiên trong blob mà còn thực hiện lấy mẫu ngẫu nhiên giữa các blob. Sử dụng tính chất tuyến tính của cam kết KZG, mở rộng tập hợp blob trong một khối bằng một tập hợp blob ảo mới, những blob ảo này mã hóa dư thừa cùng một thông tin.
Điều quan trọng là việc tính toán cam kết mở rộng không cần có blob, do đó phương án này về cơ bản là thân thiện với việc xây dựng khối phân tán. Các nút thực sự xây dựng khối chỉ cần có cam kết KZG blob, và chúng có thể dựa vào việc lấy mẫu khả năng dữ liệu )DAS( để xác minh khả năng của khối dữ liệu. Việc lấy mẫu khả năng dữ liệu một chiều )1D DAS( về cơ bản cũng thân thiện với việc xây dựng khối phân tán.
![Vitalik bài viết mới: Ethereum có thể trong tương lai, The Surge])https://img-cdn.gateio.im/webp-social/moments-40311fde406a2b6c83ba590c35e23a7c.webp(
) cần làm gì nữa? Còn những sự cân nhắc nào khác?
Tiếp theo là hoàn thành việc triển khai và ra mắt PeerDAS. Sau đó, số lượng blob trên PeerDAS sẽ được tăng cường liên tục, đồng thời quan sát cẩn thận mạng lưới và cải tiến phần mềm để đảm bảo an toàn, đây là một quá trình dần dần. Đồng thời, chúng tôi hy vọng có nhiều công trình học thuật hơn để quy định PeerDAS và các phiên bản DAS khác cũng như tương tác của chúng với các vấn đề an toàn liên quan đến quy tắc chọn nhánh.
Trong giai đoạn xa hơn trong tương lai, chúng ta cần làm nhiều việc hơn để xác định phiên bản lý tưởng của 2D DAS và chứng minh các thuộc tính bảo mật của nó. Chúng tôi cũng hy vọng cuối cùng có thể chuyển từ KZG sang một giải pháp thay thế an toàn lượng tử và không cần thiết lập đáng tin cậy. Hiện tại, chúng tôi vẫn chưa rõ có những ứng cử viên nào thân thiện với việc xây dựng khối phân tán. Ngay cả khi sử dụng công nghệ "bạo lực" đắt đỏ, tức là sử dụng STARK đệ quy để tạo ra các chứng minh tính hợp lệ cho việc tái tạo các hàng và cột, cũng không đủ đáp ứng nhu cầu, vì mặc dù về mặt kỹ thuật, kích thước của một STARK là O(log)n### * log(log(n)( giá trị băm( sử dụng STIR), nhưng thực tế STARK gần như có kích thước bằng toàn bộ blob.
Tôi nghĩ rằng con đường thực tế dài hạn là:
Triển khai DAS 2D lý tưởng;
Tiếp tục sử dụng 1D DAS, hy sinh hiệu quả băng thông lấy mẫu, chấp nhận giới hạn dữ liệu thấp hơn vì sự đơn giản và độ tin cậy.
Bỏ qua DA, hoàn toàn chấp nhận Plasma là kiến trúc Layer2 chính mà chúng tôi quan tâm.
Xin lưu ý rằng ngay cả khi chúng tôi quyết định mở rộng thực thi trực tiếp trên lớp L1, tùy chọn này vẫn tồn tại. Điều này là do nếu lớp L1 phải xử lý một lượng lớn TPS, các khối L1 sẽ trở nên rất lớn, và khách hàng sẽ mong muốn có một phương pháp hiệu quả để xác minh tính chính xác của chúng, do đó chúng tôi sẽ phải sử dụng những công nghệ tương tự như Rollup) như ZK-EVM và DAS( trên lớp L1.
) Làm thế nào để tương tác với các phần khác của lộ trình?
Nếu việc nén dữ liệu được thực hiện, nhu cầu về 2D DAS sẽ giảm, hoặc ít nhất sẽ bị trì hoãn, nếu Plasma được sử dụng rộng rãi, thì nhu cầu sẽ giảm thêm nữa. DAS cũng đặt ra thách thức cho các giao thức và cơ chế xây dựng khối phân tán: mặc dù DAS về lý thuyết thân thiện với việc tái cấu trúc phân tán, nhưng trên thực tế, điều này cần kết hợp với đề xuất danh sách bao gồm gói và cơ chế lựa chọn phân nhánh xung quanh nó.
Nén dữ liệu
Chúng tôi đang giải quyết vấn đề gì?
Mỗi giao dịch trong Rollup sẽ chiếm một lượng lớn không gian dữ liệu trên chuỗi: việc chuyển ERC20 cần khoảng 180 byte. Ngay cả khi có mẫu khả dụng dữ liệu lý tưởng, điều này cũng hạn chế khả năng mở rộng của giao thức Layer. Mỗi slot 16 MB, chúng ta có:
16000000 / 12 / 180 = 7407 TPS
Nếu chúng ta không chỉ có thể giải quyết vấn đề của tử mà còn cả vấn đề của mẫu số, để mỗi giao dịch trong Rollup chiếm ít byte hơn trên chuỗi, thì sẽ như thế nào?
( Nó là gì, nó hoạt động như thế nào?
Trong nén byte không, mỗi chuỗi byte không dài được thay thế bằng hai byte, biểu thị số lượng byte không. Hơn nữa, chúng tôi đã tận dụng các thuộc tính cụ thể của giao dịch:
Ký hợp nhất: Chúng tôi đã chuyển từ chữ ký ECDSA sang chữ ký BLS. Đặc điểm của chữ ký BLS là nhiều chữ ký có thể được kết hợp thành một chữ ký duy nhất, chữ ký này có thể chứng minh tính hợp lệ của tất cả các chữ ký gốc. Ở lớp L1, do ngay cả khi hợp nhất, chi phí tính toán xác minh vẫn cao, vì vậy không xem xét việc sử dụng chữ ký BLS. Nhưng trong môi trường L2 có dữ liệu khan hiếm như vậy, việc sử dụng chữ ký BLS là có ý nghĩa. Tính năng hợp nhất của ERC-4337 cung cấp một con đường để thực hiện chức năng này.
Sử dụng con trỏ để thay thế địa chỉ: Nếu trước đây đã sử dụng một địa chỉ nào đó, chúng ta có thể thay thế địa chỉ 20 byte bằng một con trỏ 4 byte trỏ đến một vị trí nào đó trong lịch sử.
Chuỗi tùy chỉnh cho giá trị giao dịch------Hầu hết các giá trị giao dịch có số chữ số rất ít, ví dụ, 0.25 Ether được biểu thị là 250,000,000,000,000,000 wei. Phí cơ bản tối đa và phí ưu tiên cũng tương tự. Do đó, chúng ta có thể sử dụng định dạng số thập phân tùy chỉnh, để biểu thị hầu hết các giá trị tiền tệ.
) còn cần làm gì, có những cân nhắc nào?
Điều chính cần làm tiếp theo là thực hiện thực tế kế hoạch đã nêu. Những sự cân nhắc chủ yếu bao gồm:
Việc chuyển sang chữ ký BLS cần phải nỗ lực rất lớn, và sẽ giảm khả năng tăng cường an
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
24 thích
Phần thưởng
24
6
Chia sẻ
Bình luận
0/400
TokenUnlocker
· 07-07 21:07
Là lãnh đạo thì đừng chần chừ, trước tiên bơm airdrop.
Xem bản gốcTrả lời0
ContractCollector
· 07-07 05:58
Vitalik Buterin quả thật đã không làm tôi thất vọng
Xem bản gốcTrả lời0
PumpDetector
· 07-07 05:48
đã thấy mô hình này trước đây... rollups được pump vào năm '21, lịch sử lặp lại. ngmi nếu bạn không chú ý đến việc tích lũy L2 rn
Xem bản gốcTrả lời0
FloorSweeper
· 07-07 05:44
tín hiệu yếu ở khắp nơi... nhưng rollups không phải là alpha mà bạn nghĩ
Ethereum mở rộng chương mới: The Surge có thể đạt 100.000 TPS
Tương lai có thể của Ethereum: The Surge
Lộ trình của Ethereum ban đầu bao gồm hai chiến lược mở rộng: phân đoạn và giao thức Layer2. Khi nghiên cứu sâu hơn, hai con đường này đã hòa nhập vào nhau, tạo thành lộ trình tập trung vào Rollup, đây vẫn là chiến lược mở rộng hiện tại của Ethereum.
Lộ trình dựa trên Rollup đưa ra một phân công đơn giản: Ethereum L1 tập trung vào việc trở thành một lớp nền mạnh mẽ và phi tập trung, trong khi L2 đảm nhận nhiệm vụ giúp hệ sinh thái mở rộng. Mô hình này hiện diện khắp nơi trong xã hội: sự tồn tại của hệ thống tòa án (L1) không phải để theo đuổi siêu tốc độ và hiệu quả cao, mà là để bảo vệ hợp đồng và quyền sở hữu tài sản, trong khi các doanh nhân (L2) phải xây dựng trên lớp nền vững chắc này, thúc đẩy sự tiến bộ của nhân loại.
Năm nay, lộ trình tập trung vào Rollup đã đạt được những thành tựu quan trọng: với sự ra mắt của EIP-4844 blobs, băng thông dữ liệu của Ethereum L1 đã được tăng cường đáng kể, nhiều Ethereum Virtual Machine (EVM) Rollup đã bước vào giai đoạn đầu tiên. Mỗi L2 tồn tại như một "mảnh" với các quy tắc và logic nội tại riêng. Sự đa dạng và phong phú trong cách thực hiện các mảnh hiện nay đã trở thành hiện thực. Nhưng con đường này cũng đối mặt với một số thách thức độc đáo. Nhiệm vụ hiện tại của chúng ta là hoàn thành lộ trình tập trung vào Rollup và giải quyết những vấn đề này, đồng thời duy trì sự vững mạnh và phân quyền đặc trưng của Ethereum L1.
The Surge:Mục tiêu quan trọng
Nội dung bài viết
Nghịch lý tam giác khả năng mở rộng
Tam giác nghịch lý khả năng mở rộng cho rằng có mâu thuẫn giữa ba đặc điểm của blockchain: phi tập trung ( chi phí của các nút hoạt động thấp ), khả năng mở rộng ( số lượng giao dịch xử lý nhiều ) và an ninh ( kẻ tấn công cần phải phá hoại một phần lớn các nút trong mạng để làm thất bại một giao dịch.
Nghịch lý tam giác không phải là một định lý, nó đưa ra một luận điểm toán học mang tính trực giác: nếu một nút thân thiện với phi tập trung có thể xác minh N giao dịch mỗi giây, và bạn có một chuỗi xử lý k*N giao dịch mỗi giây, thì )i( mỗi giao dịch chỉ có thể được nhìn thấy bởi 1/k nút, điều này có nghĩa là kẻ tấn công chỉ cần phá hủy một số nút nhỏ để thực hiện một giao dịch độc hại, hoặc )ii( các nút của bạn sẽ trở nên mạnh mẽ, trong khi chuỗi của bạn sẽ không được phi tập trung.
Trong nhiều năm qua, một số chuỗi hiệu suất cao thường tuyên bố rằng họ đã giải quyết được nghịch lý ba điểm mà không thay đổi cơ bản kiến trúc, thường là thông qua việc áp dụng các kỹ thuật kỹ thuật phần mềm để tối ưu hóa nút. Điều này luôn gây hiểu lầm, việc chạy nút trên những chuỗi này khó hơn rất nhiều so với việc chạy nút trên Ethereum.
Tuy nhiên, sự kết hợp giữa mẫu khả dụng dữ liệu và SNARKs thực sự giải quyết được nghịch lý tam giác: nó cho phép khách hàng xác minh một số lượng dữ liệu nhất định là khả dụng chỉ bằng cách tải xuống một lượng dữ liệu nhỏ và thực hiện rất ít phép toán. SNARKs là không cần tin cậy. Mẫu khả dụng dữ liệu có một mô hình tin cậy tinh tế few-of-N, nhưng nó giữ lại những đặc tính cơ bản mà chuỗi không thể mở rộng có, nghĩa là ngay cả khi bị tấn công 51%, cũng không thể ép buộc các khối xấu được mạng chấp nhận.
Một phương pháp khác để giải quyết vấn đề ba khó khăn là kiến trúc Plasma, nó sử dụng công nghệ tinh vi để chuyển giao trách nhiệm giám sát tính khả dụng của dữ liệu cho người dùng theo cách tương thích với động lực. Từ năm 2017-2019, khi chúng ta chỉ có biện pháp chứng minh gian lận để mở rộng khả năng tính toán, Plasma đã bị hạn chế rất nhiều trong việc thực thi an toàn, nhưng với sự phổ biến của SNARKs) các chứng minh không kiến thức ngắn gọn phi tương tác(, kiến trúc Plasma trở nên khả thi hơn cho nhiều trường hợp sử dụng hơn bao giờ hết.
![Vitalik bài viết mới: Tương lai có thể của Ethereum, The Surge])https://img-cdn.gateio.im/webp-social/moments-0a07a34094cbf643fdead78b4dd682c6.webp(
Tiến triển hơn nữa của việc lấy mẫu tính khả dụng dữ liệu
) Chúng tôi đang giải quyết vấn đề gì?
Vào ngày 13 tháng 3 năm 2024, khi nâng cấp Dencun được triển khai, mỗi slot 12 giây trên chuỗi khối Ethereum sẽ có 3 blob khoảng 125 kB, hoặc băng thông dữ liệu khả dụng khoảng 375 kB cho mỗi slot. Giả sử dữ liệu giao dịch được phát hành trực tiếp trên chuỗi, thì chuyển khoản ERC20 khoảng 180 byte, do đó TPS tối đa của Rollup trên Ethereum là: 375000 / 12 / 180 = 173.6 TPS
Nếu chúng ta cộng thêm giá trị tối đa lý thuyết của calldata Ethereum ###: mỗi slot 30 triệu Gas / mỗi byte 16 gas = mỗi slot 1,875,000 byte (, thì sẽ trở thành 607 TPS. Sử dụng PeerDAS, số lượng blob có thể tăng lên 8-16, điều này sẽ cung cấp 463-926 TPS cho calldata.
Đây là một nâng cấp quan trọng đối với Ethereum L1, nhưng vẫn chưa đủ. Chúng tôi muốn có thêm khả năng mở rộng. Mục tiêu trung hạn của chúng tôi là 16 MB cho mỗi slot, nếu kết hợp với các cải tiến nén dữ liệu Rollup, sẽ mang lại ~58000 TPS.
) Nó là gì? Nó hoạt động như thế nào?
PeerDAS là một triển khai tương đối đơn giản của "1D sampling". Trong Ethereum, mỗi blob là một đa thức bậc 4096 trên trường số nguyên tố 253位素数域###prime field(. Chúng tôi phát sóng các shares của đa thức, trong đó mỗi share chứa 16 giá trị đánh giá trên 16 tọa độ liền kề từ tổng cộng 8192 tọa độ. Trong 8192 giá trị đánh giá này, bất kỳ 4096 nào ) theo tham số được đề xuất hiện tại: bất kỳ 64 trong 128 mẫu khả thi ( đều có thể phục hồi blob.
Nguyên lý hoạt động của PeerDAS là cho phép mỗi khách hàng lắng nghe một số lượng nhỏ các mạng con, trong đó mạng con thứ i phát sóng mẫu thứ i của bất kỳ blob nào, và thông qua việc hỏi các đối tác trong mạng p2p toàn cầu ) ai sẽ lắng nghe các mạng con khác ( để yêu cầu blob cần thiết từ các mạng con khác. Phiên bản bảo thủ hơn SubnetDAS chỉ sử dụng cơ chế mạng con mà không có thêm yêu cầu từ lớp đối tác. Đề xuất hiện tại là cho phép các nút tham gia bằng chứng cổ phần sử dụng SubnetDAS, trong khi các nút khác ) tức là khách hàng ( sử dụng PeerDAS.
Về lý thuyết, chúng ta có thể mở rộng quy mô của một "1D sampling" đến mức khá lớn: nếu chúng ta tăng số lượng blob tối đa lên 256) với mục tiêu là 128(, thì chúng ta có thể đạt được mục tiêu 16MB, trong khi mỗi nút trong sampling khả năng dữ liệu có 16 mẫu * 128 blob * 512 byte cho mỗi mẫu blob = băng thông dữ liệu 1 MB cho mỗi slot. Điều này chỉ vừa đủ trong phạm vi chúng ta chấp nhận: điều này khả thi, nhưng điều đó có nghĩa là các khách hàng có băng thông hạn chế không thể thực hiện sampling. Chúng ta có thể tối ưu hoá điều này ở một mức độ nào đó bằng cách giảm số lượng blob và tăng kích thước blob, nhưng điều này sẽ làm tăng chi phí tái tạo.
Do đó, cuối cùng chúng tôi muốn tiến xa hơn, thực hiện 2D sampling )2D sampling (, phương pháp này không chỉ thực hiện việc lấy mẫu ngẫu nhiên trong blob mà còn thực hiện lấy mẫu ngẫu nhiên giữa các blob. Sử dụng tính chất tuyến tính của cam kết KZG, mở rộng tập hợp blob trong một khối bằng một tập hợp blob ảo mới, những blob ảo này mã hóa dư thừa cùng một thông tin.
Điều quan trọng là việc tính toán cam kết mở rộng không cần có blob, do đó phương án này về cơ bản là thân thiện với việc xây dựng khối phân tán. Các nút thực sự xây dựng khối chỉ cần có cam kết KZG blob, và chúng có thể dựa vào việc lấy mẫu khả năng dữ liệu )DAS( để xác minh khả năng của khối dữ liệu. Việc lấy mẫu khả năng dữ liệu một chiều )1D DAS( về cơ bản cũng thân thiện với việc xây dựng khối phân tán.
![Vitalik bài viết mới: Ethereum có thể trong tương lai, The Surge])https://img-cdn.gateio.im/webp-social/moments-40311fde406a2b6c83ba590c35e23a7c.webp(
) cần làm gì nữa? Còn những sự cân nhắc nào khác?
Tiếp theo là hoàn thành việc triển khai và ra mắt PeerDAS. Sau đó, số lượng blob trên PeerDAS sẽ được tăng cường liên tục, đồng thời quan sát cẩn thận mạng lưới và cải tiến phần mềm để đảm bảo an toàn, đây là một quá trình dần dần. Đồng thời, chúng tôi hy vọng có nhiều công trình học thuật hơn để quy định PeerDAS và các phiên bản DAS khác cũng như tương tác của chúng với các vấn đề an toàn liên quan đến quy tắc chọn nhánh.
Trong giai đoạn xa hơn trong tương lai, chúng ta cần làm nhiều việc hơn để xác định phiên bản lý tưởng của 2D DAS và chứng minh các thuộc tính bảo mật của nó. Chúng tôi cũng hy vọng cuối cùng có thể chuyển từ KZG sang một giải pháp thay thế an toàn lượng tử và không cần thiết lập đáng tin cậy. Hiện tại, chúng tôi vẫn chưa rõ có những ứng cử viên nào thân thiện với việc xây dựng khối phân tán. Ngay cả khi sử dụng công nghệ "bạo lực" đắt đỏ, tức là sử dụng STARK đệ quy để tạo ra các chứng minh tính hợp lệ cho việc tái tạo các hàng và cột, cũng không đủ đáp ứng nhu cầu, vì mặc dù về mặt kỹ thuật, kích thước của một STARK là O(log)n### * log(log(n)( giá trị băm( sử dụng STIR), nhưng thực tế STARK gần như có kích thước bằng toàn bộ blob.
Tôi nghĩ rằng con đường thực tế dài hạn là:
Xin lưu ý rằng ngay cả khi chúng tôi quyết định mở rộng thực thi trực tiếp trên lớp L1, tùy chọn này vẫn tồn tại. Điều này là do nếu lớp L1 phải xử lý một lượng lớn TPS, các khối L1 sẽ trở nên rất lớn, và khách hàng sẽ mong muốn có một phương pháp hiệu quả để xác minh tính chính xác của chúng, do đó chúng tôi sẽ phải sử dụng những công nghệ tương tự như Rollup) như ZK-EVM và DAS( trên lớp L1.
) Làm thế nào để tương tác với các phần khác của lộ trình?
Nếu việc nén dữ liệu được thực hiện, nhu cầu về 2D DAS sẽ giảm, hoặc ít nhất sẽ bị trì hoãn, nếu Plasma được sử dụng rộng rãi, thì nhu cầu sẽ giảm thêm nữa. DAS cũng đặt ra thách thức cho các giao thức và cơ chế xây dựng khối phân tán: mặc dù DAS về lý thuyết thân thiện với việc tái cấu trúc phân tán, nhưng trên thực tế, điều này cần kết hợp với đề xuất danh sách bao gồm gói và cơ chế lựa chọn phân nhánh xung quanh nó.
Nén dữ liệu
Chúng tôi đang giải quyết vấn đề gì?
Mỗi giao dịch trong Rollup sẽ chiếm một lượng lớn không gian dữ liệu trên chuỗi: việc chuyển ERC20 cần khoảng 180 byte. Ngay cả khi có mẫu khả dụng dữ liệu lý tưởng, điều này cũng hạn chế khả năng mở rộng của giao thức Layer. Mỗi slot 16 MB, chúng ta có:
16000000 / 12 / 180 = 7407 TPS
Nếu chúng ta không chỉ có thể giải quyết vấn đề của tử mà còn cả vấn đề của mẫu số, để mỗi giao dịch trong Rollup chiếm ít byte hơn trên chuỗi, thì sẽ như thế nào?
( Nó là gì, nó hoạt động như thế nào?
Trong nén byte không, mỗi chuỗi byte không dài được thay thế bằng hai byte, biểu thị số lượng byte không. Hơn nữa, chúng tôi đã tận dụng các thuộc tính cụ thể của giao dịch:
Ký hợp nhất: Chúng tôi đã chuyển từ chữ ký ECDSA sang chữ ký BLS. Đặc điểm của chữ ký BLS là nhiều chữ ký có thể được kết hợp thành một chữ ký duy nhất, chữ ký này có thể chứng minh tính hợp lệ của tất cả các chữ ký gốc. Ở lớp L1, do ngay cả khi hợp nhất, chi phí tính toán xác minh vẫn cao, vì vậy không xem xét việc sử dụng chữ ký BLS. Nhưng trong môi trường L2 có dữ liệu khan hiếm như vậy, việc sử dụng chữ ký BLS là có ý nghĩa. Tính năng hợp nhất của ERC-4337 cung cấp một con đường để thực hiện chức năng này.
Sử dụng con trỏ để thay thế địa chỉ: Nếu trước đây đã sử dụng một địa chỉ nào đó, chúng ta có thể thay thế địa chỉ 20 byte bằng một con trỏ 4 byte trỏ đến một vị trí nào đó trong lịch sử.
Chuỗi tùy chỉnh cho giá trị giao dịch------Hầu hết các giá trị giao dịch có số chữ số rất ít, ví dụ, 0.25 Ether được biểu thị là 250,000,000,000,000,000 wei. Phí cơ bản tối đa và phí ưu tiên cũng tương tự. Do đó, chúng ta có thể sử dụng định dạng số thập phân tùy chỉnh, để biểu thị hầu hết các giá trị tiền tệ.
) còn cần làm gì, có những cân nhắc nào?
Điều chính cần làm tiếp theo là thực hiện thực tế kế hoạch đã nêu. Những sự cân nhắc chủ yếu bao gồm: