以太坊技术引介:准无状态下的同步实验_BSP:TATA币

本实验用到的原始数据和脚本:https://github.com/mandrigin/ethereum-mainnet-resolver-witness-stats引言有一种办法也许能加速初始同步过程(initial sync process,指从创世块开始的区块链同步),就是使用区块见证数据(witness)预先建构出缓存树(cache trie),来避免速度较慢的状态访问。这样做需要额外占用硬盘空间和网络带宽,但也许可以大幅加速同步过程。

其中的原理是,一般来说,要执行一个区块,我们就需要默克尔树上的一些数据。虽然在某个块执行以前,默克尔树上已经有一些数据了,但这些数据可能不足以执行区块。所以,正常来说,我们还要从状态数据库(state db)中提取出数据并加到默克尔树上,然后才能验证交易。这个过程可能会很慢,因为 硬盘访问/数据库查询 的速度比较慢。

根据这个问题描述,我们可以划分出三种不同的方案:

1)正常流程(也就是当前在以太坊节点中使用的方案)

MistTrack:0x7d61开头地址通过Rocket Pool质押了超2万枚以太坊:6月5日消息,据 MistTrack 监测,0x7d61 开头地址通过 Rocket Pool 质押了 21473 枚以太坊,价值约 4015.45 万美元。[2023/6/5 21:16:54]

在区块 B 执行以前,我们有状态树 T1;

在需要执行 B 的时候,我们把 T1 中遗漏的数据添加到 T1 上,形成 T1',T1'',等等。每次遇到 T1 上没有的信息,我们就在数据库中查找(速度慢)。

执行完 B 之后,我们有了状态树 T2,T2 具备执行 B 所需的所有账户状态。

保持 T2,以备后续使用。

2)无状态流程

在区块 B 执行以前,我们并没有状态树;不过,我们可以拿到一个见证数据 W,来重组执行这个区块所需的状态树。

我们执行 W,获得了状态树 T2。

在 T2 上执行区块 B,不需要查找数据库。

区块执行完之后就把 T2 丢掉。

某以太坊早期投资者14年购入7.5万美元ETH,现浮盈超5300倍:金色财经报道,Coinbase业务主管Conor在社交媒体上称,开头为(0x2B6e)的地址是所有加密货币中最神秘的地址之一。其中,在14年的ICO中购买了价值75000美元的ETH;完全没有接触过的钱包;从来没有进行过一次交易。钱包现在价值4亿多美元,增长了5333倍。仅仅是通过空投,就收到了650万美元的空投(仅初始投资就有87倍)。这是我能找到的唯一未动过的 ICO 巨鲸钱包,想象一下在多个牛市和熊市中持有的精神毅力。尽管更有可能的结果是他们丢失了密钥。[2023/2/27 12:32:25]

3)准无状态流程(semi-stateless folw)(即本实验要测试的方案)

在区块 B 执行之前,我们有状态树 T1,见证数据 W1、W2、……,足以将 T1 转成 T2

依次在 T1 上执行 W1、W2、……,最后获得 T2,也不需要查询数据库。

在 T2 上执行区块 B,也不需要查询数据库。

留着 T2 以备后续使用。

在初始同步中使用准无状态流程可以获得无状态流程的大部分好处 ?,又不需要传输那么多数据,因为我们重用了状态树缓存。

比特币巨鲸007:一些ETH预售投资者考虑以商业欺诈为由起诉以太坊基金会:6月29日消息,比特币巨鲸Joe007在推特表示,有消息称,一些ETH预售投资者考虑以商业欺诈为由起诉以太坊基金会。[2021/6/29 0:14:13]

? 在准无状态方案中,区块的并行执行会受到更大的限制

那么,为了测试准无状态方案的性能,我们需要测量两件事:

这一方法需要额外占用多少 硬盘/带宽?与完全富状态的方法相比,它真的更好吗?

其初始同步速度会快多少?

本文中我们会集中测试硬盘需求。

状态树(默克尔树)的最大规模:100 万个 node。一旦节点数超过这个值,我们就驱逐 LRU 节点,以释放内存。用这种办法,我们就能控制状态树对内存的使用。

部分见证数据会存储在数据库中(我们用的是 boltdb)。每个条目的结构如下:

key: byte // 区块号 + 状态树上节点的最大数量value: []byte // 见证数据,按文档中的描述予以序列化我们不会在见证数据里存储合约代码(这是我们当前架构的不足)。

Neo创始人:以太坊手续费已经贵到,对一个普通用户极端不友好的阶段:7月23日早间,Neo创始人达鸿飞发微博吐槽以太坊手续费问题。他称,以太坊手续费已经贵到,对一个普通用户极端不友好的阶段,链上交易贵且慢是对新用户的直接劝退。[2020/7/23]

数据按下述方法得到(需要一个同步好的 turbo-geth 节点)

(in the turbo-geth repository)make state./build/bin/state stateless \     — chaindata ~/nvme1/mainnet/mainnet/geth/chaindata \     — statefile semi_stateless.statefile \     — snapshotInterval 1000000 \     — snapshotFrom 10000000 \     — statsfile new_witness.stats.compressed.2.csv \     — witnessDbFile semi_stateless_witnesses.db \     — statelessResolver \     — triesize 1000000 \实验结果存储从创世块开始同步 6, 169, 246 (619 万)区块,见证数据的数据库(bolt db)达到了 99GB。

动态 | 数据显示:以太坊链上指标较为活跃:据Tokenview数据显示,以太坊近24小时内链上交易额为3992099.01 ETH,同比24小时前上升45.15%,近24小时内链上交易数为766188笔,同比24小时前上升7%。活跃地址数为463977个,较前日上升17.34%,较近7日日均数上升11.93%。以太坊链上指标涨幅较大,且在此轮上涨中尚未突破前高,后市或可关注。[2019/5/14]

python quantile-analysis.py cache_1_000_000/semi_stateless_witnesses.db.stats.1.csv

平均值     0.038 MB中值       0.028 MB90 分位值    0.085 MB95 分位值    0.102 MB99 分位值    0.146 MB最大值       2.350 MB数据大小python absolute_values_plot.py cache_1_000_000/semi_stateless_witnesses.db.stats.1.csv从创世块到 610 万区块高度的阶段的见证数据大小,图表在 1MB 处截顶了。按 1024 个块取滑动平均值。

absolute_values_plot.py cache_1_000_000/semi_stateless_witnesses.db.stats.1.csv 3000000解决上海 DDoS 攻击之后的见证数据大小,按 1024 个区块取滑动平均值。

python ddos_zoom.py cache_1_000_000/semi_stateless_witnesses.db.stats.1.csv放大看 DDoS 攻击对见证数据大小的影响(原始数据)。

可以看到,在 230 万高度到 250 万高度,以及 265 万高度到 275 万高度期间,见证数据的大小显著增大。

python full_vs_semi.py cache_1_000_000/semi_stateless_witnesses.db.stats.1.csv

完全无状态下的见证数据大小是根据准无状态下的见证数据加上缺失的合约代码部分调整得来的.

从这张图可以看出,使用准无状态方法,可以节约大量数据(与完全无状态方法相比)。

加上一个无状态解析器会让每个区块需要 传输/存储 的数据量增加 0.4 MB。这个值与按区块提供见证数据相比,节约太多,即使算上我们改变状态树模式能够得到的增益相比,也节约非常多(关于十六进制树和二进制树模式下见证数据大小的区块,可见我的上一篇文章)(译者注:中译本见文末超链接)。

如果这个性能还算可以,那么它显然是加速初始同步的好办法;而且它的数据需求比完全无状态方法更小。

郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。

水星链

[0:15ms0-1:31ms