以太坊硬件扩容_2021以太坊扩容升级世界论坛

欧意官网 欧意官网 2023-04-04 104 0

本篇文章给大家谈谈以太坊硬件扩容,以及2021以太坊扩容升级世界论坛对应的知识点,希望对各位有所帮助,不要忘了收藏本站喔。

以太坊基金会:ETH将在未来几个月转向PoS 能源消耗至少减少99.95%

长话短说:以太坊在合并完成后的能源消耗至少能减少99.95%。

以太坊将在接下里的几个月完成向权益证明(PoS)共识机制的过渡,这带来了无数种已被理论化的改进。但既然信标链( Beacon chain)已经运行了几个月的时间,我们实际上就可以深入研究具体的数字了。我们很高兴 探索 的一个领域涉及新的能源使用估算,因为我们将结束在共识上花费一个国家所耗能源价值的过程。

截至目前,还没有任何关于能源消耗(甚至使用什么硬件)的具体统计数据,因此下面是对以太坊未来能源消耗的粗略估算。

由于很多人都在运行多个验证器,因此我决定使用可存款的独立地址的数量,来作为今天有多少台服务器的代理数。很多质押者可以使用多个 ETH 1.0地址,但这在很大程度上抵消了那些冗余设置。

在撰写本文时,有来自16405个独立地址的140592个验证器。显然,这是由于交易所和staking质押服务造成的偏差,因此移除它们会导致有87,897个验证器被假定是在家里质押的。作为一个健全的检查,这意味着平均每个家庭质押者运行了5.4个验证器,这对我来说似乎是一个合理的估计值。

能源要求

运行一个信标节点(BN)、5.4个验证器客户端(VC)以及一个以太坊1.0全节点需要多少能量?以我的个人设置为基础,大约是15瓦。Joe Clapis(Rocket Pool开发者)最近运行了10个验证器客户端(VC),1个Nimbus信标节点(BN)以及1个10Ah USB电池组的Geth全节点,然后运行了10个小时,这意味着这个设置平均为5瓦。而一般的投资人不太可能运行这样的优化设置,所以我们取100 瓦作为参考数。

将其与之前的87000个验证器相乘,就意味着家庭质押者的消耗电量约为1.64兆瓦。估计托管质押者所消耗的能源会更多一些,他们运行了成千上万个具有冗余和备份的验证器客户端。

为了简化计算,我们还假设他们每5.5个验证器使用100瓦。基于我所接触过的基础设施团队,这是一个粗略的高估值。真正的答案要少50倍左右(如果你是一个质押托管团队,并且每个验证器消耗电量超过5瓦,我相信我可以为你提供帮助)。

因此,总的来说,采用权益证明(PoS)的以太坊网络会消耗大约2.62兆瓦的电量。这不是一个国家的用电规模,也不是省甚至城市的用电规模,而大约是一个小镇(约2100个美国家庭)的用电规模。

作为参考,当前工作量证明(PoW)以太坊网络所消耗的能量相当于一个中等国家的能源,但这实际上是保持PoW链安全所必需的。顾名思义,PoW达成共识的基础是哪个分叉在这方面做的“工作”最多。有两种方法可以提高“工作”完成率,一是提高挖掘硬件的效率,二是同时使用更多的硬件。为了防止区块链被成功攻击,矿工必须比攻击者更快的速度“工作”。由于攻击者很可能拥有类似的硬件,矿工必须保持大量高效的硬件运行,以防攻击者挖出它们,所有这些硬件都会消耗大量的能量。

在PoW共识机制下, ETH 价格与算力正相关。因此,随着价格的上涨,在均衡状态下,网络消耗的电力也会随之增加。而在PoS共识机制下,当 ETH 价格上涨时,网络的安全性也会提高( ETH 的价值更高),但对能源的需求保持不变。

一些比较

据数字经济学者估计 ,以太坊矿工目前每年要消耗44.49太瓦时的电量,这意味着,根据上述保守估计,PoS的能效提高了约2000倍,这反映了总能源使用量至少减少了99.95%。

如果每笔交易的能耗高于你的速度,则约为35Wh/tx(平均约60K gas/tx)或TV约20分钟的耗电量。相比之下,以太坊PoW每笔交易使用相当于一栋房子2.8天的能量,比特币的每笔交易则消耗相当于一栋房子38天的能量。

展望未来

尽管以太坊目前仍在使用PoW共识机制,但这种情况不会持续太久。在过去的几周里,我们看到了第一批用于合并的测试网的出现(注:The Merge合并是以太坊从PoW切换到PoS时的名称)。几个工程师团队正在加班加点地工作,以确保合并尽快到来,同时又不影响安全性。

扩容解决方案(例如rollup和分片)将通过利用规模化经济来帮助进一步减少每次交易消耗的能量。

以太坊网络超级耗电的日子屈指可数了,我希望这个行业的其他部分也是如此。

什么是ZK-Rollup(零知识汇总)?

ZK-Rollup(零知识汇总)基于zero-knowledge proof(零知识证明),在发往主链的交易包里包含了一个对应的零知识证明,主链上的rollup(汇总)智能合约只需验证这个零知识证明。

这个零知识证明不会透露任何交易细节,但能通过与智能合约不断交互,证明上链的所有数据的有效性和真实性。

优点:

l 高度的去中心化

l 隐私性好:零知识证明不会透露任何交易细节

l 上链效率高:一次性提交多笔操作的结果,节约时间和gas fee

l 验证效率高:无需等待期,快速完成资产取出动作

l 安全性极高:zk技术保证了提交给主链的数据真实有效,同时主链可随时还原侧链发生的交易细节(即拥有主链的数据可用性),因此拥有以太坊级别的安全性

缺点:

l 技术开发难度大

l 难兼容不同智能合约

l 需要大量运算

代表项目:

l 路印:成熟的zk技术运用,获得4500万美元私募,当前市值超8亿美元

l ZKSync:旨在为以太坊带来 Visa 级别、每秒数千笔交易的吞吐量

链乔教育在线旗下学硕创新区块链技术工作站是中国教育部学校规划建设发展中心开展的“智慧学习工场2020-学硕创新工作站 ”唯一获准的“区块链技术专业”试点工作站。专业站立足为学生提供多样化成长路径,推进专业学位研究生产学研结合培养模式改革,构建应用型、复合型人才培养体系。

什么是区块链扩容?

普通用户能够运行节点对于区块链的去中心化至关重要

想象一下凌晨两点多,你接到了一个紧急呼叫,来自世界另一端帮你运行矿池 (质押池) 的人。从大约 14 分钟前开始,你的池子和其他几个人从链中分离了出来,而网络仍然维持着 79% 的算力。根据你的节点,多数链的区块是无效的。这时出现了余额错误:区块似乎错误地将 450 万枚额外代币分配给了一个未知地址。

一小时后,你和其他两个同样遭遇意外的小矿池参与者、一些区块浏览器和交易所方在一个聊天室中,看见有人贴出了一条推特的链接,开头写着“宣布新的链上可持续协议开发基金”。

到了早上,相关讨论广泛散布在推特以及一个不审查内容的社区论坛上。但那时 450 万枚代币中的很大一部分已经在链上转换为其他资产,并且进行了数十亿美元的 defi 交易。79%的共识节点,以及所有主要的区块链浏览器和轻钱包的端点都遵循了这条新链。也许新的开发者基金将为某些开发提供资金,或者也许所有这些都被领先的矿池、交易所及其裙带所吞并。但是无论结果如何,该基金实际上都成为了既成事实,普通用户无法反抗。

或许还有这么一部主题电影。或许会由 MolochDAO 或其他组织进行资助。

这种情形会发生在你的区块链中吗?你所在区块链社区的精英,包括矿池、区块浏览器和托管节点,可能协调得很好,他们很可能都在同一个 telegram 频道和微信群中。如果他们真的想出于利益突然对协议规则进行修改,那么他们可能具备这种能力。以太坊区块链在十小时内完全解决了共识失败,如果是只有一个客户端实现的区块链,并且只需要将代码更改部署到几十个节点,那么可以更快地协调客户端代码的更改。能够抵御这种社会性协作攻击的唯一可靠方式是“被动防御”,而这种力量来自去一个中心化的群体:用户。

想象一下,如果用户运行区块链的验证节点 (无论是直接验证还是其他间接技术),并自动拒绝违反协议规则的区块,即使超过 90% 的矿工或质押者支持这些区块,故事会如何发展。

如果每个用户都运行一个验证节点,那么攻击很快就会失败:有些矿池和交易所会进行分叉,并且在整个过程中看起来很愚蠢。但是即使只有一些用户运行验证节点,攻击者也无法大获全胜。相反,攻击会导致混乱,不同用户会看到不同的区块链版本。最坏情况下,随之而来的市场恐慌和可能持续的链分叉将大幅减少攻击者的利润。对如此旷日持久的冲突进行应对的想法本身就可以阻止大多数攻击。

Hasu 关于这一点的看法:

“我们要明确一件事,我们之所以能够抵御恶意的协议更改,是因为拥有用户验证区块链的文化,而不是因为 PoW 或 PoS。”

假设你的社区有 37 个节点运行者,以及 80000 名被动监听者,对签名和区块头进行检查,那么攻击者就获胜了。如果每个人都运行节点的话,攻击者就会失败。我们不清楚针对协同攻击的启动群体免疫的确切阈值是多少,但有一点是绝对清楚的:好的节点越多,恶意的节点就越少,而且我们所需的数量肯定不止于几百几千个。

那么全节点工作的上限是什么?

为了使得有尽可能多的用户能够运行全节点,我们会将注意力集中在普通消费级硬件上。即使能够轻松购买到专用硬件,这能够降低一些全节点的门槛,但事实上对可扩展性的提升并不如我们想象的那般。

全节点处理大量交易的能力主要受限于三个方面:

算力:在保证安全的前提下,我们能划分多少 CPU 来运行节点?

带宽:基于当前的网络连接,一个区块能包含多少字节?

存储:我们能要求用户使用多大的空间来进行存储?此外,其读取速度应该达到多少?(即,HDD 足够吗?还是说我们需要 SSD?)

许多使用“简单”技术对区块链进行大幅扩容的错误看法都源自于对这些数字过于乐观的估计。我们可以依次来讨论这三个因素:

算力

错误答案:100% 的 CPU 应该用于区块验证

正确答案:约 5-10% 的 CPU 可以用于区块验证

限制之所以这么低的四个主要原因如下:

我们需要一个安全边界来覆盖 DoS 攻击的可能性 (攻击者利用代码弱点制造的交易需要比常规交易更长的处理时间)

节点需要在离线之后能够与区块链同步。如果我掉线一分钟,那我应该要能够在几秒钟之内完成同步

运行节点不应该很快地耗尽电池,也不应该拖慢其他应用的运行速度

节点也有其他非区块生产的工作要进行,大多数是验证以及对 p2p 网络中输入的交易和请求做出响应

请注意,直到最近大多数针对“为什么只需要 5-10%?”这一点的解释都侧重于另一个不同的问题:因为 PoW 出块时间不定,验证区块需要很长时间,会增加同时创建多个区块的风险。这个问题有很多修复方法,例如 Bitcoin NG,或使用 PoS 权益证明。但这些并没有解决其他四个问题,因此它们并没有如许多人所料在可扩展性方面获得巨大进展。

并行性也不是灵丹妙药。通常,即使是看似单线程区块链的客户端也已经并行化了:签名可以由一个线程验证,而执行由其他线程完成,并且有一个单独的线程在后台处理交易池逻辑。而且所有线程的使用率越接近 100%,运行节点的能源消耗就越多,针对 DoS 的安全系数就越低。

带宽

错误答案:如果没 2-3 秒都产生 10 MB 的区块,那么大多数用户的网络都大于 10 MB/秒,他们当然都能处理这些区块

正确答案:或许我们能在每 12 秒处理 1-5 MB 的区块,但这依然很难

如今,我们经常听到关于互联网连接可以提供多少带宽的广为传播的统计数据:100 Mbps 甚至 1 Gbps 的数字很常见。但是由于以下几个原因,宣称的带宽与预期实际带宽之间存在很大差异:

“Mbps”是指“每秒数百万 bits”;一个 bit 是一个字节的 1/8,因此我们需要将宣称的 bit 数除以 8 以获得字节数。

网络运营商,就像其他公司一样,经常编造谎言。

总是有多个应用使用同一个网络连接,所以节点无法独占整个带宽。

P2P 网络不可避免地会引入开销:节点通常最终会多次下载和重新上传同一个块 (更不用说交易在被打包进区块之前还要通过 mempool 进行广播)。

当 Starkware 在 2019 年进行一项实验时,他们在交易数据 gas 成本降低后首次发布了 500 kB 的区块,一些节点实际上无法处理这种大小的区块。处理大区块的能力已经并将持续得到改善。但是无论我们做什么,我们仍然无法获取以 MB/秒为单位的平均带宽,说服自己我们可以接受 1 秒的延迟,并且有能力处理那种大小的区块。

存储

错误答案:10 TB

正确答案:512 GB

正如大家可能猜到的,这里的主要论点与其他地方相同:理论与实践之间的差异。理论上,我们可以在亚马逊上购买 8 TB 固态驱动 (确实需要 SSD 或 NVME;HDD 对于区块链状态存储来说太慢了)。实际上,我用来写这篇博文的笔记本电脑有 512 GB,如果你让人们去购买硬件,许多人就会变得懒惰 (或者他们无法负担 800 美元的 8 TB SSD) 并使用中心化服务。即使可以将区块链装到某个存储设备上,大量活动也可以快速地耗尽磁盘并迫使你购入新磁盘。

一群区块链协议研究员对每个人的磁盘空间进行了调查。我知道样本量很小,但仍然...

请点击输入图片描述

此外,存储大小决定了新节点能够上线并开始参与网络所需的时间。现有节点必须存储的任何数据都是新节点必须下载的数据。这个初始同步时间 (和带宽) 也是用户能够运行节点的主要障碍。在写这篇博文时,同步一个新的 geth 节点花了我大约 15 个小时。如果以太坊的使用量增加 10 倍,那么同步一个新的 geth 节点将至少需要一周时间,而且更有可能导致节点的互联网连接受到限制。这在攻击期间更为重要,当用户之前未运行节点时对攻击做出成功响应需要用户启用新节点。

交互效应

此外,这三类成本之间存在交互效应。由于数据库在内部使用树结构来存储和检索数据,因此从数据库中获取数据的成本随着数据库大小的对数而增加。事实上,因为顶级 (或前几级) 可以缓存在 RAM 中,所以磁盘访问成本与数据库大小成正比,是 RAM 中缓存数据大小的倍数。

不要从字面上理解这个图,不同的数据库以不同的方式工作,通常内存中的部分只是一个单独 (但很大) 的层 (参见 leveldb 中使用的 LSM 树)。但基本原理是一样的。

例如,如果缓存为 4 GB,并且我们假设数据库的每一层比上一层大 4 倍,那么以太坊当前的 ~64 GB 状态将需要 ~2 次访问。但是如果状态大小增加 4 倍到 ~256 GB,那么这将增加到 ~3 次访问。因此,gas 上限增加 4 倍实际上可以转化为区块验证时间增加约 6 倍。这种影响可能会更大:硬盘在已满状态下比空闲时需要花更长时间来读写。

这对以太坊来说意味着什么?

现在在以太坊区块链中,运行一个节点对许多用户来说已经是一项挑战,尽管至少使用常规硬件仍然是可能的 (我写这篇文章时刚刚在我的笔记本电脑上同步了一个节点!)。因此,我们即将遭遇瓶颈。核心开发者最关心的问题是存储大小。因此,目前在解决计算和数据瓶颈方面的巨大努力,甚至对共识算法的改变,都不太可能带来 gas limit 的大幅提升。即使解决了以太坊最大的 DoS 弱点,也只能将 gas limit 提高 20%。

对于存储大小的问题,唯一解决方案是无状态和状态逾期。无状态使得节点群能够在不维护永久存储的情况下进行验证。状态逾期会使最近未访问过的状态失活,用户需要手动提供证明来更新。这两条路径已经研究了很长时间,并且已经开始了关于无状态的概念验证实现。这两项改进相结合可以大大缓解这些担忧,并为显著提升 gas limit 开辟空间。但即使在实施无状态和状态逾期之后,gas limit 也可能只会安全地提升约 3 倍,直到其他限制开始发挥作用。

另一个可能的中期解决方案使使用 ZK-SNARKs 来验证交易。ZK-SNARKs 能够保证普通用户无需个人存储状态或是验证区块,即使他们仍然需要下载区块中的所有数据来抵御数据不可用攻击。另外,即使攻击者不能强行提交无效区块,但是如果运行一个共识节点的难度过高,依然会有协调审查攻击的风险。因此,ZK-SNARKs 不能无限地提升节点能力,但是仍然能够对其进行大幅提升 (或许是 1-2 个数量级)。一些区块链在 layer1 上探索该形式,以太坊则通过 layer2 协议 (也叫 ZK rollups) 来获益,例如 zksync, Loopring 和 Starknet。

分片之后又会如何?

分片从根本上解决了上述限制,因为它将区块链上包含的数据与单个节点需要处理和存储的数据解耦了。节点验证区块不是通过亲自下载和执行,而是使用先进的数学和密码学技术来间接验证区块。

因此,分片区块链可以安全地拥有非分片区块链无法实现的非常高水平的吞吐量。这确实需要大量的密码学技术来有效替代朴素完整验证,以拒绝无效区块,但这是可以做到的:该理论已经具备了基础,并且基于草案规范的概念验证已经在进行中。

以太坊计划采用二次方分片 (quadratic sharding),其中总可扩展性受到以下事实的限制:节点必须能够同时处理单个分片和信标链,而信标链必须为每个分片执行一些固定的管理工作。如果分片太大,节点就不能再处理单个分片,如果分片太多,节点就不能再处理信标链。这两个约束的乘积构成了上限。

可以想象,通过三次方分片甚至指数分片,我们可以走得更远。在这样的设计中,数据可用性采样肯定会变得更加复杂,但这是可以实现的。但以太坊并没有超越二次方,原因在于,从交易分片到交易分片的分片所获得的额外可扩展性收益实际上无法在其他风险程度可接受的前提下实现。

那么这些风险是什么呢?

最低用户数量

可以想象,只要有一个用户愿意参与,非分片区块链就可以运行。但分片区块链并非如此:单个节点无法处理整条链,因此需要足够的节点以共同处理区块链。如果每个节点可以处理 50 TPS,而链可以处理 10000 TPS,那么链至少需要 200 个节点才能存续。如果链在任何时候都少于 200 个节点,那可能会出现节点无法再保持同步,或者节点停止检测无效区块,或者还可能会发生许多其他坏事,具体取决于节点软件的设置。

在实践中,由于需要冗余 (包括数据可用性采样),安全的最低数量比简单的“链 TPS 除以节点 TPS”高几倍,对于上面的例子,我们将其设置位 1000 个节点。

如果分片区块链的容量增加 10 倍,则最低用户数也增加 10 倍。现在大家可能会问:为什么我们不从较低的容量开始,当用户很多时再增加,因为这是我们的实际需要,用户数量回落再降低容量?

这里有几个问题:

区块链本身无法可靠地检测到其上有多少唯一用户,因此需要某种治理来检测和设置分片数量。对容量限制的治理很容易成为分裂和冲突的根源。

如果许多用户突然同时意外掉线怎么办?

增加启动分叉所需的最低用户数量,使得防御恶意控制更加艰难。

最低用户数为 1,000,这几乎可以说是没问题的。另一方面,最低用户数设为 100 万,这肯定是不行。即使最低用户数为 10,000 也可以说开始变得有风险。因此,似乎很难证明超过几百个分片的分片区块链是合理的。

历史可检索性

用户真正珍视的区块链重要属性是永久性。当公司破产或是维护该生态系统不再产生利益时,存储在服务器上的数字资产将在 10 年内不再存在。而以太坊上的 NFT 是永久的。

是的,到 2372 年人们仍能够下载并查阅你的加密猫。

但是一旦区块链的容量过高,存储所有这些数据就会变得更加困难,直到某时出现巨大风险,某些历史数据最终将……没人存储。

要量化这种风险很容易。以区块链的数据容量 (MB/sec) 为单位,乘以 ~30 得到每年存储的数据量 (TB)。当前的分片计划的数据容量约为 1.3 MB/秒,因此约为 40 TB/年。如果增加 10 倍,则为 400 TB/年。如果我们不仅希望可以访问数据,而且是以一种便捷的方式,我们还需要元数据 (例如解压缩汇总交易),因此每年达到 4 PB,或十年后达到 40 PB。Internet Archive (互联网档案馆) 使用 50 PB。所以这可以说是分片区块链的安全大小上限。

因此,看起来在这两个维度上,以太坊分片设计实际上已经非常接近合理的最大安全值。常数可以增加一点,但不能增加太多。

结语

尝试扩容区块链的方法有两种:基础的技术改进和简单地提升参数。首先,提升参数听起来很有吸引力:如果您是在餐纸上进行数学运算,这就很容易让自己相信消费级笔记本电脑每秒可以处理数千笔交易,不需要 ZK-SNARK、rollups 或分片。不幸的是,有很多微妙的理由可以解释为什么这种方法是有根本缺陷的。

运行区块链节点的计算机无法使用 100%的 CPU 来验证区块链;他们需要很大的安全边际来抵抗意外的 DoS 攻击,他们需要备用容量来执行诸如在内存池中处理交易之类的任务,并且用户不希望在计算机上运行节点的时候无法同时用于任何其他应用。带宽也会受限:10 MB/s 的连接并不意味着每秒可以处理 10 MB 的区块!也许每 12 秒才能处理 1-5 MB 的块。存储也是一样,提高运行节点的硬件要求并且限制专门的节点运行者并不是解决方案。对于去中心化的区块链而言,普通用户能够运行节点并形成一种文化,即运行节点是一种普遍行为,这一点至关重要。

以太坊最快将在8、9月份合并:大利好?质押砸盘?Layer2怎么办?

再过几天,ETH2.0 Merge就要在测试网上试水了,如果成功,那也就意味着V神所说的8月份的主网合并,有戏!

而未来一段时间,合并应该是对于ETH来说最大的利好,那么关于这次利好,你应该知道至少下面几件事:

为什么ETH非得转POS,不转不行么?

为什么说POW转POS的Merge,是很大的利好 ?

Merge结束后,质押的天量ETH会解锁砸盘么?

ETH2.0时代,Layer2何去何从?

下面一个个看。

01

为什么非要转POS

关于POW与POS在能耗,安全等各方面的争论已经持续了数年,但争论归争论,转POS还是板上钉钉要发生的事情,不以矿工或是POW支持者的意志为转移。这是好多年前ETH 升级路线就规划好了的事。

通常人们理解转POS的原因也是这两点 :1. 维护安全的 成本更低 (消耗更少的能源来维护共识)2. 理论上来说比POW更能防止51%攻击,即 更安全 。

但这俩其实更多是结果,而非原因。

真正的原因其实本身还是在技术层面,ETH要实现扩容,就必须转成POS。

最早的扩容设想是分片+Layer2,其中分片技术,因为POW的最长链的不确定性,是很难套用分片技术的,必须使用POS来达到随机分配出块的确定性。

现在扩容技术主打Rollup Layer2,状态分片技术被搁置,但为了更好支持Rollup的数据分片Danksharding技术依旧需要POS的支持,所以 POS还是未来的核心底层共识。

此外还有无状态、轻客户端等其他辅助扩容或是去中心化的需求,也都需要POS,所以 转POS,是一个Must,而非Should。

02

为什么转POS从市值角度来说是很大的利好

这个角度更是非常的直接。

大家都把BTC比做加密世界的黄金,ETH比做加密世界石油。 黄金的开采量,要是忽然减产,肯定对于金价是个提振作用,区块链世界的数字黄金BTC更是如此,4年减半周期带来的牛熊交替到现在依旧是一个主旋律。

石油呢?哪次欧佩克减产,油价不得上天,大家加油的时候钱包不得一瘪?

这次ETH这个数字石油,直接给你减个大的。

转之前的POW,差不多每年通胀在5%左右,基本都被矿工挖出来砸盘了。

转POS之后,按照目前的质押率,通胀直接降到0.5-1%左右 ,配合上EIP1559的燃烧,ETH时不时进入个通缩状态很有可能都是家常便饭。

这是一下子减产5-10倍的节奏,相当于BTC花12年进行三次减半的效果,人家ETH一次性给你搞定了。

你说现在这个价格是不是合并利好已经兑现的价格?我觉得是没有的,因为虽然都知道要Merge,但时间点没人知道,这已经拖了几次了,ETH升级也是一贯这个风格,这次拖到了8月,但再次延期,说实话白话也丝毫不意外……

图源:reddit

03

Merge结束后,质押的天量ETH会解锁砸盘吗

这也是很多人担心的点,1000多万个ETH目前都在质押,大多数都是去年质押的,成本几百刀,现在都至少几倍的利润,砸盘怎么办?

其实你也想太多了~

第一. 这1000多万个ETH合并结束之后不会立刻解锁, 而是要等几个月再升级一次的时候才会激活解锁提款功能。

第二. 可以提款之后, 这么多ETH也不能同时提,是有名额和队列的,1000多万ETH想全部跑出来得花1年多的时间。

第三. 质押ETH做节点的, 大多数都是长期看好ETH发展的,其中钻石手居多, 1000多的价格你说他们会砸盘,我不太相信……退一步说,像是通过Lido质押的,想要砸盘完全可以走Curve的StETH池1:1换成ETH砸,通过币安的bETH和ETH基本也是1:1兑换, 流动性完全不是问题, 根本不需要等合并完成解锁砸,买卖随时都可以。

图源:Block Beats

04

ETH2.0时代,Layer2何去何从

这其实是一个让我疑惑的点,但架不住经常看到推特上不少朋友问,所以还是罗列出来。

首先 这次的Merge只是ETH2.0万里长征的第一步,对性能提升没啥大的影响, 其次貌似在很多人的印象里,ETH2.0时代,是分片或是其他扩容技术为王的时代,当前Rollup为主的Layer2只是一个过渡技术。

这个误区一定要纠正,目前来看,Layer2会是ETH短期,中期,长期的扩容技术,没有之一,最早提的分片技术之类的因为复杂度和可实现性已经事实上被抛弃了。

ETH2.0的分片,会是纯粹的数据分片, Danksharding,完全是为Rollup的费用和数据可用性空间所服务的, ETH2.0时代的Layer2 Rollup,会比现在费用更低,性能更好,仅此而已。

所以Layer2不存在何去何从的问题,他们哪儿也不去,就呆在这更好更快更强的为ETH生态服务。

其实最有意思的点反而是: 目前的ETH POW矿工到时候何去何从?

一种说法是他们会把算力转去ETC,改挖ETC;另一种说法是他们会卖掉自己的显卡或是矿机,然后买ETH去做Staking继续挖。

朋友们,你觉得会是哪一种呢?

——转载

作者 | 五火球教主

出品 白话区块链(ID:hellobtc)

以太坊扩容方案ETH

以太坊扩容方案 Optimism 宣布将于 10 月推出一键部署功能,将在下一次主网升级中放弃自定义 Solidity 编译器,一些无法解决自定义编译器的项目将可以在不修改其代码的情况下部署在 Optimism。团队表示,Optimistic 将与对现有以太坊客户端代码(Geth)紧密耦合,可以引入对以太坊所做的任何改进,例如将能够快速引入主要的硬分叉。此外, 团队推出了 Optimistic 规范存储库,正在收集此设计相关的所有文档。

以太坊 Layer 2 扩容方案 Optimism 宣布将升级成为 EVM 全兼容,升级后任何编写了以 Geth 为目标的代码的人现在都可以不加修改地进行合约部署,预计一键部署功能将于 10 月推出。 升级后,任何可以在以太坊上运行的工具都将在也被允许在 Optimistic Ethereum. 上运行。这意味着用户将可以在 L2 上使用 DappTools、Vyper、Tenderly 以及 Hardhat。

9 月 18 日,Yearn.finance 的核心开发者「banteg」发推文表示,SushiSwap Launchpad 平台 MISO 攻击者归还全部 865 ETH。据以太坊区块浏览器 Etherscan 显示,此前攻击 SushiSwap Launchpad 平台 MISO 的攻击者向 SushiSwap 归还了 800 ETH ,该操作分为两笔交易,第一笔归还 100ETH,第二笔归还 700ETH,SushiSwap Launchpad 平台 MISO 上 Jay Pegs Auto Mart 项目的 DONA 代币拍卖遭到攻击,攻击者向 MISO 前端插入了恶意代码,将拍卖钱包地址改为了自己的钱包地址,损失目前已达 865 ETH (约 307 万美元)。

以太坊挖矿,需要什么硬件配置?

你好,根据我的经验来说,1.首先搭机架,然后固定显卡,再将CPU和风扇、内存、SSD硬盘插在主板的插槽内并连好电源和主板电源。

2.连接显卡独立电源,显卡和电源连线,一端接在显卡,一端接在电源标注PCI-E的插口处。

3.连接显卡与转接板

①把显卡金手指插在转接板的卡槽内,并连接转接板的USB口

连接显卡与转接板

②将USB连接线的另一端接在主板上,特别注意图中圈出部分的大卡插槽接法(缺口冲外)

连接显卡与转接板

③转接板是有独立电源的,下面我们连接转接板独立电源

4.

在主板上有一对银针是控制电脑开关的(标注着on/off字样),不同的主板位置不同,具体请参考主板说明书。

5.至此,组装完成。

希望我的建议可以帮助到你,谢谢!

以太坊硬件扩容的介绍就聊到这里吧,感谢你花时间阅读本站内容,更多关于2021以太坊扩容升级世界论坛、以太坊硬件扩容的信息别忘了在本站进行查找喔。

评论