hadoop3.0擦除编码:对文件读取性能的影响?

ie3xauqp  于 2021-06-01  发布在  Hadoop
关注(0)|答案(1)|浏览(348)

我试图理解擦除编码对文件读取性能的影响。
在此之前简要总结了hadoop3.0中使用reed-solomon方法的擦除编码。如果一个被分割成k个块的文件被编码成p个奇偶校验块,那么k+p块中至少有k个块可用于重新创建文件。在hadoop2.0中,默认的复制是3,因此一个10块的文件在集群上需要30块空间。hadoop3.0声明它提供了50%的空间缩减,因此同样的10个块在3.0上存储时应该只需要15个块,即额外的5个块可以用作奇偶校验块。
在hadoop3.0中,一个包含10个块的文件(file1)将导致5个奇偶校验块(在3.0中使用ec将数据改进为50%)。假设原始的10个数据块存储在从n0到n9的节点上,5个奇偶校验块存储在节点n10到n14上。现在,对该文件的读取操作肯定应该从前10个节点(即n0到n9)获取数据,因为从具有奇偶校验块的节点获取数据可能需要更多的时间,因为它涉及解码(右??)。
接下来,该文件可接受的节点失败数为5。
如果节点n10-n14失败(这些节点具有奇偶校验块)。读取操作的性能(由于节点故障)不会受到影响,并且性能与上述场景中的相同。
但是如果节点n5到n9失败,那么我猜在这种情况下,读取性能将低于上述情况下的性能。
但在2.0中,只要节点故障数小于replicationfactor-1,无论哪个节点发生故障,都可以期望相同的性能。
问题是:在3.0中,是否应该将上述因素(擦除编码)也添加到可能影响读取性能的因素集中

w8ntj3qf

w8ntj3qf1#

你看过这些报告了吗?
https://fr.slideshare.net/hadoopsummit/debunking-the-myths-of-hdfs-erasure-coding-performance
https://fr.slideshare.net/hadoopsummit/hdfs-erasure-coding-in-action
一旦出现坏块,ec就会比复制慢。ec将在写路径上对cpu施加更大的压力,但对io施加的压力较小。不太清楚的是,在现实生活中,如果spark或hadoop作业没有跨越整个集群,并且没有数据局部性,那么ec是如何影响读取性能的。我预计,与ec相比,replication3在优化非理想配置中的数据局部性方面会有更大的空间,但我无法收集有关这方面的反馈。

相关问题