在flink的批处理模式下,数据的计算也有着map/reduce
两端的计算模型,这一点和MR、spark计算框架是类似的。在数据进行分组计算的过程中,都有着map和reduce两端的聚合过程
,map的聚合称之为combiner
,这一过程的目的是将数据进行预聚合,减少中间的数据传输量,也减轻了reduce端数据计算的压力。
在《Batch模式JobGraph的创建》中我们分析了在数据聚合的map端,数据最终会经过combiner算子处理,在batch模式下,chain在一起的算子都被封装成ChainedDriver,这个combiner算子就被封装成了SynchronousChainedCombineDriver,数据的核心处理也在这个类里面。在本文中,我们还以WordCount为示例,代码可以参考《Batch模式JobGraph的创建》
public class SynchronousChainedCombineDriver<IN, OUT> extends ChainedDriver<IN, OUT> {
private static final Logger LOG = LoggerFactory.getLogger(SynchronousChainedCombineDriver.class);
/** Fix length records with a length below this threshold will be in-place sorted, if possible. */
private static final int THRESHOLD_FOR_IN_PLACE_SORTING = 32;
// --------------------------------------------------------------------------------------------
private InMemorySorter<IN> sorter;
private GroupCombineFunction<IN, OUT> combiner;
private TypeSerializer<IN> serializer;
private TypeComparator<IN> groupingComparator;
private AbstractInvokable parent;
private final QuickSort sortAlgo = new QuickSort();
private List<MemorySegment> memory;
private volatile boolean running = true;
sorter:flink
定义的一种数据结构,用作数据缓存区,将数据先写入到sorter中,并对数据按照key进行排序操作。这个结构非常重要combiner
:数据聚合的函数serializer
:序列化工具,用于对象数据的序列化和反序列化groupingComparator
:分组比较器,比较key,比较两个数据是否属于同一个分组。parent:Flink
中的任务类型,例如BatchTasksortAlgo
:快速排序算子,用来对sorter中的数据进行排序,排序是基于key进行的memory
:对内存空间的封装,将内存拆分成一个个的内存段MemorySegment,缓冲的数据写入到这些MemorySegment中。sorter会持有这些MemorySegment每个算子是有生命周期的,在生命周期内,会依次调用ChainedDriver
的setup()、openTask()、collect()方法,setup()、openTask()
方法一般是作为算子的初始化操作,数据的处理在collect()中。
首先看setup()方法
这一步主要就是从配置中实例化数据聚合函数
//SynchronousChainedCombineDriver
public void setup(AbstractInvokable parent) {
this.parent = parent;
@SuppressWarnings("unchecked")
final GroupCombineFunction<IN, OUT> combiner =
BatchTask.instantiateUserCode(this.config, userCodeClassLoader, GroupCombineFunction.class);
this.combiner = combiner;
FunctionUtils.setFunctionRuntimeContext(combiner, getUdfRuntimeContext());
}
再看openTask()方法
openTask()方法主要的实现:
public void openTask() throws Exception {
// open the stub first
final Configuration stubConfig = this.config.getStubParameters();
BatchTask.openUserCode(this.combiner, stubConfig);
// ----------------- Set up the sorter -------------------------
// instantiate the serializer / comparator
final TypeSerializerFactory<IN> serializerFactory = this.config.getInputSerializer(0, this.userCodeClassLoader);
final TypeComparatorFactory<IN> sortingComparatorFactory = this.config.getDriverComparator(0, this.userCodeClassLoader);
final TypeComparatorFactory<IN> groupingComparatorFactory = this.config.getDriverComparator(1, this.userCodeClassLoader);
this.serializer = serializerFactory.getSerializer();
//sortingComparator用在sorter里,用来对key进行排序
TypeComparator<IN> sortingComparator = sortingComparatorFactory.createComparator();
//groupingComparator用在聚合的过程中,对sorter中读的数据进行分组比较
this.groupingComparator = groupingComparatorFactory.createComparator();
MemoryManager memManager = this.parent.getEnvironment().getMemoryManager();
final int numMemoryPages = memManager.computeNumberOfPages(this.config.getRelativeMemoryDriver());
//MemoryManager分配内存,以一个个内存段的形式当做数据的缓存空间
this.memory = memManager.allocatePages(this.parent, numMemoryPages);
// instantiate a fix-length in-place sorter, if possible, otherwise the out-of-place sorter
if (sortingComparator.supportsSerializationWithKeyNormalization() &&
this.serializer.getLength() > 0 && this.serializer.getLength() <= THRESHOLD_FOR_IN_PLACE_SORTING)
{
this.sorter = new FixedLengthRecordSorter<IN>(this.serializer, sortingComparator.duplicate(), this.memory);
} else {
//通常情况下都是NormalizedKeySorter,sorter持有很多个内存段MemorySegment
this.sorter = new NormalizedKeySorter<IN>(this.serializer, sortingComparator.duplicate(), this.memory);
}
if (LOG.isDebugEnabled()) {
LOG.debug("SynchronousChainedCombineDriver object reuse: " + (this.objectReuseEnabled ? "ENABLED" : "DISABLED") + ".");
}
}
接下来看collect()方法
collect()方法的主要实现大致:
public void collect(IN record) {
this.numRecordsIn.inc();
// try writing to the sorter first
try {
if (this.sorter.write(record)) {
return;
}
} catch (IOException e) {
throw new ExceptionInChainedStubException(this.taskName, e);
}
// do the actual sorting
try {
//对缓冲的数据进行排序并进行数据聚合,写出去
sortAndCombine();
} catch (Exception e) {
throw new ExceptionInChainedStubException(this.taskName, e);
}
this.sorter.reset();
try {
if (!this.sorter.write(record)) {
throw new IOException("Cannot write record to fresh sort buffer. Record too large.");
}
} catch (IOException e) {
throw new ExceptionInChainedStubException(this.taskName, e);
}
}
private void sortAndCombine() throws Exception {
final InMemorySorter<IN> sorter = this.sorter;
if (objectReuseEnabled) {
//和下面未使用对象重用的逻辑类似
...
} else {
if (!sorter.isEmpty()) {
//先用快速排序对sorter中的数据按key进行排序,然后分组聚合
this.sortAlgo.sort(sorter);
// run the combiner
final NonReusingKeyGroupedIterator<IN> keyIter = new NonReusingKeyGroupedIterator<IN>(sorter.getIterator(), this.groupingComparator);
// cache references on the stack
final GroupCombineFunction<IN, OUT> stub = this.combiner;
final Collector<OUT> output = this.outputCollector;
// run stub implementation
while (this.running && keyIter.nextKey()) {
stub.combine(keyIter.getValues(), output);
}
}
}
}
由上可以看到,数据的核心在数据是怎么样写到的缓存区里的,又是怎么进行排序和合并的。这些关键的实现都在sorter中,所以了解sorter是必须的。
在分析sorter之前,先总结说一下sorter的数据存储的原理,以便更好的分析源码。flink在存储数据时,是将对象数据分为两部分存储,一部分存储真实的对象数据,一部分存储对象数据存放位置(即指针)+ 对象的key
。反应在sorter持有的那些MemorySegment
上,就是一部分的MemorySegment
存放真实数据,一部分MemorySegment存放数据指针 + 数据的key
,这样做的好处是排序的过程可以更加的高效,只需要对指针数据(包括指针和key)进行排序即可,因为排序过程需要进行数据交换,指针数据占用内存更少,对指针数据的交换更加高效。
注:下面我说的 指针数据(也叫索引数据) 包括数据指针+key,数据指针 才仅表示long型的offset
另外,指针数据在内存中所占的长度是定长的,指针是long型,占8个字
节,key在组合情况下(例如一个元组中的两个或多个字段)最多占16个字节
,单个(一个字段)情况最多占8个字节。例如使用string字符串作为key,那最多只截取前8位。有的key不足8位,那就用0补齐,如此一来,每个元素将使用16个字节作为指针数据
。
因为key最多截取的前8位,那么不同的key前8位可能是相同的,那么在排序过程中如果两个key相同,就去比较对象数据,按照对象数据的key来做比较,这一步有一个反序列化的过程
。
在读数据的时候,也是读取的指针数据,从指针数据中得到对象数据所在MemorySegment的位置,然后从对应的位置读取并反序列化成对象,所以这个指针数据也可以叫作索引数据。
下面的两幅图说明了数据的存储和排序比较过程
存储:
排序比较:
数据缓冲区NormalizedKeySorter
接下来我们来看这个InMemorySorter的实现,这里我们看通常情况下的NormalizedKeySorter
首先我们看一下它的结构
public final class NormalizedKeySorter<T> implements InMemorySorter<T> {
private static final Logger LOG = LoggerFactory.getLogger(NormalizedKeySorter.class);
//指针数据所占的字节长度
private static final int OFFSET_LEN = 8;
//key所占的最大长度
private static final int DEFAULT_MAX_NORMALIZED_KEY_LEN = 16;
//单个字段的key所占最大长度
private static final int MAX_NORMALIZED_KEY_LEN_PER_ELEMENT = 8;
//最少的MemorySegment个数
private static final int MIN_REQUIRED_BUFFERS = 3;
//大数据元素的阈值,超过这个阈值认为是大数据记录
private static final int LARGE_RECORD_THRESHOLD = 10 * 1024 * 1024;
private static final long LARGE_RECORD_TAG = 1L << 63;
private static final long POINTER_MASK = LARGE_RECORD_TAG - 1;
// ------------------------------------------------------------------------
// Members
// ------------------------------------------------------------------------
//在排序过程中用于数据交换的buffer
private final byte[] swapBuffer;
//序列化器,用于将对象数据进行序列化存储和反序列化比较
private final TypeSerializer<T> serializer;
//比较器,用在排序比较过程
private final TypeComparator<T> comparator;
//存储数据的数据收集器,存储反序列化后的真实对象数据
private final SimpleCollectingOutputView recordCollector;
//用于从MemorySegment读取数据
private final RandomAccessInputView recordBuffer;
private final RandomAccessInputView recordBufferForComparison;
//当前存放指针数据的MemorySegment,SortIndex就是指的指针数据
private MemorySegment currentSortIndexSegment;
//总共的MemorySegment,就是一个个的buffer
private final ArrayList<MemorySegment> freeMemory;
//这里放的是所有存放指针数据的MemorySegment
private final ArrayList<MemorySegment> sortIndex;
//这里存放的是所有存储对象真实数据的MemorySegment
private final ArrayList<MemorySegment> recordBufferSegments;
//当前对象数据所在MemorySegment的位置,即数据指针
private long currentDataBufferOffset;
//指针数据的总大小
private long sortIndexBytes;
//指针数据在MemorySegment的位置
private int currentSortIndexOffset;
//总共记录条数
private int numRecords;
//key的字节大小
private final int numKeyBytes;
//每个元素指针数据的大小,包括指针+key
private final int indexEntrySize;
//每个MemorySegment可以存放多少个指针数据
private final int indexEntriesPerSegment;
//指针数据在MemorySegment最大的offset位置
private final int lastIndexEntryOffset;
//每个MemorySegment的buffer大小
private final int segmentSize;
//总共多少个MemorySegment
private final int totalNumBuffers;
private final boolean normalizedKeyFullyDetermines;
private final boolean useNormKeyUninverted;
从结构上我们看到了NormalizedKeySorter
里定义了每个指针数据的大小,定义了专门用于存放指针数据的MemorySegment
列表和专门用于存放对象数据的MemorySegment
列表,定义了指针数据和对象数据在MemorySegment
中的位置游标等等。
下面来看NormalizedKeySorter的构造方法
了解了NormalizedKeySorter的结构之后,看构造方法就比较容易了,大致的实现就是给各个定义的成员变量进行赋值,在这个过程我们大概可以看到:
public NormalizedKeySorter(TypeSerializer<T> serializer, TypeComparator<T> comparator,
List<MemorySegment> memory, int maxNormalizedKeyBytes)
{
if (serializer == null || comparator == null || memory == null) {
throw new NullPointerException();
}
if (maxNormalizedKeyBytes < 0) {
throw new IllegalArgumentException("Maximal number of normalized key bytes must not be negative.");
}
this.serializer = serializer;
this.comparator = comparator;
this.useNormKeyUninverted = !comparator.invertNormalizedKey();
// check the size of the first buffer and record it. all further buffers must have the same size.
// the size must also be a power of 2
this.totalNumBuffers = memory.size();
if (this.totalNumBuffers < MIN_REQUIRED_BUFFERS) {
throw new IllegalArgumentException("Normalized-Key sorter requires at least " + MIN_REQUIRED_BUFFERS + " memory buffers.");
}
this.segmentSize = memory.get(0).size();
this.freeMemory = new ArrayList<MemorySegment>(memory);
// create the buffer collections
this.sortIndex = new ArrayList<MemorySegment>(16);
this.recordBufferSegments = new ArrayList<MemorySegment>(16);
// the views for the record collections
this.recordCollector = new SimpleCollectingOutputView(this.recordBufferSegments,
new ListMemorySegmentSource(this.freeMemory), this.segmentSize);
this.recordBuffer = new RandomAccessInputView(this.recordBufferSegments, this.segmentSize);
this.recordBufferForComparison = new RandomAccessInputView(this.recordBufferSegments, this.segmentSize);
// set up normalized key characteristics
if (this.comparator.supportsNormalizedKey()) {
// compute the max normalized key length
int numPartialKeys;
try {
numPartialKeys = this.comparator.getFlatComparators().length;
} catch (Throwable t) {
numPartialKeys = 1;
}
int maxLen = Math.min(maxNormalizedKeyBytes, MAX_NORMALIZED_KEY_LEN_PER_ELEMENT * numPartialKeys);
this.numKeyBytes = Math.min(this.comparator.getNormalizeKeyLen(), maxLen);
this.normalizedKeyFullyDetermines = !this.comparator.isNormalizedKeyPrefixOnly(this.numKeyBytes);
}
else {
this.numKeyBytes = 0;
this.normalizedKeyFullyDetermines = false;
}
// compute the index entry size and limits
//indexEntrySize即每个指针数据(也可以叫作索引数据,包括数据指针+key)的大小
this.indexEntrySize = this.numKeyBytes + OFFSET_LEN;
this.indexEntriesPerSegment = this.segmentSize / this.indexEntrySize;
this.lastIndexEntryOffset = (this.indexEntriesPerSegment - 1) * this.indexEntrySize;
this.swapBuffer = new byte[this.indexEntrySize];
// set to initial state
//给当前的指针数据存储分配一个MemorySegment
this.currentSortIndexSegment = nextMemorySegment();
this.sortIndex.add(this.currentSortIndexSegment);
}
//从freeMemory里获取一个MemorySegment,获取一个就删除一个,freeMemory里就少一个
private MemorySegment nextMemorySegment() {
return this.freeMemory.remove(this.freeMemory.size() - 1);
}
下面我们看数据的写入过程
写入过程会分为两部分,一部分是指针数据(索引数据),一部分是对象真实数据
。
大致实现如下:
MemorySegment
写满了,就新获取一个MemorySegment
,如果没有MemorySegment
了,说明没有可用空间了,返回falseMemorySegment
中,对象写入会进行反序列化,也就是说MemorySegment
中存放的是对象的二进制数据。这个过程封装在SimpleCollectingOutputView
中,如果没有空闲的MemorySegment了,就返回falseMemorySegment
里,索引数据也即指针数据,记录的是对象数据所在MemorySegment
中的位置和对象的key。注意这里的key是定长的,比如用一个字符串当做key,最多取前8个字符,如果不足8个字符就用0补齐public boolean write(T record) throws IOException {
//check whether we need a new memory segment for the sort index
//如果当前的索引数据MemorySegment写满了,就新获取一个MemorySegment,如果没有MemorySegment了,说明没有可用空间了,返回false
if (this.currentSortIndexOffset > this.lastIndexEntryOffset) {
if (memoryAvailable()) {
this.currentSortIndexSegment = nextMemorySegment();
this.sortIndex.add(this.currentSortIndexSegment);
this.currentSortIndexOffset = 0;
this.sortIndexBytes += this.segmentSize;
} else {
return false;
}
}
// serialize the record into the data buffers
try {
//将真实的对象数据写入到存放数据的MemorySegment
this.serializer.serialize(record, this.recordCollector);
}
catch (EOFException e) {
//当没有可用空间了会抛出EOFException,返回false
return false;
}
final long newOffset = this.recordCollector.getCurrentOffset();
final boolean shortRecord = newOffset - this.currentDataBufferOffset < LARGE_RECORD_THRESHOLD;
if (!shortRecord && LOG.isDebugEnabled()) {
LOG.debug("Put a large record ( >" + LARGE_RECORD_THRESHOLD + " into the sort buffer");
}
// add the pointer and the normalized key
//将数据指针和对象的key写入到索引数据的MemorySegment里
this.currentSortIndexSegment.putLong(this.currentSortIndexOffset, shortRecord ?
this.currentDataBufferOffset : (this.currentDataBufferOffset | LARGE_RECORD_TAG));
if (this.numKeyBytes != 0) {
this.comparator.putNormalizedKey(record, this.currentSortIndexSegment, this.currentSortIndexOffset + OFFSET_LEN, this.numKeyBytes);
}
this.currentSortIndexOffset += this.indexEntrySize;
this.currentDataBufferOffset = newOffset;
this.numRecords++;
return true;
}
简单看一下数据写入到MemorySegment的过程:
依次向MemorySegment
里写入一个字节,如果MemorySegment
空间不够,就获取一个新的MemorySegment
,如果没有新的MemorySegment
的,就抛出EOFException
说明空间不足了。
//StringSerializer类
public void serialize(String record, DataOutputView target) throws IOException {
StringValue.writeString(record, target);
}
//AbstractPagedOutputView类
public void writeByte(int v) throws IOException {
if (this.positionInSegment < this.segmentSize) {
this.currentSegment.put(this.positionInSegment++, (byte) v);
}
else {
advance();
writeByte(v);
}
}
//AbstractPagedOutputView类
protected void advance() throws IOException {
this.currentSegment = nextSegment(this.currentSegment, this.positionInSegment);
this.positionInSegment = this.headerLength;
}
//SimpleCollectingOutputView类
protected MemorySegment nextSegment(MemorySegment current, int positionInCurrent) throws EOFException {
final MemorySegment next = this.memorySource.nextSegment();
if (next != null) {
this.fullSegments.add(next);
this.segmentNum++;
return next;
} else {
throw new EOFException();
}
}
到现在,数据的写入大致的分析完毕了。
返回到SynchronousChainedCombineDriver算子,当sorter的数据写满了,就开始进行排序和数据聚合了。
排序使用的是快速排序算法,flink里快速排序的算法比较复杂,这里就不分析具体实现原理了,只看看NormalizedKeySorter是如何进行比较的:
MemorySegment
中获取对象数据,进行反序列化成对象,然后再根据对象来比较。例如用字符串当key,因为key只能取前8位,所以当key一样时需要根据对象数据的完整key来比较由此也可以看到一个问题,如果相同的key的数据很多,那么将会进行很多次的数据反序列化操作,这会耗费一定的性能。
//NormalizedKeySorter
public int compare(int segmentNumberI, int segmentOffsetI, int segmentNumberJ, int segmentOffsetJ) {
final MemorySegment segI = this.sortIndex.get(segmentNumberI);
final MemorySegment segJ = this.sortIndex.get(segmentNumberJ);
//比较索引数据中的key值,如果key不相等,就直接返回比较结果int值,如果key相等,比较对象数据
int val = segI.compare(segJ, segmentOffsetI + OFFSET_LEN, segmentOffsetJ + OFFSET_LEN, this.numKeyBytes);
if (val != 0 || this.normalizedKeyFullyDetermines) {
return this.useNormKeyUninverted ? val : -val;
}
final long pointerI = segI.getLong(segmentOffsetI) & POINTER_MASK;
final long pointerJ = segJ.getLong(segmentOffsetJ) & POINTER_MASK;
return compareRecords(pointerI, pointerJ);
}
//NormalizedKeySorter
private int compareRecords(long pointer1, long pointer2) {
//根据数据指针从存放数据的MemorySegment中获取对象数据,进行反序列化比较
this.recordBuffer.setReadPosition(pointer1);
this.recordBufferForComparison.setReadPosition(pointer2);
try {
return this.comparator.compareSerialized(this.recordBuffer, this.recordBufferForComparison);
} catch (IOException ioex) {
throw new RuntimeException("Error comparing two records.", ioex);
}
}
//StringComparator
public int compareSerialized(DataInputView firstSource, DataInputView secondSource) throws IOException {
String s1 = StringValue.readString(firstSource);
String s2 = StringValue.readString(secondSource);
int comp = s1.compareTo(s2);
return ascendingComparison ? comp : -comp;
}
//PojoComparator
public int compareSerialized(DataInputView firstSource, DataInputView secondSource) throws IOException {
T first = this.serializer.createInstance();
T second = this.serializer.createInstance();
//有一个反序列化的过程
first = this.serializer.deserialize(first, firstSource);
second = this.serializer.deserialize(second, secondSource);
return this.compare(first, second);
}
可以看到排序过程中实际的对象数据并没有动
,排序和交换的是索引数据
,不同的key的索引数据按照自然顺序进行了排序
,相同key的索引数据都放在了一起
。之后再根据这些索引数据读实际的对象数据,相同key的数据就能放在一起进行聚合了
。
经过排序之后,NormalizedKeySorter中key相同的对象数据,它们的索引数据都放在了一起,就可以开始进行数据的聚合了。
if (!sorter.isEmpty()) {
this.sortAlgo.sort(sorter);
// run the combiner
final NonReusingKeyGroupedIterator<IN> keyIter = new NonReusingKeyGroupedIterator<IN>(sorter.getIterator(), this.groupingComparator);
// cache references on the stack
final GroupCombineFunction<IN, OUT> stub = this.combiner;
final Collector<OUT> output = this.outputCollector;
// run stub implementation
while (this.running && keyIter.nextKey()) {
stub.combine(keyIter.getValues(), output);
}
}
在这个过程中,最关键的是NonReusingKeyGroupedIterator
的实现,它的主要功能就是实现获取一个key的所有对象数据
。
分组迭代器NonReusingKeyGroupedIterator
在这之前,我们先看sorter.getIterator(),NonReusingKeyGroupedIterator
持有了这个iterator的引用。
可以看到这个iterator就是读取NormalizedKeySorter中排序好的索引数据,依次读索引数据,然后根据索引指针从实际数据存储中读取对象数据。
//NormalizedKeySorter类
public final MutableObjectIterator<T> getIterator() {
return new MutableObjectIterator<T>()
{
private final int size = size();
private int current = 0;
private int currentSegment = 0;
private int currentOffset = 0;
private MemorySegment currentIndexSegment = sortIndex.get(0);
@Override
public T next(T target) {
...//对象重用的实现,和下面差不多
}
@Override
public T next()
{
if (this.current < this.size) {
this.current++;
if (this.currentOffset > lastIndexEntryOffset) {
this.currentOffset = 0;
this.currentIndexSegment = sortIndex.get(++this.currentSegment);
}
long pointer = this.currentIndexSegment.getLong(this.currentOffset);
this.currentOffset += indexEntrySize;
try {
//根据索引指针从MemorySegment读取对象数据
return getRecordFromBuffer(pointer);
}
catch (IOException ioe) {
throw new RuntimeException(ioe);
}
}
else {
return null;
}
}
};
}
然后我们看NonReusingKeyGroupedIterator
的实现,这个iterator的功能就是对某个key的数据进行分组,代码虽然很多,但是逻辑并不算太复杂。关键的实现由以下几个方法:
nextKey()
:这个iterator操作的就是上述排序好的索引数据,key是依次排序好的,key相同的索引数据都在一起。该方法就是获取下一个key,这个过程会有三种情况:
ValuesIterator
:这个iterator就是迭代的一个key的所有对象数据,每调用一次next(),就根据排序好的索引数据依次读取下一个对象数据,当读取到下一个对象数据和当前的key不一样了,hasNext()会返回false,说明当前的key的数据读取完了。
public final class NonReusingKeyGroupedIterator<E> implements KeyGroupedIterator<E> {
private final MutableObjectIterator<E> iterator;
private final TypeComparator<E> comparator;
private ValuesIterator valuesIterator;
private E lastKeyRecord;
private E lookahead;
private boolean done;
public NonReusingKeyGroupedIterator(MutableObjectIterator<E> iterator, TypeComparator<E> comparator) {
if (iterator == null || comparator == null) {
throw new NullPointerException();
}
this.iterator = iterator;
this.comparator = comparator;
}
public boolean nextKey() throws IOException {
if (lookahead != null) {
//通常情况,当一个key的所有数据消费完了,就转移到下一个key
// common case: whole value-iterator was consumed and a new key group is available.
this.comparator.setReference(this.lookahead);
this.valuesIterator.next = this.lookahead;
this.lastKeyRecord = this.lookahead;
this.lookahead = null;
this.valuesIterator.iteratorAvailable = true;
return true;
}
// first element, empty/done, or the values iterator was not entirely consumed
if (this.done) {
return false;
}
if (this.valuesIterator != null) {
//key的数据没有完全被消费完的情况
// values was not entirely consumed. move to the next key
// Required if user code / reduce() method did not read the whole value iterator.
E next;
while (true) {
if ((next = this.iterator.next()) != null) {
if (!this.comparator.equalToReference(next)) {
// the keys do not match, so we have a new group. store the current key
this.comparator.setReference(next);
this.valuesIterator.next = next;
this.lastKeyRecord = next;
this.valuesIterator.iteratorAvailable = true;
return true;
}
}
else {
// input exhausted
this.valuesIterator.next = null;
this.valuesIterator = null;
this.lastKeyRecord = null;
this.done = true;
return false;
}
}
}
else {
//第一个获取key,会初始化ValuesIterator
// first element
// get the next element
E first = this.iterator.next();
if (first != null) {
this.comparator.setReference(first);
this.valuesIterator = new ValuesIterator(first);
this.lastKeyRecord = first;
return true;
}
else {
// empty input, set everything null
this.done = true;
return false;
}
}
}
private E advanceToNext() {
try {
//从排好序的索引数据中读取一下一个对象数据
E next = this.iterator.next();
if (next != null) {
//如果下一个对象数据和当前数据的key相同,返回下一个数据。不相同返回null
if (comparator.equalToReference(next)) {
// same key
return next;
} else {
// moved to the next key, no more values here
this.lookahead = next;
return null;
}
}
else {
// backing iterator is consumed
this.done = true;
return null;
}
}
catch (IOException e) {
throw new RuntimeException("An error occurred while reading the next record.", e);
}
}
...
@Override
public ValuesIterator getValues() {
return this.valuesIterator;
}
// --------------------------------------------------------------------------------------------
public final class ValuesIterator implements Iterator<E>, Iterable<E> {
private E next;
private boolean iteratorAvailable = true;
private ValuesIterator(E first) {
this.next = first;
}
@Override
public boolean hasNext() {
return next != null;
}
@Override
public E next() {
if (this.next != null) {
E current = this.next;
//调用一个next()就读取下一个元素,并判断下一个元素跟当前的key有没有变化
this.next = NonReusingKeyGroupedIterator.this.advanceToNext();
return current;
} else {
throw new NoSuchElementException();
}
}
...
}
再返回到SynchronousChainedCombineDriver.sortAndCombine()
方法中,会对每组key的数据调用GroupCombineFunction.combiner()
方法进行聚合。
我们以ScalaAggregateOperator
(是一个DataSet子类)的内部类AggregatingUdf来举例看聚合的过程,scala版本的WordCount会调用这个类。
经代码可以看到,每个字段都对应着一个聚合函数,例如我们在代码里的sum(1),代表着元组的第二个字段使用sum函数来聚合,代码里同样还可以增加聚合函数,比如在sum(1).andMax(2),代表对元组的第二个字段使用sum,第三个字段使用max进行聚合。
在对一个key的所有数据都进行聚合后,例如对第二个字段进行累加,第三个字段求最大值,最后会将这些聚合值重新构建一个实例,这个实例的其他未聚合字段是采用的这组数据中最后一个数据的字段,具有不确定性。比如(wentao,1,2,a)(wentao,1,3,b),(wentao,2,1,c),聚合后就变成了(wentao,4,3,c),再把这个实例输出,输出就是写到了ResultPartition里
private static final class AggregatingUdf<T extends Product>
extends RichGroupReduceFunction<T, T>
implements GroupCombineFunction<T, T> {
private static final long serialVersionUID = 1L;
private final int[] fieldPositions;
private final AggregationFunction<Object>[] aggFunctions;
private TupleSerializerBase<T> serializer;
private TypeInformation<T> typeInfo;
public AggregatingUdf(TypeInformation<T> typeInfo, AggregationFunction<Object>[] aggFunctions, int[] fieldPositions) {
this.typeInfo = typeInfo;
this.aggFunctions = aggFunctions;
this.fieldPositions = fieldPositions;
}
@Override
public void open(Configuration parameters) throws Exception {
for (AggregationFunction<Object> aggFunction : aggFunctions) {
aggFunction.initializeAggregate();
}
this.serializer = (TupleSerializerBase<T>) typeInfo.createSerializer(getRuntimeContext().getExecutionConfig());
}
@Override
public void reduce(Iterable<T> records, Collector<T> out) {
final AggregationFunction<Object>[] aggFunctions = this.aggFunctions;
final int[] fieldPositions = this.fieldPositions;
// aggregators are initialized from before
//首先对需要聚合的字段按照聚合函数进行聚合
T current = null;
for (T record : records) {
current = record;
for (int i = 0; i < fieldPositions.length; i++) {
Object val = current.productElement(fieldPositions[i]);
aggFunctions[i].aggregate(val);
}
}
//拷贝最后一个对象数据的所有字段值
Object[] fields = new Object[serializer.getArity()];
int length = serializer.getArity();
// First copy all tuple fields, then overwrite the aggregated ones
for (int i = 0; i < length; i++) {
fields[i] = current.productElement(i);
}
//用聚合后的字段值替换原来对象的值,其他未聚合的字段则不变
for (int i = 0; i < fieldPositions.length; i++) {
Object aggVal = aggFunctions[i].getAggregate();
fields[fieldPositions[i]] = aggVal;
aggFunctions[i].initializeAggregate();
}
//重新构建一个实例,输出
T result = serializer.createInstance(fields);
out.collect(result);
}
@Override
public void combine(Iterable<T> records, Collector<T> out) {
reduce(records, out);
}
}
当把这个sorter里缓存的数据都进行了聚合并输出,就重置这个sorter,继续讲数据写入到这个sorter里。不过这里重置的过程并没有将MemorySegment(buffer)清空,只是重置了数据写入的offset,也就是说重新写入数据时是用新数据覆盖之前的老数据。
//
public void reset() {
// reset all offsets
this.numRecords = 0;
this.currentSortIndexOffset = 0;
this.currentDataBufferOffset = 0;
this.sortIndexBytes = 0;
// return all memory
this.freeMemory.addAll(this.sortIndex);
this.freeMemory.addAll(this.recordBufferSegments);
this.sortIndex.clear();
this.recordBufferSegments.clear();
// grab first buffers
this.currentSortIndexSegment = nextMemorySegment();
this.sortIndex.add(this.currentSortIndexSegment);
this.recordCollector.reset();
}
之后的过程会重复这个过程,数据先写入到sorter里,当sorter写满了,开始进行排序,然后进行聚合,输出到ResultPartition,写入到ResultPartition的时候按照实例的key来决定写到哪个ResultSubPartition里,对应着下游的哪个任务。
到此,map端的数据聚合就完全分析完毕了。
Flink批处理map端数据的大致实现如下,这里的聚合是指的通常情况下的分组聚合:
1、在数据聚合的map端,数据最终会经过combiner算子处理,在batch模式下,chain在一起的算子都被封装成ChainedDriver,数据的处理在ChainedDriver.collect()方法中。这个combiner算子就被封装成SynchronousChainedCombineDriver
2、SynchronousChainedCombineDriver中持有一个InMemorySorter,通常情况下这个sorter是NormalizedKeySorter。sorter持有很多个MemorySegment,MemorySegment是flink管理的一片内存区域,在逻辑上就是一个buffer,每个buffer的大小(也就是每个MemorySegment的segmentSize)默认是32k。combiner算子在处理数据时,先将数据写入到sorter里,当sorter写满了,才开始对sorter中的数据进行排序和聚合。
3、sorter存储数据时,是将数据分为两部分存储,一部分存储真实的对象数据,会将对象进行序列化,一部分存储对象数据存放位置(即指针)+ 对象的key,我称为指针数据。反应在sorter持有的那些MemorySegment上,就是一部分的MemorySegment存放真实数据,一部分MemorySegment存放数据指针 + 数据的key,在读数据的时候,根据指针从对应的位置读取并反序列化成对象,所以这个指针数据也可以叫作索引数据。
另外,指针数据在内存中所占的长度是定长的,指针是long型,占8个字节,key在组合情况下(例如一个元组中的两个或多个字段)最多占16个字节,单个(一个字段)情况最多占8个字节。例如使用一个string类型字段作为key,那最多只截取前8位。有的key不足8位,那就用0补齐。如此一来,每个元素将使用16个字节作为指针数据。
这样设计的好处是排序的过程可以更加的高效,索引数据中也存了对象的key,只需要对索引数据进行排序即可,因为排序过程需要进行数据交换,指针数据占用内存更少,对指针数据的交换更加高效。同时key最多截取的前8位,那么不同的key前8位可能是相同的,那么在排序过程中如果两个key相同,就去比较对象数据,按照对象数据的实际key来做比较,这一步有一个反序列化的过程。
4、当sorter写满了,就开始对sorter中的数据进行排序,如上所说,排序的数据是索引数据,而真实的对象数据并没有变化,索引数据和真实数据是一一对应的,我们通过索引数据就可以获取到真实的对象数据。排序使用的快速排序算法,经过排序后,相同key的索引数据就放在了一起了,不同的key按照自然顺序进行了排序。
5、排好序之后就开始进行数据的聚合了,聚合时只需要依次去读取索引数据,就可以把相同key的数据都给遍历一遍了。反应在代码上就是将所有的数据封装成一个NonReusingKeyGroupedIterator,调用nextKey()获取下一个key,调用getValues()返回这个key的所有数据迭代器。具体的算法实现细节参考文章描述
6、拿WordCount来看聚合过程,每个字段都对应着一个聚合函数,例如我们在代码里的sum(1),代表着元组的第二个字段使用sum函数来聚合,代码里同样还可以增加聚合函数,比如在sum(1).andMax(2),代表对元组的第二个字段使用sum,第三个字段使用max进行聚合。在对一个key的所有数据都进行聚合后,最后会将这些聚合值重新构建一个实例,这个实例的其他未聚合字段是采用的是这组数据中最后一个对象的数据,具有不确定性。比如(wentao,1,2,a)(wentao,1,3,b),(wentao,2,1,c),聚合后就变成了(wentao,4,3,c),再把这个实例写到了ResultPartition里,写入到ResultPartition的时候按照实例的key来决定写到哪个ResultSubPartition里,对应着下游的哪个任务
7、sorter里的所有数据都聚合完之后,会重置这个sorter,继续往里面写数据,之后会循环写数据、排序、聚合、输出这个过程。直到map端所有的数据都处理完毕。这里也可以看到,map端的combiner过程也仅仅是对sorter里的数据进行一个聚合,并非是多map端所有的数据进行聚合,而是分段数据聚合。
这里我也写一下我对flink数据聚合的想法,flink在map的聚合过程可能会发生很多次序列化和反序列化的过程,将数据写入到sorter里是一个序列化过程,然后再比较过程key相同会发生反序列化,在数据聚合的过程又会发生反序列化,如果数据量很并且key相同的数据很多,这会耗费一定的性能。但是这样做也有好处,就是可以更加紧凑的存储对象数据,高效利用内存,也降低了出现OOM的风险。
回顾一下spark的map端数据聚合过程,spark数据聚合是实时的数据聚合,也就是说数据不需要先存起来,然后再进行聚合,而且来一条数据就看看之前有没有key相同的,如果有,就进行聚合了。然后当缓冲区写满了也会将所有数据进行排序,排序首先是根据所属下游的分区,同一分区再根据key的hash值排序,整个过程可以不用序列化和反序列化,排序过程因为都是int类型比较速度也非常快,在性能上我觉得比flink要高效,就是对内存的占用比较多,不过在写入的过程也会对内存占用进行大小的预估,不过粒度不精细,容易出现oom风险,我看的spark源码是比较老的版本,不知道新版本有没有再做进一步的优化
版权说明 : 本文为转载文章, 版权归原作者所有 版权申明
原文链接 : https://blog.csdn.net/qq_21383435/article/details/125417940
内容来源于网络,如有侵权,请联系作者删除!