文章40 | 阅读 30623 | 点赞0
本文接 《SkyWalking 源码分析 —— Collector Streaming Computing 流式处理(一)》 ,主要分享 Collector Streaming 流式处理的第二部分。主要包含如下部分:
AggregationWorker 和 PersistenceWorker ,都先聚合处理数据,在进行各自的后续处理。那么聚合处理的数据结果,需要有容器进行缓存暂存:
org.skywalking.apm.collector.core.cache
:接口org.skywalking.apm.collector.stream.worker.impl.data
:实现类图如下:
Collection :数据采集,提供有读、写两个状态的数据容器。
Window :窗口( 😈这个解释怪怪的 ),内有两个 Collection。
一个 Collection ,负责写入数据数据
一个 Collection ,负责读出处理数据
当写的 Collection 符合处理的条件,读写 Collection 切换
org.skywalking.apm.collector.core.cache.Collection
,数据采集接口。
#collection()
/ #size()
/ #clear()
#reading()
/ #isReading()
/ #finishReading()
#writing()
/ #isWriting()
/ #finishWriting()
org.skywalking.apm.collector.stream.worker.impl.data.DataCollection
,实现 Collection 接口,数据采集实现类,使用 Map<String, Data>
作为数据容器。
org.skywalking.apm.collector.core.cache.Window
,窗口抽象类。
构造方法 ,代码如下:
windowDataA
属性,窗口数据A 。
windowDataB
属性,窗口数据B 。
通过 #collectionInstance()
抽象方法,创建窗口数据( Collection )对象。
pointer
属性,数据指向 windowDataA
或 windowDataA
。
#getCurrent()
方法,获得现数据指向,即 pointer
。
#getLast()
方法,获得原数据指向,即非 pointer
。
windowSwitch
属性,窗口切换计数。
切换 Collection 相关,方法如下:
#trySwitchPointer()
方法,返回是否可以切换 Collection 。可以切换需要满足如下条件:
只有一个调用方申请切换,通过 windowSwitch
属性进行计数。
原数据指向不处于正在读取状态。如果切换,一边读一边写,可能会有并发问题。
无论是否可以切换 Collection ,需要调用 #trySwitchPointerFinally()
方法,释放 windowSwitch
的计数。
#switchPointer()
方法,切换数据指向,并标记原数据指向的 Collection 正在读取中。
#finishReadingLast()
方法,清空原数据指向的 Collection 数据,并标记原数据指向的 Collection 完成读取( 不在正在读取中 )。
写 Collection 相关,方法如下:
#getCurrentAndWriting()
方法,获得现数据指向,并标记正在写入中。通过正在写入标记,切换 Collection 完成后,可以判断该 Collection 正在写入中,若是,等待不在写入中,开始数据读取并处理。org.skywalking.apm.collector.stream.worker.impl.data.DataCache
,实现 Window 抽象类,数据缓存。
#collectionInstance()
实现方法,创建 DataCollection 对象。#currentCollectionSize()
方法,获得当前数据指向( 写入 Collection )的数据数量。写 Collection 相关,方法如下:
#writing()
方法,调用 #getCurrentAndWriting()
方法,开始写入。即,获得现数据指向,并标记正在写入中。
lockedDataCollection
属性,写入的窗口数据。
#put(id, data)
方法,向 lockedDataCollection
属性,写入 Data 。
#get(id)
方法,向 lockedDataCollection
属性,根据 ID 获得 Data 。
#containsKey(id)
方法,向 lockedDataCollection
属性,根据 ID 判断 Data 是否存在 。
#finishWriting()
方法,完成写入。即,标记 lockedDataCollection
不在正在写入中。
org.skywalking.apm.collector.stream.worker.impl.AggregationWorker
,实现 AbstractLocalAsyncWorker 抽象类,异步聚合 Worker,负责聚合处理数据,后提交 Data 到 Next 节点们处理。
构造方法 ,代码如下:
dataCache
属性,数据缓存。messageNum
属性,消息计数。当超过一定数量( 目前是 100 ),重置计数归零。#onWork(message)
实现方法,聚合处理数据,当满足条件时,提交 Data 到 Next 节点们处理。
messageNum
计数增加。#aggregate(message)
方法,聚合消息到数据。messageNum >= 100
时,调用 #sendToNext()
,提交缓存数据的读 Collection 的数据给 Next 节点们继续处理。messageNum.endOfBatch == true
时,当消息是批处理的最后一条时,调用 #sendToNext()
,提交缓存数据的读 Collection 的数据给 Next 节点们继续处理。#sendToNext()
方法,提交缓存数据的读 Collection 的数据给 Next 节点们继续处理。
Window#switchPointer()
方法,切换数据指针,并标记原指向正在读取中。这里并未先调用 Window#trySwitchPointer()
方法,是否会有并发问题?目前这里是异步单线程,所以不会有问题,参见 《SkyWalking 源码分析 —— Collector Queue 队列组件》 。另外,在 「4. PersistenceWorker」 会看到并发的情况处理。org.skywalking.apm.collector.stream.worker.impl.PersistenceWorker
,实现 AbstractLocalAsyncWorker 抽象类,异步批量存储 Worker,负责聚合处理数据,后存储 Data 。
考虑到需要保证存储的时效性,PersistenceWorker 使用 PersistenceTimer ,定时存储 Data ,在 「4.2 PersistenceWorker」 详细解析。
构造方法 ,代码如下:
dataCache
属性,数据缓存。batchDAO
属性,批量操作 DAO ,在 《SkyWalking 源码分析 —— Collector Storage 存储组件》 有详细解析。#needMergeDBData()
抽象方法,存储时,是否需要合并数据。一些 Data 只有新增操作,没有更新操作。
#persistenceDAO()
抽象方法,获得 Data 对应的持久化 DAO 接口的实现类对象。
上述两个抽象方法,用于 #prepareBatch(dataMap)
方法,生成批量操作对象数组,最终调用 IBatchDAO#batchPersistence(List<?>)
方法,通过执行批量操作对象数组,实现批量持久化数据,在 《SkyWalking 源码分析 —— Collector Storage 存储组件》 有详细解析。
#onWork(message)
实现方法,当满足条件时存储 Data ,而后聚合数据。这点和 AggregationWorker 相反的,因为要考虑并发问题。代码如下:
第 72 行:调用 DataCache#currentCollectionSize()
方法,获得当前写入 Collection 的数据数量,判断是否超过 5000 。
第 75 行:调用 DataCache#trySwitchPointer()
方法,判断是否可以切换 Collection 。通过该判断,保证和 PersistenceTimer 一起时,不会出现并发问题。
第 77 行:调用 Window#switchPointer()
方法,切换数据指针,并标记原指向正在读取中。
第 80 行:调用 #buildBatchCollection()
方法,创建批量操作对象数组。该方法和 AggregationWorker#sendToNext()
方法基本类似。
第 83 行:调用 IBatchDAO#batchPersistence(List<?>)
方法,通过执行批量操作对象数组,实现批量持久化数据。
第 86 行:调用 DataCache#trySwitchPointerFinally()
方法,释放 DataCache.windowSwitch
的计数。
第 91 行:调用 #aggregate(message)
方法,聚合数据。该方法和 AggregationWorker#aggregate(message)
方法基本相似。
org.skywalking.apm.collector.stream.worker.base.WorkerCreateListener
,Worker 创建监听器。
Worker 在创建时,会调用 WorkerCreateListener#addWorker
方法,记录所有的 PersistenceWorker 对象。
记录下来有什么用呢?在 AgentStreamBootStartup 启动时,创建 PersistenceTimer 对象,并将 WorkerCreateListener 记录的 PersistenceWorker 对象集合传递给 PersistenceTimer 对象。这样,PersistenceTimer 能够”访问“到 PersistenceWorker 对象们的 DataCache ,定时存储数据。
org.skywalking.apm.collector.stream.timer.PersistenceTimer
,持久化定时任务,负责定时、批量存储 PersistenceWorker 缓存的数据。
#start(IBatchDAO, List<PersistenceWorker>)
方法,创建延迟 1 秒,每 1 秒执行一次 #extractDataAndSave()
方法的定时任务,用于定时、批量存储 PersistenceWorker 缓存的数据。
#extractDataAndSave(IBatchDAO, List<PersistenceWorker>)
方法,代码如下:
第 55 至 68 行:获得所有 PersistenceWorker 读 Collection 缓存的数据。
第 60 行:调用 PersistenceWorker#flushAndSwitch()
切换数据指针,即切换读写 Collection 。
第 62 行:调用 PersistenceWorker#buildBatchCollection()
方法,创建批量操作对象数组。
怎么保证并发安全?通过 Window#trySwitchPointer()
方法,保证读 Collection 正在被读取中时,PersistenceWorker 和 PersistenceTimer 有且仅有一个切换队列,读取数据。当读取完成后,调用 Window#finishReadingLast()
方法,清空原数据指向,并标记原数据指向完成正在读取中。
第 71 行:调用 IBatchDAO#batchPersistence(List<?>)
方法,执行批量操作,进行存储。
版权说明 : 本文为转载文章, 版权归原作者所有 版权申明
原文链接 : https://blog.csdn.net/weixin_42073629/article/details/119703396
内容来源于网络,如有侵权,请联系作者删除!