1.官方设计
1.1.分配读取拆分
Source通常有两个核心的部件:当前的Source接口就是用来创建SplitEnumerator和Reader的工厂类
- SplitEnumerator: 分片发现和分配(分片即文件、分区等),目前只运行一次(应该可以重复调用运行)
- Reader: 从分片读取数据,可以是一系列有界数据,也可以是多个并行无界数据源
1.2.批流统一
- FileSource:
有界:SplitEnumerator一次性抓取目录下所有文件并分配
无界:SplitEnumerator定期获取目录下的所有文件并只分配新文件 - KafkaSource
有界:列出所有分区并获取每个分区的最新偏移量并将其作为“结束偏移量”附加到分片
无界:列出所有分区并将LONG_MAX作为“结束偏移量”附加到每个分片
无界还支持发现新分区的功能
2.基本方法
基本接口为Source(flink-core中)
- getBoundedness
数据源的有界性,包括无界数据源这里也可以设置界限 - createReader
创建一个reader去读取分配的数据分片,读取是无状态的 - createEnumerator
创建一个SplitEnumerator,SplitEnumerator是分割枚举器的接口,功能是发现reader读取器的分片并分配 - restoreEnumerator
从checkpoint恢复SplitEnumerator - getSplitSerializer
为分片创建序列化器 - getEnumeratorCheckpointSerializer
为SplitEnumerator的checkpoint创建序列化器
3.FileSource
以FileSource举例说明,大部分实现实际在AbstractFileSource
3.1.getBoundedness
由continuousEnumerationSettings决定是否有界
public Boundedness getBoundedness() {return continuousEnumerationSettings == null? Boundedness.BOUNDED: Boundedness.CONTINUOUS_UNBOUNDED;
}
continuousEnumerationSettings有专门的接口设置(monitorContinuously),在FileSystemTableSource以及WordCount用例里有实现。FileSystemTableSource里方式就是配置source.monitor-interval,用来周期性扫描文件目录
3.2.createEnumerator
上节的continuousEnumerationSettings在createSplitEnumerator接口当中使用,createSplitEnumerator接口由createEnumerator调用,用于产生SplitEnumerator
public SplitEnumerator<SplitT, PendingSplitsCheckpoint<SplitT>> createEnumerator(SplitEnumeratorContext<SplitT> enumContext) {final FileEnumerator enumerator = enumeratorFactory.create();// read the initial set of splits (which is also the total set of splits for bounded// sources)final Collection<FileSourceSplit> splits;try {// TODO - in the next cleanup pass, we should try to remove the need to "wrap unchecked"// heresplits = enumerator.enumerateSplits(inputPaths, enumContext.currentParallelism());} catch (IOException e) {throw new FlinkRuntimeException("Could not enumerate file splits", e);}return createSplitEnumerator(enumContext, enumerator, splits, null);
}
- FileEnumerator
在构建FileSource的时候确定,有两个实现
BlockSplittingRecursiveEnumerator、NonSplittingRecursiveEnumerator
BlockSplittingRecursiveEnumerator用于文件能拆分的,会拆分文件块
NonSplittingRecursiveEnumerator文件不能拆分,每个文件作为一个split - splits
目前关联FileSource是实现了NonSplittingRecursiveEnumerator,最终封装成了一个FileSourceSplit的List列表,这里的参数Parallelism接口里没有用
final String[] hosts =getHostsFromBlockLocations(fs.getFileBlockLocations(file, 0L, file.getLen()));
target.add(new FileSourceSplit(getNextId(),file.getPath(),0,file.getLen(),file.getModificationTime(),file.getLen(),hosts));
- FileSplitAssigner
split分配器,FileSource使用的是LocalityAwareSplitAssigner
这里会有本地文件和远程文件的识别分配,但实际使用的时候还是依赖于上层(SplitEnumerator)的调用,会传入host
最终是由这个类返回一个FileSourceSplit - SplitEnumerator
注意这里传入的参数alreadyProcessedPaths是null,也就是说对于FileSource,每次都是全量扫描
AbstractFileSource里用到了两个实现
StaticFileSplitEnumerator、ContinuousFileSplitEnumerator,分别用于处理有界和无界文件流
3.3.createReader
创建一个阅读器,FileSource的实例是FileSourceReader,大部分功能在基础SourceReaderBase接口中实现了
读取的触发应该由SourceOperator的emitNext接口调用,最终调用到SourceReaderBase的pollNext接口,里面有一个死循环
这里有三层关系:fetch -> split -> record,一层一层获取
循环中有两个处理:1、record列表有数据,走flink的算子间的数据传输流程;2、无数据,则走读取split的流程(split也是一批批读取的,所以这里面包好了两个方法,从当前的split读取数据和读取下一个split)
fetch的获取由SplitFetcherManager控制,最终由FetchTask获取。有一个在各个对象之间传递的elementsQueue对象,存储了fetch列表,FetchTask会向它增加元素,在SourceReaderBase当中读取
3.4.用法
在WordCount里有样例
FileSource.FileSourceBuilder<String> builder =FileSource.forRecordStreamFormat(new TextLineInputFormat(), params.getInputs().get());// If a discovery interval is provided, the source will
// continuously watch the given directories for new files.
params.getDiscoveryInterval().ifPresent(builder::monitorContinuously);text = env.fromSource(builder.build(), WatermarkStrategy.noWatermarks(), "file-input");
forRecordStreamFormat接口定义数据格式,会在创建FileSourceReader的时候使用
monitorContinuously就是配置流式监控文件
最终是通过env封装成Source
4.SourceTransformation\SourceOperator
Flink数据源的执行表现形式还是SourceOperator,所以最终的执行触发还是在这个结构。算子层面,Source的表现形式为SourceTransformation,由SourceTransformation触发构建SourceOperator
原生的Source是SourceTransformation的一个成员
public SourceTransformation(String name,Source<OUT, SplitT, EnumChkT> source,WatermarkStrategy<OUT> watermarkStrategy,TypeInformation<OUT> outputType,int parallelism) {super(name, outputType, parallelism);this.source = source;this.watermarkStrategy = watermarkStrategy;
}
SourceOperator里有三个核心方法:
emitNext:是Operator的统一数据流转接口,即处理一次数据的接口
open\initReader:open里也调用了initReade,主要都是为了做初始化
4.1.initReader
这里面主要是创建了SourceReaderContext,SourceReaderContext里有两个重要的方法,负责向Coordinator发送请求
@Override
public void sendSplitRequest() {operatorEventGateway.sendEventToCoordinator(new RequestSplitEvent(getLocalHostName()));
}@Override
public void sendSourceEventToCoordinator(SourceEvent event) {operatorEventGateway.sendEventToCoordinator(new SourceEventWrapper(event));
}
4.2.open
核心是对Reader的三步操作:1、初始化,即上面的initReader方法;2、注册,即向Coordinator发送请求,注册reader;3、启动,调用Reader的启动接口
4.3.emitNext
核心是通过SourceReader获取数据
// short circuit the hot path. Without this short circuit (READING handled in the
// switch/case) InputBenchmark.mapSink was showing a performance regression.
if (operatingMode == OperatingMode.READING) {return convertToInternalStatus(sourceReader.pollNext(currentMainOutput));
}
return emitNextNotReading(output);
5.ScanTableSource
关键接口是getScanRuntimeProvider,有子类实现,返回一个运行时数据读取器
6.相关类集合
- Source - 帮助在运行时创建SplitEnumerator和SourceReader的工厂样式类。
- SourceSplit - 所有拆分类型的接口。
- SplitEnumerator - 发现拆分并将它们分配给SourceReaders
- SplitEnumeratorContext - 向SplitEnumerator提供必要的信息以分配拆分并将自定义事件发送到SourceReaders。
- SplitAssignment - 一个容器类,其中包含每个子任务的源拆分分配。
- SourceReader - 从SplitEnumerator分配的拆分中读取记录。
- SourceReaderContext - 为SourceReader提供必要的功能以与SplitEnumerator通信。
- SourceOutput - 收集器样式接口,用于获取SourceReader发出的记录和时间戳。
- WatermarkOutput -用于发出水印并指示源空闲的接口。
- Watermark - 将在包org.apache.flink.api.common.eventtime 中创建一个新的 Watermark 类。 该类最终将替换org.apache.flink.streaming.api.watermark 中现有的 Watermark。 此更改允许 flink-core 保持独立于其他模块。鉴于我们最终会将所有水印生成放入源中,因此此更改将是必要的。请注意,此 FLIP 并不打算更改水印在源发出后可以在 DataStream 中覆盖的现有方式。