使用StreamSets算子库进行开发¶
EnOS流数据处理服务提供一整套底层封装好的StreamSets算子库,供开发者基于业务需求开发定制化的流数据处理任务。
StreamSets简介¶
StreamSets提供拖拽式的可视化流数据任务设计界面,开发者不需要写代码,通过编排算子组合成流数据处理任务,实现数据采集、数据过滤,数据处理、和数据存储等任务。
流数据处理任务(Pipeline)一般由多个阶段(Stage)和连线连接而成,组成有序的通路,数据会通过这个通路按顺序进行有序的流转。每一个阶段代表了对数据进行的一次读写或者操作。这样的流程构成了一条流数据处理任务。一条流数据处理任务一般包含以下几种类型的Stage:
数据源(Origin)
用于指定数据来源的Stage,数据可从不同的数据源抽取,并将数据输出传递给后面的阶段,例如Kafka Consumer。
处理器(Processor)
用于进行数据转化的Stage,对输入的数据进行规范化或者流转处理(过滤、分流、计算等)。
目标源(Destination)
用于数据存储的Stage,将数据处理完后存入目标系统或者转入另一个Pipeline进行再次处理。
新建StreamSets流数据处理任务¶
前提条件
EnOS流数据处理服务提供多个版本的StreamSets算子库,在设计流数据处理任务前,需要先安装对应版本的算子库。详细信息,参见 安装算法模板和算子库。
通过以下步骤,开发StreamSets流数据处理任务:
设计StreamSets流数据处理任务¶
通过以下步骤,按业务需求设计StreamSets流数据处理任务:
在StreamSets流数据处理任务设计页面中,点击页面右上角的 Stage Library,从下拉菜单中找到需要使用的算子。点击数据处理算子(如Point Selector),将其添加到Pipeline编辑页面。
拖拽Stage和连接线,将添加的Stage编排进Pipeline中。选中添加的算子,在配置项中完成对该算子的参数配置。
重复步骤1、2,将其他算子编排进Pipeline中,并完成各个Stage的参数配置。
点击任务栏中的 保存,保存流数据处理任务的配置信息。
完成算子配置后,点击工具栏中的 Validate 图标,检查Pipeline和算子参数配置是否正确,并按照检查结果修改配置。
更多配置StreamSets Pipeline的详细介绍,参考 StreamSets User Guide。
导入StreamSets流数据处理任务配置¶
在数据处理任务设计页面上,除了设计全新的流数据处理任务外,也可通过导入现有流数据处理任务配置文件,快速创建和配置StreamSets流数据处理任务。
发布和运行StreamSets流数据处理任务¶
算子配置检查通过后,即可将流数据处理任务发布上线并运行。
点击任务栏中的 发布,将流数据处理任务发布上线。
进入 流数据处理 > 流运维 页面,查看已发布的流数据处理任务,其默认状态为 PUBLISHED。
完成流数据处理任务的运行配置和告警配置,确保相关的系统流任务已启动,然后启动流数据处理任务。
有关流数据处理任务运维相关的详细信息,参考 维护流数据处理任务。
StreamSets算子参考文档¶
对算子的功能、配置参数、和输出结果的详细介绍,参考 StreamSets算子参考说明。
教程¶
学习为更复杂的业务场景开发流数据处理任务,参考 Developing with StreamSets Operators。