近日Apache Hudi社区合并了Flink引擎的基础实现(HUDI-1327),这意味着 Hudi 开始支持 Flink 引擎。有很多小伙伴在交流群里咨询 Hudi on Flink 的使用姿势,三言两语不好描述,不如实操演示一把,于是有了这篇文章。
当前 Flink 版本的Hudi还只支持读取 Kafka 数据,Sink到 COW(COPY_ON_WRITE) 类型的 Hudi 表中,其他功能还在继续完善中。
这里我们简要介绍下如何从 Kafka 读取数据写出到Hudi表。
1. 打包
由于还没有正式发布, 我们需要到Github下载源码自行打包。
git clone https://github.com/apache/hudi.git && cd hudi
Windows 系统用户打包时会报如下错误:
[ERROR] Failed to execute goal org.codehaus.mojo:exec-maven-plugin:1.6.0:exec (Setup HUDI_WS) on project hudi-integ-test: Command execution failed. Cannot run program "\bin\bash" (in directory "D:\github\hudi\hudi-integ-test"): Crea
这是 hudi-integ-test
模块的一个bash脚本无法执行导致的错误,我们可以把它注释掉(或者不用管)。
修改D:\github\hudi\pom.xml根pom文件
<modules>
再次执行 mvn clean package -DskipTests
, 执行成功后,找到这个jar : D:\github\hudi\packaging\hudi-flink-bundle\target\hudi-flink-bundle_2.11-0.6.1-SNAPSHOT.jar
(笔者Hudi源码在D:\github\
路径下,大家根据自己实际路径找一下)
这个 hudi-flink-bundle_2.11-0.6.1-SNAPSHOT.jar
就是我们需要使用的flink客户端,类似于原版的 hudi-utilities-bundle_2.11-x.x.x.jar
。
2. 入参介绍
有几个必传的参数介绍下:
•--kafka-topic :Kafka 主题•--kafka-group-id :消费组•--kafka-bootstrap-servers : Kafka brokers•--target-base-path : Hudi 表基本路径•--target-table :Hudi 表名•--table-type :Hudi 表类型•--props : 任务配置
其他参数可以参考 org.apache.hudi.HoodieFlinkStreamer.Config
,里面每个参数都有介绍 。
3. 启动准备清单
1.Kafka 主题,消费组2.jar上传到服务器3.schema 文件4.Hudi任务配置文件
注意根据自己的配置把配置文件放到合适的地方,笔者的 hudi-conf.properties和schem.avsc文件均上传在HDFS。
-rw-r--r-- 1 user user 592 Nov 19 09:32 hudi-conf.properties
hudi-conf.properties内容如下
hoodie.datasource.write.recordkey.field=uuid
schema.avsc内容如下
{
4. 启动任务
/opt/flink-1.11.2/bin/flink run -c org.apache.hudi.HoodieFlinkStreamer -m yarn-cluster -d -yjm 1024 -ytm 1024 -p 4 -ys 3 -ynm hudi_on_flink_test hudi-flink-bundle_2.11-0.6.1-SNAPSHOT.jar --kafka-topic hudi_test_flink --kafka-group-id hudi_on_flink --kafka-bootstrap-servers xxx:9092 --table-type COPY_ON_WRITE --target-base-path hdfs://olap/hudi/test/data/hudi_on_flink --target-table hudi_on_flink --props hdfs://olap/hudi/test/config/flink/hudi-conf.properties --checkpoint-interval 3000 --flink-checkpoint-path hdfs://olap/hudi/hudi_on_flink_cp
查看监控页面,任务已经跑起来了
现在在Hdfs路径下已经创建了一个空表(Hudi自动创建)
我们向 topic 中发数据(发了 900 条,本地写的 Producer 就不贴代码了)
我们查一下结果:
@Test
+-------------------+--------------------+--------------------+----------------------+--------------------+--------------------+-------------+--------------------+----+-----+-------------------+------------------+------+------------------+-------------------+---+
+--------+
5. 总结
本文简要介绍了使用 Flink 引擎将数据写出到Hudi表的过程。主要包括自主打可执行jar、启动参数介绍、Schema配置、Hudi任务参数配置等步骤
推荐阅读
分享| B站基于Apache Hudi+Flink的万亿级数据湖实践
最佳实践 | 通过Apache Hudi和Alluxio建设高性能数据湖
使用Apache Hudi + Amazon EMR进行变化数据捕获(CDC)
本文分享自微信公众号 - ApacheHudi(ApacheHudi)。
如有侵权,请联系 support@oschina.cn 删除。
本文参与“OSC源创计划”,欢迎正在阅读的你也加入,一起分享。