Kafka
更新时间: 2025-12-10 14:33:31
阅读 19
离线同步任务支持Kafka数据源,支持导入(Writer)和导出(Reader)。kafka版本认证方式都为“无认证”。
使用前提
在使用之前需要在项目中心(新)完成Kafka数据源的登记。
数据源登记过程中,需要填写如下信息:
- 数据源名称:Kafka数据源的名称
- 数据源标识:仅允许包含英文小写、数字、下划线,只允许英文小写开头,最大长度为64个字符。平台内唯一,保存数据源后数据标识不可修改
- 归属项目:由于元数据中心是项目组级别,因此此处支持选择项目组下的项目,默认为当前项目名称
- 归属逻辑数据源:批量登记的数据源选择归属逻辑数据源时,请勿选择已添加一个生产数据源和一个测试数据源的逻辑数据源。否则可能会导致引用该逻辑数据源的线上任务执行失败。
- 负责人:默认为当前创建人员
- 管理员:同负责人,有该数据源的管理权限,包括编辑、设置“源系统账号映射”。可在安全中心为自己或其他人设置该数据源的使用权限
- 使用授权:可选项目组内所有项目,也可指定项目授权
- 版本:当前支持版本0.9、0.10、0.11、2.0.0、2.0.1、2.1、2.2、2.3.0、2.3.1、2.6、2.7
- brokerlist:输入brokerlist,格式为ip:port,多个brokerlist通过","相连
- zookeeperConnect:输入zookeeperConnect,格式为ip:port,多个zookeeperConnect通过空格相连
- 认证模式:支持无认证和SASL认证两种,当选择SASL认证时需要填写:Security.protocol、Sasl.mechanism、Sasl.jaas.config。Security.protocol可选 SASL_PLAINTEXT;Sasl.mechanism可选SCRAM-SHA-256、SCRAM-SHA-512
- 自定义属性:支持添加数据源的其它配置
|
唯一性校验规则:基于brokerlist进行校验。 |
除了数据源需要准备之外,进行离线同步任务创建和数据源的使用都需要在安全中心-功能权限中添加相应的权限(可参考数据传输权限、元数据中心权限)。
Kafka作为数据来源
Kafka作为数据来源需要配置如下内容:
- 数据源:选择Kafka和已经登记的Kafka数据源
- Topic:填写topic
- 消费起始位点:格式yyyy-MM-dd HH:mm:ss,支持填写系统参数和参数组参数。
- 消费结束位点:格式yyyy-MM-dd HH:mm:ss,支持填写系统参数和参数组参数。
Kafka作为数据去向
Kafka作为数据去向需要配置如下内容:
- 数据源:选择Kafka和已经登记的Kafka数据源
- Topic:填写topic
- Key:1、Key支持填写一个或多个去向字段。如填写多个字段,字段间请以;分隔,写入时会按照json的序列化格式写入Kafka的Key。示例:Key填写id;name,当id值为1、name值为张三时,写入Kafka的Key为:{ "id”:”1”, “name”:”张三” } 2、如未填写Key,则写入kafka记录Key为null,数据随机写入topic的各个分区中。
- 生产者配置:默认参数max.partition.fetch.bytes,值为20000000。支持添加新的参数
文档反馈
以上内容对您是否有帮助?