更新历史
版本:v3.15.0
新增功能
1.【离线+实时+数据导入】实时同步任务和数据导入对接安全中心功能权限,离线同步任务由安全中心旧版功能权限迁移至新版功能权限
- 功能介绍:
- 离线同步任务、实时同步任务、数据导入模块的功能权限对接安全中心功能权限。功能权限配置入口在安全中心-安全管理-角色管理-项目级-数据传输。
- 功能使用注意事项
- 默认仅任务负责人和安全中心授予任务操作权限的用户可操作任务。此外,安全中心可配置是否默认给项目负责人和项目管理员预置任务操作权限。
- 离线同步任务的功能权限原配置入口在安全中心-安全管理-权限管理-功能权限模块,此次配置入口变更系统会自动迁移权限数据。
- 各操作的功能权限要求详见数据传输-功能权限整体说明章节。
2.【离线】离线同步任务来源和去向新增数据源类型:Clickzetta
- 功能介绍:
- 离线同步任务来源和去向新增数据源类型:Clickzetta
- 功能使用注意事项
- 数据去向为Clickzetta时,由于Clickzetta提供的SDK限制,暂不支持int8字段类型。
3.【实时】实时传输对接安全中心审计日志
功能优化
1.【离线】Clickhouse作为来源和去向时新增支持22.3版本
2.【离线+实时】数据来源为Kafka时支持指定GroupID是由系统生成还是自定义设置groupid
3.【离线】Hive作为来源和去向时新增支持3.1.0版本、Simple认证
版本:v3.14.0
新增功能
1.【实时】数据来源为MySQL时支持针对来源表结构变更发送报警
- 功能介绍:
- 实时同步任务数据来源为MySQL时,针对来源表新增字段、删除字段、修改字段三类表结构变更场景,支持配置是否发送报警。此外,针对数据来源为MySQL的任务,支持前往“查看来源表结构变更信息”页面查看表结构变更相关具体信息。
- 来源表结构变更采集范围:
- 任务起始位点为全量初始化时,采集任务开始运行后来源表产生的DDL日志信息。
- 任务执行增量同步时,采集从传输起始位点开始来源表产生的DDL日志信息。
- 功能使用注意事项
- 如果同一条SQL语句中同时对应于多项DDL变更,目前无法完全准确识别表结构变更。示例:ALTER TABLE ndi.t_rg_source_table_change_strategy_02 modify COLUMN addcolumn_rename VARCHAR(200), modify COLUMN name VARCHAR(300)
- 功能详细使用步骤
- 数据传输-配置管理-实时同步任务-来源表结构变更策略:支持按照项目粒度配置任务表结构变更的报警接收方式和报警接收人。
- 实时同步任务详情页:支持勾选来源表新增字段、删除字段、修改字段是否需发送报警。
- 实时同步任务-查看来源表结构变更信息页面:支持查看任务的来源表结构变更具体信息。
- 数据传输-配置管理-实时同步任务-来源表结构变更策略:支持按照项目粒度配置任务表结构变更的报警接收方式和报警接收人。
2.【实时】支持任务目录管理
- 功能介绍:
- 实时同步任务模块支持目录的新建、重命名和删除,支持将任务保存在指定目录下,支持按照目录结构展示任务。
- 功能使用注意事项
- 最多支持新建三级目录。
- 已创建的历史任务的保存位置默认为“/根目录”,在列表页会展示在“未分组”目录下。如需修改历史任务的保存位置,可通过“批量修改保存位置”来批量修改任务的保存位置。
- 仅支持由项目负责人、项目管理员新建目录、删除目录和重命名目录。
- 如目录下存在子目录或任务,则目录不可删除。
- 实时任务导入时,会判断导入方是否存在导出方任务保存位置对应的目录,如导入方存在该目录的话任务的保存位置保持不变,会继续放在该目录下;如导入方不存在该目录,则自动在接收方先新建目录,再导入任务。
3.【离线】支持读写版本为2.1.x-CDH6.3.x、认证方式为Kerberos认证的Hive数据源
- 功能介绍:
- 支持读写版本为2.1.x-CDH6.3.x、认证方式为Kerberos认证的Hive数据源
- 功能使用注意事项
- 仅当用户环境部署Spark3、且已打通平台内置的NDH Hive和该CDH Hive的互信后方可使用此功能。
- 执行任务时,会使用任务执行账号访问该CDH Hive。
功能优化
1.【实时】字段映射页面视觉优化
版本:v3.13.0
新增功能
1.【离线】支持基于Excel模板批量新建离线同步任务
- 功能介绍:
- 支持基于Excel模板批量新建离线同步任务。
- 数据来源支持的数据源类型包含:DB2、DM、HANA、MySQL、Oracle、PostgreSQL、SQLServer、TDSQL、TiDB、VastBase G100、Vertica,去向数据源类型默认为:Hive,数据源名称默认为:当前项目-当前集群 Hive数据源。任务仅支持向导模式,不支持使用逻辑数据源,同一任务不支持填写多张来源表。
- 表建立方式值为创建新表时,批量新建任务前会自动建表,Hive表的字段名称与来源表字段名称相同,字段类型根据配置管理-快速创建表配置-字段类型映射规则映射,分区字段名称使用Excel中填写的分区字段名称,分区字段类型默认为string。
- 功能使用注意事项
- 单次最多可新建1000个任务。
- 仅支持上传“.xls”“.xlsx”格式文件,文件大小不超过 30 MB。
- 去向Hive表最多可支持两级分区。
- 功能详细使用步骤
- a.功能入口:
- b.使用流程:
- 1)点击”下载模板“,下载任务模板的Excel文件,并按照模板要求在Excel中填写任务信息。
- 2)点击”上传文件“按钮,上传Excel文件。文件解析中,请不要刷新/离开当前页面,或关闭浏览器,否则批量新建任务会失败。
上传文件后,会检测Excel填写内容是否符合要求,如不符合要求可在“检测未通过原因”列查看具体原因。仅当所有任务均检测通过后才可批量导入任务
- 3)所有任务均检测通过后,点击“导入”按钮,开始新建离线同步任务。
导入完成后,可查看导入结果。针对导入成功的任务,支持批量运行任务和批量新建离线开发任务;针对导入失败的任务,支持查看导入失败原因。
- 1)点击”下载模板“,下载任务模板的Excel文件,并按照模板要求在Excel中填写任务信息。
- a.功能入口:
2.【离线】OceanBase作为数据来源支持SQL模式
- 功能介绍:
- OceanBase作为数据来源支持SQL模式
- 功能详细使用步骤
- a.功能入口:
- a.功能入口:
3.【整体】对接安全中心资产整体转交
- 功能介绍:
- 安全中心支持按照项目粒度转交离线同步任务和实时同步任务的负责人,转交后被转交人权限同步删除。
- 功能详细使用步骤
- a.功能入口:
- a.功能入口:
4.【离线】来源或去向为结构化数据源时字段映射支持获取最新表结构
- 功能介绍:
- 此前,来源和去向均为结构化数据源时,字段映射已支持“获取最新表结构“的功能,能针对来源表和去向表新增字段、删除字段、修改字段类型、字段顺序调整的表结构变更做出提示并自动进行字段映射调整。
- 此版本进行了功能增强。仅来源为结构化数据源时,支持对来源表的表结构变更做出提示并自动进行字段映射调整;仅去向为结构化数据源时,支持对去向表的表结构变更做出提示并自动进行字段映射调整。
- 来源表:1)新增字段:不改变已有的字段映射列表,下拉选项中增加新增字段;2)删除字段:如果被删除的字段原已在列表中被选中,则通知提醒框中进行报错提示,不阻塞保存任务;3)字段类型变更:更新“类型”列该字段的字段类型;4)字段顺序变更:字段映射列表中的来源表字段下拉列表按变更后的来源表字段顺序展示,不修改字段映射列表已有配置。
- 去向表:1)新增字段:字段映射列表中新增行,行序号为去向表中该字段的列序号。针对该行的来源表字段,来源数据源类型为HBase时,来源表字段的第一个单选框置为第一个列族,第二个输入框的位置填充去向表字段名称,来源为HBase以外的数据源类型时,来源表字段的输入框的位置填充去向表字段名称。2)删除字段:删除字段映射列表中的对应行;3)字段类型变更:更新“类型”列该字段的字段类型;4)字段顺序调整:字段映射列表中按变更后的去向表字段顺序展示,并保留映射的来源表字段信息。
- 功能详细使用步骤
- a.功能入口:
- a.功能入口:
5.【离线】数据去向为Kafka时支持指定key
- 功能介绍:
- 数据去向为Kafka时支持指定key。Key支持填写一个或多个去向字段。如填写多个字段,字段间请以;分隔,写入时会按照json的序列化格式写入Kafka的Key。示例:Key填写id;name,当id值为1、name值为张三时,写入Kafka的Key为:{ "id”:”1”, “name”:”张三” }。
- 如未填写Key,则写入kafka记录Key为null,数据随机写入topic的各个分区中。
- 功能详细使用步骤
- a.功能入口:
- a.功能入口:
6.【实时】数据去向支持Oracle
- 功能介绍:
- 数据去向支持Oracle。
- 功能使用注意事项:
- Oracle字段名称格式限制:仅支持大小写字母、数字、下划线、中划线、$。
- 功能详细使用步骤
- a.功能入口:
- a.功能入口:
功能优化
1.【离线】Oceanbase数据库模式为Mysql时适配版本:3.2.4(企业版)
2.【离线】Doris适配版本:2.0
3.【离线】Tidb适配版本:6.1
4.【离线】任务列表支持按照试运行状态筛选任务
5.【离线+数据导入】支持根据Spark版本控制产品功能展示
版本:v3.12.0
新增功能
1.【离线同步任务】数据来源和去向新增数据源类型:Oceanbase
- 功能介绍:
- 数据来源和去向新增数据源类型:Oceanbase,支持的版本为:Oceanbase for Oracle-3.2.4(企业版)和Oceanbase for MySQL-3.1.1(社区版)。
- 功能使用注意事项
- 作为来源时仅支持向导模式、不支持SQL模式。
- 功能详细使用步骤
- 功能入口:
- 功能入口:
2.【实时同步任务】实时同步任务支持批量移交负责人
功能优化
1.【实时同步任务】数据去向为Iceberg时,新增自定义参数:target.delete.to.insert
- 功能介绍:
- Flink的rowkind分为:delete、insert、update-before、update-after。写入数据去向时,会根据rowkind判断该条数据的操作类型。自定义参数值默认为false,值设为ture的效果是:当数据的rowkind为delete时,能将rowkind转换为insert,则按照upsert写入规则写入Iceberg时,会先删除原记录再写入新的记录,则此条delete数据能成功写入iceberg,rowkind是insert,op_type是delete。
- 参数配置位置为任务详情页的高级设置的自定义参数。
2.【整体】数据传输快速创建Hive表,表负责人由项目账号改为执行建表的用户账号
- 功能介绍:
- 为保障数据安全,数据传输快速创建Hive表,表负责人由项目账号改为执行建表的用户账号。
3.【离线同步任务】来源为关系型数据库时,针对数据传输-v3.12.0版本起新建的任务,执行查询sql时列名默认带上引号
- 功能介绍:
- 此功能仅针对新增任务,不影响历史任务运行。
版本:v3.11.0
新增功能
1.【离线同步任务】数据来源和去向新增数据源类型:GaussDB
- 功能介绍:
- 数据来源和去向新增数据源类型:GaussDB,仅支持GaussDB for PostgreSQL,支持的版本为:8.1
- 功能使用注意事项
- 作为来源时仅支持向导模式、不支持SQL模式
- 功能详细使用步骤
- a.功能入口:
- a.功能入口:
2.【实时同步任务】数据去向新增数据源类型:MySQL
- 功能介绍:
- 数据去向新增数据源类型:MySQL,支持的版本为:5.7、8.0
- 功能详细使用步骤
- a.功能入口:
- a.功能入口:
功能优化
1.【离线同步任务+实时同步任务】参数组适配授权项目
- 功能介绍:
- 任务选择引用参数组时,下拉列表仅展示授权给当前项目的参数组。
- 保存任务时,校验已选取的参数组是否授权给当前项目,存在未授权的参数组则不可保存任务。
- 运行任务时,校验已选取的参数组是否授权给当前项目,如存在未授权的参数组则任务运行报错。
2.【离线同步任务】数据去向为Doris和StarRocks、导入方式为stream load时,新增自定义参数,支持设定去向表新增字段时任务是否报错
- 功能介绍:
- 数据去向为Doris和StarRocks、导入方式为stream load时,支持通过任务的高级设置-自定义参数填写:target.loadColumns,值支持填写:true/false,默认值为true,实现去向表新增字段时任务不报错,离线同步任务不向新增字段写入数据。
- 支持通过EasyOps配置参数,实现对平台下的所有去向为Doris和StarRocks、导入方式为stream load的任务生效,参数名称为:ndi.spark.spark-conf.spark.transmit.writer.doris.loadColumns
- 技术实现方案为:stream load的请求header中加入columns属性,放入去向列名。
3.【离线同步任务】数据来源为Iceberg时,数据去向为Vertica时写入规则支持:copy
- 功能使用注意事项
- 仅数据来源数据源类型为:Hive、MySQL、Oracle、PostgreSQL、StarRocks、Doris、Vertica、Iceberg、FTP-text,且特殊字符替换开关关闭时,写入规则支持选择Copy。
4.【离线同步任务】数据来源和去向为Doris时,新增支持版本:1.2
5.【离线同步任务】数据去向为Doris、导入方式为broker load时,支持指定broker
- 功能介绍:
- 如填写broker,则传输任务基于此处指定的broker导入数据;填写多个broker时随机选取活跃的broker;如未填写broker,则使用数据源登记的账号连接数据源查询broker名称。注意:Doris限制仅数据库管理员账号可查询broker名称,请在数据源登记时登记数据库管理员账号,否则将查询失败。
6.【离线同步任务】数据去向为DM,写入规则支持merge into
- 功能介绍:
- Merge into的实现效果为:遇更新键冲突,更新原记录。更新键建议选择主键,选取多个字段联合作为更新键时,仅当字段拼接值冲突时,会更新原记录。
7.【离线同步任务】发布中心发布离线同步任务时,适配资源发布失败策略
- 功能介绍:
- 发布中心发布离线同步任务时,适配资源发布失败策略,用于实现接收方发布实例包发布到开发模式和发布到线上模式时,遇失败资源是自动跳过还是终止发布。
8.【离线同步任务】离线同步任务支持导出线上模式任务
- 功能介绍:支持批量导出线上模式的任务配置
- 功能入口:
9.【实时同步任务】数据来源-传输起始位点支持参数组参数
- 功能介绍:
- 具体位置含:
- 来源为Kafka、消费起始位点为时间戳
- 来源为MySQL、消费起始位点为时间戳
- 来源为MySQL、消费起始位点为指定binlog日志-binlog日志位置
- 来源为Oracle、增量读取方式为logminer、消费起始位点为时间戳
- 来源为Oracle、增量读取方式为logminer、消费起始位点为指定scn
- 来源为Oracle、增量读取方式为ogg、消费起始位点为时间戳
- 来源为SQLServer、消费起始位点为指定lsn
- 来源为TeleDB、消费起始位点为指定binlog日志-binlog日志位置
- 来源为TelePG、消费起始位点为指定lsn
- 具体位置含:
10.【实时同步任务】数据来源为Kafka、去向为Kudu时,字段映射-来源的字段类型支持映射去向表字段类型
11.【实时同步任务】新增自定义参数
- 功能介绍:
- 参数名称:cast.opts-to-string.formatted,默认值:false,可选值: true/false。值为true时,将来源MySQL的${op_ts}字段转换为timestamp,时区采用计算节点的机器时区。支持针对任务粒度设置自定义参数,并支持配置EasyOps全局参数针对平台粒度生效。其中,任务级别参数优先级高于EasyOps全局参数。
- 参数名称:ogg-json.time-zone,默认值:UTC。来源为Kafka、序列化格式为ogg-json时,针对${op_ts}和${current_ts}字段,支持通过自定义参数设置时区,默认值为零时区。支持针对任务粒度设置自定义参数,并支持配置EasyOps全局参数针对平台粒度生效。其中,任务级别参数优先级高于EasyOps全局参数。
12.【整体】配合平台整体支持项目禁用功能,禁用的项目的数据传输页面将无法查看。
其他变更
1.发布中心发布离线同步任务的产品功能变更:资源列表由展示当前项目-集群的全部任务,改为仅展示已提交上线的任务。发布离线同步任务时,由发布任务的开发模式配置,改为发布任务的线上模式配置。
注意:针对数据传输-v3.11.0版本上线前已发布的发布实例包,如发布实例包包含离线同步任务,发布离线同步任务时仍发布开发模式配置。
2.数据去向为Doris和StarRocks、导入方式为stream load时,如去向表新增字段,由任务报错改为任务不报错。
版本:v3.10.0
新增功能
1.【离线同步任务】创建Hive表时支持启用表名规则校验
- 功能介绍:
- 配置管理-快速创建表配置模块:当前项目启用表名规则开关打开时,在当前项目-集群创建Hive表时,会引用模型设计中心“原数据层-ods”对应集群的表名规则进行表名规则检测。
- 表名规则检测范围包含:1、离线同步任务中,数据去向为Hive的“快速创建表”功能,2、批量创建任务,数据去向为Hive时创建的表。
- 功能使用注意事项:
- 配置管理-快速创建表配置模块:“启用表名规则”开关针对当前项目下所有集群均生效。
- 在某个项目-集群的离线同步任务创建Hive表时,如需引用模型设计中心“原数据层-ods”对应集群的表名规则进行表名规则检测,需要满足两个条件:1、当前项目的“启用表名规则”开关打开,2、当前项目-集群所属的项目组-集群的模型设计中心“原数据层-ods”表名规则状态为启用。
- 功能详细使用步骤:
- 配置管理-快速创建表配置模块:开启“启用表名规则”开关。注意:仅项目负责人和项目管理员可编辑配置管理模块。
- 离线同步任务:编辑任务(数据去向为Hive)-快速新建目标Hive表,点击“生成SQL语句“和”执行“按钮时,将校验表名称是否符合表名规则。
- 离线同步任务:批量新建任务(数据去向为Hive)-生成表配置,点击“生成SQL语句“和”执行“按钮时,将校验表名称是否符合表名规则。
- 配置管理-快速创建表配置模块:开启“启用表名规则”开关。注意:仅项目负责人和项目管理员可编辑配置管理模块。
2.【实时同步任务】任务支持引用参数组
- 功能介绍:
- 实时同步任务支持引用参数组,用于1)任务导入导出时对库名、Topic名等进行替换,2)任务常用的高级配置-自定义参数配置为参数组,可实现不同任务间的自定义参数复用。
- 功能使用注意事项:
- 同一实时同步任务内多个参数组内有相同参数项时,系统取排在前面的参数组的参数值。
- 如果字段映射支持的内置变量与参数组参数冲突时,内置变量优先级更高。
- 如果高级设置填写的参数与参数组参数冲突时,则高级设置填写的参数优先级更高。
- 如果导入引用参数组的实时同步任务时,会检测导入端是否存在同名参数组,如不存在则检测不通过,导入失败。如导入端存在同名参数组,则在导入端会将任务引用的参数组id替换为导入端同名参数组的id。
功能详细使用步骤:
- 公共资源-参数组模块:新建参数组,设置参数名称和参数值
数据传输-实时同步任务:“引用参数组”配置项选取需引用的参数组。
- 1)如参数组的使用场景是:任务常用的高级配置-自定义参数配置为参数组,可实现不同任务间的自定义参数复用,则“引用参数组”配置项选取需引用的参数组即可。
2)如参数组的使用场景是:任务导入导出时对库名、Topic名等进行替换,除“引用参数组”配置项选取需引用的参数组外,请在使用变量处按照${参数组名称}的格式填写参数组参数。示例详见下图。支持使用参数组参数的位置包含:
- 数据来源:1、数据源类型为Kafka-【topic名称】,2、任务类型为多表同步,数据源类型为MySQL、Oracle、TeleDB、SQLServer-【数据库名称】,3、任务类型为多表同步或分库分表同步,数据源类型为Oracle,增量读取方式为ogg-【Topic名称】
- 数据去向:1、数据源类型为Kudu-【去向表名】,2、数据源类型为Iceberg、Arctic、Hive-【去向库名】和【去向表名】,3、数据源类型为Kafka-【去向Topic】
- 字段映射:数据去向为Kudu、Iceberg、Arctic、Hive时,来源表字段类型为自定义表达式时,支持填写参数组参数
- 公共资源-参数组模块:新建参数组,设置参数名称和参数值
3.【实时同步任务】插件版本为1.x的任务,支持升级插件版本至2.x
- 功能介绍:
- 相较于1.x的插件版本,实时同步任务2.x的插件版本支持了更丰富的产品功能(如:数据来源支持TelePG等)。此前,插件版本为1.x的历史任务不可升级插件版本,此版本提供了升级插件版本的功能。
- 功能使用注意事项:
- 仅当插件版本为1.x且任务状态为:未启动、停止、启动失败、运行失败的任务,支持升级插件版本。
- 由于1.x和2.x插件版本的任务状态不兼容,升级插件版本后首次启动任务时,如选择“从CP启动”或“从SP启动”,任务运行可能会报错。因此,升级插件版本后首次启动任务时,启动点位请选取“从指定数据位点启动”,启动方式建议选取“从SP对应的数据位点启动”,保障数据的完整性。如此前任务停止时未保存SP,则建议选取“从CP对应的数据位点启动”并建议选取时间较早的CP目录,避免数据丢失。
- 功能详细使用步骤:
- 点击“停止”按钮停止任务。注意:切记勾选“触发SavePoint保存运行状态“。
- 点击“升级插件版本”按钮并确认升级,任务的插件版本将会由1.x升级至2.x。
- 点击“启动”按钮,启动点位选择“从指定数据位点启动”。启动方式建议选取“从SP对应的数据位点启动”,保障数据的完整性。如此前任务停止时未保存SP,则建议选取“从CP对应的数据位点启动”并建议选取时间较早的CP目录,避免数据丢失。
- 点击“停止”按钮停止任务。注意:切记勾选“触发SavePoint保存运行状态“。
4.【实时同步任务】提供启动任务和停止任务的OpenAPI
- 功能介绍:
- OpenAPI使用说明详见OpenAPI说明文档。
功能优化
1.【离线同步任务】MongoDB作为来源时支持自定义字段类型
- 功能介绍:
- MongoDB作为来源时,原仅支持由MongoDB Reader插件在执行任务时自动采样推断字段类型,存在字段类型推断不准确导致任务报错的风险。故此版本开放字段类型定义方式,支持由用户在配置任务时自定义字段类型,并提供根据采样数据解析字段类型的辅助功能,提升自定义字段类型的配置效率。
- 字段类型定义方式为“自定义字段类型”时,支持配置空字段处理策略,即当一条数据解析时,数据内容中找不到字段时的处理方式采取任务报错或设为null数据。
- 优化后功能使用步骤:
- 点击“数据解析”按钮,将自动从选取的MongoDB集合中获取一条数据并填充至数据解析弹窗的样例数据输入框,点击“解析”按钮即可解析字段名称和字段类型并填充至表格。如系统自动获取的数据不符合预期,也支持由用户手动输入数据样例。
- 点击“数据解析”按钮,将自动从选取的MongoDB集合中获取一条数据并填充至数据解析弹窗的样例数据输入框,点击“解析”按钮即可解析字段名称和字段类型并填充至表格。如系统自动获取的数据不符合预期,也支持由用户手动输入数据样例。
2.【离线同步任务】MongoDB适配版本:3.0、6.0
3.【离线同步任务】TDSQL适配版本:10.3.14(MySQL 8.0)
4.【离线同步任务】Redis新增版本:3.0(集群部署模式:single)、3.2(集群部署模式:single)、5.0(集群部署模式:single)
5.【离线同步任务】ES作为数据去向时支持配置“主键取值方式”
- 功能介绍:
- ES作为数据去向时支持配置“主键取值方式”:取值方式为手动指定主键字段时,由用户指定选取ES的哪个字段作为主键;取值方式为自动生成时,主键值在写入ElasticSearch时由系统自动生成。
- 历史任务的“主键取值方式”默认为“手动指定主键字段”。
版本:v3.9.2
新增功能
1.【离线同步任务】数据去向为FTP、目标文件名为指定文件名时,支持根据来源表字段动态生成文件
- 功能介绍:
- 指定文件名支持填写来源表字段名称,格式:${ 来源表字段名称 }(注意:来源表字段名称前后带空格)。其中,${ 来源表字段名称 }变量支持填写来源表字段名称和Hive表的分区字段名称,任务运行时如发现来源表不存在该字段,任务运行时会报错。
- 示例:指定文件名输入userinfo_${ dt },来源Hive表为一级分区表。当读取来源Hive表dt=2023-01-01分区的数据,对应的FTP文件名为userinfo_2023-01-01。
2.【离线同步任务】批量新建任务,数据来源为Hive、数据去向为FTP、目标文件名为指定文件名时,支持内置变量
- 功能介绍:
- 支持填写内置变量:${source table}、${primary partition}、${secondary partition}、${tertiary partition}。其中${source table}表示来源表表名,${primary partition}、${secondary partition}、${tertiary partition}仅当来源为Hive表时生效,分别表示一级分区、二级分区、三级分区的值。
- 批量创建任务时,会将内置变量${source table}解析为来源表名,会将内置变量${primary partition}、${secondary partition}、${tertiary partition}中“primary partition”、“secondary partition”、“tertiary partition”解析为来源Hive表的对应分区字段名称(字段名称前后包含空格)。如来源不是Hive表或Hive表不存在对应级别的分区,则批量创建任务时解析时变量值为空。
- 示例:指定文件名输入ods${source table}${primary partition}${secondary partition},来源Hive表为一级分区表,表名为userinfo,一级分区名为dt。当批量创建任务时,指定文件名会解析为:ods_userinfoa${ dt }_。
版本:v3.9.1
新增功能
1.【实时同步任务】数据来源为Oracle、增量读取方式为logminer时,传输起始位点支持:指定scn
- 功能介绍:
- 任务类型为多表同步或分库分表同步、增量读取方式为logminer时,传输起始位点支持:指定scn
- 任务类型为多表同步或分库分表同步、增量读取方式为logminer时,传输起始位点支持:指定scn
2.【实时同步任务】数据来源为Oracle时,支持配置数据库时区
- 功能介绍:
- 数据来源为Oracle时,支持配置数据库时区
- 数据来源为Oracle时,支持配置数据库时区
功能优化
1.【实时同步任务】数据来源为Oracle时,监控新增“数据捕获延迟”指标,并支持针对“数据捕获延迟”指标发送告警
- 功能介绍:
- 数据来源为Oracle时,监控新增“数据捕获延迟”指标,并支持针对“数据捕获延迟”指标发送告警。
- 数据捕获延迟=任务处理时间-scn扫描时间
版本:v3.9.0
新增功能
1.【实时同步任务】数据来源新增TelePG数据源
- 功能介绍:
- 任务类型为多表同步时,数据来源支持读取TelePG数据源。
- 功能使用注意事项:
- 请注意设置合理的日志回收策略。任务启动时,如果指定读取的数据区间内存在被回收的日志,则任务不会报错,但仅可读取未回收的日志对应的数据,存在数据丢失风险。
仅支持读取编码格式为UTF-8的文本数据,数据库请勿使用ASCII等其余编码格式。
数据库Replica Identity(用于指定在进行数据复制时如何确定唯一性标识符的设置)的值建议设置为“FULL(表示使用所有表列作为唯一性标识符)”,虽然可能会增加复制的数据量,但能保障数据的一致性和完整性。
- 请注意设置合理的日志回收策略。任务启动时,如果指定读取的数据区间内存在被回收的日志,则任务不会报错,但仅可读取未回收的日志对应的数据,存在数据丢失风险。
- 功能详细使用步骤:
- 功能入口:
- 功能入口:
2.【离线同步任务】数据传输来源或去向为Hive时,适配版本:2.1.x-CDH6.3.x
- 功能介绍:
- 数据传输来源或去向为Hive时,适配版本:2.1.x-CDH6.3.x。
- 功能使用注意事项:
- 读写Hive版本:2.1.x-CDH6.3.x基于Spark3的特性:multiple catalog实现。仅当用户环境支持Spark3.3时,支持读写此版本,否则任务会报错。
- 来源版本为:2.1.x-CDH6.3.x,读取方式支持基于Spark读取数据,任务模式支持向导模式。
- 功能详细使用步骤:
- 功能入口:
- 功能入口:
功能优化
1.【离线同步任务】批量创建任务功能增强:来源新增Hive,去向新增FTP,新增高级配置模块
- 功能介绍:
- 来源新增Hive数据源,支持读取平台内置Hive数据源。来源为任意数据源类型时,新增特殊字符替换功能。
- 去向新增FTP数据源,功能对标创建单个离线同步任务。
- 新增高级配置模块。
- 功能使用注意事项:
- 来源为Hive时,仅支持读取平台内置Hive数据源。如需读取同集群下其余项目的库,请将库公开给当前项目并授予批量创建任务的用户账号和任务执行账号读权限。
- 去向为FTP时,仅支持选取当前用户有写权限的数据源。
2.【离线同步任务】脱敏规则支持选取脱敏算法为UDF Studio中的UDF的脱敏规则及数据来源为API、HBase、Elasticsearch时的来源表字段选取优化
- 功能介绍:
- 脱敏规则支持选取脱敏算法为UDF Studio中的UDF的脱敏规则,字符型字段和数值型字段均可选取相应脱敏规则。其中,脱敏算法统一显示为“UDF Studio中的UDF",算法配置显示函数中文名称。
- 数据来源为API、HBase、Elasticsearch时的来源表字段选取优化:
1)来源为API时,数据脱敏-来源表字段支持选取字段映射已选取的来源表字段。如字段映射选取自定义表达式,填写格式为a as b时,数据脱敏-来源表字段选项文案为“b”。
2)来源为HBase时,数据脱敏-来源表字段支持选取字段映射已选取的来源表字段。如字段映射选取列族并填写列修饰符,则数据脱敏-来源表字段选项文案格式为“列族:列修饰符”。
3)来源为Elasticsearch时,数据脱敏-来源表字段支持选取字段映射已选取的来源表字段。如字段映射选取自定义表达式,填写格式为a as b时,数据脱敏-来源表字段选项文案为“b”。
- 功能使用注意事项:
- 配置任务时仅可选取当前用户有权限的函数。
- 运行任务时会校验任务执行账号是否有函数权限,若无权限则任务报错。
- 运行任务时,如果函数有测试态,开发模式用函数的测试态,线上模式有函数的线上态;如果函数没有测试态,开发模式和线上模式都用函数的线上态。
- 功能优化后使用步骤:
- 功能入口:
- 功能入口:
3.【离线同步任务+实时同步任务+数据导入】选取和使用队列时增加对队列适用场景的判断逻辑
- 功能介绍:
- 离线同步任务:试运行仅可选取队列适用场景包含离线同步的队列;任务运行时校验队列的适用场景,如不包含离线同步,则任务报错。
- 数据导入:导入数据时仅可选取队列适用场景包含离线同步的队列;任务运行时校验队列的适用场景,如不包含离线同步,则任务报错。
- 实时同步任务:试运行仅可选取队列适用场景包含实时同步的队列;任务运行时校验队列的适用场景,如不包含实时同步(数据传输),则任务报错。
4.【离线同步任务】来源和去向为结构化数据源时支持清空映射
- 功能介绍:
- 字段映射新增清空映射按钮,点击按钮如二次确认要清空映射,则数据去向为Hive、Doris、StarRocks、Maxcompute时,来源表字段列将均置为自定义表达式;数据去向为其余数据源类型时,来源表字段列将均置为不导入。
- 功能优化后使用步骤:
- 功能入口:
- 功能入口:
版本:v3.8.0
新增功能
1.【离线同步任务】支持版本管理功能
- 功能介绍:
- 离线同步任务每次提交上线,会生成一个版本号。支持查看历史版本,支持历史版本间的版本比对,支持开发模式最新版本和历史版本间的版本比对,并支持开发模式回滚至历史版本。
- 功能使用注意事项:
- 如果用户没有任务的查看权限,则不可点击“版本记录”按钮置灰不可点,不可查看历史版本和比对历史版本。
- 如果用户没有任务的编辑权限,则不可点击“回滚”按钮。
- 功能详细使用步骤:
- 功能入口:操作-版本记录
- 功能入口:操作-版本记录
2.【实时同步任务】支持任务导入导出
- 功能介绍:
- 支持批量导入和批量导出实时同步任务,提升测试环境和生产环境的任务互通
- 功能详细使用步骤:
- 批量导入任务-功能入口:
- 批量导出任务-功能入口:
- 导入任务时:
(1)支持由用户选择任务负责人设置为导出端任务负责人或导入人。
(2)如果读写的数据源包含:{项目}-{集群}Hive/Arctic/Iceberg数据源,导入任务时将“{导出项目名称}-{导出集群名称}Hive数据源” 替换为“{导入项目名称}-{导入集群名称}Hive/Arctic/Iceberg数据源”。
(3)引用的数据源替换为目标端同名数据源。(注意:含来源数据源,去向数据源,来源为Oracle增量读取方式为ogg的消息数据源,任务类型为分库分表同步时来源为MySQL-指定binlog日志下的物理数据源,任务类型为分库分表同步时来源为SQLServer-指定ls下的物理数据源。
(4)支持由用户选择是否需同名覆盖
如未开启“覆盖同名任务”:仅覆盖uuid相同的任务。uuid是任务的唯一标识,在导入端导入并新建任务时,系统会将新建任务的uuid值赋值为导出端任务的uuid值。任务再次导入时,会按照uuid值匹配对应任务。需要注意:如覆盖时发现导入端已存在与导出端任务名称相同但uuid不同的任务,则导入失败。
如开启“覆盖同名任务”:则会先根据uuid进行匹配并覆盖对应的任务,如导入端无uuid相同的任务,再用任务名称匹配并覆盖对应的任务。在导入端覆盖同名任务时,系统会将任务的uuid值修改为导出端任务的uuid值。
- 批量导入任务-功能入口:
3.【实时同步任务】来源支持SQLServer
- 功能介绍:任务类型为多表(Topic)同步或分库分表同步时,来源数据源类型支持SQLServer
- 功能详细使用步骤:
- 功能入口:
- 功能入口:
功能优化
1.【离线同步任务】对接UDF Studio,API作为数据来源支持使用UDF进行前置处理
- 功能介绍:
- API包含动态token、动态密钥算法以及前置认证时,支持选取UDF Studio的函数作为前置处理脚本以应对复杂的前置处理逻辑。具体流程为:传输请求API接口数据前会执行UDF,获取UDF处理后的url,header,params和body再去请求API。
- 功能使用注意事项:
- 配置任务时,仅可选择当前用户有权限、函数适用产品包含数据传输的UDF。运行任务时,会校验任务执行账号是否有函数权限,如无权限,任务会报错。
- 任务运行时:
1)如果函数有测试态,开发模式用函数的测试态,线上模式有函数的线上态
2)如果函数没有测试态,开发模式和线上模式都用函数的线上态
- 功能详细使用步骤:
- 函数使用说明:
1)实现接口 Function - 编码示例:
public class UDF implements Function<Map<String, Map<String, String>>, Map<String, Map<String, String>>> { @Override public Map<String, Map<String, String>> apply(Map<String, Map<String, String>> stringStringMap) { // 请求api的header Map<String, String> header = stringStringMap.get("header"); // 请求参数(get请求会有) Map<String, String> paramsMap = stringStringMap.get("params"); // 任务参数包含body(post请求会有)、url、requestType(get/post) Map<String, String> taskInfoMap = stringStringMap.get("taskInfo"); // 做些你想做的处理逻辑,比如塞点参数进header、paramsMap、body if ("get".equals(taskInfoMap.get("requestType"))) { header.put("appId", "super"); paramsMap.put("searchKey", "111"); } else { header.put("appId", "super"); taskInfoMap.put("body", ""); } // 返回map // 如果是get请求会根据用户处理完返回的header,params,url去请求 // 如果是post请求会根据用户处理完返回的header,body,url去请求 return stringStringMap; } }
- 函数使用说明:
2.【离线同步任务】来源为FTP或HDFS、去向为FTP或HDFS、来源读取方式为非结构化时,数据传输distcp技术方案改为spark-distcp,不依赖于Hadoop版本
- 功能介绍:
- 原distcp技术方案对客户环境Hadoop版本有要求,此次方案优化后非结构化传输功能可不受限于客户环境的Hadoop版本。
3.【实时同步任务】来源为Oracle时,增量读取方式支持ogg
- 功能介绍:
- 部分场景下,Oracle的DBA不支持向数据开发团队开放Oracle数据库的CDC binlog读取权限,而是将Oracle数据源下多个库表的CDC binlog数据同步至Kafka的同一topic下。为下游应用方便,数据开发需要通过数据传输将同一topic下按照Oracle表进行数据分发,将每一张Oracle表的数据分别分发至不同的去向表。
- 优化后功能使用步骤:
- 功能入口:
- 功能入口:
4.【整体】对接安全中心-产品访问权限控制
- 功能介绍:在安全中心项目级别给角色/成员勾选数据传输的产品页面访问配置后,用户才可访问数据传输页面,否则访问会报错。
5.【离线同步任务】提交离线同步任务时增加二次确认
- 功能介绍:为避免用户误提交影响线上任务,提交离线同步任务时增加二次确认。
6.【离线同步任务】增加Ops参数,用于在平台粒度配置数据去向为Kudu时是否批量转换与去向字段类型不兼容的来源表字段类型
- 功能介绍:
- 如需批量转换字段类型,则添加自定义参数,参数名称:ndi.spark.spark-conf.spark.transmit.common.supportedCastTypeList,参数值:kudu
7.【实时同步任务】增加Ops参数,用于在平台粒度配置数据去向为Kudu时是否批量转换与去向字段类型不兼容的来源表字段类型
- 功能介绍:
- 如需批量转换字段类型,则添加自定义参数,参数名称:ndi.streamConfig.supportedCastTypeList,属性值:kudu
8.【实时同步任务】来源为TeleDB、Oracle、MySQL、SQLServer、Kafka-ogg json时支持内置变量
- 功能介绍:
- 1、数据来源为MySQL、Oracle、SQLServer、TeleDB,任务类型为分库分表同步或多表(Topic)同步时,自定义表达式支持填写和解析变量:${op}、${op_ts}。${op}表示来源数据库日志中的操作类型,${op_ts}表示来源数据库中的操作时间。
- 2、数据来源为Kafka,序列化格式为ogg-json时,自定义表达式支持填写和解析变量:${pos}、${op_ts}、${current_ts}、${table}。对应于ogg-json中的首层字段,${pos}表示当前事件在ogg流中的位置${op_ts}表示数据库日志中的操作时间,${current_ts}表示数据库日志的获取时间,${table}表示当前时间对应的表名称。
9.【离线同步任务】Kafka数据源适配Spark3.3版本
10.【实时同步任务】新增插件版本2.x
- 功能介绍:
- 历史任务默认版本为1.x,新增任务默认版本为2.x,此功能不影响历史任务。此外,复制任务时,复制创建出的任务与复制的任务的插件版本保持一致;导入任务时,与导出端导出的任务保持一致。
版本:v3.7.1
功能优化
1.【离线同步任务】数据来源来源为DM、VastBase G100时支持SQL模式
- 功能介绍:
- 数据来源来源为DM、VastBase G100时支持SQL模式,用于多表关联查询等场景
- 优化后功能使用步骤:
2.【离线同步任务】数据来源为HBase时支持根据timestamp时间戳过滤数据并支持读取timstamp字段
- 功能介绍:
- HBase表每个cell(存储单元)均包含timestamp时间戳,timestamp表示该Rowkey值对应的该列数据的更新时间。此前,离线传输读取Hbase时,在读取范围内如果同一Rowkey值对应的同一列存在多次更新,则仅读取该列最新版本的数据。此次支持根据timestamp值过滤数据,仅读取指定时间范围内更新的数据;支持读取HBase单元格的timestamp字段并写入去向表字段。
- 功能使用注意事项:
- 如果填写起始时间位点和结束时间位点,则会使用时间戳范围过滤条件进行读取HBase表数据。请按照格式:yyyy-MM-dd HH:mm:ss.SSS填写,其中“SSS”可不填,如不填则默认取000,系统执行时会将该值转成timestamp后从HBase中读取相应数据。支持填写系统参数和参数组参数。
- 如未填写起始时间位点,则默认从最早数据开始读取。如未填写结束时间位点,则默认读取至最新数据。
- 如果同时填写startRowKey、endRowKey和起始时间位点、结束时间位点,则会读取指定RowKey范围内指定时间戳范围内的数据;如果仅填写startRowKey、endRowKey,则会读取指定RowKey范围内的数据,不限时间戳范围;如果仅填写起始时间位点、结束时间位点,则会读取指定时间戳范围内的数据,不限RowKey范围。
- 任务配置字段映射时,来源表字段如选取timestamp字段,运行任务时,同一RowKey值对应的多列数据对应的timestamp值不同时,则timestamp字段值取timestamp最新的列对应的timestamp值。
- 优化后功能使用步骤:
3.【实时同步任务】来源为Kafka、去向为结构化数据源时,支持获取最新表结构功能
- 功能介绍:
- 针对去向表表结构变更的各类场景,处置策略如下:
a.字段顺序调整:字段映射列表中按变更后的去向表字段顺序展示,并保留映射的来源表字段信息。
b.新增字段:字段映射列表中新增行,行序号为去向表中该字段的列序号。针对该行的来源表字段:先使用同名映射匹配是否存在同名的来源表字段,如存在同名字段则来源表字段置为同名字段,如不存在同名字段则清空来源表字段选择框的值。
c.删除字段:删除字段映射列表中的对应行
d.字段类型变更:更新“字段类型”列该字段对应的值
e.字段描述变更:更新“描述”列该字段的字段描述
此外,针对去向表的表结构变更,消息通知框中会详细提示各类变更情况以及相应的字段。
- 针对去向表表结构变更的各类场景,处置策略如下:
- 优化后功能使用步骤:
4.【实时同步任务】数据来源为Kafka时,适配版本和认证方式:2.0.1、无认证;2.0.1、Kerberos认证
5.【实时同步任务】新增“未知”任务状态
- 功能介绍:
- 针对联通yarn或k8s集群时,出现查询异常(无法联通或查询失败)时未获取到任务状态的任务,新增任务状态:未知。
- 功能使用注意事项:
- 此任务状态的任务不可启动、停止。启动中、运行中、停止中的任务可能会翻转为此状态。此状态可翻转为启动中、运行中、停止中、启动失败、运行失败。
6.【实时同步任务+离线同步任务+数据导入】获取队列时,如队列资源获取失败时,仅展示队列名称
- 功能使用注意事项:
Bug修复
1.【实时同步任务】修复任务任务类型为分库分表同步时,任务配置页面和任务执行时库表正则匹配规则不一致的问题
版本:v3.7.0
新增功能
1.【离线同步任务】离线同步任务对接发布中心
- 功能介绍:离线同步任务支持对接发布中心实现跨环境发布。
- 功能使用注意事项:
- 项目-集群下所有离线同步任务均可通过发布中心发布至接收方的开发模式/线上模式。
- 数据源、Hive库、参数组已对接发布中心的数据源映射/Hive库映射/参数组映射。如发布方任务使用的数据源、Hive库、参数组在发布中心已配置映射策略,则根据映射策略替换为接收方的数据源、Hive库、参数组,如此时接收方相应资源已被删除则任务检测不通过;如发布中心未配置映射策略则按照同名映射的规则替换为接收方的数据源、Hive库、参数组,如此时接收方不存在同名的资源则任务检测不通过。
- 如发布方任务引用了脱敏规则,按照同名映射的规则替换为接收方的脱敏规则,如此时接收方不存在同名的脱敏规则则任务检测不通过。
- 实际在接收方执行导入时,Hive库的替换逻辑为:优先按配置的接收方参数组的参数替换(如有),再按照Hive库映射配置的Hive库映射到的接收方库替换(如有),最后按照原始的发布方库。
2.【实时同步任务】数据去向新增支持Kudu数据源
- 功能介绍:
- 实时同步任务去向新增支持Kudu数据源。
3.【实时同步任务】数据去向新增支持Kafka数据源
- 功能介绍:
- 实时同步任务去向新增支持Kafka数据源。
4.【数据导入】数据导入配置支持复用
- 功能介绍: 此前,每次用户如需导入本地数据,需要完成如下步骤:上传文件、选择数据去向并配置字段映射。在周期性上传的场景中,每次重新配置任务操作较为麻烦,故此版本实现数据导入配置支持复用:支持编辑已有的导入配置、支持基于已有的导入配置上传新文件和查看导入记录。
功能优化
1.【实时同步任务】数据来源为Kafka时新增序列化格式:ogg-json、maxwell-json
2.【离线同步任务】支持配置日志打印信息,并丰富日志打印内容
- 功能介绍:
- 数据传输-配置管理模块支持配置日志打印信息:打印内容和打印间隔。打印内容中,如勾选传输行数、传输速率、传输耗时,则所有离线同步任务日志中均打印勾选项;如勾选传输百分比,则离线同步任务数据来源为关系型数据库时打印传输百分比。
- 日志打印任务基本信息和任务执行配置:作业基本信息含项目、集群、运行账号,任务执行配置以json的序列化格式进行打印,含reader、writer等信息。
- 日志打印任务细化的执行步骤: 1)来源是关系型数据库,执行步骤依次为:“开始切分来源端数据(切分键:xxxx,并发度:xxxx)”、“来源端数据切分完成(切分键:xxxx,并发度:xxxx)”、“开始读取来源端数据“、”来源端数据读取完成“;注意:如果来源未开启并发读取,则不展示切分的执行步骤。 2)去向是关系型数据库,执行步骤依次为“开始执行去向端PreSql,PreSql:xxxxx”、“去向端PreSql执行完成,PreSql:”、“开始向去向端写入数据”、“去向端数据写入完成”、“开始执行去向端PostSql,PostSql:xxxxx”、“去向端PostSql执行完成,PostSql:”。
3.【数据导入】数据去向为Hive时支持快速创建Hive表。
4.【离线同步任务】数据脱敏功能增强:支持使用基于自定义udf的脱敏规则、扫描时支持选择扫描执行队列
5.【实时同步任务】去向为Hive、Iceberg、Arctic时根据字段内容动态分区支持使用函数
6.【离线同步任务】ES读取优化:复杂字段类型设置支持用户选择读取模式:读取为string类型或系统推断字段类型
7.【离线同步任务】并发读取的切分键支持搜索,Hover显示完整展示字段名称
版本:v3.6.0
新增功能
1.【离线同步任务】数据来源和去向新增支持Iceberg数据源
- 功能介绍:
- 离线同步任务来源和去向新增支持Iceberg数据源。升级时默认隐藏Iceberg数据源,如有需要可通过Ops配置开启,配置文档:通过easyops修改支持的数据源类型。
- 配置任务时,如使用Iceberg作为数据来源,需保证配置任务的用户有对应表的读权限;如使用Iceberg作为数据去向,需保证配置任务的用户有对应表的写权限,否则用户无法成功选中表。
2.【离线同步任务】数据来源和去向新增支持TDSQL数据源
- 功能介绍:
- 离线同步任务来源和去向新增支持TDSQL数据源。升级时默认隐藏TDSQL数据源,如有需要可通过Ops配置开启,配置文档:通过easyops修改支持的数据源类型。
- 配置任务时,如使用TDSQL作为数据来源,需保证配置任务的用户有对应数据源的读权限;如使用TDSQL作为数据去向,需保证配置任务的用户有对应数据源的写权限,否则用户无法成功选中数据源。
3.【实时同步任务】数据去向新增支持Arctic数据源
- 功能介绍:
- 实时同步任务去向新增支持Arctic数据源。升级时默认隐藏Arctic数据源,如有需要可通过Ops配置开启,配置文档:通过easyops修改支持的数据源类型。
- 配置任务时,如使用Arctic作为数据去向,需保证配置任务的用户有对应表的写权限,否则用户无法成功选中表。
功能优化
1.【离线同步任务】支持基于HiveJDBC读和写版本为1.1.0-CDH5.14.0的Hive
- 功能介绍:
- 离线同步任务数据来源和去向支持选取版本为1.1.0-CDH5.14.0、传输协议为Hive JDBC的Hive数据源,传输任务会基于HiveJDBC协议读和写Hive表。
功能使用步骤:
- 1、前往项目中心(新)登记Hive数据源。版本选中:1.1.0-CDH5.14.0,传输协议选中:Hive JDBC。
- 2、传输任务数据来源侧选中已登记的数据源,选择库表并按需配置数据过滤条件和特殊字符替换。
注意:Hive版本为:1.1.0-CDH5.14.0,传输协议为:Hive JDBC时,读取方式为基于Hive JDBC读取数据
3、传输任务数据去向侧选中已登记的数据源,选择库表,并按需完成相关配置。
分区:如Hive表为分区表,请填写分区值;如Hive表为非分区表,任务配置时不会展示分区配置项。写入规则:Hive版本为:1.1.0-CDH5.14.0,传输协议为:Hive JDBC时,写入规则支持Insert into(追加数据)和Truncate then append(清空表数据后插入数据)。需要注意:Truncate then append系统写入时会分为两条SQL执行,先清空表数据,再插入数据,如在清空表数据后、插入数据前任务报错,则表中对应数据会为空。
批量条数:1)一次性批量提交的记录数大小。该值可以极大减少数据同步系统与数据源的网络交互次数,并提升整体吞吐量。如果该值设置过大,会导致数据同步运行进程OOM异常。2)每提交一批记录,HiveServer就会向YARN提交一个MapReduce任务,如果写入记录数多则会提交较多的任务,占用大量集群资源。
- 1、前往项目中心(新)登记Hive数据源。版本选中:1.1.0-CDH5.14.0,传输协议选中:Hive JDBC。
2.【离线同步任务】支持批量运行和批量提交任务
- 功能介绍:
- 支持批量运行和批量提交任务,提升批量场景下的操作效率。
- 功能使用注意事项:
- 如命中以下任一条件,则任务不可批量运行。1)当前用户账号缺少该任务的“运行&上线&下线”权限;2)当前任务正在运行中;3)任务审批中,不可运行;4)任务审批不通过,不可运行。
- 如命中以下任一条件,则任务不可批量提交。1)当前用户账号缺少该任务的“运行&上线&下线”权限;2)任务审批中,不可提交;3)任务审批不通过,不可提交。
3.【离线同步任务】Kafka适配新的版本和认证方式:2.3.1、无认证;2.3.1、sasl_plaintext认证;2.7.1、无认证;2.7.1、sasl_plaintext认证。
- 功能介绍:
- 离线同步任务Kafka作为来源和去向适配新的版本和认证方式。
4.【离线同步任务】DM适配8.1版本
- 功能介绍:
- 离线同步任务DM作为来源和去向适配版本:8.1。
5.【离线同步任务】支持通过SQL模式读取平台内置Hive数据源
- 功能介绍:
- 离线同步任务的任务模式为SQL模式时,数据来源的数据源类型新增Hive,支持选取平台内置的Hive数据源。
6.【离线同步任务】任务查询Oracle时使用绑定变量
- 功能介绍:
- 任务查询Oracle时使用绑定变量,优化SQL查询效率
7.【离线同步任务】Clickhouse适配Spark3.3
- 功能介绍:
- 离线同步任务Clickhouse作为来源和去向适配Spark3.3
以上内容对您是否有帮助?