其他
更新时间: 2024-11-14 15:26:24
阅读 4765
- FAQ-Cannot cast STRING into a NullType
- FAQ - java.util.NoSuchElementException: None.get
- INFO-数据传输hive-gp 或gp-hive需要开通哪些端口
- INFO_数据传输调用中台数据服务api(包含前置操作,udf)到hive
- INFO-api2hive数据传输
- FAQ-IllegalStateException: files size can't be 0
- FAQ - kafka字段解析成功但同名&同行映射不上
- FAQ-数据传输API指定分页未生效
- FAQ - 'splitNum' must be specified when split key
- FAQ-数据传输表管理流表选择不到topic
- INFO-数据传输来源端,排查执行sql语句
- FAQ-数据传输-来源端数据字段为关键字导致传输异常
- INFO-数据传输任务字段映射关系
- FAQ-数据传输使用源账号映射的账号
- INFO-配置本地导入ftp服务器
- INFO-登记API数据源及创建数据传输API任务
- INFO-线上环境建德数据源添加白名单
- FAQ-doris传输报错connect status code=-1
- FAQ-Kafka开启acl权限控制
- FAQ-数据传输Communications link failure
- FAQ-kafka开启了acl权限控制,任务中未添加消费者参数
- FAQ-File does not exist
- FAQ-Cannot parse value [2020-12-02 17:46:46] for x
- FAQ-数组字段添加参数
- FAQ-all nodes failed
- FAQ-读取orc表报错
- FAQ-过滤条件指定日期函数报错
- FAQ-高级属性split指定有误
- FAQ-数据传输任务成功,但是没有数据
- INFO-数据传输任务处理空值
- FAQ-数据源配置成功, 但数据传输页面该库下不能显示表
- FAQ-spark任务血缘报错找不到kafka的包
- FAQ-数据传输vertica作为来源段不支持自定义cores参数
- FAQ-java.util.NoSuchElementException: head of empt
- FAQ-增量传输不自动切分数据
- FAQ-在日志中打印sql
- FAQ-数据传输用spark导入hive的parquet格式的表,自助分析用hive查询报错
- INFO-数据传输如何支持vertica类型
- FAQ-vertica作为数据源时切分键的选择
- FAQ-任务一直报GC
- FAQ-数据传输提交任务上线失败
- FAQ-资源不足导致任务较往常延迟严重
- INFO-数据传输Local模式
- INFO-并发数实现与上游负载压力
- FAQ-数据开发数据库传输节点中,切分键怎么选
文档反馈
以上内容对您是否有帮助?