双集群测试功能(沙箱功能)中台配置步骤

按以下顺序执行

确认测试集群基础组件全部安装完成,列表如下

服务 必选
yarn
spark2
hive
hdfs

hadoop_meta

确认测试集群对应的yarn, hdfs 实例的高级选项包含属性cluster_env,且值为test

依赖管理中添加测试集群hdfs, yarn 实例

扩容scheduler组件,选择测试yarn集群resourcemanager组件部署的机器

在service组件所在的机器上,部署测试yarn的client组件

在kdc组件所在的机器上,部署测试hdfs的client组件

服务实例重启+同步配置‘’

mammut

在依赖管理中添加测试集群spark2, hive, hdfs, yarn

执行同步配置

webserver, executor 是高可用部署的话,依次重启每个组件

Azkaban

确认在azkaban exec节点,部署测试集群的yarn client ,hdfs client, hive client , spark2 client

依赖管理中添加测试集群hdfs, yarn,hive, spark2 实例

修改以下配置

配置项组 配置 类型
global enable_dev_cluster bool true

同步配置,重启 exec,停服web

创建并上传hdfs资源

在azkaban exec部署的机器上执行以下命令

具体操作指令参考(注意替换路劲中的xxx和keytab对应的principal)

sudo -iu hdfs
cd /home/bdms/hdfs/xxx/client/xxx/keytab kinit -kt hdfs.keytab hdfs/hadoop5422.jd.163.org
cd ../config source hadoop-env.sh 
cd ../current/bin 
./hdfs dfs -mkdir /azkaban 
./hdfs dfs -chown mammut:hadoop /azkaban 
./hdfs dfs -chmod 0755 /azkaban
./hdfs dfs -mkdir /azkaban/resource 
./hdfs dfs -chown mammut:hadoop /azkaban/resource 
./hdfs dfs -chmod 0755 /azkaban/resource 
./hdfs dfs -mkdir /public 
./hdfs dfs -chown azkaban:hadoop /public 
./hdfs dfs -chmod 1777 /public 
./hdfs dfs -mkdir /public/sqoop_lib 
./hdfs dfs -chown azkaban:hadoop /public/sqoop_lib 
./hdfs dfs -copyFromLocal {base_dir}/azkaban_exec/package/hdfs_sqoop_lib-3.0.0-5.4 /public/sqoop_lib
./hdfs dfs -chmod 1777 /public/sqoop_lib