- 开启
master
zkServer.sh start
slave1
zkServer.sh start
slave2
zkServer.sh start
- 关闭
master
zkServer.sh stop
slave1
zkServer.sh stop
slave2
zkServer.sh stop
- 开启
Hadoop HA先需要开启zookeeper
cd $HADOOP_HOME
sbin/start-dfs.sh
sbin/start-yarn.sh
- 关闭
cd $HADOOP_HOME
sbin/stop-dfs.sh
sbin/stop-yarn.sh
spark on yarn 直接运行即可,不需要开启
- 开启
需要先开启hadoop和zookeeper
start-hbase.sh
- 进入shell
hbase shell
- 关闭
stop-hbase.sh
需要先开启hadoop
使用Metastore 服务,进入控制台
hive
启动 Metastore 服务
hive --service metastore
- 开启
# 带配置文件开启
cd /opt/module/redis-6.2.6
redis-server redis.conf
# 进入控制台
redis-cli
- 关闭
redis-cli shutdown
- 开启
master
# 开启执行器
cd $AZKABAN_EXEC_HOME
bin/start-exec.sh
# 状态设置为激活
curl -G "localhost:$(<$AZKABAN_EXEC_HOME/executor.port)/executor?action=activate" && echo
slave1
# 开启执行器
cd $AZKABAN_EXEC_HOME
bin/start-exec.sh
# 状态设置为激活
curl -G "localhost:$(<$AZKABAN_EXEC_HOME/executor.port)/executor?action=activate" && echo
slave2
# 开启执行器
cd $AZKABAN_EXEC_HOME
bin/start-exec.sh
# 状态设置为激活
curl -G "localhost:$(<$AZKABAN_EXEC_HOME/executor.port)/executor?action=activate" && echo
master
# 启动网页服务器
cd $AZKABAN_WEB_HOME
bin/start-web.sh
- 关闭
# 关闭网页服务器
cd $AZKABAN_WEB_HOME
bin/shutdown-web.sh
master
# 关闭执行器
cd $AZKABAN_EXEC_HOME
bin/shutdown-exec.sh
slave1
# 关闭执行器
cd $AZKABAN_EXEC_HOME
bin/shutdown-exec.sh
slave2
# 关闭执行器
cd $AZKABAN_EXEC_HOME
bin/shutdown-exec.sh
- 使用
flume-ng agent --conf conf --conf-file conf文件地址 --name agent -Dflume.root.logger=INFO,console
先开启zookeeper
- 开启
master
kafka-server-start.sh -daemon $KAFKA_HOME/config/server.properties
slave1
kafka-server-start.sh -daemon $KAFKA_HOME/config/server.properties
slave2
kafka-server-start.sh -daemon $KAFKA_HOME/config/server.properties
- 关闭
master
kafka-server-stop.sh
slave1
kafka-server-stop.sh
slave2
kafka-server-stop.sh
- 开启
systemctl start clickhouse-server
# 使用客户端连接
clickhouse-client --port 9001 --password 123456
- 关闭
# 退出
exit
systemctl stop clickhouse-server
Hudi直接被集成在计算框架内无需操作