Skip to content

Latest commit

 

History

History
280 lines (188 loc) · 2.95 KB

开机与关机命令.md

File metadata and controls

280 lines (188 loc) · 2.95 KB

开启关闭命令

Zookeeper

  • 开启

master

zkServer.sh start

slave1

zkServer.sh start

slave2

zkServer.sh start
  • 关闭

master

zkServer.sh stop

slave1

zkServer.sh stop

slave2

zkServer.sh stop

Hadoop

  • 开启

Hadoop HA先需要开启zookeeper

cd $HADOOP_HOME
sbin/start-dfs.sh
sbin/start-yarn.sh
  • 关闭
cd $HADOOP_HOME
sbin/stop-dfs.sh
sbin/stop-yarn.sh

Spark

spark on yarn 直接运行即可,不需要开启

Hbase

  • 开启

需要先开启hadoop和zookeeper

start-hbase.sh
  • 进入shell
hbase shell
  • 关闭
stop-hbase.sh

Hive

需要先开启hadoop

使用Metastore 服务,进入控制台

hive

启动 Metastore 服务

hive --service metastore

更多

Redis

  • 开启
# 带配置文件开启
cd /opt/module/redis-6.2.6
redis-server redis.conf

# 进入控制台
redis-cli
  • 关闭
redis-cli shutdown

Azkaban

  • 开启

master

# 开启执行器
cd $AZKABAN_EXEC_HOME
bin/start-exec.sh
# 状态设置为激活
curl -G "localhost:$(<$AZKABAN_EXEC_HOME/executor.port)/executor?action=activate" && echo

slave1

# 开启执行器
cd $AZKABAN_EXEC_HOME
bin/start-exec.sh
# 状态设置为激活
curl -G "localhost:$(<$AZKABAN_EXEC_HOME/executor.port)/executor?action=activate" && echo

slave2

# 开启执行器
cd $AZKABAN_EXEC_HOME
bin/start-exec.sh
# 状态设置为激活
curl -G "localhost:$(<$AZKABAN_EXEC_HOME/executor.port)/executor?action=activate" && echo

master

# 启动网页服务器
cd $AZKABAN_WEB_HOME
bin/start-web.sh
  • 关闭
# 关闭网页服务器
cd $AZKABAN_WEB_HOME
bin/shutdown-web.sh

master

# 关闭执行器
cd $AZKABAN_EXEC_HOME
bin/shutdown-exec.sh

slave1

# 关闭执行器
cd $AZKABAN_EXEC_HOME
bin/shutdown-exec.sh

slave2

# 关闭执行器
cd $AZKABAN_EXEC_HOME
bin/shutdown-exec.sh

flume

  • 使用
flume-ng agent --conf conf --conf-file conf文件地址 --name agent -Dflume.root.logger=INFO,console

Kafka

先开启zookeeper

  • 开启

master

kafka-server-start.sh -daemon $KAFKA_HOME/config/server.properties

slave1

kafka-server-start.sh -daemon $KAFKA_HOME/config/server.properties

slave2

kafka-server-start.sh -daemon $KAFKA_HOME/config/server.properties
  • 关闭

master

kafka-server-stop.sh

slave1

kafka-server-stop.sh

slave2

kafka-server-stop.sh

ClickHouse

  • 开启
systemctl start clickhouse-server

# 使用客户端连接
clickhouse-client --port 9001 --password 123456 
  • 关闭
# 退出
exit
systemctl stop clickhouse-server

Hudi

Hudi直接被集成在计算框架内无需操作