Hadoop 配置文件 启动方式
生活随笔
收集整理的這篇文章主要介紹了
Hadoop 配置文件 启动方式
小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.
配置文件:
默認(rèn)的配置文件:相對應(yīng)的jar 中
core-default.xml
hdfs-default.xml
yarn-default.xml
mapred-default.xml
自定義配置文件$HADOOP_HOME/etc/hadoop/
core.site.xml
hdfs-site.xml
yarn-site.xml
mapredu-site.xml
?
啟動方式:
各個服務(wù)器組建逐一啟動
* hdfs
hadoop-daemon.sh start|stop namenode|datanode|secondarynamenode*yarn
yarn-daemon.sh start|stop resourcemanager|nodemanager*mapreduce?
mr-historyserver-daemon.sh start|stop historyserver各個模塊分開啟動
* hdfs
start-dfs.shstop-dfs.sh*yarn
start-yarn.shstop-yarn.sh全部啟動(不推薦使用,幾乎沒人使用)?是因為啟動hdfs,yarn?必須在主節(jié)點上?,all 啟動的話,這個節(jié)點必須是namenode 節(jié)點,也是resourcemanager節(jié)點,實際生產(chǎn)分布在不同機(jī)器,不同節(jié)點上
start-all.shstop-all.sh
?
?
轉(zhuǎn)載于:https://www.cnblogs.com/pickKnow/p/10735351.html
總結(jié)
以上是生活随笔為你收集整理的Hadoop 配置文件 启动方式的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 如何开发类似QFIL下载工具
- 下一篇: django-中间件