日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

hadoop-2.4.0完全分布式集群搭建

發布時間:2025/3/19 编程问答 17 豆豆
生活随笔 收集整理的這篇文章主要介紹了 hadoop-2.4.0完全分布式集群搭建 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

2019獨角獸企業重金招聘Python工程師標準>>>

1.配置hosts

各linux版本hosts文件位置可能不同,redhat是在 /etc/hosts,編輯之:

172.17.0.1????master 172.17.0.2????resorucemanager 172.17.0.3????datanode1 172.17.0.4????datanode2 172.17.0.5????datanode3

然后copy到其余四臺服務器,然后分別執行 /bin/hostsname hostsname

例如:master上執行 /bin/hostsname master,使之生效。

2.配置ssh

2.1 創建hadoop用戶

注意:hadoop有兩種運行模式,安全模式和非安全模式。安裝模式是以指定在健壯的,基于身份驗證上運行的,如果無需運行在非安全模式下,可以直接使用root用戶。

安全模式下要確保hdfs和yarn以不同的用戶身份運行,如hdfs和yarn,還有確保mapreduce jobhistory server以user mapred運行。推薦這三個身份使用一個組名為hadoop。這里為了方便直接使用root。

2.2 配置master無密碼ssh各服務器

在master執行操作:

ssh-keygen?-t?rsa

然后一直回車,最后在/root/.ssh/目錄下生成了兩個文件 id_rsa 和 id_rsa.pub

cat?id_rsa.pub?>?./authorized_keys

然后復制到其他服務器(若沒有.ssh文件夾需手動創建)

scp?authorized_keys?resourcemanager:/root/.ssh/ scp?authorized_keys?datanode1:/root/.ssh/ scp?authorized_keys?datanode2:/root/.ssh/ scp?authorized_keys?datanode3:/root/.ssh/

驗證能否無密碼ssh,在master服務器上執行操作:

ssh?master

注意:第一次可能會提示輸入yes or no,之后就可以直接ssh登錄了。

同理驗證其余四臺主機是否可用無密碼ssh登錄。

3.配置jdk和hadoop環境變量

版本:jdk1.7.0_55 hadoop-2.4.0

下載并解壓到

/opt/tools/jdk1.7.0_55?

/opt/hadoop-2.4.0

編輯 /etc/profile,在最后加上

export?JAVA_HOME=/opt/tools/jdk1.7.0_55 export?JRE_HOME=$JAVA_HOME/jre export?HADOOP_HOME=/opt/hadoop-2.4.0 export?HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native export?HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib" export?CLASSPATH=$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH export?PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$HADOOP_HOME/bin:$PATH

保存退出,執行下列命令使之生效

source?/etc/profile

4.配置hadoop

配置文件目錄為hadoop-2.4.0/etc/hadoop/

4.1 在yarn-env.sh 和hadoop-env.sh文件中加上jdk路徑

export?JAVA_HOME=/opt/tools/jdk1.7.0_55

4.2 core-site.xml

<configuration><property><name>fs.defaultFS</name><value>hdfs://master:9000</value><final>true</final></property><property><name>hadoop.tmp.dir</name><value>/opt/tmp/hadoop-${user.name}</value></property><property><name>io.file.buffer.size</name><value>131072</value></property> </configuration>

4.3 hdfs-site.xml

<configuration><property><name>dfs.namenode.name.dir</name><value>file:/opt/dfs/name</value></property><property><name>dfs.datanode.data.dir</name><value>file:/opt/dfs/data</value></property><property><name>dfs.replication</name><value>3</value></property> </configuration>

4.4 mapred-site.xml

<configuration><property><name>mapreduce.framework.name</name><value>yarn</value><description>Execution?framework?set?to?Hadoop?YARN.</description></property> </configuration>

4.5 yarn-site.xml

<configuration><property><name>yarn.resourcemanager.address</name><value>jobtracker:9001</value><description>The?address?of?the?applications?manager?interface?in?the?RM.</description></property><property><name>yarn.resourcemanager.scheduler.address</name><value>jobtracker:18030</value><description>The?address?of?the?scheduler?interface,in?order?for?the?RM?to?obtain?the?resource?from?scheduler</description></property><property><name>yarn.resourcemanager.resource-tracker.address</name><value>jobtracker:18025</value><description>The?address?of?the?resource?tracker?interface?for?the?nodeManagers</description></property><property><name>yarn.resourcemanager.admin.address</name><value>jobtracker:18035</value><description>The?address?for?admin?manager</description></property><property><name>yarn.resourcemanager.webapp.address</name><value>jobtracker:18088</value><description>The?address?of?the?RM?web?application.</description></property><property><name>yarn.nodemanager.aux-services</name><value>mapreduce_shuffle</value></property> </configuration>

4.6 slaves

在該文件中添加

datanode1 datanode2 datanode3

注意:上面配置文件中出現的目錄需要自己創建。配置文件需要復制到各個服務器上,并且個服務器目錄結構要相同。

5.運行hadoop

為了以防某個節點未啟動報錯,建議單獨啟動每項節點,啟動順序依次為:

  • 格式化namenode(master):

hdfs?namenode?-format

  • 啟動namenode(master):

/opt/hadoop-2.4.0/sbin/hadoop-daemon.sh?--config?/opt/hadoop-2.4.0/etc/hadoop?--script?hdfs?start?namenode

  • 啟動datanode(master):

/opt/hadoop-2.4.0/sbin/hadoop-daemon.sh?--config?/opt/hadoop-2.4.0/etc/hadoop?--script?hdfs?start?datanode

  • 啟動resourcemanager(resourcemanager)

/opt/hadoop-2.4.0/sbin/yarn-daemon.sh?--config?/opt/hadoop-2.4.0/etc/hadoop?start?resourcemanager

  • 啟動nodemanager(resourcemanager)

/opt/hadoop-2.4.0/sbin/yarn-daemon.sh?--config?/opt/hadoop-2.4.0/etc/hadoop?start?nodemanager

  • 啟動WebAppProxy Server(resourcemanager

/opt/hadoop-2.4.0/sbin/yarn-daemon.sh?start?proxyserver?--config?/opt/hadoop-2.4.0/etc/hadoop

  • 啟動MapReduce JobHistory Serverresourcemanager?

/opt/hadoop-2.4.0/sbin/mr-jobhistory-daemon.sh?start?historyserver?--config?/opt/hadoop-2.4.0/etc/hadoop

注意:上面括號中的內容表示在哪個服務器上執行命令。啟動前需要所有服務器的防火墻關閉,執行

service?iptables?stop

也可以想一次性啟動,直接在master上啟動hdfs,在resourcemanager上啟動yarn資源管理系統

  • 啟動hdfs(master)

/opt/hadoop-2.4.0/sbin/start-dfs.sh

  • 啟動yarn(resourcemanager)

/opt/hadoop-2.4.0/sbin/start-yarn.sh

若一切順利,在各服務器上輸入jps

master顯示:

30739?Jps 9547?NameNode 9746?SecondaryNameNode

resourcemanager顯示:

2917?Jps 27910?ResourceManager

各個datanode顯示:

24334?Jps 1594?NodeManager 1027?DataNode

至此,一個完全分布式hadoop集群搭建成功

關閉hadoop按照上面啟動的順序呢,把start改成stop即可。








轉載于:https://my.oschina.net/voyage1314/blog/262392

與50位技術專家面對面20年技術見證,附贈技術全景圖

總結

以上是生活随笔為你收集整理的hadoop-2.4.0完全分布式集群搭建的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。