日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

Hadoop集群搭建-01前期准备

發布時間:2024/9/5 编程问答 33 如意码农
生活随笔 收集整理的這篇文章主要介紹了 Hadoop集群搭建-01前期准备 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

Hadoop集群搭建-05安裝配置YARN

Hadoop集群搭建-04安裝配置HDFS?

Hadoop集群搭建-03編譯安裝hadoop

Hadoop集群搭建-02安裝配置Zookeeper

Hadoop集群搭建-01前期準備

整個搭建hadoop集群的流程,包括

  1. 前期準備
  2. 安裝zookeeper并配置環境
  3. 編譯安裝hadoop并啟動
  4. 安裝HDFS管理namenode和dataname管理集群硬盤資源
  5. 安裝啟動yarn建立MapReduce管理cpu和內存資源

01前期準備:

1.部署環境

  • VMware15
  • CentOS7
  • jdk8

首先啟動一臺centos7的虛擬機,配置華為云yum源

[root@localhost ~]# cp -a /etc/yum.repos.d/CentOS-Base.repo /etc/yum.repos.d/CentOS-Base.repo.bak
[root@localhost ~]# wget -O /etc/yum.repos.d/CentOS-Base.repo https://repo.huaweicloud.com/repository/conf/CentOS-7-reg.repo
[root@localhost ~]# yum clean all
[root@localhost ~]# yum makecache
[root@localhost ~]# yum update -y

然后安裝一些亂七八糟的常用軟件

[root@localhost ~]# yum install -y openssh-server vim gcc gcc-c++ glibc-headers bzip2-devel lzo-devel curl wget openssh-clients zlib-devel autoconf automake cmake libtool openssl-devel fuse-devel snappy-devel telnet unzip zip net-tools.x86_64 firewalld systemd

2.關閉虛擬機的防火墻和SELinux設置

[root@localhost ~]# firewall-cmd --state
[root@localhost ~]# systemctl stop firewalld.service
[root@localhost ~]# systemctl disable firewalld.service
[root@localhost ~]# systemctl is-enabled firewalld.service
[root@localhost ~]# /usr/sbin/sestatus -v  查看selinux的狀態
[root@localhost ~]# vim /etc/selinux/config
#修改狀態為關閉
SELINUX=disabled
[root@localhost ~]# reboot

3.安裝jdk8并配置環境變量

下載地址http://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html

[root@localhost ~]# rpm -ivh jdk-8u144-linux-x64.rpm
[root@localhost ~]# vim /etc/profile
#修改環境變量,在文件末尾添加如下
export JAVA_HOME=/usr/java/jdk1.8.0_144
export JRE_HOME=$JAVA_HOME/jre
export PATH=$PATH:$JAVA_HOME/bin
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

修改后只是對應此次用戶此次會話生效,希望永久全局生效,就要

[root@localhost ~]# source /etc/profile

4.安裝ntpdate服務,每次虛擬機掛起重新啟用后方便同步時間

[root@localhost ~]# yum install -y ntp-tools
[root@localhost ~]# ntpdate ntp1.aliyun.com

5.創建hadoop用戶和用戶組并加入wheel組

[root@localhost ~]# useradd hadoop
[root@localhost ~]# passwd hadoop

只允許wheel組內用戶可以通過su - root命令登錄root用戶,提高安全性

[root@localhost ~]# sed -i 's/#auth\t\trequired\tpam_wheel.so/auth\t\trequired\tpam_wheel.so/g' '/etc/pam.d/su'
[root@localhost ~]# cp /etc/login.defs /etc/login.defs_bak
[root@localhost ~]# echo "SU_WHEEL_ONLY yes" >> /etc/login.defs

添加hadoop用戶進wheel組

[root@localhost ~]# gpasswd -a hadoop wheel
[root@localhost ~]# cat /etc/group | grep wheel 查看hadoop有沒有加入到wheel組

6.配置虛擬機的hosts文件

[root@localhost ~]# vim /etc/hosts
192.168.10.3 nn1.hadoop #這個是本機ip,主機名稍后一起配置
192.168.10.4 nn2.hadoop
192.168.10.5 s1.hadoop
192.168.10.6 s2.hadoop
192.168.10.7 s3.hadoop

7.用虛擬機克隆功能克隆另外4臺虛擬機

完成后_分別更改每一臺_的主機名并配置靜態ip,要求和上面hosts文件內的一致并對應

[root@localhost ~]# hostnamectl set-hostname nn1.hadoop
[root@localhost ~]# vim /etc/sysconfig/network-scripts/ifcfg-ens33
TYPE="Ethernet"
PROXY_METHOD="none"
BROWSER_ONLY="no"
BOOTPROTO="static" #這里修改為static
IPADDR="192.168.10.3" #這里添加為你的每臺虛擬機對應的ip
NETMASK="255.255.255.0" #添加
GATEWAY="192.168.10.2" #添加為你虛擬機內的網關
DNS="192.168.10.2" #添加
NM_CONTROLLED="no" #添加,必然改完文件自動生效,可能直接網絡就掛掉了
DEFROUTE="yes"
IPV4_FAILURE_FATAL="no"
IPV6INIT="yes"
IPV6_AUTOCONF="yes"
IPV6_DEFROUTE="yes"
IPV6_FAILURE_FATAL="no"
IPV6_ADDR_GEN_MODE="stable-privacy"
NAME="ens33"
UUID="49f05112-b80b-45c2-a3ec-d64c76ed2d9b"
DEVICE="ens33"
ONBOOT="yes"
[root@localhost ~]# systemctl stop NetworkManager.service   停止網絡管理服務
[root@localhost ~]# systemctl disable NetworkManager.service 開機禁止自啟動
[root@localhost ~]# systemctl restart network.service 重啟網絡服務

至此我們應該有五臺虛擬機,都按照如下ip和主機名配置對應好,五臺都設置好了hosts文件

192.168.10.3 nn1.hadoop?

192.168.10.4 nn2.hadoop

192.168.10.5 s1.hadoop

192.168.10.6 s2.hadoop

192.168.10.7 s3.hadoop

然后防火墻、selinux都已經關閉,都正確安裝jdk8并配置好環境變量,都正確新建了hadoop用戶組并將其添加進wheel組。

8.配置五臺機器互相ssh免密登錄

上邊的操作都是在root用戶下進行的,現在切換到hadoop用戶下進行以后的幾乎所有操作。

[root@nn1 ~]# su - hadoop     注意這里的“-”,意味著用戶和環境變量同時切換
[hadoop@nn1 ~]$ 這時候代表進入到了hadoop用戶,還有#和$分別代表root用戶和普通用戶的身份區別

開始搭建ssh免密

思路是首先在每一臺機器上分別創建各自的key,最后把這些key.pub匯總到~/.ssh/authorized_keys文件中再一起分發給所有機器,這時候就實現了五臺機器的互相免密ssh訪問。

[hadoop@nn1 ~]$ pwd 查看當前路徑,確保在hadoop用戶的home下
/home/hadoop
[hadoop@nn1 ~]$ mkdir .ssh
[hadoop@nn1 ~]$ chmod 700 ./.ssh
[hadoop@nn1 ~]$ ll -a
drwx------ 2 hadoop hadoop 132 7月 16 22:13 .ssh
[hadoop@nn1 ~]$ ssh-keygen -t rsa   創建key文件

這時候完成了nn1機器的設置(nn1作為我們以后的主要操作機器)。按照上邊的步驟把剩下的4臺機器也弄好,然后分別把其他的4臺機器的./ssh/id_rsa.pub重命名(防止重復和以外替換),再發送到nn1的./ssh/下

[hadoop@nn2 ~]$ scp ~/.ssh/id_rsa.pub hadoop@nn1.hadoop ~/.ssh/id_rsa.pubnn2

這時候nn1的~/.ssh/下應該有包括自己在內的5個pub文件(不重名),然后把他們都_追加_到下邊的文件中

[hadoop@nn1 ~]$ touch authorized_keys
[hadoop@nn1 ~]$ chmod 600 authorized_keys
[hadoop@nn1 ~]$ cat ./ssh/id_rsa.pub >> authorized_keys
[hadoop@nn1 ~]$ cat ./ssh/id_rsa.pubnn2 >> authorized_keys
[hadoop@nn1 ~]$ cat ./ssh/id_rsa.pubs1 >> authorized_keys
…………

然后最后把這個文件批量發送到其余4臺機器上(忘了寫批量腳本了,所以用scp命令依次發送吧)

至此5臺機器的ssh免密互相訪問配置結束,我們可以分別測試(略)。

9.批量腳本編寫

因為有5臺機器啊,很多操作都要一起動,所以需要批量執行腳本。

#文件名:ips
"nn1.hadoop" "nn2.hadoop" "s1.hadoop" "s2.hadoop" "s3.hadoop"
#!/bin/bash
#文件名:ssh_all.sh
RUN_HOME=$(cd "$(dirname "$0")"; echo "${PWD}") NOW_LIST=(`cat ${RUN_HOME}/ips`) SSH_USER="hadoop"
for i in ${NOW_LIST[@]}; do
f_cmd="ssh $SSH_USER@$i \"$*\""
echo $f_cmd
if eval $f_cmd; then
echo "OK"
else
echo "FAIL"
fi
done
#!/bin/bash
#文件名:ssh_root.sh
RUN_HOME=$(cd "$(dirname "$0")"; echo "${PWD}") NOW_LIST=(`cat ${RUN_HOME}/ips`) SSH_USER="hadoop"
for i in ${NOW_LIST[@]}; do
f_cmd="ssh $SSH_USER@i ~/exe.sh \"$*\""
echo $f_cmd
if eval $f_cmd; then
echo "OK"
else
echo "FAIL"
fi
done
#文件名exe.sh
cmd=$* su - <<EOF
$cmd EOF
#!/bin/bash
RUN_HOME=$(cd "(dirname "$0")"; echo "${PWD}") NOW_LIST=(`cat ${UN_HOME}/ips`) SSH_USER="hadoop"
for i in ${NOW_LIST[@]}; do
f_cmd="scp $1 $SSH_USER@i:$2"
echo $f_cmd
if eval $f_cmd; then
echo "ok"
else
echo "FAIL"
fi
done

前期準備工作結束,下一篇開始安裝配置zookeeper

總結

以上是生活随笔為你收集整理的Hadoop集群搭建-01前期准备的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。