安装Hadoop及Spark(Ubuntu 16.04)
安裝Hadoop及Spark(Ubuntu 16.04)
安裝JDK
下載jdk(以jdk-8u91-linux-x64.tar.gz為例)
新建文件夾
sudo mkdir /usr/lib/jvm
解壓下載的jdk文件并移動(dòng)到新建的文件夾下
sudo tar -xzvf jdk-8u91-linux-x64.tar.gz -C /usr/lib/jvm
進(jìn)入jvm文件夾并重命名解壓出來(lái)的文件夾
cd /usr/lib/jvm
sudo mv jdk1.8.0_91 jdk添加環(huán)境變量
sudo vim /etc/profile# 添加如下配置export JAVA_HOME=/usr/lib/jvm/jdkexport CLASSPATH=.:$JAVA_HOME/lib:$JAVA_HOME/jre/lib:$CLASSPATHexport PATH=$JAVA_HOME/bin:$JAVA_HOME/jre/bin:$PATH使配置生效
source /etc/profile
測(cè)試
java -version
安裝Scala
類(lèi)似于jdk的安裝
下載scala(以scala-2.11.8.tgz為例)
解壓下載的scala文件
sudo tar -xzvf scala-2.11.8.tgz -C /usr/local
重命名
cd /usr/localsudo mv scala-2.11.8 scala添加環(huán)境變量
sudo vim /etc/profile# 在最后添加下面內(nèi)容export SCALA_HOME=/usr/local/scalaexport PATH=$SCALA_HOME/bin:$PATH使配置生效
source /etc/profile
測(cè)試
scala -version
安裝Hadoop
Spark默認(rèn)使用HDFS充當(dāng)持久化層,所以需要安裝Hadoop,當(dāng)然也可以不安裝
參考
安裝單機(jī)/偽分布式
安裝集群
安裝
安裝ssh
sudo apt install openssh-server
配置ssh無(wú)密登陸
ssh-keygen -t rsa ? # 一直回車(chē)cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys測(cè)試ssh無(wú)密登陸
ssh localhost # 如果不提示輸入密碼則配置成功
下載Hadoop(以hadoop-2.7.2.tar.gz為例)
解壓
sudo tar -xzvf hadoop-2.7.2.tar.gz -C /usr/local
重命名
cd /usr/localsudo mv hadoop-2.7.2 hadoop修改權(quán)限
cd /usr/localsudo chown -R yourusername:yourusername hadoop配置環(huán)境變量
sudo vim /etc/profile# 在最后添加下面代碼export HADOOP_HOME=/usr/local/hadoopexport PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH測(cè)試
hadoop version
Hadoop偽分布式配置
修改配置文件core-site.xml
cd /usr/local/hadoop
vim ./etc/hadoop/core-site.xml# 修改為如下<configuration>
? ? ? ?<property>
? ? ? ? ? ? <name>hadoop.tmp.dir</name>
? ? ? ? ? ? <value>file:/usr/local/hadoop/tmp</value>
? ? ? ? ? ? <description>Abase for other temporary directories.</description>
? ? ? ?</property>
? ? ? ?<property>
? ? ? ? ? ? <name>fs.defaultFS</name>
? ? ? ? ? ? <value>hdfs://localhost:9000</value>
? ? ? ?</property></configuration>修改配置文件hdfs-site.xml
cd /usr/local/hadoop
vim ./etc/hadoop/hdfs-site/xml# 修改為如下<configuration>
? ? ? ?<property>
? ? ? ? ? ? <name>dfs.replication</name>
? ? ? ? ? ? <value>1</value>
? ? ? ?</property>
? ? ? ?<property>
? ? ? ? ? ? <name>dfs.namenode.name.dir</name>
? ? ? ? ? ? <value>file:/usr/local/hadoop/tmp/dfs/name</value>
? ? ? ?</property>
? ? ? ?<property>
? ? ? ? ? ? <name>dfs.datanode.data.dir</name>
? ? ? ? ? ? <value>file:/usr/local/hadoop/tmp/dfs/data</value>
? ? ? ?</property></configuration>修改配置文件hadoop-env.sh
cd /usr/local/hadoop
vim ./etc/hadoop/hadoop-env.sh# 將 export JAVA_HOME=${JAVA_HOME} 更改為:export JAVA_HOME=/usr/lib/jvm/jdk執(zhí)行NameNode格式化
hdfs namenode -format
運(yùn)行
start-dfs.sh
測(cè)試
jps
有如下幾個(gè)進(jìn)程
5939 Jps5636 DataNode5493 NameNode5814 SecondaryNameNode通過(guò)瀏覽器查看
在瀏覽器中輸入一下地址:localhost:50070
配置YARN
修改配置文件mapred-site.xml
cd /usr/local/hadoop
cp ./etc/hadoop/mapred-site.xml.template ./etc/hadoop/mapred-site.xml
vim ./etc/hadoop/mapred-site.xml# 修改為如下配置<configuration>
? ? ? ?<property>
? ? ? ? ? ? <name>mapreduce.framework.name</name>
? ? ? ? ? ? <value>yarn</value>
? ? ? ?</property></configuration>修改配置文件yarn-site.xml
cd /usr/local/hadoop
vim ./etc/hadoop/yarn-site.xml# 修改為以下配置<configuration>
? ? ? ?<property>
? ? ? ? ? ? <name>yarn.nodemanager.aux-services</name>
? ? ? ? ? ? <value>mapreduce_shuffle</value>
? ? ? ? ? ?</property></configuration>編寫(xiě)啟動(dòng)腳本
#!/bin/bash# 啟動(dòng)hadoopstart-dfs.sh# 啟動(dòng)yarnstart-yarn.sh# 啟動(dòng)歷史服務(wù)器,以便在Web中查看任務(wù)運(yùn)行情況mr-jobhistory-daemon.sh start historyserver編寫(xiě)停止腳本
#!/bin/bash# 停止歷史服務(wù)器mr-jobhistory-daemon.sh stop historyserver# 停止yarnstop-yarn.sh# 停止hadoopstop-dfs.sh通過(guò) Web 界面查看任務(wù)的運(yùn)行情況
瀏覽器中輸入地址:localhost:8088
安裝Spark
下載spark(以spark-2.0.0-bin-hadoop2.7.tgz為例)
解壓下載的spark文件
sudo tar -zxf spark-2.0.0-bin-hadoop2.7.tgz -C /usr/local
重命名
cd /usr/localsudo mv spark-2.0.0-bin-hadoop2.7 spark添加環(huán)境變量
sudo vim /etc/profile# 在最后添加下面內(nèi)容export SPARK_HOME=/usr/local/sparkexport PATH=$SPARK_HOME/bin:$SPARK_HOME/sbin:$PATH修改一下權(quán)限
cd /usr/localsudo chown -R yourusername:yourusername ./spark拷貝配置文件
cd /usr/local/spark
cp ./conf/spark-env.sh.template ./conf/spark-env.sh修改配置文件
cd /usr/loca/spark
vim ./conf/spark-env.sh# 添加下面一行export SPARK_DIST_CLASSPATH=$(/usr/local/hadoop/bin/hadoop classpath)
export JAVA_HOME=/usr/lib/jvm/jdk運(yùn)行簡(jiǎn)單示例
/usr/local/spark/bin/run-example SparkPi 2>&1 | grep "Pi is roughly"
啟動(dòng)Spark
/usr/local/spark/sbin/start-all.sh
編寫(xiě)腳本
啟動(dòng)Hadoop以及Spark
#!/bin/bash# 啟動(dòng)Hadoop以及yarnstart-dfs.sh
start-yarn.sh# 啟動(dòng)歷史服務(wù)器mr-jobhistory-daemon.sh start historyserver# 啟動(dòng)Spark/usr/local/spark/sbin/start-all.sh停止Hadoop以及Spark
#!/bin/bash# 停止Sparkstop-dfs.sh
stop-yarn.sh# 停止歷史服務(wù)器mr-jobhistory-daemon.sh stop historyserver# 停止Hadoop以及yarn/usr/local/hadoop/sbin/stop-all.sh通過(guò)WEB頁(yè)面查看
瀏覽器中輸入地址:localhost:8080
轉(zhuǎn)載于:https://blog.51cto.com/11489825/1910461
總結(jié)
以上是生活随笔為你收集整理的安装Hadoop及Spark(Ubuntu 16.04)的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: Collections练习之按照字符串长
- 下一篇: ubuntu14.04 LTS 搜狗输