日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

Hadoop的安装与配置——设置单节点群集

發布時間:2025/3/8 编程问答 29 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Hadoop的安装与配置——设置单节点群集 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

本篇博客將主要介紹如何設置和配置單節點Hadoop安裝,以便我們可以使用Hadoop 的MapReduce與HDFS快速執行簡單的操作。

零、先決條件

1、本系列以Ubuntu Linux作為開發和生產平臺
2、Linux所需的軟件包括:

  • JAVA:必須安裝Java,配置好JDK環境變量;
  • SSH:如果要使用可選的啟動和停止腳本,則必須安裝ssh并且必須運行sshd才能使用管理遠程Hadoop守護程序的Hadoop腳本;
  • pdsh:安裝pdsh以便更好地進行ssh資源管理。

如果群集中沒有必需的軟件,則需要安裝它。在Ubuntu Linux上:

$ sudo apt-get install ssh$ sudo apt-get install pdsh

一、下載

可以從 Apache Download Mirrors下載獲得最穩定的發行版
下載后,使用 : tar -zxvf tar包名,解壓到指定位置!

編輯文件etc/ hadoop / hadoop-env.sh以定義一些參數

# set to the root of your Java installationexport JAVA_HOME=/usr/local/java/jdk1.8export HADOOP_CONF_DIR=/usr/local/apps/hadoop-3.2.1/etc/hadoop

嘗試以下命令:

$ bin / hadoop

二、準備啟動Hadoop集群

這將顯示hadoop腳本的用法文檔
現在,我們可以以三種支持的模式之一啟動Hadoop集群:

  • 本地(獨立)模式
  • 偽分布式模式
  • 全分布式模式

2.1、獨立模式運行

默認情況下,Hadoop被配置為在非分布式模式下作為單個Java進程運行。這對于調試很有用。
下面的示例復制解壓縮的conf目錄以用作輸入,然后查找并顯示給定正則表達式的每個匹配項。輸出被寫入給定的輸出目錄。

$ mkdir input$ cp etc/hadoop/*.xml input$ bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.2.1.jar grep input output 'dfs[a-z.]+'$ cat output/*

2.2、偽分布式操作模式運行

Hadoop也可以以偽分布式模式在單節點上運行,其中每個Hadoop守護程序都在單獨的Java進程中運行。
在以下配置文件中進行修改或添加內容

etc/hadoop/core-site.xml:

<configuration><property><name>fs.defaultFS</name><value>hdfs://localhost:9000</value></property> </configuration>

etc/hadoop/hdfs-site.xml:

<configuration><property><name>dfs.replication</name><value>1</value></property> </configuration>

設置無密碼SSH
現在檢查您是否可以在不使用密碼的情況下SSH到本地主機:

$ ssh localhost

如果沒有密碼就無法SSH到本地主機,就執行以下命令:

$ ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa$ cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys$ chmod 0600 ~/.ssh/authorized_keys

以下說明是在本地運行MapReduce作業:

  • 格式化文件系統:
  • $ bin/hdfs namenode -format
  • 啟動NameNode守護程序和DataNode守護程序:
  • $ sbin/start-dfs.sh

    hadoop守護程序日志輸出將寫入$ HADOOP_LOG_DIR目錄(默認為$ HADOOP_HOME / logs)。

  • 瀏覽Web界面的NameNode;默認情況下,它在以下位置可用:
    NameNode - http://localhost:9870/
  • 設置執行MapReduce作業所需的HDFS目錄:
  • $ bin/hdfs dfs -mkdir /user$ bin/hdfs dfs -mkdir /user/root
  • 將輸入文件復制到分布式文件系統中:
  • $ bin/hdfs dfs -mkdir input$ bin/hdfs dfs -put etc/hadoop/*.xml input
  • 運行提供的一些示例:
  • $ bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.2.1.jar grep input output 'dfs[a-z.]+'
  • 檢查輸出文件:將輸出文件從分布式文件系統復制到本地文件系統并檢查它們:
  • $ bin/hdfs dfs -get output output$ cat output/*
  • 完成后,使用以下命令停止守護進程:
  • $ sbin / stop-dfs.sh

    以偽分布式模式在YARN上運行MapReduce作業:
    以下指令假定上述本地運行MapReduce作業指令的1.?4. 步驟已經執行。

  • 如下配置參數:
  • etc / hadoop / mapred-site.xml:

    <configuration> <property> <name> mapreduce.framework.name </ name> <value> yarn </ value> </ property> <property> <name> mapreduce.application.classpath </ name> <value> $ HADOOP_MAPRED_HOME / share / hadoop / mapreduce / *:$ HADOOP_MAPRED_HOME / share / hadoop / mapreduce / lib / * </ value> </ property> </ configuration>

    etc / hadoop / yarn-site.xml:

    <configuration> <property> <name> yarn.nodemanager.aux-services </ name> <value> mapreduce_shuffle </ value> </ property> <property> <name> yarn.nodemanager.env-whitelist </ name> <value> JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_MAPRED_HOME </ value> </ property> </ configuration>
  • 啟動ResourceManager守護程序和NodeManager守護程序:
  • $ sbin/start-yarn.sh
  • 瀏覽Web界面以找到ResourceManager;默認情況下,它在以下位置可用:
  • ResourceManager- http:// localhost:8088 /
    運行MapReduce作業。

  • 完成后,使用以下命令停止守護進程:
  • $ sbin/stop-yarn.sh

    2.3、全分布式運行

    有關設置完全分布式的非重要集群的信息,將在以后進行介紹!

    總結

    以上是生活随笔為你收集整理的Hadoop的安装与配置——设置单节点群集的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。