日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問(wèn) 生活随笔!

生活随笔

當(dāng)前位置: 首頁(yè) > 编程资源 > 编程问答 >内容正文

编程问答

hadoop伪分布式配置

發(fā)布時(shí)間:2024/7/19 编程问答 25 豆豆
生活随笔 收集整理的這篇文章主要介紹了 hadoop伪分布式配置 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

1.1 準(zhǔn)備
通過(guò)gedit編輯器修改比較方便,因此需先安裝gedit。

sudo apt-get install gedit

1.2 修改配置文件core-site.xml和hdfs-site.xml(如下注釋部分需要?jiǎng)h除)

  • gedit打開core-site.xml
$ gedit ./etc/hadoop/core-site.xml <configuration>#在該語(yǔ)句對(duì)中添加如下語(yǔ)句,單機(jī)模式刪除該語(yǔ)句對(duì)中的所有語(yǔ)句。<property><name>hadoop.tmp.dir</name> #用于存儲(chǔ)hadoop運(yùn)行過(guò)程中的臨時(shí)文件的目錄<value>file:/usr/local/hadoop/tmp</value>#指定目為/usr/local/hadoop/tmp,若不設(shè)置,Hadoop關(guān)閉后,系統(tǒng)默認(rèn)設(shè)置的目錄會(huì)被情況,下次在開啟hadoop時(shí),又需要運(yùn)行hadoop format初始化,才能正常使用。<description>Abase for other temporary directories.</description></property><property><name>fs.defaultFS</name> #設(shè)置fs.dfaultFS對(duì)應(yīng)的值<value>hdfs://localhost:9000</value>#設(shè)置整個(gè)hdfs路徑的邏輯名稱為hdfs://localhost:9000</property> </configuration>
  • gedit打開hdfs-site.xml
$ gedit ./etc/hadoop/hdfs-site.xml <configuration>#在該語(yǔ)句對(duì)中添加如下語(yǔ)句,單機(jī)模式刪除該語(yǔ)句對(duì)中的所有語(yǔ)句。<property><name>dfs.replication</name>#表示副本的數(shù)量<value>1</value> #偽分布式其實(shí)只有一臺(tái)機(jī)器,可以設(shè)置副本數(shù)量為1</property><property><name>dfs.namenode.name.dir</name>#表示本地磁盤目錄,是存儲(chǔ)fsimage文件的地方<value>file:/usr/local/hadoop/tmp/dfs/name</value>#設(shè)置其值</property><property><name>dfs.datanode.data.dir</name>#表示本地磁盤目錄,HDFS數(shù)據(jù)存放block的地方<value>file:/usr/local/hadoop/tmp/dfs/data</value>#設(shè)置其對(duì)應(yīng)的值</property> </configuration>

設(shè)置完后保存。

1.3 配置完成后,執(zhí)行NameNode的格式化

$ cd /usr/local/hadoop $ ./bin/hdfs namenode -format

輸出如下信息則成功。

1.4 開啟NameNode和DataNode守護(hù)進(jìn)程。

$ cd /usr/local/hadoop $ ./sbin/start-dfs.sh

1.5 通過(guò)jps來(lái)判斷是否成功啟動(dòng),出現(xiàn)NameNode、DataNode、SecondaryName(若沒有這個(gè),則再次嘗試啟動(dòng))則成功。

1.6 單機(jī)模式讀取的是本地?cái)?shù)據(jù),偽分布式讀取的是HDFS上的數(shù)據(jù)。要使用HDFS,則需要在HDFS中創(chuàng)建用戶目錄。

$ ./bin/hdfs dfs -mkdir -p /user/hadoop

1.7 三種shell命令方式介紹

  • hadoop fs:適用于任何不同的文件系統(tǒng),如本地文件系統(tǒng)和HDFS文件系統(tǒng)。
  • hadoop dfs:只適用于HDFS文件系統(tǒng)。
  • hdfs dfs:只適用于HDFS文件系統(tǒng)。

1.8 使用

  • 將./etc/hadoop中的.xml文件作為輸入,復(fù)制到分布式文件系統(tǒng)中的/user/hadoop/input中。
  • 執(zhí)行如下命令創(chuàng)建文件夾和復(fù)制文件
$ ./bin/hdfs dfs -mkdir input $ ./bin/hdfs dfs -put ./etc/hadoop/*.xml input
  • 查看復(fù)制的文件目錄
$ ./bin/hdfs dfs -ls input

1.9 偽分布式運(yùn)行MapReduce作業(yè)與單機(jī)模式相同,偽分布式讀取的HDFS中的文件。

$ ./bin/hadoop jar ./share/hadoop/mapreduce/hadoop-mapreduce-examples-*.jar grep input output 'dfs[a-z.]+'

1.10 查看輸出文件,每次運(yùn)行上述輸出語(yǔ)句,需要?jiǎng)h除output輸出文件夾。

$ ./bin/hdfs dfs -cat output/*


1.11 hadoop的關(guān)閉與啟動(dòng):下次啟動(dòng)無(wú)需運(yùn)行NameNode初始化。

$ ./sbin/stop-dfs.sh $ ./sbin/start-dfs.sh

1.12 hadoop命令目錄:

  • hadoop所在目錄為/usr/local/hadoop
  • hadoop命令在sbin文件夾中。
  • HDFS文件數(shù)據(jù)目錄:/tmp/dfs/
  • input 輸入文件目錄

1.1.3 hadoop的訪問(wèn):hadoop3.x版本的默認(rèn)端口問(wèn)9870,即通過(guò)localhost:9870可以訪問(wèn)啟動(dòng)的hadoop。

1.14 可能的錯(cuò)誤

  • 若1.3 運(yùn)行后出錯(cuò)Error: JAVA_HOME is not set and could not be found. 那么請(qǐng)保證JAVA_HOME配置正確。若還出錯(cuò),則:
    轉(zhuǎn)到hadoop的安裝目錄,修改配置文件“/usr/local/hadoop/etc/hadoop/hadoop-env.sh”中的“export JAVA_HOME=${JAVA_HOME}”為Java安裝路徑的具體地址,如“export JAVA_HOME=/usr/lib/jvm/default-java”。

  • 啟動(dòng)hadoop識(shí),若出現(xiàn)類似“ssh: Could not resolve hostname xxx”的錯(cuò)誤。
    這不是SSH的問(wèn)題,可以通過(guò)Hadoop配置來(lái)解決。

先ctrl+c中斷啟動(dòng),然后在~./bashrc中添加如下語(yǔ)句

export HADOOP_HOME=/usr/local/hadoop#hadoop的安裝目錄 export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native 保存執(zhí)行命令使配置生效。 source ~/.bashrc 在執(zhí)行啟動(dòng)命令。 $ ./sbin/start-dfs.sh
  • Hadoop 運(yùn)行程序時(shí),輸出目錄不能存在,否則會(huì)提示錯(cuò)誤 “org.apache.hadoop.mapred.FileAlreadyExistsException: Output directory hdfs://localhost:9000/user/hadoop/output already exists” ,需要?jiǎng)h除output文件夾。

  • 可以通過(guò)命令設(shè)置,可以運(yùn)行是自動(dòng)刪除output目錄,避免復(fù)雜的其他操作。

Configuration conf = new Configuration(); Job job = new Job(conf);/* 刪除輸出目錄 */ Path outputPath = new Path(args[1]); outputPath.getFileSystem(conf).delete(outputPath, true);

源文檔
http://dblab.xmu.edu.cn/blog/2441-2/#more-2441

總結(jié)

以上是生活随笔為你收集整理的hadoop伪分布式配置的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。