日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

myeclipse连接hadoop集群编程及问题解决

發布時間:2025/3/20 编程问答 25 豆豆
生活随笔 收集整理的這篇文章主要介紹了 myeclipse连接hadoop集群编程及问题解决 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

  原以為搭建一個本地編程測試hadoop程序的環境很簡單,沒想到還是做得焦頭爛額,在此分享步驟和遇到的問題,希望大家順利.

  一.要實現連接hadoop集群并能夠編碼的目的需要做如下準備:

  1.遠程hadoop集群(我的master地址為192.168.85.2)

  2.本地myeclipse及myeclipse連接hadoop的插件

  3.本地hadoop(我用的是hadoop-2.7.2)

  先下載插件hadoop-eclipse-plugin,我用的是hadoop-eclipse-plugin-2.6.0.jar,下載之后放在"MyEclipse Professional 2014\dropins"目錄下,重啟myeclipse會在perspective和views發現一個map/reduce的選項

  

切換到hadoop試圖,然后打開MapReduce Tools

  

  二.接下來新增hadoop服務,要開始配置連接,需要查看hadoop配置

  1.hadoop/etc/hadoop/mapred-site.xml配置,查看mapred.job.tracker里面的ip和port,用以配置Map/Reduce Master

  2.hadoop/etc/hadoop/core-site.xml配置,查看fs.default.name里面的ip和port,用以配置DFS Master

  3.用戶名直接寫hadoop操作用戶即可

  

  到此配置就完成了,順利的話可以看到:

  

  新建hadoop工程.

  File】->【New】->【Project...】->【Map/Reduce】->【Map/Reduce Project】->【Project name: WordCount】->【Configure Hadoop install directory...】->【Hadoop installation directory: D:\nlsoftware\hadoop\hadoop-2.7.2】->【Apply】->【OK】->【Next】->【Allow output folders for source folders】->【Finish】

  工程下建立三個類,分別是Mapper,Reduce,和main

  TestMapper

package bb;import java.io.IOException; import java.util.StringTokenizer;import org.apache.hadoop.io.IntWritable; import org.apache.hadoop.io.Text; import org.apache.hadoop.mapreduce.Mapper; import org.apache.hadoop.mapreduce.Mapper.Context;public class TestMapper extends Mapper<Object, Text, Text, IntWritable>{private final static IntWritable one = new IntWritable(1);private Text word = new Text();public void map(Object key, Text value, Context context) throws IOException, InterruptedException {StringTokenizer itr = new StringTokenizer(value.toString());while (itr.hasMoreTokens()) {word.set(itr.nextToken());context.write(word, one);}}}

?

  TestReducer

package bb;import java.io.IOException;import org.apache.hadoop.io.IntWritable; import org.apache.hadoop.io.Text; import org.apache.hadoop.mapreduce.Reducer; import org.apache.hadoop.mapreduce.Reducer.Context;public class TestReducer extends Reducer<Text,IntWritable,Text,IntWritable> {private IntWritable result = new IntWritable();public void reduce(Text key, Iterable<IntWritable> values, Context context) throws IOException, InterruptedException {int sum = 0;for (IntWritable val : values) {sum += val.get();}result.set(sum);context.write(key, result);}}

  WordCount

package bb;import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.Path; import org.apache.hadoop.io.IntWritable; import org.apache.hadoop.io.Text; import org.apache.hadoop.mapreduce.Job; import org.apache.hadoop.mapreduce.lib.input.FileInputFormat; import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat; import org.apache.hadoop.util.GenericOptionsParser;public class WordCount {public static void main(String[] args) throws Exception {Configuration conf = new Configuration();String[] otherArgs = new GenericOptionsParser(conf, args).getRemainingArgs();if (otherArgs.length != 2) {System.err.println("Usage: wordcount <in> <out>");System.exit(2);}Job job = new Job(conf, "word count");job.setJarByClass(WordCount.class);job.setMapperClass(TestMapper.class);job.setCombinerClass(TestReducer.class);job.setReducerClass(TestReducer.class);job.setOutputKeyClass(Text.class);job.setOutputValueClass(IntWritable.class);FileInputFormat.addInputPath(job, new Path(otherArgs[0]));FileOutputFormat.setOutputPath(job, new Path(otherArgs[1]));System.exit(job.waitForCompletion(true) ? 0 : 1);}}

  我在hdfs的input里面新建了兩個tex文件,這時候可以用來測試,也可以用其他的文件測試.所以我的參數如圖:

  

  hdfs://192.168.85.2:9000/input/* hdfs://192.168.85.2:9000/output6

  -Xms512m -Xmx1024m -XX:MaxPermSize=256m

  稍作解釋,參入的兩個參數,一個是輸入文件,一個是輸出結果文件.指定正確目錄即可. output6文件夾的名字是我隨便寫的.會自動創建

  那么到了最后也是最關鍵的一步.我run as hadoop時遇到了

Server IPC version 9 cannot communicate with client version 4

?

  報錯.這是提示版本不對,我一看.遠程hadoop版本與jar包版本不同導致的.遠程是2.7.2的.所以我把hadoop相關jar包改為該版本即可(2.*版本的應該都可以,沒有的話相近的也可以用)

  然后錯誤換了一個

Exception in thread "main" ExitCodeException exitCode=-1073741515:

  經過查閱資料發現這是因為window本地的hadoop沒有winutils.exe導致的.原來本地hadoop的機理要去調用這個程序.我們先要去下載2.7的winutils.exe然后使得其運行沒錯才可以.

  下載之后發現需要hadoop.dll文件.暈.再次下載并放在c:\windows\System32目錄下.

  然而我的winutils.exe還是無法啟動,這個雖然是我的電腦問題.但是想來有些人還是會遇到(簡單說一下).

  報錯缺少msvcr120.dll.下載之后再去啟動提示,"應用程序無法正常啟動0xc000007b".

  這是內存錯誤引起的.下載DirectX_Repair修復directx終于解決了問題,最后成功啟動了hadoop程序.

  有同學可能能夠啟動winutils.exe但還是不能正常跑應用程序,依然報錯,可以嘗試修改權限驗證.

  修改hadoop/etc/hadoop/hdfs-site.xml

  添加內容

<property> <name>dfs.permissions</name> <value>false</value> </property>

?  取消權限驗證.

?

總結

以上是生活随笔為你收集整理的myeclipse连接hadoop集群编程及问题解决的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

主站蜘蛛池模板: 免费黄网在线观看 | 中文字幕无码精品亚洲35 | 亚洲国产aⅴ成人精品无吗 日韩乱论 | 色天使在线视频 | 超在线视频 | 欧美涩涩视频 | 日韩一区二区三区在线观看视频 | 免费看欧美黑人毛片 | 天天射天天色天天干 | 9cao| 青青草97国产精品免费观看 | 亚洲午夜片 | 日韩欧美一级在线 | 高h喷水荡肉少妇爽多p视频 | 人人妻人人澡人人爽国产一区 | 久久久久久久999 | 午夜av电影在线观看 | 人人草在线观看 | 色一情一乱一伦一区二区三区 | 免费黄色在线网站 | 欧美性啪啪 | 小仙女av | av资源站最新av | 波多野结衣中文字幕久久 | 香蕉视频亚洲一级 | 国产精品久久免费视频 | 久久国产精品久久久久久电车 | 男生和女生差差的视频 | 国产第4页| 精品字幕| 色倩网站 | 国产在线不卡视频 | 黄色资源在线播放 | 那个网站可以看毛片 | 尤物精品 | 国产色播av在线 | 起碰在线| 天天添天天射 | www久久99 | 一起草视频在线播放 | 涩色视频 | 麻豆国产精品视频 | 久操福利在线 | 婷婷色综合网 | 狠狠干2018 | 欧美一卡二卡 | 成人免费在线观看av | jizz黑人| 久久大胆视频 | 亚洲综合在线中文字幕 | 先锋影视av | 亚洲第一成人在线 | 成年人在线观看视频网站 | jizzjizz在线播放 | 蜜臀久久99精品久久一区二区 | 狠狠插狠狠操 | 1000亚洲裸体人体 | 福利网址在线观看 | 97自拍网| 九色丨蝌蚪丨成人 | 性歌舞团一区二区三区视频 | 亚洲一区二区高清视频 | 久久女人天堂 | 亚洲一区二区三区电影 | 成人网页在线观看 | 亚洲色图二区 | 欧美日韩视频在线观看免费 | 国模小黎自慰gogo人体 | 人人爽视频 | 欧美视频网址 | av青青草| 我和我的太阳泰剧在线观看泰剧 | 视色av| 日本丰满少妇做爰爽爽 | 日韩精品1区2区 | 成人看片免费 | 久久青青视频 | 亚洲成人一二三 | av综合导航 | 日韩av综合网 | 91精品国产成人www | 少妇一级淫免费放 | 亚洲av熟女高潮一区二区 | 捆绑黑丝美女 | 日韩黄色精品视频 | 欧美黄色a视频 | 欧美日韩一区二区三区四区五区六区 | 精品久久久久久久久久久国产字幕 | 国产精品国产精品国产专区 | 少妇太紧太爽又黄又硬又爽 | 天天色综 | 黄页在线观看 | 麻豆av网站 | 日本中文字幕观看 | 国产网站91 | 亚洲精品国产精品乱码不99按摩 | 成人黄色激情网 | 韩国久久久久 | 日韩熟妇一区二区三区 |