日本搞逼视频_黄色一级片免费在线观看_色99久久_性明星video另类hd_欧美77_综合在线视频

國內最全IT社區平臺 聯系我們 | 收藏本站
阿里云優惠2
您當前位置:首頁 > 服務器 > 【Hadoop基礎教程】7、Hadoop之一對一關聯查詢

【Hadoop基礎教程】7、Hadoop之一對一關聯查詢

來源:程序員人生   發布時間:2015-04-09 08:56:38 閱讀次數:2616次

我們都知道1個產品唯1對應1個單價,本案例將通過兩種類型輸入文件:product類(產品)和price類(價格)進行1對1的關聯查詢,得到產品名(例如:手表)與產品價格(例如:$100)的關聯信息。

開發環境


硬件環境:Centos 6.5 服務器4臺(1臺為Master節點,3臺為Slave節點)
軟件環境:Java 1.7.0_45、hadoop⑴.2.1

1、 Map進程


首先使用默許的TextInputFormat類對輸入文件進行處理,得到文本中每行的偏移量及其內容并存入

2、 Reduce進程


Reduce進程首先對輸入

3、 驅動實現


驅動核心代碼實現以下,詳細源碼請參考:ProductJoinPricesrccomzonesion ablejoinProductJoinPrice.java。

    public static void main(String[] args) throws Exception {
        Configuration conf = new Configuration();
        String[] otherArgs = new GenericOptionsParser(conf,args).getRemainingArgs();
        if(otherArgs.length != 3){
            System.err.println("Usage:Join <productTableDir> <priceTableDir> <output>");
        }
        //定義Job
        Job job = new Job(conf,"join productTable and priceTable");
        //定義輸入文件路徑:商品表 & 價格表
        FileInputFormat.addInputPath(job, new Path(otherArgs[0]));//<productTableDir>
        FileInputFormat.addInputPath(job, new Path(otherArgs[1]));//<priceTableDir>
        //定義輸出文件路徑
        FileOutputFormat.setOutputPath(job, new Path(otherArgs[2]));//<output>
        //設置Jar運行入口類和Mapper類和Reducer類
        job.setJarByClass(ProductJoinPrice.class);
        job.setMapperClass(MapperClass.class);
        job.setReducerClass(ReducerClass.class);
        //設置輸出文件的key和value類型
        job.setOutputKeyClass(Text.class);
        job.setOutputValueClass(Text.class);
        System.exit(job.waitForCompletion(true) ? 0 : ⑴);
    }

4、部署運行


1)啟動Hadoop集群

[hadoop@K-Master ~]$ start-dfs.sh
[hadoop@K-Master ~]$ start-mapred.sh
[hadoop@K-Master ~]$ jps
5283 SecondaryNameNode
5445 JobTracker
5578 Jps
5109 NameNode

2)部署源碼

#設置工作環境
[hadoop@K-Master ~]$ mkdir -p /usr/hadoop/workspace/MapReduce
#部署源碼
將ProductJoinPrice文件夾拷貝到/usr/hadoop/workspace/MapReduce/ 路徑下;

… 你可以直接 下載 ProductJoinPrice

3)編譯文件

#切換工作目錄
[hadoop@K-Master ~]$ cd /usr/hadoop/workspace/MapReduce/ProductJoinPrice
#編譯文件
[hadoop@K-Master ProductJoinPrice]$ javac -classpath /usr/hadoop/hadoop-core⑴.2.1.jar:/usr/hadoop/lib/commons-cli⑴.2.jar -d bin src/com/zonesion/tablejoin/ProductJoinPrice.java
[hadoop@K-Master ProductJoinPrice]$ ls bin/com/zonesion/tablejoin/ -la
總用量 12
drwxrwxr-x 2 hadoop hadoop  110 7月  31 17:19 .
drwxrwxr-x 3 hadoop hadoop   22 7月  31 17:19 ..
-rw-rw-r-- 1 hadoop hadoop 1770 7月  31 17:39 ProductJoinPrice.class
-rw-rw-r-- 1 hadoop hadoop 2134 7月  31 17:39 ProductJoinPrice$CommonReduce.class
-rw-rw-r-- 1 hadoop hadoop 2375 7月  31 17:39 ProductJoinPrice$PreMapper.class

4)打包jar文件

[hadoop@K-Master ProductJoinPrice]$ jar -cvf ProductJoinPrice.jar -C bin/ .
added manifest
adding: com/(in = 0) (out= 0)(stored 0%)
adding: com/zonesion/(in = 0) (out= 0)(stored 0%)
adding: com/zonesion/tablejoin/(in = 0) (out= 0)(stored 0%)
adding: com/zonesion/tablejoin/ProductJoinPrice$MapperClass.class(in = 2277) (out= 967)(deflated 57%)
adding: com/zonesion/tablejoin/ProductJoinPrice.class(in = 1897) (out= 970)(deflated 48%)
adding: com/zonesion/tablejoin/ProductJoinPrice$ReducerClass.class(in = 1999) (out= 880)(deflated 55%)

5)上傳輸入文件

#創建product輸入文件夾
[hadoop@K-Master ProductJoinPrice]$ hadoop fs -mkdir ProductJoinPrice/input/product/
#創建price輸入文件夾
[hadoop@K-Master ProductJoinPrice]$ hadoop fs -mkdir ProductJoinPrice/input/price/
#上傳文件到product文件夾
[hadoop@K-Master ProductJoinPrice]$ hadoop fs -put input/product* ProductJoinPrice/input/product/
#上傳文件到price文件夾
[hadoop@K-Master ProductJoinPrice]$ hadoop fs -put input/price* ProductJoinPrice/input/price/

6)運行Jar文件

[hadoop@K-Master ProductJoinPrice]$ hadoop jar ProductJoinPrice.jar com.zonesion.tablejoin.ProductJoinPrice ProductJoinPrice/input/product/ ProductJoinPrice/input/price/ ProductJoinPrice/output
14/08/01 09:32:53 INFO input.FileInputFormat: Total input paths to process : 4
14/08/01 09:32:53 INFO util.NativeCodeLoader: Loaded the native-hadoop library
14/08/01 09:32:53 WARN snappy.LoadSnappy: Snappy native library not loaded
14/08/01 09:32:54 INFO mapred.JobClient: Running job: job_201408010921_0004
14/08/01 09:32:55 INFO mapred.JobClient:  map 0% reduce 0%
14/08/01 09:32:57 INFO mapred.JobClient:  map 50% reduce 0%
14/08/01 09:32:59 INFO mapred.JobClient:  map 100% reduce 0%
14/08/01 09:33:06 INFO mapred.JobClient:  map 100% reduce 100%
14/08/01 09:33:06 INFO mapred.JobClient: Job complete: job_201408010921_0004
14/08/01 09:33:06 INFO mapred.JobClient: Counters: 29
......

7)查看輸出結果

[hadoop@K-Master ProductJoinPrice]$ hadoop fs -ls ProductJoinPrice/output
Found 3 items
-rw-r--r--   1 hadoop supergroup   0 2014-08-01 09:33 /user/hadoop/ProductJoinPrice/output/_SUCCESS
drwxr-xr-x   - hadoop supergroup  0 2014-08-01 09:32 /user/hadoop/ProductJoinPrice/output/_logs
-rw-r--r--   1 hadoop supergroup   107 2014-08-01 09:33 /user/hadoop/ProductJoinPrice/output/part-r-00000
[hadoop@K-Master ProductJoinPrice]$ hadoop fs -cat ProductJoinPrice/output/part-r-00000
手表      $100
休閑帽 $200
移動硬盤    $300
u盤      $900
3星手機    $800
聯想筆記本   $2000
錢包      $100

您可能喜歡

【Hadoop基礎教程】5、Hadoop之單詞計數
【Hadoop基礎教程】6、Hadoop之單表關聯查詢
【Hadoop基礎教程】7、Hadoop之1對1關聯查詢
【Hadoop基礎教程】8、Hadoop之1對多關聯查詢
【Hadoop基礎教程】9、Hadoop之倒排索引

生活不易,碼農辛苦
如果您覺得本網站對您的學習有所幫助,可以手機掃描二維碼進行捐贈
程序員人生
------分隔線----------------------------
分享到:
------分隔線----------------------------
關閉
程序員人生
主站蜘蛛池模板: 亚洲国产精品久久久久秋霞不卡 | 国产黄色大片 | 精品视频在线观看 | av片在线免费播放 | 欧美亚洲福利 | 国产视频久久久久久久 | 久久久免费精品视频 | 久久九精品 | 日韩不卡在线视频 | 高清欧美精品xxxxx在线看 | 国产精品v亚洲精品v日韩精品 | 亚洲一区二区高潮无套美女 | 欧美九九 | 欧美一二区 | 岳的好大精品一区二区三区 | 久久久久一区二区 | 深夜成人在线 | 在线观看视频免费播放 | 成人av影院| 国产区在线看 | 成人毛片在线观看 | 欧美专区日韩专区 | 欧美一区二区三区在线视频 | 国产一区二区三区四区五区3d | 色网站女女| 亚洲福利精品 | 国产性av | 久久精品视频观看 | av毛片在线播放 | 国内精品视频 | 国产91在线视频 | 国产网站av | 国产成人视屏 | 亚洲嫩草 | 久久69| 91精品久久久久久久久青青 | 中文字幕一区二区三区免费视频 | 欧美日韩激情在线 | 青青草一区 | 在线免费看黄 | 日韩激情一区二区 |