MapReduce--倒排索引

來源:互聯網
上載者:User
文檔倒排演算法簡介

Inverted Index(倒排索引)是目前幾乎所有支援全文檢索索引的搜尋引擎都要依賴的一個資料結構。基於索引結構,給出一個詞(term),能取得含有這個term的文檔列表(the list of documents)
Web Search中的問題主要分為三部分: crawling(gathering web content) ,網頁爬蟲,收集資料 indexing(construction of the inverted index) ,根據大量資料構建倒排索引結構 retrieval(ranking documents given a query),根據一個搜尋單詞進行索引並對結果進行排序,比如可以根據詞頻多少來排
crawling和indexing都是離線的,retrieval是線上、即時的。
此處有個問題,索引結構會如何進行儲存呢。
給定一個單詞,如何快速得到結果呢。
一般可以採用兩種儲存方式,一種是hash鏈表,還有一種則是B(B+)樹。
說起儲存我就想到我同學面試時被問到一個問題:a~z26個單詞如何儲存能快速索引。
(⊙﹏⊙)b居然是26叉樹,好喪心病狂啊。 基本的倒排索引結構

實驗任務

請實現課堂上介紹的“帶詞頻屬性的文檔倒排演算法”。
在統計詞語的倒排索引時,除了要輸出帶詞頻屬性的倒排索引,還請計算每個詞語的“平均
提及次數”(定義見下)並輸出。
“平均提及次數”在這裡定義為:
平均提及次數= 詞語在全部文檔中出現的頻數總和/ 包含該詞語的文檔數
假如文檔集中有四本小說:A、B、C、D。詞語“江湖”在文檔A 中出現了100 次,在文檔B
中出現了200 次,在文檔C 中出現了300 次,在文檔D 中沒有出現。則詞語“江湖”在該文
檔集中的“平均提及次數”為(100 + 200 + 300) / 3 = 200。

輸出格式
對於每個詞語,輸出兩個索引值對,兩個索引值對的格式如下:
[詞語] \TAB 詞語1:詞頻, 詞語2:詞頻, 詞語3:詞頻, …, 詞語100:詞頻
[詞語] \TAB 平均提及次數
下圖展示了輸出檔案的一個片段(圖中內容僅為格式樣本):
設計

倒排索引可以看做是wordcount的拓展,它需要統計一個單詞在多個檔案中出現的次數,那麼它的Mapper和Reducer該如何設計呢。
很自然地我們會想到
Mapper: 對於檔案file中任一word, Key = word, Value = fileName + 1.

Reduer: 對於輸入Key, Iterable(Text) Values, 統計Values中每個Value,記錄出現的fileName以及頻數.

這裡有個問題,它需要假定對於一個相同的Key,Mapper給出的輸出 design trick: value-to-key conversion

Value到Key的轉換
比如說對於原來的(term, (docid, tf))可以將value中的docid放到key中從而得到
新的索引值對((term, docid), tf)。
這樣具有相同key值的索引值對數目就降低啦。

關於Mapper裡邊的代碼我遇到兩個問題:
1.用空格 ” “來對line做分詞,在最後的輸出結果裡邊會出現空白單詞,很奇怪,雖然我在輸出的時候加了token為” “或”\t”的時候都不輸出,但是最後結果裡邊還是有空白單詞,匪夷所思誒。
2.Mapper的輸出如果採用((term:docid), tf)的形式,使用“:”來分隔term和docid,那麼在Combiner裡邊如果我使用”:”來分隔key(也就是下邊錯誤的Mapper方式),那麼得到的String個數有時候長度居然<2,所以我現在使用”->”來進行分隔。

public static class InverseIndexMapper extends Mapper<LongWritable, Text, Text, Text>{        @Override        protected void map(LongWritable key, Text value,                Context context)                throws IOException, InterruptedException {            // TODO Auto-generated method stub            String line = value.toString();            String[] strTokens = line.split(" ");            FileSplit inputSplit = (FileSplit)context.getInputSplit();            Path path = inputSplit.getPath();            String pathStr = path.toString();            int index = pathStr.lastIndexOf("/");            String strFileName = pathStr.substring(index + 1);             for (String token : strTokens){                if (token != " " && token != "\t"){                    context.write(new Text(token + "->" + strFileName), new Text("1"));                }            }        }    }
Combiner的使用

為了減少Mapper的輸出,從而降低Mapper到Reducer的傳輸開銷以及儲存開銷,使用Combiner是個好方法,相當於是在每個Mapper結束之後先進行一次Reducer將結果匯總一下。
這裡是將相同文檔的相同term的詞頻統計一下。
我看到過有這樣一種處理方法,它為了Reducer方便處理,所以將Mapper的輸出從<

public static class InverseIndexCombiner extends Reducer<Text, Text, Text, Text>{        @Override        protected void reduce(Text key, Iterable<Text> values,                Context context)                throws IOException, InterruptedException {            // TODO Auto-generated method stub            String strKey = key.toString();            String[] tokens = strKey.split("->");            int freq = 0;            for (Text value : values){                freq++;            }            context.write(new Text(tokens[0]), new Text(tokens[1] + "->" + freq));        }    }

正確的如下

public static class InverseIndexCombiner extends Reducer<Text, Text, Text, Text>{        @Override        protected void reduce(Text key, Iterable<Text> values,                Context context)                throws IOException, InterruptedException {            // TODO Auto-generated method stub            int freq = 0;            for (Text value : values){                freq++;            }            context.write(key, new Text("" + freq));        }    }
Partitioner的設計

因為value-to-key conversion,Mapper的輸出中key變為了(term, docid)。如果採用預設的Partitioner,那麼具有相同term,不同docid的項很可能會被劃分到不同的Reducer,這與初衷是違背的啊,所以需要自訂一個Partitioner,用key中的term作為劃分的依據。
這裡有個小問題,如果我採用Combiner中的錯誤方式,將Combiner的輸出重新變化為了(term, (docid, tf)),那麼是否還需要自訂Partitioner了呢。
答案是需要的,看來Partitioner的判斷依據不是Combiner的輸出啦。

public static class InverseIndexPartitioner extends HashPartitioner<Text, Text>{        @Override        public int getPartition(Text key, Text value, int numReduceTasks) {            // TODO Auto-generated method stub            String strKey = key.toString();            String[] tokens = strKey.split("->");            return super.getPartition(new Text(tokens[0]), value, numReduceTasks);        }    }
Reducer的設計

根據Mapper傳來的輸出( (term, docid), tf),這裡需要進行的處理便是將具有相同term的索引值對聚集在一起,並重組成( term , (docid1:tf1, docid2:tf2, …) )的輸出形式。 採用靜態變數strWord來記錄上一次reduce過程中的term ; 採用靜態變數map記錄靜態變數strWord對應的docid:tf對; 處理reduce過程時,首先將key分割出term以及fileName, 判斷term是否與strWord相等, 如果相等,首先累計額values,得到docid,tf對之後加入map; 否則將strWord,map輸出,並清空map,strWord賦值為term,處理當前docid,tf,並加入map; 因為最後一次reduce過程不可能將它自己的資料輸出,所以需要重載cleanup函數在裡邊進行輸出 還有一點需要注意,String的相等判斷用“==”是不行的哦,如果用了“==”而不是“equals”,會出現什麼後果呢。

public static class InverseIndexReducer extends Reducer<Text, Text, Text, Text>{        static Map<String, Integer> map = new HashMap<String, Integer>();        static String strWord = null;        @Override        protected void reduce(Text key, Iterable<Text> values,                Context context)                throws IOException, InterruptedException {            // TODO Auto-generated method stub                String[] tokens = key.toString().split("->");                if (strWord == null){                    strWord = tokens[0];                }                 if (strWord.equals(tokens[0])){                    String strFileName = tokens[1];                    int freq = 0;                    for (Text value : values){                        freq += Integer.parseInt(value.toString());                    }                    map.put(strFileName, freq);                } else {                    String strNewValue = "";                    double aveFreq = 0;                    for (Map.Entry<String, Integer> entry : map.entrySet()){                        strNewValue += entry.getKey() + ":" + entry.getValue() + ",";                        aveFreq += (double)entry.getValue();                    }                    aveFreq /= (double)map.size();                    Text newKey = new Text(strWord);                    map.clear();                    context.write(newKey, new Text(strNewValue));                    context.write(newKey, new Text("" + aveFreq));                    strWord = tokens[0];                    String strFileName = tokens[1];                    int freq = 0;                    for (Text value : values){                        freq += Integer.parseInt(value.toString());                    }                       map.put(strFileName, freq);                }        }        @Override        protected void cleanup(Reducer<Text, Text, Text, Text>.Context context)                throws IOException, InterruptedException {            // TODO Auto-generated method stub            String strNewValue = "";            double aveFreq = 0;            for (Map.Entry<String, Integer> entry : map.entrySet()){                strNewValue += entry.getKey() + ":" + entry.getValue() + ",";                aveFreq += (double)entry.getValue();            }            aveFreq /= (double)map.size();            Text newKey = new Text(strWord);            map.clear();            context.write(newKey, new Text(strNewValue));            context.write(newKey, new Text("" + aveFreq));            super.cleanup(context);        }    }
main函數
public static void main(String[] args) throws IOException, ClassNotFoundException, InterruptedException {        // TODO Auto-generated method stub        Configuration conf = new Configuration();        Job job = new Job(conf, "InverseIndex");        job.setJarByClass(InverseIndex.class);        job.setNumReduceTasks(4);        job.setMapperClass(InverseIndexMapper.class);        job.setCombinerClass(InverseIndexCombiner.class);        job.setPartitionerClass(InverseIndexPartitioner.class);        job.setReducerClass(InverseIndexReducer.class);        job.setOutputKeyClass(Text.class);        job.setOutputValueClass(Text.class);        job.setInputFormatClass(TextInputFormat.class);        job.setOutputFormatClass(TextOutputFormat.class);        FileInputFormat.setInputPaths(job, new Path(args[0]));        FileOutputFormat.setOutputPath(job, new Path(args[1]));        job.waitForCompletion(true);    }
運行結果


聯繫我們

該頁面正文內容均來源於網絡整理,並不代表阿里雲官方的觀點,該頁面所提到的產品和服務也與阿里云無關,如果該頁面內容對您造成了困擾,歡迎寫郵件給我們,收到郵件我們將在5個工作日內處理。

如果您發現本社區中有涉嫌抄襲的內容,歡迎發送郵件至: info-contact@alibabacloud.com 進行舉報並提供相關證據,工作人員會在 5 個工作天內聯絡您,一經查實,本站將立刻刪除涉嫌侵權內容。

A Free Trial That Lets You Build Big!

Start building with 50+ products and up to 12 months usage for Elastic Compute Service

  • Sales Support

    1 on 1 presale consultation

  • After-Sales Support

    24/7 Technical Support 6 Free Tickets per Quarter Faster Response

  • Alibaba Cloud offers highly flexible support services tailored to meet your exact needs.