hadoop cdh版本安裝snappy

來源:互聯網
上載者:User

標籤:snappy cdh hadoop

一.安裝 protobuf
ubuntu 系統
1 在 /etc/ld.so.conf.d/目錄下建立檔案 libprotobuf.conf 寫入內容 /usr/local/lib 否則會報 error while loading shared libraries: libprotoc.so.8: cannot open shared obj
2../configure make&&make install
2.驗證安裝完成
protoc --version
libprotoc 2.5.0

二.安裝 snappy 本地庫
http://www.filewatcher.com/m/snappy-1.1.1.tar.gz.1777992-0.html
下載snappy-1.1.1.tar.gz
解壓 ./configure
make&& makeInstall

檢查/usr/local/lib
libsnappy.a
libsnappy.la
libsnappy.so
libsnappy.so.1
libsnappy.so.1.2.0

三.編譯 cdh hadoop的源碼。(加入snappy支援)
下載連結http://archive.cloudera.com/cdh5/cdh/5/

hadoop-2.6.0-cdh5.11.0-src.tar.gz
解壓。使用maven編譯
4.檢查檔案
hadoop-2.6.0-cdh5.11.0/hadoop-dist/target/hadoop-2.6.0-cdh5.11.0/lib/native
目錄下是否具有 hadoop的本地庫以及 snappy的本地庫

  1. 將此目錄下的檔案拷貝到hadoop叢集中的hadoop下的lib/native目錄和hbase下的lib/native/Linux-amd64-64目錄下,沒有則建立,各節點均需拷貝。

cp ~apk/hadoop-2.6.0-cdh5.11.0/hadoop-dist/target/hadoop-2.6.0-cdh5.11.0/lib/native/* ~/app/hadoop/lib/native/

6.將本地庫同步到其他節點
7.配置 hadoop的 core-site.xml
加入
<property>
<name>io.compression.codecs</name>
<value>org.apache.hadoop.io.compress.GzipCodec,org.apache.hadoop.io.compress.DefaultCodec,org.apache.hadoop.io.compress.BZip2Codec,org.apache.hadoop.io.compress.SnappyCodec</value>
</property>

配置 mapred-site.xml
加入
<property>
<name>mapreduce.map.output.compress</name>
<value>true</value>
</property>
<property>
<name>mapreduce.map.output.compress.codec</name>
<value>org.apache.hadoop.io.compress.SnappyCodec</value>
</property>
<property>
<name>mapreduce.admin.user.env</name>
<value>LD_LIBRARY_PATH=/home/hadoop/app/hadoop/lib/native</value>
</property>
配置 hbase的 hbase-site.xml
加入
<property>
<name>hbase.block.data.cachecompressed</name>
<value>true</value>
</property>

8.重啟hadoop的hdfs與yarn
9.驗證snappy是否成功。
hadoop checknative

18/03/07 17:33:36 WARN bzip2.Bzip2Factory: Failed to load/initialize native-bzip2 library system-native, will use pure-Java version
18/03/07 17:33:36 INFO zlib.ZlibFactory: Successfully loaded & initialized native-zlib library
Native library checking:
hadoop: true /home/hadoop/app/hadoop/lib/native/libhadoop.so
zlib: true /lib/x86_64-linux-gnu/libz.so.1
snappy: true /home/hadoop/app/hadoop/lib/native/libsnappy.so.1
lz4: true revision:10301
bzip2: false
openssl: true /usr/lib/x86_64-linux-gnu/libcrypto.so

看到snappy已經成功支援

運行mapreduce任務
hadoop jar ~/app/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.6.0-cdh5.11.0.jar wordcount /input/gisData /output
如果正常運行。則證明 snappy沒有問題。如果有。
Exception in thread "main" java.lang.UnsatisfiedLinkError: org.apache.hadoop.util.NativeCodeLoader.buildSupportsSnappy()Z

請檢查mapred-site.xml 的本地庫配置

10 啟動hbase.
先建立一張snappy的表

create ‘snappyTest‘,{NAME=>‘f‘,COMPRESSION => ‘SNAPPY‘}
descibe ‘snappyTest‘

TTL => ‘FOREVER‘, COMPRESSION => ‘SNAPPY‘, MIN_VERSIONS => ‘0‘ 看到這個snappy就可以了。

重點是我們要壓縮現有的表
可以在shell外執行
$ echo "disable ‘snappyTest2‘" | hbase shell #禁用表
$ echo "desc ‘snappyTest2‘" | hbase shell #查看錶結構
$ echo "alter ‘snappyTest2‘,{NAME=>‘f‘,COMPRESSION => ‘SNAPPY‘} " | hbase shell #壓縮修改為snappy
$ echo "enable ‘snappyTest2‘" | hbase shell #使用該表
$ echo "major_compact ‘snappyTest2‘" | hbase shell #最好使該表的region compact一次

也可以hbase shell 進shell手動壓縮。壓縮後會發現 資料有40%左右的壓縮比

java代碼建立Hbase表只需要
HColumnDescriptor HColumnDesc = new HColumnDescriptor("data");
HColumnDesc.setCompressionType(Algorithm.SNAPPY);//這句是關鍵

hadoop cdh版本安裝snappy

相關文章

聯繫我們

該頁面正文內容均來源於網絡整理,並不代表阿里雲官方的觀點,該頁面所提到的產品和服務也與阿里云無關,如果該頁面內容對您造成了困擾,歡迎寫郵件給我們,收到郵件我們將在5個工作日內處理。

如果您發現本社區中有涉嫌抄襲的內容,歡迎發送郵件至: info-contact@alibabacloud.com 進行舉報並提供相關證據,工作人員會在 5 個工作天內聯絡您,一經查實,本站將立刻刪除涉嫌侵權內容。

A Free Trial That Lets You Build Big!

Start building with 50+ products and up to 12 months usage for Elastic Compute Service

  • Sales Support

    1 on 1 presale consultation

  • After-Sales Support

    24/7 Technical Support 6 Free Tickets per Quarter Faster Response

  • Alibaba Cloud offers highly flexible support services tailored to meet your exact needs.