elasticsearch與mongodb分布式叢集環境下資料同步

來源:互聯網
上載者:User

標籤:

1.Elasticsearch是什麼

     Elasticsearch 是一個基於Lucene構建的開源、分布式,RESTful搜尋引擎。它的服務是為具有資料庫和Web前端的應用程式提供附加的組件(即可搜尋的存放庫)。Elasticsearch為應用程式提供搜尋演算法和相關的基礎架構,使用者只需要將應用程式中的資料上傳到Elasticsearch資料存放區中,就可以通過RESTful URL與其互動。Elasticsearch的架構明顯不同於它之前的其他搜尋引擎架構,因為它是通過水平伸縮的方式來構建的。不同於Solr,它在設計之初的目標就是構建分布式平台,這使得它能夠和雲技術以及大資料技術的崛起完美吻合。Elasticsearch構建在更穩定的開源搜尋引擎Lucene之上,它的工作方式與無模式的JSON文檔資料非常類似。

 

 Elasticsearch的關鍵特徵

 

  •   RESTful風格

 

在所有的Elasticsearch的介紹中都不可避免的提到了它是一種具有RESTful特點的搜尋引擎。那麼什麼是RESTful呢?REST(Representational State Transfer具象狀態傳輸)是一種針對網路應用的設計和開發方式,可以降低開發的複雜性並提高系統的延展性。REST有一些設計概念和準則,凡是遵循這些準則所開發的應用即具備RESTful風格。在REST風格結構中,所有的請求都必須在一個由URL制定的具體地址的對象上進行。例如,如果用/schools/代表一系列學校的話,/schools/1就代表id為1的那所學校,依次類推。這種設計風格為使用者提供了一種簡單便捷的操作方式,使用者可以通過curl等RESTful API與Elasticsearch進行互動,避免了管理XML設定檔的麻煩。下面將簡單介紹

一下通過curl工具對Elasticsearch進行CRUD(增刪改查)操作。

l  索引構建

為了對一個JSON對象進行索引建立,需要向REST API提交PUT請求,在請求中指定由索引名稱,type名稱和ID組成的URL。即

http://localhost:9200/<index>/<type>/[<id>]

例如:curl -XPUT "http://localhost:9200/movies/movie/1" -d‘

{

   "title": "The Godfather",

   "director": "Francis Ford Coppola",

    "year":1972

}‘

l  通過ID獲得索引資料

向已經構建的索引發送GET請求,即http://localhost:9200/<index>/<type>/<id>

例如:curl -XGET "http://localhost:9200/movies/movie/1" -d‘‘

後面不帶參數時 -d‘‘不要也可以

l  刪除文檔

通過ID指定的索引刪除單個文檔。URL和索引建立、擷取時相同。

例如:curl -XDELETE "http://localhost:9200/movies/movie/1" -d‘‘

 

 

  •   Elasticsearch採用Gateway的概念,使得全備份變得更簡單。

 

由於Elasticsearch是專門為分布式環境設計的,所以怎麼去對所有節點的索引資訊進行持久化是個問題。當然,除了索引資訊以外,還有叢集資訊,mapping和交易記錄等都需要進行持久化。當你的節點出現故障或者叢集重啟的時候,這些資訊就變得非常重要。Elasticsearch中有一個專門的gateway模組負責元資訊的持久化儲存。(Solr裡邊是不是通過Zookeeper在管理這部分?)

 

  • Elasticsearch支援facetting(facetedsearch,分面搜尋)和precolating

 

分面是指事物的多維度屬性。例如一本書包含主題、作者、年代等方面。而分面搜尋是指通過事物的這些屬性不斷篩選、過濾搜尋結果的方法。當然這點在Lucene中已經得到了實現,所以Solr也支援faceted searching。至於precolating特性則是Elasticsearch設計中的一大亮點。Precolator(過濾器)允許你在Elasticsearch中執行與上文檔、建立索引、執行查詢這樣的常規操作恰恰相反的過程。通過Precolate API,可以在索引上註冊許多查詢,然後向指定的文檔發送prelocate請求,返回匹配該文檔的註冊查詢。舉個簡單的例子,假設我們想擷取所有包含了”elasticsearch”這個詞的tweet,則可以在索引上註冊一個query語句,在每一條tweet上過濾使用者註冊的查詢,可以獲得匹配每條tweet的那些查詢。下面是一個簡單的樣本:

首先,建立一個索引:

curl –XPUT localhost:9200/test

接著,註冊一個對test索引的precolator 查詢,制定的名稱為kuku

---該處在本機測試不成功,還沒找到原因---

curl –XPUT localhost:9200/_precolator/test/kuku –d’{

“query”:{

         “term”:{

                   “field1”:”value1”

         }

}

}’

現在,可以過濾一個文本看看哪些查詢跟它是匹配的

crul –XGETlocalhost:9200/test/type/_precolate –d’{

“doc”:{

         “filed1”:”value1”

}

}’

得到的返回結構如下

{“ok”: true, “matches”: [“kuku”]}

--end--

 

  • Elasticsearch的分布式特點

 

Elasticsearch不同於Solr,從設計之初就是面向分布式的應用環境,因此具備很多便於搭建分布式應用的特點。例如索引可以被劃分為多個分區,每個分區可以有多個副本,每一個節點可以持有一個或多個分區,自動實現負載平衡和分區副本的路由。另外,Elasticsearch具有self-contained的特點,不必使用Tomcat等servlet容器。Elasticsearch的叢集是自發現、自管理的(通過內建的Zen discovery模組實現),配置十分簡單,只要在config/elasticsearch.yml中配置相同的cluster.name即可。

 

  • 支援多種資料來源

 

Elasticsearch有一個叫做river的外掛程式式模組,可以將外部資料源中的資料匯入elasticsearch並在上面建立索引。River在叢集上是單例模式的,它被自動分配到一個節點上,當這個節點掛掉後,river會被自動分配到另外的一個節點上。目前支援的資料來源包括:Wikipedia, MongoDB, CouchDB, RabbitMQ, RSS, Sofa, JDBC, FileSystem,Dropbox等。River有一些指定的規範,依照這些規範可以開發適合於自己的應用資料的外掛程式。

2 elasticsearch如何建立的資料來源串連?

     Elasticsearch通過river建立與各個資料來源之間的串連。例如mongodb,這種串連方式多半是以第三方外掛程式的方式,由一些開源貢獻者貢獻出來的外掛程式建立與各種類型的資料管理系統以及MQ等建立river,索引資料的。本文主要研究的是MONGODB與ES的結合,用的是richardwilly98開發的river。

https://github.com/richardwilly98/elasticsearch-river-mongodb

 

3 mongodb 叢集環境搭建詳見:http://blog.csdn.net/huwei2003/article/details/404531594 elasticsearch 如何對真正分布式mongodb叢集建立river,並且索引資料 
1.  首先下載並且解壓Elasticsearch
  1. unzip elasticsearch-0.90.5.zip  

2 下載並且解壓elasticsearch-servicewrapper-master.zip
  1. unzip elasticsearch-servicewrapper-master.zip  
  1. cd elasticsearch-servicewrapper-master  
  2. mv service /root/gy/elasticsearch-0.90.5/bin  
3 啟動elasticsearch 
  1. sh elasticsearch start  
4 下載river外掛程式
  1. ./plugin --install com.github.richardwilly98.elasticsearch/elasticsearch-river-mongodb/1.7.1  
這裡值得一提的是river的版本必須與mongodb 和Elasticsearch匹配,如果不匹配,那麼river的時候不能將mongodb裡面所有的資料index進入es。匹配規則請見下方:本次測試用的是 es 1.1.2 + mongodb 2.4.6
https://github.com/richardwilly98/elasticsearch-river-mongodb
5 建立river
  1. curl -XPUT "http://localhost:9200/_river/mongodb/_meta" -d‘  
  2. {  
  3.     "type":"mongodb",  
  4.     "mongodb":{  
  5.         "servers":[{"host":“192.168.225.131","port":37017}],  
  6.         "db":"dbname",  
  7.         "collection":"collectionname",  
  8.         "gridfs":false,  
  9.         "options":{  
  10.             "include_fields":["_id","VERSION","ACCESSION","file"]  
  11.         }  
  12.     },     
  13.     "index":{  
  14.         "name":"indexname",  
  15.         "type":"meta"  
  16.     }  
  17. }‘  
註: index 裡 name 為索引名 要小寫,type 裡的meta 為 collection name由於本次測試使用的是mongodb sharding 叢集環境,所以在river串連時,使用mongos 路由,就能夠正常的把mongo叢集中的所有資料都建立索引。gridfs,options 可不設定 

#curl 方式建立river (並建立resume索引)
curl -XPUT "localhost:9200/_river/tbJobResume/_meta" -d ‘
{
"type": "mongodb",
"mongodb": {
    "host": "192.168.225.131",
    "port": "37017",
    "db": "MongoModelJobResume",
    "collection": "tbJobResume"
},
"index": {
    "name": "resume",
    "type": "tbJobResume"} }‘

說明:_river/tbJobResume  tbJobResume 我用的是表名,建立每個索引的時候最好不同 -d 後面的 ‘內容‘兩個單引號不要丟了
type 後面是 mongodb 因為用的是 mongodb 資料庫

mongodb: 分別是 ip,port,db(name),collection 就不用解釋了

index: name 要建立的索引名,最好是小寫(應該是必須)

index:type collection名,即該索引對應的資料集合名

驗證:
curl "http://localhost:9200/_river/tbJobResume/_meta"
這樣就建好了resume索引,mongodb如果有資料也會同步過來

特別注意:如果tbJobResume表中有欄位是地理座標,需要map成geo_point類型,在建立索引前設定mapping,如下:

curl -XPUT ‘http://localhost:9200/resume‘ -d ‘
{
    "mappings": {
    "tbJobResume": {
      "properties": {
        "Location": {
          "type": "geo_point"
        }
      }
    }
  }
}‘

設定完後在建立索引


---下面是建的另外一個索引---
curl -XPUT "localhost:9200/_river/tbJobPosition/_meta" -d ‘
{
"type": "mongodb",
"mongodb": {
    "host": "192.168.225.131",
    "port": "37017",
    "db": "MongoModelJob",
    "collection": "tbJobPosition"
},
"index": {
    "name": "position",
    "type": "tbJobPosition"} }‘

curl "http://localhost:9200/_river/tbJobPosition/_meta"

---------------
#curl put索引資料

curl -XPUT "http://localhost:9200/customer/tbCustomer/1" -d‘
{
   "_id": 1,
   "Name": "Francis Ford Coppola 1",
    "Sex":1
}‘
該方法會建立customer索引並put進一條資料,tbCustomer是type

curl -XPUT ‘http://192.168.225.131:9200/dept/employee/32‘ -d ‘{ "empname": "emp32"}‘
curl -XPUT ‘http://192.168.225.131:9200/dept/employee/31‘ -d ‘{ "empname": "emp31"}‘

該方法也會建立dept索引並put進一條資料,employee是type

建立river並索引的變准模版如下:

$ curl -XPUT "localhost:9200/_river/${es.river.name}/_meta" -d ‘
{
  "type": "mongodb",
  "mongodb": { 
    "servers":
    [
      { "host": ${mongo.instance1.host}, "port": ${mongo.instance1.port} },
      { "host": ${mongo.instance2.host}, "port": ${mongo.instance2.port} }
    ],
    "options": { 
      "secondary_read_preference" : true, 
      "drop_collection": ${mongo.drop.collection}, 
      "exclude_fields": ${mongo.exclude.fields},
      "include_fields": ${mongo.include.fields},
      "include_collection": ${mongo.include.collection},
      "import_all_collections": ${mongo.import.all.collections},
      "initial_timestamp": {
        "script_type": ${mongo.initial.timestamp.script.type},
        "script": ${mongo.initial.timestamp.script}
      },
      "skip_initial_import" : ${mongo.skip.initial.import},
      "store_statistics" : ${mongo.store.statistics},
    },
    "credentials":
    [
      { "db": "local", "user": ${mongo.local.user}, "password": ${mongo.local.password} },
      { "db": "admin", "user": ${mongo.db.user}, "password": ${mongo.db.password} }
    ],
    "db": ${mongo.db.name}, 
    "collection": ${mongo.collection.name}, 
    "gridfs": ${mongo.is.gridfs.collection},
    "filter": ${mongo.filter}
  }, 
  "index": { 
    "name": ${es.index.name}, 
    "throttle_size": ${es.throttle.size},
    "bulk_size": ${es.bulk.size},
    "type": ${es.type.name}
    "bulk": {
      "actions": ${es.bulk.actions},
      "size": ${es.bulk.size},
      "concurrent_requests": ${es.bulk.concurrent.requests},
      "flush_interval": ${es.bulk.flush.interval}
    }
  }
}‘

--template end--

--url--

本外掛程式git地址:https://github.com/laigood/elasticsearch-river-mongodb

 6 測試例子串連mongo叢集,meta collection資料量有22394792條資料

查看ES資料量

最後我在master1 master2 master3上都建立了Elasticsearch,並且3台es rebalance成功,並且資料的總數任然為22394792. 

  

  • 上一篇Elasticsarch及外掛程式安裝
  • 下一篇linux下redis的安裝及配置啟動

elasticsearch與mongodb分布式叢集環境下資料同步

聯繫我們

該頁面正文內容均來源於網絡整理,並不代表阿里雲官方的觀點,該頁面所提到的產品和服務也與阿里云無關,如果該頁面內容對您造成了困擾,歡迎寫郵件給我們,收到郵件我們將在5個工作日內處理。

如果您發現本社區中有涉嫌抄襲的內容,歡迎發送郵件至: info-contact@alibabacloud.com 進行舉報並提供相關證據,工作人員會在 5 個工作天內聯絡您,一經查實,本站將立刻刪除涉嫌侵權內容。

A Free Trial That Lets You Build Big!

Start building with 50+ products and up to 12 months usage for Elastic Compute Service

  • Sales Support

    1 on 1 presale consultation

  • After-Sales Support

    24/7 Technical Support 6 Free Tickets per Quarter Faster Response

  • Alibaba Cloud offers highly flexible support services tailored to meet your exact needs.