Python 並行分布式架構:Celery

來源:互聯網
上載者:User

標籤:

Celery (芹菜)是基於Python開發的分布式任務隊列。它支援使用任務隊列的方式在分布的機器/進程/線程上執行任務調度。

架構設計

Celery的架構由三部分組成,訊息中介軟體(message broker),任務執行單元(worker)和任務執行結果儲存(task result store)組成。

  • 訊息中介軟體

    Celery本身不提供Message Service,但是可以方便的和第三方提供的訊息中介軟體整合。包括,RabbitMQ, Redis, MongoDB (experimental), Amazon SQS (experimental),CouchDB (experimental), SQLAlchemy (experimental),Django ORM (experimental), IronMQ

  • 任務執行單元

    Worker是Celery提供的任務執行的單元,worker並發的運行在分布式的系統節點中。

  • 任務結果儲存

    Task result store用來儲存Worker執行的任務的結果,Celery支援以不同方式儲存任務的結果,包括AMQP, Redis,memcached, MongoDB,SQLAlchemy, Django ORM,Apache Cassandra, IronCache

另外, Celery還支援不同的並發和序列化的手段

  • 並發

    Prefork, Eventlet, gevent, threads/single threaded

  • 序列化

    picklejsonyamlmsgpackzlibbzip2 compression, Cryptographic message signing 等等

安裝和運行

Celery的安裝過程略為複雜,下面的安裝過程是基於我的AWS EC2的Linux版本的安裝過程,不同的系統安裝過程可能會有差異。大家可以參考官方文檔。

首先我選擇RabbitMQ作為訊息中介軟體,所以要先安裝RabbitMQ。作為安裝準備,先更新YUM。

?

1 sudo  yum -y update

RabbitMQ是基於erlang的,所以先安裝erlang

?

1 2 3 4 5 6 7 8 # Add and enable relevant application repositories: # Note: We are also enabling third party remi package repositories. wget http: //dl .fedoraproject.org /pub/epel/6/x86_64/epel-release-6-8 .noarch.rpm wget http: //rpms .famillecollet.com /enterprise/remi-release-6 .rpm sudo  rpm -Uvh remi-release-6*.rpm epel-release-6*.rpm   # Finally, download and install Erlang: yum  install  -y erlang

然後安裝RabbitMQ

?

1 2 3 4 5 6 # Download the latest RabbitMQ package using wget: wget   # Add the necessary keys for verification: rpm -- import   # Install the .RPM package using YUM: yum  install  rabbitmq-server-3.2.2-1.noarch.rpm

啟動RabbitMQ服務

?

1 rabbitmq-server start

RabbitMQ服務已經準備好了,然後安裝Celery, 假定你使用pip來管理你的python安裝包

?

1 pip  install  Celery

為了測試Celery是否工作,我們運行一個最簡單的任務,編寫tasks.py

?

1 2 3 4 5 6 7 8 from  celery  import  Celery   app  =  Celery( ‘tasks‘ , backend = ‘amqp‘ , broker = ‘amqp://[email protected]//‘ ) app.conf.CELERY_RESULT_BACKEND  =  ‘db+sqlite:///results.sqlite‘   @app .task def  add(x, y):      return  +  y

在目前的目錄運行一個worker,用來執行這個加法的task

?

1 celery -A tasks worker --loglevel=info

其中-A參數表示的是Celery App的名字。注意這裡我使用的是SQLAlchemy作為結果儲存。對應的python包要事先安裝好。

worker日誌中我們會看到這樣的資訊

?

1 2 3 4 5 - ** ---------- [config] - ** ---------- .> app:         tasks:0x1e68d50 - ** ---------- .> transport:   amqp: //guest :**@localhost :5672 // - ** ---------- .> results:     db+sqlite: ///results .sqlite - *** --- * --- .> concurrency: 8 (prefork)

其中,我們可以看到worker預設使用prefork來執行並發,並設定並發數為8

下面的任務執行的用戶端代碼:

?

1 2 3 4 5 6 7 8 9 from  tasks  import  add import  time result  =  add.delay( 4 , 4 )   while  not  result.ready():    print  "not ready yet"    time.sleep( 5 )   print  result.get()

用python執行這段用戶端代碼,在用戶端,結果如下

?

1 2 not ready    8

Work日誌顯示

?

1 2 [2015-03-12 02:54:07,973: INFO /MainProcess ] Received task: tasks.add[34c4210f-1bc5-420f-a421-1500361b914f] [2015-03-12 02:54:08,006: INFO /MainProcess ] Task tasks.add[34c4210f-1bc5-420f-a421-1500361b914f] succeeded  in  0.0309705100954s: 8

這裡我們可以發現,每一個task有一個唯一的ID,task非同步執行在worker上。

這裡要注意的是,如果你運行官方文檔中的例子,你是無法在用戶端得到結果的,這也是我為什麼要使用SQLAlchemy 來儲存任務執行結果的原因。官方的例子使用AMPQ,有可能Worker在列印日誌的時候取出了task的運行結果顯示在worker日誌中,然而 AMPQ作為一個訊息佇列,當訊息被取走後,隊列中就沒有了,於是用戶端總是無法得到任務的執行結果。不知道為什麼官方文檔對這樣的錯誤視而不見。

如果大家想要對Celery做更進一步的瞭解,請參考官方文檔


Python 並行分布式架構:Celery

相關文章

聯繫我們

該頁面正文內容均來源於網絡整理,並不代表阿里雲官方的觀點,該頁面所提到的產品和服務也與阿里云無關,如果該頁面內容對您造成了困擾,歡迎寫郵件給我們,收到郵件我們將在5個工作日內處理。

如果您發現本社區中有涉嫌抄襲的內容,歡迎發送郵件至: info-contact@alibabacloud.com 進行舉報並提供相關證據,工作人員會在 5 個工作天內聯絡您,一經查實,本站將立刻刪除涉嫌侵權內容。

A Free Trial That Lets You Build Big!

Start building with 50+ products and up to 12 months usage for Elastic Compute Service

  • Sales Support

    1 on 1 presale consultation

  • After-Sales Support

    24/7 Technical Support 6 Free Tickets per Quarter Faster Response

  • Alibaba Cloud offers highly flexible support services tailored to meet your exact needs.