這是一個建立於 的文章,其中的資訊可能已經有所發展或是發生改變。
http://qing.blog.sina.com.cn/2294942122/88ca09aa33002ele.html
簡介
多核處理器越來越普及,那有沒有一種簡單的辦法,能夠讓我們寫的軟體釋放多核的威力?答案是:Yes。隨著Golang, Erlang, Scale等為並發設計的程式語言的興起,新的併發模式逐漸清晰。正如過程式編程和物件導向一樣,一個好的編程模式需要有一個極其簡潔的核心,還有在此之上豐富的外延,可以解決現實世界中各種各樣的問題。本文以GO語言為例,解釋其中核心、外延。
併發模式之核心
這種併發模式的核心只需要協程和通道就夠了。其中協程負責執行代碼,通道負責在協程之間傳遞事件。
並發編程一直以來都是個非常困難的工作。要想編寫一個良好的並發程式,我們不得不瞭解線程,鎖,semaphore,barrier甚至CPU更新快取的方式,而且他們個個都有怪脾氣,處處是陷阱。筆者除非萬不得以,決不會自己操作這些底層並發元素。一個簡潔的併發模式不需要這些複雜的底層元素,只需協程和通道就夠了。
協程是輕量級的線程。在過程式編程中,當調用一個過程的時候,需要等待其執行完才返回。而調用一個協程的時候,不需要等待其執行完,會立即返回。協程十分輕量,Go語言可以在一個進程中執行有數以十萬計的協程,依舊保持高效能。而對於普通的平台,一個進程有數千個線程,其CPU會忙於環境切換,效能急劇下降。隨意建立線程可不是一個好主意,但是我們可以大量使用的協程。
通道是協程之間的資料轉送通道。通道可以在眾多的協程之間傳遞資料,具體可以值也可以是個引用。通道有兩種使用方式。
· 協程可以試圖向通道放入資料,如果通道滿了,會掛起協程,直到通道可以為他放入資料為止。
· 協程可以試圖向通道索取資料,如果通道沒有資料,會掛起協程,直到通道返回資料為止。
如此,通道就可以在傳遞資料的同時,控制協程的運行。有點像事件驅動,也有點像阻塞隊列。這兩個概念非常的簡單,各個語言平台都會有相應的實現。在Java和C上也各有庫可以實現兩者。
只要有協程和通道,就可以優雅的解決並發的問題。不必使用其他和並發有關的概念。那如何用這兩把利刃解決各式各樣的實際問題呢?
併發模式之外延
協程相較於線程,可以大量建立。開啟這扇門,我們拓展出新的用法,可以做產生器,可以讓函數返回“服務”,可以讓迴圈並發執行,還能共用變數。但是出現新的用法的同時,也帶來了新的棘手問題,協程也會泄漏,不恰當的使用會影響效能。下面會逐一介紹各種用法和問題。示範的代碼用GO語言寫成,因為其簡潔明了,而且支援全部功能。
產生器
有的時候,我們需要有一個函數能不斷產生資料。比方說這個函數可以讀檔案,讀網路,產生自增長序列,產生隨機數。這些行為的特點就是,函數的已知一些變數,如檔案路徑。然後不斷調用,返回新的資料。
下面產生隨機數為例,以讓我們做一個會並發執行的隨機數產生器。
非並發的做法是這樣的:
// 函數rand_generator_1 ,返回 int
funcrand_generator_1() int {
return rand.Int()
}
上面是一個函數,返回一個int。假如rand.Int()這個函數調用需要很長時間等待,那該函數的調用者也會因此而掛起。所以我們可以建立一個協程,專門執行rand.Int()。
// 函數rand_generator_2,返回通道(Channel)
funcrand_generator_2() chan int {
// 建立通道
out := make(chan int)
// 建立協程
go func() {
for {
//向通道內寫入資料,如果無人讀取會等待
out <- rand.Int()
}
}()
return out
}
funcmain() {
// 產生隨機數作為一個服務
rand_service_handler :=rand_generator_2()
// 從服務中讀取隨機數並列印
fmt.Printf("%d\n",<-rand_service_handler)
}
上面的這段函數就可以並發執行了rand.Int()。有一點值得注意到函數的返回可以理解為一個“服務”。但我們需要擷取隨機資料時候,可以隨時向這個服務取用,他已經為我們準備好了相應的資料,無需等待,隨要隨到。如果我們調用這個服務不是很頻繁,一個協程足夠滿足我們的需求了。但如果我們需要大量訪問,怎麼辦?我們可以用下面介紹的多工技術,啟動若干產生器,再將其整合成一個大的服務。
調用產生器,可以返回一個“服務”。可以用在持續擷取資料的場合。用途很廣泛,讀取資料,產生ID,甚至定時器。這是一種非常簡潔的思路,將程式並發化。
多工
多工是讓一次處理多個隊列的技術。Apache使用處理每個串連都需要一個進程,所以其並發效能不是很好。而Nginx使用多工技術,讓一個進程處理多個串連,所以並發效能比較好。同樣,在協程的場合,多工也是需要的,但又有所不同。多工可以將若干個相似的小服務整合成一個大服務。
那麼讓我們用多工技術做一個更高並發的隨機數產生器吧。
// 函數rand_generator_3 ,返回通道(Channel)
funcrand_generator_3() chan int {
// 建立兩個隨機數產生器服務
rand_generator_1 := rand_generator_2()
rand_generator_2 := rand_generator_2()
//建立通道
out := make(chan int)
//建立協程
go func() {
for {
//讀取產生器1中的資料,整合
out <-<-rand_generator_1
}
}()
go func() {
for {
//讀取產生器2中的資料,整合
out <-<-rand_generator_2
}
}()
return out
}
上面是使用了多工技術的高並發版的隨機數產生器。通過整合兩個隨機數產生器,這個版本的能力是剛才的兩倍。雖然協程可以大量建立,但是眾多協程還是會爭搶輸出的通道。Go語言提供了Select關鍵字來解決,各家也有各家竅門。加大輸出通道的緩衝大小是個通用的解決方案。
多工技術可以用來整合多個通道。提升效能和操作的便捷。配合其他的模式使用有很大的威力。
Future技術
Future是一個很有用的技術,我們常常使用Future來操作線程。我們可以在使用線程的時候,可以建立一個線程,返回Future,之後可以通過它等待結果。 但是在協程環境下的Future可以更加徹底,輸入參數同樣可以是Future的。
調用一個函數的時候,往往是參數已經準備好了。調用協程的時候也同樣如此。但是如果我們將傳入的參數設為通道,這樣我們就可以在不準備好參數的情況下調用函數。這樣的設計可以提供很大的自由度和並發度。函數調用和函數參數準備這兩個過程可以完全解耦。下面舉一個用該技術訪問資料庫的例子。
//一個查詢結構體
typequery struct {
//參數Channel
sql chan string
//結果Channel
result chan string
}
//執行Query
funcexecQuery(q query) {
//啟動協程
go func() {
//擷取輸入
sql := <-q.sql
//訪問資料庫,輸出結果通道
q.result <- "get" + sql
}()
}
funcmain() {
//初始化Query
q :=
query{make(chan string, 1),make(chan string, 1)}
//執行Query,注意執行的時候無需準備參數
execQuery(q)
//準備參數
q.sql <- "select * fromtable"
//擷取結果
fmt.Println(<-q.result)
}
上面利用Future技術,不單讓結果在Future獲得,參數也是在Future擷取。準備好參數後,自動執行。Future和產生器的區別在於,Future返回一個結果,而產生器可以重複調用。還有一個值得注意的地方,就是將參數Channel和結果Channel定義在一個結構體裡面作為參數,而不是返回結果Channel。這樣做可以增加彙總度,好處就是可以和多工技術結合起來使用。
Future技術可以和各個其他技術組合起來用。可以通過多工技術,監聽多個結果Channel,當有結果後,自動返回。也可以和產生器組合使用,產生器不斷生產資料,Future技術逐個處理資料。Future技術自身還可以首尾相連,形成一個並發的pipe filter。這個pipe filter可以用於讀寫資料流,操作資料流。
Future是一個非常強大的技術手段。可以在調用的時候不關心資料是否準備好,傳回值是否計算好的問題。讓程式中的組件在準備好資料的時候自動跑起來。
並發迴圈
迴圈往往是效能上的熱點。如果效能瓶頸出現在CPU上的話,那麼九成可能性熱點是在一個迴圈體內部。所以如果能讓迴圈體並發執行,那麼效能就會提高很多。
要並發迴圈很簡單,只有在每個迴圈體內部啟動協程。協程作為迴圈體可以並發執行。調用啟動前設定一個計數器,每一個迴圈體執行完畢就在計數器上加一個元素,調用完成後通過監聽計數器等待迴圈協程全部完成。
//建立計數器
sem :=make(chan int, N);
//FOR迴圈體
for i,xi:= range data {
//建立協程
go func (i int, xi float) {
doSomething(i,xi);
//計數
sem <- 0;
} (i, xi);
}
// 等待迴圈結束
for i := 0; i < N; ++i { <-sem }
上面是一個並發迴圈例子。通過計數器來等待迴圈全部完成。如果結合上面提到的Future技術的話,則不必等待。可以等到真正需要的結果的地方,再去檢查資料是否完成。
通過並發迴圈可以提供效能,利用多核,解決CPU熱點。正因為協程可以大量建立,才能在迴圈體中如此使用,如果是使用線程的話,就需要引入線程池之類的東西,防止建立過多線程,而協程則簡單的多。
ChainFilter技術
前面提到了Future技術首尾相連,可以形成一個並發的pipe filter。這種方式可以做很多事情,如果每個Filter都由同一個函數組成,還可以有一種簡單的辦法把他們連起來。
由於每個Filter協程都可以並發運行,這樣的結構非常有利於多核環境。下面是一個例子,用這種模式來產生素數。
// Aconcurrent prime sieve
packagemain
// Sendthe sequence 2, 3, 4, ... to channel 'ch'.
funcGenerate(ch chan<- int) {
for i := 2; ; i++ {
ch<- i // Send 'i' to channel 'ch'.
}
}
// Copythe values from channel 'in' to channel 'out',
//removing those divisible by 'prime'.
funcFilter(in <-chan int, out chan<- int, prime int) {
for {
i := <-in // Receive valuefrom 'in'.
if i%prime != 0 {
out <- i // Send'i' to 'out'.
}
}
}
// Theprime sieve: Daisy-chain Filter processes.
funcmain() {
ch := make(chan int) // Create a newchannel.
go Generate(ch) // Launch Generate goroutine.
for i := 0; i < 10; i++ {
prime := <-ch
print(prime, "\n")
ch1 := make(chan int)
go Filter(ch, ch1, prime)
ch = ch1
}
}
上面的程式建立了10個Filter,每個分別過濾一個素數,所以可以輸出前10個素數。
Chain-Filter通過簡單的代碼建立並發的過濾器鏈。這種辦法還有一個好處,就是每個通道只有兩個協程會訪問,就不會有激烈的競爭,效能會比較好。
共用變數
協程之間的通訊只能夠通過通道。但是我們習慣於共用變數,而且很多時候使用共用變數能讓代碼更簡潔。比如一個Server有兩個狀態開和關。其他僅僅希望擷取或改變其狀態,那又該如何做呢。可以將這個變數至於0通道中,並使用一個協程來維護。
下面的例子描述如何用這個方式,實現一個共用變數。
//共用變數有一個讀通道和一個寫通道組成
typesharded_var struct {
reader chan int
writer chan int
}
//共用變數維護協程
funcsharded_var_whachdog(v sharded_var) {
go func() {
//初始值
var value int = 0
for {
//監聽讀寫通道,完成服務
select {
case value =<-v.writer:
case v.reader <-value:
}
}
}()
}
funcmain() {
//初始化,並開始維護協程
v := sharded_var{make(chan int),make(chan int)}
sharded_var_whachdog(v)
//讀取初始值
fmt.Println(<-v.reader)
//寫入一個值
v.writer <- 1
//讀取新寫入的值
fmt.Println(<-v.reader)
}
這樣,就可以在協程和通道的基礎上實現一個協程安全的共用變數了。定義一個寫通道,需要更新變數的時候,往裡寫新的值。再定義一個讀通道,需要讀的時候,從裡面讀。通過一個單獨的協程來維護這兩個通道。保證資料的一致性。
一般來說,協程之間不推薦使用共用變數來互動,但是按照這個辦法,在一些場合,使用共用變數也是可取的。很多平台上有較為原生的共用變數支援,到底用那種實現比較好,就見仁見智了。另外利用協程和通道,可以還實現各種常見的並發資料結構,如鎖等等,就不一一贅述。
協程泄漏
協程和記憶體一樣,是系統的資源。對於記憶體,有自動記憶體回收。但是對於協程,沒有相應的回收機制。會不會若干年後,協程普及了,協程泄漏和記憶體流失一樣成為程式員永遠的痛呢?一般而言,協程執行結束後就會銷毀。協程也會佔用記憶體,如果發生協程泄漏,影響和記憶體流失一樣嚴重。輕則拖慢程式,重則壓垮機器。
C和C++都是沒有自動記憶體回收的程式設計語言,但只要有良好的編程習慣,就能解決規避問題。對於協程是一樣的,只要有好習慣就可以了。
只有兩種情況會導致協程無法結束。一種情況是協程想從一個通道讀資料,但無人往這個通道寫入資料,或許這個通道已經被遺忘了。還有一種情況是程想往一個通道寫資料,可是由於無人監聽這個通道,該協程將永遠無法向下執行。下面分別討論如何避免這兩種情況。
對於協程想從一個通道讀資料,但無人往這個通道寫入資料這種情況。解決的辦法很簡單,加入逾時機制。對於有不確定會不會返回的情況,必須加入逾時,避免出現永久等待。另外不一定要使用定時器才能終止協程。也可以對外暴露一個退出提醒通道。任何其他協程都可以通過該通道來提醒這個協程終止。
對於協程想往一個通道寫資料,但通道阻塞無法寫入這種情況。解決的辦法也很簡單,就是給通道加緩衝。但前提是這個通道只會接收到固定數目的寫入。比方說,已知一個通道最多隻會接收N次資料,那麼就將這個通道的緩衝設定為N。那麼該通道將永遠不會堵塞,協程自然也不會泄漏。也可以將其緩衝設定為無限,不過這樣就要承擔記憶體流失的風險了。等協程執行完畢後,這部分通道記憶體將會失去引用,會被自動記憶體回收掉。
funcnever_leak(ch chan int) {
//初始化timeout,緩衝為1
timeout := make(chan bool, 1)
//啟動timeout協程,由於緩衝為1,不可能泄露
go func() {
time.Sleep(1 * time.Second)
timeout <- true
}()
//監聽通道,由於設有逾時,不可能泄露
select {
case <-ch:
// a read from ch hasoccurred
case <-timeout:
// the read from ch has timedout
}
}
上面是個避免泄漏例子。使用逾時避免讀堵塞,使用緩衝避免寫堵塞。
和記憶體裡面的對象一樣,對於長期存在的協程,我們不用擔心泄漏問題。一是長期存在,二是數量較少。要警惕的只有那些被臨時建立的協程,這些協程數量大且生命週期短,往往是在迴圈中建立的,要應用前面提到的辦法,避免泄漏發生。協程也是把雙刃劍,如果出問題,不但沒能提高程式效能,反而會讓程式崩潰。但就像記憶體一樣,同樣有泄漏的風險,但越用越溜了。
併發模式之實現
在並發編程大行其道的今天,對協程和通道的支援成為各個平台比不可少的一部分。雖然各家有各家的叫法,但都能滿足協程的基本要求—並發執行和可大量建立。筆者對他們的實現方式總結了一下。
下面列舉一些已經支援協程的常見的語言和平台。
GoLang 和Scala作為最新的語言,一出生就有完善的基於協程並發功能。Erlang最為老資格的並發程式設計語言,返老還童。其他二線語言則幾乎全部在新的版本中加入了協程。
令人驚奇的是C/C++和Java這三個世界上最主流的平台沒有在對協程提供語言層級的原生支援。他們都背負著厚重的曆史,無法改變,也無需改變。但他們還有其他的辦法使用協程。
Java平台有很多方法實現協程:
· 修改虛擬機器:對JVM打補丁來實現協程,這樣的實現效果好,但是失去了跨平台的好處
· 修改位元組碼:在編譯完成後增強位元組碼,或者使用新的JVM語言。稍稍增加了編譯的難度。
· 使用JNI:在Jar包中使用JNI,這樣便於使用,但是不能跨平台。
· 使用線程類比協程:使協程重量級,完全依賴JVM的線程實現。
其中修改位元組碼的方式比較常見。因為這樣的實現辦法,可以平衡效能和移植性。最具代表性的JVM語言Scale就能很好的支援協程並發。流行的Java Actor模型類庫akka也是用修改位元組碼的方式實現的協程。
對於C語言,協程和線程一樣。可以使用各種各樣的系統調用來實現。協程作為一個比較進階的概念,實現方式實在太多,就不討論了。比較主流的實現有libpcl, coro,lthread等等。
對於C++,有Boost實現,還有一些其他開源庫。還有一門名為μC++語言,在C++基礎上提供了並發擴充。
可見這種編程模型在眾多的語言平台中已經得到了廣泛的支援,不再小眾。如果想使用的話,隨時可以加到自己的工具箱中。
結語
本文探討了一個極其簡潔的並行存取模型。在只有協程和通道這兩個基本元件的情況下。可以提供豐富的功能,解決形形色色實際問題。而且這個模型已經被廣泛的實現,成為潮流。相信這種並行存取模型的功能遠遠不及此,一定也會有更多更簡潔的用法出現。或許未來CPU核心數目將和人腦神經元數目一樣多,到那個時候,我們又要重新思考並行存取模型了。
關於作者
顏開,EMC中國研究院研究員,關注大資料,雲端運算等領域
微博: http://weibo.com/yankaycom