Flask 是一個 Python 實現的 Web 開發微架構。這篇文章是一個講述如何用它實現傳送視頻資料流的詳細教程。
我敢肯定,現在你已經知道我在O'Reilly Media上發布了有關Flask的一本書和一些視頻資料。在這些上面,Flask架構介紹的覆蓋面是相當完整的,出於某種原因,也有一小部分的功能沒有太多的提到,因此我認為在這裡寫一篇介紹它們的文章是一個好主意。
這篇文章是專門介紹流媒體的,這個有趣的功能讓Flask應用擁有這樣一種能力,以分割成小資料區塊的方式,高效地為大型請求提供資料,這可能要花費較長的時間。為了說明這個主題,我將告訴你如何構建一個即時視頻流媒體伺服器!
什麼是流媒體?
流媒體是一種技術,其中,伺服器以資料區塊的形式響應請求。我能想到一個原因來解釋為什麼這個技術可能是有用的:
非常大的響應 。對於非常大的響應而言,記憶體中收集的響應只返回給用戶端,這是很低效的。另一種方法是將響應寫入磁碟,然後使用flask.send_file()返迴文件,但是這增加了I/O的組合。假設資料可以分塊產生,以小塊資料的方式給請求提供響應是一種更好的解決方案。
即時資料 。對於一些應用,需要請求返回的資料來自即時資料源。在這個方面一個非常好的例子就是提供一個即時視頻或音頻。很多安全攝像機使用這種技術將視頻資料流傳輸給Web瀏覽器。
使用Flask實現串流
Flask通過使用產生器函數對流式響應提供本機支援。產生器是一個特別的函數,它可以中斷和恢複。考慮一下下面的函數:
def gen(): yield 1 yield 2 yield 3
這是一個運行三步的函數,其中每步返回一個值。描述產生器如何?超出了本文的範圍,但如果你有點好奇,下面的shell會話將給你說明產生器是如何被使用的:
>>> x = gen()>>> x<generator object gen at 0x7f06f3059c30>>>> x.next()1>>> x.next()2>>> x.next()3>>> x.next()Traceback (most recent call last): File "<stdin>", line 1, in <module>StopIteration
在這個簡單的例子中你能看到,一個產生器函數可以順序得返回多個結果。Flask使用產生器 函數這一特性來實現串流。
下面的例子說明了如何使用串流能夠產生大的資料表,而不必將整個表放入記憶體中:
from flask import Response, render_templatefrom app.models import Stock def generate_stock_table(): yield render_template('stock_header.html') for stock in Stock.query.all(): yield render_template('stock_row.html', stock=stock) yield render_template('stock_footer.html') @app.route('/stock-table')def stock_table(): return Response(generate_stock_table())
在這個例子中,你能看到Flask和產生器函數是如何一起工作的。返迴流式響應的路由(route)需要返回一個由產生器函數初始化的Response對象。Flask然後採取調用產生器,並以分塊的方式吧結果發送給用戶端。
對於這個特殊的例子,如果你假設Stock.query.all()返回的資料庫查詢結果是一個迭代器,那麼你能一次產生一個潛在大表的一行,因此無論查詢中的字元數量有多少,Python過程中的記憶體消耗不會因為較大的響應字串而越來越大。
多部分響應
上文提到了表的例子以小塊的形式產生一個傳統網頁,各個的部分串連成最後的結果。對於如何產生較大的響應這是一個很好的例子,但更令人激動的事情是處理即時資料。
使用串流的一個有趣的應用是使用每個塊來替換原來頁面中的地方,這能使流在瀏覽器視窗中形成動畫。利用這種技術,你可以讓流中每個資料區塊成為一個映像,這給你提供了一個運行在瀏覽器中的很酷的視頻輸入訊號!
實現就地更新的秘密是使用多部分響應。多部分響應由一個前序(header)和很多部分(parts)組成。前序包括多部分中的一種內容類型,後面的部分由邊界標記分隔,每個部分中含有自身部分中的特定內容類型。
對於不同的需求,這裡有一些多部分內容類型。對於具有串流的,每個部分替換先前部分必須使用multipart/x-mixed-replace內容類型。為了協助你瞭解它到底是什麼樣子的,這裡有一個多部分視頻流傳輸的響應結構:
HTTP/1.1 200 OKContent-Type: multipart/x-mixed-replace; boundary=frame --frameContent-Type: image/jpeg <jpeg data here>--frameContent-Type: image/jpeg <jpeg data here>...
正如你上面看到的,這個結構非常簡單。主要的Content-Type頭被設為multipart/x-mixed-replace,同時邊界標記也被定義。然後每個部分中包括,有兩個虛線的首碼,及這行上的邊界字串。每個部分有自己的Content-Type頭,並且每個部分可以可選地包括一個說明所在部分有效載荷的位元組長度的Content-Length頭,但至少對映像瀏覽器而言,能夠處理沒有長度的流。
建立一個即時視頻流媒體伺服器
這篇文章中已經有足夠的理論,現在是時候來建立一個將即時視頻串流到Web瀏覽器的完整應用。
這裡有很多方法將視頻串流到瀏覽器,並且每個方法都有其優點和缺點。與Flask流特徵協同工作的一個好方法是串流獨立的JPEG圖片序列。這就是動態JPEG。這被用於許多IP監控攝像機。這種方法具有較短的延遲時間,但傳輸品質並不是最好的,因為對於動態影像而言,JPEG壓縮不是非常有效。
下面你可以看到一個非常簡單但完整的Web應用。它可以提供一個動態JPEG流傳輸:
#!/usr/bin/env pythonfrom flask import Flask, render_template, Responsefrom camera import Camera app = Flask(__name__) @app.route('/')def index(): return render_template('index.html') def gen(camera): while True: frame = camera.get_frame() yield (b'--framern' b'Content-Type: image/jpegrnrn' + frame + b'rn') @app.route('/video_feed')def video_feed(): return Response(gen(Camera()), mimetype='multipart/x-mixed-replace; boundary=frame') if __name__ == '__main__': app.run(host='0.0.0.0', debug=True)
這個應用匯入一個Camera類來負責提供幀序列。在這個例子中,將camera控制部分放入一個單獨的模組是一個很好的主意。這樣,Web應用會保持乾淨、簡單和通用。
該應用有兩個路由(route)。/路由為首頁服務,被定義在index.html模板中。下面你能看到這個模板檔案中的內容:
<html> <head> <title>Video Streaming Demonstration</title> </head> <body> <h1>Video Streaming Demonstration</h1> <img src="{{ url_for('video_feed') }}"> </body></html>
這是一個簡單的HTML頁面,只含有一個標題和映像標籤。注意這個映像標籤的src屬性指向這個應用的第二個路由,這就是魔法發生的地方。
/video_feed路由返迴流式響應。因為這個流返回要被展示在web頁面上的映像,在映像標籤的src屬性中,URL指向這個路由。因為大多數/所有瀏覽器支援多部分響應(如果你找到一個不支援這個的瀏覽器,請告訴我),瀏覽器會通過顯示JPEG映像流自動保持映像元素的更新。
在/video_feed路由中使用的產生器函數叫gen(),將Camera類的一個執行個體作為其參數。mimetype參數設定如上所示,並具有multipart/x-mixed-replace的內容類型和設為"frame"的邊界字串。
gen()函數進入一個迴圈,其中連續的從camera返回幀作為響應塊。如上所示,這個函數通過調用camera.get_frame()方法要求camera提供幀,然後產生幀,使用image/jpeg內容類型將該框架格式化為響應塊。
從攝像機擷取幀
現在,所有剩下的就是實現Camera類,這必須串連攝像機硬體並從中下載即時視訊框架。將這個應用硬體相關部分封裝在一個類中的好處是,對於不同的人這個類可以有不同的實現,而應用的其他部分保持不變。你可以把這個類當做一個裝置驅動,不管實際使用中的硬體裝置而提供一個統一的實現。
從應用的其餘部分分離出Camera類的另一個優點是,當實際上沒有攝像機時,很容易能騙過應用程式,讓它認為這裡有攝像機,因為camera類能被實現為類比攝像機而無需真實硬體。事實上,當我運行這個應用時,最簡單的方式是測試流能做那些,而不需擔心硬體,直到我已經使其他部分都正確運行。下面,你可以看到我使用的簡單類比攝像機實現:
from time import time class Camera(object): def __init__(self): self.frames = [open(f + '.jpg', 'rb').read() for f in ['1', '2', '3']] def get_frame(self): return self.frames[int(time()) % 3]
這個實現從磁碟中讀取三個映像1.jpg、2.jpg、3.jpg,然後以每秒一幀的速率重複的依次返回。get_frame()函數使用目前時間,以秒來確定在給定的時刻返回哪三個幀。很簡單吧?
要運行這個類比攝像機,我需要建立三個幀。我使用gimp做了下面的映像:
因為攝像機是類比的,你能在任何環境在運行這個應用!我將這個應用的所有檔案放在了GitHub。如果你熟悉git,你可以使用下面的命令複製它:
$ git clone https://github.com/miguelgrinberg/flask-video-streaming.git
如果你喜歡下載它,你可以在這裡得到一個zip檔案。
你安裝好這個應用後,建立一個虛擬環境並在裡面安裝Flask。然後你就可以使用下面的命令運行這個應用:
當你在你的Web瀏覽器中輸入http://localhost:5000啟動這個應用時,你會看到類比視頻流一遍遍地播放映像1、2、3。很酷吧?
有一次,應用中的所有都在運行,我啟動了樹莓派及其攝像機模組,並實現了一個新的Camera類來將樹莓派變成一個視頻流媒體伺服器,使用picamera包來控制硬體。我不會在這裡討論這個camera類的實現,但你可以在原始碼中的camera_pi.py檔案中找到。
如果你有一個樹莓派和一個攝像機模組,你可以編輯app.py檔案從這個模組中匯入Camera類,然後你就可以利用樹莓派即時傳輸視頻流,就像我在下面的截圖中所做的:
如果你想要讓這個流傳輸應用適用於不同的攝像機,那麼你要做的就是實現不同的Camera類。如果你最終能寫一個並提供給我的Github上的項目,我將不勝感激。
流的限制
當Flask應用伺服器提供常規請求時,請求周期短。背景工作執行緒(web worker)接收請求,調用處理函數並最終返迴響應。一旦響應被發送回用戶端,背景工作執行緒是閒置,並準備執行下一個請求。
當接收到一個使用串流的請求時,背景工作執行緒在整個串流的期間內綁定在一個用戶端上。當處理時間長而無止境的流時,比如來自攝像機的視頻流,背景工作執行緒將鎖定在一個用戶端直到該用戶端串連斷開。這實際上意味著,除非採取特殊手段,否則應用程式能服務的用戶端數量和背景工作執行緒是一樣的。當使用Flask應用的debug模式時,這意味著只有一個背景工作執行緒,因此你將無法同時串連兩個瀏覽器視窗來同時查看來自兩個不同地方的資料流。
這裡有辦法克服這一重要的限制。在我看來,最好的解決方案是使用基於協程的Web伺服器,如gevent,Flask完全支援它。通過使用協程gevent能夠在一個背景工作執行緒上處理多個用戶端,因為gevent修改Python I/O函數來進行必要的環境切換。
結論
如果你錯過了上面的內容,這篇文章中所包含的代碼放在了這個GitHub庫中:https://github.com/miguelgrinberg/flask-video-streaming。在這裡,你可以找到一個通用的視頻流傳輸實現而不需要一個攝像機,並且還有一個樹莓派網路攝影機模組實現。
我希望這篇文章闡述了一些有關流技術的話題。我關注於視頻流傳輸,因為這是一個我已有一些經驗的領域,但除了流媒體視頻之外,流傳輸技術還有很多其他的用途。例如,這種技術可以用來保持用戶端與伺服器之間較長時間的串連,允許伺服器推送新的資訊。這些日子,網路通訊端協議是實現這個更有效方式,但網路通訊端是相當新的,只在現代瀏覽器中有效,而流傳輸技術能在你能想到的任何瀏覽器中運用。