Android之WebRTC介紹

來源:互聯網
上載者:User

標籤:

  • 原文連結 : Introduction to WebRTC on Android
  • 原文作者 : Dag-Inge Aas
  • 譯文出自 : appear.in
  • 譯者 : DorisMinmin
  • 狀態 :完成

WebRTC被譽為是web長期開源開發的一個新啟元,是近年來web開發的最重要創新。WebRTC允許Web開發人員在其web應用中添加視訊交談或者點對點資料轉送,不需要複雜的代碼或者昂貴的配置。目前支援Chrome、Firefox和Opera,後續會支援更多的瀏覽器,它有能力達到數十億的裝置。

然而,WebRTC一直被誤解為僅適合於瀏覽器。事實上,WebRTC最重要的一個特徵是允許本地和web應用間的互操作,很少有人使用到這個特性。

本文將探討如何在自己的Android應用中植入WebRTC,使用 WebRTC Initiative 中提供的本地庫。這邊文章不會講解如何使用訊號機制建立通話,而是重點探討Android與瀏覽器中實現的差異性和相似性。下文將講解Android中實現對應功能的一些介面。如果想要瞭解WebRTC的基礎知識,強烈推薦 Sam Dutton’s Getting started with WebRTC 。

項目中添加WebRTC

下面的講解基於Android WebRTC庫版本9127.

首先要做的是在應用中添加WebRTC庫。 WebRTC Initiative 提供了 一種簡潔的方式來編譯 ,但盡量不要採用那種方式。取而代之,建議使用原始的io編譯版本,可以從 maven central repository 中擷取。

添加WebRTC到工程中,需要在你的依賴中添加如下內容:

1 compile ‘io.pristine:libjingle:[email protected]‘

同步工程後,WebRTC庫就準備就緒。

許可權

同其他Android應用一樣,使用某些 API 需要申請相應許可權。WebRTC也不例外。製作的應用不同,或者需要的功能不同,例如音頻或者視頻,所需要的許可權集也是不同的。請確保按需申請!一個好的視訊交談應用許可權集如下:

1 <uses-feature android:name="android.hardware.camera" />2 <uses-feature android:name="android.hardware.camera.autofocus" />3 <uses-feature android:glEsVersion="0x00020000" android:required="true" />4 5 <uses-permission android:name="android.permission.CAMERA" />6 <uses-permission android:name="android.permission.RECORD_AUDIO" />7 <uses-permission android:name="android.permission.INTERNET" />8 <uses-permission android:name="android.permission.ACCESS_NETWORK_STATE" />9 <uses-permission android:name="android.permission.MODIFY_AUDIO_SETTINGS" />
燈光,攝影,工廠

在瀏覽器中使用WebRTC時,有一些功能完善、說明詳細的API可供使用。navigator.getUserMedia 和 RTCPeerConnection 包含了可能用到的幾乎所有功能。結合 <video> 標籤使用,可以顯示任何想要顯示的本地視頻流和遠程視頻流。

所幸的是Android上也有相同的API,雖然它們的名字有所不同。Android相關的API有 VideoCapturerAndroid , VideoRenderer , MediaStream , PeerConnection , 和PeerConnectionFactory 。下面我們將逐一講解。

在開始之前,需要建立PeerConnectionFactory,這是Android上使用WebRTC最核心的API。

PeerConnectionFactory

Android WebRTC最核心的類。理解這個類並瞭解它如何建立其他任何事情是深入瞭解Android中WebRTC的關鍵。它和我們期望的方式還是有所不同的,所以我們開始深入挖掘它。

首先需要初始化PeerConnectionFactory,如下:

// First, we initiate the PeerConnectionFactory with// our application context and some options.PeerConnectionFactory.initializeAndroidGlobals(    context,    initializeAudio,    initializeVideo,    videoCodecHwAcceleration,    renderEGLContext);

為了理解這個方法,需要瞭解每個參數的意義:

context

應用上下文,或者上下文相關的,和其他地方傳遞的一樣。

initializeAudio

是否初始化音訊布爾值。

initializeVideo

是否初始化視頻的布爾值。跳過這兩個就允許跳過請求API的相關許可權,例如資料通道應用。

videoCodecHwAcceleration

是否允許硬體加速的布爾值。

renderEGLContext

用來提供支援硬體視頻解碼,可以在視頻解碼線程中建立共用EGL上下文。可以為空白——在本文例子中硬體視頻解碼將產生yuv420幀而非texture幀。

initializeAndroidGlobals也是返回布爾值,true表示一切OK,false表示有失敗。如果返回false是最好的練習。更多資訊請參考 源碼 。

如果一切ok,可以使用PeerConnectionFactory 的建構函式建立自己的工廠,和其他類一樣。

1 PeerConnectionFactory peerConnectionFactory = new PeerConnectionFactory();
行動、擷取媒體流、渲染

有了 peerConnectionFactory 執行個體,就可以從使用者裝置擷取視頻和音頻,最終將其渲染到螢幕上。web中可以使用 getUserMedia 和 <video> 。在Android中,沒有這麼簡單,但可以有更多選擇!在Android中,我們需要瞭解VideoCapturerAndroid,VideoSource,VideoTrack和VideoRenderer,先從VideoCapturerAndroid開始。

VideoCapturerAndroid

VideoCapturerAndroid其實是一系列Camera API的封裝,為訪問網路攝影機裝置的流資訊提供了方便。它允許擷取多個網路攝影機裝置資訊,包括自拍,或者後置網路攝影機。

1  // Returns the number of camera devices                       2  VideoCapturerAndroid.getDeviceCount();                        3                                                              4  // Returns the front face device name                         5  VideoCapturerAndroid.getNameOfFrontFacingDevice();            6  // Returns the back facing device name                        7  VideoCapturerAndroid.getNameOfBackFacingDevice();             8                                                              9  // Creates a VideoCapturerAndroid instance for the device name10 VideoCapturerAndroid.create(name);

有了包含攝像流資訊的VideoCapturerAndroid執行個體,就可以建立從本地裝置擷取到的包含視頻流資訊的MediaStream,從而發送給另一端。但做這些之前,我們首先研究下如何將自己的視頻顯示到應用上面。

VideoSource/VideoTrack

從VideoCapturer執行個體中擷取一些有用資訊,或者要達到最終目標————為串連端擷取合適的媒體流,或者僅僅是將它渲染給使用者,我們需要瞭解VideoSource 和 VideoTrack類。

VideoSource 允許方法開啟、停止裝置捕獲視頻。這在為了延長電池壽命而禁止視頻捕獲的情況下比較有用。

VideoTrack 是簡單的添加VideoSource到MediaStream 對象的一個封裝。

我們通過代碼看看它們是如何一起工作的。 capturer 是VideoCapturer的執行個體,videoConstraints 是MediaConstraints的執行個體。

1  // First we create a VideoSource                                     2  VideoSource videoSource =                                            3          peerConnectionFactory.createVideoSource(capturer, videoConstraints);4                                                                       5  // Once we have that, we can create our VideoTrack                   6  // Note that VIDEO_TRACK_ID can be any string that uniquely          7  // identifies that video track in your application                   8  VideoTrack localVideoTrack =                                         9          peerConnectionFactory.createVideoTrack(VIDEO_TRACK_ID, videoSource);
AudioSource/AudioTrack

AudioSource 和 AudioTrack 與VideoSource和VideoTrack相似,只是不需要AudioCapturer 來擷取麥克風, audioConstraints 是 MediaConstraints的一個執行個體。

1  // First we create an AudioSource                                    2  AudioSource audioSource =                                            3          peerConnectionFactory.createAudioSource(audioConstraints);          4                                                                       5  // Once we have that, we can create our AudioTrack                   6  // Note that AUDIO_TRACK_ID can be any string that uniquely          7  // identifies that audio track in your application                   8  AudioTrack localAudioTrack =                                         9          peerConnectionFactory.createAudioTrack(AUDIO_TRACK_ID, audioSource);
VideoRenderer

通過在瀏覽器中使用WebRTC,你肯定已經熟悉了使用 <Video> 標籤來顯示出從 getUserMedia 方法得到的 MediaStream。但在本地Android中,沒有類似 <Video>的標籤。進入VideoRenderer,WebRTC庫允許通過 VideoRenderer.Callbacks 實現自己的渲染。另外,它提供了一種非常好的預設VideoRendererGui。簡而言之, VideoRendererGui 是一個 GLSurfaceView ,使用它可以繪製自己的視頻流。我們通過代碼看一下它是如何工作的,以及如何添加renderer 到 VideoTrack。

1   // To create our VideoRenderer, we can use the                           2   // included VideoRendererGui for simplicity                              3   // First we need to set the GLSurfaceView that it should render to       4   GLSurfaceView videoView = (GLSurfaceView) findViewById(R.id.glview_call);5                                                                            6   // Then we set that view, and pass a Runnable                            7   // to run once the surface is ready                                      8   VideoRendererGui.setView(videoView, runnable);                           9                                                                            10  // Now that VideoRendererGui is ready, we can get our VideoRenderer      11  VideoRenderer renderer = VideoRendererGui.createGui(x, y, width, height);12                                                                           13  // And finally, with our VideoRenderer ready, we                         14  // can add our renderer to the VideoTrack.                               15  localVideoTrack.addRenderer(renderer);

這裡要說明的一點是createGui 需要四個參數。這樣做是使一個單一的GLSurfaceView 渲染所有視頻成為可能。但在實際使用中我們使用了多個GLSurfaceViews,這意味為了渲染正常,x、y一直是0。這讓我們瞭解到實現過程中各個參數的意義。

MediaConstraints

MediaConstraints是支援不同約束的WebRTC庫方式的類,可以載入到MediaStream中的音頻和視頻軌道。具體參考 規範 查看支援列表。對於大多數需要MediaConstraints的方法,一個簡單的MediaConstraints執行個體就可以做到。

1  MediaConstraints audioConstraints = new MediaConstraints();

要添加實際約束,可以定義 KeyValuePairs ,並將其推送到約束的 mandatory或者 optional list。

MediaStream

現在可以在本地看見自己了,接下來就要想辦法讓對方看見自己。在web開發時,對 MediaStream 已經很熟悉了。 getUserMedia 直接返回MediaStream ,然後將其添加到RTCPeerConnection 傳送給對方。在Android上此方法也是通用的,只是我們需要自己建立MediaStream。 接下來我們就研究如何添加本地的VideoTrack 和AudioTrack來建立一個合適的MediaStream。

1   // We start out with an empty MediaStream object,                                             2   // created with help from our PeerConnectionFactory                                           3   // Note that LOCAL_MEDIA_STREAM_ID can be any string                                          4   MediaStream mediaStream = peerConnectionFactory.createLocalMediaStream(LOCAL_MEDIA_STREAM_ID);5                                                                                                 6   // Now we can add our tracks.                                                                 7   mediaStream.addTrack(localVideoTrack);                                                        8   mediaStream.addTrack(localAudioTrack);
Hi,有人在那裡嗎?

我們現在有了包含視頻流和音頻流的MediaStream執行個體,而且在螢幕上顯示了我們漂亮的臉龐。現在就該把這些資訊傳送給對方了。這篇文章不會介紹如何建立自己的訊號流,我們直接介紹對應的API方法,以及它們如何與web關聯的。 AppRTC 使用autobahn 使得WebSocket串連到訊號端。我建議下載下來這個項目來仔細研究下如何在Android中建立自己的訊號流。

PeerConnection

現在我們有了自己的MediaStream,就可以開始串連遠端了。幸運的是這部分和web上的處理很相似,所以如果對瀏覽器中的WebRTC熟悉的話,這部分就相當簡單了。建立PeerConnection很簡單,只需要PeerConnectionFactory的協助即可。

1  PeerConnection peerConnection = peerConnectionFactory.createPeerConnection(2           iceServers,                                                               3           constraints,                                                              4           observer);

參數的作用如下:

iceServers

串連到外部裝置或者網路時需要用到這個參數。在這裡添加STUN 和 TURN 伺服器就允許進行串連,即使在網路條件很差的條件下。

constraints

MediaConstraints的一個執行個體,應該包含 offerToRecieveAudio 和offerToRecieveVideo

observer

PeerConnectionObserver實現的一個執行個體。

PeerConnection 和web上的對應API很相似,包含了addStream、addIceCandidate、createOffer、createAnswer、getLocalDescription、setRemoteDescription 和其他類似方法。下載 WebRTC入門 來學習如何協調所有工作在兩點之間建立起通訊通道,或者 AppRTC 如何使得一個即時的功能完整的Android WebRTC應用工作的。我們快速探索一下這幾個重要的方法,看它們是如何工作的。

addStream

這個是用來將MediaStream 添加到PeerConnection中的,如同它的命名一樣。如果你想要對方看到你的視頻、聽到你的聲音,就需要用到這個方法。

addIceCandidate

一旦內部IceFramework發現有candidates允許其他方串連你時,就會建立IceCandidates 。當通過PeerConnectionObserver.onIceCandidate傳遞資料到對方時,需要通過任何一個你選擇的訊號通道擷取到對方的IceCandidates。使用addIceCandidate 添加它們到PeerConnection,以便PeerConnection可以通過已有資訊試圖串連對方。

createOffer/createAnswer

這兩個方法用於原始通話的建立。如你所知,在WebRTC中,已經有了caller和callee的概念,一個是呼叫,一個是應答。createOffer是caller使用的,它需要一個sdpObserver,它允許擷取和傳輸會話描述協議Session Description Protocol (SDP)給對方,還需要一個MediaConstraint。一旦對方得到了這個請求,它將建立一個應答並將其傳輸給caller。SDP是用來給對方描述期望格式的資料(如video、formats、codecs、encryption、resolution、 size等)。一旦caller收到這個應答資訊,雙方就相互建立的通訊需求達成了一致,如視頻、音頻、解碼器等。

setLocalDescription/setRemoteDescription

這個是用來設定createOffer和createAnswer產生的SDP資料的,包含從遠端擷取到的資料。它允許內部PeerConnection 配置連結以便一旦開始傳輸音頻和視頻就可以開始真正工作。

PeerConnectionObserver

這個介面提供了一種監測PeerConnection事件的方法,例如收到MediaStream時,或者發現iceCandidates 時,或者需要重建立立通訊時。這些在功能上與web相對應,如果你學習過相關web開發理解這個不會很困難,或者學習 WebRTC入門 。這個介面必須被實現,以便你可以有效處理收到的事件,例如當對方變為可見時,向他們發送訊號iceCandidates。

結束語

如上所述,如果你瞭解了如何與web相對應,Android上面的API是非常簡單易懂的。有了以上這些工具,我們就可以開發出一個WebRTC相關產品,立即部署到數十億裝置上。

WebRTC開啟了人與人之間的通訊,對開發人員免費,對終端使用者免費。 它不僅僅提供了視訊交談,還有其他應用,比如健康服務、低延遲檔案傳輸、種子下載、甚至遊戲應用。

想要看到一個真正的WebRTC應用執行個體,請下載 Android 或 ios 版的appear.in。它在瀏覽器和本地應用間啟動並執行相當完美,在同一個房間內最多可以8個人免費使用。不需要安裝和註冊。

Android之WebRTC介紹

聯繫我們

該頁面正文內容均來源於網絡整理,並不代表阿里雲官方的觀點,該頁面所提到的產品和服務也與阿里云無關,如果該頁面內容對您造成了困擾,歡迎寫郵件給我們,收到郵件我們將在5個工作日內處理。

如果您發現本社區中有涉嫌抄襲的內容,歡迎發送郵件至: info-contact@alibabacloud.com 進行舉報並提供相關證據,工作人員會在 5 個工作天內聯絡您,一經查實,本站將立刻刪除涉嫌侵權內容。

A Free Trial That Lets You Build Big!

Start building with 50+ products and up to 12 months usage for Elastic Compute Service

  • Sales Support

    1 on 1 presale consultation

  • After-Sales Support

    24/7 Technical Support 6 Free Tickets per Quarter Faster Response

  • Alibaba Cloud offers highly flexible support services tailored to meet your exact needs.