大資料學習:Spark是什麼,如何用Spark進行資料分析

來源:互聯網
上載者:User

標籤:研究   技術   一個   概念   size   並行化   小夥伴   允許   src   

給大家分享一下Spark是什麼?如何用Spark進行資料分析,對大資料感興趣的小夥伴就隨著小編一起來瞭解一下吧。

  

大資料線上學習

什麼是Apache Spark?

Apache Spark是一個為速度和一般目標設計的叢集計算平台。

從速度的角度看,Spark從流行的MapReduce模型繼承而來,可以更有效地支援多種類型的計算,如互動式查詢和流處理。速度在大資料集的處理中非常重要,它可以決定使用者可以互動式地處理資料,還是等幾分鐘甚至幾小時。Spark為速度提供的一個重要特性是其可以在記憶體中運行計算,即使對基於磁碟的複雜應用,Spark依然比MapReduce更有效。

從通用性來說,Spark可以處理之前需要多個獨立的分布式系統來處理的任務,這些任務包括批處理應用、互動式演算法、互動式查詢和資料流。通過用同一個引擎支援這些任務,Spark使得合并不同的處理類型變得簡單,而合併作業在生產資料分析中頻繁使用。而且,Spark降低了維護不同工具的管理負擔。

Spark被設計的高度易訪問,用Python、Java、Scala和SQL提供簡單的API,而且提供豐富的內建庫。Spark也與其他大資料工具進行了整合。特別地,Spark可以運行在Hadoop的叢集上,可以訪問任何Hadoop的資料來源,包括Cassandra。

Spark 核心組件

Spark核心組件包含Spark的準系統,有任務調度組件、記憶體管理組件、容錯恢複組件、與儲存系統互動的組件等。Spark核心組件提供了定義彈性分布式資料集(resilient distributed datasets,RDDs)的API,這組API是Spark主要的編程抽象。RDDs表示分布在多個不同機器節點上,可以被平行處理的資料集合。Spark核心組件提供許多API來建立和操作這些集合。

Spark SQLSpark SQL是Spark用來處理結構化資料的包。它使得可以像Hive查詢語言(Hive Query Language, HQL)一樣通過SQL語句來查詢資料,支援多種資料來源,包括Hive表、Parquet和JSON。除了為Spark提供一個SQL介面外,Spark SQL允許開發人員將SQL查詢和由RDDs通過Python、Java和Scala支援的資料編程操作混合進一個單一的應用中,進而將SQL與複雜的分析結合。與計算密集型環境緊密整合使得Spark SQL不同於任何其他開源的資料倉儲工具。Spark SQL在Spark 1.0版本中引入Spark。

Shark是一個較老的由加利福尼亞大學和伯克利大學開發的Spark上的SQL項目,通過修改Hive而運行在Spark上。現在已經被Spark SQL取代,以提供與Spark引擎和API更好的整合。

Spark流(Spark Streaming)Spark流作為Spark的一個組件,可以處理即時資料流資料。流資料的例子有生產環境的Web伺服器產生的記錄檔,使用者向一個Web服務要求包含狀態更新的訊息。Spark流提供一個和Spark核心RDD API非常匹配的操作資料流的API,使得編程人員可以更容易地瞭解項目,並且可以在操作記憶體資料、磁碟資料、即時資料的應用之間快速切換。Spark流被設計為和Spark核心組件提供相同層級的容錯性,輸送量和延展性。

MLlibSpark包含一個叫做MLlib的關於機器學習的庫。MLlib提供多種類型的機器學習演算法,包括分類、迴歸、聚類和協同過濾,並支援模型評估和資料匯入功能。MLlib也提供一個低層的機器學習原語,包括一個通用的梯度下降最佳化演算法。所有這些方法都可以應用到一個叢集上。

GraphXGraphX是一個操作圖(如社交網路的好友圖)和執行基於圖的並行計算的庫。與Spark流和Spark SQL類似,GraphX擴充了Spark RDD API,允許我們用和每個節點和邊綁定的任意屬性來建立一個有向圖。GraphX也提供了各種各樣的操作圖的操作符,以及關於通用圖演算法的一個庫。

叢集管理器Cluster Managers在底層,Spark可以有效地從一個計算節點擴充到成百上千個節點。為了在最大化靈活性的同時達到這個目標,Spark可以運行在多個叢集管理器上,包括Hadoop YARN,Apache Mesos和一個包含在Spark中的叫做獨立調度器的簡易的叢集管理器。如果你在一個空的機器群上安裝Spark,獨立調度器提供一個簡單的方式;如果你已經有一個Hadoop YARN或Mesos叢集,Spark支援你的應用允許在這些叢集管理器上。第七章給出了不同的選擇,以及如何選擇正確的叢集管理器。

誰使用Spark?用Spark做什麼?

由於Spark是一個面向叢集計算的通用架構,可用於許多不同的應用。使用者主要有兩種:資料科學家和資料工程師。我們仔細地分析一下這兩種人和他們使用Spark的方式。明顯地,典型的使用案例是不同的,但我們可以將他們粗略地分為兩類,資料科學和資料應用。

資料科學的任務資料科學,近幾年出現的一門學科,專註於分析資料。儘管沒有一個標準的定義,我們認為一個資料科學家的主要工作是分析和建模資料。資料科學家可能會SQL,統計學,預測模型(機器學習),用Python、MATLAB或R編程。資料科學家能將資料格式化,用於進一步的分析。

資料科學家為了回答一個問題或進行深入研究,會使用相關的技術分析資料。通常,他們的工作包含特殊的分析,所以他們使用互動式shell,以使得他們能在最短的時間內看到查詢結果和程式碼片段。Spark的速度和簡單的API介面很好地符合這個目標,它的內建庫意味著很多演算法可以隨時使用。

Spark通過若干組件支援不同的資料科學任務。Spark shell使得用Python或Scala進行互動式資料分析變得簡單。Spark SQL也有一個獨立的SQL shell,可以用SQL進行資料分析,也可以在Spark程式中或Spark shell中使用Spark SQL。MLlib庫支援機器學習和資料分析。而且,支援調用外部的MATLAB或R語言編寫的程式。Spark使得資料科學家可以用R或Pandas等工具處理包含大量資料的問題。

有時,經過初始的資料處理階段後,資料科學家的工作將被產品化,擴充,加固(容錯性),進而成為一個生產資料處理應用,作為商業應用的一個組件。例如,一個資料科學家的研究成果可能會產生一個產品推薦系統,整合到一個web應用上,用來向使用者產生產品建議。通常由另外的人員(如工程師)對資料科學家的工作進行產品化。

資料處理應用Spark的另外一個主要的使用可以從工程師的角度進行描述。在這裡,工程師指使用Spark來構建生產資料處理應用的大量的軟體開發人員。這些開發人員瞭解軟體工程的概念和原則,如封裝、介面設計和物件導向編程。他們通常有電腦學科的學位。他們通過自己的軟體工程技能來設計和構建實現某個商業使用情境的軟體系統。

對工程師而言,Spark提供了一個簡單的方式在叢集之間並行化這些應用,隱藏了分布式系統、網路通訊和容錯處理的複雜性。系統使得工程師在實現任務的同時,有充足的許可權監控、檢查和調整應用。API的模組特性使得重用已有工作和本地測試變得簡單。

Spark使用者使用Spark作為其資料處理應用,因為他提供了豐富的功能,易於學習和使用,而且成熟可靠。如果你已經做好準備,那麼就立即開始行動吧!

大家多多關注,你的關注是我最大的動力。

想學習大資料的可以加群:142973723

大資料學習:Spark是什麼,如何用Spark進行資料分析

相關文章

聯繫我們

該頁面正文內容均來源於網絡整理,並不代表阿里雲官方的觀點,該頁面所提到的產品和服務也與阿里云無關,如果該頁面內容對您造成了困擾,歡迎寫郵件給我們,收到郵件我們將在5個工作日內處理。

如果您發現本社區中有涉嫌抄襲的內容,歡迎發送郵件至: info-contact@alibabacloud.com 進行舉報並提供相關證據,工作人員會在 5 個工作天內聯絡您,一經查實,本站將立刻刪除涉嫌侵權內容。

A Free Trial That Lets You Build Big!

Start building with 50+ products and up to 12 months usage for Elastic Compute Service

  • Sales Support

    1 on 1 presale consultation

  • After-Sales Support

    24/7 Technical Support 6 Free Tickets per Quarter Faster Response

  • Alibaba Cloud offers highly flexible support services tailored to meet your exact needs.