避免關注底層硬體,Nvidia將機器學習與GPU綁定

來源:互聯網
上載者:User
關鍵字 大資料 機器學習 Nvidia 深度學習 cuDNN

【編者按】Nvidia通過發佈cuDNN庫,將GPU和機器學習更加緊密的聯繫起來,同時實現了cuDNN與深度學習框架的直接整合,使得研究員能夠在這些框架上無縫利用GPU,忽略深度學習系統中的底層優化, 更多的關注于更高級的機器學習問題。

以下為譯文

近日,通過釋放一組名為cuDNN的庫,Nvidia將GPU與機器學習聯繫的更加緊密。 據悉,cuDNN可以與當下的流行深度學習框架直接整合。 Nvidia承諾,cuDNN可以説明使用者更加聚焦深度神經網路,避免在硬體性能優化上的苦工。

當下,深度學習已經被越來越多的大型網路公司、研究員,甚至是創業公司用於提升AI能力,代表性的有電腦視覺、文本檢索及語音辨識。 而包括電腦視覺等流行的領域都使用了圖形處理單元(GPU),因為每個GPU都包含了上千的核心,它們可以加快計算密集型演算法。

通過Nvidia瞭解到,cuDNN基於該公司的CUDA並行程式設計語言,可以在不涉及到模型的情況下與多種深度學習框架整合。 Nvidia的一位發言人透露了更多消息:

通過在Caffe、Theano、Torch7等主流機器學習框架上的研究,cuDNN允許研究員可以在這些框架上無縫利用GPU的能力,並預留了未來的發展空間。 舉個例子:在Caffe中整合cuDNN對終端使用者是不可見,只需要非常簡單的設置就可以完成這個操作,隨插即用是cuDNN的核心設計因素。





從更技術的角度看,cuDNN是一個低等級的庫,無需任何CUDA代碼就可以在host-code中調用,非常類似我們已經開發的CUDA cuBLAS和cuFFT庫。 通過cuDNN,使用者不必再關心以往深度學習系統中的底層優化,他們可以將注意力集中在更高級的機器學習問題,推動機器學習的發展。 同時基於cuDNN,代碼將以更快的速度運行。

不管是為了未來增長,還是「GPU不只用於電腦圖形渲染」這個長期目標,Nvidia在擁抱深度學習和機器學習上非常積極。 當下GPU的使用已經非常廣泛,機構使用它代替CPU以獲得更高的速度及更低的成本。

但是,仍然存在一些特定的因素抑制了CPU的長期發展。 其中一個就是替代架構,比如IBM的SyNAPSE和類似Nervana Systems一些初創公司的努力,比如,它們專門為神經網路和機器學習負載設計。 另一個則是現有的處理器架構,包括CPUs和FPGAs已經讓人們看到了未來機器學習負載上的能力。

雖然當下已經有很多雲供應商通過服務的形式提供了深度學習能力,但是機器深度學習離進入主流仍然有很大的距離。

原文連結: Nvidia stakes its claim in deep learning by making its GPUs easier to program(編譯/仲浩 審校/魏偉)

免費訂閱「CSDN雲計算(左)和CSDN大資料(右)」微信公眾號,即時掌握第一手雲中消息,瞭解最新的大資料進展!

CSDN發佈虛擬化、Docker、OpenStack、CloudStack、資料中心等相關雲計算資訊,     分享Hadoop、Spark、NoSQL/NewSQL、HBase、Impala、記憶體計算、流計算、 機器學習和智慧演算法等相關大資料觀點,提供雲計算和大資料技術、平臺、實踐和產業資訊等服務。




相關文章

聯繫我們

該頁面正文內容均來源於網絡整理,並不代表阿里雲官方的觀點,該頁面所提到的產品和服務也與阿里云無關,如果該頁面內容對您造成了困擾,歡迎寫郵件給我們,收到郵件我們將在5個工作日內處理。

如果您發現本社區中有涉嫌抄襲的內容,歡迎發送郵件至: info-contact@alibabacloud.com 進行舉報並提供相關證據,工作人員會在 5 個工作天內聯絡您,一經查實,本站將立刻刪除涉嫌侵權內容。

A Free Trial That Lets You Build Big!

Start building with 50+ products and up to 12 months usage for Elastic Compute Service

  • Sales Support

    1 on 1 presale consultation

  • After-Sales Support

    24/7 Technical Support 6 Free Tickets per Quarter Faster Response

  • Alibaba Cloud offers highly flexible support services tailored to meet your exact needs.