來源:互聯網
上載者:User
關鍵字
大資料
機器學習
Nvidia
深度學習
cuDNN
【編者按】Nvidia通過發佈cuDNN庫,將GPU和機器學習更加緊密的聯繫起來,同時實現了cuDNN與深度學習框架的直接整合,使得研究員能夠在這些框架上無縫利用GPU,忽略深度學習系統中的底層優化, 更多的關注于更高級的機器學習問題。
以下為譯文
近日,通過釋放一組名為cuDNN的庫,Nvidia將GPU與機器學習聯繫的更加緊密。 據悉,cuDNN可以與當下的流行深度學習框架直接整合。 Nvidia承諾,cuDNN可以説明使用者更加聚焦深度神經網路,避免在硬體性能優化上的苦工。
當下,深度學習已經被越來越多的大型網路公司、研究員,甚至是創業公司用於提升AI能力,代表性的有電腦視覺、文本檢索及語音辨識。 而包括電腦視覺等流行的領域都使用了圖形處理單元(GPU),因為每個GPU都包含了上千的核心,它們可以加快計算密集型演算法。
通過Nvidia瞭解到,cuDNN基於該公司的CUDA並行程式設計語言,可以在不涉及到模型的情況下與多種深度學習框架整合。 Nvidia的一位發言人透露了更多消息:
通過在Caffe、Theano、Torch7等主流機器學習框架上的研究,cuDNN允許研究員可以在這些框架上無縫利用GPU的能力,並預留了未來的發展空間。 舉個例子:在Caffe中整合cuDNN對終端使用者是不可見,只需要非常簡單的設置就可以完成這個操作,隨插即用是cuDNN的核心設計因素。
從更技術的角度看,cuDNN是一個低等級的庫,無需任何CUDA代碼就可以在host-code中調用,非常類似我們已經開發的CUDA cuBLAS和cuFFT庫。 通過cuDNN,使用者不必再關心以往深度學習系統中的底層優化,他們可以將注意力集中在更高級的機器學習問題,推動機器學習的發展。 同時基於cuDNN,代碼將以更快的速度運行。
不管是為了未來增長,還是「GPU不只用於電腦圖形渲染」這個長期目標,Nvidia在擁抱深度學習和機器學習上非常積極。 當下GPU的使用已經非常廣泛,機構使用它代替CPU以獲得更高的速度及更低的成本。
但是,仍然存在一些特定的因素抑制了CPU的長期發展。 其中一個就是替代架構,比如IBM的SyNAPSE和類似Nervana Systems一些初創公司的努力,比如,它們專門為神經網路和機器學習負載設計。 另一個則是現有的處理器架構,包括CPUs和FPGAs已經讓人們看到了未來機器學習負載上的能力。
雖然當下已經有很多雲供應商通過服務的形式提供了深度學習能力,但是機器深度學習離進入主流仍然有很大的距離。
原文連結: Nvidia stakes its claim in deep learning by making its GPUs easier to program(編譯/仲浩 審校/魏偉)
免費訂閱「CSDN雲計算(左)和CSDN大資料(右)」微信公眾號,即時掌握第一手雲中消息,瞭解最新的大資料進展!
CSDN發佈虛擬化、Docker、OpenStack、CloudStack、資料中心等相關雲計算資訊, 分享Hadoop、Spark、NoSQL/NewSQL、HBase、Impala、記憶體計算、流計算、 機器學習和智慧演算法等相關大資料觀點,提供雲計算和大資料技術、平臺、實踐和產業資訊等服務。