避免关注底层硬件,Nvidia将机器学习与GPU绑定
??????????? Nvidia釋放的一組cuDNN的庫,有效的實現了其與多種深度學習框架的整合。基于cuDNN,加速了代碼的運行,同時讓研究員避免去關心底層硬件性能。
關鍵字: 編程語言語音識別Nvidia
原文鏈接:http://www.efficient-it.com.cn/viewnews/itemid/30996.html
-
近日,通過釋放一組名為cuDNN的庫,Nvidia將GPU與機器學習聯系的更加緊密。據悉,cuDNN可以與當下的流行深度學習框架直接整合。Nvidia承諾,cuDNN可以幫助用戶更加聚焦深度神經網絡,避免在硬件性能優化上的苦工。
當下,深度學習已經被越來越多的大型網絡公司、研究員,甚至是創業公司用于提升AI能力,代表性的有計算機視覺、文本檢索及語音識別。而包括計算機視覺等流行的領域都使用了圖形處理單元(GPU),因為每個GPU都包含了上千的核心,它們可以加快計算密集型算法。
通過Nvidia了解到,cuDNN基于該公司的CUDA并行編程語言,可以在不涉及到模型的情況下與多種深度學習框架整合。Nvidia的一位發言人透露了更多消息:
通過在Caffe、Theano、Torch7等主流機器學習框架上的研究,cuDNN允許研究員可以在這些框架上無縫利用GPU的能力,并預留了未來的發展空間。舉個例子:在Caffe中整合cuDNN對終端用戶是不可見,只需要非常簡單的設置就可以完成這個操作,即插即用是cuDNN的核心設計因素。
從更技術的角度看,cuDNN是一個低等級的庫,無需任何CUDA代碼就可以在host-code中調用,非常類似我們已經開發的CUDA cuBLAS和cuFFT庫。通過cuDNN,用戶不必再關心以往深度學習系統中的底層優化,他們可以將注意力集中在更高級的機器學習問題,推動機器學習的發展。同時基于cuDNN,代碼將以更快的速度運行。
不管是為了未來增長,還是“GPU不只用于計算機圖形渲染”這個長期目標,Nvidia在擁抱深度學習和機器學習上非常積極。當下GPU的使用已經非常廣泛,機構使用它代替CPU以獲得更高的速度及更低的成本。
但是,仍然存在一些特定的因素抑制了CPU的長期發展。其中一個就是替代架構,比如IBM的SyNAPSE和類似Nervana Systems一些初創公司的努力,比如,它們專門為神經網絡和機器學習負載設計。另一個則是現有的處理器架構,包括CPUs和FPGAs已經讓人們看到了未來機器學習負載上的能力。
雖然當下已經有很多云供應商通過服務的形式提供了深度學習能力,但是機器深度學習離進入主流仍然有很大的距離。
創作挑戰賽新人創作獎勵來咯,堅持創作打卡瓜分現金大獎
總結
以上是生活随笔為你收集整理的避免关注底层硬件,Nvidia将机器学习与GPU绑定的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 周的网名75个
- 下一篇: caffe学习笔记--跑个SampleC