機器學習

 

工業與學術界的數據科學家已將 GPU 用于機器學習以便在各種應用上實現開創性的改進,這些應用包括圖像分類、視頻分析、語音識別以及自然語言處理等等。 尤其是深度學習,人們在這一領域中一直進行大力投資和研究。深度學習是利用復雜的多級「深度」神經網絡來打造一些系統,這些系統能夠從海量的未標記訓練數 據中進行特征檢測。 

 

雖然機器學習已經有數十年的歷史,但是兩個較為新近的趨勢促進了機器學習的廣泛應用: 海量訓練數據的出現以及 GPU 計算所提供的強大而高效的并行計算。  人們利用 GPU 來訓練這些深度神經網絡,所使用的訓練集大得多,所耗費的時間大幅縮短,占用的數據中心基礎設施也少得多。  GPU 還被用于運行這些機器學習訓練模型,以便在云端進行分類和預測,從而在耗費功率更低、占用基礎設施更少的情況下能夠支持遠比從前更大的數據量和吞吐量。

 

將 GPU 加速器用于機器學習的早期用戶包括諸多規模的網絡和社交媒體公司,另外還有數據科學和機器學習領域中一流的研究機構。 與單純使用 CPU 的做法相比,GPU 具有數以千計的計算核心、可實現 10-100 倍應用吞吐量,因此 GPU 已經成為數據科學家處理大數據的處理器。

 

針對機器學習應用的基準測試

"借助 GPU,預先錄制的語音或多媒體內容的轉錄速度能夠大幅提升。 與 CPU 軟件相比,我們執行識別任務的速度可提升 33 倍。"
Ian Lane 教授, 卡耐基梅隆大學