国产xxxx99真实实拍_久久不雅视频_高清韩国a级特黄毛片_嗯老师别我我受不了了小说

資訊專欄INFORMATION COLUMN

實現(xiàn) TensorFlow 多機并行線性加速

時飛 / 3510人閱讀

摘要:在一個數(shù)據(jù)分析任務和任務混合的環(huán)境中,大數(shù)據(jù)分析任務也會消耗很多網(wǎng)絡帶寬如操作,網(wǎng)絡延遲會更加嚴重。本地更新更新更新目前,我們已經(jīng)復現(xiàn)中的實驗結(jié)果,實現(xiàn)了多機并行的線性加速。

王佐,天數(shù)潤科深度學習平臺負責人,曾擔任 Intel亞太研發(fā)中心Team Leader,萬達人工智能研究院資深研究員,長期從事分布式計算系統(tǒng)研究,在大規(guī)模分布式機器學習系統(tǒng)架構(gòu)、機器學習算法設計和應用方面有深厚積累。

在上一家公司就開始實踐打磨一個深度優(yōu)化的深度學習系統(tǒng),當時從消除網(wǎng)絡瓶頸,非凸優(yōu)化,以及具體的深度學習算法等方面基于PaddlePaddle做了許多工作。目前公司主要深度學習算法都是跑在TensorFlow上,使用配置了GeForce GTX 1080的單機訓練,一次完整的訓練至少需要一周的時間,所以決定從優(yōu)化TensorFlow多機并行方面提高算力。

為什么要優(yōu)化 Tensorflow 多機并行

更多的數(shù)據(jù)可以提高預測性能[2],這也意味著更沉重的計算負擔,未來計算力將成為AI發(fā)展的較大瓶頸。在大數(shù)據(jù)時代,解決存儲和算力的方法是Scale out,在AI時代,Scale out也一定是發(fā)展趨勢,并且大數(shù)據(jù)分析任務和AI/ML任務會共享處理設備(由于AI/ML迭代收斂和容錯的特征,這兩種任務未來不太可能使用統(tǒng)一平臺),所以需要在分布式環(huán)境下優(yōu)化資源配置[3],消除性能瓶頸。雖然現(xiàn)在TensorFlow能支持多機并行分布式訓練,但是針對復雜網(wǎng)絡,其訓練速度反而不如單臺機器[1]。目前已經(jīng)有IBM[4]和Petuum[1]分別在其深度學習系統(tǒng)PowerAI 4.0和Poseidon中實現(xiàn)多機并行線性加速,本文介紹我如何通過消除TensorFlow的網(wǎng)絡瓶頸,實現(xiàn)TensorFlow多機并行線性加速。

TensorFlow分布式訓練的網(wǎng)絡瓶頸分析

深度學習訓練需要海量的數(shù)據(jù),這就需要超大規(guī)模參數(shù)的網(wǎng)絡模型擬合。如果訓練數(shù)據(jù)不足,會造成欠擬合;如果網(wǎng)絡模型參數(shù)太少,只會得到低精度的模型。目前常見網(wǎng)絡模型參數(shù)已經(jīng)上億,參數(shù)大小達到數(shù)GB。[10]中給出了訓練數(shù)據(jù)和參數(shù)大小一些例子。

訓練數(shù)據(jù)和參數(shù)大小(來自[10])

目前GPU已經(jīng)成為深度學習訓練的標配。GPU具有數(shù)量眾多計算單元和超長流水線,并且具備強大并行計算能力與浮點計算能力,可以大幅加速深度學習模型的訓練速度,相比CPU能提供更快的處理速度、更少的服務器投入和更低的功耗。這也意味著,GPU集群上訓練深度學習模型,迭代時間更短,參數(shù)同步更頻繁。[9]中對比了主流深度學習系統(tǒng)在CPU和GPU上的訓練性能,可以看出GPU每次迭代的時間比CPU少2個數(shù)量級。

CPU 訓練 alexnet(來自[9])

GPU 訓練alexnet(來自[9])

假設每0.5秒一個迭代,每個worker每秒需要通過網(wǎng)絡傳輸?shù)拇笥?GB,即使使用10GbE,參數(shù)同步也會瞬間把網(wǎng)絡占滿。考慮到訓練數(shù)據(jù)可能通過NFS或者HDFS加載,也會占用很多網(wǎng)絡帶寬。在一個數(shù)據(jù)分析任務和AI/ML任務混合的環(huán)境中,大數(shù)據(jù)分析任務也會消耗很多網(wǎng)絡帶寬(如shuffle操作),網(wǎng)絡延遲會更加嚴重。所以如果想以Scale out的方式提升算力,網(wǎng)絡將是較大的瓶頸。[1]中通過實驗證明,在8個節(jié)點進行TensorFlow分布式訓練,對于VGG19網(wǎng)絡,90%的時間花在等待網(wǎng)絡傳輸上面。

網(wǎng)絡開銷(來自[2])

消除網(wǎng)絡瓶頸的方法(一)

分布式深度學習可以采用BSP和SSP兩種模式。SSP通過允許faster worker使用staled參數(shù),從而達到平衡計算和網(wǎng)絡通信開銷時間的效果[8]。SSP每次迭代收斂變慢,但是每次迭代時間更短,在CPU集群上,SSP總體收斂速度比BSP更快,但是在GPU集群上訓練,BSP總體收斂速度比SSP反而快很多[6]。

BSP模型有個缺點,就是每次迭代結(jié)束,Worker需要發(fā)送梯度更新到PS,每次迭代開始,Worker需要從PS接收更新后的參數(shù),這會造成瞬間大量的網(wǎng)絡傳輸。參數(shù)服務器通過把參數(shù)切分成block,并且shard到多臺機器,比較AllReduce,有效利用網(wǎng)絡帶寬,降低網(wǎng)絡延遲。目前主流的深度學習系統(tǒng)(TensorFlow,Mxnet,Petuum)都選擇用參數(shù)服務器做參數(shù)同步。

AllReduce(來自[5])

Parameter Server

上圖可以很容易看出,AllReduce拓撲中,Reducer節(jié)點成為網(wǎng)絡傳輸?shù)钠款i。PS拓撲中,通常每臺機器啟動相同數(shù)量的Worker和Parameter Server,每臺機器的網(wǎng)絡傳輸量基本相同。

ring AllReduce(來自[5])

對于多機多卡訓練,可以把參數(shù)現(xiàn)在本機聚合,再指定一個worker跟參數(shù)服務器交互,可以大量減少網(wǎng)絡傳輸。可以使用PaddlePaddle提出來的ring AllReduce,優(yōu)化單機多卡的本地聚合。

解決瞬間大量的網(wǎng)絡傳輸問題另一個方法是實現(xiàn)GPU計算和網(wǎng)絡通信的Overlap。在反向傳播的backward階段產(chǎn)生梯度時,可異步地進行梯度更新,并立即計算下一層網(wǎng)絡的梯度。梯度更新首先要把新梯度從GPU顯存拷貝到CPU內(nèi)存,這種GPU-CPU的拷貝也可以和GPU計算做Overlap。因為PS是跑在CPU上,所以GPU計算也跟PS參數(shù)更新實現(xiàn)Overlap。

GPU計算和網(wǎng)絡傳輸overlap(來自[1])

消除網(wǎng)絡瓶頸的方法(二)

減少網(wǎng)絡傳輸量也是消除網(wǎng)絡瓶頸的有效途徑。網(wǎng)絡模型中90%參數(shù)集中在FC層。很多深度學習系統(tǒng)提出了減少FC層參數(shù)大小的方法,比如Adam中的Sufficient Factor,CNTK中的 1-bit quantization,Petuum中的Sufficient Factor Broadcasting[7]。

實現(xiàn)代碼

首先得實現(xiàn)PS和SFB,可以參照petuum,ps-lite,angel。

TensorFlow 相關的修改主要有兩個地方:

2. tensorflow/core/kernels/http://matmul_op.cc中的MalMulOp::Compute,這里需要判斷是否使用PS或者SFB,從而將本地更新切換為PS更新或SFB更新。

本地更新

PS更新

SFB更新

目前,我們已經(jīng)復現(xiàn)[1]中的實驗結(jié)果,實現(xiàn)了Tensorflow多機并行的線性加速。我們還在 Tensorflow 其他方面進行優(yōu)化。

歡迎加入本站公開興趣群

商業(yè)智能與數(shù)據(jù)分析群

興趣范圍包括各種讓數(shù)據(jù)產(chǎn)生價值的辦法,實際應用案例分享與討論,分析工具,ETL工具,數(shù)據(jù)倉庫,數(shù)據(jù)挖掘工具,報表系統(tǒng)等全方位知識

QQ群:81035754

文章版權歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。

轉(zhuǎn)載請注明本文地址:http://m.specialneedsforspecialkids.com/yun/4605.html

相關文章

  • 讓AI簡單且強大:深度學習引擎OneFlow技術實踐

    摘要:本文內(nèi)容節(jié)選自由主辦的第七屆,北京一流科技有限公司首席科學家袁進輝老師木分享的讓簡單且強大深度學習引擎背后的技術實踐實錄。年創(chuàng)立北京一流科技有限公司,致力于打造分布式深度學習平臺的事實工業(yè)標準。 本文內(nèi)容節(jié)選自由msup主辦的第七屆TOP100summit,北京一流科技有限公司首席科學家袁進輝(老師木)分享的《讓AI簡單且強大:深度學習引擎OneFlow背后的技術實踐》實錄。 北京一流...

    chenjiang3 評論0 收藏0

發(fā)表評論

0條評論

最新活動
閱讀需要支付1元查看
<