摘要:大家好,今天我們來給講講關(guān)于在中的使用規(guī)則。在某些情況下,最理想的是進(jìn)程只分配可用內(nèi)存的一個(gè)子集,或者僅根據(jù)進(jìn)程需要增加內(nèi)存使用量。
大家好,今天我們來給講講關(guān)于 TensorFlow 在 GPU 中的使用規(guī)則。
支持的設(shè)備
在一套標(biāo)準(zhǔn)系統(tǒng)中通常有多臺計(jì)算設(shè)備。TensorFlow 支持 CPU 和 GPU 這兩種設(shè)備。它們均用 strings 表示。例如:
"/cpu:0":機(jī)器的 CPU
"/device:GPU:0":機(jī)器的 GPU(如果有一個(gè))
"/device:GPU:1":機(jī)器的第二個(gè) GPU(以此類推)
如果 TensorFlow 指令中兼有 CPU 和 GPU 實(shí)現(xiàn),當(dāng)該指令分配到設(shè)備時(shí),GPU 設(shè)備有優(yōu)先權(quán)。例如,如果 matmul 同時(shí)存在 CPU 和 GPU 核函數(shù),在同時(shí)有 cpu:0 和 gpu:0 設(shè)備的系統(tǒng)中,gpu:0 會被選來運(yùn)行 matmul。
記錄設(shè)備分配方式
要找出您的指令和張量被分配到哪個(gè)設(shè)備,請創(chuàng)建會話并將 log_device_placement 配置選項(xiàng)設(shè)為 True。
# Creates a graph.
a = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=[2, 3], name="a")
b = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=[3, 2], name="b")
c = tf.matmul(a, b)
# Creates a session with log_device_placement set to True.
sess = tf.Session(config=tf.ConfigProto(log_device_placement=True))
# Runs the op.
print(sess.run(c))
您應(yīng)該會看到以下輸出內(nèi)容:
Device mapping:
/job:localhost/replica:0/task:0/device:GPU:0 -> device: 0, name: Tesla K40c, pci bus
id: 0000:05:00.0
b: /job:localhost/replica:0/task:0/device:GPU:0
a: /job:localhost/replica:0/task:0/device:GPU:0
MatMul: /job:localhost/replica:0/task:0/device:GPU:0
[[ 22. ?28.]
?[ 49. ?64.]]
手動(dòng)分配設(shè)備
如果您希望特定指令在您選擇的設(shè)備(而非系統(tǒng)自動(dòng)為您選擇的設(shè)備)上運(yùn)行,您可以使用 with tf.device 創(chuàng)建設(shè)備上下文,這個(gè)上下文中的所有指令都將被分配在同一個(gè)設(shè)備上運(yùn)行。
# Creates a graph.
with tf.device("/cpu:0"):
? a = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=[2, 3], name="a")
? b = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=[3, 2], name="b")
c = tf.matmul(a, b)
# Creates a session with log_device_placement set to True.
sess = tf.Session(config=tf.ConfigProto(log_device_placement=True))
# Runs the op.
print(sess.run(c))
您會看到現(xiàn)在 a 和 b 被分配到 cpu:0。由于未明確指定運(yùn)行 MatMul 指令的設(shè)備,因此 TensorFlow 運(yùn)行時(shí)將根據(jù)指令和可用設(shè)備(此示例中的 gpu:0)選擇一個(gè)設(shè)備,并會根據(jù)要求自動(dòng)復(fù)制設(shè)備間的張量。
Device mapping:
/job:localhost/replica:0/task:0/device:GPU:0 -> device: 0, name: Tesla K40c, pci bus
id: 0000:05:00.0
b: /job:localhost/replica:0/task:0/cpu:0
a: /job:localhost/replica:0/task:0/cpu:0
MatMul: /job:localhost/replica:0/task:0/device:GPU:0
[[ 22. ?28.]
?[ 49. ?64.]]
允許增加 GPU 內(nèi)存
默認(rèn)情況下,TensorFlow 會映射進(jìn)程可見的所有 GPU 的幾乎所有 GPU 內(nèi)存(取決于 CUDA_VISIBLE_DEVICES)。通過減少內(nèi)存碎片,可以更有效地使用設(shè)備上相對寶貴的 GPU 內(nèi)存資源。
在某些情況下,最理想的是進(jìn)程只分配可用內(nèi)存的一個(gè)子集,或者僅根據(jù)進(jìn)程需要增加內(nèi)存使用量。TensorFlow 在 Session 上提供兩個(gè) Config 選項(xiàng)來進(jìn)行控制。
第一個(gè)是 allow_growth 選項(xiàng),它試圖根據(jù)運(yùn)行時(shí)的需要來分配 GPU 內(nèi)存:它剛開始分配很少的內(nèi)存,隨著 Session 開始運(yùn)行并需要更多 GPU 內(nèi)存,我們會擴(kuò)展 TensorFlow 進(jìn)程所需的 GPU 內(nèi)存區(qū)域。請注意,我們不會釋放內(nèi)存,因?yàn)檫@可能導(dǎo)致出現(xiàn)更嚴(yán)重的內(nèi)存碎片情況。要開啟此選項(xiàng),請通過以下方式在 ConfigProto 中設(shè)置選項(xiàng):
config = tf.ConfigProto()
config.gpu_options.allow_growth = True
session = tf.Session(config=config, ...)
如要真正限制 TensorFlow 進(jìn)程可使用的 GPU 內(nèi)存量,這非常實(shí)用。
在多 GPU 系統(tǒng)中使用單一 GPU
如果您的系統(tǒng)中有多個(gè) GPU,則默認(rèn)情況下將選擇 ID 最小的 GPU。如果您希望在其他 GPU 上運(yùn)行,則需要顯式指定偏好設(shè)置:
# Creates a graph.
with tf.device("/device:GPU:2"):
? a = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=[2, 3], name="a")
? b = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=[3, 2], name="b")
? c = tf.matmul(a, b)
# Creates a session with log_device_placement set to True.
sess = tf.Session(config=tf.ConfigProto(log_device_placement=True))
# Runs the op.
print(sess.run(c))
如果您指定的設(shè)備不存在,您會看到 InvalidArgumentError:
InvalidArgumentError: Invalid argument: Cannot assign a device to node "b":
Could not satisfy explicit device specification "/device:GPU:2"
? ?[[Node: b = Const[dtype=DT_FLOAT, value=Tensor ? ?values: 1 2 3...>, _device="/device:GPU:2"]()]] 當(dāng)指定設(shè)備不存在時(shí),如果您希望 TensorFlow 自動(dòng)選擇現(xiàn)有的受支持設(shè)備來運(yùn)行指令,則可以在創(chuàng)建會話時(shí)將配置選項(xiàng)中的 allow_soft_placement 設(shè)為 True。 # Creates a graph. with tf.device("/device:GPU:2"): ? a = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=[2, 3], name="a") ? b = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=[3, 2], name="b") ? c = tf.matmul(a, b) # Creates a session with allow_soft_placement and log_device_placement set # to True. sess = tf.Session(config=tf.ConfigProto( ? ? ? allow_soft_placement=True, log_device_placement=True)) # Runs the op. print(sess.run(c)) 使用多個(gè) GPU 如果您想要在多個(gè) GPU 上運(yùn)行 TensorFlow,則可以采用多塔式方式構(gòu)建模型,其中每個(gè)塔都會分配給不同 GPU。例如: # Creates a graph. c = [] for d in ["/device:GPU:2", "/device:GPU:3"]: ? with tf.device(d): ? ? a = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=[2, 3]) ? ? b = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=[3, 2]) ? ? c.append(tf.matmul(a, b)) with tf.device("/cpu:0"): ? sum = tf.add_n(c) # Creates a session with log_device_placement set to True. sess = tf.Session(config=tf.ConfigProto(log_device_placement=True)) # Runs the op. print(sess.run(sum)) 您會看到以下輸出內(nèi)容: Device mapping: /job:localhost/replica:0/task:0/device:GPU:0 -> device: 0, name: Tesla K20m, pci bus id: 0000:02:00.0 /job:localhost/replica:0/task:0/device:GPU:1 -> device: 1, name: Tesla K20m, pci bus id: 0000:03:00.0 /job:localhost/replica:0/task:0/device:GPU:2 -> device: 2, name: Tesla K20m, pci bus id: 0000:83:00.0 /job:localhost/replica:0/task:0/device:GPU:3 -> device: 3, name: Tesla K20m, pci bus id: 0000:84:00.0 Const_3: /job:localhost/replica:0/task:0/device:GPU:3 Const_2: /job:localhost/replica:0/task:0/device:GPU:3 MatMul_1: /job:localhost/replica:0/task:0/device:GPU:3 Const_1: /job:localhost/replica:0/task:0/device:GPU:2 Const: /job:localhost/replica:0/task:0/device:GPU:2 MatMul: /job:localhost/replica:0/task:0/device:GPU:2 AddN: /job:localhost/replica:0/task:0/cpu:0 [[ ?44. ? 56.] ?[ ?98. ?128.]] cifar10 教程 就是個(gè)很好的例子(https://tensorflow.google.cn/tutorials/images/deep_cnn?hl=zh-CN),演示了如何使用多個(gè) GPU 進(jìn)行訓(xùn)練。 聲明:文章收集于網(wǎng)絡(luò),如有侵權(quán),請聯(lián)系小編及時(shí)處理,謝謝!
商業(yè)智能與數(shù)據(jù)分析群
興趣范圍包括各種讓數(shù)據(jù)產(chǎn)生價(jià)值的辦法,實(shí)際應(yīng)用案例分享與討論,分析工具,ETL工具,數(shù)據(jù)倉庫,數(shù)據(jù)挖掘工具,報(bào)表系統(tǒng)等全方位知識
QQ群:81035754
文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。
轉(zhuǎn)載請注明本文地址:http://m.specialneedsforspecialkids.com/yun/4839.html
摘要:云主機(jī)產(chǎn)品簡介增強(qiáng)型云主機(jī)是基于成熟的云計(jì)算技術(shù),專享高性能硬件的云主機(jī)服務(wù)。目前提供采用采用和采用機(jī)型。支持多種操作系統(tǒng)增強(qiáng)型云主機(jī)支持多種操作系統(tǒng),如等,以適應(yīng)不同行業(yè)的專業(yè)軟件及建模需求。機(jī)型與性能型可選顆。GPU云主機(jī)UHost產(chǎn)品簡介GPU增強(qiáng)型云主機(jī)是基于UCloud成熟的云計(jì)算技術(shù),專享高性能GPU硬件的云主機(jī)服務(wù)。大幅提升圖形圖像處理和高性能計(jì)算能力,并具備彈性、低成本、易于...
摘要:工資不漲,英偉達(dá)的售價(jià)年年漲。近日,宣布推出適用于的,其中包括。對于正在進(jìn)行的深度學(xué)習(xí)加速工作而言,這是一座重大的里程碑。而實(shí)現(xiàn)則使用了,這是一個(gè)適用于深度學(xué)習(xí)的高度優(yōu)化例程庫。目前已發(fā)布安裝說明及預(yù)構(gòu)建的映像。 工資不漲,英偉達(dá) GPU 的售價(jià)年年漲。因此,多一個(gè)競爭對手,總是好事。近日,Google 宣布推出適用于 ROCm GPU 的 TensorFlow v1.8,其中包括 Rade...
摘要:概覽概覽產(chǎn)品簡介基礎(chǔ)知識產(chǎn)品優(yōu)勢機(jī)制產(chǎn)品架構(gòu)設(shè)計(jì)原理彈性擴(kuò)縮容機(jī)制開發(fā)綜述服務(wù)請求方式開源鏡像開源案例學(xué)習(xí)視頻產(chǎn)品定價(jià)快速上手快速上手案例介紹環(huán)境準(zhǔn)備在線服務(wù)代碼簡介 概覽產(chǎn)品簡介UAI-Inference基礎(chǔ)知識產(chǎn)品優(yōu)勢Hot-Standby機(jī)制產(chǎn)品架構(gòu)設(shè)計(jì)原理彈性擴(kuò)縮容機(jī)制開發(fā)綜述服務(wù)請求方式開源Docker鏡像開源案例學(xué)習(xí)視頻產(chǎn)品定價(jià)快速上手快速上手(TF-Mnist案例)MNIST ...
摘要:我認(rèn)為對機(jī)器學(xué)習(xí)開發(fā)者來說,是一個(gè)了不起的工具集。這個(gè)帖子發(fā)出后得到了很多機(jī)器學(xué)習(xí)研究者和開發(fā)者的關(guān)注,他們紛紛跟貼談?wù)撟约旱南敕ê徒?jīng)驗(yàn)不只是關(guān)于和,討論中還涉及到更多工具。 Theano、TensorFlow、Torch、MXNet 再到近日比較熱門的 PyTorch 等等,深度學(xué)習(xí)框架之間的比較一直以來都是非常受人關(guān)注的熱點(diǎn)話題。機(jī)器之心也曾發(fā)表過多篇相關(guān)的介紹和對比文章,如《主流深度學(xué)...
摘要:谷歌在年國際消費(fèi)電子展以及今年的開發(fā)峰會上首次展示了他們的,然后于三月份發(fā)布了。樹莓派上性能的局限性不幸的是,業(yè)余愛好者最喜歡樹莓派無法充分發(fā)揮加速器的功能和速度。使用端口,目前的樹莓派設(shè)備沒有或,而只能使用速度較慢的。 Edge AI是什么?它為何如此重要? 傳統(tǒng)意義上,AI解決方案需要強(qiáng)大的并行計(jì)算處理能力,長期以來,AI服務(wù)都是通過聯(lián)網(wǎng)在線的云端基于服務(wù)器的計(jì)算來提供服務(wù)。但是具...
閱讀 3018·2021-10-27 14:15
閱讀 3010·2021-09-07 10:18
閱讀 1327·2019-08-30 15:53
閱讀 1580·2019-08-26 18:18
閱讀 3381·2019-08-26 12:15
閱讀 3467·2019-08-26 10:43
閱讀 659·2019-08-23 16:43
閱讀 2215·2019-08-23 15:27