加入收藏 | 设为首页 | 会员中心 | 我要投稿 银川站长网 (https://www.0951zz.com/)- 云通信、基础存储、云上网络、机器学习、视觉智能!
当前位置: 首页 > 综合聚焦 > 编程要点 > 语言 > 正文

TensorFlow中指定GPU训练模型的常用有效方式

发布时间:2023-06-13 10:59:10 所属栏目:语言 来源:
导读:这篇文章主要介绍“TensorFlow中指定GPU训练模型的常用有效方法”的相关知识,下面会通过实际案例向大家展示操作过程,操作方法简单快捷,实用性强,希望这篇“TensorFlow中指定GPU训练模型的常用有效

这篇文章主要介绍“TensorFlow中指定GPU训练模型的常用有效方法”的相关知识,下面会通过实际案例向大家展示操作过程,操作方法简单快捷,实用性强,希望这篇“TensorFlow中指定GPU训练模型的常用有效方法”文章能帮助大家解决问题。

如何指定GPU训练模型?

Linux 查看当前服务器 GPU 的占用情况可以使用 nvidia-smi 命令,如下所示:

nvidia-smi

关于 nvidia-smi 命令输出的详细解释,可参考笔者的另外一篇文章:GPU状态监测 nvidia-smi 命令详解。

在此不再赘述,本文主要分享一下在用 TensorFlow 训练模型时如何指定 GPU。

在用 TensorFlow 训练深度学习模型的时候,若无手动指定,默认是选用第0块来训练,而且其他几块 GPU 也会被显示占用。

有时候,我们更希望可以自己指定一块或者多块 GPU 来训练模型,接下来介绍一种常用的也是比较有效的方法:

举个例子

如果要指定只用第0块 GPU 训练,可以在 python 代码中如下指定:

import os

os.environ['CUDA_VISIBLE_DEVICES']='0'

运行 python 程序后,可发现就只有第0块 GPU 显示被占用,如上图所示。

如果要指定多块 GPU

可以如下:

os.environ['CUDA_VISIBLE_DEVICES']='1,2'

当然,上述这种方法不太方便,每次运行若换用 GPU 训练都需要改代码,可以在运行 python 程序的时候进行指定:

CUDA_VISIBLE_DEVICES=0 python textCnn.py

“TensorFlow中指定GPU训练模型的常用有效方法”的内容就介绍到这里了,感谢大家的阅读。

(编辑:银川站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!