如何判断pytorch使用了gpu

发布网友 发布时间:2022-04-22 07:41

我来回答

3个回答

热心网友 时间:2022-05-22 01:16

1、将已经实例化的模型在多个GPU上并行,只需要使用nn.DataParallel(model)方法即可,可用torch.cuda.device_count()检查GPU的个数。

2、nn.DataParallel中的参数有三个,第一个是需要并行的模型,第二个是并行所使用的GPU列表(默认使用所有可用GPU),第三个是模型输出所在的device编号(可以是cpu,默认是GPU0)。

3、为了验证并行效果,我们定义一个打印输入和输出大小的模型,我们使用了2个GPU并行该模型。

4、使用任意一个数据集,在模型输出结果后,我们再打印出输出结果的大小,与模型中的打印结果进行对比。

5、In Model是模型内打印的结果,Outside为模型外打印的结果。对比发现Outside的batch大小为所有In Model之和,代表一个batch的数据被平均分到每个并行的GPU进行计算,之后再合并输出结果。

热心网友 时间:2022-05-22 02:34

pytorch动态计算图有什么好处 1.数据计算 Torch 自称为神经网络界的 Numpy, 因为他能将 torch 产生的 tensor 放在 GPU 中加速运算 (前提是你有合适的 GPU), 就像 Numpy 会把 array 放在 CPU 中加速运算。Torch和Numpy之间可以进行自由的切.

热心网友 时间:2022-05-22 04:09

可以试试以下代码
import torch
torch.__version__
torch.cuda.is_available()
我的环境是win10+anaconda+pytorch+cuda+cudnn
声明:本网页内容为用户发布,旨在传播知识,不代表本网认同其观点,若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。
E-MAIL:11247931@qq.com