使用 GPU

http://zh-v2.d2l.ai/chapter_deep-learning-computation/use-gpu.html

torch.cuda.device可以被用来做什么呢?看起来在gpu上操作变量只需要torch.device就可以了。

以及5.6.3.中的代码,不需要写net = net.to(try_gpu())吧?直接net.to(try_gpu())就可以了。测试看来.to对于nn.Module是in-place操作。

Mac m1 咋用GPU,需要特殊的设置吗?

首先确认电脑上是否有GPU,可以使用nvidia-smi查看;
如果有的话,可以先安装显卡驱动,然后安装pytorch的GPU版本就行。

目前几大框架支持最好的还是NVIDIA的cuda,AMD的ROCm感兴趣可以试试,m1还是算了吧,soc估计不好支持

测量同时在两个GPU上执行两个矩阵乘法与在一个GPU上按顺序执行两个矩阵乘法所需的时间。提示:你应该看到近乎线性的缩放

请问一下大家,这个该如何验证?

运行nvidia-smi显示Failed to initialize NVML: Unknown Error是为什么啊?

安装Cuda驱动就好了,网上有很多这样的教程

代码当中如何实现”最好是为GPU内部的日志分配内存,并且只移动较大的日志。” 一般都使用logging的模块,这个可以控制是否记录到GPU?

torch.cuda.device 一般用于with 环境管理器; e.g with torch.cuda.device(0)