使用 GPU

http://zh-v2.d2l.ai/chapter_deep-learning-computation/use-gpu.html

torch.cuda.device可以被用来做什么呢?看起来在gpu上操作变量只需要torch.device就可以了。

以及5.6.3.中的代码,不需要写net = net.to(try_gpu())吧?直接net.to(try_gpu())就可以了。测试看来.to对于nn.Module是in-place操作。

Mac m1 咋用GPU,需要特殊的设置吗?

首先确认电脑上是否有GPU,可以使用nvidia-smi查看;
如果有的话,可以先安装显卡驱动,然后安装pytorch的GPU版本就行。

目前几大框架支持最好的还是NVIDIA的cuda,AMD的ROCm感兴趣可以试试,m1还是算了吧,soc估计不好支持

测量同时在两个GPU上执行两个矩阵乘法与在一个GPU上按顺序执行两个矩阵乘法所需的时间。提示:你应该看到近乎线性的缩放

请问一下大家,这个该如何验证?