语义分割和数据集

https://zh-v2.d2l.ai/chapter_computer-vision/semantic-segmentation-and-dataset.html

module ‘torchvision’ has no attribute ‘io’,代码错误怎么解决?

您好,在图像标准化时,我们使用的 mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225],这样会导致标准化后图像的像素非常大,这样做还能达到标准化的目的吗?比如,这是我打印的某个图像B通道的像素值:
[[ 548.1004, 556.8340, 530.6332, …, 565.5677, 268.6245,
155.0873],
[ 373.4279, 382.1616, 395.2620, …, 1015.3493, 823.2096,
600.5022],
[ 386.5284, 377.7947, 369.0611, …, 1093.9519, 1085.2184,
1076.4847],
…,
[ 535.0000, 508.7991, 294.8253, …, 155.0873, 172.5546,
181.2882],
[ 696.5720, 617.9694, 355.9607, …, 238.0568, 211.8559,
190.0218],
[ 539.3668, 600.5022, 316.6594, …, 146.3537, 128.8865,
137.6201]]

torch的代码里好像缺少了图像归一化的过程,导致最终的收敛结果不太好。解决方案是 在数据类的归一化过程中手动将图像从 [0, 255] 调整到 [0, 1]:QQ截图20211008194949

这个似乎无解,但是可以通过使用opencv来解决这个问题,再手动转换为tensor就好了