- 图像分类任务要用到mmcv框架,记录遇到的问题
1. Can‘t import build_from_cfg from mmcv.
解决命令:pip install openmim && mim install mmcv-full
2. python分布式训练
解决方案: 租用多张A40卡,执行下述命令:
python -m torch.distributed.launch --nproc_per_node=2 train.py
型号 | 显存 | 单精(FP32) | 半精(FP16) | 详细参数 | 说明 |
---|---|---|---|---|---|
Tesla P40 | 24GB | 11.76 T | 11.76 T | 查看 | 比较老的Pascal架构GPU,对于cuda11.x之前且对大显存有需求的算法是非常不错的选择 |
TITAN Xp | 12GB | 12.15 T | 12.15 T | 查看 | 比较老的Pascal架构GPU,用作入门比较合适 |
1080 Ti | 11GB | 11.34 T | 11.34 T | 查看 | 和TITANXp同时代的卡,同样适合入门,但是11GB的显存偶尔会比较尴尬 |
2080Ti | 11GB | 13.45 T | 53.8 T | 查看 | 图灵架构GPU,性能还不错,老一代型号中比较适合做混合精度计算的GPU。性价比高 |
V100 | 16/32GB | 15.7 T | 125 T | 查看 | 老一代专业计算卡皇,半精性能高适合做混合精度计算 |
3060 | 12GB | 12.74 T | 约24T | 查看 | 如果1080Ti的显存正好尴尬了,3060是不错的选择,适合新手。需要使用cuda11.x |
A4000 | 16GB | 19.17 T | 约76T | 查看 | 显存和算力都比较均衡,适合进阶过程使用。需要使用cuda11.x |
3080Ti | 12GB | 34.10 T | 约70T | 查看 | 性能钢炮,如果对显存要求不高则是非常合适的选择。需要使用cuda11.x |
A5000 | 24GB | 27.77T | 约117T | 查看 | 性能钢炮,如果觉得3080Ti的显存不够用A5000是合适的选择,并且半精算力高适合混合精度。需要使用cuda11.x |
3090 | 24GB | 35.58 T | 约71T | 查看 | 可以看做3080Ti的扩显存版。性能和显存大小都非常够用,适用性非常强,性价比首选。需要使用cuda11.x |
A40 | 48GB | 37.42 T | 149.7 T | 查看 | 可以看做是3090的扩显存版。算力和3090基本持平,因此根据显存大小进行选择。需要使用cuda11.x |
A100 SXM4 | 40/80GB | 19.5 T | 312 T | 查看 | 新一代专业计算卡皇,除了贵没缺点。显存大,非常适合做半精计算,因为有NVLink加持,多卡并行加速比非常高。需要使用cuda11.x |
4090 | 24G | 82.58 T | 165.2 T | 查看 | 新一代游戏卡皇,除显存比较小和多机多卡并行效率低的缺点外,性价比非常高 |
3. No such file or directory: ‘weights/backbone_ir50_ms1m_epoch120.pth’
dd it from https://github.com/primasr/Learn_ArcFace
4. version mismatch 警告的nice消除~
一直显示用户警告,
/root/miniconda3/lib/python3.8/site-packages/mmcv/__init__.py:20: UserWarning: On January 1, 2023, MMCV will
release v2.0.0, in which it will remove components related to the training process and add a data
transformation module. In addition, it will rename the package names mmcv to mmcv-lite and mmcv-full to mmcv.
See https://github.com/open-mmlab/mmcv/blob/master/docs/en/compatibility.md for more details.
由于是系统库的警告,在执行代码里消除无用,必须到系统库代码里处理
编辑对应python库文件
修改如下(当然也可直接注释annotate掉):要在警告前设置过滤~~
多清爽😊😊