在最近的写代码过程中,遇到了两个与 PyTorch 的混合精度训练相关的警告信息。这里随手记录一下。
警告内容
警告 1: torch.cuda.amp.autocast
FutureWarning: `torch.cuda.amp.autocast(args...)`
is deprecated. Please use `torch.amp.autocast('cuda', args...)`
instead. with autocast():
警告 2: torch.cuda.amp.GradScaler
FutureWarning: `torch.cuda.amp.GradScaler(args...)`
is deprecated. Please use `torch.amp.GradScaler('cuda', args...)`
instead. scaler = GradScaler()
原因分析
根据 PyTorch 官方文档的更新说明,从 PyTorch 2.4 版本开始,torch.cuda.amp
模块中的部分 API 已被标记为弃用(deprecated)。为了统一 API 的设计风格,并支持更多的后端设备(如 CPU 和其他加速器)。
虽然目前这些警告并不会导致程序报错,但官方建议开发者尽快调整代码以适配最新版本的规范。
方法 1: 适配新 API
替换 autocast
和 GradScaler
from torch.cuda.amp import autocast
with autocast():# Your codefrom torch.cuda.amp import GradScaler
scaler = GradScaler()
改为:
from torch.amp import autocast
with autocast('cuda'):# Your code from torch.amp import GradScaler
scaler = GradScaler(device='cuda')
注意:如果需要支持多设备(如 CPU),可以将
'cuda'
替换为'cpu'
或其他目标设备。
方法 2: 降级 PyTorch 版本
如果你暂时不想修改代码,可以选择降级到 PyTorch 2.3 或更低版本。可以通过以下命令安装指定版本的 PyTorch:
pip install torch==2.3
不过,这种方法并不推荐,因为旧版本可能会缺少一些新功能或性能优化。
方法3:懒得管
import warnings
warnings.filterwarnings("ignore", category=UserWarning)
两行代码解决一切(不推荐)
尽管这些警告不会立即导致程序运行失败,但为了确保代码的兼容性和未来的可维护性,建议按照官方文档的要求对代码进行调整。此外,定期关注 PyTorch 官方文档和技术博客,可以及时了解最新的 API 变更和最佳实践。
如果还有其他疑问,欢迎留言交流。 😊