如果计算精度误差比较大,那么可能为安培架构的GPU引入的TF32数值类型以及Torch等框架会自动启用TF32计算造成的。TF32可简单理解为FP16的精度,FP32的表示范围,带来了更强的性能但是可能更差的精度。
该问题可参考Torch官方文档:文档
一般来说TF32够用,但是如果权重值有比较大的异常数值(一般没有)时会出现较大误差。










扫码关注公众号
扫微信在线客服
扫微信在线客服