pytorch zero_grad Posted on 2018-07-Sun Views: Views: 如果不置零,Variable 的梯度在每次 backward 的时候都会累加。1234optimizer.zero_grad()loss = criterion(outputs, targets)loss.backward()optimizer.step()