retain_graph

  • 理解和应用retain_graph=true

    在深度学习中,我们经常需要构建由多个层次组成的神经网络模型,而这些模型一般都是通过反向传播算法进行优化训练。在反向传播算法中,我们需要计算每一层参数的梯度,并把这些梯度传递给前一层…

    编程 2025-04-18
  • retain_graph——解读PyTorch中的图保留参数

    在深度学习中,误差反向传播(Back-Propagation)是一个非常重要的算法。这种算法能够通过计算一系列参数的梯度来训练深度神经网络(Deep neural networks…

    编程 2025-01-03