浅谈对pytroch中torch.autograd.backward的思考
Python  /  管理员 发布于 5年前   334
反向传递法则是深度学习中最为重要的一部分,torch中的backward可以对计算图中的梯度进行计算和累积
这里通过一段程序来演示基本的backward操作以及需要注意的地方
>>> import torch>>> from torch.autograd import Variable>>> x = Variable(torch.ones(2,2), requires_grad=True)>>> y = x + 2>>> y.grad_fnOut[6]: <torch.autograd.function.AddConstantBackward at 0x229e7068138>>>> y.grad>>> z = y*y*3>>> z.grad_fnOut[9]: <torch.autograd.function.MulConstantBackward at 0x229e86cc5e8>>>> zOut[10]: Variable containing: 27 27 27 27[torch.FloatTensor of size 2x2]>>> out = z.mean()>>> out.grad_fnOut[12]: <torch.autograd.function.MeanBackward at 0x229e86cc408>>>> out.backward() # 这里因为out为scalar标量,所以参数不需要填写>>> x.gradOut[19]: Variable containing: 4.5000 4.5000 4.5000 4.5000[torch.FloatTensor of size 2x2]>>> out # out为标量Out[20]: Variable containing: 27[torch.FloatTensor of size 1]>>> x = Variable(torch.Tensor([2,2,2]), requires_grad=True)>>> y = x*2>>> yOut[52]: Variable containing: 4 4 4[torch.FloatTensor of size 3]>>> y.backward() # 因为y输出为非标量,求向量间元素的梯度需要对所求的元素进行标注,用相同长度的序列进行标注Traceback (most recent call last): File "C:\Users\dell\Anaconda3\envs\my-pytorch\lib\site-packages\IPython\core\interactiveshell.py", line 2862, in run_code exec(code_obj, self.user_global_ns, self.user_ns) File "<ipython-input-53-95acac9c3254>", line 1, in <module> y.backward() File "C:\Users\dell\Anaconda3\envs\my-pytorch\lib\site-packages\torch\autograd\variable.py", line 156, in backward torch.autograd.backward(self, gradient, retain_graph, create_graph, retain_variables) File "C:\Users\dell\Anaconda3\envs\my-pytorch\lib\site-packages\torch\autograd\__init__.py", line 86, in backward grad_variables, create_graph = _make_grads(variables, grad_variables, create_graph) File "C:\Users\dell\Anaconda3\envs\my-pytorch\lib\site-packages\torch\autograd\__init__.py", line 34, in _make_grads raise RuntimeError("grad can be implicitly created only for scalar outputs")RuntimeError: grad can be implicitly created only for scalar outputs>>> y.backward(torch.FloatTensor([0.1, 1, 10]))>>> x.grad #注意这里的0.1,1.10为梯度求值比例Out[55]: Variable containing: 0.2000 2.0000 20.0000[torch.FloatTensor of size 3]>>> y.backward(torch.FloatTensor([0.1, 1, 10]))>>> x.grad # 梯度累积Out[57]: Variable containing: 0.4000 4.0000 40.0000[torch.FloatTensor of size 3]>>> x.grad.data.zero_() # 梯度累积进行清零Out[60]: 0 0 0[torch.FloatTensor of size 3]>>> x.grad # 累积为空Out[61]: Variable containing: 0 0 0[torch.FloatTensor of size 3]>>> y.backward(torch.FloatTensor([0.1, 1, 10]))>>> x.gradOut[63]: Variable containing: 0.2000 2.0000 20.0000[torch.FloatTensor of size 3]
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持。
122 在
学历:一种延缓就业设计,生活需求下的权衡之选中评论 工作几年后,报名考研了,到现在还没认真学习备考,迷茫中。作为一名北漂互联网打工人..123 在
Clash for Windows作者删库跑路了,github已404中评论 按理说只要你在国内,所有的流量进出都在监控范围内,不管你怎么隐藏也没用,想搞你分..原梓番博客 在
在Laravel框架中使用模型Model分表最简单的方法中评论 好久好久都没看友情链接申请了,今天刚看,已经添加。..博主 在
佛跳墙vpn软件不会用?上不了网?佛跳墙vpn常见问题以及解决办法中评论 @1111老铁这个不行了,可以看看近期评论的其他文章..1111 在
佛跳墙vpn软件不会用?上不了网?佛跳墙vpn常见问题以及解决办法中评论 网站不能打开,博主百忙中能否发个APP下载链接,佛跳墙或极光..
Copyright·© 2019 侯体宗版权所有·
粤ICP备20027696号