PyTorch中Variable变量的作用是什么
PyTorch中Variable变量的作用是什么,很多新手对此不是很清楚,为了帮助大家解决这个难题,下面小编将为大家详细讲解,有这方面需求的人可以来学习下,希望你能有所收获。
Variable的定义:
importtorch fromtorch.autogradimportVariable#torch中Variable模块 tensor=torch.FloatTensor([[1,2],[3,4]]) #把鸡蛋放到篮子里,requires_grad是参不参与误差反向传播,要不要计算梯度 variable=Variable(tensor,requires_grad=True) print(tensor) """ 12 34 [torch.FloatTensorofsize2x2] """ print(variable) """ Variablecontaining: 12 34 [torch.FloatTensorofsize2x2] """
注:tensor不能反向传播,variable可以反向传播。
二、Variable求梯度
Variable计算时,它会逐渐地生成计算图。这个图就是将所有的计算节点都连接起来,最后进行误差反向传递的时候,一次性将所有Variable里面的梯度都计算出来,而tensor就没有这个能力。
v_out.backward()#模拟v_out的误差反向传递 print(variable.grad)#初始Variable的梯度 ''' 0.50001.0000 1.50002.0000 '''
三、获取Variable里面的数据
直接print(Variable) 只会输出Variable形式的数据,在很多时候是用不了的。所以需要转换一下,将其变成tensor形式。
print(variable)#Variable形式 """ Variablecontaining: 12 34 [torch.FloatTensorofsize2x2] """ print(variable.data)#将variable形式转为tensor形式 """ 12 34 [torch.FloatTensorofsize2x2] """ print(variable.data.numpy())#numpy形式 """ [[1.2.] [3.4.]] """
扩展
在PyTorch中计算图的特点总结如下:
autograd根据用户对Variable的操作来构建其计算图。
1、requires_grad
variable默认是不需要被求导的,即requires_grad属性默认为False,如果某一个节点的requires_grad为True,那么所有依赖它的节点requires_grad都为True。
2、volatile
variable的volatile属性默认为False,如果某一个variable的volatile属性被设为True,那么所有依赖它的节点volatile属性都为True。volatile属性为True的节点不会求导,volatile的优先级比requires_grad高。
3、retain_graph
多次反向传播(多层监督)时,梯度是累加的。一般来说,单次反向传播后,计算图会free掉,也就是反向传播的中间缓存会被清空【这就是动态度的特点】。为进行多次反向传播需指定retain_graph=True来保存这些缓存。
4、backward()
反向传播,求解Variable的梯度。放在中间缓存中。
看完上述内容是否对您有帮助呢?如果还想对相关知识有进一步的了解或阅读更多相关文章,请关注恰卡编程网行业资讯频道,感谢您对恰卡编程网的支持。
推荐阅读
-
Pytorch中model.eval()的作用是什么
Pytorch中model.eval()的作用是什么这篇文章主要介...
-
怎么使用pytorch读取数据集
怎么使用pytorch读取数据集这篇“怎么使用pytorch读取数...
-
pytorch中的view()函数怎么使用
pytorch中的view()函数怎么使用这篇文章主要介绍了pyt...
-
PyTorch中的torch.cat怎么用
PyTorch中的torch.cat怎么用这篇文章主要介绍PyTo...
-
pytorch中的hook机制是什么
pytorch中的hook机制是什么本篇内容介绍了“pytorch...
-
pytorch中的广播语义是什么
pytorch中的广播语义是什么这篇文章主要介绍“pytorch中...
-
PyTorch梯度下降反向传播实例分析
PyTorch梯度下降反向传播实例分析本文小编为大家详细介绍“Py...
-
python中的Pytorch建模流程是什么
python中的Pytorch建模流程是什么小编给大家分享一下py...
-
pytorch如何实现多项式回归
pytorch如何实现多项式回归这篇文章主要为大家展示了“pyto...
-
pytorch怎样实现线性回归
pytorch怎样实现线性回归这篇文章给大家分享的是有关pytor...