香港云主机最佳企业级服务商!

ADSL拨号VPS包含了中国大陆(联通,移动,电信,)

中国香港,国外拨号VPS。

当前位置:云主机 > python >

电信ADSL拨号VPS
联通ADSL拨号VPS
移动ADSL拨号VPS

PyTorch基本数据类型(一)


时间:2022-04-02 10:37 作者:admin


PyTorch基础入门一:PyTorch基本数据类型

1)Tensor(张量)

Pytorch里面处理的最基本的操作对象就是Tensor(张量),它表示的其实就是一个多维矩阵,并有矩阵相关的运算操作。在使用上和numpy是对应的,它和numpy唯一的不同就是,pytorch可以在GPU上运行,而numpy不可以。所以,我们也可以使用Tensor来代替numpy的使用。当然,二者也可以相互转换。

Tensor的基本数据类型有五种:

32位浮点型:torch.FloatTensor。pyorch.Tensor()默认的就是这种类型。 64位整型:torch.LongTensor。 32位整型:torch.IntTensor。 16位整型:torch.ShortTensor。 64位浮点型:torch.DoubleTensor。

那么如何定义Tensor张量呢?其实定义的方式和numpy一样,直接传入相应的矩阵即可即可。下面就定义了一个三行两列的矩阵:

import torch# 导包 a = torch.Tensor([[1, 2], [3, 4], [5, 6]])print(a)

不过在项目之中,更多的做法是以特殊值或者随机值初始化一个矩阵,就像下面这样:

import torch # 定义一个3行2列的全为0的矩阵b = torch.zeros((3, 2)) # 定义一个3行2列的随机值矩阵c = torch.randn((3, 2)) # 定义一个3行2列全为1的矩阵d = torch.ones((3, 2)) print(b)print(c)print(d)

Tensor和numpy.ndarray之间还可以相互转换,其方式如下:

Numpy转化为Tensor:torch.from_numpy(numpy矩阵) Tensor转化为numpy:Tensor矩阵.numpy()

范例如下:

import torchimport numpy as np # 定义一个3行2列的全为0的矩阵b = torch.randn((3, 2)) # tensor转化为numpynumpy_b = b.numpy()print(numpy_b) # numpy转化为tensornumpy_e = np.array([[1, 2], [3, 4], [5, 6]])torch_e = torch.from_numpy(numpy_e) print(numpy_e)print(torch_e)

之前说过,numpy与Tensor最大的区别就是在对GPU的支持上。Tensor只需要调用cuda()函数就可以将其转化为能在GPU上运行的类型。

我们可以通过torch.cuda.is_available()函数来判断当前的环境是否支持GPU,如果支持,则返回True。所以,为保险起见,在项目代码中一般采取“先判断,后使用”的策略来保证代码的正常运行,其基本结构如下:

import torch # 定义一个3行2列的全为0的矩阵tmp = torch.randn((3, 2)) # 如果支持GPU,则定义为GPU类型if torch.cuda.is_available():  inputs = tmp.cuda()# 否则,定义为一般的Tensor类型else:  inputs = tmp

2)Variable(变量)

Pytorch里面的Variable类型数据功能更加强大,相当于是在Tensor外层套了一个壳子,这个壳子赋予了前向传播,反向传播,自动求导等功能,在计算图的构建中起的很重要的作用。Variable的结构图如下:

其中最重要的两个属性是:data和grad。Data表示该变量保存的实际数据,通过该属性可以访问到它所保存的原始张量类型,而关于该 variable(变量)的梯度会被累计到.grad 上去。

在使用Variable的时候需要从torch.autograd中导入。下面通过一个例子来看一下它自动求导的过程:

import torchfrom torch.autograd import Variable # 定义三个Variable变量x = Variable(torch.Tensor([1, 2, 3]), requires_grad=True)w = Variable(torch.Tensor([2, 3, 4]), requires_grad=True)b = Variable(torch.Tensor([3, 4, 5]), requires_grad=True) # 构建计算图,公式为:y = w * x^2 + by = w * x * x + b # 自动求导,计算梯度y.backward(torch.Tensor([1, 1, 1])) print(x.grad)print(w.grad)print(b.grad)

上述代码的计算图为y = w * x^2 + b。对x, w, b分别求偏导为:x.grad = 2wx,w.grad=x^2,b.grad=1。代值检验可得计算结果是正确的。

以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持脚本之家。

(责任编辑:admin)






帮助中心
会员注册
找回密码
新闻中心
快捷通道
域名登录面板
虚机登录面板
云主机登录面板
关于我们
关于我们
联系我们
联系方式

售前咨询:17830004266(重庆移动)

企业QQ:383546523

《中华人民共和国工业和信息化部》 编号:ICP备00012341号

Copyright © 2002 -2018 香港云主机 版权所有
声明:香港云主机品牌标志、品牌吉祥物均已注册商标,版权所有,窃用必究

云官方微信

在线客服

  • 企业QQ: 点击这里给我发消息
  • 技术支持:383546523

  • 公司总台电话:17830004266(重庆移动)
  • 售前咨询热线:17830004266(重庆移动)