• pytorch入门_PyTorch入门
2020-07-16 04:34:52

pytorch入门

This tutorial aims to familiarize you with the concept of tensors in PyTorch and introduce you to the operations involving tensors in PyTorch. The Pytorch module works with data structures called tensors, which are much similar to those of Tensorflow. Pytorch however, doesn’t require you to define the entire computational graph a priori. This makes Pytorch much easier to debug and understand.

本教程旨在使您熟悉PyTorch中的张量的概念，并向您介绍PyTorch中涉及张量的操作。 Pytorch模块使用称为张量的数据结构，与Tensorflow的数据结构非常相似。 但是，Pytorch不需要先验地定义整个计算图。 这使得Pytorch易于调试和理解。

## Pytorch中的张量 (Tensors in Pytorch)

Tensors are multi-dimensional structures similar to those occurring in NumPy module. PyTorch allows you to define and manipulate tensors in a similar manner to NumPy and also convert NumPy tensors to PyTorch and vice-versa.

张量是类似于NumPy模块中出现的多维结构。 PyTorch允许您以类似于NumPy的方式定义和操纵张量，并且还可以将NumPy张量转换为PyTorch，反之亦然。

PyTorch resides in the torch module. You should be able to run the following code and obtain the version of PyTorch once you finished the installation following this tutorial.

PyTorch驻留在割炬模块中。 按照本教程完成安装后，您应该能够运行以下代码并获取PyTorch的版本。


import torch
from __future__ import print_function
torch.version.__version__


Output:

输出：


'1.4.0'


Let us define our first tensor. Using the torch.tensor() method is one of the many ways to do this.

让我们定义第一个张量。 使用torch.tensor（）方法是执行此操作的多种方法之一。


x=torch.tensor([[2,3,4],[3,4,5]])
x


Output:

输出：


tensor([[2, 3, 4],
[3, 4, 5]])


PyTorch has an is_tensor() method that checks whether a variable is a tensor or not.

PyTorch具有is_tensor（）方法，该方法检查变量是否为张量。


#Define an array of numbers.
x=[10,20,30,40,50]

#Check if x is a tensor
torch.is_tensor(x)


Output:

输出：


False


To convert the array x into a tensor, we need to do the following.

要将数组x转换为张量，我们需要执行以下操作。


import numpy as np
arr=np.array(x) # creating a numpy array from the list we defined earlier
c=torch.from_numpy(arr) #create a tensor from the array
torch.is_tensor(c)


Output:

输出：


True


Other methods of creating tensors are as follows:

创建张量的其他方法如下：


#Create a tensor of random normal numbers using randn() function
y=torch.randn(3, 3)

#Create a tensor of zeros using torch.zeros()
a=torch.zeros(2,2)

#Create an identity tensor using torch.eye()
b=torch.eye(3,4)

#torch.linspace() - returns points within a given range in a linear space.
lin = torch.linspace(2,10,steps=25)

#torch.logspace() - returns points in a logarithmic space
log = torch.logspace(start=-10,end=10,steps=10)

#torch.rand() - returns specified number of random numbers within the # interval :math:[0, 1)

random = torch.rand(2, 3)

#random permutation of values between 0 to 10
perm = torch.randperm(10)

#items between 2 and 10, equally spaced by 2. If the last parameter is # ignored, step size will be 1.

seq = torch.arange(2,10,2)


Now let us examine what values are stored in each of the tensors above.

现在让我们检查一下上面每个张量中存储了哪些值。


print(y)
print(a)
print(b)
print(lin)
print(log)
print(random)
print(perm)
print(seq)


Output:

输出：


tensor([[ 0.9039,  0.6291,  1.0795],
[ 0.1586,  2.1939, -0.4900],
[-0.1909, -0.7503,  1.9355]])

tensor([[0., 0.],
[0., 0.]])

tensor([[1., 0., 0., 0.],
[0., 1., 0., 0.],
[0., 0., 1., 0.]])

tensor([ 2.0000,  2.3333,  2.6667,  3.0000,  3.3333,  3.6667,  4.0000,  4.3333,
4.6667,  5.0000,  5.3333,  5.6667,  6.0000,  6.3333,  6.6667,  7.0000,
7.3333,  7.6667,  8.0000,  8.3333,  8.6667,  9.0000,  9.3333,  9.6667,
10.0000])

tensor([1.0000e-10, 1.6681e-08, 2.7826e-06, 4.6416e-04, 7.7426e-02, 1.2916e+01,
2.1544e+03, 3.5938e+05, 5.9949e+07, 1.0000e+10])

tensor([[ 0.8237,  0.5781,  0.6879],
[ 0.3816,  0.7249,  0.0998]])

tensor([9, 1, 4, 5, 8, 2, 7, 6, 3, 0])

tensor([2, 4, 6, 8])


## 重组张量 (Restructuring Tensors)

It helps a lot of times to be able to modify the shape and structure of tensors to suit our algorithm. PyTorch has several functions that add these flexibilities. First, let us define a tensor to illustrate this.

很多时候能够修改张量的形状和结构以适合我们的算法。 PyTorch具有增加这些灵活性的几种功能。 首先，让我们定义一个张量来说明这一点。


t1=torch.rand(3,4)
t1


Output:

输出：


tensor([[0.0800, 0.4987, 0.3337, 0.5070],
[0.5671, 0.2567, 0.9441, 0.8524],
[0.5343, 0.8898, 0.9503, 0.3900]])


The following code transposes the tensor:

以下代码转置张量：


t1.t()


tensor([[0.0800, 0.5671, 0.5343],
[0.4987, 0.2567, 0.8898],
[0.3337, 0.9441, 0.9503],
[0.5070, 0.8524, 0.3900]])


Another alternative is using the transpose() function.

另一种选择是使用transpose（）函数。


#transpose needs dimension1 and dimension2 as attributes to transpose along the specified directions.

t1.transpose(1,0)


tensor([[0.0800, 0.5671, 0.5343],
[0.4987, 0.2567, 0.8898],
[0.3337, 0.9441, 0.9503],
[0.5070, 0.8524, 0.3900]])


Reshaping tensors can be done in multiple ways:

重整张量可以通过多种方式完成：

• t1.reshape(a, b) will return a new tensor with the same data as t1 with size (a, b). This function copies the data to another part of memory, so it can be thought of as a clone.

t1.reshape（a，b）将返回一个新的张量，该张量具有与t1相同的数据，大小为（a，b）。 此函数将数据复制到内存的另一部分，因此可以将其视为克隆。
• t1.resize_(a, b) returns the same tensor with a different shape, but some elements will be removed from the tensor if the new shape results in less number of elements than the original tensor. Note that these elements won’t be removed from the memory. However, if the new shape results in more elements than the tensor, those new elements will remain uninitialized in memory. Underscore shows that the method is performed in place.

t1.resize_（a，b）返回具有不同形状的相同张量，但是如果新形状导致元素数量少于原始张量，则某些元素将从张量中删除。 请注意，这些元素不会从内存中删除。 但是，如果新形状产生的元素多于张量，则这些新元素将在内存中保持未初始化的状态。 下划线表明该方法是在原地执行的。
• t1.view(a, b) will return a new tensor with the same data as t1 with size (a, b).

t1.view（a，b）将返回一个新的张量，该张量具有与t1相同的数据，大小为（a，b）。

All three methods work in the same way.

三种方法都以相同的方式工作。


ty=torch.randn(4,4)
t2=ty.reshape(2,8)
print(t2)


tensor([[-0.1995, -0.5073,  0.0820, -1.7935, -0.1631,  0.2086,  0.5033,  0.3686],
[ 0.0686,  0.0247, -0.4558, -0.1373,  1.1020,  0.6841,  1.1238, -0.4326]])


## Pytorch中张量的数学运算 (Mathematical Operations on Tensors in Pytorch)

PyTorch offers a rich list of arithmetic operations that can be performed upon tensors for implementing any algorithm. Let us look at some of those in detail.

PyTorch提供了丰富的算术运算列表，可在张量上执行这些算术运算以实现任何算法。 让我们详细了解其中一些。

Tensor addition can be performed using torch.add() function.

张量加法可以使用torch.add()函数执行。


t1 = torch.tensor([2,3,4,5])
t2 = torch.tensor([1,5,9,8])

#Adds t1 and t2 and displays the result on console

#Adds t1 to t2 and stores the result in t1

#Define a new empty tensor
t3=torch.tensor(4)

#Add t1 and t2 and store the result in t3

print(t1)
print(t3)


tensor([ 3,  8, 13, 13])
tensor([ 4, 13, 22, 21])


A scalar can be added to every element of tensor in the following manner.

可以按以下方式将标量添加到张量的每个元素。




tensor([8, 13, 18, 18])


### 张量的乘法 (Multiplication of tensors)

The function torch.mul() performs the element-wise multiplication of two tensors.

函数torch.mul()执行两个张量的按元素乘法。


torch.mul(t1,t2)


tensor([  3,  40, 117, 104])


### 矩阵乘法 (Matrix Multiplication)

Matrix and vector multiplication are supported by PyTorch using the torch.mm(matrix,matrix) and torch.mv(matrix,vector) functions.

PyTorch使用torch.mm(matrix,matrix)torch.mv(matrix,vector)函数支持矩阵和向量乘法。


#Define a vector
vec = torch.randn(4)

#Define a matrix
mat = torch.randn(3,4)

print(vec)
print(mat)


tensor([ 0.4888,  0.9948, -0.5621, -0.8673])
tensor([[-0.8077,  0.9913, -0.7615, -1.4975],
[-0.8250,  0.9404,  0.3022, -0.1274],
[-1.2982,  0.3702,  0.5074,  1.4800]])


torch.mv(mat,vec)


tensor([ 2.3182,  0.4729, -1.8350])


Similarly, matrix-matrix multiplication can be done using torch.mm() function.

同样，可以使用torch.mm()函数完成矩阵与矩阵的乘法。


mat1 = torch.tensor([[2,3],[4,5]])
mat2 = torch.tensor([[4,5],[6,7]])
torch.mm(mat1,mat2)


tensor([[26, 31],
[46, 55]])


## 结论 (Conclusion)

We’ve covered the basic working of tensors within PyTorch today. We’ll continue to work with the PyTorch module in the upcoming tutorials and cover further topics within this module. For now, I hope you’ve understood the concept and the basics of the module really well. If you have any questions related to the module, do let us know in the comments below.

今天，我们已经介绍了PyTorch中张量的基本工作。 我们将在接下来的教程中继续使用PyTorch模块，并在该模块中介绍更多主题。 到目前为止，我希望您真的很了解该模块的概念和基础。 如果您对模块有任何疑问，请在下面的评论中告诉我们。

pytorch入门

更多相关内容
• Pytorch入门到进阶视频教程（实战计算机视觉与自然语言处理项目），完整版15章，附源码；PyTorch比其他深度学习框架更易学，也是新手入门的好选择。本课程将算法、模型和基础理论知识进行有机结合，结合多个不同的CV...
• 本pdf是由pytorch.org官网上的入门教程（英文版）有兴趣朋友们可以下载学习。
• Pytorch入门实践项目，包含了DCGAN等，imagenet，mnist上的项目例程
• 这是书籍《深度学习框架PyTorch：入门与实践》的对应代码，但是也可以作为一个独立的PyTorch入门指南和教程。
• Chintala - pytorch入门 深度学习暑期学校2017讲座ppt
• 分享一套Pytorch入门到进阶的视频教程，非常棒的一套Pytorch视频教程，课程是2020年录制，最新版本，完整版15章，附源码；本课程将算法、模型和基础理论知识进行有机结合，结合多个不同的CV与NLP实战项目，帮助大家...
• 通俗易懂，快速入门 对深度学习算法追本溯源、循序渐进式讲解，学员不需要任何机器学习基础，只需要写过代码即可轻松上手。 2. 实用主导，简单高效 使用新手最容易掌握的深度学习框架PyTorch实战，比起使用...
• pyTorch入门与实践，内含代码和教程可直接在jupyter notebok上运行，非常适合pytorch初学者
• 2017年出的Pytorch新手教程，整合了近年来深度学习的案例，step by step，从浅入深，帮你开始深度学习之旅。
• 第一部分 1、多选题： 已知某函数的参数为35.8，执行后结果为35，可能是以下函数中的（）。 选项： A:floor B:abs C:round D:int 答案: 【floor;...以下表达式中，（）的运算结果是False。...在以下Python循环中，for i in...
• PyTorch-Tutorials:深度学习与PyTorch入门实战学习资料原始码
• 给大家介绍一套课程，PyTorch入门到进阶 实战计算机视觉与自然语言处理项目，完整版15章，附源码，希望对大家学习有帮助。
• pytorch入门完整例子（包括建立模型，保存模型，恢复加载模型）-附件资源
• 超简单！pytorch入门教程（五）：训练和测试CNN-附件资源
• ## pytorch入门（超详细）

千次阅读 多人点赞 2021-11-29 10:52:37
60分钟入门教程 什么是pytorch? pytorch是一个基于Python的科学计算包，它主要有两个用途： 类似于Numpy但是能利用GPU加速 一个非常灵活和快速用于深度学习的研究平台。 Tensor Tensor类似于Numpy的ndarray，但是...

#### 什么是pytorch?

pytorch是一个基于Python的科学计算包，它主要有两个用途：

• 类似于Numpy但是能利用GPU加速
• 一个非常灵活和快速用于深度学习的研究平台。

#### Tensor

Tensor类似于Numpy的ndarray，但是可以用GPU加速，使用前我们需要导入torch包。

import torch
# 下面代码构建一个5x3的未初始化的矩阵
x = torch.empty(5,3)
print(x)
# 输出
tensor([[9.9184e-39, 8.7245e-39, 9.2755e-39],
[8.9082e-39, 9.9184e-39, 8.4490e-39],
[9.6429e-39, 1.0653e-38, 1.0469e-38],
[4.2246e-39, 1.0378e-38, 9.6429e-39],
[9.2755e-39, 9.7346e-39, 1.0745e-38]])


下面代码分别狗仔一个零初始化的矩阵，它的类型(dtype)是long：

x = torch.zeros(5,3 dtype=torch.long)
print(x)
# 输出
tensor([[0, 0, 0],
[0, 0, 0],
[0, 0, 0],
[0, 0, 0],
[0, 0, 0]])


我们可以从已有的tensor信息(size和dtype)来构造tensor。但也可以用不同的dtype来构造。

x = x.new_ones(5, 3, dtype=torch.double)      # new_* methods take in sizes
print(x)

x = torch.randn_like(x, dtype=torch.float)    # override dtype!
print(x)


我们可以是用size函数来看它的shape：

print(x.size())
#输出：
torch.Size([5, 3])


注意torch.Size其实是一个tuple，因此它支持所有的tuple操作。

#### Operation

接下来我们来学习一些PyTorch的Operation。Operation一般可以使用函数的方式使用，但是为了方便使用，PyTorch重载了一些常见的运算符，因此我们可以这样来进行Tensor的加法：

y = torch.rand(5, 3)
print(x + y)


print(torch.add(x, y))


我们也可以给加法提供返回值(而不是生成一个新的返回值)：

result = torch.empty(5, 3)
torch.add(x, y, out=result) # x + y的结果放到result里。
print(result)


我们也可以把相加的结果直接修改第一个被加数：

# 把x加到y
print(y)


注意：就地修改tensor的operation以下划线结尾。比如： x.copy_(y), x.t_(), 都会修改x。

#### Tensor的变换

我们也可以使用类似numpy的下标运算来操作PyTorch的Tensor：

#打印x的第一列
print(x[:, 1])


如果想resize或者reshape一个Tensor，我们可以使用torch.view：

x = torch.randn(4, 4)
y = x.view(16)
z = x.view(-1, 8)  # -1的意思是让PyTorch自己推断出第一维的大小。
print(x.size(), y.size(), z.size())


如果一个tensor只有一个元素，可以使用item()函数来把它变成一个Python number：

x = torch.randn(1)
print(x)
#输出的是一个Tensor
tensor([-0.6966])

print(x.item())
#输出的是一个数
-0.6966081857681274


#### Tensor与Numpy的互相转换

Torch Tensor和NumPy数组的转换非常容易。它们会共享内存地址，因此修改一方会影响另一方。把一个Torch Tensor转换成NumPy数组的代码示例为：

a = torch.ones(5)
print(a)
#tensor([ 1.,  1.,  1.,  1.,  1.])
b = a.numpy()
print(b)
#[1. 1. 1. 1. 1.]


修改一个会影响另外一个：

a.add_(1)
print(a)
# tensor([ 2.,  2.,  2.,  2.,  2.])
print(b)
# [2. 2. 2. 2. 2.]


把把NumPy数组转成Torch Tensor的代码示例为：

import numpy as np
a = np.ones(5)
b = torch.from_numpy(a)
print(a)
# [2. 2. 2. 2. 2.]
print(b)
# tensor([ 2.,  2.,  2.,  2.,  2.], dtype=torch.float64)


CPU上的所有类型的Tensor(除了CharTensor)都可以和Numpy数组来回转换。

#### CUDA Tensor

Tensor可以使用to()方法来移到任意设备上：

# 如果有CUDA
# 我们会使用torch.device来把tensors放到GPU上
if torch.cuda.is_available():
device = torch.device("cuda")          # 一个CUDA device对象。
y = torch.ones_like(x, device=device)  # 直接在GPU上创建tensor
x = x.to(device)                       # 也可以使用.to("cuda")把一个tensor从CPU移到GPU上
z = x + y
print(z)
print(z.to("cpu", torch.double))       # .to也可以在移动的过程中修改dtype

# 输出：
tensor([ 0.3034], device='cuda:0')
tensor([ 0.3034], dtype=torch.float64)


#### 从自动求导看Tensor

如果你想计算梯度，可以对一个Tensor调用它的backward()方法。如果这个Tensor是一个scalar(只有一个数)，那么调用时不需要传任何参数。如果Tensor多于一个数，那么需要传入和它的shape一样的参数，表示反向传播过来的梯度。

x = torch.ones(2, 2, requires_grad=True)
print(x)


然后我们通过operation产生新的tensor：

y = x + 2
print(y)


print(y.grad_fn)


再通过y得到z和out

z = y * y * 3
out = z.mean()

print(z, out)
# z = tensor([[ 27.,  27.],[ 27.,  27.]])
# out = tensor(27.)


a = torch.randn(2, 2)
a = ((a * 3) / (a - 1))
b = (a * a).sum()


输出是：

False
True
<SumBackward0 object at 0x7f35766827f0>


#### 梯度

现在我们里反向计算梯度。因为out是一个scalar，因此out.backward()等价于out.backward(torch.tensor(1))。

out.backward()


我们可以打印梯度d(out)/dx：

print(x.grad)
# tensor([[ 4.5000,  4.5000],
[ 4.5000,  4.5000]])


我们手动计算验证一下。为了简单，我们把 o u t out 记为o。 o = 1 4 ∑ i z i o=\frac{1}{4}\sum_iz_i z i = 3 ( x i + 2 ) 2 z_i=3(x_i+2)^2 ，并且 z i ∣ x i = 1 = 27 z_i|_{x_i=1}=27

因此， ∂ o ∂ x i = 3 2 ( x i + 2 ) \frac{∂o}{∂x_i}=\frac{3}{2}(x_i+2) ， 因此， ∂ o ∂ x i ∣ x i = 1 = 9 2 = 4.5 \frac{∂o}{∂x_i}|_{x_i=1}=\frac{9}{2}=4.5

x = torch.randn(3, requires_grad=True)

y = x * 2
while y.data.norm() < 1000:
y = y * 2

print(y)
# tensor([ -692.4808,  1686.1211,   667.7313])
gradients = torch.tensor([0.1, 1.0, 0.0001], dtype=torch.float)

# tensor([  102.4000,  1024.0000,     0.1024])


print(x.requires_grad)



输出为：

True
True
False


### PyTorch神经网络简介

图：识别MNIST数据的神经网络

训练一个神经网络通常需要如下步骤：

• 定义一个神经网络，它通常有一些可以训练的参数

• 迭代一个数据集(dataset)

• 处理网络的输入

• 计算loss(会调用Module对象的forward方法)

• 计算loss对参数的梯度

• 更新参数，通常使用如下的梯度下降方法来更新：

weight = weight - learning_rate * gradient

#### 定义网络

import torch
import torch.nn as nn
import torch.nn.functional as F

class Net(nn.Module):

def __init__(self):
super(Net, self).__init__()
# 输入是1个通道的灰度图，输出6个通道(feature map)，使用5x5的卷积核
self.conv1 = nn.Conv2d(1, 6, 5)
# 第二个卷积层也是5x5，有16个通道
self.conv2 = nn.Conv2d(6, 16, 5)
# 全连接层
self.fc1 = nn.Linear(16 * 5 * 5, 120)
self.fc2 = nn.Linear(120, 84)
self.fc3 = nn.Linear(84, 10)

def forward(self, x):
# 32x32 -> 28x28 -> 14x14
x = F.max_pool2d(F.relu(self.conv1(x)), (2, 2))
# 14x14 -> 10x10 -> 5x5
x = F.max_pool2d(F.relu(self.conv2(x)), 2)
x = x.view(-1, self.num_flat_features(x))
x = F.relu(self.fc1(x))
x = F.relu(self.fc2(x))
x = self.fc3(x)
return x

def num_flat_features(self, x):
size = x.size()[1:]  # 除了batch维度之外的其它维度。
num_features = 1
for s in size:
num_features *= s
return num_features

net = Net()
print(net)
# Net(
(conv1): Conv2d(1, 6, kernel_size=(5, 5), stride=(1, 1))
(conv2): Conv2d(6, 16, kernel_size=(5, 5), stride=(1, 1))
(fc1): Linear(in_features=400, out_features=120, bias=True)
(fc2): Linear(in_features=120, out_features=84, bias=True)
(fc3): Linear(in_features=84, out_features=10, bias=True)
)


params = list(net.parameters())
print(len(params))
# 10
print(params[0].size())  # conv1的weight
# torch.Size([6, 1, 5, 5])


#### 测试网络

接着我们尝试一个随机的32x32的输入来检验(sanity check)网络定义没有问题。注意：这个网络(LeNet)期望的输入大小是32x32。如果使用MNIST数据集(28x28)，我们需要缩放到32x32。

input = torch.randn(1, 1, 32, 32)
out = net(input)
print(out)
# tensor([[-0.0198,  0.0438,  0.0930, -0.0267, -0.0344,  0.0330,  0.0664,
0.1244, -0.0379,  0.0890]])


默认的梯度会累加，因此我们通常在backward之前清除掉之前的梯度值：

net.zero_grad()
out.backward(torch.randn(1, 10))


注意：torch.nn只支持mini-batches的输入。整个torch.nn包的输入都必须第一维是batch，即使只有一个样本也要弄成batch是1的输入。

比如，nn.Conv2d的输入是一个4D的Tensor，shape是nSamples x nChannels x Height x Width。如果你只有一个样本(nChannels x Height x Width)，那么可以使用input.unsqueeze(0)来增加一个batch维。

#### 损失函数

损失函数的参数是(output, target)对，output是模型的预测，target是实际的值。损失函数会计算预测值和真实值的差别，损失越小说明预测的越准。

PyTorch提供了这里有许多不同的损失函数： http://pytorch.org/docs/nn.html#loss-functions。最简单的一个损失函数是：nn.MSELoss，它会计算预测值和真实值的均方误差。比如：

output = net(input)
target = torch.arange(1, 11)  # 随便伪造的一个“真实值”
target = target.view(1, -1)  # 把它变成output的shape(1, 10)
criterion = nn.MSELoss()

loss = criterion(output, target)
print(loss)


input -> conv2d -> relu -> maxpool2d -> conv2d -> relu -> maxpool2d
-> view -> linear -> relu -> linear -> relu -> linear
-> MSELoss
-> loss


print(loss.grad_fn)  # MSELoss

#输出：
<MseLossBackward object at 0x7f445b3a2dd8>
<ExpandBackward object at 0x7f445b3a2dd8>


#### 计算梯度

在调用loss.backward()之前，我们需要清除掉tensor里之前的梯度，否则会累加进去。

net.zero_grad()     # 清掉tensor里缓存的梯度值。

loss.backward()



#### 更新参数

learning_rate = 0.01
for f in net.parameters():


import torch.optim as optim

# 创建optimizer，需要传入参数和learning rate
optimizer = optim.SGD(net.parameters(), lr=0.01)

# 清除梯度
output = net(input)
loss = criterion(output, target)
loss.backward()
optimizer.step()    # optimizer会自动帮我们更新参数


### 训练一个分类器

介绍了PyTorch神经网络相关包之后我们就可以用这些知识来构建一个分类器了。

#### 如何进行数据处理

一般地，当我们处理图片、文本、音频或者视频数据的时候，我们可以使用python代码来把它转换成numpy数组。然后再把numpy数组转换成torch.xxxTensor。

• 对于处理图像，常见的lib包括Pillow和OpenCV
• 对于音频，常见的lib包括scipy和librosa
• 对于文本，可以使用标准的Python库，另外比较流行的lib包括NLTK和SpaCy

在这个教程里，我们使用CIFAR10数据集。它包括十个类别：”airplane”, “automobile”, “bird”, “cat”, “deer”, “dog”, “frog”, “horse”, “ship”,”truck”。图像的对象是3x32x32，也就是3通道(RGB)的32x32的图片。下面是一些样例图片。

图：cifar10样例

#### 训练的步骤

• 使用torchvision加载和预处理CIFAR10训练和测试数据集。
• 定义卷积网络
• 定义损失函数
• 用训练数据训练模型
• 用测试数据测试模型

#### 数据处理

通过使用torchvision，我们可以轻松的加载CIFAR10数据集。首先我们导入相关的包：

import torch
import torchvision
import torchvision.transforms as transforms


torchvision读取的datasets是PILImage对象，它的取值范围是[0, 1]，我们把它转换到范围[-1, 1]。

transform = transforms.Compose(
[transforms.ToTensor(),
transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5))])

trainset = torchvision.datasets.CIFAR10(root='/path/to/data', train=True,
shuffle=True, num_workers=2)

testset = torchvision.datasets.CIFAR10(root='/path/to/data', train=False,
shuffle=False, num_workers=2)

classes = ('plane', 'car', 'bird', 'cat',
'deer', 'dog', 'frog', 'horse', 'ship', 'truck')


我们来看几张图片，如下图所示，显示图片的代码如下：

import matplotlib.pyplot as plt
import numpy as np

# 显示图片的函数

def imshow(img):
img = img / 2 + 0.5     #  [-1,1] -> [0,1]
npimg = img.numpy()
plt.imshow(np.transpose(npimg, (1, 2, 0))) # (channel, width, height) -> (width, height, channel)

# 随机选择一些图片
images, labels = dataiter.next()

# 显示图片
imshow(torchvision.utils.make_grid(images))
# 打印label
print(' '.join('%5s' % classes[labels[j]] for j in range(4)))


图：随机选择的图片

#### 定义卷积网络

网络结构和上一节的介绍类似，只是输入通道从1变成3。

import torch.nn as nn
import torch.nn.functional as F

class Net(nn.Module):
def __init__(self):
super(Net, self).__init__()
self.conv1 = nn.Conv2d(3, 6, 5)
self.pool = nn.MaxPool2d(2, 2)
self.conv2 = nn.Conv2d(6, 16, 5)
self.fc1 = nn.Linear(16 * 5 * 5, 120)
self.fc2 = nn.Linear(120, 84)
self.fc3 = nn.Linear(84, 10)

def forward(self, x):
x = self.pool(F.relu(self.conv1(x)))
x = self.pool(F.relu(self.conv2(x)))
x = x.view(-1, 16 * 5 * 5)
x = F.relu(self.fc1(x))
x = F.relu(self.fc2(x))
x = self.fc3(x)
return x

net = Net()


\subsubsection{定义损失函数和optimizer} 我们这里使用交叉熵损失函数，Optimizer使用带冲量的SGD。

import torch.optim as optim

criterion = nn.CrossEntropyLoss()
optimizer = optim.SGD(net.parameters(), lr=0.001, momentum=0.9)


for epoch in range(2):  # 这里只迭代2个epoch，实际应该进行更多次训练

running_loss = 0.0
for i, data in enumerate(trainloader, 0):
# 得到输入
inputs, labels = data

# 梯度清零

# forward + backward + optimize
outputs = net(inputs)
loss = criterion(outputs, labels)
loss.backward()
optimizer.step()

# 定义统计信息
running_loss += loss.item()
if i % 2000 == 1999:
print('[%d, %5d] loss: %.3f' %
(epoch + 1, i + 1, running_loss / 2000))
running_loss = 0.0

print('Finished Training')


#### 在测试数据集上进行测试

我们进行了2轮迭代，可以使用测试数据集上的数据来进行测试。首先我们随机抽取几个样本来进行测试。

dataiter = iter(testloader)
images, labels = dataiter.next()

imshow(torchvision.utils.make_grid(images))
print('GroundTruth: ', ' '.join('%5s' % classes[labels[j]] for j in range(4)))


随机选择出来的测试样例如下图所示。

图：随机测试的结果

我们用模型来预测一下，看看是否正确预测：

outputs = net(images)


outputs是10个分类的logits。我们在训练的时候需要用softmax把它变成概率(CrossEntropyLoss帮我们做了)，但是预测的时候没有必要，因为我们只需要知道哪个分类的概率大就行。

_, predicted = torch.max(outputs, 1)

print('Predicted: ', ' '.join('%5s' % classes[predicted[j]]
for j in range(4)))

# cat  ship  ship  ship


预测中的四个错了一个，似乎还不错。接下来我们看看在整个测试集合上的效果：

correct = 0
total = 0
images, labels = data
outputs = net(images)
_, predicted = torch.max(outputs.data, 1)
total += labels.size(0)
correct += (predicted == labels).sum().item()

print('Accuracy of the network on the 10000 test images: %d %%' % (
100 * correct / total))

# Accuracy of the network on the 10000 test images: 55 %


看起来比随机的瞎猜要好，因为随机猜的准确率大概是10%的准确率，所以模型确实学到了一些东西。我们也可以看每个分类的准确率：

class_correct = list(0. for i in range(10))
class_total = list(0. for i in range(10))
images, labels = data
outputs = net(images)
_, predicted = torch.max(outputs, 1)
c = (predicted == labels).squeeze()
for i in range(4):
label = labels[i]
class_correct[label] += c[i].item()
class_total[label] += 1

for i in range(10):
print('Accuracy of %5s : %2d %%' % (
classes[i], 100 * class_correct[i] / class_total[i]))


结果为：

Accuracy of plane : 52 %
Accuracy of   car : 66 %
Accuracy of  bird : 49 %
Accuracy of   cat : 34 %
Accuracy of  deer : 30 %
Accuracy of   dog : 45 %
Accuracy of  frog : 72 %
Accuracy of horse : 71 %
Accuracy of  ship : 76 %
Accuracy of truck : 55 %


#### GPU上训练

为了在GPU上训练，我们需要把Tensor移到GPU上。首先我们看看是否有GPU，如果没有，那么我们还是fallback到CPU。

device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
print(device)
# cuda:0


用GPU进行训练：

class Net2(nn.Module):
def __init__(self):
super(Net2, self).__init__()
self.conv1 = nn.Conv2d(3, 6, 5).to(device)
self.pool = nn.MaxPool2d(2, 2).to(device)
self.conv2 = nn.Conv2d(6, 16, 5).to(device)
self.fc1 = nn.Linear(16 * 5 * 5, 120).to(device)
self.fc2 = nn.Linear(120, 84).to(device)
self.fc3 = nn.Linear(84, 10).to(device)

def forward(self, x):
x = self.pool(F.relu(self.conv1(x)))
x = self.pool(F.relu(self.conv2(x)))
x = x.view(-1, 16 * 5 * 5)
x = F.relu(self.fc1(x))
x = F.relu(self.fc2(x))
x = self.fc3(x)
return x

net = Net2()
criterion = nn.CrossEntropyLoss()
optimizer = optim.SGD(net.parameters(), lr=0.001, momentum=0.9)

for epoch in range(20):

running_loss = 0.0
for i, data in enumerate(trainloader, 0):
# 得到输入
inputs, labels = data
inputs, labels = inputs.to(device), labels.to(device)
# 梯度清零

# forward + backward + optimize
outputs = net(inputs)
loss = criterion(outputs, labels)
loss.backward()
optimizer.step()

# 定义统计信息
running_loss += loss.item()
if i % 2000 == 1999:
print('[%d, %5d] loss: %.3f' %
(epoch + 1, i + 1, running_loss / 2000))
running_loss = 0.0

print('Finished Training')


## 通过例子学PyTorch

下面我们通过使用不同的方法来实现一个简单的三层(一个隐层)的全连接神经网络来熟悉PyTorch的常见用法。

### 使用Numpy实现三层神经网络

我们需要实现一个全连接的激活为ReLU的网络，它只有一个隐层，没有bias，用于回归预测一个值，loss是计算实际值和预测值的欧氏距离。这里完全使用numpy手动的进行前向和后向计算。numpy数组就是一个n维的数值，它并不知道任何关于深度学习、梯度下降或者计算图的东西，它只是进行数值运算。

import numpy as np

# N是batch size；D_in是输入大小
# H是隐层的大小；D_out是输出大小。
N, D_in, H, D_out = 64, 1000, 100, 10

# 随机产生输入与输出
x = np.random.randn(N, D_in)
y = np.random.randn(N, D_out)

# 随机初始化参数
w1 = np.random.randn(D_in, H)
w2 = np.random.randn(H, D_out)

learning_rate = 1e-6
for t in range(500):
# 前向计算y
h = x.dot(w1)
h_relu = np.maximum(h, 0)
y_pred = h_relu.dot(w2)

# 计算loss
loss = np.square(y_pred - y).sum()
print(t, loss)

# 反向计算梯度
grad_y_pred = 2.0 * (y_pred - y)

# 更新参数


### 使用Tensor来实现三层神经网络

和前面一样，我们还是实现一个全连接的Relu激活的网络，它只有一个隐层并且没有bias。loss是预测与真实值的欧氏距离。之前我们用Numpy实现，自己手动前向计算loss，反向计算梯度。这里还是一样，只不过把numpy数组换成了PyTorch的Tensor。但是使用PyTorch的好处是我们可以利用GPU来加速计算，如果想用GPU计算，我们值需要在创建tensor的时候指定device为gpu。

import torch

dtype = torch.float
device = torch.device("cpu")
# device = torch.device("cuda:0") # 如果想在GPU上运算，把这行注释掉。

N, D_in, H, D_out = 64, 1000, 100, 10

x = torch.randn(N, D_in, device=device, dtype=dtype)
y = torch.randn(N, D_out, device=device, dtype=dtype)

w1 = torch.randn(D_in, H, device=device, dtype=dtype)
w2 = torch.randn(H, D_out, device=device, dtype=dtype)

learning_rate = 1e-6
for t in range(500):
h = x.mm(w1)
h_relu = h.clamp(min=0) # 使用clamp(min=0)来实现ReLU
y_pred = h_relu.mm(w2)

loss = (y_pred - y).pow(2).sum().item()
print(t, loss)

grad_y_pred = 2.0 * (y_pred - y)



import torch

dtype = torch.float
device = torch.device("cpu")
# device = torch.device("cuda:0") # 如果有GPU可以注释掉这行

# N是batch size；D_in是输入大小
# H是隐层的大小；D_out是输出大小。
N, D_in, H, D_out = 64, 1000, 100, 10

# 创建随机的Tensor作为输入和输出
# 因为我们不需要计算loss对它们的梯度。
x = torch.randn(N, D_in, device=device, dtype=dtype)
y = torch.randn(N, D_out, device=device, dtype=dtype)

w1 = torch.randn(D_in, H, device=device, dtype=dtype, requires_grad=True)
w2 = torch.randn(H, D_out, device=device, dtype=dtype, requires_grad=True)

learning_rate = 1e-6
for t in range(500):
# clamp本来的用途是把值clamp到指定的范围，这里实现ReLU。
y_pred = x.mm(w1).clamp(min=0).mm(w2)

# pow(2)实现平方计算。
# loss.item()得到这个tensor的值。也可以直接打印loss，这会打印很多附加信息。
loss = (y_pred - y).pow(2).sum()
print(t, loss.item())

loss.backward()

# 否则下面的更新也会计算梯度。后面我们会使用torch.optim.SGD，
# 它会帮我们管理这些用于更新梯度的计算。

# 手动把梯度清零


### 使用自定义的ReLU函数

这里还是那个全连接网络的例子，不过这里我们不使用clamp来实现ReLU，而是我们自己来实现一个MyReLU的函数。

import torch

"""
然后再实现forward和backward两个函数。
"""

@staticmethod
def forward(ctx, input):
"""
在forward函数，我们的输入是input，然后我们根据input计算输出。
# 同时为了下面的backward，
我们需要使用save_for_backward来保存用于反向计算的数据到ctx里，
# 这里我们需要保存input。
"""
ctx.save_for_backward(input)
return input.clamp(min=0)

@staticmethod
"""
从ctx.saved_tensors里恢复input
然后用input计算梯度
"""
input, = ctx.saved_tensors

dtype = torch.float
device = torch.device("cpu")

N, D_in, H, D_out = 64, 1000, 100, 10

x = torch.randn(N, D_in, device=device, dtype=dtype)
y = torch.randn(N, D_out, device=device, dtype=dtype)

w1 = torch.randn(D_in, H, device=device, dtype=dtype, requires_grad=True)
w2 = torch.randn(H, D_out, device=device, dtype=dtype, requires_grad=True)

learning_rate = 1e-6
for t in range(500):
# 为了调用我们自定义的函数，我们需要使用Function.apply方法，把它命名为'relu'
relu = MyReLU.apply

# 我们使用自定义的ReLU来进行Forward计算
y_pred = relu(x.mm(w1)).mm(w2)

loss = (y_pred - y).pow(2).sum()
print(t, loss.item())

loss.backward()



### 和Tensorflow的对比

这里我们还是和前面一样，实现一个隐层的全连接神经网络，优化的目标函数是预测值和真实值的欧氏距离。这个实现使用基本的Tensorflow操作来构建一个计算图，然后多次执行这个计算图来训练网络。Tensorflow和PyTorch最大的区别之一就是Tensorflow使用静态计算图和PyTorch使用动态计算图。在Tensorflow里，我们首先构建计算图，然后多次执行它。

import tensorflow as tf
import numpy as np

# 首先构建计算图。

# N是batch大小；D_in是输入大小。
# H是隐单元个数；D_out是输出大小。
N, D_in, H, D_out = 64, 1000, 100, 10

# 输入和输出是placeholder，在用session执行graph的时候
# 我们会feed进去一个batch的训练数据。
x = tf.placeholder(tf.float32, shape=(None, D_in))
y = tf.placeholder(tf.float32, shape=(None, D_out))

# 创建变量，并且随机初始化。
# 在Tensorflow里，变量的生命周期是整个session，因此适合用它来保存模型的参数。
w1 = tf.Variable(tf.random_normal((D_in, H)))
w2 = tf.Variable(tf.random_normal((H, D_out)))

# Forward pass：计算模型的预测值y_pred
# 注意和PyTorch不同，这里不会执行任何计算，
# 而只是定义了计算，后面用session.run的时候才会真正的执行计算。
h = tf.matmul(x, w1)
h_relu = tf.maximum(h, tf.zeros(1))
y_pred = tf.matmul(h_relu, w2)

# 计算loss
loss = tf.reduce_sum((y - y_pred) ** 2.0)

# 计算梯度。

# 使用梯度下降来更新参数。assign同样也只是定义更新参数的操作，不会真正的执行。
# 在Tensorflow里，更新操作是计算图的一部分；
# 而在PyTorch里，因为是动态的”实时“的计算，
# 所以参数的更新只是普通的Tensor计算，不属于计算图的一部分。
learning_rate = 1e-6
new_w1 = w1.assign(w1 - learning_rate * grad_w1)
new_w2 = w2.assign(w2 - learning_rate * grad_w2)

# 计算图构建好了之后，我们需要创建一个session来执行计算图。
with tf.Session() as sess:
# 首先需要用session初始化变量
sess.run(tf.global_variables_initializer())

# 这是fake的训练数据
x_value = np.random.randn(N, D_in)
y_value = np.random.randn(N, D_out)
for _ in range(500):
# 用session多次的执行计算图。每次feed进去不同的数据。
# 这里是模拟的，实际应该每次feed一个batch的数据。
# run的第一个参数是需要执行的计算图的节点，它依赖的节点也会自动执行，
#　因此我们不需要手动执行forward的计算。
# run返回这些节点执行后的值，并且返回的是numpy array
loss_value, _, _ = sess.run([loss, new_w1, new_w2],
feed_dict={x: x_value, y: y_value})
print(loss_value)


### 使用nn模块来实现三层神经网络

我们接下来使用nn模块来实现这个简单的全连接网络。前面我们通过用Tensor和Operation等low-level API来创建 动态的计算图，这里我们使用更简单的high-level API。

import torch
print(torch.__version__)

# N是batch size；D_in是输入大小 # H是隐层的大小；D_out是输出大小。 N, D_in, H, D_out = 64, 1000, 100, 10

# 创建随机的Tensor作为输入和输出 x = torch.randn(N, D_in)
y = torch.randn(N, D_out)

# 使用nn包来定义网络。nn.Sequential是一个包含其它模块(Module)的模块。 # 每个Linear模块使用线性函数来计算，它会内部创建需要的weight和bias。 model = torch.nn.Sequential(
torch.nn.Linear(D_in, H),
torch.nn.ReLU(),
torch.nn.Linear(H, D_out),
)

# 常见的损失函数在nn包里也有，不需要我们自己实现 loss_fn = torch.nn.MSELoss(size_average=False)

learning_rate = 1e-4
for t in range(500):
# 前向计算：通过x来计算y。Module对象会重写__call__函数， # 因此我们可以把它当成函数来调用。 y_pred = model(x)

# 计算loss loss = loss_fn(y_pred, y)
print(t, loss.item())

# 反向计算梯度。我们通过Module定义的变量都会计算梯度。 loss.backward()

# 更新参数，所有的参数都在model.paramenters()里
for param in model.parameters():


### 使用optim包

import torch

N, D_in, H, D_out = 64, 1000, 100, 10

x = torch.randn(N, D_in)
y = torch.randn(N, D_out)

model = torch.nn.Sequential(
torch.nn.Linear(D_in, H),
torch.nn.ReLU(),
torch.nn.Linear(H, D_out),
)
loss_fn = torch.nn.MSELoss(size_average=False)

# 使用Adam算法，需要提供模型的参数和learning rate learning_rate = 1e-4
for t in range(500):
y_pred = model(x)

loss = loss_fn(y_pred, y)
print(t, loss.item())

loss.backward()

# 调用optimizer.step实现参数更新 	optimizer.step()


### 自定义nn模块

对于复杂的网络结构，我们可以通过基础Module了自定义nn模块。这样的好处是用一个类来同样管理，而且更容易复用代码。

import torch

class TwoLayerNet(torch.nn.Module):
def __init__(self, D_in, H, D_out):
""" 在构造函数里，我们定义两个nn.Linear模块，把它们保存到self里。 """
super(TwoLayerNet, self).__init__()
self.linear1 = torch.nn.Linear(D_in, H)
self.linear2 = torch.nn.Linear(H, D_out)

def forward(self, x):
""" 在forward函数里，我们需要根据网络结构来实现前向计算。 通常我们会上定义的模块来计算。 """
h_relu = self.linear1(x).clamp(min=0)
y_pred = self.linear2(h_relu)
return y_pred

N, D_in, H, D_out = 64, 1000, 100, 10

x = torch.randn(N, D_in)
y = torch.randn(N, D_out)

model = TwoLayerNet(D_in, H, D_out)

criterion = torch.nn.MSELoss(size_average=False)
optimizer = torch.optim.SGD(model.parameters(), lr=1e-4)
for t in range(500):
y_pred = model(x)

loss = criterion(y_pred, y)
print(t, loss.item())

loss.backward()
optimizer.step()


### 流程控制和参数共享

为了展示PyTorch的动态图的能力，我们这里会实现一个很奇怪模型：这个全连接的网络的隐层个数是个1到4之间的随机数，而且这些网络层的参数是共享的。

import random
import torch

class DynamicNet(torch.nn.Module):
def __init__(self, D_in, H, D_out):
""" 构造3个nn.Linear实例。 """
super(DynamicNet, self).__init__()
self.input_linear = torch.nn.Linear(D_in, H)
self.middle_linear = torch.nn.Linear(H, H)
self.output_linear = torch.nn.Linear(H, D_out)

def forward(self, x):
# 输入和输出层是固定的，但是中间层的个数是随机的(0,1,2)， 		# 并且中间层的参数是共享的。
# 因为每次计算的计算图是动态(实时)构造的， 		# 所以我们可以使用普通的Python流程控制代码比如for循环 		# 来实现。读者可以尝试一下怎么用TensorFlow来实现。 		# 另外一点就是一个Module可以多次使用，这样就 		# 可以实现参数共享。
h_relu = self.input_linear(x).clamp(min=0)
for _ in range(random.randint(0, 3)):
h_relu = self.middle_linear(h_relu).clamp(min=0)
y_pred = self.output_linear(h_relu)
return y_pred

N, D_in, H, D_out = 64, 1000, 100, 10

x = torch.randn(N, D_in)
y = torch.randn(N, D_out)

model = DynamicNet(D_in, H, D_out)

criterion = torch.nn.MSELoss(size_average=False)
optimizer = torch.optim.SGD(model.parameters(), lr=1e-4, momentum=0.9)
for t in range(500):
y_pred = model(x)

loss = criterion(y_pred, y)
print(t, loss.item())

loss.backward()
optimizer.step()


## 迁移学习示例

在这个教程里，我们会学习怎么使用迁移学习来训练模型。通常我们的训练数据量不会很大，很难达到像ImageNet那样上百万的标注数据集。我们可以使用迁移学习来解决训练数据不足的问题。迁移学习里，我们根据训练数据的多少通常可以采取如下方法：

• 训练数据很少

那么我们通常把一个pretraning的网络的大部分固定住，然后只是把最后一个全连接层换成新的(最后一层通常是不一样的，因为分类的数量不同)，然后只训练这一层

• 训练数据较多

我们可以把pretraining的网络的前面一些层固定住，但后面的层不固定，把最后一层换新的，然后训练

• 训练数据很多

所有的pretraining的层都可以fine-tuning，只是用pretraining的参数作为初始化参数。

首先我们引入依赖：

from __future__ import print_function, division

import torch
import torch.nn as nn
import torch.optim as optim
from torch.optim import lr_scheduler
import numpy as np
import torchvision
from torchvision import datasets, models, transforms
import matplotlib.pyplot as plt
import time
import os
import copy

plt.ion()


### 加载数据

我们使用torchvision和torch.utils.data包来加载数据。我们要解决的问题是训练一个模型来区分蚂蚁和蜜蜂，每个类别我们大概有120个训练数据，另外每个类有75个验证数据。这是一个很小的训练集，如果直接用一个神经网络来训练，效果会很差。现在我们用迁移学习来解决这个问题。数据可以在这里下载，下载后请解压到data目录下。

# 训练的时候会做数据增强和归一化
# 而验证的时候只做归一化
data_transforms = {
'train': transforms.Compose([
transforms.RandomResizedCrop(224),
transforms.RandomHorizontalFlip(),
transforms.ToTensor(),
transforms.Normalize([0.485, 0.456, 0.406], [0.229, 0.224, 0.225])
]),
'val': transforms.Compose([
transforms.Resize(256),
transforms.CenterCrop(224),
transforms.ToTensor(),
transforms.Normalize([0.485, 0.456, 0.406], [0.229, 0.224, 0.225])
]),
}

data_dir = '../data/hymenoptera_data'
image_datasets = {x: datasets.ImageFolder(os.path.join(data_dir, x),
data_transforms[x])
for x in ['train', 'val']}
shuffle=True, num_workers=4)
for x in ['train', 'val']}
dataset_sizes = {x: len(image_datasets[x]) for x in ['train', 'val']}
class_names = image_datasets['train'].classes

device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")


### 可视化图片

我们来显示几张图片看看，下图是一个batch的图片，显示的代码如下：

def imshow(inp, title=None):
inp = inp.numpy().transpose((1, 2, 0))
mean = np.array([0.485, 0.456, 0.406])
std = np.array([0.229, 0.224, 0.225])
inp = std * inp + mean
inp = np.clip(inp, 0, 1)
plt.imshow(inp)
if title is not None:
plt.title(title)
plt.pause(0.001)

# 得到一个batch的数据

# 把batch张图片拼接成一个大图
out = torchvision.utils.make_grid(inputs)

imshow(out, title=[class_names[x] for x in classes])


图：迁移学习数据示例

### 训练模型

现在我们来实现一个用于训练模型的通用函数。这里我们会演示怎么实现：

• learning rate的自适应
• 保存最好的模型

在下面的函数中，参数scheduler是来自torch.optim.lr_scheduler的LR scheduler对象(_LRScheduler的子类）

def train_model(model, criterion, optimizer, scheduler, num_epochs=25):
since = time.time()

best_model_wts = copy.deepcopy(model.state_dict())
best_acc = 0.0

for epoch in range(num_epochs):
print('Epoch {}/{}'.format(epoch, num_epochs - 1))
print('-' * 10)

# 每个epoch都分为训练和验证阶段
for phase in ['train', 'val']:
if phase == 'train':
scheduler.step()
model.train()  # 训练阶段
else:
model.eval()   # 验证阶段

running_loss = 0.0
running_corrects = 0

# 变量数据集
inputs = inputs.to(device)
labels = labels.to(device)

# 参数梯度清空

# forward
# 只有训练的时候track用于梯度计算的历史信息。
outputs = model(inputs)
_, preds = torch.max(outputs, 1)
loss = criterion(outputs, labels)

# 如果是训练，那么需要backward和更新参数
if phase == 'train':
loss.backward()
optimizer.step()

# 统计
running_loss += loss.item() * inputs.size(0)
running_corrects += torch.sum(preds == labels.data)

epoch_loss = running_loss / dataset_sizes[phase]
epoch_acc = running_corrects.double() / dataset_sizes[phase]

print('{} Loss: {:.4f} Acc: {:.4f}'.format(
phase, epoch_loss, epoch_acc))

# 保存验证集上的最佳模型
if phase == 'val' and epoch_acc > best_acc:
best_acc = epoch_acc
best_model_wts = copy.deepcopy(model.state_dict())

print()

time_elapsed = time.time() - since
print('Training complete in {:.0f}m {:.0f}s'.format(
time_elapsed // 60, time_elapsed % 60))
print('Best val Acc: {:4f}'.format(best_acc))

# 加载最优模型
return model


### 可视化预测结果的函数

def visualize_model(model, num_images=6):
was_training = model.training
model.eval()
images_so_far = 0
fig = plt.figure()

for i, (inputs, labels) in enumerate(dataloaders['val']):
inputs = inputs.to(device)
labels = labels.to(device)

outputs = model(inputs)
_, preds = torch.max(outputs, 1)

for j in range(inputs.size()[0]):
images_so_far += 1
ax = plt.subplot(num_images//2, 2, images_so_far)
ax.axis('off')
ax.set_title('predicted: {}'.format(class_names[preds[j]]))
imshow(inputs.cpu().data[j])

if images_so_far == num_images:
model.train(mode=was_training)
return
model.train(mode=was_training)


### fine-tuning所有参数

我们首先加载一个预训练的模型(imagenet上的resnet)，因为我们的类别数和imagenet不同，所以我们需要删掉原来的全连接层，换成新的全连接层。这里我们让所有的模型参数都可以调整，包括新加的全连接层和预训练的层。

model_ft = models.resnet18(pretrained=True)
num_ftrs = model_ft.fc.in_features
model_ft.fc = nn.Linear(num_ftrs, 2)

model_ft = model_ft.to(device)

criterion = nn.CrossEntropyLoss()

# 所有的参数都可以训练
optimizer_ft = optim.SGD(model_ft.parameters(), lr=0.001, momentum=0.9)

# 每7个epoch learning rate变为原来的10%
exp_lr_scheduler = lr_scheduler.StepLR(optimizer_ft, step_size=7, gamma=0.1)

model_ft = train_model(model_ft, criterion, optimizer_ft, exp_lr_scheduler,
num_epochs=25)


最终我们得到的分类准确率大概在94.7%。

### fine-tuning最后一层参数

我们用可以固定住前面层的参数，只训练最后一层。这比之前要快将近一倍，因为反向计算梯度只需要计算最后一层。但是前向计算的时间是一样的。

model_conv = torchvision.models.resnet18(pretrained=True)
for param in model_conv.parameters():

num_ftrs = model_conv.fc.in_features
model_conv.fc = nn.Linear(num_ftrs, 2)

model_conv = model_conv.to(device)

criterion = nn.CrossEntropyLoss()

# 值训练最后一个全连接层。
optimizer_conv = optim.SGD(model_conv.fc.parameters(), lr=0.001, momentum=0.9)

exp_lr_scheduler = lr_scheduler.StepLR(optimizer_conv, step_size=7, gamma=0.1)

model_conv = train_model(model_conv, criterion, optimizer_conv,
exp_lr_scheduler, num_epochs=25)


最终我们得到的分类准确率大概在96%。

展开全文
• 深度学习与PyTorch入门实战_龙良曲 bilibili_回归问题实战（第六课） 1 data.csv 用于回归的数据数据 2 gd.py 回归实战运行代码 3 lesseon4.pdf 课件
• 本文实例为大家分享了Pytorch入门之mnist分类的具体代码，供大家参考，具体内容如下 #!/usr/bin/env python # -*- coding: utf-8 -*- __author__ = 'denny' __time__ = '2017-9-9 9:03' import torch import ...
• 深度学习框架pytorch入门与实践书中的代码和教程，包含了书中很多内容，需要用jupyter notebook打开
• PyTorch起源 Facebook人工智能研究（FAIR）2017年Github开源 PyTorch VS TensorFlow Pytorch 简洁 动态计算 visdom 部署不方便 TensorFlow 接口复杂 静态图（TF2.0 已经引入动态图） Tensorbord 部署方便（TF ...

## PyTorch VS TensorFlow

• 简洁
• 动态计算
• visdom
• 部署不方便
##### TensorFlow
• 接口复杂
• 静态图（TF2.0 已经引入动态图）
• Tensorbord
• 部署方便（TF serving）

## 静态图与动态图

• 动态图：编号程序即可执行
• 静态图：先搭建计算图。后运行。(代码复杂，调试不直观)

##### 动态图
展开全文
• 本资源是深度学习框架-pytorch入门与实践一书的源代码。
• 1.pytorch的基本概念（Tensor和Variable)、自动微分和pyTorch的核心模块。 张量可以理解为一个多维数组，类似于Numpy 中的ndarray对象。 2.三维张量形如[W;H;C] [weight,height,channel] 3.四维张量形如[N,W,H,C]...

1.pytorch的基本概念（Tensor和Variable)、自动微分和pyTorch的核心模块。

张量可以理解为一个多维数组，类似于Numpy 中的ndarray对象。

2.三维张量形如[W;H;C] [weight,height,channel]

3.四维张量形如[N,W,H,C] [batch,weight,height,channel]

from PIL import Image
import numpy as np
import torch
import matplotlib.pyplot as plt
pytorch=np.array(Image.open("panda.jpg").resize((224,224)))
print(pytorch.shape)
pytorch_tensor=torch.from_numpy(pytorch)
pytorch_tensor.size()
plt.imshow(pytorch)

5.神经网络计算优化的过程大体上可以分为前向传播计算损失和反向传播更新梯度。

6.pytorch可以自动微分更新梯度计算

8.Pytorch中的Tensor对标的是Numpy科学计算库。

9.神经网络前向传播就是一层一层往下计算的意思。

10.神经网络的反向传播是指前向传播完后会得到一个输出结果向量a,通过与真实数据标签y进行对比可以构建损失函数，如常见的均方误差（MSE）损失，由损失函数反向对各层w和b进行求偏导数，进而更新权重参数w和b,完成训练和优化。

11.torch.ones(),torch.zeros(),torch.eye()

展开全文
• https://www.jianshu.com/p/889dbc684622
• 根据学习b站当中的pyTorch深度学习快速入门教程（绝对通俗易懂！）【小土堆】 所做的一些笔记和代码整合。附上学习视频链接https://www.bilibili.com/video/BV1hE411t7RN?spm_id_from=333.337.search-card.all.click
• PyTorch | （2）PyTorch 入门-张量 PyTorch 是一个基于 Python 的科学计算包，主要定位两类人群： NumPy 的替代品，可以利用 GPU 的性能进行计算。 深度学习研究平台拥有足够的灵活性和速度 Tensors (张量)  ...
• ## 【超详细】Pytorch入门教程（一）

千次阅读 多人点赞 2021-07-28 19:11:22
Pytorch 入门教程1. Pytorch基本语法1.1 认识Pytorch1.2 Pytorch的基本元素操作1.3 Pytorch的基本运算操作1.4 关于Torch Tensor和Numpy array之间的相互转换1.5 小节总结 1. Pytorch基本语法 1.1 认识Pytorch 什么...
• 深度学习上手已经很长时间了，还记得最初的入门是跟着B站up小土堆的一步步学起来的，从起初的环境配置，到现在调整整个模型的进阶，非常感谢土堆的贡献。 写这个博客的初衷是为了自己看着方便，由于多台电脑多个环境...

...