《动手学深度学习pytorch》部分学习笔记,仅用作自己复习。
填充(padding)是指在输入⾼和宽的两侧填充元素(通常是0元素)。图5.2⾥我们在原输入⾼和宽的两侧分别添加了值为0的元素,使得输入⾼高和宽从3变成了5,并导致输出高和宽由2增加到4。
import torch
from torch import nn
# 定义⼀个函数来计算卷积层。它对输⼊和输出做相应的升维和降维
def comp_conv2d(conv2d, X):
# (1, 1)代表批量⼤小和通道数均为1
X = X.view((1, 1) + X.shape)
Y = conv2d(X)
return Y.view(Y.shape[2:]) # 排除不关心的前两维:批量和通道
# 注意这⾥是两侧分别填充1⾏或列,所以在两侧一共填充2⾏或列
conv2d = nn.Conv2d(in_channels=1, out_channels=1, kernel_size=3,padding=1)
X = torch.rand(8, 8)
comp_conv2d(conv2d, X).shape
输出:torch.Size([8, 8])
当卷积核的高和宽不同时,我们也可以通过设置高和宽上不同的填充数使输出和输⼊具有相同的高和宽。
# 使⽤高为5、宽为3的卷积核。在高和宽两侧的填充数分别为2和1
conv2d = nn.Conv2d(in_channels=1, out_channels=1, kernel_size=(5,3), padding=(2, 1))
comp_conv2d(conv2d, X).shape
输出:torch.Size([8, 8])
卷积窗口从输入数组的最左上方开始,按从左往右、从上往下的顺序,依次在输⼊数组上滑动。我们将每次滑动的⾏数和列数称为步幅(stride)。
图5.3展示了在⾼上步幅为3、在宽上步幅为2的⼆维互相关运算。可以看到,输出第一列第二个元素时,卷积窗⼝向下滑动了3⾏行,⽽在输出第一⾏第⼆个元素时卷积窗口向右滑动了2列。当卷积窗口在输⼊上再向右滑动2列时,由于输入元素⽆法填满窗⼝口,⽆结果输出。
下⾯我们令⾼和宽上的步幅均为2,从⽽使输⼊的高和宽减半。
conv2d = nn.Conv2d(1, 1, kernel_size=3, padding=1, stride=2)
comp_conv2d(conv2d, X).shape
输出:torch.Size([4, 4])
接下来是⼀个稍微复杂点儿的例子。
conv2d = nn.Conv2d(1, 1, kernel_size=(3, 5), padding=(0, 1), stride=(3, 4))
comp_conv2d(conv2d, X).shape
输出:torch.Size([2, 2])
小结
因篇幅问题不能全部显示,请点此查看更多更全内容