pytorch torch.nn.Conv2d()函数

软件发布|下载排行|最新软件

当前位置:首页IT学院IT技术

pytorch torch.nn.Conv2d()函数

夏普通   2022-05-23 我要评论

一、官方文档介绍

官网

nn.Conv2d:对由多个输入平面组成的输入信号进行二维卷积

二、torch.nn.Conv2d()函数详解

参数详解

torch.nn.Conv2d(in_channels, out_channels, kernel_size, stride=1, padding=0, dilation=1, groups=1, bias=True)

参数参数类型  
in_channelsintNumber of channels in the input image输入图像通道数
out_channelsintNumber of channels produced by the convolution卷积产生的通道数
kernel_size(int or tuple)Size of the convolving kernel卷积核尺寸,可以设为1个int型数或者一个(int, int)型的元组。例如(2,3)是高2宽3卷积核
stride(int or tuple, optional)Stride of the convolution. Default: 1卷积步长,默认为1。可以设为1个int型数或者一个(int, int)型的元组。
padding(int or tuple, optional)Zero-padding added to both sides of the input. Default: 0填充操作,控制padding_mode的数目。
padding_mode(string, optional)‘zeros’, ‘reflect’, ‘replicate’ or ‘circular’. Default: ‘zeros’padding模式,默认为Zero-padding 。
dilation(int or tuple, optional)Spacing between kernel elements. Default: 1扩张操作:控制kernel点(卷积核点)的间距,默认值:1。
groups(int, optional)Number of blocked connections from input channels to output channels. Default: 1group参数的作用是控制分组卷积,默认不分组,为1组。
bias(bool, optional)If True, adds a learnable bias to the output. Default: True为真,则在输出中添加一个可学习的偏差。默认:True。

参数dilation——扩张卷积(也叫空洞卷积)

dilation操作动图演示如下:

Dilated Convolution with a 3 x 3 kernel and dilation rate 2

扩张卷积核为3×3,扩张率为2

参数groups——分组卷积

Group Convolution顾名思义,则是对输入feature map进行分组,然后每组分别卷积。

三、代码实例

import torch

x = torch.randn(3,1,5,4)
print(x)

conv = torch.nn.Conv2d(1,4,(2,3))
res = conv(x)

print(res.shape)    # torch.Size([3, 4, 4, 2])

输入:x[ batch_size, channels, height_1, width_1 ]

  • batch_size,一个batch中样本的个数 3
  • channels,通道数,也就是当前层的深度 1
  • height_1, 图片的高 5
  • width_1, 图片的宽 4

卷积操作:Conv2d[ channels, output, height_2, width_2 ]

  • channels,通道数,和上面保持一致,也就是当前层的深度 1
  • output ,输出的深度 4【需要4个filter】
  • height_2,卷积核的高 2
  • width_2,卷积核的宽 3

输出:res[ batch_size,output, height_3, width_3 ]

  • batch_size,,一个batch中样例的个数,同上 3
  • output, 输出的深度 4
  • height_3, 卷积结果的高度 4
  • width_3,卷积结果的宽度 2

一个样本卷积示例:

总结 

Copyright 2022 版权所有 软件发布 访问手机版

声明:所有软件和文章来自软件开发商或者作者 如有异议 请与本站联系 联系我们