官方服务微信:dat818 购买与出租对接

边缘检测分正边负边,多种过滤器及其特点与应用

2万

主题

2

回帖

8万

积分

管理员

积分
85958
发表于 2025-2-2 05:26:54 | 显示全部楼层 |阅读模式
    实际上,边缘检测分为正和负边。详细说明,它指的是从光到黑暗到黑暗到光线之间的差异。卷积操作后,我们可以区分两者。如下所示:

    除上述过滤器外,研究人员还提出了许多其他过滤器,例如SOBEL过滤器,过滤器等。这些不同的过滤器具有不同的特征。对于垂直过滤器,我们通常将过滤器的左侧占据正值,中间为0,右侧为负值。实际上,也很容易地发现我们只需要以90度的顺时针将垂直过滤器翻转即可获得水平过滤器。

    我们可以通过设计这些过滤器来从图像中提取不同的功能,但是此过程更为复杂。好消息是,在深度学习中,我们不一定需要自己设计此过滤器。我们可以将矩阵中的9个数字用作9个参数,并使用反向通信算法来了解这9个参数。因此,实现了过滤器的学习和设计。反向通信算法设计的这种过滤器具有更强的数据捕获能力,并且可以检测到45度,75度,73度甚至任何角度的边缘。

    4,,

    对于具有n nn*nn*nn*n的图像,当使用F -FF*ff*f的滤波器用作卷积时,输出结果为(n -f+1)∗(n -f(n -f(n -f(n n -f( n-f)(n-f)+1)(n-f+1)*(n-f+1)(n-f+1)*(n-f+1)。

    从这个角度来看,我们使用卷积操作带来了两个缺点:

    分析了这两个问题的原因,我们发现,由于减少了卷积操作以减少图像的检测区域,以解决这两个问题,因此我们填写了在卷积操作之前需要处理的图像。圆0,填充0不会影响图像的性质,但是它可以在卷积图像之后形成图像与原始图像相同的大小。这个操作是。如果我们填充的数字为p,则输出大小将变为(n+2p-f+1)∗(n+2p-f+1)(n+2pp-f+1)*(n+2pp-f +1) (n+2p)f+1)∗(n+2p -f+1)。 *

    根据像素数量的差异,我们将卷积分为有效的卷积和相同的卷积:

    5。杂乱的步骤

    在卷积期间,我们还可以设置每个机芯卷积内核之间的距离。我们称之为卷积长度的距离,即。

    如果我们输入的图像大小为n ∗ nn*nn ∗ n,则过滤器大小为f ∗ ff*ff*ff*f,ppp,step()为sss,输出大小为:(n+ 2p -fs+ 1 )+(n+2p ∗ fs+1)\ left(\ frac {n+2p-f} {s+1}}}} \ right)*\ left(\ frac {n+2p-f} {s+1} \ right)(s+1n+2p -f)∗(s+1n+2p -f)

    如果我们获得的业务不是整数,我们使用地板功能将其删除。此操作可以确保我们的卷积内核必须在图像中,否则将不会执行。

    6。为什么卷积有效

    在三维卷积中,我们必须使卷积内核通道数量与输入图像的通道数相同。同时,输出图像的通道数是所使用的卷积内核的数量。计算该公式。

    三个维图像的卷积基本上与上一个介绍相同。对于下面所示的BGR图像,我们使用3*3*33*3*3*33*3*3*3尺寸卷积核来说服它。三个3 3 33*33*3计算红色,绿色和蓝色通道中的数量数量以获得最终结果。

    如果我们想同时检测多个边,我们可以同时使用多个过滤器。如下图所示,为了实现垂直边缘和水平边缘的相同检测,我们使用两个过滤器,一个滤波器用于检测水平边缘,另一个用于检测垂直边缘。

    更普遍的是,如果输入图像的大小为n ∗ n ∗ n ∗ ncn*n*n_cn ∗ n ∗ nC,我们使用f ∗ f ∗ f ∗ ncf*f*f*n_cf*f ∗ f ∗ nc的大小的大小。对于卷积,当卷积中没有链接并且卷积长度为1时,输出图像大小为(n-f+1)∗(n-f+1)∗ n'c(n-f+1 )*(n-f+1)*n'_c(n-f+1)∗(n-f+1)∗ n'c,n'cn'_cn'c是过滤器的数量。

    7。单层卷积神经网络

   


    我们进行BGR图像的抽搐,其大小为6*66*66*6,然后选择两个带有3 ∗ 3 ∗ 33*33*33 ∗ 3 ∗ 3的过滤器4 4 4 444的结果的结果*44 *4,

    我们在此结果中添加偏差(偏置),然后应用非线性激活函数relu,然后将两个结果矩阵堆叠起来,最后获得442矩阵。这是一个单个层次卷积神经网络。

    为了促进卷积神经网络的数学形式的表达,我们使用符号来表达其中的相关参数,如下所示:

    8。简单的卷积神经网络示例

    本章主要给出了卷积神经网络的具体例子。实际上,Wu Enda正在帮助我们审查公式(n +2p-f)/s)+1(n +2p-f)/s)+1(n)(n(n(n(n(n(n(n +2p)),) )/s)+1

    我们将仅为39*39*339*39*39*39 ∗ 39 ∗ 39 ∗ 3 ∗ 3 ∗ 3 ∗ 3输入卷积神经网络以检测图像是否包含猫。图的宽度和高度为39,通道的数量为3(表示有三个RGB通道)。

    我们选择的卷积核心的大小为3*33*33*3、1至0和0。在此示例中,我们选择的卷积内核总数为10。在第一个卷积层操作后,输出图像大小变成

    17 ∗ 17 2017*17*17 ∗ 17 ∗ 20。第二卷积层是从卷积核中选择的,大小为5*55*55*5,其中2个为2和0。该层中有20层。该卷积层之后的图像输出为17*17*2017*17*2017 ∗ 17 ∗ 20。第三卷积层的卷积核为5*55*55*55*5,即2。这层。 40是1960年的参数。为了促进遵循-up处理,我们可以平滑这些1960年的参数()或()在1960年获得较长的向量。什么是)计算,最后获得了神经网络的预测输出。

    随着神经网络计算深度的加深,一开始,图像通常会更大。高度和宽度将在一段时间内保持一致,然后随着网络深度而逐渐减小,并且通道()的数量正在增加。许多其他卷积神经网络也有类似的操作。

    卷积神经网络通常由卷积层(),池层()和完整的连接层(完全)组成。这三层在卷积神经网络中具有非常重要的作用。

    截至目前,我们已经讨论了卷积神经网络的卷积层。但是在卷积神经网络中,除了卷积层()之外,我们还具有池层()和完整的连接层(完全)。这三层分别由Conv,Pool和FC代表。

    尽管只能建立一个仅具有卷积层的良好神经网络,但大多数神经网络架构师仍将添加池层和完整的连接层,以提高卷积神经网络的相关性能。

    9。池塘

    除卷积层外,池层还可以减少图像以减少参数以提高工作速度。

    合并有两种类型:最大池(最大)和平均池化。

    最大池:处理卷积后的输出图像,然后将每个块的最大值删除到池之后的相应区域中。它的实际作用是:如果您在过滤器中提取一个特征,则保持其最大值;如果未提取特征,则可能没有此功能,则最大值仍然很小。

    最大输出图像大小计算公式与卷积层相同,它也是((n+2p-f)/s)+1(((n+2pp-f)/s)/s)+1((n+2p-- f) /s)+1,因为此处的超级重免刑为2,最大池后的输出大小为4。如果有NCN_ {C} NC通道,则在此NCN_ {C}上单独执行最大池操作NC频道。

    平均池:平均池化类似于最大池化,这是值得在卷积操作后平均采用相应面积的平均值。

   


    对于汇总操作,它具有两个超尺寸的大小和。卷积神经网络中最高的应用是f = 2,s = 2。它是原始的一半)。对于 Nh ∗ nw ∗ ncn_h*n_w*n_cnh ∗ nw ∗ nc的池化,我们得到的输出图像的大小为:((nh -f)/s)+1)∗(nw +f)/s )+1)∗ nc((n_h-f)/s)+1)*((n_w-f)/s)+1) f)/s)+1) * nc。

    Wu Enda在班级期间特别强调:在合并过程中没有参数可以学习。反向通信没有最大池的参数。最大池只是计算神经网络层的静态属性。

    10。卷积神经网络的示例

    在这里,我们主要介绍Lenet-5的经典卷积神经网络的基本结构

    对于输入图像32*32*332*32*332*32*3的输入图像,我们可以识别下面对手的写作主体的数量,以确定从0到9的10个数字中的哪一个。 。 本质

    在这里,我们需要注意以下几点:

    (1)没有合并层的参数和最大池层;

    (2)卷积层的参数相对较小;

    (3)神经网络的完整连接层中存在许多参数;

    (4)随着神经网络的加深,激活值大小将逐渐变小。如果激活值大小太快,则也会影响网络性能。许多卷积网络具有这些属性,并且模式相似。

    11。为什么选择卷积

    与完整连接的卷积神经网络相比,CNN的参数较少,计算要求较低。

    CNN的优点是:

    参数共享:特征检测器(例如垂直边缘检测)对于图片的某个区域很有用,并且也可能在图片的其他区域作用。

    连接的稀疏度:由于滤波器操作员的尺寸极限,每一层的每个输出仅与输入区域有关。

    另外,由于CNN参数的数量很少,因此所需的训练样本相对较小,因此在一定程度上不容易出现。此外,CNN更擅长捕获该地区的位置。换句话说,当通过对象检测检测CNN时,它会受到对象中对象的图像位置的影响,并且检测的准确性和系统的鲁棒性。

更多帖子推荐

您需要登录后才可以回帖 登录 | 立即注册

Archiver|手机版|小黑屋|关于我们

Copyright © 2001-2025, Tencent Cloud.    Powered by Discuz! X3.5    京ICP备20013102号-30

违法和不良信息举报电话:86-13718795856 举报邮箱:hwtx2020@163.com

GMT+8, 2025-4-22 16:29 , Processed in 0.075369 second(s), 17 queries .