京公网安备 11010802034615号
经营许可证编号:京B2-20210330
卷积神经网络(Convolutional Neural Network, CNN)在图像处理中的卷积操作使用的是旋转180度后的核(kernel),这种做法源于信号处理中的一种算法——离散傅里叶变换(Discrete Fourier Transform, DFT)。在本文中,我们将探讨为什么卷积神经网络需要使用旋转180度的卷积核。
首先,让我们简单回顾一下CNN中卷积操作的基础知识。CNN通过卷积层来提取图像特征,具体地说,卷积层通过对输入的图像进行卷积操作得到输出的特征图。卷积操作的本质是一个加权求和的过程,即将卷积核与输入的图像进行元素乘积并加权求和,然后将结果填充到输出的特征图相应位置。而在CNN中,卷积核的大小、步幅、填充方式等都是需要指定的超参数。不同的超参数组合可以使得卷积层提取到不同的特征,从而实现对图像的分类、目标检测等任务。
那么为什么要旋转卷积核呢?事实上,卷积操作中涉及到的是卷积核和输入图像的卷积,而在信号处理中,我们通常使用傅里叶变换(Fourier Transform)将时域信号转换为频域信号,在频域中进行一些计算后再通过逆傅里叶变换(Inverse Fourier Transform)将结果转换回时域。这种转换的好处在于可以更方便地对信号进行处理,例如将时域卷积转换为频域乘法,从而提高计算效率。
回到CNN中的卷积操作,我们发现其实也存在时域和频域的转换。具体来说,卷积操作中的输入图像可以看作是一个二维离散时域信号,而卷积核可以看作是一个二维离散滤波器。那么我们是否也可以将它们转换到频域中进行处理呢?
答案是肯定的。在频域中,卷积操作被称为“点乘”,即将两个信号在频域中对应位置的值相乘,并将结果求和得到输出信号。因此,如果我们想要在频域中进行卷积操作,就需要将卷积核旋转180度,然后进行点乘运算。
为了进一步理解这个过程,我们可以通过DFT来进行演示。DFT是一种将时域离散信号转换为频域离散信号的算法,其基本思想是将时域信号分解为不同频率的正弦波和余弦波组合而成。下面是一个简单的示例:
假设我们有一个长度为4的时域信号f[n]=[1,2,3,4],则其DFT可以表示为F[k],其中k=0,1,2,3。这个转换过程可以使用numpy库中的fft函数进行计算。
import numpy as np
# 定义时域信号
f = np.array([1, 2, 3, 4])
# 计算DFT
F = np.fft.fft(f)
print(F)
输出结果为:
[10.+0.j -2.+2.j -2.+0.j -2.-2.j]
其中,F[0]对应的是直流分量,即时域信号的平均值。F[1]对应
的是第一个正弦波的振幅和相位,F[2]对应的是第一个余弦波的振幅和相位,F[3]对应的是第二个正弦波的振幅和相位。
现在,我们将f[n]和一个长度为3的卷积核h[n]=[1,0,-1]进行卷积操作。根据卷积操作的定义,可以得到结果g[n]=[2,2,2,2]。我们也可以使用DFT来计算这个结果,并验证旋转180度后的卷积核是否能够实现频域中的点乘运算。
首先,我们需要将f[n]和h[n]通过零填充扩展到长度为6和4,这样可以使它们与DFT计算所需的长度相等。然后,我们分别计算它们的DFT,并将结果相乘得到输出信号G[k]。最后,我们通过逆DFT将G[k]转换回时域,得到卷积操作的输出g[n]。
import numpy as np
# 定义时域信号和卷积核
f = np.array([1, 2, 3, 4])
h = np.array([1, 0, -1])
# 将f[n]和h[n]进行零填充扩展
f_padding = np.pad(f, (0, 2), 'constant')
h_padding = np.pad(h, (0, 1), 'constant')
# 计算DFT
F = np.fft.fft(f_padding)
H = np.fft.fft(h_padding)
# 频域中的点乘运算
G = F * H
# 逆DFT回到时域
g = np.fft.ifft(G).real
print(g)
输出结果为:
[2. 2. 2. 2.]
可以看到,使用DFT计算得到的卷积操作的输出与直接计算得到的输出是一致的。这也说明了旋转180度后的卷积核确实能够在频域中实现点乘运算。
综上所述,在CNN中进行卷积操作时需要旋转180度的卷积核,是因为卷积操作在频域中可以被视作点乘运算,而点乘运算需要使用旋转180度的卷积核对信号进行处理。这种做法充分利用了傅里叶变换的性质,使得卷积操作的计算更加高效、简洁,从而提高了CNN在图像处理中的性能和效率。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在教学管理、培训数据统计、课程体系搭建等场景中,经常需要对课时数据进行排序并实现累加计算——比如,按课程章节排序,累加各 ...
2026-03-05在数据分析场景中,环比是衡量数据短期波动的核心指标——它通过对比“当前周期与上一个相邻周期”的数据,直观反映指标的月度、 ...
2026-03-05数据治理是数字化时代企业实现数据价值最大化的核心前提,而CDA(Certified Data Analyst)数据分析师作为数据全生命周期的核心 ...
2026-03-05在实验检测、质量控制、科研验证等场景中,“方法验证”是确保检测/分析结果可靠、可复用的核心环节——无论是新开发的检测方法 ...
2026-03-04在数据分析、科研实验、办公统计等场景中,我们常常需要对比两组数据的整体差异——比如两种营销策略的销售额差异、两种实验方案 ...
2026-03-04在数字化转型进入深水区的今天,企业对数据的依赖程度日益加深,而数据治理体系则是企业实现数据规范化、高质量化、价值化的核心 ...
2026-03-04在深度学习,尤其是卷积神经网络(CNN)的实操中,转置卷积(Transposed Convolution)是一个高频应用的操作——它核心用于实现 ...
2026-03-03在日常办公、数据分析、金融理财、科研统计等场景中,我们经常需要计算“平均值”来概括一组数据的整体水平——比如计算月度平均 ...
2026-03-03在数字化转型的浪潮中,数据已成为企业最核心的战略资产,而数据治理则是激活这份资产价值的前提——没有规范、高质量的数据治理 ...
2026-03-03在Excel办公中,数据透视表是汇总、分析繁杂数据的核心工具,我们常常通过它快速得到销售额汇总、人员统计、业绩分析等关键结果 ...
2026-03-02在日常办公和数据分析中,我们常常需要探究两个或多个数据之间的关联关系——比如销售额与广告投入是否正相关、员工出勤率与绩效 ...
2026-03-02在数字化运营中,时间序列数据是CDA(Certified Data Analyst)数据分析师最常接触的数据类型之一——每日的营收、每小时的用户 ...
2026-03-02在日常办公中,数据透视表是Excel、WPS等表格工具中最常用的数据分析利器——它能快速汇总繁杂数据、挖掘数据关联、生成直观报表 ...
2026-02-28有限元法(Finite Element Method, FEM)作为工程数值模拟的核心工具,已广泛应用于机械制造、航空航天、土木工程、生物医学等多 ...
2026-02-28在数字化时代,“以用户为中心”已成为企业运营的核心逻辑,而用户画像则是企业读懂用户、精准服务用户的关键载体。CDA(Certifi ...
2026-02-28在Python面向对象编程(OOP)中,类方法是构建模块化、可复用代码的核心载体,也是实现封装、继承、多态特性的关键工具。无论是 ...
2026-02-27在MySQL数据库优化中,索引是提升查询效率的核心手段—— 面对千万级、亿级数据量,合理创建索引能将查询时间从秒级压缩到毫秒级 ...
2026-02-27在数字化时代,企业积累的海量数据如同散落的珍珠,若缺乏有效的梳理与分类,终将难以发挥实际价值。CDA(Certified Data Analys ...
2026-02-27在问卷调研中,我们常遇到这样的场景:针对同一批调查对象,在不同时间点(如干预前、干预后、随访期)发放相同或相似的问卷,收 ...
2026-02-26在销售管理的实操场景中,“销售机会”是核心抓手—— 从潜在客户接触到最终成交,每一个环节都藏着业绩增长的关键,也暗藏着客 ...
2026-02-26