SSconv:全色锐化:显式频谱-空间卷积
Posted 小郭同学要努力
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了SSconv:全色锐化:显式频谱-空间卷积相关的知识,希望对你有一定的参考价值。
SSconv: Explicit Spectral-to-Spatial Convolution for Pansharpening
(SSconv:用于全色锐化的显式频谱-空间卷积)
全色锐化的目的是融合高空间分辨率的全色(PAN)图像和低分辨率的多光谱(LR-MS)图像,以获得与PAN图像具有相同空间分辨率的多光谱图像。由于卷积神经网络(CNN)的灵活结构,它们已成功地应用于泛锐化问题。然而,大多数现有方法仅简单地将上采样的LR-MS馈送到CNN中,并且忽略了由直接上采样引起的空间失真。本文提出了一种显式谱-空卷积(SSConv)算法,该算法将光谱特征聚集到空间域进行上采样操作,可以获得比直接上采样更好的性能。此外,SSconv被嵌入到一个多尺度U形卷积神经网络(MUCNN),充分利用所涉及的图像的多光谱信息。特别是,多尺度注入分支和混合损失的跨尺度水平融合逐像素的图像信息。受益于SSconv的无失真特性,所提出的MUCNN可以在从WorldView-3和GaoFen-2获得的降低分辨率和全分辨率数据集上以简单的结构产生最先进的性能。
介绍
随着光谱成像技术的发展,多光谱图像在医学、地质、农业等领域的应用越来越重要。MS图像通常由部署在卫星上的传感器获取。但由于硬件限制,传感器无法同时保证拍摄图像的光谱和空间分辨率。传感器通常获取高分辨率(HR)PAN图像或低分辨率(LR)MS图像。2006年的竞赛和许多最近的评论论文证明了pansharpening的流行。为了充分利用LR-MS图像中丰富的光谱信息和HR-PAN图像中的空间信息,研究人员提出了全色锐化的思想,试图将HR-PAN图像和LR-MS图像融合得到HR-MS图像。全色锐化的主要挑战是在避免失真的基础上实现光谱和空间信息之间的平衡。因此,有必要充分掌握HR-PAN图像和LR-MS图像的特征,以及它们之间的潜在关系,特别是它们的光谱和空间分辨率之间的差异。
最新的锐化策略可以分为四类:1)基于组分替代(CS)的方法;2)基于多分辨率分析的方法;3)基于变分模型的方法;4)基于深度学习(DL)的方法。前三类可以归类为传统方法,而最近基于卷积神经网络(CNN)的深度学习在广泛的视觉任务中取得了巨大成功,如图像识别,目标检测和单幅图像超分辨率。受LR-MS图像、HR-PAN图像和期望的HR-MS图像之间的关系的映射需求的驱动,已经提出了各种基于DL的方法来改善全色锐化的融合结果,因为它们可以在大量现有数据集上训练后生成更多细节。基于DL的方法能够取得先进结果的原因在于CNN强大的非线性拟合和特征提取能力。
全色锐化的一个不可避免的问题是减轻HR-PAN图像和LR-MS图像的空间分辨率之间差距。上采样作为一种提高空间分辨率的操作,在信息融合过程中具有重要的作用。现有的上采样方法包括线性内插、去卷积和去池化。直接线性插值上采样是最常见的一种,它基于相邻像素的平均值粗略地补充图像。虽然它简单而快速,但其结果往往会出现意想不到的平滑。与预定义的插值方法不同,具有可学习参数的反卷积已广泛用于分割任务,并取得了良好的效果。然而,在卷积运算之前,特征图需要用零填充,因此大量的信息是相当无用的,并且其计算过程在计算上是昂贵的。另一种方法,unpooling,通过直接零填充来升级特征图的分辨率,因此无法探索像素及其相邻像素之间的潜在信息。值得一提的是,上采样对于单个图像超分辨率任务同样至关重要。提出了一种用于单通道特征图的高效且有效的上采样方法。在他们的工作中,原始LR图像通过卷积和周期性shuffling重建为HR图像。受此启发,我们认为,通过类似的像素重排操作,可以在卷积的帮助下学习光谱到空间特征的映射,这非常适合于处理多光谱图像,如全色锐化。
除了上采样方法的具体操作之外,我们还考虑上采样与LR-MS的比率。大多数现有的基于DL的方法将原始LR-MS图像直接上采样到与HR-PAN图像相同的分辨率,这可能导致光谱失真和信息丢失。本文提出了一种新的具有多尺度注入分支的U形网络,充分利用了原始LR-MS图像和HR-PAN图像提供的信息。特别地,我们设计了一个频谱到空间卷积(SSconv)的上采样在泛锐化中,以避免由传统的上采样方法所造成的失真。在U型网络和多尺度注入分支的基础上,我们在网络的过程中产生了不同尺度的特征图。为了监督网络学习过程中的中间产物,提出了一种混合损失策略。最后,所提出的方法在从两颗卫星获得的多个数据集上进行了验证,即,WorldView-3和GaoFen-2。通过对降低的分辨率和全分辨率进行的实验分析,证实了所提出的多尺度U形卷积神经网络(MUCNN)能够优于各种竞争方法。
贡献
1)我们设计了一个Spectral-to-Spacial卷积来将光谱特征聚合到空间域。除了通过充分利用光谱信息来提高特征图的空间分辨率外,SSconv还有助于构建MUCNN中的特征图。
2)我们提出了一个U形卷积神经网络与多尺度注入分支融合的信息在空间和光谱域。
3)采用混合损失策略来监督具有三种不同尺度的输出MS图像,并通过反向传播进行训练,这可以利用丰富的特征层次结构。此外,我们的方法显着超过了现有的最先进的方法与一个简单的结构。
注释和相关工作
Notations
为了清楚和方便,有必要介绍本文中使用的符号。MS ∈ R w × h × b R^w×h×b Rw×h×b表示观察到的LR-MS图像,其中w、h和b分别表示图像的宽度、高度和光谱带。P ∈ R W × H × 1 R^W×H×1 RW×H×1表示观察到的PAN图像,其中H = 4h,W = 4w,GT ∈ R W × H × b R^W×H×b RW×H×b是地面实况图像。所需的HR-MS图像定义为^MS4× ∈ R W × H × b R^W×H×b RW×H×b。除此之外,我们通过SSconv对MS进行上采样,以获得2 ↑和4 ↑ MS图像,定义为MS2↑ ∈ R 2 w × 2 h × b R^2w×2h×b R2w×2h×b和MS4↑ ∈ R W × H × b R^W×H×b RW×H×b。我们使用步长为2的2 × 2卷积和步长为4的4 × 4卷积对P进行下采样,从而获得2 ↓和4 ↓ P图像,定义为P2↓ ∈ R 2 w × 2 h × 1 R^2w×2h×1 R2w×2h×1和P4↓ ∈ R w × h × 1 R^w×h×1 Rw×h×1。
CNNs for pansharpening
正如在引言中提到的,近年来在全色锐化领域出现的大多数基于DL的方法都是基于CNN的。Masi等人提出了第一种基于DL的泛锐化方法,将其命名为PNN,它只是简单地堆叠三个卷积层并取得了显着的结果。从那时起,已经提出了越来越多的基于DL的方法。一项名为PanNet的值得注意的工作提出了一种具有一定程度的物理可解释性的简单结构,其重点是光谱和空间保存。后续工作,例如:DMDNet和FusionNet进一步探索了神经网络的潜力,并取得了令人鼓舞的结果。总体而言,CNN在全色锐化中的应用的主要框架可以被描述为非线性映射fΘFS,其中ΘFS表示CNN的参数。并且它们的损失函数可以统一为如下:
然而,现有的方法可能无法捕获由尺度和分辨率变化引起的复杂特征。他们的大多数网络结构提取和学习与HR-PAN图像相同大小的上采样LRMS图像的特征。并且只关注最终输出而不考虑中间卷积层的产物。
U-Net
U-Net 是一种为逐像素分割设计的经典网络架构,已被证明具有良好的性能。特别是,它学习不同级别的语义特征,并通过几个下采样步骤来减小特征图的大小。然后通过上采样步骤逐渐恢复特征图的大小,并成功地使用所提取的语义特征来完成最终的分割任务。在我们工作的同时,有几个原因促使我们选择它作为我们的骨干。首先,全色锐化也是一个逐像素的任务,需要细化到每个像素的特征以及与其邻域的关系。因此,我们认为U型网络强大的目标定位和描绘能力可以应用于锐化任务。其次,金字塔功能满足我们的期望,克服LR-MS和HR-PAN图像之间的空间分辨率差距。U形网络提供了通过阶段跨尺度融合图像的可能性。第三,在U-Net的结构中,特征图被渐进地传播,这与全色锐化任务的目的一致,因为可以在特征图中恢复更详细的信息。
方法
该模型采用多尺度输入和U型CNN来研究空间、光谱特征及其相互关系。所提出的MUCNN由四个部分组成,它们是:(1)SSconv用于多光谱图像的上采样操作,(2)多尺度注入分支,其将MS图像和PAN图像渐进地馈送到网络,(3)U形整体网络结构,在像素级问题上表现优异,(4)混合多尺度损失,起到加速网络反向传播的作用,并对融合结果进行分阶段检验。
Spectral-to-Spatial Convolution
由于LR-MS图像包含同一场景的不同光谱波段,可以将其视为多图像超分辨率问题。我们相信,不同光谱波段的信息聚合将有助于空间信息的重建。因此,我们提出了一种新的频谱到空间卷积来执行上采样操作。操作过程如图2所示,我们使用r2b卷积(3×3)来整合空间和光谱特征,其中r是上采样的比率。
通过对每个r2b波段的像素映射,生成上采样LR-MS图像。例如,第i个特征图Oi ∈
R
w
×
h
R^w×h
Rw×h通过对X ∈
R
w
×
h
×
b
R^w×h×b
Rw×h×b进行以下运算获得:
其中Ki ∈ R1×3×3×b表示第i个卷积核,⊕表示传统CNN中的卷积运算。然后,我们可以通过映射(如图2所示)获得上采样的X:
其中SSconv(X)~ri+ cl,ri +c2,k~表示上采样图像的像素,SSconv(·)是SSconv操作。当谱带数b = 1时,问题退化为单图像超分辨率问题.此外,SSconv也退化为像素混洗。更多细节请参见图2。
Multiscale injection branch
P和MS之间的空间分辨率的比率是4。为了充分挖掘图像的潜在信息并建立P、MS和^MS4×之间的关系模型。我们打算采用已知图像,即P、MS作为多尺度金字塔形式的输入。
如图3所示,通过SSconv对MS进行两次上采样,获得MS2↑ ∈
R
2
w
×
2
h
×
b
R^2w×2h×b
R2w×2h×b和MS4↑ ∈
R
4
w
×
4
h
×
b
R^4w×4h×b
R4w×4h×b,如下所示:
均匀尺寸的卷积,即,2×2和4×4用于下采样图像,其有效性已得到验证。我们得到P2↓ ∈
R
2
w
×
2
h
×
1
R^2w×2h×1
R2w×2h×1和P4↓ ∈
R
w
×
h
×
1
R^w×h×1
Rw×h×1:
最后,我们以相同的分辨率连接图像,以获得以下三个输入:
所有这些输入都以其相应的尺度馈送到U形网络中。
MUCNN
网络架构如图4所示。它由特征提取路径(左侧)和重构路径(右侧)组成。提取路径有两个步骤,每个步骤包含一个3 × 3卷积,一个整流线性单元(ReLU)和一个最大池化操作。在每个步骤之间,在最大池化之后连接新的输入。对于重建路径,它由三个步骤组成,每个步骤包含一个SSconv操作和一个3×3卷积。重建路径通过两个跳过连接和网络底部的3 × 3卷积与提取路径连接,更多细节请参见图4。
为了加速反向传播并促进网络学习丰富的特征层次,我们设置了三个3 × 3卷积以获得三个输出^MS1× ∈
R
w
×
h
×
b
R^w×h×b
Rw×h×b,^MS2× ∈
R
2
w
×
2
h
×
b
R^2w×2h×b
R2w×2h×b和^MS4× ∈
R
4
w
×
4
h
×
b
R^4 w × 4h ×b
R4w×4h×b,而^MS4×是所需的HR-MS图像。总体而言,MUCNN可以总结如下:
Mixed multiscale loss
提出了混合损失策略,以充分利用丰富的特征层次。在保证还原图像可靠的前提下,将三个输出与相应尺度的GT图像进行比较,形成最终的损失函数。通过线性插值得到低分辨率GT(GT2↓)和中分辨率GT(GT4↓)。最后,MUCNN的混合损失函数定义如下:
结论
本文提出了带有SSconv的MUCNN,SSconv是专门为全色锐化而设计的。与现有技术的关键区别在于我们通过SSconv将光谱特征映射到空间域,使得MUCNN的特征提取更适合HR-PAN和LR-MS图像的融合。此外,引入多尺度注入分支,以消除LR-MS图像上采样引起的失真。我们选择U-Net作为构建MUCNN的骨干。此外,混合损耗策略用于分级控制输出。大量的实验表明,我们提出的方法不仅可以捕捉HR-PAN和LR-MS图像的底层细节,而且还具有强大的能力,以平衡空间恢复和光谱保存。
当然,我们的方法仍然存在一些缺点,特别是对于图像上的极端亮点。例如,来自车顶朝向传感器的太阳反射有时会像一群分散的星星一样变得尖锐,并失去车顶的原始轮廓。除此之外,有时像素噪声点将出现在实心区域中。通过实验,我们发现几乎所有基于DL的方法都存在类似的边缘不均匀问题,而传统方法没有。这个缺点提醒我们寻找传统方法的特点,并将它们与基于DL的方法相结合。
OpenCV这么简单为啥不学——1.9cvtColor颜色空间转换(全色值效果演示)
OpenCV这么简单为啥不学——1.9、cvtColor颜色空间转换(全色值效果演示)
目录
OpenCV这么简单为啥不学——1.9、cvtColor颜色空间转换(全色值效果演示)
前言
计算机视觉市场巨大而且持续增长,且这方面没有标准API,如今的计算机视觉软件大概有以下三种:
1、研究代码(慢,不稳定,独立并与其他库不兼容)
2、耗费很高的商业化工具(比如Halcon, MATLAB+Simulink)
3、依赖硬件的一些特别的解决方案(比如视频监控,制造控制系统,医疗设备)这是如今的现状,而标准的API将简化计算机视觉程序和解决方案的开发,OpenCV致力于成为这样的标准API。
OpenCV致力于真实世界的实时应用,通过优化的C代码的编写对其执行速度带来了可观的提升,并且可以通过购买Intel的IPP高性能多媒体函数库(Integrated Performance Primitives)得到更快的处理速度。
故而我们选择学习OpenCV,我们来一步步的学习OpenCV。
cvtColor函数
语法:
cv2.cvtColor(src, code[, dst[, dstCn]]) → dst
参数:
src:img图片
code:色值代码(r,g,b)
dst:返回img
code色值表
cv::COLOR_BGR2BGRA = 0,
cv::COLOR_RGB2RGBA = COLOR_BGR2BGRA,
cv::COLOR_BGRA2BGR = 1,
cv::COLOR_RGBA2RGB = COLOR_BGRA2BGR,
cv::COLOR_BGR2RGBA = 2,
cv::COLOR_RGB2BGRA = COLOR_BGR2RGBA,
cv::COLOR_RGBA2BGR = 3,
cv::COLOR_BGRA2RGB = COLOR_RGBA2BGR,
cv::COLOR_BGR2RGB = 4,
cv::COLOR_RGB2BGR = COLOR_BGR2RGB,
cv::COLOR_BGRA2RGBA = 5,
cv::COLOR_RGBA2BGRA = COLOR_BGRA2RGBA,
cv::COLOR_BGR2GRAY = 6,
cv::COLOR_RGB2GRAY = 7,
cv::COLOR_GRAY2BGR = 8,
cv::COLOR_GRAY2RGB = COLOR_GRAY2BGR,
cv::COLOR_GRAY2BGRA = 9,
cv::COLOR_GRAY2RGBA = COLOR_GRAY2BGRA,
cv::COLOR_BGRA2GRAY = 10,
cv::COLOR_RGBA2GRAY = 11,
cv::COLOR_BGR2BGR565 = 12,
cv::COLOR_RGB2BGR565 = 13,
cv::COLOR_BGR5652BGR = 14,
cv::COLOR_BGR5652RGB = 15,
cv::COLOR_BGRA2BGR565 = 16,
cv::COLOR_RGBA2BGR565 = 17,
cv::COLOR_BGR5652BGRA = 18,
cv::COLOR_BGR5652RGBA = 19,
cv::COLOR_GRAY2BGR565 = 20,
cv::COLOR_BGR5652GRAY = 21,
cv::COLOR_BGR2BGR555 = 22,
cv::COLOR_RGB2BGR555 = 23,
cv::COLOR_BGR5552BGR = 24,
cv::COLOR_BGR5552RGB = 25,
cv::COLOR_BGRA2BGR555 = 26,
cv::COLOR_RGBA2BGR555 = 27,
cv::COLOR_BGR5552BGRA = 28,
cv::COLOR_BGR5552RGBA = 29,
cv::COLOR_GRAY2BGR555 = 30,
cv::COLOR_BGR5552GRAY = 31,
cv::COLOR_BGR2XYZ = 32,
cv::COLOR_RGB2XYZ = 33,
cv::COLOR_XYZ2BGR = 34,
cv::COLOR_XYZ2RGB = 35,
cv::COLOR_BGR2YCrCb = 36,
cv::COLOR_RGB2YCrCb = 37,
cv::COLOR_YCrCb2BGR = 38,
cv::COLOR_YCrCb2RGB = 39,
cv::COLOR_BGR2HSV = 40,
cv::COLOR_RGB2HSV = 41,
cv::COLOR_BGR2Lab = 44,
cv::COLOR_RGB2Lab = 45,
cv::COLOR_BGR2Luv = 50,
cv::COLOR_RGB2Luv = 51,
cv::COLOR_BGR2HLS = 52,
cv::COLOR_RGB2HLS = 53,
cv::COLOR_HSV2BGR = 54,
cv::COLOR_HSV2RGB = 55,
cv::COLOR_Lab2BGR = 56,
cv::COLOR_Lab2RGB = 57,
cv::COLOR_Luv2BGR = 58,
cv::COLOR_Luv2RGB = 59,
cv::COLOR_HLS2BGR = 60,
cv::COLOR_HLS2RGB = 61,
cv::COLOR_BGR2HSV_FULL = 66,
cv::COLOR_RGB2HSV_FULL = 67,
cv::COLOR_BGR2HLS_FULL = 68,
cv::COLOR_RGB2HLS_FULL = 69,
cv::COLOR_HSV2BGR_FULL = 70,
cv::COLOR_HSV2RGB_FULL = 71,
cv::COLOR_HLS2BGR_FULL = 72,
cv::COLOR_HLS2RGB_FULL = 73,
cv::COLOR_LBGR2Lab = 74,
cv::COLOR_LRGB2Lab = 75,
cv::COLOR_LBGR2Luv = 76,
cv::COLOR_LRGB2Luv = 77,
cv::COLOR_Lab2LBGR = 78,
cv::COLOR_Lab2LRGB = 79,
cv::COLOR_Luv2LBGR = 80,
cv::COLOR_Luv2LRGB = 81,
cv::COLOR_BGR2YUV = 82,
cv::COLOR_RGB2YUV = 83,
cv::COLOR_YUV2BGR = 84,
cv::COLOR_YUV2RGB = 85,
cv::COLOR_YUV2RGB_NV12 = 90,
cv::COLOR_YUV2BGR_NV12 = 91,
cv::COLOR_YUV2RGB_NV21 = 92,
cv::COLOR_YUV2BGR_NV21 = 93,
cv::COLOR_YUV420sp2RGB = COLOR_YUV2RGB_NV21,
cv::COLOR_YUV420sp2BGR = COLOR_YUV2BGR_NV21,
cv::COLOR_YUV2RGBA_NV12 = 94,
cv::COLOR_YUV2BGRA_NV12 = 95,
cv::COLOR_YUV2RGBA_NV21 = 96,
cv::COLOR_YUV2BGRA_NV21 = 97,
cv::COLOR_YUV420sp2RGBA = COLOR_YUV2RGBA_NV21,
cv::COLOR_YUV420sp2BGRA = COLOR_YUV2BGRA_NV21,
cv::COLOR_YUV2RGB_YV12 = 98,
cv::COLOR_YUV2BGR_YV12 = 99,
cv::COLOR_YUV2RGB_IYUV = 100,
cv::COLOR_YUV2BGR_IYUV = 101,
cv::COLOR_YUV2RGB_I420 = COLOR_YUV2RGB_IYUV,
cv::COLOR_YUV2BGR_I420 = COLOR_YUV2BGR_IYUV,
cv::COLOR_YUV420p2RGB = COLOR_YUV2RGB_YV12,
cv::COLOR_YUV420p2BGR = COLOR_YUV2BGR_YV12,
cv::COLOR_YUV2RGBA_YV12 = 102,
cv::COLOR_YUV2BGRA_YV12 = 103,
cv::COLOR_YUV2RGBA_IYUV = 104,
cv::COLOR_YUV2BGRA_IYUV = 105,
cv::COLOR_YUV2RGBA_I420 = COLOR_YUV2RGBA_IYUV,
cv::COLOR_YUV2BGRA_I420 = COLOR_YUV2BGRA_IYUV,
cv::COLOR_YUV420p2RGBA = COLOR_YUV2RGBA_YV12,
cv::COLOR_YUV420p2BGRA = COLOR_YUV2BGRA_YV12,
cv::COLOR_YUV2GRAY_420 = 106,
cv::COLOR_YUV2GRAY_NV21 = COLOR_YUV2GRAY_420,
cv::COLOR_YUV2GRAY_NV12 = COLOR_YUV2GRAY_420,
cv::COLOR_YUV2GRAY_YV12 = COLOR_YUV2GRAY_420,
cv::COLOR_YUV2GRAY_IYUV = COLOR_YUV2GRAY_420,
cv::COLOR_YUV2GRAY_I420 = COLOR_YUV2GRAY_420,
cv::COLOR_YUV420sp2GRAY = COLOR_YUV2GRAY_420,
cv::COLOR_YUV420p2GRAY = COLOR_YUV2GRAY_420,
cv::COLOR_YUV2RGB_UYVY = 107,
cv::COLOR_YUV2BGR_UYVY = 108,
cv::COLOR_YUV2RGB_Y422 = COLOR_YUV2RGB_UYVY,
cv::COLOR_YUV2BGR_Y422 = COLOR_YUV2BGR_UYVY,
cv::COLOR_YUV2RGB_UYNV = COLOR_YUV2RGB_UYVY,
cv::COLOR_YUV2BGR_UYNV = COLOR_YUV2BGR_UYVY,
cv::COLOR_YUV2RGBA_UYVY = 111,
cv::COLOR_YUV2BGRA_UYVY = 112,
cv::COLOR_YUV2RGBA_Y422 = COLOR_YUV2RGBA_UYVY,
cv::COLOR_YUV2BGRA_Y422 = COLOR_YUV2BGRA_UYVY,
cv::COLOR_YUV2RGBA_UYNV = COLOR_YUV2RGBA_UYVY,
cv::COLOR_YUV2BGRA_UYNV = COLOR_YUV2BGRA_UYVY,
cv::COLOR_YUV2RGB_YUY2 = 115,
cv::COLOR_YUV2BGR_YUY2 = 116,
cv::COLOR_YUV2RGB_YVYU = 117,
cv::COLOR_YUV2BGR_YVYU = 118,
cv::COLOR_YUV2RGB_YUYV = COLOR_YUV2RGB_YUY2,
cv::COLOR_YUV2BGR_YUYV = COLOR_YUV2BGR_YUY2,
cv::COLOR_YUV2RGB_YUNV = COLOR_YUV2RGB_YUY2,
cv::COLOR_YUV2BGR_YUNV = COLOR_YUV2BGR_YUY2,
cv::COLOR_YUV2RGBA_YUY2 = 119,
cv::COLOR_YUV2BGRA_YUY2 = 120,
cv::COLOR_YUV2RGBA_YVYU = 121,
cv::COLOR_YUV2BGRA_YVYU = 122,
cv::COLOR_YUV2RGBA_YUYV = COLOR_YUV2RGBA_YUY2,
cv::COLOR_YUV2BGRA_YUYV = COLOR_YUV2BGRA_YUY2,
cv::COLOR_YUV2RGBA_YUNV = COLOR_YUV2RGBA_YUY2,
cv::COLOR_YUV2BGRA_YUNV = COLOR_YUV2BGRA_YUY2,
cv::COLOR_YUV2GRAY_UYVY = 123,
cv::COLOR_YUV2GRAY_YUY2 = 124,
cv::COLOR_YUV2GRAY_Y422 = COLOR_YUV2GRAY_UYVY,
cv::COLOR_YUV2GRAY_UYNV = COLOR_YUV2GRAY_UYVY,
cv::COLOR_YUV2GRAY_YVYU = COLOR_YUV2GRAY_YUY2,
cv::COLOR_YUV2GRAY_YUYV = COLOR_YUV2GRAY_YUY2,
cv::COLOR_YUV2GRAY_YUNV = COLOR_YUV2GRAY_YUY2,
cv::COLOR_RGBA2mRGBA = 125,
cv::COLOR_mRGBA2RGBA = 126,
cv::COLOR_RGB2YUV_I420 = 127,
cv::COLOR_BGR2YUV_I420 = 128,
cv::COLOR_RGB2YUV_IYUV = COLOR_RGB2YUV_I420,
cv::COLOR_BGR2YUV_IYUV = COLOR_BGR2YUV_I420,
cv::COLOR_RGBA2YUV_I420 = 129,
cv::COLOR_BGRA2YUV_I420 = 130,
cv::COLOR_RGBA2YUV_IYUV = COLOR_RGBA2YUV_I420,
cv::COLOR_BGRA2YUV_IYUV = COLOR_BGRA2YUV_I420,
cv::COLOR_RGB2YUV_YV12 = 131,
cv::COLOR_BGR2YUV_YV12 = 132,
cv::COLOR_RGBA2YUV_YV12 = 133,
cv::COLOR_BGRA2YUV_YV12 = 134,
cv::COLOR_BayerBG2BGR = 46,
cv::COLOR_BayerGB2BGR = 47,
cv::COLOR_BayerRG2BGR = 48,
cv::COLOR_BayerGR2BGR = 49,
cv::COLOR_BayerBG2RGB = COLOR_BayerRG2BGR,
cv::COLOR_BayerGB2RGB = COLOR_BayerGR2BGR,
cv::COLOR_BayerRG2RGB = COLOR_BayerBG2BGR,
cv::COLOR_BayerGR2RGB = COLOR_BayerGB2BGR,
cv::COLOR_BayerBG2GRAY = 86,
cv::COLOR_BayerGB2GRAY = 87,
cv::COLOR_BayerRG2GRAY = 88,
cv::COLOR_BayerGR2GRAY = 89,
cv::COLOR_BayerBG2BGR_VNG = 62,
cv::COLOR_BayerGB2BGR_VNG = 63,
cv::COLOR_BayerRG2BGR_VNG = 64,
cv::COLOR_BayerGR2BGR_VNG = 65,
cv::COLOR_BayerBG2RGB_VNG = COLOR_BayerRG2BGR_VNG,
cv::COLOR_BayerGB2RGB_VNG = COLOR_BayerGR2BGR_VNG,
cv::COLOR_BayerRG2RGB_VNG = COLOR_BayerBG2BGR_VNG,
cv::COLOR_BayerGR2RGB_VNG = COLOR_BayerGB2BGR_VNG,
cv::COLOR_BayerBG2BGR_EA = 135,
cv::COLOR_BayerGB2BGR_EA = 136,
cv::COLOR_BayerRG2BGR_EA = 137,
cv::COLOR_BayerGR2BGR_EA = 138,
cv::COLOR_BayerBG2RGB_EA = COLOR_BayerRG2BGR_EA,
cv::COLOR_BayerGB2RGB_EA = COLOR_BayerGR2BGR_EA,
cv::COLOR_BayerRG2RGB_EA = COLOR_BayerBG2BGR_EA,
cv::COLOR_BayerGR2RGB_EA = COLOR_BayerGB2BGR_EA,
cv::COLOR_BayerBG2BGRA = 139,
cv::COLOR_BayerGB2BGRA = 140,
cv::COLOR_BayerRG2BGRA = 141,
cv::COLOR_BayerGR2BGRA = 142,
cv::COLOR_BayerBG2RGBA = COLOR_BayerRG2BGRA,
cv::COLOR_BayerGB2RGBA = COLOR_BayerGR2BGRA,
cv::COLOR_BayerRG2RGBA = COLOR_BayerBG2BGRA,
cv::COLOR_BayerGR2RGBA = COLOR_BayerGB2BGRA,
cv::COLOR_COLORCVT_MAX = 143
测试代码
import os
import cv2
import shutil
img = '800_600.jpg'
save_dir = 'Demo_img/'
try:
# 递归删除文件夹
shutil.rmtree(save_dir)
os.makedirs(save_dir)
except OSError:
pass
img = cv2.imread(img)
valid_index = []
for color_type in range(0, 256, 1):
try:
img_new = cv2.cvtColor(img, color_type)
cv2.imwrite(os.path.join(save_dir, str(color_type) + '.jpg'), img_new)
valid_index.append(color_type)
except Exception:
pass
print("有效输出:")
for item in valid_index:
print(item, end=".jpg,")
实际生成:
效果展示
总结
我们替换了色值以及看到了对应的效果,cvtColor转换之后可以看去与原图的情境相同但是意境不同,不同颜色给别人的感觉也不同,具体那个合适就需要自己定夺了。
以上是关于SSconv:全色锐化:显式频谱-空间卷积的主要内容,如果未能解决你的问题,请参考以下文章
OpenCV这么简单为啥不学——1.9cvtColor颜色空间转换(全色值效果演示)