文章目录
- 1. 转换代码
- 1.1 查看原始图像
- 1.2 转换
- 1.3 cv::IMREAD_GRAYSCALE与CV_BGR2GRAY结果不一致
- 1.3.1 现象描述
- 1.3.2 原因
- 1.3.3 推荐做法
- 1.4 CV_BGR2GRAY和CV_RGB2GRAY不一致
- 2. macOS上查看mask(使用默认的预览)
1. 转换代码
- 找到了一个语义分割的数据集,但是标注图像是RGB格式的,需要转为mask。
- 受损花朵分割(280MB):Accurate damaged flower shapes/segmentation
1.1 查看原始图像
import matplotlib.pyplot as plt
import cv2
%matplotlib ipympl
mask = cv2.imread("datasets/05-damaged-01/mask/mask00000001.png")
plt.imshow(mask[:,:,::-1])
结论一:大致可以看到,给出的原始标记图像是RGB格式的,三通道。
另外由于数据集没有给出标签信息,需要自己分析这个图像上一共有多少种颜色,可以使用np.unique函数来完成这个操作,参考stackoverflow-numpy: unique list of colors in the image
import numpy as np
np.unique(mask.reshape(-1, mask.shape[2]), axis=0,return_counts=True)
>(array([[ 0, 0, 0],
[ 4, 0, 67],
[ 12, 0, 243],
[ 13, 0, 252],
[ 13, 0, 255]], dtype=uint8),
array([813467, 322, 1, 336, 107474]))
# 或者用counter方法
from collections import Counter
Counter([tuple(colors) for i in mask for colors in i])
>Counter({(0, 0, 0): 813467,
(4, 0, 67): 322,
(13, 0, 252): 336,
(13, 0, 255): 107474,
(12, 0, 243): 1})
结论2:可以看到其实频率最高的两类就是背景的黑色和花的红色,其他3种颜色其实是边缘,这在之后可以看到。
将原图转为灰度图,构建映射词典,查看灰度图的语义mask
gray_img = cv2.cvtColor(mask, cv2.COLOR_BGRA2GRAY)
print(np.unique(gray_img,return_counts=True))
>((array([ 0, 20, 74, 77, 78], dtype=uint8),
array([813467, 322, 1, 336, 107474])))
uniqueRs=np.unique(gray_img)
indexMapDict = {}
# 这里一开始是默认每个颜色按顺序对应index
for i in range(len(uniqueRs)):
indexMapDict[uniqueRs[i]]=i
# 构建相同大小的数组
pngArray = np.zeros_like(gray_img)
height = gray_img.shape[0]
width = gray_img.shape[1]
for i in range(height):
for j in range(width):
grayLevel = gray_img[i,j]
pngArray[i,j]=indexMapDict[grayLevel]
np.unique(pngArray,return_counts=True)
>(array([0, 1, 2, 3, 4], dtype=uint8),
array([813467, 322, 1, 336, 107474])) # 频率和上面是一致的
# 可视化看一下结果
import matplotlib
# 5种颜色,所以建立一个5类的colormap
flower_cmap = matplotlib.colors.ListedColormap(["black", "white","yellow","white","red"],N=5)
plt.figure()
plt.imshow(pngArray,cmap=flower_cmap)
结论3:除了红色和黑色,显示为白色和黄色的其实就是刚刚出现频率比较低的那三种颜色值,可以看出来,是花的边缘(与背景挨着的地方)。
- 可能是使用的标注软件或者是利用了一定的视频追踪标注技术导致的
- 因此实际使用的时候,只考虑背景类是0,前景类是1
参考语义分割中数据样本的整理标注及调色板代码
1.2 转换
整体思路:
- RGB图像转为灰度图,这样颜色的三通道就变成一个数值了,方便操作
- 用np.unique找出颜色种类
- 构建映射dict,出现频率最高的颜色就是背景(0),次高的是前景(1),其余是花的边缘,这里暂时赋值为0
- 构建对应的numpy矩阵并存储
具体代码:
import os
import cv2
import numpy as np
raw_mask_base = "datasets/05-damaged-01/mask"
save_mask_base = "datasets/05-damaged-01/maskLabel"
os.makedirs(save_mask_base,exist_ok=True)
maskList = os.listdir(raw_mask_base)
for imgName in maskList:
imgPath = os.path.join(raw_mask_base,imgName)
savePath = os.path.join(save_mask_base,imgName.split(".")[0]+str('.png'))
# 1. 转为灰度图
mask = cv2.imread(imgPath)
gray_img = cv2.cvtColor(mask, cv2.COLOR_BGRA2GRAY)
# 2. 找出颜色种类
uniqueRs,index,count=np.unique(gray_img,return_inverse=True,return_counts=True)
# 3. 构建dict
mapDict = {}
indexSort=np.argsort(count)
for i in indexSort[:-2]:
mapDict[uniqueRs[i]]=0
mapDict[uniqueRs[indexSort[-1]]]=0
mapDict[uniqueRs[indexSort[-2]]]=1
# 4. 映射并报错图像
try:
pngArray = np.array([mapDict[x] for x in uniqueRs])[index].reshape(gray_img.shape)
cv2.imwrite(savePath, pngArray)
except Exception as e:
print(f'处理出现问题:{e},文件是 {imgName}')
- 处理过程中,发现不是所有图像的颜色种类都是5种,因此在构建
mapDict
时,只对频率最高的两类做明确处理,其他颜色类别都作为背景 - 在使用numpy进行dict映射时,发现上述方法是最快的,相对于下面这种纯纯for循环,能快100X以上。
详见:Translate every element in numpy array according to keyfor i in range(height): for j in range(width): grayLevel = gray_img[i,j] pngArray[i,j]=mapDict[grayLevel]
- 使用imwrite保存单通道灰度图时,需要保证值的范围是0-255的整数,详见:Saving GRAYSCALE .png image with cv2.imwrite() not working
1.3 cv::IMREAD_GRAYSCALE与CV_BGR2GRAY结果不一致
1.3.1 现象描述
"""
上面代码采取了
"""
mask = cv2.imread(imgPath)
gray_img = cv2.cvtColor(mask, cv2.COLOR_BGRA2GRAY)
"""
而不是直接一步到位
"""
gray_img = cv2.imread(imgPath,cv2.IMREAD_GRAYSCALE)
这是因为虽然上述两种方式都可以用来进行灰度图的转换,但是结果会有些差异,见下面的示例:
# 1
gray_image = cv2.cvtColor(mask,cv2.COLOR_BGR2GRAY)
np.unique(gray_image)
>array([ 0, 20, 74, 77, 78], dtype=uint8)
# 3
gray_image = cv2.imread("datasets/05-damaged-01/mask/mask00000001.png",cv2.IMREAD_GRAYSCALE)
np.unique(gray_image)
>array([ 0, 20, 74, 76, 77], dtype=uint8)
可以看到,上面是77和78,下面是76和78。
1.3.2 原因
在opencv-imread的文档里,提到:
大致意思就是:
- 当使用
IMREAD_GRAYSCALE
时,直接调用了当前平台可以使用的编码解码器(codec)来进行灰度转换,所以结果会和cvtColor()
有些不同。 - 对于Windows和macOS系统,默认使用(libjpeg,libpng,libtiff以及libjasper)这些编解码器对opencv图像进行处理,这也是为什么Opencv能处理这些格式图像的原因。
另外,根据Opencv - Grayscale mode Vs gray color conversion
cvtColor()
是一种Opencv的实现,同时在所有平台下都会保持一致(本质是对数组进行处理)- 而使用
imread()
来把彩色图转为灰度图时,则会受制于imread()
函数在特定平台下的具体实现,即上面说的编解码器(要和存储系统打交道,浮点数的规定等会有差异) - 所以问题其实来源于:为什么要用一个读图的函数去完成色彩转换?
感谢OpenCV 中 imread cvtColor cv::IMREAD_GRAYSCALE与CV_BGR2GRAY得到灰度图不一致问题,下面是搬运的:请去原博点赞。
在opencv3.0中,
- cv::IMREAD_COLOR 解析jpg时候,由cv::JpegDecoder解码得到一个RGB图像,然后由icvCvt_RGB2BGR_8u_C3R() 函数交换R和B空间,得到BGR格式的彩色图。
- cv::IMREAD_GRAYSCALE 这个图像由cv::JpegDecoder解码得到一个灰度图,所有的颜色转换和其他预处理或后处理等相关细节都是由libjpeg处理的,最后,将解压缩的数据复制到给定cv::Mat的内部缓冲区中。因此,在cv::IMREAD_GRAYSCALE中没有调用opencv中的函数cv::cvtColor来进行颜色转换。
1.3.3 推荐做法
- 如果原图是彩色图,则imread之后再用
cvtColor
转为灰度图 - 如果原图本身就是灰度图,则imread的时候添加
cv2.IMREAD_GRAYSCALE
参数读取灰度图
1.4 CV_BGR2GRAY和CV_RGB2GRAY不一致
# 1
gray_image = cv2.cvtColor(mask,cv2.COLOR_BGR2GRAY)
np.unique(gray_image)
>array([ 0, 20, 74, 77, 78], dtype=uint8)
# 2
gray_image = cv2.cvtColor(mask,cv2.COLOR_RGB2GRAY)
np.unique(gray_image)
>array([ 0, 9, 31, 33], dtype=uint8)
cv2.COLOR_RGB2GRAY和cv2.COLOR_BGR2GRAY对同一图像处理,结果不同
根据Why would cv2.COLOR_RGB2GRAY and cv2.COLOR_BGR2GRAY give different results?可知:
- RGB2GRAY过程中,三个通道不是平均的,是不同的权重系数,所以对同一个图分别调用
cv2.COLOR_RGB2GRAY
和cv2.COLOR_BGR2GRAY
结果会不一样,这个很好理解。 - Opencv中关于RGB→GRAY图像的转换公式,详见文档:https://docs.opencv.org/4.x/de/d25/imgproc_color_conversions.html#color_convert_rgb_gray documentation
2. macOS上查看mask(使用默认的预览)
常规的软件打开这种灰度图是什么都看不见的,即便是matplotlib这种程序读图,如果不设置合适的cmap,也看不到东西。
其实稍微设置一下就可以看到了
点击①标记->②滑块->③自动色阶,就可以看到:
- 就可以看到了(这样操作并不会影响图像的值,是靠颜色描述文件来正确显示这种灰度图像的)
- 其实照片里的编辑以及色彩同步实用工具的灰度系数也可以看到,只是用起来相对麻烦,这个是目前最简单的
- 另外,仔细看花的边缘也有点像原始标注图一样的杂色,截图不是很清晰