我使用OpenCV和MATLAB对同一幅彩色图像进行空间转换,但是显示的结果却不相同。OpenCV的核心代码是:
for(i=0;i < frame->height;i++)
for(j=0;j < frame->width ;j++){
cd = i*step + j*channels; //计算取元图象数据的位置
cdhsi = i*step_hsi + j; //计算子图象数据存储的位置
b = data[cd], g = data[cd + 1], r = data[cd + 2 ];
data_i[cdhsi] = (int)((r + g + b)/ 3 ); //计算亮度子图象
min_rgb = __min(__min(r,g),b); //取最小值运算
add_rgb = r + g + b ;
data_s[cdhsi] = (int) (255 * (1 - 3 * min_rgb/add_rgb)); //饱和度S的范围显示为0~255,便于显示
num = 0.5*((r - g) + (r - b)); //下面的式子计算图象的色彩H
den = sqrt ((double)((r - g)*(r - g) + (r - b)*(g - b)));
if ( 0 == den )
den = 0.01;
theta = acos( num /den );
if (b <= g)
data_h[cdhsi] = (int)(theta*255/(2 * 3.14));
else
data_h[cdhsi] = (int)(255 - theta*255/(2 * 3.14) );
if (data_s[cdhsi] == 0 )
data_h[cdhsi] = 0;
}
cvMerge(hsi_h, hsi_i, hsi_s, NULL, pDst);
实际上就是根据冈萨雷斯书中的公式,并把HSI三个量归化到[0,255]这个范围,
MATLAB的代码就是冈萨雷斯书中给的代码,转过的图像见下图,上边是用OpenCV,下边用的是MATLAB。不知道为什么色彩不同,但我仔细观察,除了色彩不同外,其它的是相同的(我是指图像里目标的形态以及目标与背景的区别等等)。这对于我的后续处理有影响吗,比如我要对彩色图像进行分割啥的,请高手指点一二。
![]()
![]() |