日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

基于边缘的图像分割——分水岭算法(watershed)算法分析(附opencv源码分析)

發布時間:2025/3/21 编程问答 19 豆豆
生活随笔 收集整理的這篇文章主要介紹了 基于边缘的图像分割——分水岭算法(watershed)算法分析(附opencv源码分析) 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

最近需要做一個圖像分割的程序,查了opencv的源代碼,發現opencv里實現的圖像分割一共有兩個方法,watershed和mean-shift算法。這兩個算法的具體實現都在segmentation.cpp文件內。

watershed(分水嶺算法)方法是一種基于邊界點的分割算法。我想好好的研究一下, 網上找了一些博客和教程,感覺也就泛泛的解釋了一下實驗的流程,具體算法的運行過程并不清楚,又把原始論文拿出來看了看,看完了以后也不太清晰,索性把opencv的源碼挑出來分析一下。

首先,寫一個圖像分割的小程序。代碼如下:

#include "stdafx.h" #include "opencv2/imgproc/imgproc.hpp" #include "opencv2/highgui/highgui.hpp"#include <iostream>using namespace cv; using namespace std;Vec3b RandomColor(int value); //生成隨機顏色函數int main( int argc, char* argv[] ) {//src = imread( "E://ylab//DY//ETHZShapeClasses-V1.2//Bottles//green.jpg" );//src = imread( "E://ylab//DY//ETHZShapeClasses-V1.2//Mugs//jazzburger.jpg" );//src = imread( "E://1.png" );//Mat image=imread( "E://ylab//DY//ETHZShapeClasses-V1.2//Bottles//green.jpg" );Mat image=imread( "E://ylab//DY//ETHZShapeClasses-V1.2//bottles//green.jpg" );//載入RGB彩色圖像imshow("Source Image",image);//灰度化,濾波,Canny邊緣檢測Mat imageGray,imageCanny;cvtColor(image,imageGray,CV_RGB2GRAY);//灰度轉換GaussianBlur(imageGray,imageGray,Size(5,5),2); //高斯濾波imshow("Gray Image",imageGray); Canny(imageGray,imageCanny,40,100); imshow("Canny Image",imageCanny);//查找輪廓vector<vector<Point>> contours; vector<Vec4i> hierarchy; findContours(imageCanny,contours,hierarchy,RETR_LIST,CHAIN_APPROX_SIMPLE,Point()); Mat imageContours=Mat::zeros(image.size(),CV_8UC1); //輪廓 Mat marks(image.size(),CV_32S); //Opencv分水嶺第二個矩陣參數marks=Scalar::all(0);int index = 0;int compCount = 0;for( ; index >= 0; index = hierarchy[index][0], compCount++ ) {//對marks進行標記,對不同區域的輪廓進行編號,相當于設置注水點,有多少輪廓,就有多少注水點drawContours(marks, contours, index, Scalar::all(compCount+1), 1, 8, hierarchy);drawContours(imageContours,contours,index,Scalar(255),1,8,hierarchy); }//我們來看一下傳入的矩陣marks里是什么東西Mat marksShows;convertScaleAbs(marks,marksShows);imshow("marksShow",marksShows);imshow("輪廓",imageContours);watershed(image,marks);//我們再來看一下分水嶺算法之后的矩陣marks里是什么東西Mat afterWatershed;convertScaleAbs(marks,afterWatershed);imshow("After Watershed",afterWatershed);//對每一個區域進行顏色填充Mat PerspectiveImage=Mat::zeros(image.size(),CV_8UC3);for(int i=0;i<marks.rows;i++){for(int j=0;j<marks.cols;j++){int index=marks.at<int>(i,j);if(marks.at<int>(i,j)==-1){PerspectiveImage.at<Vec3b>(i,j)=Vec3b(255,255,255);} else{PerspectiveImage.at<Vec3b>(i,j) =RandomColor(index);}}}imshow("After ColorFill",PerspectiveImage);//分割并填充顏色的結果跟原始圖像融合Mat wshed;addWeighted(image,0.4,PerspectiveImage,0.6,0,wshed);imshow("AddWeighted Image",wshed);waitKey(); }Vec3b RandomColor(int value) //生成隨機顏色函數 {value=value%255; //生成0~255的隨機數RNG rng;int aa=rng.uniform(0,value);int bb=rng.uniform(0,value);int cc=rng.uniform(0,value);return Vec3b(aa,bb,cc); }
里面基本上都是調用opencv現成的函數,實現watershed算法,算法的運行結果可以看一下:



從代碼和最終結果里可以大致的看出算法的流程:

1.進行灰度化

2.高斯濾波以消除噪聲的干擾

3.用canny算子檢測邊緣

4.用findcontours查找輪廓

5.利用輪廓特征,實現圖像分割


然后,把watershed的源碼單獨拿出來分析一下,我做了一些必要的注釋:

typedef struct CvWSNode {struct CvWSNode* next;int mask_ofs;int img_ofs; } CvWSNode;typedef struct CvWSQueuev //這個僅僅是一個頭指針 {CvWSNode* first;CvWSNode* last; } CvWSQueue;watershed的具體實現中,用隊列來實現對像素點的存儲。(我本來還以為會用什么很高級的數據結構或者很復雜的算法,等真正的看完代碼才發現,用的也就是很基本的數據結構和想法,只是實現起來有些復雜,需要考慮的細節比較多)這是定義的兩個結構體,CvWSNode用來存儲隊列中的點,其中的next元素用來指向隊列中的下一個點,CvWSQueuev是隊列的頭指針。

static CvWSNode* icvAllocWSNodes( CvMemStorage* storage ) //申請一段連續的內存空間,并將內存空間連接起來 {CvWSNode* n = 0;int i, count = (storage->block_size - sizeof(CvMemBlock))/sizeof(*n) - 1;n = (CvWSNode*)cvMemStorageAlloc( storage, count*sizeof(*n) );for( i = 0; i < count-1; i++ )n[i].next = n + i + 1;n[count-1].next = 0;return n; }
這一個函數的作用就是申請一段連續的內存空間,用來存儲像素點

CV_IMPL void cvWatershed( const CvArr* srcarr, CvArr* dstarr ) {const int IN_QUEUE = -2;const int WSHED = -1;const int NQ = 256;cv::Ptr<CvMemStorage> storage;CvMat sstub, *src;CvMat dstub, *dst;CvSize size;CvWSNode* free_node = 0, *node;CvWSQueue q[NQ];int active_queue;int i, j;int db, dg, dr;int* mask;uchar* img;int mstep, istep;int subs_tab[513];// MAX(a,b) = b + MAX(a-b,0)#define ws_max(a,b) ((b) + subs_tab[(a)-(b)+NQ])// MIN(a,b) = a - MAX(a-b,0)#define ws_min(a,b) ((a) - subs_tab[(a)-(b)+NQ])#define ws_push(idx,mofs,iofs) \{ \if( !free_node ) \free_node = icvAllocWSNodes( storage );\node = free_node; \free_node = free_node->next;\node->next = 0; \node->mask_ofs = mofs; \node->img_ofs = iofs; \if( q[idx].last ) \q[idx].last->next=node; \else \q[idx].first = node; \q[idx].last = node; \}#define ws_pop(idx,mofs,iofs) \{ \node = q[idx].first; \q[idx].first = node->next; \if( !node->next ) \q[idx].last = 0; \node->next = free_node; \free_node = node; \mofs = node->mask_ofs; \iofs = node->img_ofs; \}#define c_diff(ptr1,ptr2,diff) \{ \db = abs((ptr1)[0] - (ptr2)[0]);\dg = abs((ptr1)[1] - (ptr2)[1]);\dr = abs((ptr1)[2] - (ptr2)[2]);\diff = ws_max(db,dg); \diff = ws_max(diff,dr); \assert( 0 <= diff && diff <= 255 ); \}src = cvGetMat( srcarr, &sstub );dst = cvGetMat( dstarr, &dstub );if( CV_MAT_TYPE(src->type) != CV_8UC3 )CV_Error( CV_StsUnsupportedFormat, "Only 8-bit, 3-channel input images are supported" );if( CV_MAT_TYPE(dst->type) != CV_32SC1 )CV_Error( CV_StsUnsupportedFormat,"Only 32-bit, 1-channel output images are supported" );if( !CV_ARE_SIZES_EQ( src, dst ))CV_Error( CV_StsUnmatchedSizes, "The input and output images must have the same size" );size = cvGetMatSize(src); //圖片的大小size 有height和width分量storage = cvCreateMemStorage();istep = src->step;img = src->data.ptr;mstep = dst->step / sizeof(mask[0]); //step為每行元素的字節數,mask = dst->data.i;memset( q, 0, NQ*sizeof(q[0]) ); //void *memset(void *s,int c,size_t n) 總的作用:將已開辟內存空間 s 的首 n 個字節的值設為值 c。for( i = 0; i < 256; i++ )subs_tab[i] = 0;for( i = 256; i <= 512; i++ )subs_tab[i] = i - 256;// draw a pixel-wide border of dummy "watershed" (i.e. boundary) pixelsfor( j = 0; j < size.width; j++ )mask[j] = mask[j + mstep*(size.height-1)] = WSHED; //把mask的上邊界和下邊界像素賦值為-1// initial phase: put all the neighbor pixels of each marker to the ordered queue -// determine the initial boundaries of the basinsfor( i = 1; i < size.height-1; i++ ){img += istep; mask += mstep;mask[0] = mask[size.width-1] = WSHED; //把mask的左邊界和右邊界像素賦值為-1for( j = 1; j < size.width-1; j++ ) //把和邊界點相鄰的點連成鏈表,進行存儲{int* m = mask + j;if( m[0] < 0 ) m[0] = 0;if( m[0] == 0 && (m[-1] > 0 || m[1] > 0 || m[-mstep] > 0 || m[mstep] > 0) ){uchar* ptr = img + j*3;int idx = 256, t;if( m[-1] > 0 )c_diff( ptr, ptr - 3, idx );if( m[1] > 0 ){c_diff( ptr, ptr + 3, t );idx = ws_min( idx, t );}if( m[-mstep] > 0 ){c_diff( ptr, ptr - istep, t );idx = ws_min( idx, t );}if( m[mstep] > 0 ){c_diff( ptr, ptr + istep, t );idx = ws_min( idx, t );}assert( 0 <= idx && idx <= 255 );ws_push( idx, i*mstep + j, i*istep + j*3 );m[0] = IN_QUEUE; // IN_QUEUE=-2 在序列里,就把Mark矩陣邊緣點相鄰點的位置賦值為-2,}}}// find the first non-empty queuefor( i = 0; i < NQ; i++ )if( q[i].first )break;// if there is no markers, exit immediatelyif( i == NQ )return;active_queue = i;img = src->data.ptr;mask = dst->data.i;// recursively fill the basins 遞歸的填充盆地for(;;){int mofs, iofs;int lab = 0, t;int* m;uchar* ptr;if( q[active_queue].first == 0 ){for( i = active_queue+1; i < NQ; i++ )if( q[i].first )break;if( i == NQ )break;active_queue = i;}ws_pop( active_queue, mofs, iofs );m = mask + mofs;ptr = img + iofs;t = m[-1];if( t > 0 ) lab = t;t = m[1];if( t > 0 ){if( lab == 0 ) lab = t;else if( t != lab ) lab = WSHED;}t = m[-mstep];if( t > 0 ){if( lab == 0 ) lab = t;else if( t != lab ) lab = WSHED;}t = m[mstep];if( t > 0 ){if( lab == 0 ) lab = t;else if( t != lab ) lab = WSHED;}assert( lab != 0 );m[0] = lab;if( lab == WSHED )continue;if( m[-1] == 0 ){c_diff( ptr, ptr - 3, t );ws_push( t, mofs - 1, iofs - 3 );active_queue = ws_min( active_queue, t );m[-1] = IN_QUEUE;}if( m[1] == 0 ){c_diff( ptr, ptr + 3, t );ws_push( t, mofs + 1, iofs + 3 );active_queue = ws_min( active_queue, t );m[1] = IN_QUEUE;}if( m[-mstep] == 0 ){c_diff( ptr, ptr - istep, t );ws_push( t, mofs - mstep, iofs - istep );active_queue = ws_min( active_queue, t );m[-mstep] = IN_QUEUE;}if( m[mstep] == 0 ){c_diff( ptr, ptr + istep, t );ws_push( t, mofs + mstep, iofs + istep );active_queue = ws_min( active_queue, t );m[mstep] = IN_QUEUE;}} }
ws_max和我說ws_min這兩個函數說白了就是求最大值和最小值,但是這里用來求最大最小值的方法還真是奇特,我還是第一次見到,其中使用了subs_tab,然后利用這個數組的值就可以求極大值和極小值。

ws_push和ws_pop這兩個函數,從名字上就可以看出來,一個是往隊列的末端加入元素,另一個是從隊列的頂端取出元素。

c_diff是為了計算圖片RGB三個分量的梯度,并選出一個梯度最大的。

傳入watershed函數共有兩個參數,第一個參數是原始的3通道彩色圖片,第二個參數是Mark矩陣,這個矩陣里,每一條輪廓都被表示了出來,而且,每一條輪廓的灰度值是不同的,這些輪廓,就被該算法成為種子,算法就是從這些輪廓上的點開始計算并分割成不同的區域的。除了邊界點外的其他區域,像素值都賦值為0。

后面緊接著一個兩層循環的函數,這個兩層循環是為了把與邊界點相鄰的元素都找出來,然后以這些點作為出發點。

后面的算法,緊接著就是一個不斷進入隊列和離開隊列的過程,如果是靠近邊界點,就賦值成和邊界點一樣的像素值,周圍的點有非零的點,就賦值成同樣的灰度值,如果是邊界點。這樣,從不同的邊界點延伸出的區域,就具有了不同的顏色,也就完成了圖像的分割。




《新程序員》:云原生和全面數字化實踐50位技術專家共同創作,文字、視頻、音頻交互閱讀

總結

以上是生活随笔為你收集整理的基于边缘的图像分割——分水岭算法(watershed)算法分析(附opencv源码分析)的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

主站蜘蛛池模板: 亚洲综合网站 | 色婷婷av777| 亚洲精品日本 | 中文字幕人妻丝袜乱一区三区 | 国产精品免费入口 | 国产精品一区在线观看 | 日韩欧美的一区二区 | 国精产品一区一区三区在线 | 久久久久久久一区二区 | 欧美群交射精内射颜射潮喷 | 久久久久久99精品久久久 | 人与拘一级a毛片 | 久久av喷吹av高潮av萌白 | 日韩精品第二页 | 国产区第一页 | 色伊人影院 | 日本黄色免费 | 成人福利在线观看 | 正在播放久久 | 色婷婷狠狠爱 | 日韩精品第一区 | 深爱婷婷 | 鲁鲁在线| 黄色在线视频播放 | 一区二区三区色 | 午夜三区 | 欧美激情自拍偷拍 | 亚洲涩视频 | 免费一级特黄特色毛片久久看 | 亚洲在线一区二区 | 日日操夜夜爽 | 国产免费久久久 | 肉大捧一进一出免费视频 | 大奶毛片| 伦理片一区二区 | 丰满少妇一区二区三区专区 | 免费毛片看 | 天堂资源 | 一本免费视频 | 六月激情网 | 欧美精品色婷婷五月综合 | 亚洲涩涩图 | 插插看| 一级网站在线观看 | 亚洲区精品 | 污视频导航 | 狠狠爱天天干 | 国产亚洲一区二区不卡 | 亚洲精品美女网站 | 亚洲第九十九页 | 自拍天堂 | 精品99久久久久成人网站免费 | 亚洲久久成人 | 国产老熟妇精品观看 | 自拍偷拍三级 | 在线岛国 | 久久9热 | 白白色在线播放 | 欧洲成人一区二区三区 | 成人精品av| 亚洲男人在线天堂 | 国产aaaaaa | 亚洲欧美国产一区二区三区 | 丁香婷婷综合网 | 亚洲2022国产成人精品无码区 | 日本久久久久久 | 国产伦精品一区二区. | 亚洲综合三区 | 欧美一区二区三区影院 | av三级网站 | 国产h视频在线观看 | 久久激情免费视频 | 欧美色图13p | 精品成人一区 | 欧美成人精品欧美一级 | 国语对白一区二区 | 久久99精品视频 | 国产一二三区在线视频 | 日韩一级久久 | 国产a区| fc2成人免费视频 | 99热这里只有精品3 成年人黄色网址 | 一本一道av无码中文字幕 | 久久伊人免费 | 国产精品福利一区 | 国产剧情一区二区三区 | h片在线播放 | 欧美熟妇精品一区二区蜜桃视频 | 波多野结衣日韩 | 国产欧美一区二区三区沐欲 | 免费欧美一级片 | 大号bbwassbigav女 | jvid乐乐| 丰满人妻一区二区三区免费 | 欧美大片免费看 | 亚洲激情精品 | 欧美a在线视频 | 日韩少妇一区二区三区 | 日韩中文在线播放 |