日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問(wèn) 生活随笔!

生活随笔

當(dāng)前位置: 首頁(yè) > 编程资源 > 编程问答 >内容正文

编程问答

Dense biased networks with deep priori anatomy and hard region adaptation: Semi-supervised learning

發(fā)布時(shí)間:2023/12/16 编程问答 39 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Dense biased networks with deep priori anatomy and hard region adaptation: Semi-supervised learning 小編覺(jué)得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

分享篇論文吧。
畢竟做的是醫(yī)療圖像,還是講究實(shí)用性為主。醫(yī)療的深度學(xué)習(xí)總的來(lái)說(shuō)肯定是要滯后于機(jī)器視覺(jué)的,但應(yīng)用型文章的出發(fā)點(diǎn)就是實(shí)用,很多在機(jī)器視覺(jué)上應(yīng)用的很好的東西在醫(yī)療圖像上往往效果很不好。這個(gè)也是數(shù)據(jù)決定的,一個(gè)好的算法工程師應(yīng)該可以很好的應(yīng)用各種算法在實(shí)際應(yīng)用上。
Dense biased networks with deep priori anatomy and hard region adaptation: Semi-supervised learning
這篇論文是MIA 2020新出的。閱讀醫(yī)療圖像的文章要是抱著看看這文章算法提出了什么以前沒(méi)有的東西這種想法是不太正確的,畢竟實(shí)用最要緊。管他啥,效果好最重要。
先放結(jié)構(gòu)圖:

總的來(lái)講這篇文章干了三件事:
第一:設(shè)計(jì)了一個(gè)無(wú)監(jiān)督的encoder(也就是上圖中粉紅色的encoder)學(xué)習(xí)CT圖的解剖學(xué)特征。
第二:設(shè)計(jì)了一個(gè)DenseBiasNet網(wǎng)絡(luò),可以快速訓(xùn)練,并且有點(diǎn)深監(jiān)督的感覺(jué)。
第三:使用了一個(gè)困難區(qū)域的損失函數(shù)。
下面一個(gè)一個(gè)講。
第一個(gè)encoder是一個(gè)在壓縮領(lǐng)域很常用的網(wǎng)絡(luò),一個(gè)encoder+一個(gè)decoder,encoder壓縮圖像,decoder恢復(fù)成原圖像,如果在壓縮上就是可以提取出encoder壓縮維度最低的特征當(dāng)成是降維后的特征。道理也很簡(jiǎn)單,就是decoder能根據(jù)維度最低的特征恢復(fù)最完整的原始圖像,那么最低維度的特征應(yīng)該就是包含了圖像絕大部分的信息,從而達(dá)到了對(duì)圖像特征進(jìn)行壓縮的效果。數(shù)字圖像處理一樣的。下圖是網(wǎng)絡(luò)結(jié)構(gòu)。損失函數(shù)是均方差損失。

這部分其實(shí)原理很簡(jiǎn)單,但是作者進(jìn)行了一個(gè)很炫的包裝,就是這種結(jié)構(gòu)學(xué)習(xí)到的不是圖像特征,而是CT的解剖學(xué)特征(其實(shí)就是圖像特征),這聽(tīng)起來(lái)就很厲害了。而且是無(wú)監(jiān)督學(xué)習(xí),網(wǎng)絡(luò)結(jié)構(gòu)也簡(jiǎn)單。
第二部分是這個(gè)DenseBiasNet網(wǎng)絡(luò),總體結(jié)構(gòu)圖如下:

這個(gè)網(wǎng)絡(luò)其實(shí)就是3Dunet的變體,最下面的DPA特征就是第一部分中我們提到的encoder。encoder先在無(wú)監(jiān)督的訓(xùn)練中學(xué)習(xí)了CT的解剖學(xué)特征,訓(xùn)練好了以后,在DenseBiasNet中直接拿過(guò)來(lái)當(dāng)成是特征提取器,用于提取圖像的解剖學(xué)特征,這個(gè)encoder在整個(gè)DenseBiasNet的訓(xùn)練過(guò)程中參數(shù)是forzen的,也就是不對(duì)encoder進(jìn)行訓(xùn)練。
DenseBiasNet網(wǎng)絡(luò)最大的提點(diǎn)就是稠密的鏈接,可以看出每一個(gè)block出來(lái)的特征會(huì)和后面所有的block進(jìn)行一個(gè)串聯(lián)(concatenation),這樣子的話,最后一層的loss可以直接反向傳播到最底層,不需要經(jīng)過(guò)中間的層,這就達(dá)到了一個(gè)深監(jiān)督的效果。具體的特征傳遞方式如下:

由于不同block之間的分辨率可能是不一樣的,他采用了最大池化層的方式進(jìn)行下采樣,插值的方式進(jìn)行上采樣。
第三個(gè)就是它的損失函數(shù),如果是一般的交叉熵?fù)p失函數(shù),會(huì)覆蓋整個(gè)圖像,如下圖中的左邊第一個(gè),而他們的函數(shù)會(huì)focus在分割不好的區(qū)域,也就是右邊兩個(gè)圖。

這個(gè)損失函數(shù)也是很簡(jiǎn)單的原理

yn是GT(ground-truth),yn^ 是預(yù)測(cè)的值,I表示采樣策略,|yn?yn^ | > T的時(shí)候,I=1,否則I=0,也就是說(shuō)I=1的時(shí)候這個(gè)點(diǎn)的損失就會(huì)被計(jì)算,而I=0的時(shí)候表示這個(gè)點(diǎn)不會(huì)被計(jì)算到損失中,|yn?yn^| 表示預(yù)測(cè)值也實(shí)際值的絕對(duì)距離,如果這個(gè)距離很小,那么就認(rèn)為是分割對(duì)了,那么久不計(jì)算他的損失,這樣就達(dá)到了選擇難分割點(diǎn)的效果。T可以控制這個(gè)誤差,文中選了T=0.1.
后面的實(shí)驗(yàn)我就不講了??偟膩?lái)說(shuō),希望可以在這種應(yīng)用的文章中學(xué)到一些如何把算法的長(zhǎng)處用到實(shí)際應(yīng)用中的思路吧。

總結(jié)

以上是生活随笔為你收集整理的Dense biased networks with deep priori anatomy and hard region adaptation: Semi-supervised learning的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。

如果覺(jué)得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。