日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

TVLoss理解

發布時間:2024/3/13 编程问答 29 豆豆
生活随笔 收集整理的這篇文章主要介紹了 TVLoss理解 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

在圖像復原過程中,圖像上的一點點噪聲可能就會對復原的結果產生非常大的影響,因為很多復原算法都會放大噪聲。這時候我們就需要在最優化問題的模型中添加一些正則項來保持圖像的光滑性,TV loss是常用的一種正則項(注意是正則項,配合其他loss一起使用,約束噪聲)。圖片中相鄰像素值的差異可以通過降低TV loss來一定程度上解決。比如降噪,對抗checkerboard等等。
1. 初始定義
Rudin等人(Rudin1990)觀察到,受噪聲污染的圖像的總變分比無噪圖像的總變分明顯的大。 那么最小化TV理論上就可以最小化噪聲。圖片中相鄰像素值的差異可以通過降低TV loss來一定程度上解決。比如降噪,對抗checkerboard等等。總變分定義為梯度幅值的積分:

其中,

Du 是圖像的支持域。限制總變分就會限制噪聲。
2. 擴展定義
帶階數的TV loss 定義如下:

但是在圖像中,連續域的積分就變成了像素離散域中求和,所以可以這么算:

即:求每一個像素和橫向下一個像素的差的平方,加上縱向下一個像素的差的平方。然后開β/2次根。
3. 效果
The total variation (TV) loss encourages spatial smoothness in the generated image.(總變差(TV)損失促進了生成的圖像中的空間平滑性。)根據論文Nonlinear total variation based noise removal algorithms的描述,當β < 1時,會出現下圖左側的小點點的artifact。當β > 1時,圖像中小點點會被消除,但是代價就是圖像的清晰度。效果圖如下:

4. 代碼實現
這兩種實現都默認β=2 \beta=2β=2,不支持β \betaβ的調整。
4.1 pytorch

import torch import torch.nn as nn from torch.autograd import Variableclass TVLoss(nn.Module):def __init__(self,TVLoss_weight=1):super(TVLoss,self).__init__()self.TVLoss_weight = TVLoss_weightdef forward(self,x):batch_size = x.size()[0]h_x = x.size()[2]w_x = x.size()[3]count_h = self._tensor_size(x[:,:,1:,:])count_w = self._tensor_size(x[:,:,:,1:])h_tv = torch.pow((x[:,:,1:,:]-x[:,:,:h_x-1,:]),2).sum()w_tv = torch.pow((x[:,:,:,1:]-x[:,:,:,:w_x-1]),2).sum()return self.TVLoss_weight*2*(h_tv/count_h+w_tv/count_w)/batch_sizedef _tensor_size(self,t):return t.size()[1]*t.size()[2]*t.size()[3]def main():# x = Variable(torch.FloatTensor([[[1,2],[2,3]],[[1,2],[2,3]]]).view(1,2,2,2), requires_grad=True)# x = Variable(torch.FloatTensor([[[3,1],[4,3]],[[3,1],[4,3]]]).view(1,2,2,2), requires_grad=True)# x = Variable(torch.FloatTensor([[[1,1,1], [2,2,2],[3,3,3]],[[1,1,1], [2,2,2],[3,3,3]]]).view(1, 2, 3, 3), requires_grad=True)x = Variable(torch.FloatTensor([[[1, 2, 3], [2, 3, 4], [3, 4, 5]], [[1, 2, 3], [2, 3, 4], [3, 4, 5]]]).view(1, 2, 3, 3),requires_grad=True)addition = TVLoss()z = addition(x)print xprint z.dataz.backward()print x.gradif __name__ == '__main__':

4.2 tensorflow

def tv_loss(X, weight):with tf.variable_scope('tv_loss'):return weight * tf.reduce_sum(tf.image.total_variation(X))`` 參考 https://blog.csdn.net/yexiaogu1104/article/details/88395475`

總結

以上是生活随笔為你收集整理的TVLoss理解的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。