日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

CV之NS之ME/LF:图像风格迁移中常用的模型评估指标/损失函数(内容损失、风格损失)简介、使用方法之详细攻略

發布時間:2025/3/21 编程问答 32 豆豆
生活随笔 收集整理的這篇文章主要介紹了 CV之NS之ME/LF:图像风格迁移中常用的模型评估指标/损失函数(内容损失、风格损失)简介、使用方法之详细攻略 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

CV之NS之ME/LF:圖像風格遷移中常用的模型評估指標/損失函數(內容損失、風格損失)簡介、使用方法之詳細攻略

目錄

圖像風格遷移中常用的幾種損失函數

1、內容損失

2、風格損失

3、定義總損失


圖像風格遷移中常用的幾種損失函數

1、內容損失

# endpoints_dict是上一節提到的損失網絡各層的計算結果;content_layers是定義使用哪些層的差距計算損失,默認配置是conv3_3 def content_loss(endpoints_dict, content_layers):content_loss = 0for layer in content_layers:#上一節中把生成的圖像、原始圖像同時傳入損失網絡中計算。所以這里先把他們區分開#我們可以參照函數tf.concat與tf.split的文檔理解此處的內容generated_images, content_images = tf.split(endpoints_dict[layer], 2, 0)size = tf.size(generated_images)# 所謂的內容損失,是生成圖片generated_images與原始圖片激活content_images的L*L距離content_loss += tf.nn.l2_loss(generated_images - content_images) * 2 / tf.to_float(size) # remain the same as in the paperreturn content_loss

2、風格損失

# 定義風格損失,style_layers為定義使用哪些層計算風格損失。默認為conv1_2、conv2_2、conv3_3、conv4_3 # style_features_t是利用原始的風格圖片計算的層的激活。如在wave模型中是img/wave.jpg計算的激活 def style_loss(endpoints_dict, style_features_t, style_layers):style_loss = 0# summary是為TensorBoard服務的style_loss_summary = {}for style_gram, layer in zip(style_features_t, style_layers):# 計算風格損失,只需要計算生成圖片generated_imgs與目標風格style_features_t的差距。因此不需要取出content_imagesgenerated_images, _ = tf.split(endpoints_dict[layer], 2, 0)size = tf.size(generated_images)# 調用gram函數計算Gram矩陣。風格損失定義為生成圖片與目標風格Gram矩陣的L*L的Losslayer_style_loss = tf.nn.l2_loss(gram(generated_images) - style_gram) * 2 / tf.to_float(size)style_loss_summary[layer] = layer_style_lossstyle_loss += layer_style_lossreturn style_loss, style_loss_summary

3、定義總損失

"""Build Losses"""# 定義內容損失content_loss = losses.content_loss(endpoints_dict, FLAGS.content_layers)# 定義風格損失style_loss, style_loss_summary = losses.style_loss(endpoints_dict, style_features_t, FLAGS.style_layers)# 定義tv損失,該損失在實際訓練中并沒有被用到,因為在訓練時都采用tv_weight=0tv_loss = losses.total_variation_loss(generated) # use the unprocessed image# 總損失是這些損失的加權和,最后利用總損失優化圖像生成網絡即可loss = FLAGS.style_weight * style_loss + FLAGS.content_weight * content_loss + FLAGS.tv_weight * tv_loss

總結

以上是生活随笔為你收集整理的CV之NS之ME/LF:图像风格迁移中常用的模型评估指标/损失函数(内容损失、风格损失)简介、使用方法之详细攻略的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。