日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

evaluate函数使用无效_使用Keras和Pytorch处理RNN变长序列输入的方法总结

發布時間:2025/3/19 编程问答 24 豆豆
生活随笔 收集整理的這篇文章主要介紹了 evaluate函数使用无效_使用Keras和Pytorch处理RNN变长序列输入的方法总结 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

最近在使用Keras和Pytorch處理時間序列數據,在變長數據的輸入處理上踩了很多坑。一般的通用做法都需要先將一個batch中的所有序列padding到同一長度,然后需要在網絡訓練時屏蔽掉padding的值。在pytorch和keras中都有各自對padding值的處理,簡單做一下總結。

Keras

  • 使用Masking層
  • Keras中自帶的屏蔽padding值的方式,在網絡結構比較簡單時使用很方便。

    model = Sequential() model.add(Masking(mask_value=0., input_shape=(timesteps, features))) model.add(LSTM(32))

    缺點是一些層(Conv1D、Global mean pooling或用戶自己實現的層)不支持Masking機制,導致無法compile模型。

    2. 添加Masking支持

    既然Keras原生的層不支持Masking機制,我們可以重新復現該層,并使其支持Masking。

    具體需要繼承keras.layers.Layer類,在實現時設置self.supports_masking =True,并實現并修改compute_mask和compute_output_shape函數,使其支持Mask的傳遞。

    具體可以參考https://github.com/CyberZHG/keras-self-attention/blob/master/keras_self_attention/seq_self_attention.py中是如何在Attention中實現Mask支持的

    3. 使用keras-trans-mask

    無意中發現了這個工具,具體效果沒試過,但是看介紹使用起來還比較方便。

    Pytorch

  • pack sequence
  • 同樣是Pytorch中標準的處理變長輸入的操作,常規步驟是pad_sequence -> pack_padded_sequence -> RNN -> pad_packed_sequence

    具體可以參考這個回答,對各個函數解釋的很詳細。

    尹相楠:PyTorch 訓練 RNN 時,序列長度不固定怎么辦??zhuanlan.zhihu.com

    然而這種方法存在缺點,即如果我們要對RNN內部的運算進行修改時(如自己實現LSTM或GRU),就沒辦法直接使用pack操作了,這時候就需要用到下面的方法

    2. 重新實現AutogradRNN,加入pack支持

    類似于Keras,我們同樣可以自定義RNN,使其支持pack_padded_sequence輸入。然而這一操作過于復雜,需要從AutogradRNN開始重構。

    根據官方論壇和github上的issue,目前還沒有辦法靈活地自定義RNNCell(似乎自定義的RNNCell訓練慢也與此有關,現在的官方RNN實現和Cudnn耦合程度過高)。

    因為這個方法太過復雜,所以我并沒有仔細研究,有興趣的可以自己參考下面代碼實現。

    https://github.com/huggingface/torchMoji/blob/master/torchmoji/lstm.py?github.com

    通用方法

  • 按長度劃分Batch
  • 既然問題出在同一個batch中序列長度不一致,那么按照序列長度劃分batch就沒有這一問題了。然而這一方法存在一些缺點/隱患:

    • batch大小不一致,一些batch中樣本過少,導致訓練很慢
    • 劃分訓練集/驗證集很麻煩,尤其是K折交叉驗證
    • 可能會導致batch之間樣本分布不一致,會產生performance上的微妙影響

    最后一條我也不是特別確定,只不過在實驗時發現了可能會出現這一問題,歡迎大佬解釋。

    2. 手動屏蔽loss

    無論是Masking層還是Pack sequence,本質上都是防止padding操作產生錯誤的梯度影響網絡訓練,那么我們只需在計算損失函數時將padding對應的timestep輸出和target均置0即可。

    個人理解pytorch中的pack sequence操作只是為了提升計算效率,真正屏蔽padding仍然需要在最后計算損失函數時將對應的timestep梯度置0。

    以上就是對Keras和Pytorch中處理RNN變長序列輸入的方法總結,希望能對他人有所幫助。如果有哪些地方我的理解有誤,請及時糾正。

    總結

    以上是生活随笔為你收集整理的evaluate函数使用无效_使用Keras和Pytorch处理RNN变长序列输入的方法总结的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。