日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

如何判断LSTM模型中的过拟合和欠拟合 By 机器之心2017年10月02日 11:09 判断长短期记忆模型在序列预测问题上是否表现良好可能是一件困难的事。也许你会得到一个不错的模型技术得分,但了解

發布時間:2025/3/21 编程问答 56 豆豆
判斷長短期記憶模型在序列預測問題上是否表現良好可能是一件困難的事。也許你會得到一個不錯的模型技術得分,但了解模型是較好的擬合,還是欠擬合/過擬合,以及模型在不同的配置條件下能否實現更好的性能是非常重要的。


在本教程中,你將發現如何診斷 LSTM 模型在序列預測問題上的擬合度。完成教程之后,你將了解:

  • 如何收集 LSTM 模型的訓練歷史并為其畫圖。
  • 如何判別一個欠擬合、較好擬合和過擬合的模型。
  • 如何通過平均多次模型運行來開發更魯棒的診斷方法。


讓我們開始吧。


教程概覽


本教程可分為以下 6 個部分,分別是:

1. Keras 中的訓練歷史

2. 診斷圖

3. 欠擬合實例

4. 良好擬合實例

5. 過擬合實例

6. 多次運行實例


1. Keras 中的訓練歷史


你可以通過回顧模型的性能隨時間的變化來更多地了解模型行為。


LSTM 模型通過調用 fit() 函數進行訓練。這個函數會返回一個叫作 history 的變量,該變量包含損失函數的軌跡,以及在模型編譯過程中被標記出來的任何一個度量指標。這些得分會在每一個 epoch 的最后被記錄下來。


  • ...

  • history = model.fit(...)


  • 例如,如果你的模型被編譯用來優化 log loss(binary_crossentropy),并且要在每一個 epoch 中衡量準確率,那么,log loss 和準確率將會在每一個訓練 epoch 的歷史記錄中被計算出,并記錄下來。


    每一個得分都可以通過由調用 fit() 得到的歷史記錄中的一個 key 進行訪問。默認情況下,擬合模型時優化過的損失函數為「loss」,準確率為「acc」。


  • ...

  • model.com pile(loss='binary_crossentropy', optimizer='adam', metrics=['accuracy'])

  • history = model.fit(X, Y, epochs=100)

  • print(history.history['loss'])

  • print(history.history['acc'])


  • Keras 還允許在擬合模型時指定獨立的驗證數據集,該數據集也可以使用同樣的損失函數和度量指標進行評估。


    該功能可以通過在 fit() 中設置 validation_split 參數來啟用,以將訓練數據分割出一部分作為驗證數據集。


  • ...

  • history = model.fit(X, Y, epochs=100, validation_split=0.33)


  • 該功能也可以通過設置 validation_data 參數,并向其傳遞 X 和 Y 數據集元組來執行。


  • ...

  • history = model.fit(X, Y, epochs=100, validation_data=(valX, valY))


  • 在驗證數據集上計算得到的度量指標會使用相同的命名,只是會附加一個「val_」前綴。


  • ...

  • model.compile(loss='binary_crossentropy', optimizer='adam', metrics=['accuracy'])

  • history = model.fit(X, Y, epochs=100, validation_split=0.33)

  • print(history.history['loss'])

  • print(history.history['acc'])

  • print(history.history['val_loss'])

  • print(history.history['val_acc'])


  • 2. 診斷圖


    LSTM 模型的訓練歷史可用于診斷模型行為。你可以使用 Matplotlib 庫來進行性能的可視化,你可以將訓練損失和測試損失都畫出來以作比較,如下所示:


  • from matplotlib import pyplot

  • ...

  • history = model.fit(X, Y, epochs=100, validation_data=(valX, valY))

  • pyplot.plot(history.history['loss'])

  • pyplot.plot(history.history['val_loss'])

  • pyplot.title('model train vs validation loss')

  • pyplot.ylabel('loss')

  • pyplot.xlabel('epoch')

  • pyplot.legend(['train', 'validation'], loc='upper right')

  • pyplot.show()


  • 創建并檢查這些圖有助于啟發你找到新的有可能優化模型性能的配置。


    接下來,我們來看一些例子。我們將從損失最小化的角度考慮在訓練集和驗證集上的建模技巧。


    3. 欠擬合實例


    欠擬合模型就是在訓練集上表現良好而在測試集上性能較差的模型。


    這個可以通過以下情況來診斷:訓練的損失曲線低于驗證的損失曲線,并且驗證集中的損失函數表現出了有可能被優化的趨勢。


    下面是一個人為設計的小的欠擬合 LSTM 模型。


  • from keras.models import Sequential

  • from keras.layers import Dense

  • from keras.layers import LSTM

  • from matplotlib import pyplot

  • from numpy import array

  • # return training data

  • def get_train():

  • seq = [[0.0, 0.1], [0.1, 0.2], [0.2, 0.3], [0.3, 0.4], [0.4, 0.5]]

  • seq = array(seq)

  • X, y = seq[:, 0], seq[:, 1]

  • X = X.reshape((len(X), 1, 1))

  • return X, y

  • # return validation data

  • def get_val():

  • seq = [[0.5, 0.6], [0.6, 0.7], [0.7, 0.8], [0.8, 0.9], [0.9, 1.0]]

  • seq = array(seq)

  • X, y = seq[:, 0], seq[:, 1]

  • X = X.reshape((len(X), 1, 1))

  • return X, y

  • # define model

  • model = Sequential()

  • model.add(LSTM(10, input_shape=(1,1)))

  • model.add(Dense(1, activation='linear'))

  • # compile model

  • model.compile(loss='mse', optimizer='adam')

  • # fit model

  • X,y = get_train()

  • valX, valY = get_val()

  • history = model.fit(X, y, epochs=100, validation_data=(valX, valY), shuffle=False)

  • # plot train and validation loss

  • pyplot.plot(history.history['loss'])

  • pyplot.plot(history.history['val_loss'])

  • pyplot.title('model train vs validation loss')

  • pyplot.ylabel('loss')

  • pyplot.xlabel('epoch')

  • pyplot.legend(['train', 'validation'], loc='upper right')

  • pyplot.show()


  • 運行這個實例會產生一個訓練損失和驗證損失圖,該圖顯示欠擬合模型特點。在這個案例中,模型性能可能隨著訓練 epoch 的增加而有所改善。



    欠擬合模型的診斷圖


    另外,如果模型在訓練集上的性能比驗證集上的性能好,并且模型性能曲線已經平穩了,那么這個模型也可能欠擬合。下面就是一個缺乏足夠的記憶單元的欠擬合模型的例子。


  • from keras.models import Sequential

  • from keras.layers import Dense

  • from keras.layers import LSTM

  • from matplotlib import pyplot

  • from numpy import array

  • # return training data

  • def get_train():

  • seq = [[0.0, 0.1], [0.1, 0.2], [0.2, 0.3], [0.3, 0.4], [0.4, 0.5]]

  • seq = array(seq)

  • X, y = seq[:, 0], seq[:, 1]

  • X = X.reshape((5, 1, 1))

  • return X, y

  • # return validation data

  • def get_val():

  • seq = [[0.5, 0.6], [0.6, 0.7], [0.7, 0.8], [0.8, 0.9], [0.9, 1.0]]

  • seq = array(seq)

  • X, y = seq[:, 0], seq[:, 1]

  • X = X.reshape((len(X), 1, 1))

  • return X, y

  • # define model

  • model = Sequential()

  • model.add(LSTM(1, input_shape=(1,1)))

  • model.add(Dense(1, activation='linear'))

  • # compile model

  • model.compile(loss='mae', optimizer='sgd')

  • # fit model

  • X,y = get_train()

  • valX, valY = get_val()

  • history = model.fit(X, y, epochs=300, validation_data=(valX, valY), shuffle=False)

  • # plot train and validation loss

  • pyplot.plot(history.history['loss'])

  • pyplot.plot(history.history['val_loss'])

  • pyplot.title('model train vs validation loss')

  • pyplot.ylabel('loss')

  • pyplot.xlabel('epoch')

  • pyplot.legend(['train', 'validation'], loc='upper right')

  • pyplot.show()


  • 運行這個實例會展示出一個存儲不足的欠擬合模型的特點。


    在這個案例中,模型的性能也許會隨著模型的容量增加而得到改善,例如隱藏層中記憶單元的數目或者隱藏層的數目增加。



    欠擬合模型的狀態診斷線圖


    4. 良好擬合實例


    良好擬合的模型就是模型的性能在訓練集和驗證集上都比較好。


    這可以通過訓練損失和驗證損失都下降并且穩定在同一個點進行診斷。


    下面的小例子描述的就是一個良好擬合的 LSTM 模型。


  • from keras.models import Sequential

  • from keras.layers import Dense

  • from keras.layers import LSTM

  • from matplotlib import pyplot

  • from numpy import array

  • # return training data

  • def get_train():

  • seq = [[0.0, 0.1], [0.1, 0.2], [0.2, 0.3], [0.3, 0.4], [0.4, 0.5]]

  • seq = array(seq)

  • X, y = seq[:, 0], seq[:, 1]

  • X = X.reshape((5, 1, 1))

  • return X, y

  • # return validation data

  • def get_val():

  • seq = [[0.5, 0.6], [0.6, 0.7], [0.7, 0.8], [0.8, 0.9], [0.9, 1.0]]

  • seq = array(seq)

  • X, y = seq[:, 0], seq[:, 1]

  • X = X.reshape((len(X), 1, 1))

  • return X, y

  • # define model

  • model = Sequential()

  • model.add(LSTM(10, input_shape=(1,1)))

  • model.add(Dense(1, activation='linear'))

  • # compile model

  • model.compile(loss='mse', optimizer='adam')

  • # fit model

  • X,y = get_train()

  • valX, valY = get_val()

  • history = model.fit(X, y, epochs=800, validation_data=(valX, valY), shuffle=False)

  • # plot train and validation loss

  • pyplot.plot(history.history['loss'])

  • pyplot.plot(history.history['val_loss'])

  • pyplot.title('model train vs validation loss')

  • pyplot.ylabel('loss')

  • pyplot.xlabel('epoch')

  • pyplot.legend(['train', 'validation'], loc='upper right')

  • pyplot.show()


  • 運行這個實例可以創建一個線圖,圖中訓練損失和驗證損失出現重合。


    理想情況下,我們都希望模型盡可能是這樣,盡管面對大量數據的挑戰,這似乎不太可能。



    良好擬合模型的診斷線圖


    5. 過擬合實例


    過擬合模型即在訓練集上性能良好且在某一點后持續增長,而在驗證集上的性能到達某一點然后開始下降的模型。


    這可以通過線圖來診斷,圖中訓練損失持續下降,驗證損失下降到拐點開始上升。


    下面這個實例就是一個過擬合 LSTM 模型。


  • from keras.models import Sequential

  • from keras.layers import Dense

  • from keras.layers import LSTM

  • from matplotlib import pyplot

  • from numpy import array

  • # return training data

  • def get_train():

  • seq = [[0.0, 0.1], [0.1, 0.2], [0.2, 0.3], [0.3, 0.4], [0.4, 0.5]]

  • seq = array(seq)

  • X, y = seq[:, 0], seq[:, 1]

  • X = X.reshape((5, 1, 1))

  • return X, y

  • # return validation data

  • def get_val():

  • seq = [[0.5, 0.6], [0.6, 0.7], [0.7, 0.8], [0.8, 0.9], [0.9, 1.0]]

  • seq = array(seq)

  • X, y = seq[:, 0], seq[:, 1]

  • X = X.reshape((len(X), 1, 1))

  • return X, y

  • # define model

  • model = Sequential()

  • model.add(LSTM(10, input_shape=(1,1)))

  • model.add(Dense(1, activation='linear'))

  • # compile model

  • model.compile(loss='mse', optimizer='adam')

  • # fit model

  • X,y = get_train()

  • valX, valY = get_val()

  • history = model.fit(X, y, epochs=1200, validation_data=(valX, valY), shuffle=False)

  • # plot train and validation loss

  • pyplot.plot(history.history['loss'][500:])

  • pyplot.plot(history.history['val_loss'][500:])

  • pyplot.title('model train vs validation loss')

  • pyplot.ylabel('loss')

  • pyplot.xlabel('epoch')

  • pyplot.legend(['train', 'validation'], loc='upper right')

  • pyplot.show()


  • 運行這個實例會創建一個展示過擬合模型在驗證集中出現拐點的曲線圖。


    這也許是進行太多訓練 epoch 的信號。


    在這個案例中,模型會在拐點處停止訓練。另外,訓練樣本的數目可能會增加。



    過擬合模型的診斷線圖


    6. 多次運行實例


    LSTM 是隨機的,這意味著每次運行時都會得到一個不同的診斷圖。


    多次重復診斷運行很有用(如 5、10、30)。每次運行的訓練軌跡和驗證軌跡都可以被繪制出來,以更魯棒的方式記錄模型隨著時間的行為軌跡。


    以下實例多次運行同樣的實驗,然后繪制每次運行的訓練損失和驗證損失軌跡。


  • from keras.models import Sequential

  • from keras.layers import Dense

  • from keras.layers import LSTM

  • from matplotlib import pyplot

  • from numpy import array

  • from pandas import DataFrame

  • # return training data

  • def get_train():

  • seq = [[0.0, 0.1], [0.1, 0.2], [0.2, 0.3], [0.3, 0.4], [0.4, 0.5]]

  • seq = array(seq)

  • X, y = seq[:, 0], seq[:, 1]

  • X = X.reshape((5, 1, 1))

  • return X, y

  • # return validation data

  • def get_val():

  • seq = [[0.5, 0.6], [0.6, 0.7], [0.7, 0.8], [0.8, 0.9], [0.9, 1.0]]

  • seq = array(seq)

  • X, y = seq[:, 0], seq[:, 1]

  • X = X.reshape((len(X), 1, 1))

  • return X, y

  • # collect data across multiple repeats

  • train = DataFrame()

  • val = DataFrame()

  • for i in range(5):

  • # define model

  • model = Sequential()

  • model.add(LSTM(10, input_shape=(1,1)))

  • model.add(Dense(1, activation='linear'))

  • # compile model

  • model.compile(loss='mse', optimizer='adam')

  • X,y = get_train()

  • valX, valY = get_val()

  • # fit model

  • history = model.fit(X, y, epochs=300, validation_data=(valX, valY), shuffle=False)

  • # story history

  • train[str(i)] = history.history['loss']

  • val[str(i)] = history.history['val_loss']

  • # plot train and validation loss across multiple runs

  • pyplot.plot(train, color='blue', label='train')

  • pyplot.plot(val, color='orange', label='validation')

  • pyplot.title('model train vs validation loss')

  • pyplot.ylabel('loss')

  • pyplot.xlabel('epoch')

  • pyplot.show()


  • 從下圖中,我們可以在 5 次運行中看到欠擬合模型的通常趨勢,該案例強有力地證明增加訓練 epoch 次數的有效性。



    模型多次運行的診斷線圖


    擴展閱讀


    如果你想更深入地了解這方面的內容,這一部分提供了更豐富的資源。

    • Keras 的歷史回調 API(History Callback Keras API,https://keras.io/callbacks/#history)
    • 維基百科中關于機器學習的學習曲線(Learning Curve in Machine Learning on Wikipedia,https://en.wikipedia.org/wiki/Learning_curve#In_machine_learning)
    • 維基百科上關于過擬合的描述(Overfitting on Wikipedia,https://en.wikipedia.org/wiki/Overfitting)


    總結


    在本教程中,你學習到如何在序列預測問題上診斷 LSTM 模型是否擬合。


    具體而言,你學到了:


    • 如何收集 LSTM 模型的訓練歷史并為其畫圖。
    • 如何判別一個欠擬合、良好擬合和過擬合的模型。
    • 如何通過平均多次模型運行來開發更魯棒的診斷方法。
    聲明:本文由機器之心編譯出品,原文來自MachineLearningMastery,作者Jason Brownlee,轉載請查看要求,機器之心對于違規侵權者保有法律追訴權。

    總結

    以上是生活随笔為你收集整理的如何判断LSTM模型中的过拟合和欠拟合 By 机器之心2017年10月02日 11:09 判断长短期记忆模型在序列预测问题上是否表现良好可能是一件困难的事。也许你会得到一个不错的模型技术得分,但了解的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

    主站蜘蛛池模板: 欧美日韩中文视频 | 亚洲色图21p | 韩国伦理大片 | 国产欧美精品久久久 | 午夜亚洲福利在线老司机 | 99久久婷婷| 欧美精品性视频 | av免费高清| 善良的女邻居在线观看 | 无码人中文字幕 | 热久久久 | 性欧美久久久 | av鲁丝一区鲁丝二区鲁丝三区 | 中文字幕有码在线视频 | 乱图区| 大桥未久av在线播放 | 男生插女生的视频 | 456亚洲视频| 黄色男人的天堂 | 免费网站成人 | 性感美女毛片 | 色播基地| 台湾少妇xxxx做受 | 在线看v片| av我不卡 | 国产精品污视频 | 国产尤物av尤物在线看 | 黑丝少妇喷水 | 99热6这里只有精品 三级av在线免费观看 | 黄色片的网站 | 日本少妇bbwbbw精品 | 亚洲精品国产精品乱码不99按摩 | 欧美视频免费在线观看 | 91毛片在线观看 | 田中瞳av | 国产xxxx孕妇| 亚洲国产日韩a在线播放性色 | 日韩精品一区二区三区 | 日本一区二区视频免费 | 日本免费高清视频 | 特黄aaaaaa私密按摩 | 伊人久久九| 国产欧美日韩综合精品 | 91精品国产一区二区在线观看 | 五月天久久久久 | 成人一级大片 | 黄色激情网址 | 国产一区二区三区亚洲 | 成人激情站 | 亚洲欧美综合自拍 | 另一种灿烂生活 | 毛片基地在线播放 | 国产睡熟迷奷系列精品视频 | 蜜桃视频久久一区免费观看入口 | 亚洲观看黄色网 | 国产人与禽zoz0性伦 | 日本a在线播放 | 性生生活性生交a级 | 毛片资源| 91青青视频 | 四虎在线影视 | 国产经典久久久 | 亚洲不卡av一区二区 | 成人1区2区3区 | 国产后入又长又硬 | a级在线免费观看 | 我们俩电影网mp4动漫官网 | 四虎永久在线精品免费网址 | 欧美日韩一区二区视频在线观看 | 黄在线视频 | 波多野结衣有码 | 少妇毛片一区二区三区 | 国产日韩欧美自拍 | 99精品在线免费观看 | 男人的天堂色 | 久久九九精品视频 | 日韩在线国产 | 91插插插永久免费 | 被黑人各种姿势猛c哭h文1 | 国语对白清晰刺激对白 | 欧美激情综合五月色丁香 | 天堂网va| 国产日韩欧美综合在线 | 色图自拍 | 日韩电影在线观看中文字幕 | 国产黄色片在线免费观看 | 毛茸茸成熟亚洲人 | 在线观看日韩av电影 | 免费草逼视频 | 国产欧美激情在线观看 | 91色精品 | a级网站在线观看 | 超碰成人福利 | jizz日本大全| 蜜桃av鲁一鲁一鲁一鲁俄罗斯的 | 国产一级性生活 | 精产国品一二三产区m553麻豆 | 亚洲乱色 | 久久免费视频一区二区 |