日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 人工智能 > 循环神经网络 >内容正文

循环神经网络

RNN LSTM 循环神经网络 (分类例子)

發布時間:2025/3/15 循环神经网络 33 豆豆
生活随笔 收集整理的這篇文章主要介紹了 RNN LSTM 循环神经网络 (分类例子) 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

學習資料:

  • 相關代碼
  • 為 TF 2017 打造的新版可視化教學代碼
  • 機器學習-簡介系列?什么是RNN
  • 機器學習-簡介系列?什么是LSTM RNN
  • 本代碼基于網上這一份代碼?code

設置 RNN 的參數

這次我們會使用 RNN 來進行分類的訓練 (Classification). 會繼續使用到手寫數字 MNIST 數據集. 讓 RNN 從每張圖片的第一行像素讀到最后一行, 然后再進行分類判斷. 接下來我們導入 MNIST 數據并確定 RNN 的各種參數(hyper-parameters):

import tensorflow as tf from tensorflow.examples.tutorials.mnist import input_data tf.set_random_seed(1) # set random seed# 導入數據 mnist = input_data.read_data_sets('MNIST_data', one_hot=True)# hyperparameters lr = 0.001 # learning rate training_iters = 100000 # train step 上限 batch_size = 128 n_inputs = 28 # MNIST data input (img shape: 28*28) n_steps = 28 # time steps n_hidden_units = 128 # neurons in hidden layer n_classes = 10 # MNIST classes (0-9 digits)

接著定義?x,?y?的?placeholder?和?weights,?biases?的初始狀況.

# x y placeholder x = tf.placeholder(tf.float32, [None, n_steps, n_inputs]) y = tf.placeholder(tf.float32, [None, n_classes])# 對 weights biases 初始值的定義 weights = {# shape (28, 128)'in': tf.Variable(tf.random_normal([n_inputs, n_hidden_units])),# shape (128, 10)'out': tf.Variable(tf.random_normal([n_hidden_units, n_classes])) } biases = {# shape (128, )'in': tf.Variable(tf.constant(0.1, shape=[n_hidden_units, ])),# shape (10, )'out': tf.Variable(tf.constant(0.1, shape=[n_classes, ])) }

定義 RNN 的主體結構

接著開始定義 RNN 主體結構, 這個 RNN 總共有 3 個組成部分 (?input_layer,?cell,?output_layer). 首先我們先定義?input_layer:

def RNN(X, weights, biases):# 原始的 X 是 3 維數據, 我們需要把它變成 2 維數據才能使用 weights 的矩陣乘法# X ==> (128 batches * 28 steps, 28 inputs)X = tf.reshape(X, [-1, n_inputs])# X_in = W*X + bX_in = tf.matmul(X, weights['in']) + biases['in']# X_in ==> (128 batches, 28 steps, 128 hidden) 換回3維X_in = tf.reshape(X_in, [-1, n_steps, n_hidden_units])

接著是?cell?中的計算, 有兩種途徑:

  • 使用?tf.nn.rnn(cell, inputs)?(不推薦原因). 但是如果使用這種方法, 可以參考原因;
  • 使用?tf.nn.dynamic_rnn(cell, inputs)?(推薦). 這次的練習將使用這種方式.
  • 因 Tensorflow 版本升級原因,?state_is_tuple=True?將在之后的版本中變為默認. 對于?lstm?來說,?state可被分為(c_state, h_state).

    # 使用 basic LSTM Cell.lstm_cell = tf.contrib.rnn.BasicLSTMCell(n_hidden_units, forget_bias=1.0, state_is_tuple=True)init_state = lstm_cell.zero_state(batch_size, dtype=tf.float32) # 初始化全零 state

    如果使用tf.nn.dynamic_rnn(cell, inputs), 我們要確定?inputs?的格式.?tf.nn.dynamic_rnn?中的?time_major?參數會針對不同?inputs?格式有不同的值.

  • 如果?inputs?為 (batches, steps, inputs) ==>?time_major=False;
  • 如果?inputs?為 (steps, batches, inputs) ==>?time_major=True;
  • outputs, final_state = tf.nn.dynamic_rnn(lstm_cell, X_in, initial_state=init_state, time_major=False)

    最后是?output_layer?和?return?的值. 因為這個例子的特殊性, 有兩種方法可以求得?results.

    方式一:?直接調用final_state?中的?h_state?(final_state[1]) 來進行運算:

    results = tf.matmul(final_state[1], weights['out']) + biases['out']

    方式二:?調用最后一個?outputs?(在這個例子中,和上面的final_state[1]是一樣的):

    # 把 outputs 變成 列表 [(batch, outputs)..] * stepsoutputs = tf.unstack(tf.transpose(outputs, [1,0,2]))results = tf.matmul(outputs[-1], weights['out']) + biases['out'] #選取最后一個 output

    在?def RNN()?的最后輸出?result

    return results

    定義好了 RNN 主體結構后, 我們就可以來計算?cost?和?train_op:

    pred = RNN(x, weights, biases) cost = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(pred, y)) train_op = tf.train.AdamOptimizer(lr).minimize(cost)

    訓練 RNN

    訓練時, 不斷輸出?accuracy, 觀看結果:

    correct_pred = tf.equal(tf.argmax(pred, 1), tf.argmax(y, 1)) accuracy = tf.reduce_mean(tf.cast(correct_pred, tf.float32))# init= tf.initialize_all_variables() # tf 馬上就要廢棄這種寫法 # 替換成下面的寫法: init = tf.global_variables_initializer()with tf.Session() as sess:sess.run(init)step = 0while step * batch_size < training_iters:batch_xs, batch_ys = mnist.train.next_batch(batch_size)batch_xs = batch_xs.reshape([batch_size, n_steps, n_inputs])sess.run([train_op], feed_dict={x: batch_xs,y: batch_ys,})if step % 20 == 0:print(sess.run(accuracy, feed_dict={x: batch_xs,y: batch_ys,}))step += 1

    最終?accuracy?的結果如下:

    0.1875 0.65625 0.726562 0.757812 0.820312 0.796875 0.859375 0.921875 0.921875 0.898438 0.828125 0.890625 0.9375 0.921875 0.9375 0.929688 0.953125 ....

    原文地址: https://morvanzhou.github.io/tutorials/machine-learning/tensorflow/5-08-RNN2/

    總結

    以上是生活随笔為你收集整理的RNN LSTM 循环神经网络 (分类例子)的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

    主站蜘蛛池模板: 一起操17c | 亚洲hhh | 我的好妈妈在线观看 | 青青草免费在线 | 亚洲av无码国产精品永久一区 | 男人在线视频 | 国产精品野外户外 | 亚洲永久免费网站 | 亚洲国产欧洲 | 日韩欧美国产高清91 | 亚洲乱码精品久久久久 | 国产美女喷水 | 超碰人人射 | 精品人妻人人做人人爽 | 热99视频 | 国产免费无遮挡吸奶头视频 | 天天色天天干天天 | 国产麻豆精品在线 | 调教一区二区 | 亚洲13p| 欧美精品人妻一区二区 | 美女隐私无遮挡免费 | 亚洲一二三 | 中文字幕黑丝 | 亚洲操图 | 免费黄色网址在线 | 在线理论视频 | 快播视频在线观看 | 91情侣在线| 黄色一级免费 | avtt一区| 外国电影免费观看高清完整版 | 国产一区二区麻豆 | 色播在线 | 日本不卡视频一区二区三区 | 一区二区三区国产精品视频 | 欧美激情三区 | 成人中文字幕在线观看 | 狠狠精品干练久久久无码中文字幕 | 亚洲乱码一区二区三区在线观看 | 日本人的性生活视频 | 日本亚洲一区 | 夜夜嗨av色一区二区不卡 | 亚洲无吗视频 | 欧美一卡二卡三卡四卡 | 国产黄 | 理想之城连续剧40集免费播放 | 亚洲av无码久久忘忧草 | 无码一区二区三区在线观看 | 亚洲欧美在线视频免费 | 欧美福利电影 | 佐山爱av在线 | 91蜜桃视频 | 香蕉视频在线观看www | 96视频在线 | 成人免费毛片日本片视频 | 久久精品9 | 女教师三上悠亚ssni-152 | 丰满人妻在公车被猛烈进入电影 | 在线观看不卡一区 | 2021狠狠干| 草逼导航 | 日本东京热一区二区三区 | 国产一区麻豆 | 无码人妻丰满熟妇精品区 | 欧美真人性野外做爰 | 涩涩av | 亚洲成人18 | 在线免费观看 | 污污网站在线观看视频 | 国产又粗又大又爽视频 | 亚洲人xxxx| 中文字幕一区二区人妻 | a级无毛片| 久草加勒比 | 六月色婷婷 | 91九色在线视频 | 九九热在线精品视频 | 一区二区视频免费 | 嫩草在线观看视频 | 午夜在线观看免费视频 | 国产精九九网站漫画 | av色图在线| 成人av专区 | 在线观看黄色的网站 | 日本jizzjizz | 国产综合影院 | 亚洲乱子伦 | 国产精品人妻一区二区三区 | 天堂网在线视频 | 国产高清视频一区二区 | 欧美视频一区在线观看 | 麻豆传媒在线视频 | 日本久久高清视频 | 色五婷婷 | 在线观看www视频 | 人人艹人人爱 | www.色日本 | 黄色男女网站 |