日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

TensorFlow 之快速上手详解

發(fā)布時(shí)間:2025/3/15 编程问答 28 豆豆
生活随笔 收集整理的這篇文章主要介紹了 TensorFlow 之快速上手详解 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

  • TensorFlow 基本使用簡述
    • 一、概念簡述
      • 1、學(xué)習(xí)目標(biāo)
      • 2、TensorFlow 概述
      • 3、計(jì)算圖
      • 4、構(gòu)建圖
      • 5、在一個(gè)會(huì)話中啟動(dòng)圖
    • 二、讀取數(shù)據(jù)相關(guān)
      • 2.1 交互式使用
      • 2.2 變量
      • 2.3 Fetch (取值)
      • 2.4 Feed (喂數(shù)據(jù))

TensorFlow 基本使用簡述

一、概念簡述

1、學(xué)習(xí)目標(biāo)

  • 使用圖 (graph) 來表示計(jì)算任務(wù).
  • 在被稱之為 會(huì)話 (Session) 的上下文 (context) 中執(zhí)行圖.
  • 使用 tensor 表示數(shù)據(jù).
  • 通過 變量 (Variable) 維護(hù)狀態(tài).
  • 使用 feed 和 fetch 可以為任意的操作(arbitrary operation) 賦值或者從其中獲取數(shù)據(jù).

2、TensorFlow 概述

  • TensorFlow 是一個(gè)編程系統(tǒng), 使用圖來表示計(jì)算任務(wù). 圖中的節(jié)點(diǎn)被稱之為 op (operation 的縮寫). 一個(gè) op 獲得 0 個(gè)或多個(gè) Tensor, 執(zhí)行計(jì)算, 產(chǎn)生 0 個(gè)或多個(gè) Tensor. 每個(gè) Tensor 是一個(gè)類型化的多維數(shù)組. 例如, 你可以將一小組圖像集表示為一個(gè)四維浮點(diǎn)數(shù)數(shù)組, 這四個(gè)維度分別是 [batch, height, width, channels] .

  • 一個(gè) TensorFlow 圖描述了計(jì)算的過程. 為了進(jìn)行計(jì)算, 圖必須在 會(huì)話 里被啟動(dòng). 會(huì)話 將圖的 op 分發(fā)到諸如 CPU 或 GPU 之類的 設(shè)備 上, 同時(shí)提供執(zhí)行 op 的方法. 這些方法執(zhí)行后, 將產(chǎn)生的 tensor 返回. 在 Python 語言中, 返回的 tensor 是 numpy ndarray 對(duì)象; 在 C 和 C++ 語言中, 返回的 tensor 是 tensorflow::Tensor 實(shí)例.

3、計(jì)算圖

  • TensorFlow 程序通常被組織成一個(gè)構(gòu)建階段和一個(gè)執(zhí)行階段. 在構(gòu)建階段, op 的執(zhí)行步驟 被描述成一個(gè)圖. 在執(zhí)行階段, 使用會(huì)話執(zhí)行執(zhí)行圖中的 op.

  • 例如, 通常在構(gòu)建階段創(chuàng)建一個(gè)圖來表示和訓(xùn)練神經(jīng)網(wǎng)絡(luò), 然后在執(zhí)行階段反復(fù)執(zhí)行圖中的訓(xùn)練 op.

  • TensorFlow 支持 C, C++, Python 編程語言. 目前, TensorFlow 的 Python 庫更加易用, 它提供了大量的輔助函數(shù)來簡化構(gòu)建圖的工作, 這些函數(shù)尚未被 C 和 C++ 庫支持.

  • 三種語言的會(huì)話庫 (session libraries) 是一致的.

4、構(gòu)建圖

  • 構(gòu)建圖的第一步, 是創(chuàng)建源 op (source op). 源 op 不需要任何輸入, 例如 常量 (Constant). 源 op 的輸出被傳遞給其它 op 做運(yùn)算.

  • Python 庫中, op 構(gòu)造器的返回值代表被構(gòu)造出的 op 的輸出, 這些返回值可以傳遞給其它 op 構(gòu)造器作為輸入.

  • TensorFlow Python 庫有一個(gè)默認(rèn)圖 (default graph), op 構(gòu)造器可以為其增加節(jié)點(diǎn). 這個(gè)默認(rèn)圖對(duì) 許多程序來說已經(jīng)足夠用了. 閱讀 Graph 類 文檔 來了解如何管理多個(gè)圖.


    例子如下 :
import tensorflow as tf # 創(chuàng)建一個(gè)常量 op, 產(chǎn)生一個(gè) 1x2 矩陣. 這個(gè) op 被作為一個(gè)節(jié)點(diǎn) # 加到默認(rèn)圖中 # # 構(gòu)造器的返回值代表該常量 op 的返回值. matrix1 = tf.constant([[3., 3.]])# 創(chuàng)建另外一個(gè)常量 op, 產(chǎn)生一個(gè) 2x1 矩陣. matrix2 = tf.constant([[2.],[2.]])# 創(chuàng)建一個(gè)矩陣乘法源 matmul op, 把 'matrix1' 和 'matrix2' 作為輸入. # 返回值 'product' 代表矩陣乘法的結(jié)果. product = tf.matmul(matrix1,matrix2)
  • 默認(rèn)圖現(xiàn)在有三個(gè)節(jié)點(diǎn), 兩個(gè) constant( ) op, 和一個(gè)matmul( ) op. 為了真正進(jìn)行矩陣相乘運(yùn)算, 并得到矩陣乘法的結(jié)果, 你必須在會(huì)話(Session)里啟動(dòng)(run)這個(gè)圖。

5、在一個(gè)會(huì)話中啟動(dòng)圖

  • 構(gòu)造階段完成后, 才能啟動(dòng)圖. 啟動(dòng)圖的第一步是創(chuàng)建一個(gè) Session 對(duì)象, 如果無任何創(chuàng)建參數(shù), 會(huì)話構(gòu)造器將啟動(dòng)默認(rèn)圖.

  • 欲了解完整的會(huì)話 API, 請(qǐng)閱讀TensorFlow 的 Session 類.
# 啟動(dòng)默認(rèn)圖 sess = tf.Session()# 調(diào)用 sess 的 'run()' 方法來執(zhí)行矩陣乘法 op, 傳入 'product' 作為該方法的參數(shù). # 上面提到, 'product' 代表了矩陣乘法 op 的輸出, 傳入它是向方法表明, 我們希望取回 # 矩陣乘法 op 的輸出. # # 整個(gè)執(zhí)行過程是自動(dòng)化的, 會(huì)話負(fù)責(zé)傳遞 op 所需的全部輸入. op 通常是并發(fā)執(zhí)行的. # # 函數(shù)調(diào)用 'run(product)' 觸發(fā)了圖中三個(gè) op (兩個(gè)常量 op 和一個(gè)矩陣乘法 op) 的執(zhí)行. # # 返回值 'result' 是一個(gè) numpy `ndarray` 對(duì)象. result = sess.run(product) print result # ==> [[12.]] # 任務(wù)完成,關(guān)閉會(huì)話,注意,若 會(huì)話是在 with 語句中啟動(dòng)的話,由于局部變量自動(dòng)銷毀,可省去這一步 sess.close() [[12.]]
  • Session 對(duì)象在使用完后需要關(guān)閉以釋放資源. 除了顯式調(diào)用 close 外, 也可以使用 “with” 代碼塊 來自動(dòng)完成關(guān)閉動(dòng)作.
with tf.Session() as sess:result = sess.run([product])print result [array([[12.]], dtype=float32)]
  • 在實(shí)現(xiàn)上, TensorFlow 將圖形定義轉(zhuǎn)換成分布式執(zhí)行的操作, 以充分利用可用的計(jì)算資源(如 CPU 或 GPU). 一般你不需要顯式指定使用 CPU 還是 GPU, TensorFlow 能自動(dòng)檢測(cè). 如果檢測(cè)到 GPU, TensorFlow 會(huì)盡可能地利用找到的第一個(gè) GPU 來執(zhí)行操作。

  • 如果機(jī)器上有超過一個(gè)可用的 GPU, 除第一個(gè)外的其它 GPU 默認(rèn)是不參與計(jì)算的. 為了讓 TensorFlow 使用這些 GPU, 你必須將 op 明確指派給它們執(zhí)行.

  • with…Device 語句用來指派特定的 CPU 或 GPU 執(zhí)行操作:
with tf.Session() as sess:with tf.device("/gpu:1"):matrix1 = tf.constant([[3., 3.]])matrix2 = tf.constant([[2.],[2.]])product = tf.matmul(matrix1, matrix2)...

設(shè)備用字符串進(jìn)行標(biāo)識(shí). 目前支持的設(shè)備包括:

  • “/cpu:0”: 機(jī)器的 CPU.
  • “/gpu:0”: 機(jī)器的第一個(gè) GPU, 如果有的話.
  • “/gpu:1”: 機(jī)器的第二個(gè) GPU, 以此類推.
  • 閱讀使用GPU章節(jié), 了解 TensorFlow GPU 使用的更多信息.

二、讀取數(shù)據(jù)相關(guān)

2.1 交互式使用

  • 文檔中的 Python 示例使用一個(gè)會(huì)話 Session 來 啟動(dòng)圖, 并調(diào)用 Session.run() 方法執(zhí)行操作.

  • 為了便于使用諸如 IPython 或者 Jupyter 之類的 Python 交互環(huán)境, 可以使用 InteractiveSession 代替 Session 類, 使用 Tensor.eval() 和 Operation.run() 方法代替 Session.run(). 這樣可以避免使用一個(gè)變量來持有會(huì)話.
# 進(jìn)入一個(gè)交互式 TensorFlow 會(huì)話 import tensorflow as tf sess = tf.InteractiveSession()x = tf.Variable([1.0 ,2.0]) a = tf.constant([3.0, 3.0])# 使用初始化器 initializer op 的 run() 方法初始化 ‘x' x.initializer.run()# 增加一個(gè)減法 sub op, 從 ‘x' 減去 ’a'. 運(yùn)行減法 op, 輸出結(jié)果 sub = tf.subtract(x,a) print sub.eval() # ==> [-2, -1.] [-2. -1.]

2.2 變量

  • Variables for more details. 變量維護(hù)圖執(zhí)行過程中的狀態(tài)信息. 下面的例子演示了如何使用變量實(shí)現(xiàn)一個(gè)簡單的計(jì)數(shù)器. 參見 TensorFlow變量 章節(jié)了解更多細(xì)節(jié).
# 創(chuàng)建一個(gè)變量,初始化為標(biāo)量 0. state = tf.Variable(0,name='counter')# 創(chuàng)建一個(gè) op, 其作用是使 state 增加 1one = tf.constant(1) new_value = tf.add(state, one) # 通過 tf.assign 函數(shù)將變量的 state 的值賦值為 new_value,并且返回一個(gè) op update = tf.assign(state, new_value)# 啟動(dòng)圖后,變量必須先經(jīng)過 ‘初始化’ (int) op 初始化 # 首先必須增加一個(gè) ’初始化‘ op 到圖中。 init_op = tf.global_variables_initializer()# 啟動(dòng)圖,運(yùn)行 op with tf.Session() as sess:# 運(yùn)行 ’init' op sess.run(init_op)# 打印 ‘state' 的初始值print sess.run(state)# 運(yùn)行 op, 更新 ‘state', 并刷新(重新) 打印 ’state' 的新值for _ in range(3):sess.run(update)print sess.run(state) # 輸出: # 雖然貌似一個(gè)簡單的需求,實(shí)現(xiàn)起來略繁瑣,但應(yīng)用到大數(shù)據(jù)量的需求時(shí),便很適用 0 1 2 3
  • 代碼中 assign() 操作是圖所描繪的表達(dá)式的一部分, 正如 add() 操作一樣. 所以在調(diào)用 run() 執(zhí)行表達(dá)式之前, 它并不會(huì)真正執(zhí)行賦值操作.

  • 通常會(huì)將一個(gè)統(tǒng)計(jì)模型中的參數(shù)表示為一組變量. 例如, 你可以將一個(gè)神經(jīng)網(wǎng)絡(luò)的權(quán)重作為某個(gè)變量存儲(chǔ)在一個(gè) tensor 中. 在訓(xùn)練過程中, 通過重復(fù)運(yùn)行訓(xùn)練圖, 更新這個(gè) tensor.

2.3 Fetch (取值)

  • 為了取回操作的輸出內(nèi)容, 可以在使用 Session 對(duì)象的 run() 調(diào)用 執(zhí)行圖時(shí), 傳入一些 tensor, 這些 tensor 會(huì)幫助你取回結(jié)果. 在之前的例子里, 我們只取回了單個(gè)節(jié)點(diǎn) state, 但是你也可以取回多個(gè) tensor:
input1 = tf.constant(3.0) input2 = tf.constant(2.0) input3 = tf.constant(5.0) itermad = tf.add(input2,input3) mul = tf.multiply(input1,itermad)with tf. Session() as sess:# 通過傳入 一個(gè) op 的 list【,,,】給 run 取得多個(gè) tensorresult = sess.run([mul,itermad])print result# 一般,我們需要獲取的多個(gè) tensor 值,在 op 的一次運(yùn)行中一起獲得# (而不是逐個(gè)去獲取 tensor)。# 輸出: [21.0, 7.0]

2.4 Feed (喂數(shù)據(jù))

  • 上述示例在計(jì)算圖中引入了 tensor, 以常量或變量的形式存儲(chǔ). TensorFlow 還提供了 feed 機(jī)制, 該機(jī)制 可以臨時(shí)替代圖中的任意操作中的 tensor 可以對(duì)圖中任何操作提交補(bǔ)丁, 直接插入一個(gè) tensor.

  • feed 使用一個(gè) tensor 值臨時(shí)替換一個(gè)操作的輸出結(jié)果. 你可以提供 feed 數(shù)據(jù)作為 run() 調(diào)用的參數(shù). feed 只在調(diào)用它的方法內(nèi)有效, 方法結(jié)束, feed 就會(huì)消失. 最常見的用例是將某些特殊的操作指定為 “feed” 操作, 標(biāo)記的方法是使用 tf.placeholder() 為這些操作創(chuàng)建占位符.
input1 = tf.placeholder(tf.float32) input2 = tf.placeholder(tf.float32) output = tf.multiply(input1,input2)with tf.Session() as sess:print sess.run([output],feed_dict={input1: [7.], input2: [2.]})# 輸出: # for a larger-scale example of feeds. # 如果沒有正確提供 feed, placeholder() 操作將會(huì)產(chǎn)生錯(cuò)誤. [array([14.], dtype=float32)]

總結(jié)

以上是生活随笔為你收集整理的TensorFlow 之快速上手详解的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。