日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程语言 > python >内容正文

python

python生成器generator:深度学习读取batch图片

發(fā)布時間:2023/12/20 python 35 豆豆
生活随笔 收集整理的這篇文章主要介紹了 python生成器generator:深度学习读取batch图片 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

在深度學(xué)習(xí)中訓(xùn)練模型的過程中讀取圖片數(shù)據(jù),如果將圖片數(shù)據(jù)全部讀入內(nèi)存是不現(xiàn)實(shí)的,所以有必要使用生成器來讀取數(shù)據(jù)。

通過列表生成式,我們可以直接創(chuàng)建一個列表。但是,受到內(nèi)存限制,列表容量肯定是有限的。而且,創(chuàng)建一個包含100萬個元素的列表,不僅占用很大的存儲空間,如果我們僅僅需要訪問前面幾個元素,那后面絕大多數(shù)元素占用的空間都白白浪費(fèi)了。

所以,如果列表元素可以按照某種算法推算出來,那我們是否可以在循環(huán)的過程中不斷推算出后續(xù)的元素呢?這樣就不必創(chuàng)建完整的list,從而節(jié)省大量的空間。在Python中,這種一邊循環(huán)一邊計(jì)算的機(jī)制,稱為生成器:generator。

創(chuàng)建generator有多種方法,第一種方法很簡單,只要把一個列表生成式的[]改成(),就創(chuàng)建了一個generator:

>>> L = [x * x for x in range(10)] >>> L [0, 1, 4, 9, 16, 25, 36, 49, 64, 81] >>> g = (x * x for x in range(10)) >>> g <generator object <genexpr> at 0x1022ef630>

list中的元素可以直接打印出來?,generator要一個一個打印出來,可以通過next()函數(shù)獲得generator的下一個返回值:?

>>> next(g) 0 >>> next(g) 1 >>> next(g) 4 >>> next(g) 9 >>> next(g) 16

generator保存的是算法,每次調(diào)用next(g),就計(jì)算出g的下一個元素的值,直到計(jì)算到最后一個元素,沒有更多的元素時,拋出StopIteration的錯誤。上面這種不斷調(diào)用next(g)實(shí)在是太變態(tài)了,正確的方法是使用for循環(huán),因?yàn)間enerator也是可迭代對象:

>>> g = (x * x for x in range(10)) >>> for n in g: ... print(n)

著名的斐波拉契數(shù)列(Fibonacci),除第一個和第二個數(shù)外,任意一個數(shù)都可由前兩個數(shù)相加得到:

1, 1, 2, 3, 5, 8, 13, 21, 34, ...?

斐波拉契數(shù)列用列表生成式寫不出來,但是,用函數(shù)把它打印出來卻很容易:?

def fib(max):n, a, b = 0, 0, 1while n < max:print(b)a, b = b, a + bn = n + 1return 'done'

?仔細(xì)觀察,可以看出,fib函數(shù)實(shí)際上是定義了斐波拉契數(shù)列的推算規(guī)則,可以從第一個元素開始,推算出后續(xù)任意的元素,這種邏輯其實(shí)非常類似generator。

也就是說,上面的函數(shù)和generator僅一步之遙。要把fib函數(shù)變成generator,只需要把print(b)改為yield b就可以了:

def fib(max):n, a, b = 0, 0, 1while n < max:yield ba, b = b, a + bn = n + 1return 'done'

這就是定義generator的另一種方法。如果一個函數(shù)定義中包含yield關(guān)鍵字,那么這個函數(shù)就不再是一個普通函數(shù),而是一個generator:

>>> f = fib(6) >>> f <generator object fib at 0x104feaaa0>

?這里,最難理解的就是generator和函數(shù)的執(zhí)行流程不一樣。函數(shù)是順序執(zhí)行,遇到return語句或者最后一行函數(shù)語句就返回。而變成generator的函數(shù),在每次調(diào)用next()的時候執(zhí)行,遇到y(tǒng)ield語句返回,再次執(zhí)行時從上次返回的yield語句處繼續(xù)執(zhí)行。

在循環(huán)過程中不斷調(diào)用yield,就會不斷中斷。當(dāng)然要給循環(huán)設(shè)置一個條件來退出循環(huán),不然就會產(chǎn)生一個無限數(shù)列出來。

同樣的,把函數(shù)改成generator后,我們基本上從來不會用next()來獲取下一個返回值,而是直接使用for循環(huán)來迭代:

>>> for n in fib(6): ... print(n) ... 1 1 2 3 5 8

?最后在讀取圖片的實(shí)際應(yīng)用中的代碼如下:

def train_data(train_file,batch_size,resize_shape):datas, labels = read_data(train_file)num_batch = len(datas)//batch_sizefor i in range(num_batch):imgs = []train_datas = datas[batch_size*i:batch_size*(i+1)]train_lables = labels[batch_size*i:batch_size*(i+1)]for img_path in train_datas:img = cv2.imread(img_path)img = cv2.resize(img,resize_shape)img = img/255 #歸一化處理imgs.append(img)yield np.array(imgs),np.array(train_lables)

?

?參考:

廖雪峰 python編程

總結(jié)

以上是生活随笔為你收集整理的python生成器generator:深度学习读取batch图片的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。