日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程语言 > python >内容正文

python

python redis pipeline使用方法_python使用pipeline批量读写redis的方法

發布時間:2023/12/2 python 21 豆豆
生活随笔 收集整理的這篇文章主要介紹了 python redis pipeline使用方法_python使用pipeline批量读写redis的方法 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

用了很久的redis了。隨著業務的要求越來越高。對redis的讀寫速度要求也越來越高。正好最近有個需求(需要在秒級取值1000+的數據),如果對于傳統的單詞取值,循環取值,消耗實在是大,有小伙伴可能考慮到多線程,但這并不是最好的解決方案,這里考慮到了redis特有的功能pipeline管道功能。

下面就更大家演示一下pipeline在python環境下的使用情況。

1、插入數據

>>> import redis

>>> conn = redis.Redis(host='192.168.8.176',port=6379)

>>> pipe = conn.pipeline()

>>> pipe.hset("hash_key","leizhu900516",8)

Pipeline>>

>>> pipe.hset("hash_key","chenhuachao",9)

Pipeline>>

>>> pipe.hset("hash_key","wanger",10)

Pipeline>>

>>> pipe.execute()

[1L, 1L, 1L]

>>>

2、批量讀取數據

>>> pipe.hget("hash_key","leizhu900516")

Pipeline>>

>>> pipe.hget("hash_key","chenhuachao")

Pipeline>>

>>> pipe.hget("hash_key","wanger")

Pipeline>>

>>> result = pipe.execute()

>>> print result

['8', '9', '10'] #有序的列表

>>>

總結:redis的pipeline就是這么簡單,實際生產環境,根據需要去編寫相應的代碼。思路同理,如:

redis_db = redis.Redis(host='127.0.0.1',port=6379)

data = ['zhangsan', 'lisi', 'wangwu']

with redis_db.pipeline(transaction=False) as pipe:

for i in data:

pipe.zscore(self.key, i)

result = pipe.execute()

print result

# [100, 80, 78]

線上的redis一般都是集群模式,集群模式下使用pipeline的時候,在創建pipeline的對象時,需要指定

pipe =conn.pipeline(transaction=False)

經過線上實測,利用pipeline取值3500條數據,大約需要900ms,如果配合線程or協程來使用,每秒返回1W數據是沒有問題的,基本能滿足大部分業務。

以上這篇python使用pipeline批量讀寫redis的方法就是小編分享給大家的全部內容了,希望能給大家一個參考,也希望大家多多支持腳本之家。

總結

以上是生活随笔為你收集整理的python redis pipeline使用方法_python使用pipeline批量读写redis的方法的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。