日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程语言 > python >内容正文

python

python多进程断点续传分片下载器

發布時間:2025/7/25 python 36 豆豆
生活随笔 收集整理的這篇文章主要介紹了 python多进程断点续传分片下载器 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

python多進程斷點續傳分片下載器

標簽:python 下載器 多進程


因為爬蟲要用到下載器,但是直接用urllib下載很慢,所以找了很久終于找到一個讓我欣喜的下載器。他能夠斷點續傳分片下載,極大提高下載速度。

#! /usr/bin/env python # encoding=utf-8from __future__ import unicode_literalsfrom multiprocessing.dummy import Pool as ThreadPool import threadingimport os import sys import cPickle from collections import namedtuple import urllib2 from urlparse import urlsplitimport time# global lock lock = threading.Lock()# default parameters defaults = dict(thread_count=10,buffer_size=500 * 1024,block_size=1000 * 1024)def progress(percent, width=50):print "%s %d%%\r" % (('%%-%ds' % width) % (width * percent / 100 * '='), percent),if percent >= 100:printsys.stdout.flush()def write_data(filepath, data):with open(filepath, 'wb') as output:cPickle.dump(data, output)def read_data(filepath):with open(filepath, 'rb') as output:return cPickle.load(output)FileInfo = namedtuple('FileInfo', 'url name size lastmodified')def get_file_info(url):class HeadRequest(urllib2.Request):def get_method(self):return "HEAD"res = urllib2.urlopen(HeadRequest(url))res.read()headers = dict(res.headers)size = int(headers.get('content-length', 0))lastmodified = headers.get('last-modified', '')name = Noneif headers.has_key('content-disposition'):name = headers['content-disposition'].split('filename=')[1]if name[0] == '"' or name[0] == "'":name = name[1:-1]else:name = os.path.basename(urlsplit(url)[2])return FileInfo(url, name, size, lastmodified)def download(url, output,thread_count=defaults['thread_count'],buffer_size=defaults['buffer_size'],block_size=defaults['block_size']):# get latest file infofile_info = get_file_info(url)# init pathif output is None:output = file_info.nameworkpath = '%s.ing' % outputinfopath = '%s.inf' % output# split file to blocks. every block is a array [start, offset, end],# then each greenlet download filepart according to a block, and# update the block' offset.blocks = []if os.path.exists(infopath):# load blocks_x, blocks = read_data(infopath)if (_x.url != url or_x.name != file_info.name or_x.lastmodified != file_info.lastmodified):blocks = []if len(blocks) == 0:# set blocksif block_size > file_info.size:blocks = [[0, 0, file_info.size]]else:block_count, remain = divmod(file_info.size, block_size)blocks = [[i * block_size, i * block_size,(i + 1) * block_size - 1] for i in range(block_count)]blocks[-1][-1] += remain# create new blank workpathwith open(workpath, 'wb') as fobj:fobj.write('')print 'Downloading %s' % url# start monitorthreading.Thread(target=_monitor, args=(infopath, file_info, blocks)).start()# start downloadingwith open(workpath, 'rb+') as fobj:args = [(url, blocks[i], fobj, buffer_size)for i in range(len(blocks)) if blocks[i][1] < blocks[i][2]]if thread_count > len(args):thread_count = len(args)pool = ThreadPool(thread_count)pool.map(_worker, args)pool.close()pool.join()# rename workpath to outputif os.path.exists(output):os.remove(output)os.rename(workpath, output)# delete infopathif os.path.exists(infopath):os.remove(infopath)assert all([block[1] >= block[2] for block in blocks]) is Truedef _worker((url, block, fobj, buffer_size)):req = urllib2.Request(url)req.headers['Range'] = 'bytes=%s-%s' % (block[1], block[2])res = urllib2.urlopen(req)while 1:chunk = res.read(buffer_size)if not chunk:breakwith lock:fobj.seek(block[1])fobj.write(chunk)block[1] += len(chunk)def _monitor(infopath, file_info, blocks):while 1:with lock:percent = sum([block[1] - block[0]for block in blocks]) * 100 / file_info.sizeprogress(percent)if percent >= 100:breakwrite_data(infopath, (file_info, blocks))time.sleep(2)if __name__ == '__main__':import argparseparser = argparse.ArgumentParser(description='多線程文件下載器.')parser.add_argument('url', type=str, help='下載連接')parser.add_argument('-o', type=str, default=None,dest="output", help='輸出文件')parser.add_argument('-t', type=int, default=defaults['thread_count'], dest="thread_count", help='下載的線程數量')parser.add_argument('-b', type=int, default=defaults['buffer_size'], dest="buffer_size", help='緩存大小')parser.add_argument('-s', type=int, default=defaults['block_size'], dest="block_size", help='字區大小')argv = sys.argv[1:]if len(argv) == 0:argv = ['https://eyes.nasa.gov/eyesproduct/EYES/os/win']args = parser.parse_args(argv)start_time = time.time()download(args.url, args.output, args.thread_count,args.buffer_size, args.block_size)print '下載時間: %ds' % int(time.time() - start_time)

轉載于:https://www.cnblogs.com/bergus/p/4903715.html

總結

以上是生活随笔為你收集整理的python多进程断点续传分片下载器的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

主站蜘蛛池模板: jizz另类| 亚洲一区www| 亚洲激情三区 | 国产性猛交普通话对白 | 天天天操| 老司机午夜免费精品视频 | 福利91| 亚洲欧洲色图 | 男人天堂欧美 | 黑人精品一区二区 | 国产1区二区 | 日韩一区二区三区电影 | 综合激情伊人 | 91在线看 | 古装做爰无遮挡三级 | 国产欧美精品一区 | 日韩va亚洲va欧美va久久 | 成人在线国产 | 精品国产成人亚洲午夜福利 | 国产精品麻豆一区二区 | 美女被草网站 | 夜夜嗨av一区二区三区 | 欧美久久久久久久久久久久 | 天堂俺去俺来也www 欧美大片在线播放 | 93久久精品日日躁夜夜躁欧美 | 自拍偷拍第3页 | 色丁香六月 | 国产精品久久久91 | 五月天色婷婷综合 | 完美搭档在线观看 | 亚洲第一中文字幕 | 亚洲激情偷拍 | 麻豆国产一区二区三区四区 | 久久人妖 | 河北彩花av在线播放 | 日日干夜夜拍 | 男人天堂aaa | 国产精品久久久久久久免费大片 | 四虎综合 | 久久久久久久久久一区 | 色人阁五月 | 中文字幕在线观看精品 | 日韩免费高清 | 一区二区高潮 | 久草热视频| 久久无码人妻精品一区二区三区 | 男女调教视频 | 羞视频在线观看 | 激情文学久久 | 亚洲久久影院 | 精品动漫一区 | 五月综合久久 | 男女羞羞的视频 | 国产福利小视频在线 | 日本亲子乱子伦xxxx50路 | 这里只有精品6 | 午夜看片 | 精品国产人妻一区二区三区 | 中国av一区二区 | 亚洲成年人免费观看 | 女女高潮h冰块play失禁百合 | 大乳女喂男人吃奶 | 在线观看免费的av | 香港三日本三级少妇66 | 男人av的天堂 | 一本大道久久a久久综合婷婷 | 亚洲精品污一区二区三区 | 欧美在线a| 亚洲视频中文字幕在线观看 | 国产亚洲精品久久久久动 | 亚洲精品国产精品乱码不卡 | 国产91久久婷婷一区二区 | 丁香婷婷综合网 | 久久人人爽人人爽人人片av高清 | 在线看片亚洲 | 久久久亚洲 | 麻豆高清视频 | 操操操影院| 精品孕妇一区二区三区 | 国产无套精品一区二区三区 | 欧美日韩免费观看一区=区三区 | 老熟妇午夜毛片一区二区三区 | 99r热| 亚洲黄业 | 亚洲激情视频一区 | 亚洲特级片 | 日本亚洲视频 | 先锋影音av资源网站 | 龚玥菲三级露全乳视频 | av片手机在线观看 | 日韩av一区二区三区在线观看 | 男人天堂2024 | 亚洲无吗在线观看 | 少妇野外性xx老女人野外性xx | 欧美999| 丝袜调教91porn | 国产牛牛 | 国产激情免费 | 欧美亚洲视频 |