日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程语言 > python >内容正文

python

用python爬虫爬取无水印图片_使用python 爬虫,爬取图片

發布時間:2025/3/15 python 32 豆豆
生活随笔 收集整理的這篇文章主要介紹了 用python爬虫爬取无水印图片_使用python 爬虫,爬取图片 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

一、需求:

用python實現去內涵段子里面下載網頁當中的圖片到本地當中

二、實現:

1、獲取要爬取的URL地址

2、設置headers

3、請求網頁內容,把html內容轉換成XML

4、解析地址內容,進行圖片下載

三、開始操作:以下圖為例子

1、獲取要爬取的URL地址:

url="http://www.neihan8.com/gaoxiaomanhua/index_2.html"

2、設置headers:

headers={"User-Agent":"Mozilla/5.0 (Windows NT 6.1; WOW64; Trident/7.0; rv:11.0) like Gecko"}

3、請求網頁內容,把html內容轉換成XML

request = urllib2.Request(url,headers=headers)

response = urllib2.urlopen(request).read()

xml = etree.HTML(response)#這個etree是需要在前面導入包的 : from lxml import etree

4、解析地址內容,進行圖片下載,我們通過上面的圖片進行獲取到具體的xpath圖片地址.

linklist = content.xpath('/html/body/div[@class="main wrap"]//div[@class="left"]/div[@class="pic-column-list mt10"]/div/a/img/@src')

ps:這個linklist里面存放的是所有這個xpath里面的內容,所以如果需要下載的話需要依次提取

for link in linklist:

image_request = urllib2.Request(link)

response = urllib2.urlopen(image_request).read()

filename = link[10:0]

with open(fileName,"wb") as f:

f.write(response)

上面是分別解釋了一下流程,都是手寫的代碼,第一次寫文章比較粗糙大家見諒了。下面是整個代碼的內容

import urllib2

from lxmlimport etree

class Spider:

pass

def __init__(self):

self.pageNum =2

self.switch =True

def loadImage(self):

url ="http://www.neihan8.com/gaoxiaomanhua/index_"+str(self.pageNum)+".html"

headers = {"User-Agent":"Mozilla/5.0 (Windows NT 6.1; WOW64; Trident/7.0; rv:11.0) like Gecko"}

request = urllib2.Request(url,headers=headers)

response= urllib2.urlopen(request).read()

content = etree.HTML(response)

linklist = content.xpath('/html/body/div[@class="main wrap"]//div[@class="left"]/div[@class="pic-column-list mt10"]/div/a/img/@src')

for image_linkin linklist:

print "downLoading..."

self.writeImage(image_link)

def writeImage(self,link_address):

headers = {"User-Agent":"Mozilla/5.0 (Windows NT 6.1; WOW64; Trident/7.0; rv:11.0) like Gecko"}

download_request? =urllib2.Request(link_address)

response = urllib2.urlopen(download_request).read()

fileName = link_address[-10:]

with open(fileName,"wb")as f:

f.write(response)

print "downLoad---FINISH"

if __name__ =="__main__":

spider = Spider()

spider.loadImage()

總結

以上是生活随笔為你收集整理的用python爬虫爬取无水印图片_使用python 爬虫,爬取图片的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

主站蜘蛛池模板: 国产精品久久久久久久午夜 | 黄色小电影网址 | 欧美第一页 | 美女自拍视频 | 日韩成人av网址 | 天天夜夜骑 | 欧美成人三级在线 | 亚洲一区二区三区在线视频观看 | 亚洲第一页夜 | 久草香蕉视频 | 国产精品久久久久精 | 亚洲av永久无码国产精品久久 | 激情欧美一区二区三区精品 | 欧美国产在线一区 | 波多野结衣先锋影音 | 国产激情视频一区二区 | 国产精品111 | 天堂素人 | 中文亚洲av片不卡在线观看 | 少妇被躁爽到高潮无码文 | 欧美日韩高清一区二区三区 | 人人看人人草 | 国产精品久久久久aaaa | 日韩乱码人妻无码中文字幕 | 国产日韩欧美精品在线 | 欧美成人免费在线 | 四虎影视库| 国产亚洲精品久久久久丝瓜 | 日韩免费av网站 | av日韩一区二区三区 | 天堂国产一区二区三区 | 亚洲欧洲精品一区二区 | 国产又粗又猛又爽又黄的视频一 | 中文字幕av高清片 | 久草电影网站 | 五月婷婷爱 | 国产成人影视 | 最新中文字幕av专区 | 中文字幕av在线免费观看 | 亚洲色图 在线视频 | 国产免费久久精品国产传媒 | 少妇高潮久久久 | 色婷婷国产 | 国产乱轮视频 | 色噜噜色综合 | 国产精品成人aaaa在线 | 成人av手机在线 | 日韩电影精品 | 久久久视 | 亚洲精品乱码久久久久 | 四虎影音先锋 | 99久久99九九99九九九 | 女女同性女同一区二区三区九色 | 日韩毛片一区二区三区 | 亚洲国产aⅴ精品一区二区的游戏 | 国产成人av一区二区三区不卡 | 色四虎 | 5级黄色片 | 理论视频在线观看 | 91亚洲免费| 美女被c出水 | 福利视频免费看 | 免费国产网站 | av十大美巨乳 | 男人疯狂高潮呻吟视频 | 亚洲大片 | 国产精品99久 | 欧美日韩国产中文 | 欧美久草 | 天海翼av在线播放 | 日本一区二区三区久久 | 天天做夜夜做 | 综合狠狠 | 亚洲男人天堂av | aaaa黄色 | 17c在线观看 | 搞中出| 色干网| 青青草97 | 中文字幕在线免费看 | 美女扣逼喷水视频 | 欧洲做受高潮免费看 | 超碰69| 成人综合激情 | 国产精品无码一区二区桃花视频 | 欧洲亚洲一区二区三区 | 在线播放精品视频 | 亚洲视频在线观看一区二区三区 | 国产精品毛片久久久久久 | 亚洲 激情 | 一道本在线播放 | 天堂中文网在线 | 一区二区三区视频在线观看免费 | 神马久久久久久久久久 | 日韩一级免费看 | 在线观看日韩一区二区 | 性欧美一区 | 日本精品一区二区三区视频 | 日韩电影一区二区三区四区 |