日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 综合教程 >内容正文

综合教程

python爬虫入门实战之爬取网页图片(Python爬虫新手入门教学)

發布時間:2023/12/15 综合教程 17 生活家
生活随笔 收集整理的這篇文章主要介紹了 python爬虫入门实战之爬取网页图片(Python爬虫新手入门教学) 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

本篇文章給大家帶來了關于Python的相關知識,其中主要整理了爬取網頁圖片的相關問題,要想高效的獲取數據,爬蟲是非常好用的,而用python做爬蟲也十分簡單方便,下面通過一個簡單的小爬蟲程序來看一看寫爬蟲的基本過程,下面一起來看一下,希望對大家有幫助。

【相關推薦:Python3視頻教程 】

在現在這個信息爆炸的時代,要想高效的獲取數據,爬蟲是非常好用的。而用python做爬蟲也十分簡單方便,下面通過一個簡單的小爬蟲程序來看一看寫爬蟲的基本過程:

準備工作

語言:python

IDE:pycharm

首先是要用到的庫,因為是剛入門最簡單的程序,我們主要就用到下面這兩:

import requests //用于請求網頁
import re  //正則表達式,用于解析篩選網頁中的信息

登錄后復制

其中re是python自帶的,requests庫需要我們自己安裝,在命令行中輸入pip install requests即可。

然后隨便找一個網站,注意不要嘗試爬取隱私敏感信息,這里找了個表情包網站:

注:此處表情包網站中的內容本來就可以免費下載,所以爬蟲只是簡化了我們一個個點的流程,注意不能去爬取付費資源。

我們要做的就是通過爬蟲把這些表情包下載到我們電腦里。

編寫爬蟲程序

首先肯定要通過python訪問這個網站,代碼如下:

headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:98.0) Gecko/20100101 Firefox/98.0'
    }
response = requests.get('https://qq.yh31.com/zjbq/',headers=headers)  //請求網頁

登錄后復制

其中之所以要加headers這一段是因為有些網頁會識別到你是通過python請求的然后把你拒絕,所以我們要換個正常的請求頭。可以隨便找一個或者f12從網絡信息里復制一個。

然后我們要找到我們要爬取的圖片在網頁代碼里的位置,f12查看源代碼,找到表情包如下:

然后建立匹配規則,用正則表達式把中間那串替換掉,最簡單的就是.*?

t = '<img src="(.*?)" alt="(.*?)" width="160" height="120">'

登錄后復制

像這樣。

然后就可以調用re庫里的findall方法把相關內容爬下來了:

result = re.findall(t, response.text)

登錄后復制

返回的內容是由字符串組成的列表,最后我們經由爬到的地址通過python語句把圖片下下來保存到文件夾里就行了。

程序代碼

import requests
import re
import os

image = '表情包'
if not os.path.exists(image):
    os.mkdir(image)
headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:98.0) Gecko/20100101 Firefox/98.0'
    }
response = requests.get('https://qq.yh31.com/zjbq/',headers=headers)
response.encoding = 'GBK'
response.encoding = 'utf-8'
print(response.request.headers)
print(response.status_code)
t = '<img src="(.*?)" alt="(.*?)" width="160" height="120">'
result = re.findall(t, response.text)
for img in result:
    print(img)
    res = requests.get(img[0])
    print(res.status_code)
    s = img[0].split('.')[-1]  #截取圖片后綴,得到表情包格式,如jpg ,gif
    with open(image + '/' + img[1] + '.' + s, mode='wb') as file:
        file.write(res.content)

登錄后復制

最后結果就是這個樣子:

【相關推薦:Python3視頻教程 】

以上就是python爬蟲入門實戰之爬取網頁圖片的詳細內容,更多請關注風君子博客其它相關文章!

總結

以上是生活随笔為你收集整理的python爬虫入门实战之爬取网页图片(Python爬虫新手入门教学)的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。