python爬虫之urllib库详解
python爬蟲之urllib庫詳解
- 前言
- 一、urllib庫是什么?
- 二、urllib庫的使用
- urllib.request模塊
- urllib.parse模塊
- 利用try-except,進行超時處理
- status狀態碼 && getheaders()
- 突破反爬
前言
想要進行python爬蟲首先我們需要先將網頁上面的信息給獲取下來,這就是utllib庫的作用
一、urllib庫是什么?
urllib庫用于操作網頁 URL,并對網頁的內容進行抓取處理- urllib 包 包含以下幾個模塊:
- urllib.request - 打開和讀取 URL。
- urllib.error - 包含 urllib.request 拋出的異常。
- urllib.parse - 解析 URL。
- urllib.robotparser - 解析 robots.txt 文件
- python爬蟲主要用到的urllib庫中的request和parse模塊
二、urllib庫的使用
下面我們來詳細說明一下這兩個常用模塊的基本運用
urllib.request模塊
urllib.request 定義了一些打開 URL 的函數和類,包含授權驗證、重定向、瀏覽器 cookies等。
語法如下:
- urllib.request.urlopen(url, data=None, [timeout, ]*, cafile=None, capath=None, cadefault=False, context=None)
- url:url 地址。
- data:發送到服務器的其他數據對象,默認為 None。
- timeout:設置訪問超時時間。
- cafile 和 capath:cafile 為 CA 證書, capath 為 CA 證書的路徑,使用 HTTPS 需要用到。
- cadefault:已經被棄用。
- context:ssl.SSLContext類型,用來指定 SSL 設置。
將其打印的內容寫到一個html文件中,打開和百度一毛一樣
# -*- codeing = utf-8 -*- # @Author: Y-peak # @Time : 2021/9/2 19:24 # @FileName : testUrllib.py # Software : PyCharmimport urllib.request response = urllib.request.urlopen("http://www.baidu.com") #返回的是存儲網頁數據的對象 data = response.read().decode('utf-8') #通過read將數據讀取出來, 使用utf-8解碼防止有的地方出現亂碼 #print(data) with open("index.html",'w',encoding='utf-8') as wfile: #或者你們也可以常規打開,不過需要最后關閉記得close()wfile.write(data)print("讀取結束")urllib.parse模塊
有時我們爬蟲需要模擬瀏覽器進行用戶登錄等操作,這個時候我們就需要進行post請求
但是post必須有一個獲取請求之后的響應,也就是我們需要有一個服務器。給大家介紹一個免費的服務器網址,就是用來測試用的http://httpbin.org/。主要用來測試http和https的
我們可以嘗試執行一下,去獲取對應的響應。
可以用Linux命令去發起請求,URL地址為http://httpbin.org/post。得到下方的響應。
我們也可以通過爬蟲來實現
兩個響應結果對比是不是一樣幾乎
相當于進行了一次模擬的post請求。這樣有些需要登錄的網站也是可以爬取的。
利用try-except,進行超時處理
一般進行爬蟲時,不可能一直等待響應。有時網絡不好或者網頁有反爬或者一些其他東西時。無法快速爬出。我們就可以進入下一個網頁繼續去爬。利用timeout屬性就好
# -*- codeing = utf-8 -*- # @Author: Y-peak # @Time : 2021/9/2 19:24 # @FileName : testUrllib.py # Software : PyCharmimport urllib.request try:response = urllib.request.urlopen("http://httpbin.org/get",timeout=0.01) #返回的是存儲網頁數據的對象, 直接用這個網址的get請求了.timeout表示超時,超過0.01秒不響應就報錯,避免持續等待print(response.read().decode('utf-8')) #通過read將數據讀取出來, 使用utf-8解碼防止有的地方出現亂碼 except urllib.error.URLError as e:print("超時了\t\t錯誤為:",e)status狀態碼 && getheaders()
- status:
- 返回200,正確響應可以爬取
- 報錯404,沒有找到網頁
- 報錯418,老子知道你就是爬蟲
- getheaders():獲取Response Headers
- 也可以通過gethead(“xx”) 獲取xx對應的值,比如:上圖 gethead(content-encoding) 為 gzip
突破反爬
首先打開任何一個網頁按F12找到Response Headers,拉到最下面找到 User-Agent。將其復制保存下來,為反爬做準備。
下面我們進行嘗試,直接爬取豆瓣,直接來個418,知道你是爬蟲,我們來偽裝一下
為什么418呢,因為如果是直接進行請求訪問的話,發過去的User-Agent 是下面的,直接告訴瀏覽器我們是爬蟲。我們需要偽裝
當然反爬不可能如此簡單,上面將講的那個 post請求,也是十分常見的突破反爬的方式,不行就將整個Response Headers全部模仿。下面還有個例子作為參考。和上面的post訪問的網址一樣
- 瀏覽器訪問結果
- 爬蟲訪問結果
總結
以上是生活随笔為你收集整理的python爬虫之urllib库详解的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 十大排序算法之快速排序(两种方法)
- 下一篇: python排序之sort和sorted