日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程语言 > python >内容正文

python

Python爬虫利器一Requests库的用法

發布時間:2023/12/9 python 25 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Python爬虫利器一Requests库的用法 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

之前我們用了 urllib 庫,這個作為入門的工具還是不錯的,對了解一些爬蟲的基本理念,掌握爬蟲爬取的流程有所幫助。入門之后,我們就需要學習一些更加高級的內容和工具來方便我們的爬取。那么這一節來簡單介紹一下 requests 庫的基本用法
官方文檔
中文文檔

引入

引入一個小例子來感受一下

import requestsr = requests.get('http://www.baidu.com') print type(r) # 返回結果類型 print r.status_code # 狀態碼 print r.encoding # 編碼方式 print r.cookies # cookies print r.text # html文本 <class 'requests.models.Response'> 200 ISO-8859-1 <RequestsCookieJar[<Cookie BDORZ=27315 for .baidu.com/>]> <!DOCTYPE html> ...

以上代碼我們請求了本站點的網址,然后打印出了返回結果的類型,狀態碼,編碼方式,Cookies ,網頁html等內容

基本請求

requests 庫提供了 http 所有的基本請求方式。例如

r = requests.post("http://httpbin.org/post") r = requests.put("http://httpbin.org/put") r = requests.delete("http://httpbin.org/delete") r = requests.head("http://httpbin.org/get") r = requests.options("http://httpbin.org/get")

基本GET請求

最基本的 GET 請求可以直接用 get 方法

r = requests.get("http://httpbin.org/get")

如果想要加參數,可以利用 params 參數

import requestspayload = {'key1': 'value1', 'key2': 'value2'} r = requests.get("http://httpbin.org/get", params=payload) print r.url http://httpbin.org/get?key2=value2&key1=value1

如果想請求 JSON 文件,可以利用 json () 方法解析 例如自己寫一個 JSON 文件命名為 a.json,內容如下

a.json文件["foo", "bar", {"foo": "bar" }]

利用如下程序請求并解析

import requestsr = requests.get("a.json") print r.text print r.json()

運行結果如下,其中一個是直接輸出內容,另外一個方法是利用 json () 方法解析,感受下它們的不同

["foo", "bar", {"foo": "bar"}][u'foo', u'bar', {u'foo': u'bar'}]

如果想獲取來自服務器的原始套接字響應,可以取得 r.raw 。 不過需要在初始請求中設置 stream=True 。

r = requests.get('https://github.com/timeline.json', stream=True) r.raw r.raw.read(10) <requests.packages.urllib3.response.HTTPResponse object at 0x101194810> '\x1f\x8b\x08\x00\x00\x00\x00\x00\x00\x03'

這樣就獲取了網頁原始套接字內容。 如果想添加 headers,可以傳 headers 參數

import requestspayload = {'key1': 'value1', 'key2': 'value2'} headers = {'content-type': 'application/json'} r = requests.get("http://httpbin.org/get", params=payload, headers=headers) print r.url print r.headers http://httpbin.org/get?key2=value2&key1=value1 {'Content-Length': '418', 'Server': 'gunicorn/19.9.0', 'Connection': 'keep-alive', 'Access-Control-Allow-Credentials': 'true', 'Date': 'Sat, 02 Jan 2021 09:17:07 GMT', 'Access-Control-Allow-Origin': '*', 'Content-Type': 'application/json'}

基本 POST 請求

對于 POST 請求來說,我們一般需要為它增加一些參數。那么最基本的傳參方法可以利用 data 這個參數。

import requestspayload = {'key1': 'value1', 'key2': 'value2'} r = requests.post("http://httpbin.org/post", data=payload) print r.text {"args": {}, "data": "", "files": {}, "form": {"key1": "value1", "key2": "value2"}, "headers": {"Accept": "*/*", "Accept-Encoding": "gzip, deflate", "Content-Length": "23", "Content-Type": "application/x-www-form-urlencoded", "Host": "httpbin.org", "User-Agent": "python-requests/2.9.1"}, "json": null, "url": "http://httpbin.org/post" }

可以看到參數傳成功了,然后服務器返回了我們傳的數據。 有時候我們需要傳送的信息不是表單形式的,需要我們傳 JSON 格式的數據過去,所以我們可以用 json.dumps () 方法把表單數據序列化。

import json import requestsurl = 'http://httpbin.org/post' payload = {'some': 'data'} r = requests.post(url, data=json.dumps(payload)) print r.text {"args": {}, "data": "{\"some\": \"data\"}", "files": {}, "form": {}, "headers": {"Accept": "*/*", "Accept-Encoding": "gzip, deflate", "Content-Length": "16", "Host": "httpbin.org", "User-Agent": "python-requests/2.9.1"}, "json": {"some": "data"}, "url": "http://httpbin.org/post" }

通過上述方法,我們可以 POST JSON 格式的數據 如果想要上傳文件,那么直接用 file 參數即可 。
新建一個 a.txt 的文件,內容寫上 Hello World!

import requestsurl = 'http://httpbin.org/post' files = {'file': open('test.txt', 'rb')} r = requests.post(url, files=files) print r.text

運行結果

{"args": {}, "data": "", "files": {"file": "Hello World!"}, "form": {}, "headers": {"Accept": "*/*", "Accept-Encoding": "gzip, deflate", "Content-Length": "156", "Content-Type": "multipart/form-data; boundary=7d8eb5ff99a04c11bb3e862ce78d7000", "Host": "httpbin.org", "User-Agent": "python-requests/2.9.1"}, "json": null, "url": "http://httpbin.org/post" }

這樣我們便成功完成了一個文件的上傳。 requests 是支持流式上傳的,這允許你發送大的數據流或文件而無需先把它們讀入內存。要使用流式上傳,僅需為你的請求體提供一個類文件對象即可。

with open('massive-body') as f:requests.post('http://some.url/streamed', data=f)

Cookies

如果一個響應中包含了 cookie,那么我們可以利用 cookies 變量來拿到

import requestsurl = 'http://example.com' r = requests.get(url) print r.cookies print r.cookies['example_cookie_name'] import requestsurl = 'http://www.baidu.com' r = requests.get(url) print(r) print(r.cookies) print(repr(r.cookies)) for cookie in r.cookies:print(cookie.name,':',cookie.value) 結果: <Response [200]> <RequestsCookieJar[<Cookie BDORZ=27315 for .baidu.com/>]> <RequestsCookieJar[Cookie(version=0, name='BDORZ', value='27315', port=None, port_specified=False, domain='.baidu.com', domain_specified=True, domain_initial_dot=True, path='/', path_specified=True, secure=False, expires=1609667934, discard=False, comment=None, comment_url=None, rest={}, rfc2109=False)]> ('BDORZ', ':', '27315')

以上程序僅是樣例,可以用 cookies 變量來得到站點的 cookies 另外可以利用 cookies 變量來向服務器發送 cookies 信息

import requestsurl = 'http://httpbin.org/cookies' cookies = dict(cookies_are='working') r = requests.get(url, cookies=cookies) print r.text

結果

'{"cookies": {"cookies_are": "working"}}'

超時配置

可以利用 timeout 變量來配置最大請求時間

requests.get('http://github.com', timeout=0.001)

注:timeout 僅對連接過程有效,與響應體的下載無關。 也就是說,這個時間只限制請求的時間。即使返回的 response 包含很大內容,下載需要一定時間,然而這并沒有什么卵用。

會話對象

在以上的請求中,每次請求其實都相當于發起了一個新的請求。也就是相當于我們每個請求都用了不同的瀏覽器單獨打開的效果。也就是它并不是指的一個會話,即使請求的是同一個網址。比如

r = requests.get('http://httpbin.org/cookies/set/sessioncookie/123456789') print(r.text) r = requests.get("http://httpbin.org/cookies") print(r.text)

結果

{"cookies": {"sessioncookie": "123456789"} }{"cookies": {} }

很明顯,這不在一個會話中,無法獲取 cookies,那么在一些站點中,我們需要保持一個持久的會話怎么辦呢?就像用一個瀏覽器逛淘寶一樣,在不同的選項卡之間跳轉,這樣其實就是建立了一個長久會話。 解決方案如下

import requestss = requests.Session() r = s.get('http://httpbin.org/cookies/set/sessioncookie/123456789') print(r.text), r = s.get("http://httpbin.org/cookies") print(r.text) {"cookies": {"sessioncookie": "123456789"} } {"cookies": {"sessioncookie": "123456789"} }

在這里我們請求了兩次,一次是設置 cookies,一次是獲得 cookies 運行結果。
發現可以成功獲取到 cookies 了,這就是建立一個會話到作用。體會一下。 那么既然會話是一個全局的變量,那么我們肯定可以用來全局的配置了。

import requestss = requests.Session() s.headers.update({'x-test': 'true'}) r = s.get('http://httpbin.org/headers') print r.text, r = s.get('http://httpbin.org/headers', headers={'x-test2': 'true'}) print r.text

通過 s.headers.update 方法設置了 headers 的變量。然后我們又在請求中設置了一個 headers,那么會出現什么結果? 很簡單,兩個變量都傳送過去了。 運行結果

{"headers": {"Accept": "*/*", "Accept-Encoding": "gzip, deflate", "Host": "httpbin.org", "User-Agent": "python-requests/2.25.1", "X-Amzn-Trace-Id": "Root=1-5ff04727-6f9c875c3aab64a939bdc939", "X-Test": "true"} } {"headers": {"Accept": "*/*", "Accept-Encoding": "gzip, deflate", "Host": "httpbin.org", "User-Agent": "python-requests/2.25.1", "X-Amzn-Trace-Id": "Root=1-5ff04728-1a6024b044e0fcba04d96242", "X-Test": "true", "X-Test2": "true"} }

如果 get 方法傳的 headers 同樣也是 x-test 呢?

r = s.get('http://httpbin.org/headers', headers={'x-test': 'true'}) {"headers": {"Accept": "*/*", "Accept-Encoding": "gzip, deflate", "Host": "httpbin.org", "User-Agent": "python-requests/2.9.1", "X-Test": "true"} }

那如果不想要全局配置中的一個變量了呢?很簡單,設置為 None 即可

r = s.get('http://httpbin.org/headers', headers={'x-test': None}) {"headers": {"Accept": "*/*", "Accept-Encoding": "gzip, deflate", "Host": "httpbin.org", "User-Agent": "python-requests/2.9.1"} }

以上就是 session 會話的基本用法

SSL證書驗證

現在隨處可見 https 開頭的網站,Requests 可以為 HTTPS 請求驗證 SSL 證書,就像 web 瀏覽器一樣。要想檢查某個主機的 SSL 證書,你可以使用 verify 參數 現在 12306 證書不是無效的嘛,來測試一下

import requestsr = requests.get('https://kyfw.12306.cn/otn/', verify=True) print r.text requests.exceptions.SSLError: [SSL: CERTIFICATE_VERIFY_FAILED] certificate verify failed (_ssl.c:590)

測試下正常的

import requestsr = requests.get('https://github.com', verify=True) print r.text

嗯,正常請求,內容我就不輸出了。 如果我們想跳過剛才 12306 的證書驗證,把 verify 設置為 False 即可

代理

如果需要使用代理,你可以通過為任意請求方法提供 proxies 參數來配置單個請求。

import requestsproxies = {"https": "http://41.118.132.69:4433" } r = requests.post("http://httpbin.org/post", proxies=proxies) print r.text

也可以通過環境變量 HTTP_PROXY 和 HTTPS_PROXY 來配置代理

export HTTP_PROXY="http://10.10.1.10:3128" export HTTPS_PROXY="http://10.10.1.10:1080"

API

Developer Interface

總結

以上是生活随笔為你收集整理的Python爬虫利器一Requests库的用法的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。