利用python爬虫(part4)--requests模块之requests.get方法
生活随笔
收集整理的這篇文章主要介紹了
利用python爬虫(part4)--requests模块之requests.get方法
小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.
學(xué)習(xí)筆記
文章目錄
- requests模塊
- requests常用方法
- requests.get()
requests模塊
- 關(guān)于requests模塊的安裝
進(jìn)入cmd,輸入以下代碼,即可安裝:
pip install requestsrequests常用方法
requests.get()
- 作用
向網(wǎng)站發(fā)起請求,并獲取響應(yīng)對象。
- 語法
- 響應(yīng)對象(res)屬性
- 舉個例子1
我們訪問測試網(wǎng)站(http://httpbin.org/get).當(dāng)我們訪問這個網(wǎng)站時,網(wǎng)站會返回我們的請求頭。
代碼:
import requests import random from my_user_agent_list import user_agenturl = 'http://httpbin.org/get'headers = {'User-Agent':random.choice(user_agent)}#創(chuàng)建請求對象 res = requests.get(url, headers = headers) #得到html字符串 html = res.text print(html)備注:my_user_agent_list模塊,是我自定義的模塊。模塊里放著一個列表user-agent, 列表里包含了各種User-Agent字符串。
控制臺輸出結(jié)果:
{"args": {}, "headers": {"Accept": "*/*", "Accept-Encoding": "gzip, deflate", "Host": "httpbin.org", "User-Agent": "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/535.1 (KHTML, like Gecko) Chrome/14.0.835.163 Safari/535.1", "X-Amzn-Trace-Id": "Root=1-5e867a3e-79e73bc2a78fb809260d2b4e"}, "origin": "183.164.105.16", "url": "http://httpbin.org/get" }我們看到,測試網(wǎng)站返回給我們一個json格式的字符串。在這些字符串中我們可以觀察到我們發(fā)送請求的請求頭。
- 舉個例子2(指定響應(yīng)編碼)
在我們向一個網(wǎng)站發(fā)起請求時,如果不指定編碼形式, 則requests會根據(jù)網(wǎng)站的響應(yīng),猜測網(wǎng)站的編碼。
①不指定編碼
代碼:
import requests import random from my_user_agent_list import user_agenturl = 'http://www.baidu.com/'headers = {'User-Agent':random.choice(user_agent)}res = requests.get(url, headers = headers) print('響應(yīng)編碼:', res.encoding)控制臺輸出結(jié)果:
響應(yīng)編碼: utf-8②指定編碼
代碼:
import requests import random from my_user_agent_list import user_agenturl = 'http://www.baidu.com/'headers = {'User-Agent':random.choice(user_agent)}res = requests.get(url, headers = headers) res.encoding = 'gbk' print('響應(yīng)編碼:', res.encoding)控制臺輸出結(jié)果:
響應(yīng)編碼: gbk- 舉個例子3(抓取北極兔圖片)
對于非結(jié)構(gòu)化數(shù)據(jù)(比如:音頻,視頻,圖片),采用二進(jìn)制的形式抓取。
我們在百度圖片里搜索到要抓取的北極兔圖片,并檢查元素,獲取圖片地址:
代碼:
import requests import random from my_user_agent_list import user_agenturl = 'http://b-ssl.duitang.com/uploads/item/201301/15/20130115235815_LQQVU.jpeg' headers = {'User-Agent':random.choice(user_agent)}html = requests.get(url, headers = headers).content#將圖片保存到本地 with open('test/北極兔.jpg', 'wb') as f:f.write(html)查看爬取到的圖片:
OK!
- 舉個例子4(查看HTTP響應(yīng)碼和實際數(shù)據(jù)URL地址)
代碼:
import requests import random from my_user_agent_list import user_agenturl = 'http://www.baidu.com/' headers = {'User-Agent':random.choice(user_agent)}res = requests.get(url, headers = headers)print('HTTP響應(yīng)碼:', res.status_code) print('URL地址:', res.url)控制臺輸出結(jié)果:
HTTP響應(yīng)碼: 200 URL地址: https://www.baidu.com/未完待續(xù)。。。 明天再寫requests模塊的其他方法。
總結(jié)
以上是生活随笔為你收集整理的利用python爬虫(part4)--requests模块之requests.get方法的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: python之csv模块(part1)-
- 下一篇: websocket python爬虫_p