日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程语言 > python >内容正文

python

使用python做最简单的爬虫

發(fā)布時(shí)間:2023/12/19 python 25 豆豆
生活随笔 收集整理的這篇文章主要介紹了 使用python做最简单的爬虫 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

使用python做最簡單的爬蟲

--之心

#第一種方法
import urllib2 #將urllib2庫引用進(jìn)來
response=urllib2.urlopen("http://www.baidu.com") #調(diào)用庫中的方法,將請求回應(yīng)封裝到response對象中
html=response.read() #調(diào)用response對象的read()方法,將回應(yīng)字符串賦給hhtml變量
print html #打印出來



#第二中方法
import urllib2
req=urllib2.Request("http://ww.baidu.com")
response=urllib2.urlopen(req)
html = response.read()
print html

一般情況下,上面的爬蟲,如果大量爬行,會被限制訪問,所以要偽裝成瀏覽器進(jìn)行訪問
這里用偽裝成IE9.0進(jìn)行訪問


#要求請的url地址
import urllib2
url="http://www.baidu.com"
#要偽裝的瀏覽器user_agent頭
user_agent="Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/39.0.2171.71 Safari/537.36;"
#創(chuàng)建字典,使請求的headers中的’User-Agent‘:對應(yīng)user_agent字符串
headers={'User-Agent':user_agent}
#新建一個(gè)請求,將請求中的headers變換成自己定義的
req =urllib2.Request(url,headers=headers)
#請求服務(wù)器,得到回應(yīng)
response=urllib2.urlopen(req)
#得到回應(yīng)內(nèi)容
the_page=response.read()
#打印結(jié)果
print the_page

轉(zhuǎn)載于:https://www.cnblogs.com/DaoXin-WXR/p/8012968.html

總結(jié)

以上是生活随笔為你收集整理的使用python做最简单的爬虫的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。