日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程语言 > python >内容正文

python

python爬取网页防止重复内容_python解决网站的反爬虫策略总结

發布時間:2024/1/23 python 33 豆豆
生活随笔 收集整理的這篇文章主要介紹了 python爬取网页防止重复内容_python解决网站的反爬虫策略总结 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

本文詳細介紹了網站的反爬蟲策略,在這里把我寫爬蟲以來遇到的各種反爬蟲策略和應對的方法總結一下。

從功能上來講,爬蟲一般分為數據采集,處理,儲存三個部分。這里我們只討論數據采集部分。

一般網站從三個方面反爬蟲:用戶請求的Headers,用戶行為,網站目錄和數據加載方式。前兩種比較容易遇到,大多數網站都從這些角度來反爬蟲。第三種一些應用ajax的網站會采用,這樣增大了爬取的難度(防止靜態爬蟲使用ajax技術動態加載頁面)。

1、從用戶請求的Headers反爬蟲是最常見的反爬蟲策略。

偽裝header。很多網站都會對Headers的User-Agent進行檢測,還有一部分網站會對Referer進行檢測(一些資源網站的防盜鏈就是檢測Referer)。如果遇到了這類反爬蟲機制,可以直接在爬蟲中添加Headers,將瀏覽器的User-Agent復制到爬蟲的Headers中;或者將Referer值修改為目標網站域名[評論:往往容易被忽略,通過對請求的抓包分析,確定referer,在程序中模擬訪問請求頭中添加]。對于檢測Headers的反爬蟲,在爬蟲中修改或者添加Headers就能很好的繞過。

2、基于用戶行為反爬蟲

還有一部分網站是通過檢測用戶行為,例如同一IP短時間內多次訪問同一頁面,或者同一賬戶短時間內多次進行相同操作。[這種防爬,需要有足夠多的ip來應對]

(1)、大多數網站都是前一種情況,對于這種情況,使用IP代理就可以解決??梢詫iT寫一個爬蟲,爬取網上公開的代理ip,檢測后全部保存起來。有了大量代理ip后可以每請求幾次更換一個ip,這在requests或者urllib中很容易做到,這樣就能很容易的繞過第一種反爬蟲。

編寫爬蟲代理:

步驟:

1.參數是一個字典{'類型':'代理ip:端口號'}

proxy_support=urllib.request.ProxyHandler({})

2.定制、創建一個opener

opener=urllib.request.build_opener(proxy_support)

3a.安裝opener

urllib.request.install_opener(opener)

3b.調用opener

opener.open(url)

用大量代理隨機請求目標網站,應對反爬蟲

#! /usr/bin/env python3.4

#-*- coding:utf-8 -*-

#__author__ == "tyomcat"

import urllib.request

import random

import re

url='http://www.whatismyip.com.tw'

iplist=['121.193.143.249:80','112.126.65.193:80','122.96.59.104:82','115.29.98.139:9999','117.131.216.214:80','116.226.243.166:8118','101.81.22.21:8118','122.96.59.107:843']

proxy_support = urllib.request.ProxyHandler({'http':random.choice(iplist)})

opener=urllib.request.build_opener(proxy_support)

opener.addheaders=[('User-Agent','Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/49.0.2623.87 Safari/537.36')]

urllib.request.install_opener(opener)

response = urllib.request.urlopen(url)

html = response.read().decode('utf-8')

pattern = re.compile('

(.*?)

.*?

(.*?)

')

iterms=re.findall(pattern,html)

for item in iterms:

print(item[0]+":"+item[1])

(2)、對于第二種情況,可以在每次請求后隨機間隔幾秒再進行下一次請求。有些有邏輯漏洞的網站,可以通過請求幾次,退出登錄,重新登錄,繼續請求來繞過同一賬號短時間內不能多次進行相同請求的限制。[評論:對于賬戶做防爬限制,一般難以應對,隨機幾秒請求也往往可能被封,如果能有多個賬戶,切換使用,效果更佳]

3、動態頁面的反爬蟲

上述的幾種情況大多都是出現在靜態頁面,還有一部分網站,我們需要爬取的數據是通過ajax請求得到,或者通過Java生成的。

解決方案:Selenium+PhantomJS

Selenium:自動化web測試解決方案,完全模擬真實的瀏覽器環境,完全模擬基本上所有的用戶操作

PhantomJS :一個沒有圖形界面的瀏覽器

獲取淘寶妹妹的個人詳情地址:

#! /usr/bin/env python

# -*- coding:utf-8 -*-

#__author__ == "tyomcat"

from selenium import webdriver

import time

import re

drive = webdriver.PhantomJS(executable_path='phantomjs-2.1.1-linux-x86_64/bin/phantomjs')

drive.get('https://mm.taobao.com/self/model_info.htm?user_id=189942305&is_coment=false')

time.sleep(5)

pattern = re.compile(r'

.*?class="mm-p-info-cell clearfix">.*?.*?(.*?) (.*?)',re.S)

html=drive.page_source.encode('utf-8','ignore')

items=re.findall(pattern,html)

for item in items:

print item[0],'http:'+item[1]

drive.close()

感謝閱讀,希望能幫助到大家,謝謝大家對本站的支持!

總結

以上是生活随笔為你收集整理的python爬取网页防止重复内容_python解决网站的反爬虫策略总结的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。