日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程语言 > python >内容正文

python

python 代理的使用

發布時間:2024/4/17 python 33 豆豆
生活随笔 收集整理的這篇文章主要介紹了 python 代理的使用 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

這里分享一個測試ip的網址? ? ?http://ip.filefab.com/index.php

?

scrapy 隨機請求頭和代理ip的使用原理

import random
# 添加一個中間鍵class User_AgentMiddleware(object):def __init__(self):self.user_agent = ["Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.1 (KHTML, like Gecko) Chrome/22.0.1207.1 Safari/537.1","Mozilla/5.0 (X11; CrOS i686 2268.111.0) AppleWebKit/536.11 (KHTML, like Gecko) Chrome/20.0.1132.57 Safari/536.11", "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1061.1 Safari/536.3", "Mozilla/5.0 (Windows NT 6.1) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1061.1 Safari/536.3", "Mozilla/5.0 (Windows NT 6.2) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1061.0 Safari/536.3", "Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/535.24 (KHTML, like Gecko) Chrome/19.0.1055.1 Safari/535.24", "Mozilla/5.0 (Windows NT 6.2; WOW64) AppleWebKit/535.24 (KHTML, like Gecko) Chrome/19.0.1055.1 Safari/535.24", ]
   # scrapy抓取前修改請求頭 def process_request(self, request, spider): # 添加代理 request.meta['proxy'] = 'http://119.42.70.216:8080' # 這里不區分 http還是https代理 # 添加隨機請求頭 ua = random.choice(self.user_agent) request.headers['User-Agent'] = ua # 默認返回None, 繼續執行下一步操作 # Response: 直接返回(沒有經過process_response, 和process_exception) # Request: 重新進行調用本次process_request的請求 # IgnoreRequest:
  # 判斷應抓到網頁的狀態 def process_response(self, request, response, spider): print(response.headers) if response.status != 200: return request else: return response # 必須有返回值 # request: 重新進行調用本次process_request的請求 # response:返回源碼 # IgnoreRequest: 拋出異常, 則Request的errorback()方法被回調。 如異常沒被處理, 則會被忽略

?

request中添加代理

?

# 首先確認代理的類型 是http還是https的來判斷proxie的取值proxie = {"http": "http://113.71.211.184:8197", }respons = requests.get('http://ip.filefab.com/index.php', proxies=proxie) doc = etree.HTML(respons.text) print(doc.xpath('.//h1[@id="ipd"]/span/text()'))

?

轉載于:https://www.cnblogs.com/yijian001/p/9015977.html

總結

以上是生活随笔為你收集整理的python 代理的使用的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。