日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

怎么防爬虫爬取信息_scrapy爬取51job职位信息(针对新的反爬虫机制)!

發布時間:2025/3/20 编程问答 35 豆豆
生活随笔 收集整理的這篇文章主要介紹了 怎么防爬虫爬取信息_scrapy爬取51job职位信息(针对新的反爬虫机制)! 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

1 定義抓取內容

在items.py中添加如下代碼:

class Job51Item(scrapy.Item):title = scrapy.Field()salary = scrapy.Field()job_city = scrapy.Field()requirement = scrapy.Field() # 經驗、學歷、人數company_name = scrapy.Field()company_size = scrapy.Field()publish_date = scrapy.Field()job_advantage_tags = scrapy.Field() # 福利url = scrapy.Field()

2 編寫爬蟲

由于51job的反爬蟲機制,其招聘信息數據并不是如游覽器一般直接展示出來,而是隱藏在script標簽內

在spiders文件夾新建文件job_51.py,并編寫如下代碼:

# -*- coding: utf-8 -*- import json import re import scrapy from scrapy.http import Requestfrom job.items import Job51Itemclass Job51Spider(scrapy.Spider):name = 'job51'allowed_domains = ['jobs.51job.com', 'search.51job.com']start_urls = ['https://search.51job.com/list/090200,000000,0000,00,9,99,python,2,''3.html?lang=c&postchannel=0000&workyear=99&cotype=99&degreefrom=99&jobterm=99&companysize=99&ord_field=0''&dibiaoid=0&line=&welfare=']def parse(self, response):body = response.body.decode("gbk")with open("b.html","w",encoding="utf-8") as f:f.write(body)data = re.findall('window.__SEARCH_RESULT__ =(.+)}</script>', str(body))[0] + "}"data = json.loads(data)item = Job51Item()for result in data["engine_search_result"]:item["requirement"] = result["attribute_text"]item["url"] = result["job_href"]item["title"] = result["job_name"]item["salary"] = result["issuedate"]item["job_city"] = result["workarea_text"]item["publish_date"] = result["issuedate"]item["job_advantage_tags"] = result["jobwelf"]item["company_name"] = result["company_name"]item["company_size"] = result["companysize_text"]yield itemfor i in range(2, 10):url = f"https://search.51job.com/list/090200,000000,0000,00,9,99,python,2,{i}.html?lang=c&postchannel" f"=0000&workyear=99&cotype=99&degreefrom=99&jobterm=99&companysize=99&ord_field=0&dibiaoid=0&line" f"=&welfare= "yield Request(url=url, callback=self.parse, )

3 定義管道

3.1 啟用pipelines

在settings.py中添加如下代碼:

ITEM_PIPELINES = {'job.pipelines.JobPipeline': 300, }

注:或者取消該部分內容注釋

3.2 編寫管道代碼

在pipelines.py編寫如下代碼:

import jsonfrom itemadapter import ItemAdapterclass JobPipeline:def __init__(self):self.fp = open('result.json', 'w', encoding='utf-8') def open_spider(self, spider):self.fp.write("[")def process_item(self, item, spider):data = json.dumps(dict(item), ensure_ascii=False)self.fp.write(data+',n')return itemdef close_spider(self, spider):self.fp.write("]")self.fp.close()print("spider end")

與50位技術專家面對面20年技術見證,附贈技術全景圖

總結

以上是生活随笔為你收集整理的怎么防爬虫爬取信息_scrapy爬取51job职位信息(针对新的反爬虫机制)!的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

主站蜘蛛池模板: 日本欧美一级 | 亚洲精品免费网站 | 青青操原 | 欧美三日本三级少妇三级99观看视频 | 性欧美精品中出 | 欧美高清一区二区三区四区 | 波多野结衣在线观看视频 | 午夜秋霞影院 | 激情午夜网 | 国产在线自 | 天天躁日日躁狠狠躁免费麻豆 | 911福利视频 | 色一区二区三区 | www.热久久 | 午夜影院免费观看 | 欧美精品一二区 | 中文字幕自拍偷拍 | 九七久久| 在线成人黄色 | 久久99精品久久久久 | 91av在| 欧美视频一区二区 | 久久久久人| 69国产精品视频免费观看 | 荫蒂被男人添免费视频 | 成人天堂av | 亚洲av永久无码精品一百度影院 | 欧美偷拍少妇精品一区 | 99精品国产免费 | 欧美日韩一级片在线观看 | 久久久久久久中文字幕 | 日韩精品亚洲一区 | 123毛片 | 激情综合站 | 美女网站污 | 国产精品久久久久久久久久免费 | 日韩av网站大全 | 亚洲经典视频在线观看 | 欧美大尺度视频 | 被黑人啪到哭的番号922在线 | 少妇精品视频一区二区 | 最新国产一区 | 综合精品视频 | 天天看黄色片 | 国产精品亚洲一区二区三区 | 国产视频不卡一区 | 国产在线观看网站 | 国产www性 | 欧美一区二区三区影院 | av成人动漫| 久久久久亚洲色欲AV无码网站 | 亚洲tv在线 | 日韩欧美国产一区二区三区 | 亚洲欧美变态另类丝袜第一区 | 欧美自拍在线 | 亚洲精品第三页 | 亚洲欧美另类一区 | 中文字幕在线不卡视频 | 宅男噜噜噜666在线观看 | 久久瑟瑟| 国产白丝一区二区三区 | 免费黄网在线看 | 亚洲视频观看 | 1区2区3区在线观看 久久久久久久久久久影院 成人网址在线观看 | 涩涩视频在线观看 | 怒海潜沙秦岭神树 | 欧美日韩高清不卡 | 亚洲aⅴ网站 | 欧美在线看片 | 黄av资源| 色香色香欲天天天影视综合网 | 天天操天天插天天射 | 日韩一级免费毛片 | 深爱开心激情 | 亚洲av永久无码精品一区二区国产 | 超碰超碰超碰超碰 | 日本在线成人 | 欧美日韩久久久久 | 成人黄色免费网站 | 欧美一区二区三区成人精品 | 嫩草网站入口 | 成人一区电影 | 色一情一乱一乱一区91av | 成人午夜精品福利 | 亚洲男人网站 | 久久99热这里只有精品 | 国产精品亚洲视频 | 男人扒女人添高潮视频 | 国产麻豆久久 | 亚洲 小说区 图片区 | 中文 日韩 欧美 | 中国一级黄色 | 射在线| 欧美资源 | 亚洲欧美在线观看视频 | 欧美性xxxxx极品少妇 | 99亚洲精品 | 在线国产福利 | 操www |