scrapy 采集网页出现丢失url的问题
生活随笔
收集整理的這篇文章主要介紹了
scrapy 采集网页出现丢失url的问题
小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.
url_list = ["http://www.icoat.cc/news/list_18_3.html", "http://www.icoat.cc/news/list_18.html",
"http://www.icoat.cc/news/list_18_2.html",
]
for ls in url_list:
yield scrapy.Request(url=ls, headers=header, callback=self.parseList, meta={"hd": header})
采集的過程中發(fā)現(xiàn)丟失了很多url,而且url_list中只采集了前兩個(gè),不知道為什么,google后發(fā)現(xiàn)加上dont_filter后可以解決丟失url的問題
yield scrapy.Request(url=ls, headers=header, callback=self.parseList, meta={"hd": header}, dont_filter=True)
轉(zhuǎn)載于:https://www.cnblogs.com/fly-kaka/p/10482355.html
總結(jié)
以上是生活随笔為你收集整理的scrapy 采集网页出现丢失url的问题的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: Python之字符串转换为日期、结合时区
- 下一篇: awk----基本用法