python笔记之scrapy
Scrapy的基本命令
基本命令分兩種: 全局命令和項目命令
全局命令(在命令行中執(zhí)行的指令)
fetch
主要用來顯示爬蟲爬取的過程
如果他在scrapy項目之外使用,會調(diào)用scrapy默認的爬蟲進行網(wǎng)頁的爬取
如果他在scrapy項目中使用,會使用scrapy項目中的爬蟲進行網(wǎng)頁的爬取
runspider
不依托scrapy項目來直接運行一個爬蟲文件
創(chuàng)建first.py文件編寫代碼,執(zhí)行指令
settings
查看scrapy默認的配置信息
如果是在項目下查看,是項目的配置信息
shell
啟動scrapy的交互終端,shell經(jīng)常在開發(fā)以及調(diào)試中用到
使用scrapy的交互終端,可以在不啟動scrapy爬蟲的情況下,對網(wǎng)站響應(yīng)進行調(diào)試
也可以在交互終端中寫一些python的代碼
startproject
用于創(chuàng)建一個scrapy爬蟲項目
version
查看scrpay的版本信息
view
下載某個網(wǎng)頁并用瀏覽器查看
項目命令(在scrapy項目中執(zhí)行的指令)
bench
可以測試本地硬件性能,會創(chuàng)建一個本地服務(wù)器并且以最大的爬行速度爬行
genspider
用于在項目下創(chuàng)建爬蟲文件
使用該指令可以基于現(xiàn)有爬蟲模板來生成一個爬蟲文件
crawl
使用crawl指令可以啟動某一個爬蟲
list
使用list命令來列出當(dāng)前項目可使用的爬蟲文件
edit
使用edit指令直接打開對應(yīng)的編輯器對爬蟲文件進行編寫
這條指令對linux比較友好
對windows沒什么卵用,因為會出現(xiàn)問題
總結(jié)
以上是生活随笔為你收集整理的python笔记之scrapy的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: python之.py生成.exe可执行文
- 下一篇: websocket python爬虫_p