日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

js爬虫心得

發布時間:2023/12/16 编程问答 26 豆豆
生活随笔 收集整理的這篇文章主要介紹了 js爬虫心得 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

第一步:分析要爬的網站:包括是否需要登陸、點擊下一頁的網址變化、下拉刷新的網址變化等等
第二步:根據第一步的分析,想好爬這個網站的思路
第三步:爬好所需的內容 保存

爬蟲過程中用到的一些包:

(1)const request = require('superagent'); // 處理get post put delete head 請求 輕量接http請求庫,模仿瀏覽器登陸

(2)const cheerio = require('cheerio'); // 加載html
(3)const fs = require('fs'); // 加載文件系統模塊 將數據存到一個文件中的時候會用到

fs.writeFile('saveFiles/zybl.txt', content, (error1) => { // 將文件存起來 文件路徑 要存的內容 錯誤
if (error1) throw error1;
// console.log(' text save ');
});

this.files = fs.mkdir('saveFiles/simuwang/xlsx/第' + this.page + '頁/', (error) => {
if (error) throw error;
}); //創建新的文件夾
//向新的文件夾里面創建新的文件
const writeStream = fs.createWriteStream('saveFiles/simuwang/xlsx/' + '第' + this.page + '頁/' + xlsxTitle + '.xlsx', ['a']);
//向新的文件里面寫入內容
for (let i = 0; i < value1.length; i += 1) {
writeStream.write(xlsxTitle + '\t' + this.getLocalTime(value1[i][0] / 1000)
+ '\t' + value1[i][1] + '\t' + this.getLocalTime(value2[i][0] / 1000)
+ '\t' + value2[i][1] + '\t' + this.getLocalTime(value3[i][0] / 1000)
+ '\t' + value3[i][1] + '\t');
}
//寫入完內容之后及時關閉流,如果不關閉,當爬取很多的文件的時候會出現錯誤,文件里面寫不進去內容
writeStream.end();

(4)const fs = require('graceful-fs'); // 將文件存為xlse

const writeStream = fs.createWriteStream('saveFiles/trader.xlsx'); //新建xlsx文件

writeStream.write(title);//像slsx里面寫入內容

(5)const Promise = require('bluebird'); //異步處理

(6)const Nightmare = require('nightmare');//一個高層次的瀏覽器自動化圖書館 先要安裝phantomjs 然后在裝nightmare

(7)const co = require('co');

爬蟲的相關思路:

(1)獲取首頁面的所需內容
(2)在首頁面的所有內容里面獲取所需內容的鏈接
(3)將(2)里面的鏈接存到一個list里面去
(3)新寫一個function,采用.pop()方法,用來取通過鏈接得到的新的內容
(4)判斷list.length是否大于0,
(5)如果不是,開始爬子頁面 并且調用該方法
(6)如果list的長度為0,就說明這一頁爬完了,開始下一頁,則將url改變
(7)重復(2)(3)(4)(5)(6)直至所有頁面爬完

轉載于:https://www.cnblogs.com/ryt103114/p/6085271.html

總結

以上是生活随笔為你收集整理的js爬虫心得的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。