日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程语言 > python >内容正文

python

python关键词采集,(2017)新版爱站关键词采集Python脚本

發(fā)布時間:2023/12/20 python 28 豆豆
生活随笔 收集整理的這篇文章主要介紹了 python关键词采集,(2017)新版爱站关键词采集Python脚本 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

愛站(aizhan)進入2017年經(jīng)歷了一次大改版,此前的采集腳本無法獲取數(shù)據(jù)了,現(xiàn)在重新更新針對2017年新版愛站關鍵詞采集工具。

python環(huán)境:python3.5

'''

@ 2017新版愛站采集

@ laoding

'''

import requests

from bs4 import BeautifulSoup

import csv

def getHtml(url):

try:

# 替換成自己的agent

headers = {

"Use-Agent":""

}

r = requests.get(url,headers=headers)

r.raise_for_status()

r.encoding = r.apparent_encoding

return r.text

except:

return ""

def writeToCsv(filepath,sj):

with open(filepath,"a+",newline="") as f:

f_csv = csv.writer(f)

f_csv.writerow(tuple(sj))

def getSJ(url,filepath):

html = getHtml(url)

soup = BeautifulSoup(html,"html.parser")

ls = soup.select("body > div.baidurank-wrap > div.tabs-content > div.baidurank-list > table > tbody")[0].find_all("tr")

n = len(ls)

for m in range(0,n):

tr = ls[m]

keyword = tr.find_all(class_="title")[0].get_text().strip()

sj =[ele.get_text().strip() for ele in tr.find_all(class_="center")]

sj.insert(0, keyword)

writeToCsv(filepath,sj)

print("%s done" %m)

def main():

filepath = "F:/test.csv" # 替換成自己的導出結(jié)果的文件路徑

for n in range(1,51):

url = "http://baidurank.aizhan.com/baidu/xxx.com/-1/0/{}/".format(n) # xxx.com 替換成查詢的地址

getSJ(url,filepath)

print("%s finish" %n)

if __name__ == '__main__':

main()

結(jié)果如下:

總結(jié)

以上是生活随笔為你收集整理的python关键词采集,(2017)新版爱站关键词采集Python脚本的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。