日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

知网爬取数据

發(fā)布時間:2024/3/13 编程问答 43 豆豆
生活随笔 收集整理的這篇文章主要介紹了 知网爬取数据 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

進行模擬爬取知網(wǎng)

運行selenium進行模擬登錄,后進行爬取數(shù)據(jù)

from selenium import webdriver from selenium.webdriver.support.ui import WebDriverWait from selenium.webdriver.support import expected_conditions as EC from selenium.webdriver.common.by import By from urllib.parse import urljoin import time import random import json import warnings warnings.filterwarnings("ignore") class zhiwang():def __init__ (self):options = webdriver.ChromeOptions()options.add_experimental_option("prefs", {"profile.managed_default_content_settings.images": 2})self.browser = webdriver.Chrome(options=options)self.url = 'https://kns.cnki.net/kns/brief/result.aspx?dbprefix=CJFQ'self.count = 1def login(self):self.browser.get(self.url)WebDriverWait(self.browser, 1000).until(EC.presence_of_element_located((By.ID, 'txt_1_value1')))if self.browser.find_elements_by_xpath('//*[@id="txt_1_value1"]'):search = self.browser.find_element_by_xpath('//*[@id="txt_1_value1"]')search.send_keys('格斯爾')submit_search = self.browser.find_element_by_id('btnSearch')submit_search.click()self.browser.switch_to.frame('iframeResult')WebDriverWait(self.browser, 1000).until(EC.presence_of_element_located((By.CLASS_NAME, 'Ch-En')))submit_chinese = self.browser.find_element_by_link_text("中文文獻")submit_chinese.click()submit_page = self.browser.find_element_by_xpath('//*[@id="id_grid_display_num"]/a[3]')submit_page.click() zhiwang().login()

總結(jié)

以上是生活随笔為你收集整理的知网爬取数据的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。