日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程语言 > python >内容正文

python

Python笔记-获取某百科页面所有URL(提取某百科所有URL)

發布時間:2025/3/15 python 22 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Python笔记-获取某百科页面所有URL(提取某百科所有URL) 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

程序運行截圖如下:

這里分析下頁面:

?

?凡是百度百科的都是在此url上

https://baike.baidu.com/item/

xxxxx,所以可以直接提取。

這里我們用個隊列,將這個頁面的所有有關的url入隊,然后出隊列,進行訪問:

還有個要注意的,要偽造成瀏覽器,不然會回數據

import requests import queue import time from bs4 import BeautifulSoupheader = {'Accept' : 'text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9','Accept-Language' : 'zh-CN,zh;q=0.9','Cache-Control' : 'no-cache','Connection' : 'keep-alive','Cookie' : 'xxxxxxx','Host' : 'baike.baidu.com','Pragma' : 'no-cache','User-Agent' : 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.114 Safari/537.36','sec-ch-ua' : '" Not;A Brand";v="99", "Google Chrome";v="91", "Chromium";v="91"' }baseUrl = "https://baike.baidu.com/item/" urlQueue = queue.Queue(10000)def getRequest(url):response = requests.get(url, headers = header)return response.textpassif __name__ == '__main__':urlQueue.put('%E7%BB%9F%E8%AE%A1%E5%AD%A6/1175')for i in range(100):url = urlQueue.get()content = getRequest(baseUrl + url)contentSoup = BeautifulSoup(content, "html.parser")urlAllList = contentSoup.select("a")for urlTmp in urlAllList:if urlTmp.attrs.__contains__('href'):urlString = urlTmp['href']if '/item' in urlString:testUrl = urlString.split('/item/')[1]urlQueue.put(testUrl)passpasspassprint('over')pass

總結

以上是生活随笔為你收集整理的Python笔记-获取某百科页面所有URL(提取某百科所有URL)的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。