日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

微信公众号+获取文章内容【只是记录自己的学习过程】

發布時間:2023/12/14 编程问答 27 豆豆
生活随笔 收集整理的這篇文章主要介紹了 微信公众号+获取文章内容【只是记录自己的学习过程】 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

fiddler抓包獲取公眾號文章頁面鏈接

1,類型地址

https://redu.lopao.com/api/article/cate

2,具體文章鏈接

https://redu.lopao.com/api/article/lists?category=mil&page=0


問題描述

需要注意的是,這里不能請求到某個類別的所有頁面,只需稍做處理即可



源碼如下:

class wechatSpider:def __init__(self):"""數據初始化"""self.url = 'https://redu.lopao.com/api/article/cate'self.headers = {'User-Agent':UserAgent().random}def get_PageRes(self, url):"""頁面響應:return:"""try:res = requests.get(url=url, headers=self.headers)if res.status_code == 200:return res.textexcept Exception as e:passdef getHtml(self):"""數據解析:return:"""typeData = self.get_PageRes(url=self.url)typeDataList = json.loads(typeData)item = {}for typeData in typeDataList['data']:# 用戶提示print(typeData['text'], end=' ')k = typeData['text']v = typeData['name']item[k] = vprint('\n')word = input('請輸入分類名稱:').strip()if word in item.keys():self.getAllPage(item[word])else:print('---輸入有誤,請重新輸入---')

某個類別的所有頁

def getAllPage(self, word):"""獲取所有文章鏈接:param word::return:"""count = 0while True:url = 'https://redu.lopao.com/api/article/lists?category={}&page={}'.format(word, count)infoData = self.get_PageRes(url)dataList = json.loads(infoData)['data']if dataList['next_item'] != None:infoUrl = url.format(word, count+1)data = self.get_PageRes(infoUrl)self.getInfoData(data)else:print('---已獲取所有文章鏈接---')breakcount += 1

數據已字典的格式輸出

def getInfoData(self, data):"""數據處理:return:"""item = {}infoData = json.loads(data)['data']for dataInfo in infoData['data']:item['title'] = dataInfo['title']item['src'] = dataInfo['src']item['desc'] = dataInfo['desc']item['url'] = dataInfo['url']print(item)

總結

以上是生活随笔為你收集整理的微信公众号+获取文章内容【只是记录自己的学习过程】的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。