日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程语言 > python >内容正文

python

Python爬虫入门教程 26-100 知乎文章图片爬取器之二

發布時間:2023/12/15 python 22 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Python爬虫入门教程 26-100 知乎文章图片爬取器之二 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

1. 知乎文章圖片爬取器之二博客背景

昨天寫了知乎文章圖片爬取器的一部分代碼,針對知乎問題的答案json進行了數據抓取,博客中出現了部分寫死的內容,今天把那部分信息調整完畢,并且將圖片下載完善到代碼中去。

首先,需要獲取任意知乎的問題,只需要你輸入問題的ID,就可以獲取相關的頁面信息,比如最重要的合計有多少人回答問題。 問題ID為如下標紅數字 www.zhihu.com/question/29024583

編寫代碼,下面的代碼用來檢測用戶輸入的是否是正確的ID,并且通過拼接URL去獲取該問題下面合計有多少答案。

import requests import re import pymongo import time DATABASE_IP = '127.0.0.1' DATABASE_PORT = 27017 DATABASE_NAME = 'sun' client = pymongo.MongoClient(DATABASE_IP,DATABASE_PORT) db = client.sun db.authenticate("dba", "dba") collection = db.zhihuone # 準備插入數據BASE_URL = "https://www.zhihu.com/question/{}" def get_totle_answers(article_id):headers = {"user-agent": "需要自己補全 Mozilla/5.0 (Windows NT 10.0; WOW64)"}with requests.Session() as s:with s.get(BASE_URL.format(article_id),headers=headers,timeout=3) as rep:html = rep.textpattern =re.compile( '<meta itemProp="answerCount" content="(\d*?)"/>')s = pattern.search(html)print("查找到{}條數據".format(s.groups()[0]))return s.groups()[0]if __name__ == '__main__':# 用死循環判斷用戶輸入的是否是數字article_id = ""while not article_id.isdigit():article_id = input("請輸入文章ID:")totle = get_totle_answers(article_id)if int(totle)>0:zhi = ZhihuOne(article_id,totle)zhi.run()else:print("沒有任何數據!")復制代碼

完善圖片下載部分,圖片下載地址在查閱過程中發現,存在json字段的content中,我們采用簡單的正則表達式將他匹配出來。細節如下圖展示

編寫代碼吧,下面的代碼注釋請仔細閱讀,中間有一個小BUG,需要手動把pic3修改為pic2這個地方目前原因不明確,可能是我本地網絡的原因,還有請在項目根目錄先創建一個imgs的文件夾,用來存儲圖片

def download_img(self,data):## 下載圖片for item in data["data"]:content = item["content"]pattern = re.compile('<noscript>(.*?)</noscript>')imgs = pattern.findall(content)if len(imgs) > 0:for img in imgs:match = re.search('<img src="(.*?)"', img)download = match.groups()[0]download = download.replace("pic3", "pic2") # 小BUG,pic3的下載不到print("正在下載{}".format(download), end="")try:with requests.Session() as s:with s.get(download) as img_down:# 獲取文件名稱file = download[download.rindex("/") + 1:]content = img_down.contentwith open("imgs/{}".format(file), "wb+") as f: # 這個地方進行了硬編碼f.write(content)print("圖片下載完成", end="\n")except Exception as e:print(e.args)else:pass 復制代碼

運行結果為

然后在玩知乎的過程中,發現了好多好問題

總結

以上是生活随笔為你收集整理的Python爬虫入门教程 26-100 知乎文章图片爬取器之二的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。