日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程语言 > python >内容正文

python

Python爬虫学习获取腾讯新闻并存入Csv文件

發(fā)布時間:2025/3/20 python 26 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Python爬虫学习获取腾讯新闻并存入Csv文件 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

with open('09_騰訊新聞.csv','a+') as f:? ? 這樣子寫入的話產(chǎn)生的csv文件每行后面都會多一條空行,添加newline=''即可消除空行;

即with open('09_騰訊新聞.csv','a+',newline='') as f:

import requests import json import csv import osheaders={'referer': 'https://news.qq.com/','user-agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/86.0.4240.198 Safari/537.36' }def getPage(url):try:re=requests.get(url,headers=headers)re.encoding=re.apparent_encodingreturn json.loads(re.text)except:print(re.status_code)# 獲取新聞 def parse_news(text):global rows # 聲明rows為全局變量try:content=text['data']['list'] # 熱點精選except:content = text['data'] # 今日要聞和今日話題for item in content:source=item['url']title=item['title']rows.append((title,source))if __name__ == '__main__':today_news_url='https://i.news.qq.com/trpc.qqnews_web.pc_base_srv.base_http_proxy/NinjaPageContentSync?pull_urls=news_top_2018'today_topic_url='https://i.news.qq.com/trpc.qqnews_web.pc_base_srv.base_http_proxy/NinjaPageContentSync?pull_urls=today_topic_2018'rows=[]# 獲取今日要聞print("開始獲取今日要聞>>>")rows.append(('以下為今日要聞',''))today_news=getPage(today_news_url)parse_news(today_news)print("...今日要聞獲取完畢")# 獲取今日話題print("開始獲取今日話題>>>")rows.append(('以下為今日話題',''))today_topic=getPage(today_topic_url)parse_news(today_topic)print("...今日話題獲取完畢")# 熱點精選page = int(input("請輸入你想獲得的熱點精選頁數(shù):"))print("開始獲取熱點精選>>>")rows.append(('以下為熱點精選',''))for i in range(page):hot_news_url = 'https://i.news.qq.com/trpc.qqnews_web.kv_srv.kv_srv_http_proxy/list?sub_srv_id=24hours&srv_id=pc&offset=' + str(i*20) + '&limit=20&strategy=1&ext={%22pool%22:[%22top%22],%22is_filter%22:7,%22check_type%22:true}'hot_news=getPage(hot_news_url)parse_news(hot_news)print("...第%d頁獲取完畢"%(i+1))with open('09_騰訊新聞.csv','a+',newline='') as f: # newline=''可以消除每行后面的空行Csv_book=csv.writer(f)Csv_book.writerows(rows)print("保存完畢!路徑為{}\\09_騰訊新聞.csv".format(os.getcwd()))

?

總結(jié)

以上是生活随笔為你收集整理的Python爬虫学习获取腾讯新闻并存入Csv文件的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。