日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問(wèn) 生活随笔!

生活随笔

當(dāng)前位置: 首頁(yè) > 编程语言 > python >内容正文

python

python爬新闻并保存csv_用python爬取内容怎么存入 csv 文件中

發(fā)布時(shí)間:2023/12/3 python 27 豆豆
生活随笔 收集整理的這篇文章主要介紹了 python爬新闻并保存csv_用python爬取内容怎么存入 csv 文件中 小編覺(jué)得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

小白一個(gè),爬取豆瓣電影250作為練習(xí),想把爬取的內(nèi)容用csv存儲(chǔ),想存但是不知道怎么自己原來(lái)代碼拼接在一起。

ps:非伸手黨,查閱了官方文檔,也做了csv讀寫的練習(xí),就是拼不到一起,不知道該怎么改。求大神給條思路。

python3.5

import requests

from bs4 import BeautifulSoup

import lxml

import time

import csv

headers={

'user-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/50.0.2661.102 Safari/537.36'

}

url= 'http://movie.douban.com/top250'

urls=['https://movie.douban.com/top250?start={}&filter='.format(str(i)) for i in range(0,250,25)]

def get_item(url,data=None):

web_data=requests.get(url)

time.sleep(3)

soup=BeautifulSoup(web_data.text,'lxml')

#抓取電影名字

movie_names=soup.find_all('div',{'class':'hd'})

#抓取電影評(píng)分

movie_scroes=soup.find_all('span',{'class':'rating_num'})

#抓取網(wǎng)頁(yè)圖片

movie_images=soup.select('#content > div > div.article > ol > li > div > div.pic > a > img')

#抓取電影鏈接

movie_href=soup.select('#content > div > div.article > ol > li > div > div.info > div.hd > a')

for name,scroes,images,hrefs in zip(movie_names,movie_scroes,movie_images,movie_href):

data={

'name':"".join(i.strip() for i in name.get_text().split()),

'scroes':scroes.get_text(),

'images':images.get('src'),

'hrefs':hrefs.get('href')

}

print(data)

for sinle_url in urls:

get_item(sinle_url)

總結(jié)

以上是生活随笔為你收集整理的python爬新闻并保存csv_用python爬取内容怎么存入 csv 文件中的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。

如果覺(jué)得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。