日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程语言 > python >内容正文

python

Python3--baby网的数据爬取

發布時間:2025/4/5 python 17 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Python3--baby网的数据爬取 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

上代碼:

''' 本代碼用來爬取https://www.babyment.com/yingwenming/kaitou.php?start_letter=A&page=1的信息 '''import requests,csv,time,random from bs4 import BeautifulSoup from fake_useragent import UserAgent#獲取ip列表 def get_ip_list(): f=open('IP.txt','r') ip_list=f.readlines() f.close() return ip_list #從IP列表中獲取隨機IP def get_random_ip(ip_list): proxy_ip = random.choice(ip_list) proxy_ip=proxy_ip.strip('\n') proxies = {'http': proxy_ip} return proxies #功能:將信息寫入文件 def write_file(filePath,row): with open(filePath,'a+',encoding='utf-8',newline='') as csvfile: spanreader = csv.writer(csvfile,delimiter='|',quoting=csv.QUOTE_MINIMAL) spanreader.writerow(row) #解析baby網 def get_EnNames_list(url,ip_list):print('輸入進來的url為:{}'.format(url))#獲取隨機IP,headers防止ip被封headers = {'User-Agent':str(UserAgent().random)}proxies = get_random_ip(ip_list)try:req = requests.get(url=url,headers=headers,proxies=proxies,timeout=10)except:print('運行出錯10秒后重新運行')time.sleep(10)headers = {'User-Agent':str(UserAgent().random)}proxies = get_random_ip(ip_list)req = requests.get(url=url,headers=headers,proxies=proxies,timeout=10)#在利用find_all()注意要準確定位soup = BeautifulSoup(req.text,'lxml')content = soup.find('table',class_='table')content = content.find('tbody')content = content.find_all('tr')name = []#列表中沒有find_all()方法,故需要利用for語句for each in content:name.append(each.find_all('b')[0].get_text())return name#獲取baby網中所有的的英文名 def get_EnNames(letter,ip_list):for number in range(1,100):url = 'https://www.babyment.com/yingwenming/kaitou.php?start_letter={}&page={}'.format(letter,number)#一個網頁一個網頁的獲取我們需要的英文名name = get_EnNames_list(url,ip_list)#當page遇到最大值時,name就會為空,我們利用這一點進行切換,進入下一個字母的爬取if not name:print('{}開頭的英文名共{}個'.format(letter,number-1))breakfor each in name:#將一個列表分為多個列表,從而實現換行a=[]a.append(each)write_file('A-Z.csv',a)if __name__ == "__main__":ip_list = get_ip_list()for letter in 'ABCDEFGHIJKLMNOPQRSTUVWXYZ':get_EnNames(letter,ip_list)

總結

以上是生活随笔為你收集整理的Python3--baby网的数据爬取的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。