Python爬虫实现:三连文章参与抽奖
🍅 作者:不吃西紅柿?
🍅 簡(jiǎn)介:CSDN博客專家🏆、HDZ核心組成員💪、C站總榜前10名??
🍅 粉絲專屬福利:簡(jiǎn)歷模板、PPT模板、學(xué)習(xí)資料、面試題庫(kù)。文末領(lǐng)取
🍅 如覺(jué)得文章不錯(cuò),歡迎點(diǎn)贊、收藏、評(píng)論
今日重點(diǎn):
①?掌握簡(jiǎn)單的python技術(shù):爬蟲(chóng)+抽獎(jiǎng)
② 文末領(lǐng)取粉絲專屬福利
③?本文為抽獎(jiǎng)實(shí)現(xiàn)方式和后續(xù)計(jì)劃說(shuō)明,不進(jìn)行抽獎(jiǎng)
背景
為了回饋一直默默支持我的粉絲們,我決定后續(xù)定期發(fā)起【抽獎(jiǎng)活動(dòng)】,我想了2種方式:
1、微信群抽獎(jiǎng)(感謝2000+群友的一直支持)
2、CSDN評(píng)論區(qū)抽獎(jiǎng),在蟬聯(lián)周榜榜一的過(guò)程,少不了你的大力支持,所以必須抽起來(lái),也希望結(jié)識(shí)更多小伙伴,一起交流技術(shù),互幫互助,團(tuán)結(jié)有愛(ài)。
為了保證抽獎(jiǎng)公平公正公開(kāi):
微信群抽獎(jiǎng)采用第三方小程序,CSDN評(píng)論區(qū)抽獎(jiǎng),西紅柿🍅自己寫(xiě)了一個(gè)爬蟲(chóng)+抽獎(jiǎng)程序。
一、爬蟲(chóng)獲取所有評(píng)論
首先我用到了一下 python包
# encoding: utf-8 from bs4 import BeautifulSoup import requests import random import time,os import configparser import jsoncf = configparser.RawConfigParser() cf.read(os.path.join(os.path.dirname(__file__)+"/csdn.conf")) cookie = cf.get("csdn", "cookie")不會(huì)安裝小伙伴自己百度一下哈~
傳入的參數(shù):
# main begin if __name__ == '__main__':# 文章id,天選人數(shù)量(比如抽2本書(shū))articleId ,lucky_cnt = '120337051' , 2# 天選人數(shù)comment_list = get_comments(articleId)lucky = random.sample(comment_list,lucky_cnt)print('獲得實(shí)體書(shū)的%s位幸運(yùn)小伙伴是:'%str(lucky_cnt),lucky)文章id:文章id看自己的鏈接哈!
天選人數(shù)量:即抽獎(jiǎng)數(shù)量,本期西紅柿抽2個(gè)人!包郵宋實(shí)體書(shū),想要什么書(shū),大家也可以選!
獲取所有的評(píng)論
def get_comments(articleId):# 確定評(píng)論的頁(yè)數(shù)main_res = get_commentId(articleId,1)pageCount = json.loads(main_res)['data']['pageCount']comment_list = []for p in range(1,pageCount+1):res = get_commentId(articleId, p)commentIds = json.loads(res)['data']['list']for i in commentIds:nickName = i['info']['nickName']comment_list.append(nickName)print(comment_list)print('文章:' + str(articleId) + ' 丨 評(píng)論數(shù):' + str(len(comment_list)))return comment_list抽獎(jiǎng)
lucky = random.sample(comment_list,lucky_cnt)
# 完整代碼私聊我
2020-09-18 期開(kāi)獎(jiǎng)結(jié)果:
1本小程序:
?2本CSDN評(píng)論區(qū):
🍅 行業(yè)資料:關(guān)注即可領(lǐng)取PPT模板、簡(jiǎn)歷模板、行業(yè)經(jīng)典書(shū)籍PDF。
🍅 交流加群:大佬指點(diǎn)迷津,你的問(wèn)題往往有人遇到過(guò),求資源在群里喊一聲。
🍅 面試題庫(kù):由技術(shù)群里的小伙伴們共同投稿,熱乎的大廠面試真題,持續(xù)更新中。
🍅 學(xué)習(xí)資料:含編程語(yǔ)言、算法、大數(shù)據(jù)生態(tài)圈組件(Mysql、Hive、Spark、Flink)、數(shù)據(jù)倉(cāng)庫(kù)、前端等。
👇👇👇更多粉絲福利👇👇👇
總結(jié)
以上是生活随笔為你收集整理的Python爬虫实现:三连文章参与抽奖的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: 三层神经网络实现手写数字的识别(基于te
- 下一篇: websocket python爬虫_p