日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程语言 > python >内容正文

python

python做一个爬虫要用到什么软件_python实现简单爬虫功能

發布時間:2023/12/9 python 26 豆豆
生活随笔 收集整理的這篇文章主要介紹了 python做一个爬虫要用到什么软件_python实现简单爬虫功能 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

在我們日常上網瀏覽網頁的時候,經常會看到一些好看的圖片,我們就希望把這些

圖片保存下載,或者用戶用來做桌面壁紙,或者用來做設計的素材。

我們最常規的做法就是通過鼠標右鍵,選擇另存為。但有些圖片鼠標右鍵的時

候并沒有另存為選項,還有辦法就通過就是通過截圖工具截取下來,但這樣就降低

圖片的清晰度。好吧~!其實你很厲害的,右鍵查看頁面源代碼。

我們可以通過

python

來實現這樣一個簡單的爬蟲功能,把我們想要的代碼爬

取到本地。下面就看看如何使用

python

來實現這樣一個功能。

一,獲取整個頁面數據

首先我們可以先獲取要下載圖片的整個頁面信息。

getjpg.py

#coding=utf-8

import

urllib

def

getHtml(url):

page?=?urllib.urlopen(url)

html?=?page.read()

return

html

html?=?getHtml(

"http://tieba.baidu.com/p/2738151262"

)

print

html

Urllib

模塊提供了讀取

web

頁面數據的接口,我們可以像讀取本地文件一樣讀

www

ftp

上的數據。首先,我們定義了一個

getHtml()

函數

:

urllib.urlopen()

方法用于打開一個

URL

地址。

read()

方法用于讀取

URL

上的數據,向

getHtml()

函數傳遞一個網址,并把整

個頁面下載下來。執行程序就會把整個網頁打印輸出。

二,篩選頁面中想要的數據

Python

提供了非常強大的正則表達式,我們需要先要了解一點

python

正則表

達式的知識才行。

http://www.cnblogs.com/fnng/archive/2013/05/20/3089816.html

假如我們百度貼吧找到了幾張漂亮的壁紙,通過到前段查看工具。找到了圖片的地

址,如:

src=”http://imgsrc.baidu.com/forum......jpg”

pic_ext=”jpeg”

修改代碼如下:

import

re

import

urllib

def

getHtml(url):

總結

以上是生活随笔為你收集整理的python做一个爬虫要用到什么软件_python实现简单爬虫功能的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。