日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程语言 > java >内容正文

java

别人家的程序员是如何使用 Java 进行 Web 抓取的?

發布時間:2025/3/18 java 27 豆豆
生活随笔 收集整理的這篇文章主要介紹了 别人家的程序员是如何使用 Java 进行 Web 抓取的? 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

Web抓取非常有用,它可以收集信息供多種用途使用,如數據分析、統計、提供第三方信息,還可以給深神經網絡和深度學習提供數據。

Web抓取是什么?

有一種非常廣泛的誤解,人們似乎把Web抓取和Web爬蟲當成了同一種東西。所以我們先明確這一點。

兩者有個非常顯著的區別:

Web爬蟲,指搜索或“爬”網頁以獲得任意信息的過程。通常是搜索引擎如Google、Yahoo或Bing的功能,以便給我們顯示搜索結果。

Web抓取,指從特定的網站上利用特別定制的自動化軟件手機信息的過程。
創一個小群,供大家學習交流聊
如果有對學JAVA方面有什么疑惑問題的,或者有什么想說的想聊的大家可以一起交流學習一起進步呀
也希望大家對學JAVA能夠持之以恒
JAVA愛好群
如果你想要學好JAVA最好加入一個組織,這樣大家學習的話就比較方便,還能夠共同交流和分享資料,給你推薦一個學習的組織:快樂學習JAVA組織 可以點擊組織二字,可以直達

注意!

盡管Web抓取本身是從網站獲取信息的合法方式,但如果使用不當,可能會變成非法。

有幾種情況需要特別注意:

Web抓取可以被認為是拒絕服務攻擊:發送太多請求來獲取數據會給服務器帶來太多壓力,從而限制了正常用戶訪問網站的能力。

無視版權法和服務條款:因為許多人、許多組織和公司都開發Web抓取軟件來收集信息,給許多網站如Amazon、eBay、LinkedIn、Instagram、Facebook等帶來了不小的麻煩。因此,絕大多數網站都禁止使用抓取軟件獲取他們的數據,你必須獲得書面許可才能收集數據。

Web抓取可被惡意使用:抓取軟件的行為很像機器人,一些框架甚至提供能夠自動填寫并提交表單的工具。因此可以被用作自動垃圾發送工具,甚至能攻擊網站。這也是CAPTCHA存在的原因之一。

如果你想開發一個強大的抓取軟件,請務必考慮以上幾點,遵守法律和法規。

Web抓取框架

就像許多現代科技一樣,從網站提取信息這一功能也有多個框架可以選擇。最流行的有JSoup、HTMLUnit和Selenium WebDriver。我們這篇文章討論JSoup。

JSoup

JSoup是個開源項目,提供強大的數據提取API。可以用它來解析給定URL、文件或字符串中的HTML。它還能操縱HTML元素和屬性。

使用JSoup解析字符串

解析字符串是JSoup的最簡單的使用方式。

public class JSoupExample {

public static void main(String[] args) {String html = "<html><head><title>Website title</title></head><body><p>Sample paragraph number 1 </p><p>Sample paragraph number 2</p></body></html>";Document doc = Jsoup.parse(html);System.out.println(doc.title());Elements paragraphs = doc.getElementsByTag("p");for (Element paragraph : paragraphs) {System.out.println(paragraph.text());}}

這段代碼非常直觀。調用parse()方法可以解析輸入的HTML,將其變成Document對象。調用該對象的方法就能操縱并提取數據。

在上面的例子中,我們首先輸出頁面的標題。然后,我們獲取所有帶有標簽“p”的元素。然后我們依次輸出每個段落的文本。

運行這段代碼,我們可以得到以下輸出:

Website title

Sample paragraph number 1

Sample paragraph number 2
使用JSoup解析URL

解析URL的方法跟解析字符串有點不一樣,但基本原理是相同的:

public class JSoupExample {

public static void main(String[] args) throws IOException {Document doc = Jsoup.connect("https://www.wikipedia.org").get();Elements titles = doc.getElementsByClass("other-project");for (Element title : titles) {System.out.println(title.text());}}

}
要從URL抓取數據,需要調用connect()方法,提供URL作為參數。然后使用get()從連接中獲取HTML。這個例子的輸出為:

Commons Freely usable photos & more

Wikivoyage Free travel guide

Wiktionary Free dictionary

Wikibooks Free textbooks

Wikinews Free news source

Wikidata Free knowledge base

Wikiversity Free course materials

Wikiquote Free quote compendium

MediaWiki Free & open wiki application

Wikisource Free library

Wikispecies Free species directory

Meta-Wiki Community coordination & documentation
可以看到,這個程序抓取了所有class為other-project的元素。

這種方法是最常用的,因此我們看一些通過URL進行抓取的其他例子。

抓取指定URL的所有鏈接

public void allLinksInUrl() throws IOException {

Document doc = Jsoup.connect("https://www.wikipedia.org").get();Elements links = doc.select("a[href]");for (Element link : links) {System.out.println("\nlink : " + link.attr("href"));System.out.println("text : " + link.text());}}

運行結果是一個很長的列表:

Link : //en.wikipedia.org/

Text : English 5 678 000+ articles

Link : //ja.wikipedia.org/

Text : 日本語 1 112 000+ 記事

Link : //es.wikipedia.org/

Text : Espa?ol 1 430 000+ artículos

Link : //de.wikipedia.org/

Text : Deutsch 2 197 000+ Artikel

Link : //ru.wikipedia.org/

Text : Русский 1 482 000+ статей

Link : //it.wikipedia.org/

Text : Italiano 1 447 000+ voci

Link : //fr.wikipedia.org/

Text : Fran?ais 2 000 000+ articles

Link : //zh.wikipedia.org/

Text : 中文 1 013 000+ 條目

<!--A bunch of other languages -->

Text : Wiktionary Free dictionary

Link : //www.wikibooks.org/

Text : Wikibooks Free textbooks

Link : //www.wikinews.org/

Text : Wikinews Free news source

Link : //www.wikidata.org/

Text : Wikidata Free knowledge base

Link : //www.wikiversity.org/

Text : Wikiversity Free course materials

Link : //www.wikiquote.org/

Text : Wikiquote Free quote compendium

Link : //www.mediawiki.org/

Text : MediaWiki Free & open wiki application

Link : //www.wikisource.org/

Text : Wikisource Free library

Link : //species.wikimedia.org/

Text : Wikispecies Free species directory

Link : //meta.wikimedia.org/

Text : Meta-Wiki Community coordination & documentation

Link : https://creativecommons.org/l...

Text : Creative Commons Attribution-ShareAlike License

Link : //meta.wikimedia.org/wiki/Terms_of_Use

Text : Terms of Use

Link : //meta.wikimedia.org/wiki/Privacy_policy

Text : Privacy Policy
與此相似,你還可以得到圖像的數量、元信息、表單參數等一切你能想到的東西,因此經常被用于獲取統計數據。

使用JSoup解析文件

public void parseFile() throws URISyntaxException, IOException {

URL path = ClassLoader.getSystemResource("page.html");File inputFile = new File(path.toURI());Document document = Jsoup.parse(inputFile, "UTF-8");System.out.println(document.title());//parse document in any way}

如果要解析文件,就不需要給網站發送請求,因此不用擔心運行程序會給服務器增添太多負擔。盡管這種方法有許多限制,并且數據是靜態的,因而不適合許多任務,但它提供了分析數據的更合法、更無害的方式。

得到的文檔可以用前面說過的任何方式解析。

設置屬性值

除了讀取字符串、URL和文件并獲取數據之外,我們還能修改數據和輸入表單。

例如,在訪問亞馬遜時,點擊左上角的網站標志,能返回到網站的首頁。

如果想改變這個行為,可以這樣做:

public void setAttributes() throws IOException {

Document doc = Jsoup.connect("https://www.amazon.com").get();Element element = doc.getElementById("nav-logo");System.out.println("Element: " + element.outerHtml());element.children().attr("href", "notamazon.org");System.out.println("Element with set attribute: " + element.outerHtml());}

獲取網站標志的id后,我們可以查看其HTML。還可以訪問它的子元素,并改變其屬性。

Element: <div id="nav-logo">

<span class="nav-logo-base nav-sprite">Amazon</span> <span class="nav-logo-ext nav-sprite"></span> <span class="nav-logo-locale nav-sprite"></span>

Try Prime

</div>

Element with set attribute: <div id="nav-logo">

<span class="nav-logo-base nav-sprite">Amazon</span> <span class="nav-logo-ext nav-sprite"></span> <span class="nav-logo-locale nav-sprite"></span>

Try Prime

</div>
默認情況下,兩個子元素都指向了各自的鏈接。將屬性改變為別的值之后,可以看到子元素的href屬性被更新了。

添加或刪除類

除了設置屬性值之外,我們還可以修改前面的例子,給元素添加或刪除類:

public void changePage() throws IOException {

Document doc = Jsoup.connect("https://www.amazon.com").get();Element element = doc.getElementById("nav-logo");System.out.println("Original Element: " + element.outerHtml());<!--Setting attributes -->element.children().attr("href", "notamazon.org");System.out.println("Element with set attribute: " + element.outerHtml());<!--Adding classes -->element.addClass("someClass");System.out.println("Element with added class: " + element.outerHtml());<!--Removing classes -->element.removeClass("someClass");System.out.println("Element with removed class: " + element.outerHtml());}

運行代碼會給我們以下信息:

Original Element: <div id="nav-logo">

<span class="nav-logo-base nav-sprite">Amazon</span> <span class="nav-logo-ext nav-sprite"></span> <span class="nav-logo-locale nav-sprite"></span>

Try Prime

</div>

Element with set attribute: <div id="nav-logo">

<span class="nav-logo-base nav-sprite">Amazon</span> <span class="nav-logo-ext nav-sprite"></span> <span class="nav-logo-locale nav-sprite"></span>

Try Prime

</div>

Element with added class: <div id="nav-logo" class="someClass">

<span class="nav-logo-base nav-sprite">Amazon</span> <span class="nav-logo-ext nav-sprite"></span> <span class="nav-logo-locale nav-sprite"></span>

Try Prime

</div>

Element with removed class: <div id="nav-logo">

<span class="nav-logo-base nav-sprite">Amazon</span> <span class="nav-logo-ext nav-sprite"></span> <span class="nav-logo-locale nav-sprite"></span>

Try Prime

</div>
可以把新的代碼以.html形式保存到本機,或者通過HTTP請求發送大歐網站上,不過要注意后者可能是非法的。

結論

在許多情況下Web抓取都很有用,但使用時務必要遵守法律。本文介紹了流行的Web抓取框架JSoup,以及使用它解析信息的幾種方式。

總結

以上是生活随笔為你收集整理的别人家的程序员是如何使用 Java 进行 Web 抓取的?的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

主站蜘蛛池模板: 国模福利视频 | 99re在线观看 | www.久久久久久久久久 | 蜜桃视频一区二区三区 | 久久人人爽天天玩人人妻精品 | 天堂岛av| 欧美91精品| 久久久精品人妻无码专区 | 强迫凌虐淫辱の牝奴在线观看 | 欧美一级一区二区三区 | 久久激情综合网 | 四虎精品一区二区 | 喷潮在线| 波多野结衣在线免费视频 | 亚洲视频在线观看网站 | 国产特级av | 中文字幕av片 | 99re这里都是精品 | 亚洲自拍偷拍精品视频 | 电影91久久久 | 欧美黄色大片免费观看 | 日本成人免费视频 | www.精品 | 成人里番精品一区二区 | 四虎国产精品成人免费入口 | 黄网免费在线观看 | 国产精品美女视频 | 国产黄站 | 这里只有精品在线播放 | 日本五十肥熟交尾 | 中文字幕精品三级久久久 | 欧美日韩毛片 | 先锋资源中文字幕 | 久操精品 | 久久99婷婷 | 操女人逼逼视频 | 亚洲成人一二三区 | 中国女人内谢69xxxxⅹ视频 | 色版视频在线观看 | 色姐 | 91福利影院 | 国内精品久久久久久久久久 | 天天爽夜夜爽一区二区三区 | 香蕉在线观看视频 | 北条麻妃一区二区三区四区五区 | 午夜视频网站在线观看 | 日韩激情床戏 | 午夜视频一区二区三区 | 欧美人与性动交α欧美片 | 日日摸日日碰夜夜爽无码 | 3d动漫精品啪啪一区二区免费 | 污到下面流水的视频 | 91在线看视频 | 成人毛片100免费观看 | 最新中文在线视频 | 亚洲国产成人精品无码区99 | 中文字幕无码不卡免费视频 | 在线观看免费观看在线 | 五月婷婷中文字幕 | 国产一级黄色大片 | 亚洲av无一区二区三区 | 国产成人精品一区二区三区视频 | 97超碰国产精品无码蜜芽 | 国产一区二区在线电影 | 国产婷婷色一区二区三区在线 | 特级性生活片 | 在线看福利影 | melody在线高清免费观看 | 国产精品一区二区三区线羞羞网站 | 日韩偷拍一区 | 色撸撸在线观看 | 偷偷色噜狠狠狠狠的777米奇 | 日日干夜夜骑 | 精品在线观看一区 | 久久精品国产亚洲AV无码麻豆 | 国产一级精品毛片 | 影音先锋在线视频观看 | 午夜精品视频一区二区三区在线看 | 深夜福利免费在线观看 | 亚洲亚裔videos黑人hd | 日韩在线一卡 | 国产精品vip | 日韩精品视频久久 | 夜夜嗨视频 | 精品在线免费观看视频 | 国产日韩欧美在线播放 | 中文乱码人妻一区二区三区视频 | 黄色免费看视频 | 老子影院午夜伦不卡大全 | 成人中文字幕在线 | 欧洲国产视频 | 欧美成人自拍视频 | 国产精品高潮视频 | 国产亚洲成av人在线观看导航 | 一卡二卡三卡 | 色婷婷欧美| 91极品尤物 | 日日干日日射 | 你懂的91 |