日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

通过网页查看服务器算法,java分析html算法(java网页蜘蛛算法示例)

發布時間:2023/12/3 编程问答 19 豆豆
生活随笔 收集整理的這篇文章主要介紹了 通过网页查看服务器算法,java分析html算法(java网页蜘蛛算法示例) 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

遇到復雜而繁瑣的html頁面大家都望而卻步。因為很難獲取到相應的數據。

最古老的辦法的是嘗試用正則表達式,估計那么繁瑣的東西得不償失,浪費我們寶貴的時間。

第二個辦法用開源組織htmlparser的包,這個是一個比較老的項目,但是效果估計不是很好,好像不可以深入分析html,只能分析5級的結構;

我這里有個htmlparser的源代碼,可以獲取所有的超鏈接的

/*

* To change this template, choose Tools | Templates

* and open the template in the editor.

*/

package test;

import java.util.HashMap;

import java.util.Map;

import org.htmlparser.Node;

import org.htmlparser.NodeFilter;

import org.htmlparser.Parser;

import org.htmlparser.tags.LinkTag;

import org.htmlparser.util.NodeList;

public class GetLinkTest {

public static void main(String[] args) {

try {

// 通過過濾器過濾出標簽

Parser parser = new Parser("//www.zzvips.com");

NodeList nodeList = parser.extractAllNodesThatMatch(new NodeFilter() {

// 實現該方法,用以過濾標簽

public boolean accept(Node node) {

if (node instanceof LinkTag)// 標記

{

return true;

}

return false;

}

});

// 打印

for (int i = 0; i < nodeList.size(); i++) {

LinkTag n = (LinkTag) nodeList.elementAt(i);

//System.out.print(n.getStringText() + " ==>> ");

//System.out.println(n.extractLink());

try {

if (n.extractLink().equals("//www.zzvips.com")) {

System.out.println(n.extractLink());

}

} catch (Exception e) {

}

}

} catch (Exception e) {

e.printStackTrace();

}

}

}

第三個辦法,也是我現在一直在用的辦法,首先把html清理為xml,然后用java解析xml獲取數據,現在上傳一個java clean html的源代碼:

/*

* To change this template, choose Tools | Templates

* and open the template in the editor.

*/

package exec;

import java.io.File;

import java.io.IOException;

import org.htmlcleaner.CleanerProperties;

import org.htmlcleaner.HtmlCleaner;

import org.htmlcleaner.PrettyXmlSerializer;

import org.htmlcleaner.TagNode;

/**

*

*/

public class HtmlClean {

public void cleanHtml(String htmlurl, String xmlurl) {

try {

long start = System.currentTimeMillis();

HtmlCleaner cleaner = new HtmlCleaner();

CleanerProperties props = cleaner.getProperties();

props.setUseCdataForScriptAndStyle(true);

props.setRecognizeUnicodeChars(true);

props.setUseEmptyElementTags(true);

props.setAdvancedXmlEscape(true);

props.setTranslateSpecialEntities(true);

props.setBooleanAttributeValues("empty");

TagNode node = cleaner.clean(new File(htmlurl));

System.out.println("vreme:" + (System.currentTimeMillis() - start));

new PrettyXmlSerializer(props).writeXmlToFile(node, xmlurl);

System.out.println("vreme:" + (System.currentTimeMillis() - start));

} catch (IOException e) {

e.printStackTrace();

}

}

}

創作挑戰賽新人創作獎勵來咯,堅持創作打卡瓜分現金大獎

總結

以上是生活随笔為你收集整理的通过网页查看服务器算法,java分析html算法(java网页蜘蛛算法示例)的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。