日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

HtmlAgilityPack/xpath

發布時間:2023/12/20 编程问答 40 豆豆
生活随笔 收集整理的這篇文章主要介紹了 HtmlAgilityPack/xpath 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
【轉載】HTML解析利器HtmlAgilityPack
在網上發現了一個.NET下的HTML解析類庫HtmlAgilityPack。HtmlAgilityPack是一個支持用XPath來解析HTML的類庫,在花了一點時間學習了解HtmlAgilityPack的API和XPath之后,周公就做了一個簡單的工具完成了這個功能,目前在CSDN上周公博文的收集地址為:http://blog.csdn.net/zhoufoxcn/archive/2011/06/23/6564578.aspx,在51CTO上周公博文的收集地址為http://zhoufoxcn.blog.51cto.com/792419/595327。HtmlAgilityPack是一個開源的.NET類庫,它的主頁是http://htmlagilitypack.codeplex.com/,在這里可以下載到最新版的類庫及API手冊,此外還可以下載到一個用于調試的輔助工具。

XPath簡明介紹
XPath 使用路徑表達式來選取 XML 文檔中的節點或節點集。節點是通過沿著路徑 (path) 或者步 (steps) 來選取的。
下面列出了最有用的路徑表達式:
nodename:選取此節點的所有子節點。
/:從根節點選取。
//:從匹配選擇的當前節點選擇文檔中的節點,而不考慮它們的位置。
.:選取當前節點。
..:選取當前節點的父節點。
例如有下面一段XML:
  • <?xml version="1.0" encoding="utf-8"?>
  • <Articles>
  • <Article>
  • <Title>在ASP.NET中使用Highcharts js圖表</title>
  • <Url>http://zhoufoxcn.blog.51cto.com/792419/537324</Url>
  • <CreateAt type="en">2011-04-07</price>
  • </Article>
  • <Article>
  • <Title lang="eng">Log4Net使用詳解(續)</title>
  • <Url>http://blog.csdn.net/zhoufoxcn/archive/2010/11/23/6029021.aspx</Url>
  • <CreateAt type="zh-cn">2010年11月23日</price>
  • </Article>
  • <Article>
  • <Title>J2ME開發的一般步驟</title>
  • <Url>http://blog.csdn.net/zhoufoxcn/archive/2011/06/12/6540223.aspx</Url>
  • <CreateAt type="zh-cn">2011年06月12日</price>
  • </Article>
  • <Article>
  • <Title lang="eng">PowerDesign高級應用</title>
  • <Url>http://zhoufoxcn.blog.51cto.com/792419/166415</Url>
  • <CreateAt type="zh-cn">2007-09-08</price>
  • </Article>
  • </Articles>

  • 針對上面的XML文件,我們列出了帶有謂語的一些路徑表達式,以及表達式的結果:
    /Articles/Article[1]:選取屬于Articles子元素的第一個Article元素。
    /Articles/Article[last()]:選取屬于Articles子元素的最后一個Article元素。
    /Articles/Article[last()-1]:選取屬于Articles子元素的倒數第二個Article元素。
    /Articles/Article[position()<3]:選取最前面的兩個屬于 bookstore 元素的子元素的Article元素。
    //title[@lang]:選取所有擁有名為lang的屬性的title元素。
    //CreateAt[@type='zh-cn']:選取所有CreateAt元素,且這些元素擁有值為zh-cn的type屬性。
    /Articles/Article[Order>2]:選取Articles元素的所有Article元素,且其中的Order元素的值須大于2。
    /Articles/Article[Order<3]/Title:選取Articles元素中的Article元素的所有Title元素,且其中的Order元素的值須小于3。

    HtmlAgilityPack API簡明介紹
    在HtmlAgilityPack中常用到的類有HtmlDocument、HtmlNodeCollection、
    HtmlNode和HtmlWeb等。
    其流程一般是先獲取HTML,這個可以通過HtmlDocument的Load()或LoadHtml()來加載靜態內容,或者也可以HtmlWeb的Get()或Load()方法來加載網絡上的URL對應的HTML。
    得到了HtmlDocument的實例之后,就可以用HtmlDocument的DocumentNode屬性,這是整個HTML文檔的根節點,它本身也是一個HtmlNode,然后就可以利用HtmlNode的SelectNodes()方法返回多個HtmlNode的集合對象HtmlNodeCollection,也可以利用HtmlNode的SelectSingleNode()方法返回單個HtmlNode。

    HtmlAgilityPack實戰
    下面是一個解析CSDN博客的代碼實例:

  • using System;
  • using System.Collections.Generic;
  • using System.Text;
  • using HtmlAgilityPack;
  • using System.Text.RegularExpressions;
  • namespace CrawlPageApplication
  • {
  • /**
  • * 作者:周公
  • * 日期:2011-06-23
  • * Blog: http://blog.csdn.net/zhoufoxcn or http://zhoufoxcn.blog.51cto.com
  • * Weibo: http://weibo.com/zhoufoxcn
  • */
  • public class CSDN_Parser
  • {
  • private const string CategoryListXPath = "//html[1]/body[1]/div[1]/div[1]/div[2]/div[1]/div[1]/dl[1]/dd[3]/div[1]/ul[1]/li";
  • private const string CategoryNameXPath = "//li[1]/a[2]";
  • /// <summary>
  • /// 分析博客首頁
  • /// </summary>
  • /// <param name="url"></param>
  • /// <returns></returns>
  • public static List<Category> ParseIndexPage(string url)
  • {
  • Uri uriCategory=null;
  • List<Category> list = new List<Category>(40);
  • HtmlDocument document = new HtmlDocument();
  • //注意,這里省略掉了使用本人其它類庫中加載URL的類,而是直接加載本地的HTML文件
  • //string html = HttpWebUtility.ReadFromUrl(url, Encoding.UTF8);
  • //document.LoadHtml(html);
  • document.Load("CSDN_index.html", Encoding.UTF8);
  • HtmlNode rootNode = document.DocumentNode;
  • HtmlNodeCollection categoryNodeList = rootNode.SelectNodes(CategoryListXPath);
  • HtmlNode temp = null;
  • Category category = null;
  • foreach (HtmlNode categoryNode in categoryNodeList)
  • {
  • temp = HtmlNode.CreateNode(categoryNode.OuterHtml);
  • category = new Category();
  • category.Subject = temp.SelectSingleNode(CategoryNameXPath).InnerText;
  • Uri.TryCreate(UriBase, temp.SelectSingleNode(CategoryNameXPath).Attributes["href"].Value, out uriCategory);
  • category.IndexUrl = uriCategory.ToString();
  • category.PageUrlFormat=category.IndexUrl+"?PageNumber={0}";
  • list.Add(category);
  • Category.CategoryDetails.Add(category.IndexUrl, category);
  • }
  • return list;
  • }
  • }
  • }

  • 當然實現類似的解析51CTO的博客文章數據的代碼如下:

  • using System;
  • using System.Collections.Generic;
  • using System.Text;
  • using HtmlAgilityPack;
  • using System.Text.RegularExpressions;
  • namespace CrawlPageApplication
  • {
  • /**
  • * 作者:周公
  • * 日期:2011-06-23
  • * Blog: http://blog.csdn.net/zhoufoxcn or http://zhoufoxcn.blog.51cto.com
  • * Weibo: http://weibo.com/zhoufoxcn
  • */
  • public class CTO_Parser
  • {
  • private static Encoding PageEncoding = Encoding.GetEncoding("gb2312");
  • private static readonly Uri UriBase = new Uri("http://zhoufoxcn.blog.51cto.com");
  • private static string CategoryListXPath = "/html[1]/body[1]/div[5]/div[1]/div[1]/div[2]/ul[1]/li";
  • private static string CategoryNameXPath = "/li[1]/a[1]";
  • /// <summary>
  • /// 分析博客首頁
  • /// </summary>
  • /// <param name="url"></param>
  • /// <returns></returns>
  • public static List<Category> ParseIndexPage(string url)
  • {
  • Uri uriCategory = null;
  • List<Category> list = new List<Category>(40);
  • HtmlDocument document = new HtmlDocument();
  • //string html = HttpWebUtility.ReadFromUrl(url, PageEncoding);
  • //document.LoadHtml(html);
  • document.Load("51cto_index.html", PageEncoding);
  • HtmlNode rootNode = document.DocumentNode;
  • HtmlNodeCollection categoryNodeList = rootNode.SelectNodes(CategoryListXPath);
  • HtmlNode temp = null;
  • Category category = null;
  • foreach (HtmlNode categoryNode in categoryNodeList)
  • {
  • temp = HtmlNode.CreateNode(categoryNode.OuterHtml);
  • if (temp.SelectSingleNode(CategoryNameXPath).InnerText != "全部文章")
  • {
  • category = new Category();
  • category.Subject = temp.SelectSingleNode(CategoryNameXPath).InnerText;
  • Uri.TryCreate(UriBase, temp.SelectSingleNode(CategoryNameXPath).Attributes["href"].Value, out uriCategory);
  • category.IndexUrl = uriCategory.ToString();
  • category.PageUrlFormat = category.IndexUrl + "/page/{0}";
  • list.Add(category);
  • Category.CategoryDetails.Add(category.IndexUrl, category);
  • }
  • }
  • return list;
  • }
  • }
  • }

  • 在上面的代碼中出現了一個Category類,該類的定義如下:
    為了鼓勵大家動手嘗試以及在本項目中使用了周公的私家類庫,所以不提供全部源代碼下載,這里提供周公操作的最終軟件界面:



    總結:HtmlAgilityPack確實是一個功能強大、體積小的開源HTML解析類庫,在本篇僅僅是介紹了其中幾個類的用法,但光這些就足以供周公快速實現了許久沒有實現的功能,如果讓周公用正則表達式來實現類似的功能,時間肯定要比用這個長得多。
    說明:周公最近也在琢磨一些關于微博的應用,如果有相同愛好者或者在使用微博的讀者,請圍觀周公的微博,網址是:http://weibo.com/zhoufoxcn

    2011-06-24
    周公

    轉載于:https://www.cnblogs.com/wangrsh2010/archive/2011/09/22/2184935.html

    總結

    以上是生活随笔為你收集整理的HtmlAgilityPack/xpath的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。