日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程语言 > C# >内容正文

C#

C#最基本的小说爬虫

發(fā)布時(shí)間:2025/3/21 C# 32 豆豆
生活随笔 收集整理的這篇文章主要介紹了 C#最基本的小说爬虫 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

新手學(xué)習(xí)C#,自己折騰弄了個(gè)簡單的小說爬蟲,實(shí)現(xiàn)了把小說內(nèi)容爬下來寫入txt,還只能爬指定網(wǎng)站。

第一次搞爬蟲,涉及到了網(wǎng)絡(luò)協(xié)議,正則表達(dá)式,弄得手忙腳亂跑起來效率還差勁,慢慢改吧。

爬的目標(biāo):http://www.166xs.com/xiaoshuo/83/83557/

?

?

?

?

?

一、先寫HttpWebRequest把網(wǎng)站扒下來

這里有幾個(gè)坑,大概說下:

第一個(gè)就是記得弄個(gè)代理IP爬網(wǎng)站,第一次忘了弄代理然后ip就被封了。。。。。

第二個(gè)就是要判斷網(wǎng)頁是否壓縮,第一次沒弄結(jié)果各種轉(zhuǎn)碼gbk utf都是亂碼。后面解壓就好了。

/// <summary>/// 抓取網(wǎng)頁并轉(zhuǎn)碼/// </summary>/// <param name="url"></param>/// <param name="post_parament"></param>/// <returns></returns>public string HttpGet(string url, string post_parament){string html;HttpWebRequest Web_Request = (HttpWebRequest)WebRequest.Create(url);Web_Request.Timeout = 30000;Web_Request.Method = "GET";Web_Request.UserAgent = "Mozilla/4.0";Web_Request.Headers.Add("Accept-Encoding", "gzip, deflate");//Web_Request.Credentials = CredentialCache.DefaultCredentials;//設(shè)置代理屬性WebProxy-------------------------------------------------WebProxy proxy = new WebProxy("111.13.7.120", 80);//在發(fā)起HTTP請(qǐng)求前將proxy賦值給HttpWebRequest的Proxy屬性Web_Request.Proxy = proxy;HttpWebResponse Web_Response = (HttpWebResponse)Web_Request.GetResponse();if (Web_Response.ContentEncoding.ToLower() == "gzip") // 如果使用了GZip則先解壓 {using (Stream Stream_Receive = Web_Response.GetResponseStream()){using (var Zip_Stream = new GZipStream(Stream_Receive, CompressionMode.Decompress)){using (StreamReader Stream_Reader = new StreamReader(Zip_Stream, Encoding.Default)){html = Stream_Reader.ReadToEnd();}}}}else{using (Stream Stream_Receive = Web_Response.GetResponseStream()){using (StreamReader Stream_Reader = new StreamReader(Stream_Receive, Encoding.Default)){html = Stream_Reader.ReadToEnd();}}}return html;}

?

?

二、下面就是用正則處理內(nèi)容了,由于正則表達(dá)式不熟悉所以重復(fù)動(dòng)作太多。

1.先獲取網(wǎng)頁內(nèi)容

IWebHttpRepository webHttpRepository = new WebHttpRepository();string html = webHttpRepository.HttpGet(Url_Txt.Text, "");

?

2.獲取書名和文章列表

書名

?

?文章列表

?

string Novel_Name = Regex.Match(html, @"(?<=<h1>)([\S\s]*?)(?=</h1>)").Value; //獲取書名 Regex Regex_Menu = new Regex(@"(?is)(?<=<dl class=""book_list"">).+?(?=</dl>)");string Result_Menu = Regex_Menu.Match(html).Value; //獲取列表內(nèi)容 Regex Regex_List = new Regex(@"(?is)(?<=<dd>).+?(?=</dd>)");var Result_List = Regex_List.Matches(Result_Menu); //獲取列表集合

?

3.因?yàn)檎鹿?jié)列表前面有多余的<dd>,所以要剔除

int i = 0; //計(jì)數(shù)string Menu_Content = ""; //所有章節(jié)foreach (var x in Result_List){if (i < 4){//前面五個(gè)都不是章節(jié)列表,所以剔除 }else{Menu_Content += x.ToString();}i++;}

?

4.然后獲取<a>的href和innerHTML,然后遍歷訪問獲得內(nèi)容和章節(jié)名稱并處理,然后寫入txt

Regex Regex_Href = new Regex(@"(?is)<a[^>]*?href=(['""]?)(?<url>[^'""\s>]+)\1[^>]*>(?<text>(?:(?!</?a\b).)*)</a>");MatchCollection Result_Match_List = Regex_Href.Matches(Menu_Content); //獲取href鏈接和a標(biāo)簽 innerHTML string Novel_Path = Directory.GetCurrentDirectory() + "\\Novel\\" + Novel_Name + ".txt"; //小說地址 File.Create(Novel_Path).Close();StreamWriter Write_Content = new StreamWriter(Novel_Path);foreach (Match Result_Single in Result_Match_List){string Url_Text = Result_Single.Groups["url"].Value;string Content_Text = Result_Single.Groups["text"].Value;string Content_Html = webHttpRepository.HttpGet(Url_Txt.Text + Url_Text, "");//獲取內(nèi)容頁 Regex Rege_Content = new Regex(@"(?is)(?<=<p class=""Book_Text"">).+?(?=</p>)");string Result_Content = Rege_Content.Match(Content_Html).Value; //獲取文章內(nèi)容 Regex Regex_Main = new Regex(@"(&nbsp;&nbsp;&nbsp;&nbsp;)(.*)");string Rsult_Main = Regex_Main.Match(Result_Content).Value; //正文 string Screen_Content = Rsult_Main.Replace("&nbsp;", "").Replace("<br />", "\r\n");Write_Content.WriteLine(Content_Text + "\r\n");//寫入標(biāo)題Write_Content.WriteLine(Screen_Content);//寫入內(nèi)容 }Write_Content.Dispose();Write_Content.Close();MessageBox.Show(Novel_Name+".txt 創(chuàng)建成功!");System.Diagnostics.Process.Start(Directory.GetCurrentDirectory() + "\\Novel\\");

?

三、小說寫入成功

?

轉(zhuǎn)載于:https://www.cnblogs.com/xinyibufang/p/7615400.html

總結(jié)

以上是生活随笔為你收集整理的C#最基本的小说爬虫的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。

主站蜘蛛池模板: 啪啪官网 | 欧美少妇诱惑 | 免费黄网在线观看 | 欧美成人做爰大片免费看黄石 | 国产黄色自拍视频 | 小萝莉末成年一区二区 | 亚洲一道本| 日韩成人av一区 | 成年人精品 | 国产午夜一级 | 91高清免费视频 | 久久国产一区 | 欧美久久天堂 | 日韩狠狠| 亚洲日本香蕉视频 | 中日韩在线播放 | 三区在线观看 | 成人毛片网站 | 精品欧美乱码久久久久久 | 在线成人黄色 | 男人的影院 | 日本一区二区三区在线观看 | 多男调教一女折磨高潮高h 国内毛片毛片毛片毛片毛片 | 小俊大肉大捧一进一出好爽 | 91久久一区二区三区 | 欧美黄色免费大片 | 国产男男一区二区三区 | 日本乱偷中文字幕 | 色屁屁草草影院ccyycom | 成人毛片观看 | 丰满岳乱妇国产精品一区 | 欧美视频亚洲视频 | 伊人影院综合 | 欧美三级日本三级 | 成人97| 免费的一级黄色片 | 波多野吉衣久久 | 美女隐私免费网站 | 国产精品色片 | 天天插天天色 | 久久久久久99精品 | 精品第一页 | 91福利视频免费观看 | 荷兰av | 国产性猛交xxxx免费看久久 | 中文字幕亚洲一区 | 丁香婷婷深情五月亚洲 | 中文字幕一区二 | 别揉我奶头一区二区三区 | 97精品人妻一区二区 | 一色桃子juy758在线播放 | 天堂成人国产精品一区 | av五十路 | 伊人网综合视频 | 婷婷天堂 | 91成人在线 | 女同毛片一区二区三区 | 午夜精品视频在线 | 亚洲爆乳无码精品aaa片蜜桃 | 五月婷婷激情视频 | 久久久青草| 伊人99热 | 天天操天天曰 | 中文字幕一二三四 | av私库在线观看 | 理论片在线观看视频 | 蜜臀av性久久久久蜜臀aⅴ流畅 | 99re这里都是精品 | 亚洲乱码一区二区 | 国产情侣av自拍 | 99国产精品久久久久久久久久久 | 欧美做受高潮中文字幕 | 精品黄色在线观看 | 国产a国产片国产 | 日本特级黄色录像 | 欧美日韩一区二区在线观看 | xxx69美国 | a级欧美| 丁香六月色 | 日本www| 67194在线免费观看 | 成人av综合网 | 91成人免费版 | 精品午夜福利在线观看 | 精品人妻中文无码av在线 | 天天干网站 | 天天操国产 | 大尺度做爰床戏呻吟舒畅 | 亚洲另类av| 亚洲av无码一区二区三区性色 | 天堂资源| 久久性感视频 | 91福利视频在线观看 | 黄色av高清 | 久久久久女人精品毛片九一 | 国产午夜精品视频 | 一区二区三区在线视频观看 | 性做久久| a网站在线观看 |