最近2018中文字幕在日韩欧美国产成人片_国产日韩精品一区二区在线_在线观看成年美女黄网色视频_国产精品一区三区五区_国产精彩刺激乱对白_看黄色黄大色黄片免费_人人超碰自拍cao_国产高清av在线_亚洲精品电影av_日韩美女尤物视频网站

RELATEED CONSULTING
相關(guān)咨詢
選擇下列產(chǎn)品馬上在線溝通
服務(wù)時(shí)間:8:30-17:00
你可能遇到了下面的問題
關(guān)閉右側(cè)工具欄

新聞中心

這里有您想知道的互聯(lián)網(wǎng)營銷解決方案
如何構(gòu)造C#語言的爬蟲蜘蛛程序

這篇文章主要介紹了如何構(gòu)造C#語言的爬蟲蜘蛛程序的相關(guān)知識(shí),內(nèi)容詳細(xì)易懂,操作簡單快捷,具有一定借鑒價(jià)值,相信大家閱讀完這篇如何構(gòu)造C#語言的爬蟲蜘蛛程序文章都會(huì)有所收獲,下面我們一起來看看吧。

成都創(chuàng)新互聯(lián)公司是一家專業(yè)提供明水企業(yè)網(wǎng)站建設(shè),專注與做網(wǎng)站、成都做網(wǎng)站、成都h5網(wǎng)站建設(shè)、小程序制作等業(yè)務(wù)。10年已為明水眾多企業(yè)、政府機(jī)構(gòu)等服務(wù)。創(chuàng)新互聯(lián)專業(yè)的建站公司優(yōu)惠進(jìn)行中。

C#特別適合于構(gòu)造蜘蛛程序,這是因?yàn)樗呀?jīng)內(nèi)置了HTTP訪問和多線程的能力,而這兩種能力對(duì)于蜘蛛程序來說都是非常關(guān)鍵的。下面是構(gòu)造一個(gè)蜘蛛程序要解決的關(guān)鍵問題:

⑴ HTML分析:需要某種HTML解析器來分析蜘蛛程序遇到的每一個(gè)頁面。

⑵ 頁面處理:需要處理每一個(gè)下載得到的頁面。下載得到的內(nèi)容可能要保存到磁盤,或者進(jìn)一步分析處理。

⑶ 多線程:只有擁有多線程能力,蜘蛛程序才能真正做到高效。

⑷ 確定何時(shí)完成:不要小看這個(gè)問題,確定任務(wù)是否已經(jīng)完成并不簡單,尤其是在多線程環(huán)境下。

一、HTML解析

本文提供的HTML解析器由ParseHTML類實(shí)現(xiàn),使用非常方便:首先創(chuàng)建該類的一個(gè)實(shí)例,然后將它的Source屬性設(shè)置為要解析的HTML文檔:

ParseHTML parse = new ParseHTML();

parse.Source = "

Hello World

";

接下來就可以利用循環(huán)來檢查HTML文檔包含的所有文本和標(biāo)記。通常,檢查過程可以從一個(gè)測試Eof方法的while循環(huán)開始:

while(!parse.Eof())

{

char ch = parse.Parse();

Parse方法將返回HTML文檔包含的字符--它返回的內(nèi)容只包含那些非HTML標(biāo)記的字符,如果遇到了HTML標(biāo)記,Parse方法將返回0值,表示現(xiàn)在遇到了一個(gè)HTML標(biāo)記。遇到一個(gè)標(biāo)記之后,我們可以用GetTag()方法來處理它。

if(ch==0)

{

HTMLTag tag = parse.GetTag();

}

一般地,蜘蛛程序最重要的任務(wù)之一就是找出各個(gè)HREF屬性,這可以借助C#的索引功能完成。例如,下面的代碼將提取出HREF屬性的值(如果存在的話)。

Attribute href = tag["HREF"];

string link = href.Value;

獲得Attribute對(duì)象之后,通過Attribute.Value可以得到該屬性的值。

二、處理HTML頁面

下面來看看如何處理HTML頁面。首先要做的當(dāng)然是下載HTML頁面,這可以通過C#提供的HttpWebRequest類實(shí)現(xiàn):

HttpWebRequest request = (HttpWebRequest)WebRequest.Create(m_uri);

response = request.GetResponse();

stream = response.GetResponseStream();

接下來我們就從request創(chuàng)建一個(gè)stream流。在執(zhí)行其他處理之前,我們要先確定該文件是二進(jìn)制文件還是文本文件,不同的文件類型處理方式也不同。下面的代碼確定該文件是否為二進(jìn)制文件。

if( !response.ContentType.ToLower().StartsWith("text/") )

{

SaveBinaryFile(response);

return null;

}

string buffer = "",line;

如果該文件不是文本文件,我們將它作為二進(jìn)制文件讀入。如果是文本文件,首先從stream創(chuàng)建一個(gè)StreamReader,然后將文本文件的內(nèi)容一行一行加入緩沖區(qū)。

reader = new StreamReader(stream);

while( (line = reader.ReadLine())!=null )

{

buffer+=line+"rn";

}

裝入整個(gè)文件之后,接著就要把它保存為文本文件。

SaveTextFile(buffer);

下面來看看這兩類不同文件的存儲(chǔ)方式。

二進(jìn)制文件的內(nèi)容類型聲明不以"text/"開頭,蜘蛛程序直接把二進(jìn)制文件保存到磁盤,不必進(jìn)行額外的處理,這是因?yàn)槎M(jìn)制文件不包含HTML,因此也不會(huì)再有需要蜘蛛程序處理的HTML鏈接。下面是寫入二進(jìn)制文件的步驟。

首先準(zhǔn)備一個(gè)緩沖區(qū)臨時(shí)地保存二進(jìn)制文件的內(nèi)容。 byte []buffer = new byte[1024];

接下來要確定文件保存到本地的路徑和名稱。如果要把一個(gè)myhost.com網(wǎng)站的內(nèi)容下載到本地的c:test文件夾,二進(jìn)制文件的網(wǎng)上路徑和名稱是與此同時(shí),我們還要確保c:test目錄下已經(jīng)創(chuàng)建了images子目錄。這部分任務(wù)由convertFilename方法完成。

string filename = convertFilename( response.ResponseUri );

convertFilename方法分離HTTP地址,創(chuàng)建相應(yīng)的目錄結(jié)構(gòu)。確定了輸出文件的名字和路徑之后就可以打開讀取Web頁面的輸入流、寫入本地文件的輸出流。

Stream outStream = File.Create( filename );

Stream inStream = response.GetResponseStream();

接下來就可以讀取Web文件的內(nèi)容并寫入到本地文件,這可以通過一個(gè)循環(huán)方便地完成。

int l;

do

{

l = inStream.Read(buffer,0,

buffer.Length);

if(l>0)

outStream.Write(buffer,0,l);

} while(l>0);

三、多線程

我們用DocumentWorker類封裝所有下載一個(gè)URL的操作。每當(dāng)一個(gè)DocumentWorker的實(shí)例被創(chuàng)建,它就進(jìn)入循環(huán),等待下一個(gè)要處理的URL。下面是DocumentWorker的主循環(huán):

while(!m_spider.Quit )

{

m_uri = m_spider.ObtainWork();

?

m_spider.SpiderDone.WorkerBegin();

string page = GetPage();

if(page!=null)

ProcessPage(page);

m_spider.SpiderDone.WorkerEnd();

}

這個(gè)循環(huán)將一直運(yùn)行,直至Quit標(biāo)記被設(shè)置成了true(當(dāng)用戶點(diǎn)擊"Cancel"按鈕時(shí),Quit標(biāo)記就被設(shè)置成true)。在循環(huán)之內(nèi),我們調(diào)用ObtainWork獲取一個(gè)URL。ObtainWork將一直等待,直到有一個(gè)URL可用--這要由其他線程解析文檔并尋找鏈接才能獲得。Done類利用WorkerBegin和WorkerEnd方法來確定何時(shí)整個(gè)下載操作已經(jīng)完成。

從圖一可以看出,蜘蛛程序允許用戶自己確定要使用的線程數(shù)量。在實(shí)踐中,線程的最佳數(shù)量受許多因素影響。如果你的機(jī)器性能較高,或者有兩個(gè)處理器,可以設(shè)置較多的線程數(shù)量;反之,如果網(wǎng)絡(luò)帶寬、機(jī)器性能有限,設(shè)置太多的線程數(shù)量其實(shí)不一定能夠提高性能。

四、任務(wù)完成了嗎?

利用多個(gè)線程同時(shí)下載文件有效地提高了性能,但也帶來了線程管理方面的問題。其中最復(fù)雜的一個(gè)問題是:蜘蛛程序何時(shí)才算完成了工作?在這里我們要借助一個(gè)專用的類Done來判斷。

? 首先有必要說明一下"完成工作"的具體含義。只有當(dāng)系統(tǒng)中不存在等待下載的URL,而且所有工作線程都已經(jīng)結(jié)束其處理工作時(shí),蜘蛛程序的工作才算完成。也就是說,完成工作意味著已經(jīng)沒有等待下載和正在下載的URL。

Done類提供了一個(gè)WaitDone方法,它的功能是一直等待,直到Done對(duì)象檢測到蜘蛛程序已完成工作。下面是WaitDone方法的代碼。

public void WaitDone()

{

Monitor.Enter(this);

while ( m_activeThreads>0 )

{

Monitor.Wait(this);

}

Monitor.Exit(this);

}

WaitDone方法將一直等待,直到不再有活動(dòng)的線程。但必須注意的是,下載開始的最初階段也沒有任何活動(dòng)的線程,所以很容易造成蜘蛛程序一開始就立即停止的現(xiàn)象。為解決這個(gè)問題,我們還需要另一個(gè)方法WaitBegin來等待蜘蛛程序進(jìn)入"正式的"工作階段。一般的調(diào)用次序是:先調(diào)用WaitBegin,再接著調(diào)用WaitDone,WaitDone將等待蜘蛛程序完成工作。下面是WaitBegin的代碼:

public void WaitBegin()

{

Monitor.Enter(this);

while ( !m_started )

{

Monitor.Wait(this);

}

Monitor.Exit(this);

}

WaitBegin方法將一直等待,直到m_started標(biāo)記被設(shè)置。m_started標(biāo)記是由WorkerBegin方法設(shè)置的。工作線程在開始處理各個(gè)URL之時(shí),會(huì)調(diào)用WorkerBegin;處理結(jié)束時(shí)調(diào)用WorkerEnd。WorkerBegin和WorkerEnd這兩個(gè)方法幫助Done對(duì)象確定當(dāng)前的工作狀態(tài)。下面是WorkerBegin方法的代碼:

public void WorkerBegin()

{

Monitor.Enter(this);

m_activeThreads++;

m_started = true;

Monitor.Pulse(this);

Monitor.Exit(this);

}

WorkerBegin方法首先增加當(dāng)前活動(dòng)線程的數(shù)量,接著設(shè)置m_started標(biāo)記,最后調(diào)用Pulse方法以通知(可能存在的)等待工作線程啟動(dòng)的線程。如前所述,可能等待Done對(duì)象的方法是WaitBegin方法。每處理完一個(gè)URL,WorkerEnd方法會(huì)被調(diào)用:

?

public void WorkerEnd()

{

Monitor.Enter(this);

m_activeThreads--;

Monitor.Pulse(this);

Monitor.Exit(this);

}

WorkerEnd方法減小m_activeThreads活動(dòng)線程計(jì)數(shù)器,調(diào)用Pulse釋放可能在等待Done對(duì)象的線程--如前所述,可能在等待Done對(duì)象的方法是WaitDone方法。

關(guān)于“如何構(gòu)造C#語言的爬蟲蜘蛛程序”這篇文章的內(nèi)容就介紹到這里,感謝各位的閱讀!相信大家對(duì)“如何構(gòu)造C#語言的爬蟲蜘蛛程序”知識(shí)都有一定的了解,大家如果還想學(xué)習(xí)更多知識(shí),歡迎關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道。


文章題目:如何構(gòu)造C#語言的爬蟲蜘蛛程序
文章起源:http://fisionsoft.com.cn/article/gisspg.html