訂閱
糾錯(cuò)
加入自媒體

深挖網(wǎng)絡(luò)爬蟲(chóng)技術(shù)及Crawl4J應(yīng)用

什么是網(wǎng)絡(luò)爬蟲(chóng)

網(wǎng)絡(luò)爬蟲(chóng)(又被稱(chēng)為網(wǎng)頁(yè)蜘蛛,網(wǎng)絡(luò)機(jī)器人,在FOAF社區(qū)中間,更經(jīng)常的稱(chēng)為網(wǎng)頁(yè)追逐者),是一種按照一定的規(guī)則,自動(dòng)地抓取萬(wàn)維網(wǎng)信息的程序或者腳本。另外一些不常使用的名字還有螞蟻、自動(dòng)索引、模擬程序或者蠕蟲(chóng)。

——來(lái)源:百度百科

網(wǎng)絡(luò)爬蟲(chóng)是通過(guò)網(wǎng)頁(yè)的鏈接地址來(lái)尋找網(wǎng)頁(yè),它通過(guò)特定的搜索算法來(lái)確定路線(xiàn),通常從網(wǎng)站的某一個(gè)頁(yè)面開(kāi)始,讀取網(wǎng)頁(yè)的內(nèi)容,找到在網(wǎng)頁(yè)中的其它鏈接地址,然后通過(guò)這些鏈接地址尋找下一個(gè)網(wǎng)頁(yè),根據(jù)深度優(yōu)先算法或者廣度優(yōu)先算法一直循環(huán)下去,直到把這個(gè)網(wǎng)站滿(mǎn)足條件的所有網(wǎng)頁(yè)都抓取完為止。

網(wǎng)絡(luò)爬蟲(chóng)的工作原理

在網(wǎng)絡(luò)爬蟲(chóng)的系統(tǒng)框架中,主過(guò)程由控制器,解析器,資源庫(kù)三部分組成。控制器的主要工作是負(fù)責(zé)給多線(xiàn)程中的各個(gè)爬蟲(chóng)線(xiàn)程分配工作任務(wù)。解析器的主要工作是下載網(wǎng)頁(yè),進(jìn)行頁(yè)面的處理,主要是將一些JS腳本標(biāo)簽、CSS代碼內(nèi)容、空格字符、HTML標(biāo)簽等內(nèi)容處理掉,爬蟲(chóng)的基本工作是由解析器完成。資源庫(kù)是用來(lái)存放下載到的網(wǎng)頁(yè)資源,一般都采用大型的數(shù)據(jù)庫(kù)存儲(chǔ),如Oracle數(shù)據(jù)庫(kù),并對(duì)其建立索引。

控制器:控制器是網(wǎng)絡(luò)爬蟲(chóng)的中央控制器,它主要是負(fù)責(zé)根據(jù)系統(tǒng)傳過(guò)來(lái)的URL鏈接,從線(xiàn)程池中分配一個(gè)線(xiàn)程,然后啟動(dòng)該線(xiàn)程調(diào)用爬蟲(chóng)爬取網(wǎng)頁(yè)的過(guò)程。

解析器:解析器是負(fù)責(zé)網(wǎng)絡(luò)爬蟲(chóng)的主要部分,其負(fù)責(zé)的工作主要有:下載網(wǎng)頁(yè)的內(nèi)容,對(duì)網(wǎng)頁(yè)的文本進(jìn)行處理,如過(guò)濾功能,抽取特殊HTML標(biāo)簽的功能,分析數(shù)據(jù)功能。

資源庫(kù):主要是用來(lái)存儲(chǔ)網(wǎng)頁(yè)中下載下來(lái)的數(shù)據(jù)記錄的容器,并提供生成索引的目標(biāo)源。

網(wǎng)絡(luò)爬蟲(chóng)的流程

圖1:網(wǎng)絡(luò)爬蟲(chóng)的流程

1. 發(fā)起請(qǐng)求:向目標(biāo)URL站點(diǎn)發(fā)起HTTP請(qǐng)求報(bào)文(請(qǐng)求頭,請(qǐng)求體等),等待服務(wù)器響應(yīng)。請(qǐng)求可根據(jù)需要來(lái)設(shè)定是否需要包含額外的請(qǐng)求頭或者請(qǐng)求體內(nèi)容。

2. 獲取響應(yīng)內(nèi)容:如果服務(wù)器能正常響應(yīng),此時(shí)會(huì)得到一個(gè)Response,Response的內(nèi)容即是所要獲取的頁(yè)面內(nèi)容,類(lèi)型可能有HTML,Json字符串,二進(jìn)制數(shù)據(jù)(如圖片視頻)等類(lèi)型。

3. 解析內(nèi)容:解析得到的請(qǐng)求響應(yīng)內(nèi)容,然后對(duì)數(shù)據(jù)進(jìn)行進(jìn)一步加工處理。對(duì)請(qǐng)求響應(yīng)內(nèi)容如是HTML,可以用正則表達(dá)式、網(wǎng)頁(yè)解析庫(kù)進(jìn)行解析;如是Json,可以直接轉(zhuǎn)為Json對(duì)象解析等;如是URL且滿(mǎn)足條件則繼續(xù)發(fā)起新的HTTP請(qǐng)求。

4. 保存數(shù)據(jù):將解析加工后的數(shù)據(jù)進(jìn)行保存處理?梢员4鏋槲谋荆翑(shù)據(jù)庫(kù),或保存特定格式的文件(圖片視頻等)。

網(wǎng)絡(luò)爬蟲(chóng)技術(shù)Crawl4J應(yīng)用

1. 技術(shù)介紹

Crawl4J:是一個(gè)輕量級(jí)且支持多線(xiàn)程網(wǎng)絡(luò)爬蟲(chóng)技術(shù),開(kāi)發(fā)者可以調(diào)用相應(yīng)的接口和設(shè)定響應(yīng)的參數(shù)配置在短時(shí)間內(nèi)創(chuàng)建一個(gè)網(wǎng)絡(luò)爬蟲(chóng)應(yīng)用。

Jsoup:jsoup 是一款HTML解析器,可直接解析某個(gè)URL地址、HTML文本內(nèi)容。它提供了一套非常省力的API,可通過(guò)DOM,CSS以及類(lèi)似于JavaScript的操作方法來(lái)取出和操作數(shù)據(jù)。適用于單網(wǎng)頁(yè)數(shù)據(jù)抓取或靜態(tài)HTML內(nèi)容解析。

因此在項(xiàng)目中我們可以通過(guò)網(wǎng)絡(luò)爬蟲(chóng)Crawl4J技術(shù)進(jìn)行爬取網(wǎng)頁(yè)內(nèi)容,然后通過(guò)Jsoup技術(shù)對(duì)響應(yīng)結(jié)果進(jìn)行解析,并提取滿(mǎn)足條件的內(nèi)容。

2. 項(xiàng)目示例

接下來(lái)我們以抓取CSDN博客首頁(yè)被推薦文章的為例子,定向采集每篇博客的標(biāo)題,時(shí)間,閱讀量。

具體實(shí)現(xiàn)步驟如下:

Maven依賴(lài)Jar包:

<dependency>

<groupId>edu.uci.ics</groupId>

<artifactId>crawler4j</artifactId>

<version>4.3</version>

</dependency>

控制器:

1  2  下一頁(yè)>  
聲明: 本文由入駐維科號(hào)的作者撰寫(xiě),觀(guān)點(diǎn)僅代表作者本人,不代表OFweek立場(chǎng)。如有侵權(quán)或其他問(wèn)題,請(qǐng)聯(lián)系舉報(bào)。

發(fā)表評(píng)論

0條評(píng)論,0人參與

請(qǐng)輸入評(píng)論內(nèi)容...

請(qǐng)輸入評(píng)論/評(píng)論長(zhǎng)度6~500個(gè)字

您提交的評(píng)論過(guò)于頻繁,請(qǐng)輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無(wú)評(píng)論

暫無(wú)評(píng)論

    掃碼關(guān)注公眾號(hào)
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯(cuò)
    x
    *文字標(biāo)題:
    *糾錯(cuò)內(nèi)容:
    聯(lián)系郵箱:
    *驗(yàn) 證 碼:

    粵公網(wǎng)安備 44030502002758號(hào)