首頁技術文章正文

Scrapy框架的工作原理是什么?

更新時間:2020-09-30 來源:黑馬程序員 瀏覽量:

Scrapy框架的工作原理是什么?

Scrapy架構

學習Scrapy框架,從理解它的架構開始。圖1所示是Scrapy的架構圖。

1601448357608_Scrapy.jpg

從圖1可知,Scrapy框架主要包含以下組件:

(1)Scrapy Engine(引擎):負責Spider、Item Pipeline、Downloader、Scheduler之間的通訊,包括信號和數(shù)據的傳遞等。

(2)Scheduler(調度器):負責接受引擎發(fā)送過來的Request請求,并按照一定的方式進行整理排列和入隊,當引擎需要時,交還給引擎。

(3)Downloader(下載器):負責下載Scrapy Engine(引擎)發(fā)送的所有Requests(請求),并將其獲取到的Responses(響應)交還給Scrapy Engine(引擎),由引擎交給Spider來處理。

(4)Spiders(爬蟲):負責處理所有Responses,從中分析提取數(shù)據,獲取Item字段需要的數(shù)據,并將需要跟進的URL提交給引擎,再次進入Scheduler(調度器)。

(5)Item Pipeline(管道):負責處理Spiders中獲取到的Item數(shù)據,并進行后期處理(詳細分析、過濾、存儲等)。

(6)Downloader Middlewares(下載中間件):是一個可以自定義擴展下載功能的組件。

(7)Spider Middlewares(Spider中間件):是一個可以自定義擴展Scrapy Engine和Spiders中間通信的功能組件(比如進入Spiders的Responses和從Spiders出去的Requests)。

Scrapy的這些組件通力合作,共同完成整個爬取任務。架構圖中的箭頭是數(shù)據的流動方向,首先從初始URL開始,Scheduler會將其交給Downloader進行下載,下載之后會交給Spider進行分析,Spider分析出來的結果有兩種:一種是需要進一步抓取的鏈接,例如之前分析的“下一頁”的鏈接,這些東西會被傳回Scheduler;另一種是需要保存的數(shù)據,它們則被送到Item Pipeline那里,那是對數(shù)據進行后期處理(詳細分析、過濾、存儲等)的地方。另外,在數(shù)據流動的通道里還可以安裝各種中間件,進行必要的處理。

Scrapy框架的運作流程

Scrapy的運作流程由引擎控制,其過程如下所示:

(1)引擎向Spider請求第一個要爬取的URL(s)。

(2)引擎從Spider中獲取到第一個要爬取的URL,封裝成Request并交給調度器。

(3)引擎向調度器請求下一個要爬取的Request。

(4)調度器返回下一個要爬取的Request給引擎,引擎將Request通過下載中間件轉發(fā)給下載器。

(5)一旦頁面下載完畢,下載器生成一個該頁面的Response,并將其通過下載中間件發(fā)送給引擎。

(6)引擎從下載器中接收到Response并通過Spider中間件發(fā)送給Spider處理。

(7)Spider處理Response并返回爬取到的Item及新的Request給引擎。

(8)引擎將爬取到的Item給Item Pipeline,將Request給調度器。

(9)從(2)開始重復,直到調度器中沒有更多的Request。

多學一招:Scrapy擬人小劇場

為了幫助大家更好地理解Scrapy的一次完整運行流程,我們可以把Scrapy的運作流程用擬人小劇場的方式進行表現(xiàn),如下所示:

(1)引擎:Hi!Spider,你要處理哪一個網站?

(2)Spider:老大要我處理xxxx.com。

(3)引擎:你把第一個需要處理的URL給我吧。

(4)Spider:給你,第一個URL是xxxxxxx.com。

(5)引擎:Hi!調度器,我這有Request請求,你幫我排序入隊一下。

(6)調度器:好的,正在處理,你等一下。

(7)引擎:Hi!調度器,把你處理好的Request請求給我。

(8)調度器:給你,這是我處理好的Request。

(9)引擎:Hi!下載器,你按照老大的下載中間件的設置幫我下載一下這個Request請求。

(10)下載器:好的!給你,這是下載好的東西。(如果失?。篠orry,這個Request下載失敗了。然后引擎告訴調度器,這個Request下載失敗了,你記錄一下,我們待會兒再下載)。

(11)引擎:Hi!Spider,這是下載好的東西,并且已經按照老大的下載中間件處理過了,你自己處理一下(注意!這兒Responses默認是交給def parse()這個函數(shù)處理的)。

(12)Spider:(處理完畢數(shù)據之后對于需要跟進的URL),Hi!引擎,我這里有兩個結果,這個是我需要跟進的URL,還有這個是我獲取到的Item數(shù)據。

(13)引擎:Hi !管道,我這兒有個item你幫我處理一下!調度器!這是需要跟進的URL你幫我處理下。

(14)管道,調度器:好的,現(xiàn)在就做!

然后從(4)開始循環(huán),直到獲取完老大需要的全部信息。

猜你喜

多線程爬蟲是什么?多線程爬蟲流程分析 

Python爬蟲可以做什么?

Python培訓課程 



分享到:
在線咨詢 我要報名
和我們在線交談!