Scrapy是一套基於Python的爬蟲框架,它可以幫助我們輕鬆快速地爬取任何網站上的數據。我們可以通過Scrapy中提供的各種組件及選項來自定義爬蟲的行為。而一個管道則是其中的一種組件,可以幫助我們將爬取數據進行處理、過濾以及儲存。Scrapy系統內置了一些管道組件,如:ImagesPipeline、FilesPipeline、JsonLinesItemExporter等等。但是,Scrapy也允許我們自己編寫管道。
一、ScrapyPipeline的介紹
ScrapyPipeline是Scrapy框架中最強大、靈活的管道組件之一,它可以幫助我們處理下載器獲取到的數據、做去重處理、過濾無用信息,以及將我們需要的信息存儲到本地文件或資料庫中。使用ScrapyPipeline可以讓爬蟲更加高效,減少代碼修改和重構的次數。
簡單來說,ScrapyPipeline的作用是對Scrapy爬蟲收集的信息進行處理、過濾和儲存。這個處理流程包含三個部分:接收Item、執行處理、輸出結果。具體的工作流程如下圖所示:
Item
|
+------+-------+
| |
process_item() |
| |
+---v-----+ +--v--+
| | | |
Export Item Drop Exporter
| | | |
+-^----^-+ +--^--+
| | |
| +-----------+
|
v
After processes
接收Item:Scrapy爬蟲從網站中獲取數據,將數據保存到Item對象中,接著將Item對象傳遞給管道Pipeline處理。
執行處理:ScrapyPipeline接收到Item對象,開始執行包含在process_item方法中的任意處理方式。這個處理方式可以包括任意操作,如替換、過濾、清理、驗證等,你可以根據自己的需要進行設置。在process_item方法運行結束後,該Item對象將被發送到下一個Pipeline組件進行處理。
輸出結果:處理完後,Pipeline將處理結果交給Item Exporter,然後保存到文件或者資料庫中。
二、ScrapyPipeline內置方法
ScrapyPipeline提供了一些內置的方法,有助於我們更加高效地處理和篩選數據。
1. process_item(item, spider)
def process_item(self, item, spider):
return item
1. 該方法接收爬蟲得到的每一個Item;
2. 將數據清洗、處理並返回該Item,或者返回DropItem拋棄該Item;
3. 該方法需要返回Item或DropItem。
process_item() 方法是處理每個爬取的 Item 的默認方法。可以根據自己的需要在其中添加相關的處理步驟。如:
def process_item(self, item, spider):
# 使用正則去掉數值
item['price'] = re.sub('[^\d.]+', '', item['price'])
return item
2. open_spider(spider)
def open_spider(self, spider):
pass
1. 當爬蟲啟動時,open_spider()方法被調用;
2. 可以在這裡進行一些打開文件、連接資料庫等操作;
3. 該方法不是必須的。
3. close_spider(spider)
def close_spider(self, spider):
pass
1. 當爬蟲停止時,close_spider()方法被調用;
2. 可以在這裡進行一些關閉文件、斷開資料庫連接等操作;
3. 該方法也不是必須的。
4. from_crawler(cls, crawler)
class MyPipeline(object):
@classmethod
def from_crawler(cls, crawler):
return cls()
使用from_crawler()方法可以獲得其他組件的參數。
三、ScrapyPipeline自定義方法
有時候,我們需要自行編寫方法來實現特定功能。接下來,我們將用一個小例子來展示如何自定義方法
首先我們來看一個模擬爬取京東商品評論的爬蟲獲取評論數據後,如何去重:
class CommentDuplicatePipeline(object):
def __init__(self):
self.comment_set = set()
def process_item(self, item, spider):
comment = item['comment']
if comment in self.comment_set:
raise DropItem('Duplicate comment found: %s' % item)
self.comment_set.add(comment)
return item
該自定義Pipeline用於過濾重複評論。初始化時設置一個集合,並在process_item()方法中,判斷當前評論是否已經出現過,如果已經出現過,就使用DropItem()方法從Item Pipeline中移除該Item,否則就將該評論加入集合中,並返回Item.
四、ScrapyPipeline的使用
在Scrapy中使用自定義Pipeline非常簡單,只需要在Project下的settings.py文件添加相關配置即可。
ITEM_PIPELINES = {
'my_project.pipelines.CommentDuplicatePipeline': 300,
}
這裡設置優先順序為300,數字越小,則Pipeline的優先順序越高。
五、總結
通過本文的介紹,我們已經了解了ScrapyPipeline的作用、內置方法和如何自定義Pipeline。使用ScrapyPipeline幫助我們輕鬆地處理、篩選、清理數據,並將數據儲存到我們需要的地方,使爬蟲的數據處理更加高效、簡單易用。
原創文章,作者:小藍,如若轉載,請註明出處:https://www.506064.com/zh-tw/n/254011.html