第七色在线视频,2021少妇久久久久久久久久,亚洲欧洲精品成人久久av18,亚洲国产精品特色大片观看完整版,孙宇晨将参加特朗普的晚宴

為了賬號(hào)安全,請(qǐng)及時(shí)綁定郵箱和手機(jī)立即綁定
已解決430363個(gè)問題,去搜搜看,總會(huì)有你想問的

處理 Scrapy 中的所有 yield 項(xiàng)

處理 Scrapy 中的所有 yield 項(xiàng)

慕萊塢森 2023-05-09 15:34:58
目前我有一個(gè) Scrapy Spider 在 parse 方法上產(chǎn)生各種項(xiàng)目。有沒有什么辦法可以得到所有已經(jīng)被 yield 的項(xiàng),而不管 parse 方法被調(diào)用了多少次?
查看完整描述

3 回答

?
皈依舞

TA貢獻(xiàn)1851條經(jīng)驗(yàn) 獲得超3個(gè)贊

使用管道,您將能夠?qū)⑺许?xiàng)目累積到類似結(jié)構(gòu)的數(shù)組中(process_item在您的管道中):

self.items.append(item) # I use self.items class variable defined at your pipeline

并在spider_closed.


查看完整回答
反對(duì) 回復(fù) 2023-05-09
?
撒科打諢

TA貢獻(xiàn)1934條經(jīng)驗(yàn) 獲得超2個(gè)贊

通常有兩種方法可以做到這一點(diǎn)。

首先,您可以使用命令將輸出簡(jiǎn)單地保存在 JSON 文件中scrapy crawl my_spider -o my_data.json。其次,您可以編寫一個(gè)管道并將輸出存儲(chǔ)在任何數(shù)據(jù)庫(kù)中以形成您想要的結(jié)構(gòu)。


查看完整回答
反對(duì) 回復(fù) 2023-05-09
?
MMMHUHU

TA貢獻(xiàn)1834條經(jīng)驗(yàn) 獲得超8個(gè)贊

我不確定您所說的獲取物品是什么意思。如果你想將它們導(dǎo)出到一個(gè)文件中,你可以使用feed export,通過像這樣執(zhí)行蜘蛛:

scrapy?crawl?my_spider?-o?my_data.csv

它支持其他擴(kuò)展,檢查那些鏈接。

從你的標(biāo)題看來你想要處理產(chǎn)生的項(xiàng)目,在這種情況下你需要一個(gè)ItemPipeline。從文檔:

在一個(gè)項(xiàng)目被蜘蛛抓取后,它被發(fā)送到項(xiàng)目管道,它通過幾個(gè)順序執(zhí)行的組件來處理它。

...

項(xiàng)目管道的典型用途是:

  • 清理 HTML 數(shù)據(jù)

  • 驗(yàn)證抓取的數(shù)據(jù)(檢查項(xiàng)目是否包含某些字段)

  • 檢查重復(fù)項(xiàng)(并刪除它們)

  • 將抓取的項(xiàng)目存儲(chǔ)在數(shù)據(jù)庫(kù)中

parse這兩種方法的運(yùn)行都與方法被調(diào)用的次數(shù)無關(guān)。


查看完整回答
反對(duì) 回復(fù) 2023-05-09
  • 3 回答
  • 0 關(guān)注
  • 218 瀏覽
慕課專欄
更多

添加回答

舉報(bào)

0/150
提交
取消
微信客服

購(gòu)課補(bǔ)貼
聯(lián)系客服咨詢優(yōu)惠詳情

幫助反饋 APP下載

慕課網(wǎng)APP
您的移動(dòng)學(xué)習(xí)伙伴

公眾號(hào)

掃描二維碼
關(guān)注慕課網(wǎng)微信公眾號(hào)