第七色在线视频,2021少妇久久久久久久久久,亚洲欧洲精品成人久久av18,亚洲国产精品特色大片观看完整版,孙宇晨将参加特朗普的晚宴

為了賬號(hào)安全,請(qǐng)及時(shí)綁定郵箱和手機(jī)立即綁定
已解決430363個(gè)問題,去搜搜看,總會(huì)有你想問的

你好,請(qǐng)教一下scrapy 爬蟲怎么在程序里把爬蟲停止?

你好,請(qǐng)教一下scrapy 爬蟲怎么在程序里把爬蟲停止?

繁星淼淼 2019-11-25 10:06:32
scrapy 爬蟲怎么在程序里把爬蟲停止
查看完整描述

3 回答

?
森林海

TA貢獻(xiàn)2011條經(jīng)驗(yàn) 獲得超2個(gè)贊

def __init__(self, crawler):     self.crawler = crawler      @classmethod def from_crawler(cls, crawler):     return cls(crawler) # 結(jié)束爬蟲 self.crawler.engine.close_spider(spider, 'closespider')

上面是實(shí)現(xiàn)原理,實(shí)際上 scrapy.Spider 已經(jīng)擁有了 crawler 屬性,不必再像上面這樣寫。

在spider中可直接寫:

1self.crawler.engine.close_spider(self'closespider')

在 pipeline 和  中間件Middlewares  中:

1spider.crawler.engine.close_spider(spider, 'closespider')



查看完整回答
反對(duì) 回復(fù) 2019-12-01
  • 3 回答
  • 0 關(guān)注
  • 1788 瀏覽
慕課專欄
更多

添加回答

舉報(bào)

0/150
提交
取消
微信客服

購(gòu)課補(bǔ)貼
聯(lián)系客服咨詢優(yōu)惠詳情

幫助反饋 APP下載

慕課網(wǎng)APP
您的移動(dòng)學(xué)習(xí)伙伴

公眾號(hào)

掃描二維碼
關(guān)注慕課網(wǎng)微信公眾號(hào)