第七色在线视频,2021少妇久久久久久久久久,亚洲欧洲精品成人久久av18,亚洲国产精品特色大片观看完整版,孙宇晨将参加特朗普的晚宴

為了賬號(hào)安全,請(qǐng)及時(shí)綁定郵箱和手機(jī)立即綁定
已解決430363個(gè)問題,去搜搜看,總會(huì)有你想問的

scrapy 的 -O命令保存的是空文件

scrapy 的 -O命令保存的是空文件

蕭十郎 2018-08-02 17:54:31
class EastSpider(scrapy.Spider):     name = 'East'     allowed_domains = ['****.com']     start_urls = ['http://finance.***.com/news.html']    def parse(self, response):         nextUrl = response.xpath('//*[contains(@class,"page-btn")]/@href')        for url in nextUrl.extract():             time.sleep(1)            yield Request(urljoin(response.url,url))         contentUrl = response.xpath('//p[@class="title"]/a/@href')        for urls in contentUrl.extract():             time.sleep(1)            yield Request(urls,callback = self.parse)         pass代碼如上,但是在命令行運(yùn)行scrapy crawl East -o East.csv的結(jié)果,East.csv是個(gè)空文件,什么都沒寫進(jìn)去。我看人家說(shuō)要yield,但是自己搞了搞也沒行...嘗試了在for循環(huán)之外添加yield url、yield urls報(bào)錯(cuò),說(shuō)是在定義之前引用了,然后在for循環(huán)之內(nèi)添加又沒效果,還是空文件...
查看完整描述

1 回答

  • 1 回答
  • 0 關(guān)注
  • 1286 瀏覽
慕課專欄
更多

添加回答

舉報(bào)

0/150
提交
取消
微信客服

購(gòu)課補(bǔ)貼
聯(lián)系客服咨詢優(yōu)惠詳情

幫助反饋 APP下載

慕課網(wǎng)APP
您的移動(dòng)學(xué)習(xí)伙伴

公眾號(hào)

掃描二維碼
關(guān)注慕課網(wǎng)微信公眾號(hào)