第七色在线视频,2021少妇久久久久久久久久,亚洲欧洲精品成人久久av18,亚洲国产精品特色大片观看完整版,孙宇晨将参加特朗普的晚宴

為了賬號安全,請及時綁定郵箱和手機立即綁定

爬不到1000個。。。

有沒有人跟我一樣運行不到最后就卡住的??這是什么鬼。。。每次爬個幾百個就停住了。。

正在回答

7 回答

def _get_new_urls(self, curr_url, soup):
? ?new_urls = set()
? ?links = soup.find_all('a', href=re.compile(r"/item/*"))

正則表達式的內(nèi)容改下就行,網(wǎng)頁格式變了

0 回復(fù) 有任何疑惑可以回復(fù)我~

我就爬了兩個~~~


0 回復(fù) 有任何疑惑可以回復(fù)我~

我第一次爬了1000條,但是再次運行的時候爬了兩條就結(jié)束了

0 回復(fù) 有任何疑惑可以回復(fù)我~

可以試試修改一下collect 函數(shù),讓它每次收集數(shù)據(jù)的時候都寫入文件,而不是像老師一樣最后一次性寫入。

0 回復(fù) 有任何疑惑可以回復(fù)我~
#1

gavin_10

你那個爬出來了嗎,我的response一直返回200
2017-03-03 回復(fù) 有任何疑惑可以回復(fù)我~

來個多線程

0 回復(fù) 有任何疑惑可以回復(fù)我~


嗯嗯,,有可能啊,感覺程序應(yīng)該沒什么問題,而且每次卡死的時候爬取的數(shù)目也不同,最多一次也能爬取900多個

0 回復(fù) 有任何疑惑可以回復(fù)我~

我感覺是內(nèi)存的原因吧,數(shù)據(jù)都在內(nèi)存保存,最后寫入文件的

0 回復(fù) 有任何疑惑可以回復(fù)我~

舉報

0/150
提交
取消
Python開發(fā)簡單爬蟲
  • 參與學習       227603    人
  • 解答問題       1282    個

本教程帶您解開python爬蟲這門神奇技術(shù)的面紗

進入課程

爬不到1000個。。。

我要回答 關(guān)注問題
微信客服

購課補貼
聯(lián)系客服咨詢優(yōu)惠詳情

幫助反饋 APP下載

慕課網(wǎng)APP
您的移動學習伙伴

公眾號

掃描二維碼
關(guān)注慕課網(wǎng)微信公眾號