第七色在线视频,2021少妇久久久久久久久久,亚洲欧洲精品成人久久av18,亚洲国产精品特色大片观看完整版,孙宇晨将参加特朗普的晚宴

為了賬號安全,請及時(shí)綁定郵箱和手機(jī)立即綁定

爬取的數(shù)據(jù)為什么只有兩條?

craw 1 : http://baike.baidu.com/view/21087.htm

craw 2 : http://baike.baidu.com/view/10812319.htm

你好,為什么我運(yùn)行的代碼只有這兩條數(shù)據(jù)?,而且第二條地址還是與Python無關(guān)?


正在回答

1 回答

正則表達(dá)式修改成links=soup.find_all('a',href=re.compile(r"/item/"))

0 回復(fù) 有任何疑惑可以回復(fù)我~
#1

singkoko

我也是這個(gè)情況,這個(gè)解決的方法是什么原理,錯(cuò)誤是什么原因呢。新手,謝謝
2017-09-19 回復(fù) 有任何疑惑可以回復(fù)我~
#2

慕粉2224079903 提問者

非常感謝!
2017-11-21 回復(fù) 有任何疑惑可以回復(fù)我~

舉報(bào)

0/150
提交
取消
Python開發(fā)簡單爬蟲
  • 參與學(xué)習(xí)       227603    人
  • 解答問題       1282    個(gè)

本教程帶您解開python爬蟲這門神奇技術(shù)的面紗

進(jìn)入課程

爬取的數(shù)據(jù)為什么只有兩條?

我要回答 關(guān)注問題
微信客服

購課補(bǔ)貼
聯(lián)系客服咨詢優(yōu)惠詳情

幫助反饋 APP下載

慕課網(wǎng)APP
您的移動(dòng)學(xué)習(xí)伙伴

公眾號

掃描二維碼
關(guān)注慕課網(wǎng)微信公眾號