第七色在线视频,2021少妇久久久久久久久久,亚洲欧洲精品成人久久av18,亚洲国产精品特色大片观看完整版,孙宇晨将参加特朗普的晚宴

為了賬號安全,請及時(shí)綁定郵箱和手機(jī)立即綁定

為什么只爬取了兩個(gè)url就結(jié)束了,而且output.html文件里沒有任何內(nèi)容。求老師幫解答,謝謝啦!

craw?? 1 : https://baike.baidu.com/item/Python/407313
craw?? 2 : https://baike.baidu.com/item/Web/150564

Process finished with exit code 0

正在回答

2 回答

links=soup.find_all("a",?href=re.compile(r"/item/*"))

html_download 里這里要處理下

url?=?urllib.parse.quote(url,?safe='/:?=.')??#?解決地址中有中文的問題
resp?=?urllib.request.urlopen(url)


0 回復(fù) 有任何疑惑可以回復(fù)我~

parser文件中將

links?=?soup.find_all('a',?href=re.compile(r"/item/"))

這樣寫。

0 回復(fù) 有任何疑惑可以回復(fù)我~

舉報(bào)

0/150
提交
取消
Python開發(fā)簡單爬蟲
  • 參與學(xué)習(xí)       227603    人
  • 解答問題       1282    個(gè)

本教程帶您解開python爬蟲這門神奇技術(shù)的面紗

進(jìn)入課程

為什么只爬取了兩個(gè)url就結(jié)束了,而且output.html文件里沒有任何內(nèi)容。求老師幫解答,謝謝啦!

我要回答 關(guān)注問題
微信客服

購課補(bǔ)貼
聯(lián)系客服咨詢優(yōu)惠詳情

幫助反饋 APP下載

慕課網(wǎng)APP
您的移動(dòng)學(xué)習(xí)伙伴

公眾號

掃描二維碼
關(guān)注慕課網(wǎng)微信公眾號