課程
/后端開發(fā)
/Python
/Python開發(fā)簡單爬蟲
請問出現(xiàn)這樣的情況有啥原因么
2018-12-27
源自:Python開發(fā)簡單爬蟲 7-7
正在回答
把html_parser.py 文件 里面的一行改成links = soup.find_all('a', href=re.compile(r'/item/+'))
請問你的問題解決了嗎,我也是同樣的情況,并且本身就是用urllib.request
還是只能爬取倆頁
把import urllib 換成import? urllib.request 試試
舉報
本教程帶您解開python爬蟲這門神奇技術(shù)的面紗
Copyright ? 2025 imooc.com All Rights Reserved | 京ICP備12003892號-11 京公網(wǎng)安備11010802030151號
購課補貼聯(lián)系客服咨詢優(yōu)惠詳情
慕課網(wǎng)APP您的移動學(xué)習(xí)伙伴
掃描二維碼關(guān)注慕課網(wǎng)微信公眾號
2019-08-24
把html_parser.py 文件 里面的一行改成links = soup.find_all('a', href=re.compile(r'/item/+'))
2019-07-24
請問你的問題解決了嗎,我也是同樣的情況,并且本身就是用urllib.request
2019-07-24
還是只能爬取倆頁
2018-12-27
把import urllib 換成import? urllib.request 試試