課程
/后端開發(fā)
/Python
/Python開發(fā)簡單爬蟲
已經(jīng)檢查過幾遍了,應(yīng)該不是寫錯程序的問題,復(fù)制了一個別人的也只能有一行,而且用網(wǎng)頁打開后沒有數(shù)據(jù)
2016-02-28
源自:Python開發(fā)簡單爬蟲 8-1
正在回答
soup = BeautifulSoup(html_cont, 'html.parser'),中的html.parser是不是寫成了html.parse?
什么東西只有一行?只顯示?craw 1 么?
你可以直接用 print urllib2.urlopen(url).read() 試試看能不能打印出數(shù)據(jù),如果不能的話,要么斷網(wǎng),要么網(wǎng)址有問題
craw 1 : http://baike.baidu.com/view/21087.htm
craw 2 : http://baike.baidu.com/view/10812319.htm
呂小寶北
請問你的解決了嗎?是怎樣解決的?我也遇到了同樣的問題。。。
green_apple7
額,我剛開始也是這樣,后面把datas的初始定義改了一下再改回又可以了,我也很疑惑
舉報
本教程帶您解開python爬蟲這門神奇技術(shù)的面紗
Copyright ? 2025 imooc.com All Rights Reserved | 京ICP備12003892號-11 京公網(wǎng)安備11010802030151號
購課補貼聯(lián)系客服咨詢優(yōu)惠詳情
慕課網(wǎng)APP您的移動學(xué)習(xí)伙伴
掃描二維碼關(guān)注慕課網(wǎng)微信公眾號
2018-09-29
soup = BeautifulSoup(html_cont, 'html.parser'),中的html.parser是不是寫成了html.parse?
2016-04-24
什么東西只有一行?只顯示?craw 1 么?
你可以直接用 print urllib2.urlopen(url).read() 試試看能不能打印出數(shù)據(jù),如果不能的話,要么斷網(wǎng),要么網(wǎng)址有問題
2016-04-05
craw 1 : http://baike.baidu.com/view/21087.htm
craw 2 : http://baike.baidu.com/view/10812319.htm
2016-03-23
請問你的解決了嗎?是怎樣解決的?我也遇到了同樣的問題。。。
2016-03-01
額,我剛開始也是這樣,后面把datas的初始定義改了一下再改回又可以了,我也很疑惑