最贊回答 / 許曉北
解決了 在python3中 需要在html——downloader里面導(dǎo)入import urllib.request 這個 而不是import urllib
2016-06-27
最贊回答 / ACJ
? soup=BeautifulSoup(html_count,'html.parser',form_encoding='utf-8')這一句單詞from拼錯了
2016-06-27
最新回答 / UFO2015
PyCharm : 報錯提示: too broad exception clauses 的完美解決方案!http://idcbgp.cn/qadetail/166784
2016-06-26
最贊回答 / dreaming2015
需要加一個head標(biāo)簽<...code...>原因是操作系統(tǒng)如果是中文的,瀏覽器的默認(rèn)編碼是GBK 如果本地寫的是UTF-8的編碼的文件,會出現(xiàn)亂碼
2016-06-24
最贊回答 / charsandrew
可能有很多種原因(語法錯誤啊,等等),一個方法是:可以把主函數(shù)中的:try:except:????print('craw failed')改為:try:except Exception as e:????print('craw failed',e)這樣就能把錯誤信息打印出來,然后根據(jù)錯誤信息就比較容易找到,錯誤原因。
2016-06-22
已采納回答 / qq_匠郵心生_03449154
在獲取全部鏈接的循環(huán)后面加上代碼:??? print type(link),type(links)結(jié)果為:<class 'bs4.element.Tag'> <class 'bs4.element.ResultSet'>說明soup.find_all的返回結(jié)果links是一個自定義的類,node也是一種自定義的類for i in range(3):??? print links[i].name, links[i]['href'],links[i].get_text(),links[...
2016-06-09