第七色在线视频,2021少妇久久久久久久久久,亚洲欧洲精品成人久久av18,亚洲国产精品特色大片观看完整版,孙宇晨将参加特朗普的晚宴

為了賬號安全,請及時綁定郵箱和手機立即綁定

正在回答

8 回答

http://img1.sycdn.imooc.com//579029d50001581d05120186.jpg

我的一開始也是這個問題,然后把解析器里面的如圖的函數(shù)的urlparse.urljoin函數(shù)寫正確了,一開始我寫的是join,你們試試是不是這個原因。(我改過之后就在爬取網(wǎng)頁了)

http://img1.sycdn.imooc.com//57902a7400010e1e04680253.jpg

0 回復 有任何疑惑可以回復我~
#1

流浪在海洋

請問一下你用的是python2.7還是3.x
2016-08-05 回復 有任何疑惑可以回復我~
#2

DarkMan 回復 流浪在海洋

2.7
2016-08-17 回復 有任何疑惑可以回復我~
#3

洋海灣江河湖池

謝謝,解決了我的問題。我是上面截圖的for和return沒有對齊,導致抓取了5條以后就failed了。
2017-06-12 回復 有任何疑惑可以回復我~

解決了 ?謝謝一樓的方法


0 回復 有任何疑惑可以回復我~

解決了 謝謝


0 回復 有任何疑惑可以回復我~

這個問題很多同學都出現(xiàn)過,導包的時候要注意,兩種導入包的方式是有點區(qū)別的,我的是由于導入BeautifulSoup時寫成import?BeautifulSoup了,改成from bs4?import?BeautifulSoup就好了,你可以試一下

0 回復 有任何疑惑可以回復我~
#1

迷你熊

我這塊沒有問題但還是不行
2016-07-29 回復 有任何疑惑可以回復我~

問題很多 慢慢找吧

0 回復 有任何疑惑可以回復我~

我也遇到這個問題了,不過經(jīng)過調(diào)試已經(jīng)解決掉了,發(fā)出來供大家參考。

這個應(yīng)該是BeautifulSoup版本造成的格式問題,我將html_parser.py中涉及title_node和summary_node的語句,改成下面的格式,重新運行就可以正常輸出了。

title_node?=?soup.find("dd",?attrs={"class":"lemmaWgt-lemmaTitle-title"}).find("h1")
summary_node?=?soup.find('div',?attrs={"class":"lemma-summary"})

希望對你有所幫助。

2 回復 有任何疑惑可以回復我~
#1

沸騰cqcp

還是不行,好氣
2016-07-18 回復 有任何疑惑可以回復我~
#2

落云殤

可以了,多謝
2016-07-22 回復 有任何疑惑可以回復我~
#3

熊孩子3657953

謝謝 終于解決了
2016-08-13 回復 有任何疑惑可以回復我~

我的也是這樣,求解啊

0 回復 有任何疑惑可以回復我~

craw 1 :http://baike.baidu.com/view/21087.htm

craw failed


Process finished with exit code 0

我也這樣

0 回復 有任何疑惑可以回復我~

舉報

0/150
提交
取消
Python開發(fā)簡單爬蟲
  • 參與學習       227603    人
  • 解答問題       1284    個

本教程帶您解開python爬蟲這門神奇技術(shù)的面紗

進入課程

我的只打印一個就跳出異常

我要回答 關(guān)注問題
微信客服

購課補貼
聯(lián)系客服咨詢優(yōu)惠詳情

幫助反饋 APP下載

慕課網(wǎng)APP
您的移動學習伙伴

公眾號

掃描二維碼
關(guān)注慕課網(wǎng)微信公眾號