第七色在线视频,2021少妇久久久久久久久久,亚洲欧洲精品成人久久av18,亚洲国产精品特色大片观看完整版,孙宇晨将参加特朗普的晚宴

為了賬號安全,請及時綁定郵箱和手機立即綁定

爬了兩條就停下來了,還出來個中文

https://img1.sycdn.imooc.com//5ad2267800013c9209670142.jpg

換了幾個頁面都是這個結果,想問下史記是哪里來的???

還有就是這樣就中斷了可能有什么原因?。?/p>

上面的編碼問題怎么解決?

正在回答

3 回答

嗯。。。。因為python的那個百度百科的頁面的html代碼升級了一哈,原本的抓取URl的代碼不能用了,你把parser里面的_get_new_urls這個函數(shù)的re.compile語句后面的正則表達式改一下,改成這樣re.compile(r"/item/")就ok了

0 回復 有任何疑惑可以回復我~

craw 1:https://baike.baidu.com/item/Python/407313

craw failed

還沒有爬呢,就死了?。?!求教

0 回復 有任何疑惑可以回復我~

url編碼的問題

0 回復 有任何疑惑可以回復我~
#1

糖水_ 提問者

方便解釋一下嗎……要怎么改才可以
2018-04-16 回復 有任何疑惑可以回復我~
#2

團子wwwxxx 回復 糖水_ 提問者

請問你解決了嗎?
2018-04-23 回復 有任何疑惑可以回復我~
#3

糖水_ 提問者 回復 團子wwwxxx

沒有…換了別的網站也只能爬兩個……
2018-04-24 回復 有任何疑惑可以回復我~
#4

團子wwwxxx 回復 糖水_ 提問者

哭唧唧,那我繼續(xù)找方法
2018-04-25 回復 有任何疑惑可以回復我~
#5

團子wwwxxx 回復 糖水_ 提問者

你好,我的問題已經解決了,原因是在html_parser里def get_new_urls(self, page_url, soup)中,我把return放到循環(huán)中了,現(xiàn)在改正了就爬取正常了,你可以查看下是不是同樣的錯誤。
2018-04-26 回復 有任何疑惑可以回復我~
#6

Masc 回復 團子wwwxxx

看到你的回復 修復了我的代碼 哈哈
2018-05-06 回復 有任何疑惑可以回復我~
查看3條回復

舉報

0/150
提交
取消
Python開發(fā)簡單爬蟲
  • 參與學習       227603    人
  • 解答問題       1282    個

本教程帶您解開python爬蟲這門神奇技術的面紗

進入課程

爬了兩條就停下來了,還出來個中文

我要回答 關注問題
微信客服

購課補貼
聯(lián)系客服咨詢優(yōu)惠詳情

幫助反饋 APP下載

慕課網APP
您的移動學習伙伴

公眾號

掃描二維碼
關注慕課網微信公眾號