第七色在线视频,2021少妇久久久久久久久久,亚洲欧洲精品成人久久av18,亚洲国产精品特色大片观看完整版,孙宇晨将参加特朗普的晚宴

為了賬號安全,請及時綁定郵箱和手機立即綁定

不知道為什么,只爬了一行

不知道為什么,只爬了一行:

craw 1 : https://baike.baidu.com/item/Python

craw failed

請問怎么解決

正在回答

3 回答

將try。。。except。。。刪除,然后查看是哪里出了問題,一步一步來分析解決,不然程序就只有報錯,沒有輸出錯誤信息

0 回復 有任何疑惑可以回復我~

spider_main.py中加入:

import ssl
ssl._create_default_https_context = ssl._create_unverified_context

原因:會驗證SSL 證書,而百度的https直接會失敗。需要unverified處理。

0 回復 有任何疑惑可以回復我~

我也出現(xiàn)了這個問題,剛剛解決掉。

第一,檢查你的代碼,是否全部和文中一樣。

第二,如果一樣,我的問題出在了html_parser中的_get_new_urls方法中,視頻中老師寫的那個正則表達式在現(xiàn)在的網頁中是打不開的,需要寫成符合現(xiàn)在網頁中的超鏈接的href類型的表達式。我改為links=soup.find_all('a', href=re.compile(r"/item/[0-9a-zA-Z\%]+"))之后,正確返回了所有的抓取到的url以及文檔。

不知道你的是什么原因,但你可以試一試,希望能夠幫到你。

0 回復 有任何疑惑可以回復我~

舉報

0/150
提交
取消
Python開發(fā)簡單爬蟲
  • 參與學習       227603    人
  • 解答問題       1288    個

本教程帶您解開python爬蟲這門神奇技術的面紗

進入課程

不知道為什么,只爬了一行

我要回答 關注問題
微信客服

購課補貼
聯(lián)系客服咨詢優(yōu)惠詳情

幫助反饋 APP下載

慕課網APP
您的移動學習伙伴

公眾號

掃描二維碼
關注慕課網微信公眾號