第七色在线视频,2021少妇久久久久久久久久,亚洲欧洲精品成人久久av18,亚洲国产精品特色大片观看完整版,孙宇晨将参加特朗普的晚宴

為了賬號安全,請及時綁定郵箱和手機立即綁定

沒報錯,只輸出了第一條記錄,然后就craw failed,跳出循環(huán)了,怎么回事?

# coding:utf-8


#from baike_spider?

import url_manager,html_downloader,html_parser,html_outputer

print html_parser.__name__


class SpiderMain(object):

def __init__(self):

self.urls=url_manager.UrlManager()

self.downloader=html_downloader.HtmlDownloader()

self.parser=html_parser.HtmlParser()

self.outputer=html_outputer.HtmlOutputer()


def craw(self,root_url):

count=1

self.urls.add_new_url(root_url)

while self.urls.has_new_url():

try:

#print self.urls.has_new_url()

new_url=self.urls.get_new_url()

print 'craw %d: %s'%(count,new_url)

html_cont=self.downloader.download(new_url)

print type(html_cont)?

new_urls,new_data=self.parser.parse(new_url,html_cont)

print new_urls,new_data

print "test"

self.urls.add_new_urls(new_urls)

self.outputer.collect_data(new_data)

if count==1000:

break

count=count+1

print "test"


except:

print 'craw failed'


self.outputer.output_html()






if __name__=="__main__":

root_url="http://baike.baidu.com/view/21087.htm"

obj_spider=SpiderMain()

obj_spider.craw(root_url)


正在回答

9 回答

一個函數(shù)一個函數(shù)的對照,問題出在downloader里面沒有import urllib2這個模塊。

0 回復 有任何疑惑可以回復我~

craw 1 : https://baike.baidu.com/item/Python

craw failed

同求大神解決??!其他基本上都看了,也改了urllib.parse.urljoin,

0 回復 有任何疑惑可以回復我~

沒有報錯 但是就只有一條數(shù)據(jù) 其他的庫都引用啦!

0 回復 有任何疑惑可以回復我~

我也是這個問題啊,但是,http://img1.sycdn.imooc.com//57e8ea760001506807190291.jpg,為什么老提示我 urljoin 報錯啊,我有引入啊

0 回復 有任何疑惑可以回復我~

哎咿呀呀

0 回復 有任何疑惑可以回復我~

我也是這種問題

579dab500001737505000398.jpg

579dab7e00010af505000354.jpg


0 回復 有任何疑惑可以回復我~
#1

qq_我也想要橡皮果實_04188688

你這個是用的Pycharm嗎?老師用ctrl+1的時候你用的什么啊
2016-10-21 回復 有任何疑惑可以回復我~

我遇到了同樣的問題

http://img1.sycdn.imooc.com//579da02900017c8d15641122.jpg

但我的解析器 引用了這兩個import

0 回復 有任何疑惑可以回復我~
#1

qq_貪嗔癡傻_0

請問你的問題解決了嗎?我也遇到了相同的問題
2016-08-20 回復 有任何疑惑可以回復我~
#2

suddenly唐 回復 qq_貪嗔癡傻_0

你現(xiàn)在解決了么,我也是這個問題
2018-03-07 回復 有任何疑惑可以回復我~

我也出現(xiàn)同樣的問題,可是我的解析器有import啊,就只爬了一條就退出來了


0 回復 有任何疑惑可以回復我~

最后還是自己發(fā)現(xiàn)解析器那部分沒有import re 和import urlparse,現(xiàn)在終于運行起來了!高興??!

0 回復 有任何疑惑可以回復我~

舉報

0/150
提交
取消
Python開發(fā)簡單爬蟲
  • 參與學習       227603    人
  • 解答問題       1288    個

本教程帶您解開python爬蟲這門神奇技術的面紗

進入課程

沒報錯,只輸出了第一條記錄,然后就craw failed,跳出循環(huán)了,怎么回事?

我要回答 關注問題
微信客服

購課補貼
聯(lián)系客服咨詢優(yōu)惠詳情

幫助反饋 APP下載

慕課網APP
您的移動學習伙伴

公眾號

掃描二維碼
關注慕課網微信公眾號