第七色在线视频,2021少妇久久久久久久久久,亚洲欧洲精品成人久久av18,亚洲国产精品特色大片观看完整版,孙宇晨将参加特朗普的晚宴

為了賬號(hào)安全,請(qǐng)及時(shí)綁定郵箱和手機(jī)立即綁定

寫(xiě)好了所有的程序運(yùn)行遇到bug,不知道怎么改

#?-*-?coding:?utf-8?-*-
from?baike_moon?import??html_downloader,?html_parser,?html_outputer,?url_manager



class?SpiderMain(object):
????def?__init__(self):
????????self.urls?=?url_manager.UrlManager()
????????self.downloader?=?html_downloader.HtmlDownloader()
????????self.parser?=?html_parser.HtmlParser()
????????self.outputer??=html_outputer.HtmlOutputer()
????
????
????def?craw(self,?root_url):
????????count?=?1
????????self.urls.add_new_url(root_url)
????????while?self.urls.has_new_url():
????????????#try:
????????????????new_url?=?self.urls.get_new_url()
????????????????print?'craw?%d:%s'?%(count,new_url)
????????????????html_cont?=?self.downloader.download(new_url)
????????????????new_urls,new_data?=?self.parser.parse(new_url,html_cont)
????????????????self.urls.add_new_urls(new_urls)
????????????????self.outputer.collect_data(new_data)
????????????????
????????????????if?count?==?1000:
????????????????????break
????????????????count?=?count+1
????????????#except:
???????????#?????print?'爬取失敗'
?????????
????????self.outputer.output_html()
????????

if?__name__=="__main__":
????root_url?=?"http://baike.baidu.com/view/21087.htm"
????obj_spider?=?SpiderMain()
????obj_spider.craw(root_url)

報(bào)錯(cuò):

pydev_imports.execfile(file, globals, locals) ?# execute the script

? File "E:\eclipse python\????\baike_moon\spider_main.py", line 38, in <module>

? ? obj_spider.craw(root_url)

? File "E:\eclipse python\????\baike_moon\spider_main.py", line 22, in craw

? ? new_urls,new_data = self.parser.parse(new_url,html_cont)

TypeError: 'set' object is not callable


正在回答

5 回答

我找到我的原因了 在manager里面有字母打錯(cuò)了造成錯(cuò)誤 你去查查你的代碼是不是有哪兒地方字母打的不對(duì)

0 回復(fù) 有任何疑惑可以回復(fù)我~

同問(wèn)啊 一模一樣的錯(cuò)誤 求助啊

0 回復(fù) 有任何疑惑可以回復(fù)我~


from?Spider?import?url_manager,?html_downloader,?html_parser,?html_outputer

__author__?=?'lenovo1'


class?Spidermain(object):
????def?__init__(self):
????????self.urls?=?url_manager.UrlManager()
????????self.downloader?=?html_downloader.HtmlDownloader()
????????self.parser?=?html_parser.HtmlParser()
????????self.outputer?=?html_outputer.HtmlOutputer()

????def?craw(self,?root_url):
????????self.urls.add_new_url(root_url)
????????while?self.urls.has_new_url():
????????????new_url?=?self.urls.get_new_url()
????????????html_cont?=?self.downloader.download(new_url)
????????????new_urls,?new_data?=?self.parser.parse(new_url,?html_cont)
????????????self.urls.add_new_urls(new_urls)
????????????self.outputer.collect_data(new_data)
????????self.outputer.output_html()
if?__name__?==?"__main__":
????root_url?=?"http://baike.baidu.com/view/21087.htm"
????obj_spider?=?Spidermain()
????obj_spider.craw(root_url)

代碼如圖所示,,,

0 回復(fù) 有任何疑惑可以回復(fù)我~

同問(wèn),,不過(guò)我的錯(cuò)誤是TypeError: 'NoneType' object is not iterable,,,

0 回復(fù) 有任何疑惑可以回復(fù)我~

看一下html_parser文件有沒(méi)有加 urlparse 和 re

0 回復(fù) 有任何疑惑可以回復(fù)我~
#1

終可見(jiàn)丶 提問(wèn)者

是加了的import urlpaese和re的
2016-03-02 回復(fù) 有任何疑惑可以回復(fù)我~

舉報(bào)

0/150
提交
取消
Python開(kāi)發(fā)簡(jiǎn)單爬蟲(chóng)
  • 參與學(xué)習(xí)       227603    人
  • 解答問(wèn)題       1284    個(gè)

本教程帶您解開(kāi)python爬蟲(chóng)這門(mén)神奇技術(shù)的面紗

進(jìn)入課程

寫(xiě)好了所有的程序運(yùn)行遇到bug,不知道怎么改

我要回答 關(guān)注問(wèn)題
微信客服

購(gòu)課補(bǔ)貼
聯(lián)系客服咨詢(xún)優(yōu)惠詳情

幫助反饋 APP下載

慕課網(wǎng)APP
您的移動(dòng)學(xué)習(xí)伙伴

公眾號(hào)

掃描二維碼
關(guān)注慕課網(wǎng)微信公眾號(hào)