第七色在线视频,2021少妇久久久久久久久久,亚洲欧洲精品成人久久av18,亚洲国产精品特色大片观看完整版,孙宇晨将参加特朗普的晚宴

為了賬號(hào)安全,請及時(shí)綁定郵箱和手機(jī)立即綁定

我寫的代碼運(yùn)行不出結(jié)果?代碼都是按照老師講的寫的啊

誰能幫忙找錯(cuò)?

正在回答

3 回答

pydev debugger: starting (pid: 5204),沒運(yùn)行一次,pid后邊的數(shù)就 變一次

0 回復(fù) 有任何疑惑可以回復(fù)我~

#coding:utf8

from baike_spider import url_manager, html_downloader, html_parser,\

? ? html_outputer


class SpiderMain(object):

? ? #構(gòu)造函數(shù),初始化各個(gè)對(duì)象

? ? def __init__(self):

? ? ? ? #url管理器

? ? ? ? self.urls = url_manager.UrlManager()

? ? ? ? #url下載器

? ? ? ? self.downloader = html_downloader.HtmlDownloader()

? ? ? ? #url解析器

? ? ? ? self.parser = html_parser.HtmlParser()

? ? ? ? #url輸出器

? ? ? ? self.outputer =html_outputer.HtmlOutputer()

? ? ? ??

? ? #爬蟲的調(diào)度程序

? ? def craw(self, root_url):

? ? ? ? #count記錄當(dāng)前爬取的是第幾個(gè)url

? ? ? ? count = 1

? ? ? ? #1.首先將入口url添加入管理器

? ? ? ? self.urls.add_new_url(root_url)

? ? ? ? #啟動(dòng)爬蟲循環(huán),當(dāng)管理器中有url時(shí)

? ? ? ? while self.urls.has_new_url():

? ? ? ? ? ? try:

? ? ? ? ? ? ? ? #獲取一個(gè)待爬取的url

? ? ? ? ? ? ? ? new_url = self.urls.get_new_url()

? ? ? ? ? ? ? ? print 'craw %d : %s' % (count,new_url)

? ? ? ? ? ? ? ? #啟動(dòng)下載器下載頁面

? ? ? ? ? ? ? ? html_cont = self.downloader.download(new_url)

? ? ? ? ? ? ? ? #調(diào)用解析器解析頁面數(shù)據(jù),返回新的url列表和新的數(shù)據(jù)

? ? ? ? ? ? ? ? new_urls,new_data = self.parser.parse(new_url,html_cont)

? ? ? ? ? ? ? ? #將新的url補(bǔ)充到管理器

? ? ? ? ? ? ? ? self.urls.add_new_urls(new_urls)

? ? ? ? ? ? ? ? #收集數(shù)據(jù)

? ? ? ? ? ? ? ? self.outputer.collect_data(new_data)

? ? ? ? ? ? ? ? #爬取1000個(gè)目標(biāo)

? ? ? ? ? ? ? ? if count == 1000:

? ? ? ? ? ? ? ? ? ? break

? ? ? ? ? ? ? ??

? ? ? ? ? ? ? ? count = count + 1

? ? ? ? ? ? except:

? ? ? ? ? ? ? ? print 'craw failed'

? ? ? ? ? ? #輸出收集好的數(shù)據(jù)

? ? ? ? ? ? self.outputer.output_html()

? ? ? ??

? ??

#1.首先編寫main函數(shù)

if __name__=="_main_":

? ? #2.編寫入口的url

? ? root_url = "http://baike.baidu.com/view/21087.htm"

? ? obj_spider = SpiderMain()?

? ? #3.啟動(dòng)爬蟲

? ? obj_spider.craw(root_url)


0 回復(fù) 有任何疑惑可以回復(fù)我~

。。。你代碼有沒有貼出來,錯(cuò)誤信息也不講。神也沒辦法給你解決啊

0 回復(fù) 有任何疑惑可以回復(fù)我~

舉報(bào)

0/150
提交
取消
Python開發(fā)簡單爬蟲
  • 參與學(xué)習(xí)       227603    人
  • 解答問題       1288    個(gè)

本教程帶您解開python爬蟲這門神奇技術(shù)的面紗

進(jìn)入課程

我寫的代碼運(yùn)行不出結(jié)果?代碼都是按照老師講的寫的啊

我要回答 關(guān)注問題
微信客服

購課補(bǔ)貼
聯(lián)系客服咨詢優(yōu)惠詳情

幫助反饋 APP下載

慕課網(wǎng)APP
您的移動(dòng)學(xué)習(xí)伙伴

公眾號(hào)

掃描二維碼
關(guān)注慕課網(wǎng)微信公眾號(hào)