最贊回答 / Thistledown
老師用的是Chrome的 XPATH擴(kuò)展程序?XPath Helper你也可以在瀏覽器里按 F12 找到對(duì)應(yīng)元素后右鍵選擇 Copy->Copy XPath<...圖片...>
2018-10-16
最贊回答 / 慕容0352477
request.meta['Proxy']?=?'http-pro.abuyun.com:9010'我是把‘proxy'改為'Proxy'后好像可以了
2018-10-15
最新回答 / qq_半字淺眉_1
有,/????? 從根節(jié)點(diǎn)選取??//??? 從匹配選擇的當(dāng)前節(jié)點(diǎn)選擇文檔中的節(jié)點(diǎn),而不考慮它們的位置。
2018-10-15
已采納回答 / 慕尼黑7825836
在python 代碼中加入```sys.path.append(os.path.abspath(os.path.join(os.getcwd(), "..")))? # 當(dāng)前項(xiàng)目路徑加入```可嘗試解決辦法:配置文件的工作路徑 ? working directory
2018-10-13
最新回答 / 蔥油拌面
已解決,
request.headers['Proxy-Authorization']?=?'Basic'?+?encode_pass_name.decode() 'Basic'??-----加空格------>??'Basic?'
2018-10-11
最新回答 / 慕仔3469222
重新寫個(gè)main函數(shù),里面寫from scrapy import cmdlinecmdline.execute(‘scrapy crawl mydodin’.split()),然后運(yùn)行main文件即可或者用命令行來運(yùn)行你成功生成了spider項(xiàng)目說明安裝沒問題,只是你運(yùn)行的文件錯(cuò)了。
2018-10-11
最贊回答 / touch_the_dream
不是de是en,看清楚方法,比較容易弄錯(cuò)你寫的是
base64.b64decode(proxy_name_pass)正確的是
base64.b64encode(proxy_name_pass)
2018-10-10