我的解析器那里有問(wèn)題,soup = BeautifulSoup(html_cont,'html.parser'),soup無(wú)法返回,也不報(bào)錯(cuò)
2019-06-28
最新回答 / qq_王者之心_1
links=soup.find_all("a",?href=re.compile(r"/item/*"))html_download 里這里要處理下
url?=?urllib.parse.quote(url,?safe='/:?=.')??#?解決地址中有中文的問(wèn)題 resp?=?urllib.request.urlopen(url)
2019-06-17
現(xiàn)在是連接是http://baike.baidu.com/item/Python
所以links = soup.find_all('a', href=re.compile(r"/item/(.*)"))
另外summary新連接里有中文
fout.write("<td>%s</td>" % data['summary'].encode('utf-8'))
所以links = soup.find_all('a', href=re.compile(r"/item/(.*)"))
另外summary新連接里有中文
fout.write("<td>%s</td>" % data['summary'].encode('utf-8'))
2019-06-14
只爬取了入口url就結(jié)束了,去掉try也一樣,沒(méi)有任何報(bào)錯(cuò),不知道啥情況啊啊啊
2019-06-13
只爬取了入口url就結(jié)束了,去掉try也一樣,沒(méi)有任何報(bào)錯(cuò),不知道啥情況啊啊啊
2019-06-13
只爬取了入口url就結(jié)束了,去掉try也一樣,沒(méi)有任何報(bào)錯(cuò),不知道啥情況啊啊啊
2019-06-10