最贊回答 / 益達(dá)吃益達(dá)
#個(gè)人見(jiàn)解#當(dāng)使用的字段名、表名等與MySQL保留字沖突時(shí)(如創(chuàng)建名為desc的字段、往desc表中插入記錄),如果不加反引號(hào)``,無(wú)法執(zhí)行成功。因此,INSERT `desc` VALUES('aa','bb');可以執(zhí)行成功。而INSERT desc VALUES('aa','bb');執(zhí)行失敗。而當(dāng)你所使用的的字段名、表名不含有保留字時(shí),可以不加反引號(hào)``
2017-01-18
買(mǎi)一本圖靈系列的 python網(wǎng)絡(luò)數(shù)據(jù)采集 配合本視頻學(xué)習(xí)效果最佳?。?!
(這里其實(shí)就是將書(shū)里面的內(nèi)容錄的視頻)
(這里其實(shí)就是將書(shū)里面的內(nèi)容錄的視頻)
2017-01-17
言簡(jiǎn)意賅,思路清晰,之前在書(shū)上懵懂的知識(shí)點(diǎn) 一下被點(diǎn)醒了, 期待作者出更多的視頻
2017-01-13
@開(kāi)心與無(wú)限 選中LAParams alt+回車(chē)自動(dòng)導(dǎo)入對(duì)應(yīng)模塊
2017-01-13
mac 10.10 安裝sudo pip3 pdfminer3k pypi網(wǎng)站上下載pdfminer3k文件解壓2次
驗(yàn)證安裝 cd ~/Downloads/pdfminer3k-1.3.1/tools
python3 pdf2txt.py ../samples/simple1.pdf
驗(yàn)證安裝 cd ~/Downloads/pdfminer3k-1.3.1/tools
python3 pdf2txt.py ../samples/simple1.pdf
2017-01-13
#我的目的是數(shù)據(jù)的收集與分析,爬蟲(chóng)就是我收集數(shù)據(jù)的工具,
!以面向?qū)ο蟮木幊谭妒絹?lái)分功能模塊的寫(xiě)爬蟲(chóng),爬蟲(chóng)集合url管理,網(wǎng)頁(yè)下載,網(wǎng)頁(yè)解析,數(shù)據(jù)儲(chǔ)存,以達(dá)到省時(shí)省力的獲取數(shù)據(jù),這才是一個(gè)好爬蟲(chóng)呢~~~
#這是我數(shù)據(jù)收集分析的開(kāi)始(純愛(ài)好),開(kāi)始就有這么好的課,我多幸運(yùn)啊~~哈~
謝謝,老師~
!以面向?qū)ο蟮木幊谭妒絹?lái)分功能模塊的寫(xiě)爬蟲(chóng),爬蟲(chóng)集合url管理,網(wǎng)頁(yè)下載,網(wǎng)頁(yè)解析,數(shù)據(jù)儲(chǔ)存,以達(dá)到省時(shí)省力的獲取數(shù)據(jù),這才是一個(gè)好爬蟲(chóng)呢~~~
#這是我數(shù)據(jù)收集分析的開(kāi)始(純愛(ài)好),開(kāi)始就有這么好的課,我多幸運(yùn)啊~~哈~
謝謝,老師~
2017-01-10
#秋名山上行人稀,常有車(chē)神較高低.如今車(chē)道依舊在,不見(jiàn)當(dāng)年老司機(jī).
#車(chē)神的這個(gè)課程,安全覆蓋了一個(gè)爬蟲(chóng)的功能塊———網(wǎng)頁(yè)下載,網(wǎng)頁(yè)解析,數(shù)據(jù)寫(xiě)于與儲(chǔ)存,按使用的需求來(lái)說(shuō),已經(jīng)完全夠用的的,首先說(shuō),這個(gè)課程真的很好!我很開(kāi)心。但是本課程我希望車(chē)神能用面向?qū)ο蟮木幊谭妒?,?lái)做個(gè)示例,
因?yàn)槟秸n網(wǎng)另一個(gè)爬蟲(chóng)視頻就是教以面向?qū)ο髞?lái)寫(xiě)的,而且分了url管理器,網(wǎng)頁(yè)下載器,網(wǎng)頁(yè)解析器(這些應(yīng)該是對(duì)象吧,我小白),但是我基礎(chǔ)有點(diǎn)差,而且那位老師一直用快捷鍵,讓我迷迷糊糊的,
#總之,這個(gè)課程教我實(shí)用的東西比較多(bs,文件寫(xiě)入,數(shù)據(jù)庫(kù)儲(chǔ)存),另一個(gè)教我的爬蟲(chóng)結(jié)構(gòu)思想,
#車(chē)神的這個(gè)課程,安全覆蓋了一個(gè)爬蟲(chóng)的功能塊———網(wǎng)頁(yè)下載,網(wǎng)頁(yè)解析,數(shù)據(jù)寫(xiě)于與儲(chǔ)存,按使用的需求來(lái)說(shuō),已經(jīng)完全夠用的的,首先說(shuō),這個(gè)課程真的很好!我很開(kāi)心。但是本課程我希望車(chē)神能用面向?qū)ο蟮木幊谭妒?,?lái)做個(gè)示例,
因?yàn)槟秸n網(wǎng)另一個(gè)爬蟲(chóng)視頻就是教以面向?qū)ο髞?lái)寫(xiě)的,而且分了url管理器,網(wǎng)頁(yè)下載器,網(wǎng)頁(yè)解析器(這些應(yīng)該是對(duì)象吧,我小白),但是我基礎(chǔ)有點(diǎn)差,而且那位老師一直用快捷鍵,讓我迷迷糊糊的,
#總之,這個(gè)課程教我實(shí)用的東西比較多(bs,文件寫(xiě)入,數(shù)據(jù)庫(kù)儲(chǔ)存),另一個(gè)教我的爬蟲(chóng)結(jié)構(gòu)思想,
2017-01-10
最新回答 / Explorer_C
原本我也是遇到這個(gè)問(wèn)題搜索全網(wǎng)發(fā)現(xiàn)就這么一個(gè)帖子相關(guān)-。-其實(shí)程序輸出沒(méi)錯(cuò),是理解錯(cuò)誤的原因。BS4解析HTML文件,就很直接的,看到<p>這個(gè)標(biāo)簽符合條件,返回值為T(mén)rue,打印出來(lái)的就是<p>標(biāo)簽里的內(nèi)容呀,只是恰好包含了幾個(gè)<a>標(biāo)簽,因?yàn)檫@些<a>標(biāo)簽是<p>標(biāo)簽的子節(jié)點(diǎn)呀。而并沒(méi)有單獨(dú)地把<a>標(biāo)簽打印出來(lái)就說(shuō)明程序的輸出是沒(méi)問(wèn)題的。
2017-01-09
```
ImportError: cannot import name 'request'
```
這個(gè)錯(cuò)誤是定義文件名成urllib.py引起的,解決方法是:重命名為其他名字
ImportError: cannot import name 'request'
```
這個(gè)錯(cuò)誤是定義文件名成urllib.py引起的,解決方法是:重命名為其他名字
2017-01-04