1 回答

TA貢獻(xiàn)1843條經(jīng)驗(yàn) 獲得超7個(gè)贊
首先python是解釋語言,寫程序很方便,所以做研究的人喜歡用它。正如為什么很多做研究的人用Matlab那樣。出成果才是研究者關(guān)心的事情,實(shí)現(xiàn)只要方便就行。
然而在性能方面,我拿 python 和 c++ 做個(gè)比較。
c++ 的cpu效率是遠(yuǎn)遠(yuǎn)高于 python 的,這點(diǎn)大家都承認(rèn)吧。不過 python 是一門膠水語言,它可以和任何語言結(jié)合,基于這個(gè)優(yōu)點(diǎn),很多數(shù)據(jù)處理的python 庫底層都是 c++ 實(shí)現(xiàn)的,意思就是說:你用python寫code,但效率是c++的。只有那些for 循環(huán),還是用python的效率。
近年來機(jī)器學(xué)習(xí)最要是深度學(xué)習(xí),而深度學(xué)習(xí)使用cuda gpu加速遠(yuǎn)比cpu要快,而cuda 是c++寫的。所以現(xiàn)在TensorLayer、theano 等深度學(xué)習(xí)庫都是 python 編程、底層c++。
而那些for 循環(huán)的效率,在整體耗時(shí)里面完全可以忽略!
有的人就會(huì)說,那為什么不直接用c++ 寫cuda?不是更快嗎?我想告訴大家,如果沒有多年的cuda經(jīng)驗(yàn),寫出來的代碼效率絕對(duì)是個(gè)問題。
- 1 回答
- 0 關(guān)注
- 844 瀏覽
添加回答
舉報(bào)