urllib2中的request.add_data()的作用
在老師講的第二種方法中,用到了request.add_data('a','1')方法,不是很清楚這個(gè)方法的作用是什么?把'a','1'添加到網(wǎng)頁中?
個(gè)人用的是python2.7,使用request.add_data('a','1')報(bào)錯(cuò),如下
? ? request.add_data('a','1')
TypeError: add_data() takes exactly 2 arguments (3 given)
請(qǐng)問下,是什么造成這個(gè)錯(cuò)誤的?
2016-11-13
www.baidu.com? ?只是首頁 你要用他干什么呢 比如 你要用它搜索 python 他的鏈接請(qǐng)求就會(huì)變成 www.baidu.com?wd=python? (這只是給你簡(jiǎn)單解釋下 真實(shí)的鏈接比較復(fù)雜 做了很多處理) 自己搜下 看下地址欄就知道了,簡(jiǎn)單來說 就根據(jù)不同的請(qǐng)求參數(shù) 可以讓我抓取不同的頁面和內(nèi)容。
ps:去了解HTTP協(xié)議的get請(qǐng)求和post請(qǐng)求。
2019-05-16
python2.0版本導(dǎo)入cookielib直接import cookielib
python 3.6 改成 http.cookiejar了
2016-11-12
add_data() 給請(qǐng)求鏈接添加參數(shù) 增加之后 ?url變成 http://www.baidu.com?w=1?現(xiàn)在這個(gè)方法已經(jīng)變了 只能傳入倆個(gè)參數(shù),具體看視頻下面的評(píng)論有慕友解釋過了