日本不卡不码高清免费观看,久久国产精品久久w女人spa,黄色aa久久,三上悠亚国产精品一区二区三区

您的位置:首頁技術文章
文章詳情頁

python爬蟲利器之requests庫的用法(超全面的爬取網頁案例)

瀏覽:148日期:2022-07-02 08:14:28
requests庫

利用pip安裝:pip install requests

基本請求

req = requests.get('https://www.baidu.com/')req = requests.post('https://www.baidu.com/')req = requests.put('https://www.baidu.com/')req = requests.delete('https://www.baidu.com/')req = requests.head('https://www.baidu.com/')req = requests.options(https://www.baidu.com/)1.get請求

參數是字典,我們可以傳遞json類型的參數:

import requestsfrom fake_useragent import UserAgent#請求頭部庫headers = {'User-Agent':UserAgent().random}#獲取一個隨機的請求頭url = 'https://www.baidu.com/s'#網址params={ 'wd':'豆瓣' #網址的后綴}requests.get(url,headers=headers,params=params)

python爬蟲利器之requests庫的用法(超全面的爬取網頁案例)

返回了狀態碼,所以我們要想獲取內容,需要將其轉成text:

#get請求headers = {'User-Agent':UserAgent().random}url = 'https://www.baidu.com/s'params={ 'wd':'豆瓣'}response = requests.get(url,headers=headers,params=params)response.text2.post 請求

參數也是字典,也可以傳遞json類型的參數:

import requests from fake_useragent import UserAgentheaders = {'User-Agent':UserAgent().random}url = 'https://www.baidu.cn/index/login/login' #登錄賬號密碼的網址params = { 'user':'1351351335',#賬號 'password':'123456'#密碼}response = requests.post(url,headers=headers,data=params)response.text

python爬蟲利器之requests庫的用法(超全面的爬取網頁案例)

因為這里需要一個登錄的網頁,我這里就隨便用了一個,沒有登錄,所以顯示的結果是這樣的,如果想要測試登錄的效果,請找一個登錄的頁面去嘗試一下。

3.IP代理

采集時為避免被封IP,經常會使用代理,requests也有相應 的proxies屬性。

#IP代理import requests from fake_useragent import UserAgentheaders = {'User-Agent':UserAgent().random}url = 'http://httpbin.org/get' #返回當前IP的網址proxies = { 'http':'http://yonghuming:123456@192.168.1.1:8088'#http://用戶名:密碼@IP:端口號 #'http':'https://182.145.31.211:4224'# 或者IP:端口號}requests.get(url,headers=headers,proxies=proxies)

代理IP可以去:快代理去找,也可以去購買。http://httpbin.org/get。這個網址是查看你現在的信息:

python爬蟲利器之requests庫的用法(超全面的爬取網頁案例)

4.設置訪問超時時間

可以通過timeout屬性設置超時時間,一旦超過這個時間還沒獲取到響應內容,就會提示錯誤。

#設置訪問時間requests.get('http://baidu.com/',timeout=0.1)

python爬蟲利器之requests庫的用法(超全面的爬取網頁案例)

5.證書問題(SSLError:HTTP)

ssl驗證。

import requests from fake_useragent import UserAgent #請求頭部庫url = 'https://www.12306.cn/index/' #需要證書的網頁地址headers = {'User-Agent':UserAgent().random}#獲取一個隨機請求頭requests.packages.urllib3.disable_warnings()#禁用安全警告response = requests.get(url,verify=False,headers=headers)response.encoding = 'utf-8' #用來顯示中文,進行轉碼response.text

python爬蟲利器之requests庫的用法(超全面的爬取網頁案例)

6.session自動保存cookies

import requestsfrom fake_useragent import UserAgentheaders = {'User-Agent':UserAgent().chrome}login_url = 'https://www.baidu.cn/index/login/login' #需要登錄的網頁地址params = { 'user':'yonghuming',#用戶名 'password':'123456'#密碼}session = requests.Session() #用來保存cookie#直接用session 歹意requests response = session.post(login_url,headers=headers,data=params)info_url = 'https://www.baidu.cn/index/user.html' #登錄完賬號密碼以后的網頁地址resp = session.get(info_url,headers=headers)resp.text

因為我這里沒有使用需要賬號密碼的網頁,所以顯示這樣:

python爬蟲利器之requests庫的用法(超全面的爬取網頁案例)

我獲取了一個智慧樹的網頁

#cookie import requestsfrom fake_useragent import UserAgentheaders = {'User-Agent':UserAgent().chrome}login_url = 'https://passport.zhihuishu.com/login?service=https://onlineservice.zhihuishu.com/login/gologin' #需要登錄的網頁地址params = { 'user':'12121212',#用戶名 'password':'123456'#密碼}session = requests.Session() #用來保存cookie#直接用session 歹意requests response = session.post(login_url,headers=headers,data=params)info_url = 'https://onlne5.zhhuishu.com/onlinWeb.html#/stdetInex' #登錄完賬號密碼以后的網頁地址resp = session.get(info_url,headers=headers)resp.encoding = 'utf-8'resp.text

python爬蟲利器之requests庫的用法(超全面的爬取網頁案例)

7.獲取響應信息

代碼 含義 resp.json() 獲取響應內容 (以json字符串) resp.text 獲取相應內容(以字符串) resp.content 獲取響應內容(以字節的方式) resp.headers 獲取響應頭內容 resp.url 獲取訪問地址 resp.encoding 獲取網頁編碼 resp.request.headers 請求頭內容 resp.cookie 獲取cookie

到此這篇關于python爬蟲利器之requests庫的用法(超全面的爬取網頁案例)的文章就介紹到這了,更多相關python爬蟲requests庫用法內容請搜索好吧啦網以前的文章或繼續瀏覽下面的相關文章希望大家以后多多支持好吧啦網!

標簽: Python 編程
相關文章:
日本不卡不码高清免费观看,久久国产精品久久w女人spa,黄色aa久久,三上悠亚国产精品一区二区三区
久久精品99国产国产精| 伊人久久亚洲热| 最近国产精品视频| 黑丝一区二区| 91视频一区| 99成人在线视频| 久久人人97超碰国产公开结果| 黄色在线一区| aa亚洲婷婷| 在线亚洲观看| 亚洲乱码一区| 久久精品二区三区| 日韩毛片一区| 日韩不卡手机在线v区| 免费在线观看不卡| 日韩一区二区三区免费播放| 国产三级一区| 日韩av首页| 在线一区欧美| 国产精品xxx在线观看| 亚洲欧美专区| 欧美天堂视频| 日本在线一区二区三区| 欧美日韩夜夜| 国产精品xxxav免费视频| 精品三级国产| 91精品久久久久久久久久不卡| 久久精品成人| 日韩精品一二三| 国产欧美自拍| 成人日韩在线观看| 亚洲一区二区日韩| 国产乱码精品| 久久精品观看| 日本综合精品一区| 福利一区视频| 久久亚洲在线| 亚洲免费观看高清完整版在线观| 久久国产生活片100| 亚洲欧洲美洲av| 久热精品在线| 精品免费视频| 女人天堂亚洲aⅴ在线观看| 少妇精品久久久一区二区三区| 久久99久久人婷婷精品综合| 91精品在线观看国产| 亚洲精品看片| 日韩国产一区| 日本a口亚洲| 久久黄色影院| 国产亚洲精品美女久久久久久久久久| 国内精品伊人| 国产精品婷婷| 精品无人区麻豆乱码久久久| 宅男噜噜噜66国产日韩在线观看| 国产伦精品一区二区三区千人斩 | 亚洲精品电影| 国产日韩欧美三级| 久久精品国产亚洲夜色av网站| 日韩精品一区第一页| 久久一区亚洲| 中文字幕免费一区二区| 日本欧美不卡| 国产精品多人| 免费高清在线一区| 一本大道色婷婷在线| 日韩激情视频网站| 九九在线精品| 久久精品国产一区二区| 视频一区在线播放| 92国产精品| 国产精品最新| 免费看日韩精品| 日韩欧美一区二区三区免费看| 日本久久一区| 蜜臀av免费一区二区三区| 欧美a在线观看| 四虎成人精品一区二区免费网站| 久久久蜜桃一区二区人| 久久av导航| 日韩国产一二三区| 亚洲少妇诱惑| 99久久精品费精品国产| 国产精品密蕾丝视频下载| 日韩在线观看一区二区| 欧产日产国产精品视频| 国产精品嫩模av在线| 久久最新视频| 香蕉国产精品| 久久久久久久久久久9不雅视频| 国产日韩免费| 日韩亚洲精品在线观看| 久久亚洲视频| 午夜国产一区二区| 国产综合色区在线观看| 美女视频网站久久| 日本色综合中文字幕| 麻豆精品91| 尤物在线精品| 亚洲特色特黄| 久久久久蜜桃| 欧美国产美女| 久久亚洲精精品中文字幕| 欧美精品中文字幕亚洲专区| 在线精品亚洲| 夜夜嗨网站十八久久| 亚洲第一精品影视| 欧美日韩国产免费观看视频| 精品视频一区二区三区四区五区 | 在线精品视频在线观看高清| 国产精品.xx视频.xxtv| 亚洲三级在线| 老司机精品久久| 午夜日韩福利| 成人免费网站www网站高清| 综合在线一区| 在线综合视频| 国产二区精品| 日韩综合一区二区| 日韩av不卡在线观看| 欧美午夜三级| 91成人在线精品视频| 欧美+亚洲+精品+三区| 精品久久国产一区| 久久久免费人体| 精品中文在线| 国产黄大片在线观看| 成人在线黄色| 国产高潮在线| 久久三级视频| 中文精品视频| 欧美日韩国产免费观看 | 国产美女撒尿一区二区| 日韩福利视频导航| 国产情侣一区在线| 免费日韩一区二区三区| 欧美成a人片免费观看久久五月天| 国产一卡不卡| 国产一区调教| 久久久久美女| 欧美综合另类| 成人午夜精品| 日本不卡免费高清视频在线| 久久三级视频| 日韩天堂av| 亚洲区欧美区| 国产精品va视频| 噜噜噜躁狠狠躁狠狠精品视频| 国产精品日韩精品在线播放 | 在线综合亚洲| 午夜视频精品| 亚洲一区av| 国产日韩免费| 国产va免费精品观看精品视频| 麻豆国产在线| 亚洲一区二区成人| 国产日韩一区二区三区在线播放| 欧美一级二区| 国产成人精品一区二区三区视频 | 国产99久久久国产精品成人免费| 午夜在线一区| 国产精品久久久久77777丨| 欧美国产偷国产精品三区| 午夜精品影院| 欧美偷窥清纯综合图区| 色偷偷偷在线视频播放| 国产美女一区| 国产精品久久久久av蜜臀| 日韩免费在线| 亚洲视频二区| 免费看一区二区三区| 久久精品一区二区不卡| 日本在线视频一区二区| 精品少妇av| 亚洲欧美日本日韩| 国产亚洲精品精品国产亚洲综合| 成人精品视频| 久色成人在线| 精品久久福利| 视频一区二区不卡| 精品视频免费| 日本欧美在线看| 精品成人18| 极品裸体白嫩激情啪啪国产精品| 精品理论电影在线| 欧美日韩国产观看视频| 日本视频一区二区| 日韩欧美一区二区三区在线观看| 亚洲欧美日本国产专区一区| 麻豆精品av| 免播放器亚洲| 水蜜桃久久夜色精品一区| 丝袜美腿一区二区三区| 精品国产不卡| 亚洲毛片一区| 99久精品视频在线观看视频| 热久久久久久| 在线亚洲一区| 中文在线а√天堂| 欧美影院视频|