日本不卡不码高清免费观看,久久国产精品久久w女人spa,黄色aa久久,三上悠亚国产精品一区二区三区

您的位置:首頁技術文章
文章詳情頁

Python爬取網頁信息的示例

瀏覽:24日期:2022-07-10 09:13:35

Python爬取網頁信息的步驟

以爬取英文名字網站(https://nameberry.com/)中每個名字的評論內容,包括英文名,用戶名,評論的時間和評論的內容為例。

1、確認網址

在瀏覽器中輸入初始網址,逐層查找鏈接,直到找到需要獲取的內容。

在打開的界面中,點擊鼠標右鍵,在彈出的對話框中,選擇“檢查”,則在界面會顯示該網頁的源代碼,在具體內容處點擊查找,可以定位到需要查找的內容的源碼。

注意:代碼顯示的方式與瀏覽器有關,有些瀏覽器不支持顯示源代碼功能(360瀏覽器,谷歌瀏覽器,火狐瀏覽器等是支持顯示源代碼功能)

步驟圖:

1)首頁,獲取A~Z的頁面鏈接

Python爬取網頁信息的示例

Python爬取網頁信息的示例

2)名字鏈接頁,獲取每個字母中的名字鏈接(存在翻頁情況)

Python爬取網頁信息的示例

3)名字內容頁,獲取每個名字的評論信息

Python爬取網頁信息的示例

2、編寫測試代碼

1)獲取A~Z鏈接,在爬取網頁信息時,為了減少網頁的響應時間,可以根據已知的信息,自動生成對應的鏈接,這里采取自動生成A~Z之間的連接,以pandas的二維數組形式存儲

def get_url1(): urls=[] # A,’B’,’C’,’D’,’E’,’F’,’G’,’H’,’I’,’J’,’K’,’L’,’M’,’N’,’O’,’P’,’Q’,’R’,’S’,’T’,’U’,’V’,’W’,’X’,’Y’,’Z’ a=[’A’,’B’,’C’,’D’,’E’,’F’,’G’,’H’,’I’,’J’,’K’,’L’,’M’,’N’,’O’,’P’,’Q’,’R’,’S’,’T’,’U’,’V’,’W’,’X’,’Y’,’Z’]#自動生成A~Z的鏈接 for i in a: urls.append('https://nameberry.com/search/baby_names_starting_with/%s' %i) dp=pd.DataFrame(urls) dp.to_csv('A~Z_Link1.csv',mode='a',encoding=’utf_8_sig’)#循環用于在每個字母鏈接下,調用爬取名字鏈接的頁面的函數,即函數嵌套 for j in urls: get_pages_Html(j) return urls

2)獲取名字鏈接,根據網頁源碼分析出包含名字鏈接的標簽,編寫代碼,名字鏈接用直接存儲的方式存儲,方便讀取名字鏈接進行對名字的評論內容的獲取

#獲取頁數def get_pages_Html(url1): req = requests.get(url1) soup=BeautifulSoup(req.text)#異常處理,為解決頁面不存在多頁的問題,使用re正則表達式獲取頁面數 try: lastpage = soup.find(class_='last').find('a')[’href’] str1=’{}’.format(lastpage) b=re.findall(’d+’, str1 ) for page in b: num=page except: num=1 get_pages(num,url1) return numdef get_pages(n,url): pages=[] for k in range(1,int(n)+1): pages.append('{}?page={}'.format(url,k)) dp=pd.DataFrame(pages) dp.to_csv('NUM_pages_1.csv',mode='a',encoding=’utf_8_sig’) #函數調用 for l in pages: parse_HTML2(l) return pages# 名字的鏈接,根據網頁源碼的標簽,確定名字鏈接的位置def parse_HTML2(url2): try: req = requests.get(url2) req.encoding = req.apparent_encoding soup = BeautifulSoup(req.text) except: dp=pd.DataFrame(url2) dp.to_csv('Error_pages_1.csv',mode='a',encoding=’utf_8_sig’) name_data_l=[] error=[] li_list = soup.find_all(’li’,class_='Listing-name pt-15 pb-15 bdb-gray-light w-100pct flex border-highlight') try: for li in li_list: nameList=li.find(’a’,class_=’flex-1’)[’href’] name_data_l.append(’https://nameberry.com/’+nameList) time.sleep(1) cun(name_data_l,’Name_List_1’) except: dp=pd.DataFrame(name_data_l) dp.to_csv('Error_Name_List_1.csv',mode='a',encoding=’utf_8_sig’) # cun(url2,’Error_link_Q’) # dp=pd.DataFrame(name_data_l) # dp.to_csv('Name_List.csv',mode='a',encoding=’utf_8_sig’) # for i in name_data_l: # parse_HTML3(i) return name_data_l

3)獲取名字評論的內容,采用字典形式寫入文件

# 名字里的內容def parse_HTML3(url3): count=0 req = requests.get(url3) req.encoding = req.apparent_encoding soup = BeautifulSoup(req.text) error=[] try: Name=soup.find(’h1’,class_=’first-header’).find('a').get_text().replace(',','').replace('n','') except: error.append(url3) cun(error,'Error_Link_Comment') li_list = soup.find_all(’div’,class_='comment') for li in li_list: Title=li.find('h4').get_text().replace(',','').replace('n','') Time=li.find('p',class_=’meta’).get_text().replace(',','').replace('n','') Comments=li.find('div',class_=’comment-text’).get_text().replace(',','').replace('n','') dic2={ 'Name':Name, 'Title':Title, 'Time':Time, 'Comments':Comments } time.sleep(1) count=count+1 save_to_csv(dic2,'Name_data_comment') print(count) return 1

3、測試代碼

1)代碼編寫完成后,具體的函數調用邏輯,獲取鏈接時,為直接的函數嵌套,獲取內容時,為從文件中讀取出名字鏈接,在獲取名字的評論內容。避免因為逐層訪問,造成訪問網頁超時,出現異常。

如圖:

Python爬取網頁信息的示例

2)測試結果

Python爬取網頁信息的示例

4、小結

在爬取網頁內容時,要先分析網頁源碼,再進行編碼和調試,遵從爬蟲協議(嚴重者會被封號),在爬取的數據量非常大時,可以設置順序部分請求(一部分的進行爬取網頁內容)。

總之,爬蟲有風險,測試需謹慎!!!

以上就是Python爬取網頁信息的示例的詳細內容,更多關于Python爬取網頁信息的資料請關注好吧啦網其它相關文章!

標簽: Python 編程
相關文章:
日本不卡不码高清免费观看,久久国产精品久久w女人spa,黄色aa久久,三上悠亚国产精品一区二区三区
四虎8848精品成人免费网站| 日韩福利视频网| 午夜在线精品| 日韩精品一级中文字幕精品视频免费观看| 中文久久精品| 久久国产三级| 超碰在线99| 亚洲一区资源| 999久久久91| 黄色亚洲大片免费在线观看| 亚洲精品日韩久久| 日本精品在线播放| 国产欧美日韩精品高清二区综合区| 久久不见久久见中文字幕免费| 国产91在线精品| 午夜日韩福利| 欧美日韩国产传媒| 国产欧美另类| 久久国产精品免费精品3p| 日本不卡一区二区三区| 国产情侣一区| 国产a久久精品一区二区三区| 激情中国色综合| 美女福利一区二区三区| 久久国产中文字幕| 亚洲ww精品| 日韩精品一区二区三区免费视频| 日韩动漫一区| 久久精品国产99国产精品| 日韩午夜在线| 男女男精品视频网| 97se亚洲| 成人福利av| 亚洲精品网址| 亚洲精品伊人| 大香伊人久久精品一区二区| 国产一区日韩欧美| 亚洲日本在线观看视频| 精品美女视频 | 亚洲免费网址| 国产精品久久久久77777丨| 蜜桃av一区二区三区电影| 亚洲资源网站| 国产日韩欧美高清免费| 国产一区二区视频在线看| 精品精品国产三级a∨在线| 91精品国产91久久久久久黑人| 国产亚洲福利| 免费在线亚洲欧美| 欧美日韩视频免费观看| 日韩精品高清不卡| 久久伊人久久| 国产一区久久| 7777精品| 一区二区三区四区在线看| 亚洲日产国产精品| 高清久久精品| 在线国产精品一区| 久久精品五月| 午夜免费一区| 国产色噜噜噜91在线精品| 免费毛片在线不卡| 国产精品毛片久久久| 激情欧美日韩一区| 国产精品美女久久久久久不卡| 国产精品av一区二区| 国产日韩一区二区三区在线 | 久久精品国产www456c0m| 日本不卡在线视频| 91一区二区三区四区| 亚洲一区二区日韩| 欧美日韩视频免费观看| 国产乱码精品一区二区三区四区| 怡红院精品视频在线观看极品| 欧美91在线|欧美| 日韩精品一级中文字幕精品视频免费观看| 福利一区二区三区视频在线观看| 日日摸夜夜添夜夜添国产精品| av亚洲一区二区三区| 日韩av一区二区在线影视| 九一国产精品| 国产不卡人人| 国产精品xxx| 视频一区日韩| 欧美日韩国产免费观看| 久久天堂影院| 日韩国产成人精品| 久久国产成人| 伊人久久大香线蕉av不卡| 久久亚洲黄色| 国产日韩在线观看视频| 蜜臀久久久久久久| 亚洲v在线看| 精品美女在线视频| 国产美女久久| 日韩极品在线观看| 久久福利一区| 欧美精品一区二区久久| 国产亚洲一区二区手机在线观看| 国产高清亚洲| 日本在线成人| 亚洲一区二区日韩| 99亚洲视频| 久久男女视频| 国产中文在线播放| 国产一区二区精品福利地址| 欧美激情在线精品一区二区三区| 日韩欧美高清一区二区三区| 蜜芽一区二区三区| 亚洲在线免费| 久久电影一区| 丝袜美腿亚洲一区| 日韩视频二区| 中文在线不卡| 91九色精品| 99国产精品免费视频观看| 国产精品成人a在线观看| 麻豆91小视频| 成人午夜亚洲| 国产aⅴ精品一区二区四区| 老司机精品在线| 国产精品巨作av| 国产精品www994| 六月丁香综合在线视频| 美女久久精品| 六月婷婷综合| 国产精品精品| 日韩精品麻豆| 亚洲一本视频| 日韩视频久久| 夜久久久久久| 亚洲综合婷婷| 日韩高清欧美激情| 国产欧美日韩视频在线| 国产剧情在线观看一区| 美女久久久久久| 精品国产免费人成网站| 99久久视频| 午夜日韩av| 亚洲欧洲美洲国产香蕉| 青青草91久久久久久久久| 久久99久久久精品欧美| 国精品产品一区| 久久久久美女| 久久国产精品毛片| 深夜福利亚洲| 久久不卡国产精品一区二区| 精品美女视频 | 亚洲最大av| 国产亚洲字幕| 久久久久久夜| 激情五月色综合国产精品| 国产亚洲在线| 日韩中文字幕区一区有砖一区| 一区二区日韩免费看| 国产日韩欧美一区二区三区在线观看 | 国产高清一区| 亚洲精选91| 美女精品一区二区| 色爱av综合网| 中文字幕一区二区av| 国产精品1区在线| 伊人久久国产| 蜜臀va亚洲va欧美va天堂| 国产精品视频一区二区三区四蜜臂 | 在线观看亚洲精品福利片| 日韩不卡在线观看日韩不卡视频 | 蜜桃视频欧美| 亚洲区第一页| 风间由美中文字幕在线看视频国产欧美 | 久久亚洲精品中文字幕| 偷拍精品精品一区二区三区| 亚洲欧美日韩国产一区二区| 国产欧美日韩一级| 国产精品yjizz视频网| 亚洲在线国产日韩欧美| 麻豆久久一区二区| 国产一区二区中文| 国产日韩一区二区三区在线| 成人在线网站| 免费人成网站在线观看欧美高清| 欧美国产日韩电影| 伊人久久大香线蕉av不卡| 97久久超碰| 亚洲一级网站| 国产精品国码视频| 婷婷亚洲五月| 久久av网站| 男人操女人的视频在线观看欧美| 国产精品手机在线播放| 国内亚洲精品| 国产精品成人自拍| 精品中文一区| 麻豆传媒一区二区三区| 国产模特精品视频久久久久| 精品五月天堂| 亚洲免费资源| 四虎4545www国产精品 | 欧美日韩在线二区| 国产精品magnet|