日本不卡不码高清免费观看,久久国产精品久久w女人spa,黄色aa久久,三上悠亚国产精品一区二区三区

您的位置:首頁技術文章
文章詳情頁

Python爬蟲爬取、解析數據操作示例

瀏覽:65日期:2022-07-31 18:47:09

本文實例講述了Python爬蟲爬取、解析數據操作。分享給大家供大家參考,具體如下:

爬蟲 當當網 http://search.dangdang.com/?key=python&act=input&page_index=1

獲取書籍相關信息 面向對象思想 利用不同解析方式和存儲方式

引用相關庫

import requestsimport reimport csvimport pymysqlfrom bs4 import BeautifulSoupfrom lxml import etreeimport lxmlfrom lxml import html

類代碼實現部分

class DDSpider(object): #對象屬性 參數 關鍵字 頁數 def __init__(self,key=’python’,page=1): self.url = ’http://search.dangdang.com/?key=’+key+’&act=input&page_index={}’ self.page = page self.headers = {’User-Agent’:’Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/53.0.2785.116 Safari/537.36’} #私有對象方法 def __my_url(self): my_url = [] if self.page < 1: my_page = 2 else: my_page = self.page+1 #循環遍歷每一頁 for i in range(1,my_page): my_url.append(self.url.format(i)) return my_url #私有對象方法 請求數據 def __my_request(self,url,parser_type): #循環遍歷每一頁 response = requests.get(url=url,headers=self.headers) if response.status_code == 200: return self.__my_parser(response.text,parser_type) else: return None #私有對象方法 解析數據 1 利用正則 2 bs4 3 xpath def __my_parser(self,html,my_type=1): if my_type == 1: pattern = re.compile(’<p.*?class=[’']name[’'].*?name=[’']title[’'].*?<a.*?title=[’'](.*?)[’'].*?href=[’'](.*?)[’'].*?name=[’']itemlist-title[’'].*?<p class=[’']detail[’'].*?>(.*?)</p>.*?<span.*?class=[’']search_now_price[’'].*?>(.*?)</span>.*?<p.*?class=[’']search_book_author[’'].*?><span>.*?<a.*?name=[’']itemlist-author[’'].*?title=[’'](.*?)[’'].*?</span>’,re.S) result = re.findall(pattern,html) elif my_type == 2: soup = BeautifulSoup(html,’lxml’) result = [] title_url = soup.find_all(’a’,attrs={’name’:’itemlist-title’}) for i in range(0,len(title_url)):title = soup.find_all(’a’,attrs={’name’:’itemlist-title’})[i].attrs[’title’]url = soup.find_all(’a’,attrs={’name’:’itemlist-title’})[i].attrs[’href’]price = soup.find_all(’span’,attrs={’class’:’search_now_price’})[i].get_text()author = soup.find_all(’a’,attrs={’name’:’itemlist-author’})[i].attrs[’title’]desc = soup.find_all(’p’,attrs={’class’:’detail’})[i].get_text()my_tuple = (title,url,desc,price,author)result.append(my_tuple) else: html = etree.HTML(html) li_all = html.xpath(’//div[@id='search_nature_rg']/ul/li’) result = [] for i in range(len(li_all)):title = html.xpath(’//div[@id='search_nature_rg']/ul/li[{}]/p[@class='name']/a/@title’.format(i+1))url = html.xpath(’//div[@id='search_nature_rg']/ul/li[{}]/p[@class='name']/a/@href’.format(i+1))price = html.xpath(’//div[@id='search_nature_rg']/ul/li[{}]//span[@class='search_now_price']/text()’.format(i+1))author_num = html.xpath(’//div[@id='search_nature_rg']/ul/li[{}]/p[@class='search_book_author']/span[1]/a’.format(i+1))if len(author_num) != 0: #有作者 a標簽 author = html.xpath(’//div[@id='search_nature_rg']/ul/li[{}]/p[@class='search_book_author']/span[1]/a[1]/@title’.format(i+1))else: #沒有作者 a標簽 author = html.xpath(’//div[@id='search_nature_rg']/ul/li[{}]/p[@class='search_book_author']/span[1]/text()’.format(i+1))desc = html.xpath(’//div[@id='search_nature_rg']/ul/li[{}]/p[@class='detail']/text()’.format(i+1))my_tuple = (' '.join(title),' '.join(url),' '.join(desc),' '.join(price),' '.join(author))result.append(my_tuple) return result #私有對象方法 存儲數據 1 txt 2 csv 3 mysql def __my_save(self,data,save_type=1): #循環遍歷 for value in data: if save_type == 1:with open(’ddw.txt’,’a+’,encoding='utf-8') as f: f.write(’【名稱】:{}【作者】:{}【價格】:{}【簡介】:{}【鏈接】:{}’.format(value[0],value[4],value[3],value[2],value[1])) elif save_type == 2:with open(’ddw.csv’,’a+’,newline=’’,encoding=’utf-8-sig’) as f: writer = csv.writer(f) #轉化為列表 存儲 writer.writerow(list(value)) else:conn = pymysql.connect(host=’127.0.0.1’,user=’root’,passwd=’’,db=’’,port=3306,charset=’utf8’)cursor = conn.cursor()sql = ’’cursor.execute(sql)conn.commit()cursor.close()conn.close() #公有對象方法 執行所有爬蟲操作 def my_run(self,parser_type=1,save_type=1): my_url = self.__my_url() for value in my_url: result = self.__my_request(value,parser_type) self.__my_save(result,save_type)

調用爬蟲類實現數據獲取

if __name__ == ’__main__’: #實例化創建對象 dd = DDSpider(’python’,0) #參數 解析方式 my_run(parser_type,save_type) # parser_type 1 利用正則 2 bs4 3 xpath #存儲方式 save_type 1 txt 2 csv 3 mysql dd.my_run(2,1)

==總結一下: ==

1. 總體感覺正則表達式更簡便一些 , 代碼也會更簡便 , 但是正則部分相對復雜和困難2. bs4和xpath 需要對html代碼有一定了解 , 取每條數據多個值時相對較繁瑣

更多關于Python相關內容可查看本站專題:《Python Socket編程技巧總結》、《Python正則表達式用法總結》、《Python數據結構與算法教程》、《Python函數使用技巧總結》、《Python字符串操作技巧匯總》、《Python入門與進階經典教程》及《Python文件與目錄操作技巧匯總》

希望本文所述對大家Python程序設計有所幫助。

標簽: Python 編程
相關文章:
日本不卡不码高清免费观看,久久国产精品久久w女人spa,黄色aa久久,三上悠亚国产精品一区二区三区
日韩欧美一区二区三区免费看| 亚洲国产欧美日本视频| 国产成人精品免费视| 美腿丝袜亚洲三区| 麻豆精品久久久| 久久精品国产亚洲aⅴ | 亚洲综合小说| 蜜臀av一区二区在线免费观看 | 欧美日韩激情| 久久亚洲风情| 日本一区二区中文字幕| 国产欧美另类| 精品三级在线观看视频| 日韩伦理在线一区| 亚洲二区在线| 日韩在线卡一卡二| 日韩在线一二三区| 日韩精品欧美成人高清一区二区| 日本午夜精品一区二区三区电影| 日韩av一级片| 国产精品成久久久久| 91精品亚洲| 蜜臀a∨国产成人精品| 国产日产一区| 伊人久久av| 亚洲一区免费| 福利一区二区| 久久不射网站| 国产精品亚洲产品| 日韩欧美午夜| 视频一区二区不卡| 国产精品视频一区视频二区| 黄色精品视频| 日韩视频不卡| 欧美国产不卡| 亚洲第一区色| 91国内精品| 波多视频一区| 亚洲色图网站| 国产成人精品福利| 亚洲高清激情| 欧美一级网址| 97精品一区二区| 国产视频一区在线观看一区免费| 日本一不卡视频| 久久香蕉精品香蕉| 91亚洲一区| 欧美日韩国产在线一区| 国产日韩欧美三区| av亚洲免费| 国产精品欧美大片| 亚洲性视频h| 日韩精品一区二区三区av| 国内在线观看一区二区三区| 99精品99| 成人日韩av| 免费成人在线影院| 日韩综合一区| 亚洲精品三级| 亚洲综合电影| 亚洲另类黄色| 三上亚洲一区二区| 综合一区二区三区| 日韩专区精品| 欧美日本三区| 尤物精品在线| 国产va在线视频| 日韩av一区二区三区四区| 欧美亚洲国产一区| 久久97视频| 日韩一区中文| 午夜电影亚洲| 国产精品精品| 国产调教精品| 爽爽淫人综合网网站| 免费污视频在线一区| 国产精品欧美一区二区三区不卡| 亚洲一区日韩| 亚洲不卡av不卡一区二区| 欧美aaaaaa午夜精品| 亚洲综合小说| 亚州av乱码久久精品蜜桃| 国产精品精品| 国产欧美日韩一区二区三区四区 | 日韩在线短视频| 久久不见久久见免费视频7| 国产麻豆综合| 亚洲精品.com| 国产suv精品一区二区四区视频| 蜜桃视频第一区免费观看| 99精品电影| 福利一区和二区| 国产麻豆一区| 日韩精品久久理论片| 久久成人国产| 蜜臀91精品国产高清在线观看| 国产aⅴ精品一区二区四区| 久久国内精品视频| 亚洲啊v在线免费视频| 一区视频在线| 国产一区二区三区自拍| jizzjizz中国精品麻豆| 久久久久九九精品影院| 国产欧美一区二区三区精品观看| 最新亚洲国产| 蜜臀av性久久久久蜜臀aⅴ流畅| 在线亚洲成人| 在线亚洲精品| 国产精品日本欧美一区二区三区| 欧美91精品| 91久久国产| 黄色av日韩| 亚洲在线一区| 爽好久久久欧美精品| 久久国产精品毛片| 国产精品普通话对白| 久久久久99| 亚洲午夜一级| 狠狠干成人综合网| 国产亚洲激情| 亚洲在线电影| 亚洲人妖在线| 69堂精品视频在线播放| 青青草精品视频| 国产探花一区在线观看| 久久狠狠亚洲综合| 国产精品巨作av| 久久精品系列| 成人国产精品久久| 亚洲人成在线网站| 久久国产亚洲精品| 亚洲一级黄色| 久久先锋影音| 日韩不卡在线观看日韩不卡视频| 日韩va亚洲va欧美va久久| 久久国产视频网| 欧美国产专区| xxxxx性欧美特大| 亚洲网站视频| 日韩中文字幕区一区有砖一区| 亚洲精品乱码| 欧美精品第一区| 深夜福利视频一区二区| 激情综合网站| 亚洲免费资源| 国产精品s色| 黄色网一区二区| 日韩精品午夜| 国产精品普通话对白| 色综合视频一区二区三区日韩 | 亚洲精品韩国| 欧美日韩精品一区二区三区在线观看| 69精品国产久热在线观看| 欧美午夜精品一区二区三区电影| 欧美精品一区二区久久| 一区二区不卡| 国产精品入口久久| 蜜臀久久精品| 国产精品99免费看| 亚洲三级观看| 国产第一亚洲| 欧美日韩国产在线一区| 亚洲18在线| 国产欧美一级| 丝袜诱惑一区二区| 99国产成+人+综合+亚洲欧美| 视频一区二区欧美| 国产精品男女| 亚洲四虎影院| 日韩精品一级二级 | 久久久777| 色综合视频一区二区三区日韩 | 性一交一乱一区二区洋洋av| 视频一区二区国产| 欧美1区二区| 午夜国产精品视频免费体验区| 日本精品久久| 久久国产欧美| 日韩精品一区二区三区av| 人在线成免费视频| 蜜臀久久99精品久久久久宅男| 麻豆精品在线| 中文国产一区| 精品欧美视频| 美国欧美日韩国产在线播放| 精品视频一区二区三区四区五区| 精品91久久久久| 麻豆精品一区二区综合av| 日韩免费久久| 久久国产日韩欧美精品| 日韩综合一区二区| 欧美日韩一区二区三区视频播放| 欧美一区二区三区久久精品| 亚洲91久久| 国产精品v亚洲精品v日韩精品| 尤物精品在线| 国产精选在线| 国产日韩欧美一区二区三区在线观看 | 精品99在线| 一二三区精品|