日本不卡不码高清免费观看,久久国产精品久久w女人spa,黄色aa久久,三上悠亚国产精品一区二区三区

您的位置:首頁技術文章
文章詳情頁

python爬蟲學習筆記之Beautifulsoup模塊用法詳解

瀏覽:29日期:2022-07-30 15:36:12

本文實例講述了python爬蟲學習筆記之Beautifulsoup模塊用法。分享給大家供大家參考,具體如下:

相關內容: 什么是beautifulsoup bs4的使用 導入模塊 選擇使用解析器 使用標簽名查找 使用findfind_all查找 使用select查找

首發時間:2018-03-02 00:10

什么是beautifulsoup: 是一個可以從HTML或XML文件中提取數據的Python庫.它能夠通過你喜歡的轉換器實現慣用的文檔導航,查找,修改文檔的方式.(官方) beautifulsoup是一個解析器,可以特定的解析出內容,省去了我們編寫正則表達式的麻煩。

Beautiful Soup 3 目前已經停止開發,我們推薦在現在的項目中使用Beautiful Soup 4

beautifulsoup的版本:最新版是bs4

bs4的使用:1.導入模塊:

from bs4 import beautifulsoup2.選擇解析器解析指定內容:

soup=beautifulsoup(解析內容,解析器)

常用解析器:html.parser,lxml,xml,html5lib

有時候需要安裝安裝解析器:比如pip3 install lxml

BeautifulSoup默認支持Python的標準HTML解析庫,但是它也支持一些第三方的解析庫:

python爬蟲學習筆記之Beautifulsoup模塊用法詳解

解析器之間的區別 #此處摘自官方文檔

Beautiful Soup為不同的解析器提供了相同的接口,但解析器本身時有區別的.同一篇文檔被不同的解析器解析后可能會生成不同結構的樹型文檔.區別最大的是HTML解析器和XML解析器,看下面片段被解析成HTML結構:

BeautifulSoup('<a><b /></a>')# <html><head></head><body><a><b></b></a></body></html>

因為空標簽<b />不符合HTML標準,所以解析器把它解析成<b></b>

同樣的文檔使用XML解析如下(解析XML需要安裝lxml庫).注意,空標簽<b />依然被保留,并且文檔前添加了XML頭,而不是被包含在<html>標簽內:

BeautifulSoup('<a><b /></a>', 'xml')# <?xml version='1.0' encoding='utf-8'?># <a><b/></a>

HTML解析器之間也有區別,如果被解析的HTML文檔是標準格式,那么解析器之間沒有任何差別,只是解析速度不同,結果都會返回正確的文檔樹.

但是如果被解析文檔不是標準格式,那么不同的解析器返回結果可能不同.下面例子中,使用lxml解析錯誤格式的文檔,結果</p>標簽被直接忽略掉了:

BeautifulSoup('<a></p>', 'lxml')# <html><body><a></a></body></html>

使用html5lib庫解析相同文檔會得到不同的結果:

BeautifulSoup('<a></p>', 'html5lib')# <html><head></head><body><a><p></p></a></body></html>

html5lib庫沒有忽略掉</p>標簽,而是自動補全了標簽,還給文檔樹添加了<head>標簽.

使用pyhton內置庫解析結果如下:

BeautifulSoup('<a></p>', 'html.parser')# <a></a>

與lxml [7] 庫類似的,Python內置庫忽略掉了</p>標簽,與html5lib庫不同的是標準庫沒有嘗試創建符合標準的文檔格式或將文檔片段包含在<body>標簽內,與lxml不同的是標準庫甚至連<html>標簽都沒有嘗試去添加.

因為文檔片段“<a></p>”是錯誤格式,所以以上解析方式都能算作”正確”,html5lib庫使用的是HTML5的部分標準,所以最接近”正確”.不過所有解析器的結構都能夠被認為是”正常”的.

不同的解析器可能影響代碼執行結果,如果在分發給別人的代碼中使用了 BeautifulSoup ,那么最好注明使用了哪種解析器,以減少不必要的麻煩.

3.操作【約定soup是beautifulsoup(解析內容,解析器)返回的解析對象】: 使用標簽名查找 使用標簽名來獲取結點: soup.標簽名 使用標簽名來獲取結點標簽名【這個重點是name,主要用于非標簽名式篩選時,獲取結果的標簽名】: soup.標簽.name 使用標簽名來獲取結點屬性: soup.標簽.attrs【獲取全部屬性】 soup.標簽.attrs[屬性名]【獲取指定屬性】 soup.標簽[屬性名]【獲取指定屬性】 soup.標簽.get(屬性名) 使用標簽名來獲取結點的文本內容: soup.標簽.text soup.標簽.string soup.標簽.get_text()

補充1:上面的篩選方式可以使用嵌套:

print(soup.p.a)#p標簽下的a標簽

補充2:以上的name,text,string,attrs等方法都可以使用在當結果是一個bs4.element.Tag對象的時候:python爬蟲學習筆記之Beautifulsoup模塊用法詳解

from bs4 import BeautifulSouphtml = '''<html ><head> <meta charset='UTF-8'> <title>this is a title</title></head><body><p class='news'>123</p><p id='i1'>456</p><a rel='external nofollow' rel='external nofollow' rel='external nofollow' rel='external nofollow' rel='external nofollow' >advertisements</a></body></html>'''soup = BeautifulSoup(html,’lxml’)print('獲取結點'.center(50,’-’))print(soup.head)#獲取head標簽print(soup.p)#返回第一個p標簽#獲取結點名print('獲取結點名'.center(50,’-’))print(soup.head.name)print(soup.find(id=’i1’).name)#獲取文本內容print('獲取文本內容'.center(50,’-’))print(soup.title.string)#返回title的內容print(soup.title.text)#返回title的內容print(soup.title.get_text())#獲取屬性print('-----獲取屬性-----')print(soup.p.attrs)#以字典形式返回標簽的內容print(soup.p.attrs[’class’])#以列表形式返回標簽的值print(soup.p[’class’])#以列表形式返回標簽的值print(soup.p.get(’class’))#############t=soup.titleprint(type(t))#<class ’bs4.element.Tag’>print(t.name)#titleprint(t.text)#嵌套選擇:print(soup.head.title.string) 獲取子結點【直接獲取也會獲取到’n’,會認為’n’也是一個標簽】: soup.標簽.contents【返回值是一個列表】 soup.標簽.children【返回值是一個可迭代對象,獲取實際子結點需要迭代】 python爬蟲學習筆記之Beautifulsoup模塊用法詳解 獲取子孫結點: soup.標簽.descendants【返回值也是一個可迭代對象,實際子結點需要迭代】 獲取父結點: soup.標簽.parent 獲取祖先結點[父結點,祖父結點,曾祖父結點…]: soup.標簽.parents【】 獲取兄弟結點: soup.next_sibling【獲取后面的一個兄弟結點】 soup.next_siblings【獲取后面所有的兄弟結點】【返回值是一個可迭代對象】 soup.previous_sibling【獲取前一兄弟結點】 soup.previous_siblings【獲取前面所有的兄弟結點】【返回值是一個可迭代對象】

補充3:與補充2一樣,上面的函數都可以使用在當結果是一個bs4.element.Tag對象的時候。

from bs4 import BeautifulSouphtml = '''<html lang='en'><head> <meta charset='UTF-8'> <title>Title</title></head><body><p class='news'><a >123456</a> <a >78910</a></p><p id='i1'></p><a rel='external nofollow' rel='external nofollow' rel='external nofollow' rel='external nofollow' rel='external nofollow' >advertisements</a><span>aspan</span></body></html>'''soup = BeautifulSoup(html, ’lxml’)#獲取子結點print('獲取子結點'.center(50,’-’))print(soup.p.contents)print('n')c=soup.p.children#返回的是一個可迭代對象for i,child in enumerate(c): print(i,child)print('獲取子孫結點'.center(50,’-’))print(soup.p.descendants)c2=soup.p.descendantsfor i,child in enumerate(c2): print(i,child)print('獲取父結點'.center(50,’-’))c3=soup.title.parentprint(c3)print('獲取父,祖先結點'.center(50,’-’))c4=soup.title.parentsprint(c4)for i,child in enumerate(c4): print(i,child)print('獲取兄弟結點'.center(50,’-’))print(soup.p.next_sibling)print(soup.p.previous_sibling)for i,child in enumerate(soup.p.next_siblings): print(i,child,end=’t’)for i,child in enumerate(soup.p.previous_siblings): print(i,child,end=’t’) 使用findfind_all方式: find( name , attrs , recursive , text , **kwargs )【根據參數來找出對應的標簽,但只返回第一個符合條件的結果】

find_all( name , attrs , recursive , text , **kwargs ):【根據參數來找出對應的標簽,但只返回所有符合條件的結果】

篩選條件參數介紹:

name:為標簽名,根據標簽名來篩選標簽

attrs:為屬性,,根據屬性鍵值對來篩選標簽,賦值方式可以為:屬性名=值,attrs={屬性名:值}【但由于class是python關鍵字,需要使用class_】python爬蟲學習筆記之Beautifulsoup模塊用法詳解

text:為文本內容,根據指定文本內容來篩選出標簽,【單獨使用text作為篩選條件,只會返回text,所以一般與其他條件配合使用】

recursive:指定篩選是否遞歸,當為False時,不會在子結點的后代結點中查找,只會查找子結點

獲取到結點后的結果是一個bs4.element.Tag對象,所以對于獲取屬性、文本內容、標簽名等操作可以參考前面“使用標簽篩選結果”時涉及的方法

from bs4 import BeautifulSouphtml = '''<html lang='en'><head> <meta charset='UTF-8'> <title>Title</title></head><body><p class='news'><a >123456</a> <a id=’i2’>78910</a></p><p id='i1'></p><a rel='external nofollow' rel='external nofollow' rel='external nofollow' rel='external nofollow' rel='external nofollow' >advertisements</a><span>aspan</span></body></html>'''soup = BeautifulSoup(html, ’lxml’)print('---------------------')print(soup.find_all(’a’),end=’nn’)print(soup.find_all(’a’)[0])print(soup.find_all(attrs={’id’:’i1’}),end=’nn’)print(soup.find_all(class_=’news’),end=’nn’)print(soup.find_all(’a’,text=’123456’))#print(soup.find_all(id=’i2’,recursive=False),end=’nn’)#a=soup.find_all(’a’)print(a[0].name)print(a[0].text)print(a[0].attrs) 使用select篩選【select使用CSS選擇規則】: soup.select(‘標簽名’),代表根據標簽來篩選出指定標簽 CSS中#xxx代表篩選id,soup.select(‘#xxx’)代表根據id篩選出指定標簽,返回值是一個列表 CSS中.###代表篩選class,soup.select(’.xxx’)代表根據class篩選出指定標簽,返回值是一個列表 嵌套select: soup.select(“#xxx .xxxx”),如(“#id2 .news”)就是id=”id2”標簽下class=”news的標簽,返回值是一個列表 獲取到結點后的結果是一個bs4.element.Tag對象,所以對于獲取屬性、文本內容、標簽名等操作可以參考前面“使用標簽篩選結果”時涉及的方法

from bs4 import BeautifulSouphtml = '''<html lang='en'><head> <meta charset='UTF-8'> <title>Title</title></head><body><p class='news'><a >123456</a> <a id=’i2’>78910</a></p><p id='i1'></p><a rel='external nofollow' rel='external nofollow' rel='external nofollow' rel='external nofollow' rel='external nofollow' >advertisements</a><span id=’i4’>aspan</span></body></html>'''soup = BeautifulSoup(html, ’lxml’)sp1=soup.select(’span’)#返回結果是一個列表,列表的元素是bs4元素標簽對象print(soup.select('#i2'),end=’nn’)print(soup.select('.news'),end=’nn’)print(soup.select('.news #i2'),end=’nn’)print(type(sp1),type(sp1[0]))print(sp1[0].name)#列表里面的元素才是bs4元素標簽對象print(sp1[0].attrs)print(sp1[0][’class’])

補充4:

對于代碼不齊全的情況下,可以使用soup.prettify()來自動補全,一般情況下建議使用,以避免代碼不齊。

from bs4 import BeautifulSouphtml = '''<html lang='en'><head> <meta charset='UTF-8'> <title>Title</title></head><body><p class='news'><a >123456</a> <a id=’i2’>78910</a></p><p id='i1'></p><a rel='external nofollow' rel='external nofollow' rel='external nofollow' rel='external nofollow' rel='external nofollow' >advertisements</a><span id=’i4’>aspan</html>'''soup = BeautifulSoup(html, ’lxml’)c=soup.prettify()#上述html字符串中末尾缺少</span> 和 </body>print(c)

如果想要獲得更詳細的介紹,可以參考官方文檔,令人高興的是,有了比較簡易的中文版:

https://www.crummy.com/software/BeautifulSoup/bs4/doc/index.zh.html

更多關于Python相關內容可查看本站專題:《Python Socket編程技巧總結》、《Python正則表達式用法總結》、《Python數據結構與算法教程》、《Python函數使用技巧總結》、《Python字符串操作技巧匯總》、《Python入門與進階經典教程》及《Python文件與目錄操作技巧匯總》

希望本文所述對大家Python程序設計有所幫助。

標簽: Python 編程
相關文章:
日本不卡不码高清免费观看,久久国产精品久久w女人spa,黄色aa久久,三上悠亚国产精品一区二区三区
日韩手机在线| 国产精品一区二区三区www| 91免费精品国偷自产在线在线| 鲁大师成人一区二区三区| 久热re这里精品视频在线6| 久久亚洲电影| 91精品国产自产观看在线| 国产精品高潮呻吟久久久久| 国产精品亚洲四区在线观看| 欧美激情aⅴ一区二区三区| 精品亚洲精品| 99久久99视频只有精品| 激情91久久| 日韩精品欧美成人高清一区二区| 日韩av一区二区三区| 国产一区二区视频在线看| 久久久久久久久久久9不雅视频| 91九色精品国产一区二区| 日韩视频不卡| 国产欧美69| 亚洲www啪成人一区二区| 99视频精品| 国产欧美日韩精品一区二区免费| 精品久久免费| 一级欧洲+日本+国产| 日本不卡视频在线观看| 精品视频91| 国产亚洲欧洲| 国产劲爆久久| 亚洲国产综合在线看不卡| 亚洲毛片在线免费| 高清久久一区| 免费国产亚洲视频| 久久不见久久见中文字幕免费| 一区二区三区视频免费观看| 日本亚洲欧洲无免费码在线| 91看片一区| 欧美一区自拍| 尤物在线精品| 国产成人精品一区二区三区视频 | 久久亚洲不卡| 欧美日韩黄网站| 欧美三区四区| 国产欧美日韩在线观看视频| 欧美在线亚洲| 福利在线一区| 清纯唯美亚洲综合一区| 性欧美xxxx免费岛国不卡电影| 日本成人在线一区| 2023国产精品久久久精品双| 欧美激情 亚洲a∨综合| 免费久久精品视频| 99热国内精品| 日本一区二区免费高清| 日韩不卡一二三区| 欧美精选一区二区三区| 国产精品久久久久久模特| 亚洲欧美日韩国产| 日韩中文在线电影| 欧美国产极品| 日韩国产精品久久久久久亚洲| 亚洲视频综合| 热三久草你在线| 国产精品hd| 日韩精品免费观看视频| 午夜欧美精品| 国产精品蜜芽在线观看| 亚洲三级观看| 欧美日韩第一| 特黄毛片在线观看| 麻豆国产精品| 日韩成人午夜精品| 亚洲欧美日韩专区| 欧美精品激情| 99久精品视频在线观看视频| 精品一区二区三区在线观看视频| 日本亚洲视频在线| 国产一区导航| 欧美日韩激情| 久久久久国产精品一区三寸| 国产一区福利| 麻豆国产一区| 欧美激情麻豆| 欧美激情一区| 美女性感视频久久| 欧美精品国产| 日本a级不卡| 日韩超碰人人爽人人做人人添| 亚洲欧美久久精品| 亚洲精品伊人| 午夜在线精品| 在线精品观看| 日本成人中文字幕在线视频| 成人在线黄色| 免费黄色成人| 日韩欧美中文字幕电影| 亚洲一区国产| 狠狠色狠狠色综合日日tαg| 国产精品av一区二区| 激情欧美一区| 亚洲精品一区二区妖精| 欧美男人天堂| 久久uomeier| 日本综合字幕| 自拍日韩欧美| 亚洲网址在线观看| 亚洲精品综合| 日本aⅴ亚洲精品中文乱码| 日韩激情中文字幕| 日韩av不卡一区二区| 日本欧美一区二区在线观看| 日本在线不卡视频| 日本不卡视频在线观看| 日本一区二区中文字幕| 天堂久久av| 国产日韩亚洲| 精品视频网站| 久久男人av资源站| 成人va天堂| 亚洲一区二区免费看| 免费成人性网站| 日本va欧美va精品| 成人高清一区| 亚洲国产成人精品女人| 免费观看久久久4p| 欧美日韩99| 日本久久黄色| 婷婷综合社区| 亚洲乱码一区| 里番精品3d一二三区| 亚洲成人va| 在线一区二区三区视频| 日本午夜精品一区二区三区电影| 精品欧美日韩精品| 欧美国产91| 日本少妇精品亚洲第一区| 亚洲天堂资源| 亚洲欧美日本国产| 动漫av一区| 日韩在线a电影| 麻豆成人av在线| 最新日韩欧美| 久久wwww| 伊人成人在线视频| 国产精品久久久久久久久免费高清| 日本在线高清| 亚洲精品在线二区| 国产精品99一区二区三| 香蕉精品999视频一区二区| 国产无遮挡裸体免费久久| 快播电影网址老女人久久| 丝袜美腿亚洲一区二区图片| 国产一级成人av| 午夜久久久久| 精品精品久久| 视频精品一区二区| 97精品97| 日韩激情视频网站| 伊人久久大香线蕉av不卡| 国产精品亚洲一区二区在线观看| 亚洲国产一区二区三区在线播放| 国产麻豆一区二区三区 | 亚洲精品中文字幕99999| 精品一区二区三区亚洲| 另类av一区二区| 色欧美自拍视频| 天堂久久一区| 黄色亚洲在线| 国产高清不卡| 久久激情五月激情| 国产色综合网| 久久久久久久久久久妇女| 国产精品qvod| 在线免费观看亚洲| 亚洲综合电影| 日韩av在线免费观看不卡| 国产精品av久久久久久麻豆网| 久久久国产精品网站| 午夜天堂精品久久久久| 欧美亚洲激情| 日本а中文在线天堂| 久久免费精品| 国产日韩高清一区二区三区在线 | 婷婷综合福利| 国产在线|日韩| 国产中文欧美日韩在线| 国产精品一页| 欧美影院视频| 深夜日韩欧美| 免费观看日韩电影| 国产精品美女| 亚洲激精日韩激精欧美精品| 久久精品国内一区二区三区水蜜桃| 牛牛精品成人免费视频| 日韩国产在线观看| 在线精品视频一区| 先锋影音久久久| 久久午夜影视| 蜜桃av一区二区| 日韩精品一卡二卡三卡四卡无卡|