日本不卡不码高清免费观看,久久国产精品久久w女人spa,黄色aa久久,三上悠亚国产精品一区二区三区

您的位置:首頁技術文章
文章詳情頁

python使用bs4爬取boss直聘靜態頁面

瀏覽:31日期:2022-07-08 16:47:30

思路:

1、將需要查詢城市列表,通過城市接口轉換成相應的code碼

2、遍歷城市、職位生成url

3、通過url獲取列表頁面信息,遍歷列表頁面信息

4、再根據列表頁面信息的job_link獲取詳情頁面信息,將需要的信息以字典data的形式存在列表datas里

5、判斷列表頁面是否有下一頁,重復步驟3、4;同時將列表datas一直傳遞下去

6、一個城市、職位url爬取完后,將列表datas接在列表datas_list后面,重復3、4、5

7、最后將列表datas_list的數據,遍歷寫在Excel里面

知識點:

1、將response內容以json形式輸出,解析json并取值

2、soup 的select()和find_all()和find()方法使用

3、異常Exception的使用

4、wldt創建編輯Excel的使用

import requests, time, xlwtfrom bs4 import BeautifulSoupclass MyJob(): def __init__(self, mycity, myquery): self.city = mycity self.query = myquery self.list_url = 'https://www.zhipin.com/job_detail/?query=%s&city=%s&industry=&position='%(self.query, self.city) self.datas = [] self.header = { ’authority’: ’www.zhipin.com’, ’method’: ’GET’, ’scheme’: ’https’, ’accept’: ’text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8’, ’accept-encoding’: ’gzip, deflate, br’, ’accept-language’: ’zh-CN,zh;q=0.9’, ’cache-control’: ’max-age=0’, ’cookie’: ’lastCity=101210100;uab_collina=154408714637849548916323;toUrl=/;c=1558272251;g=-;l=l=%2Fwww.zhipin.com%2Fuser%2Flogin.html&r=; Hm_lvt_194df3105ad7148dcf2b98a91b5e727a=1555852331,1556985726,1558169427,1558272251; __a=40505844.1544087205.1558169426.1558272251.41.14.4.31; Hm_lpvt_194df3105ad7148dcf2b98a91b5e727a=1558272385’, ’referer’: ’https://www.zhipin.com/?ka=header-logo’, ’upgrade-insecure-requests’: ’1’, ’user-agent’: ’Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.110 Safari/537.36’ } #將城市轉化為code碼 def get_city(self,city_list): city_url = 'https://www.zhipin.com/wapi/zpCommon/data/city.json' #獲取城市 json = requests.get(city_url).json() zpData = json['zpData']['cityList'] list = [] for city in city_list : for data_sf in zpData:for data_dq in data_sf['subLevelModelList']: if city == data_dq['name']: list.append(data_dq['code']) return list #獲取所有頁內容 def get_job_list(self, url, datas): print(url) html = requests.get(url, headers=self.header).text soup = BeautifulSoup(html, ’html.parser’) jobs = soup.select('.job-primary') for job in jobs: data = {} # 招聘id data['job_id'] = job.find_all('div', attrs={'class': 'info-primary'})[0].find('a').get('data-jobid') # 招聘鏈接 data['job_link'] = 'https://www.zhipin.com' + job.find_all('div', attrs={'class': 'info-primary'})[0].find('a').get('href') # 招聘崗位 data['job_name'] = job.find_all('div', attrs={'class': 'info-primary'})[0].find('div', attrs={'class': 'job-title'}).get_text() # 薪資 data['job_red'] = job.find_all('div', attrs={'class': 'info-primary'})[0].find('span', attrs={'class': 'red'}).get_text() # 地址 #工作年限 #學歷 data['job_address'] = job.find_all('div', attrs={'class': 'info-primary'})[0].find('p').get_text().split(' ') # 企業鏈接 data['job_company_link'] = job.find_all('div', attrs={'class': 'info-company'})[0].find('a').get('href') # 企業信息 data['job_company'] = job.find_all('div', attrs={'class': 'info-company'})[0].find('p').get_text().split(' ') # boss鏈接 data['job_publis_link'] = job.find_all('div', attrs={'class': 'info-publis'})[0].find('img').get('src') # boos信息 data['job_publis'] = job.find_all('div', attrs={'class': 'info-publis'})[0].find('h3').get_text().split(' ') time.sleep(5) self.get_job_detail(data) # 獲取job詳情頁內容 print(data) datas.append(data) # 將某條job添加到datas中,直到將當前頁添加完 try: next_url = soup.find('div', attrs={'class': 'page'}).find('a', attrs={'class': 'next'}).get('href') #if next_url[-1] =='3': # 第二頁自動拋異常 if next_url in 'javascript:;': # 最后一頁自動拋異常raise Exception() except Exception as e: print('最后一頁了;%s' % e) return datas # 返回所有頁內容 else: time.sleep(5) next_url = 'https://www.zhipin.com' + next_url self.get_job_list(next_url, datas) return datas # 返回所有頁內容 #獲取詳情頁內容 def get_job_detail(self, data): print(data['job_link']) html = requests.get(data['job_link'], headers=self.header).text soup = BeautifulSoup(html, ’html.parser’) # 招聘公司 data['detail_content_name'] = soup.find_all('div', attrs={'class': 'detail-content'})[0].find('div', attrs={'class': 'name'}).get_text() # 福利 data['detail_primary_tags'] = soup.find_all('div', attrs={'class': 'info-primary'})[0].find('div', attrs={'class': 'job-tags'}).get_text().strip() # 招聘崗位 data['detail_primary_name'] = soup.find_all('div', attrs={'class': 'info-primary'})[0].find('h1').get_text() # 招聘狀態 data['detail_primary_status'] = soup.find_all('div', attrs={'class': 'info-primary'})[0].find('div', attrs={'class': 'job-status'}).get_text() # 薪資 data['detail_primary_salary'] = soup.find_all('div', attrs={'class': 'info-primary'})[0].find('span', attrs={'class': 'salary'}).get_text() # 地址 #工作年限 #學歷 data['detail_primary_address'] = soup.find_all('div', attrs={'class': 'info-primary'})[0].find('p').get_text() # 工作地址 data['detail_content_address'] = soup.find_all('div', attrs={'class': 'detail-content'})[0].find('div', attrs={'class': 'location-address'}).get_text() # 職位描述 data['detail_content_text'] = soup.find_all('div', attrs={'class': 'detail-content'})[0].find('div', attrs={'class': 'text'}).get_text().strip().replace(';', 'n') # boss名字 data['detail_op_name'] = soup.find_all('div', attrs={'class': 'detail-op'})[1].find('h2', attrs={'class': 'name'}).get_text() # boss職位 data['detail_op_job'] = soup.find_all('div', attrs={'class': 'detail-op'})[1].find('p', attrs={'class': 'gray'}).get_text().split('·')[0] # boss狀態 data['detail_op_status'] = soup.find_all('div', attrs={'class': 'detail-op'})[1].find('p', attrs={'class': 'gray'}).get_text().split('·')[1] #將獲取的數據寫入Excel def setExcel(self, datas_list): book = xlwt.Workbook(encoding=’utf-8’) table = book.add_sheet('boss軟件測試') table.write(0, 0, '編號') table.write(0, 1, '招聘鏈接') table.write(0, 2, '招聘崗位') table.write(0, 3, '薪資') table.write(0, 4, '地址') table.write(0, 5, '企業鏈接') table.write(0, 6, '企業信息') table.write(0, 7, 'boss鏈接') table.write(0, 8, 'boss信息') table.write(0, 9, 'detail詳情') i = 1 for data in datas_list: table.write(i, 0, data['job_id']) table.write(i, 1, data['job_link']) table.write(i, 2, data['job_name']) table.write(i, 3, data['job_red']) table.write(i, 4, data['job_address']) table.write(i, 5, data['job_company_link']) table.write(i, 6, data['job_company']) table.write(i, 7, data['job_publis_link']) table.write(i, 8, data['job_publis']) table.write(i, 10, data['detail_content_name']) table.write(i, 11, data['detail_primary_name']) table.write(i, 12, data['detail_primary_status']) table.write(i, 13, data['detail_primary_salary']) table.write(i, 14, data['detail_primary_address']) table.write(i, 15, data['detail_content_text']) table.write(i, 16, data['detail_op_name']) table.write(i, 17, data['detail_op_job']) table.write(i, 18, data['detail_op_status']) table.write(i, 19, data['detail_primary_tags']) table.write(i, 20, data['detail_content_address']) i += 1 book.save(r’C:%s_boss軟件測試.xls’ % time.strftime(’%Y%m%d%H%M%S’)) print('Excel保存成功')if __name__ == ’__main__’: city_list = MyJob('','').get_city(['杭州']) query_list = ['軟件測試', '測試工程師'] datas_list = [] for city in city_list: for query in query_list: myjob = MyJob(city, query) datas = myjob.get_job_list(myjob.list_url, myjob.datas) datas_list.extend(datas) myjob.setExcel(datas_list)

以上就是python使用bs4爬取boss直聘靜態頁面的詳細內容,更多關于python 爬取boss直聘的資料請關注好吧啦網其它相關文章!

標簽: boss直聘 Python
相關文章:
日本不卡不码高清免费观看,久久国产精品久久w女人spa,黄色aa久久,三上悠亚国产精品一区二区三区
蜜臀久久精品| 久久视频精品| 久久久影院免费| 久久伊人亚洲| 国产乱码午夜在线视频| 麻豆91精品视频| 日韩精品国产精品| 香蕉久久久久久| 国产精品mm| 亚洲免费黄色| 视频一区二区不卡| 中文字幕av亚洲精品一部二部| 蜜桃av一区二区| 9国产精品视频| 国产精品视频3p| 四虎8848精品成人免费网站 | 久久99免费视频| 日韩国产欧美视频| 亚洲久久视频| 日本伊人午夜精品| 欧美日韩99| 日韩精品一区二区三区免费观影| 亚洲综合日本| 国产精品久av福利在线观看| 日本国产亚洲| 欧美日韩在线精品一区二区三区激情综合| 日韩高清一区| 国产成人精品一区二区三区视频| 日本国产精品| 激情久久五月| 视频精品一区二区| 亚洲精品国产嫩草在线观看| 国产麻豆一区二区三区精品视频| 日本亚洲视频在线| 美国av一区二区| 日本成人在线不卡视频| 久久97视频| 国产成人免费视频网站视频社区| 精品视频免费| 成人日韩在线观看| 欧美不卡高清| 麻豆一区二区三区| 国产一区 二区| 日韩欧美久久| 亚洲天堂av影院| 欧美日韩国产在线观看网站| 最新亚洲激情| 日韩二区在线观看| 精品午夜久久| 日韩免费在线| 亚洲精品123区| 青青国产91久久久久久| 精品国产乱码久久久| 久久久久国产| 一区二区精品| 怡红院精品视频在线观看极品| 午夜久久av| 福利一区二区三区视频在线观看| 欧美精选一区二区三区| 日本一区免费网站| 国产精品成人一区二区不卡| 亚洲高清不卡| 7777精品| 欧美日中文字幕| 免费在线观看成人| 国产精品久久777777毛茸茸| 成人羞羞在线观看网站| 亚洲另类av| 综合日韩av| 偷拍亚洲精品| 日韩精品永久网址| 日韩精品社区| 神马午夜久久| 日韩高清电影一区| 久久精品国产大片免费观看| 国产日韩欧美一区| 亚洲激精日韩激精欧美精品| 麻豆精品新av中文字幕| 亚洲欧美日韩在线观看a三区| 国产欧美一区| 日韩精品一卡二卡三卡四卡无卡| 高清av一区| 欧美日韩18| 黄色日韩在线| 成人影视亚洲图片在线| 88久久精品| 日韩一区精品视频| 久久三级福利| 美女视频黄久久| 亚洲影视一区| 日韩高清中文字幕一区二区| 国产精品v一区二区三区| 蜜臀av一区二区三区| 中文在线中文资源| 日韩三级一区| 欧美日韩国产免费观看视频| 国产成人精品三级高清久久91| 亚洲精品美女91| 亚洲高清毛片| 日韩一区欧美| 精品视频在线你懂得| 亚州av日韩av| 国产精品老牛| 激情综合网五月| 日韩电影免费在线观看| 国产激情精品一区二区三区| 日本欧美韩国一区三区| 丝袜亚洲另类欧美| 国产一区欧美| 国产美女高潮在线| 免费观看亚洲天堂| 国产欧洲在线| 国产欧美日韩精品高清二区综合区 | 不卡中文字幕| 老司机精品视频网| 亚洲啊v在线免费视频| 久久99久久久精品欧美| 91成人在线网站| 免费观看在线综合色| 九一国产精品| 激情综合自拍| 91精品精品| 综合干狼人综合首页| 亚洲欧美日韩视频二区| 亚洲欧洲一区二区天堂久久| 99久精品视频在线观看视频| zzzwww在线看片免费| 日韩不卡一区| 欧美国产美女| 亚洲精品成人图区| аⅴ资源天堂资源库在线| 国产成人精品一区二区三区视频 | 电影天堂国产精品| 精品高清久久| 国产一区二区三区四区五区 | 精品国产中文字幕第一页| 国产伦精品一区二区三区千人斩| 亚洲另类av| 青青国产91久久久久久| 日韩av影院| 国产精品久久久久av蜜臀| 精品国产中文字幕第一页| 国产一区二区三区网| 国产96在线亚洲| 日本国产精品| 不卡中文一二三区| 99视频精品视频高清免费| 极品日韩av| 久久午夜影视| 日本一区中文字幕| 国产精品久久久网站| 精品国产99| 日本在线精品| 亚洲一区二区网站| 亚洲啊v在线免费视频| 国产高清日韩| 伊人久久高清| 蜜臀久久99精品久久久久久9| 日韩精品三区四区| 久久精品国产久精国产爱| 水蜜桃精品av一区二区| 视频二区不卡| 中文字幕亚洲在线观看| 国产精品日本一区二区不卡视频| 国产一区丝袜| 黄色免费成人| 国产精品亚洲人成在99www| аⅴ资源天堂资源库在线| 中文久久精品| 国产精品中文| 国精品一区二区| 日本精品另类| 日韩在线中文| 亚洲一区av| 国产成人调教视频在线观看| 伊人影院久久| 欧美在线首页| 999久久久国产精品| 亚洲精品自拍| 精品久久免费| 亚洲一区黄色| 久久精品理论片| 久久国产66| 久久影院资源站| 在线一区免费观看| 卡一卡二国产精品| 五月天久久网站| 亚洲麻豆一区| 精品国产18久久久久久二百| 欧美日韩国产探花| 欧美日韩一区二区高清| 偷拍亚洲精品| 亚洲日本网址| 日韩二区三区四区| 国产日韩一区二区三区在线播放| 日韩不卡免费高清视频| 日本不卡高清| 久久国产日韩| 日韩精品三区四区| 国产一区二区中文|