python - Scrapy ItemLoader數(shù)據(jù)清洗疑問
問題描述
在使用scrapy抓取數(shù)據(jù)時(shí),利用itemloader這個(gè)類,使用selector取出的值為空時(shí),進(jìn)入scrapy.Field()里調(diào)用filter(),selector取值不為空的確返回'有值',如果selector取出[]或'',那么value進(jìn)入filter()之后,并不會(huì)返回'無值'
def filter(value): if value:return '有值' else:return '無值' # 下面就簡寫了,熟悉的應(yīng)該能看的懂 scrapy.Field(filter())
有什么辦法將抓取為空的值,經(jīng)過filyer()之后變成'無值'
問題解答
回答1:謝邀~不太了解Scrapy,所以題主這個(gè)我不太好說我用PHP自己寫的爬蟲大體思路是:1.先是根據(jù)正則和一些循環(huán),把要收集的頁面放到隊(duì)列里,按類別分類,例如分頁的列表頁一個(gè)隊(duì)列,列表里的數(shù)據(jù)內(nèi)容頁一個(gè)隊(duì)列。2.然后利用xpath來爬取相關(guān)內(nèi)容頁的數(shù)據(jù),爬取的過程中對(duì)一些爬取到的數(shù)據(jù)進(jìn)行如題主所需的那樣進(jìn)行處理。3.組裝數(shù)據(jù),按照自己所需的標(biāo)準(zhǔn)保存數(shù)據(jù)。
大體就是這樣,我絕對(duì)大部分爬蟲框架也大概都是這種思路吧,無非是在此基礎(chǔ)上增加了,反爬機(jī)制,多線程,多進(jìn)程,增量爬取等等功能。所以,題主找到你這個(gè)框架的爬取數(shù)據(jù)那里進(jìn)行處理或組裝數(shù)據(jù)的地方進(jìn)行處理都行。
相關(guān)文章:
1. docker api 開發(fā)的端口怎么獲???2. docker gitlab 如何git clone?3. debian - docker依賴的aufs-tools源碼哪里可以找到啊?4. macos - mac下docker如何設(shè)置代理5. angular.js使用$resource服務(wù)把數(shù)據(jù)存入mongodb的問題。6. docker網(wǎng)絡(luò)端口映射,沒有方便點(diǎn)的操作方法么?7. docker 下面創(chuàng)建的IMAGE 他們的 ID 一樣?這個(gè)是怎么回事????8. docker - 如何修改運(yùn)行中容器的配置9. dockerfile - 我用docker build的時(shí)候出現(xiàn)下邊問題 麻煩幫我看一下10. docker start -a dockername 老是卡住,什么情況?

網(wǎng)公網(wǎng)安備