日本不卡不码高清免费观看,久久国产精品久久w女人spa,黄色aa久久,三上悠亚国产精品一区二区三区

您的位置:首頁技術文章
文章詳情頁

Django結合使用Scrapy爬取數據入庫的方法示例

瀏覽:104日期:2024-09-11 11:40:06

在django項目根目錄位置創建scrapy項目,django_12是django項目,ABCkg是scrapy爬蟲項目,app1是django的子應用

Django結合使用Scrapy爬取數據入庫的方法示例

2.在Scrapy的settings.py中加入以下代碼

import osimport syssys.path.append(os.path.dirname(os.path.abspath(’.’)))os.environ[’DJANGO_SETTINGS_MODULE’] = ’django_12.settings’ # 項目名.settingsimport djangodjango.setup()

3.編寫爬蟲,下面代碼以ABCkg為例,abckg.py

# -*- coding: utf-8 -*-import scrapyfrom ABCkg.items import AbckgItem class AbckgSpider(scrapy.Spider): name = ’abckg’ #爬蟲名稱 allowed_domains = [’www.abckg.com’] # 允許爬取的范圍 start_urls = [’http://www.abckg.com/’] # 第一次請求的地址 def parse(self, response): print(’返回內容:{}’.format(response)) ''' 解析函數 :param response: 響應內容 :return: ''' listtile = response.xpath(’//*[@id='container']/div/div/h2/a/text()’).extract() listurl = response.xpath(’//*[@id='container']/div/div/h2/a/@href’).extract() for index in range(len(listtile)): item = AbckgItem() item[’title’] = listtile[index] item[’url’] = listurl[index] yield scrapy.Request(url=listurl[index],callback=self.parse_content,method=’GET’,dont_filter=True,meta={’item’:item}) # 獲取下一頁 nextpage = response.xpath(’//*[@id='container']/div[1]/div[10]/a[last()]/@href’).extract_first() print(’即將請求:{}’.format(nextpage)) yield scrapy.Request(url=nextpage,callback=self.parse,method=’GET’,dont_filter=True) # 獲取詳情頁 def parse_content(self,response): item = response.meta[’item’] item[’content’] = response.xpath(’//*[@id='post-1192']/dd/p’).extract() print(’內容為:{}’.format(item)) yield item

4.scrapy中item.py 中引入django模型類

pip install scrapy-djangoitem

from app1 import modelsfrom scrapy_djangoitem import DjangoItemclass AbckgItem(DjangoItem): # define the fields for your item here like: # name = scrapy.Field() # 普通scrapy爬蟲寫法 # title = scrapy.Field() # url = scrapy.Field() # content = scrapy.Field() django_model = models.ABCkg # 注入django項目的固定寫法,必須起名為django_model =django中models.ABCkg表

5.pipelines.py中調用save()

import jsonfrom pymongo import MongoClient# 用于接收parse函數發過來的itemclass AbckgPipeline(object): # i = 0 def open_spider(self,spider): # print(’打開文件’) if spider.name == ’abckg’: self.f = open(’abckg.json’,mode=’w’) def process_item(self, item, spider): # # print(’ABC管道接收:{}’.format(item)) # if spider.name == ’abckg’: # self.f.write(json.dumps(dict(item),ensure_ascii=False)) # # elif spider.name == ’cctv’: # # img = requests.get(item[’img’]) # # if img != ’’: # # with open(’圖片%d.png’%self.i,mode=’wb’)as f: # # f.write(img.content) # # self.i += 1 item.save() return item # 將item傳給下一個管道執行 def close_spider(self,spider): # print(’關閉文件’) self.f.close()

6.在django中models.py中一個模型類,字段對應爬取到的數據,選擇適當的類型與長度

class ABCkg(models.Model): title = models.CharField(max_length=30,verbose_name=’標題’) url = models.CharField(max_length=100,verbose_name=’網址’) content = models.CharField(max_length=200,verbose_name=’內容’) class Meta: verbose_name_plural = ’爬蟲ABCkg’ def __str__(self): return self.title

7.通過命令啟動爬蟲:scrapy crawl 爬蟲名稱

8.django進入admin后臺即可看到爬取到的數據。

到此這篇關于Django結合使用Scrapy爬取數據入庫的方法示例的文章就介紹到這了,更多相關Django Scrapy爬取數據入庫內容請搜索好吧啦網以前的文章或繼續瀏覽下面的相關文章希望大家以后多多支持好吧啦網!

標簽: Django
相關文章:
日本不卡不码高清免费观看,久久国产精品久久w女人spa,黄色aa久久,三上悠亚国产精品一区二区三区
蜜桃视频在线观看一区| 伊人久久国产| 亚洲精品123区| 欧美一级二区| 国产66精品| 五月激情久久| 亚洲一区二区三区四区五区午夜 | 男女男精品网站| 91精品美女| 亚洲精品麻豆| 青青在线精品| 久久黄色影视| 亚洲电影在线一区二区三区| 国产精品久久久久久久久妇女| 天堂久久一区| 日韩一区二区三区精品 | 日韩精品国产欧美| 国产欧美亚洲一区| 精品久久久亚洲| 狠狠久久伊人中文字幕| 国产精品天堂蜜av在线播放| 亚洲涩涩av| 欧美一区久久| 久久久夜夜夜| 9色国产精品| 久久国产精品99国产| 日韩一区三区| 精品一区二区三区亚洲| 在线一区电影| 中文视频一区| 精品一区二区三区视频在线播放 | 国产精品一区二区三区av麻| 成人精品亚洲| 欧美不卡视频| 久久国内精品| 精品少妇一区| 欧美一级久久| 国产欧美高清| 亚洲另类视频| 成人免费一区| 免费视频一区二区| 国产精品成人自拍| 天堂久久一区| 亚洲欧美日韩国产一区| 高清一区二区| 麻豆成人av在线| 亚洲精品乱码| 亚洲1区在线| 福利视频一区| 麻豆一区在线| 中文不卡在线| 精品理论电影在线| 国产一区福利| 综合一区在线| 成人国产精品一区二区免费麻豆| 91精品一区二区三区综合在线爱| 久久久免费人体| 亚洲精品九九| 男人操女人的视频在线观看欧美| 中文字幕一区二区三区四区久久| 日本成人精品| 人人爽香蕉精品| 久久亚洲不卡| 视频一区日韩精品| 亚洲一区二区三区中文字幕在线观看| 日韩在线a电影| 久久国产免费| 欧美国产专区| 精品久久久网| 日韩成人精品一区| 激情亚洲影院在线观看| 日韩欧美视频专区| 久久要要av| 丝袜美腿亚洲色图| 亚洲精品在线二区| 国产午夜一区| 精品国产乱码久久久久久1区2匹| 国产精品**亚洲精品| 国产成人精选| 日韩电影在线视频| 欧美亚洲国产精品久久| 一区二区自拍| 久久精品999| 色在线视频观看| 亚洲神马久久| 国产日韩视频| 国产91一区| 欧美日韩 国产精品| 国产精品久久观看| 日韩精品一级二级| 欧美国产中文高清| 亚洲午夜在线| 久久wwww| 国产色综合网| 国产高清亚洲| 亚洲深夜av| 精品一区不卡| 美女av在线免费看| 日韩制服丝袜av| 精品国产aⅴ| 中文字幕av一区二区三区人| 国产精品亚洲四区在线观看| 亚洲无线一线二线三线区别av| 91国内精品| 欧美亚洲二区| 韩国女主播一区二区三区| 你懂的国产精品永久在线| 99视频一区| 久久最新视频| 国产日韩欧美在线播放不卡| 欧美一级二区| 蜜臀av一区二区在线免费观看 | 国产精品久一| 国产亚洲一区| 日韩av福利| 亚州av一区| 天堂8中文在线最新版在线| 成人精品动漫一区二区三区| 久久激五月天综合精品| 亚洲女同一区| 久久免费视频66| 蜜桃av一区二区在线观看| 精品日韩视频| 日韩一区自拍| 日韩精品一区二区三区免费观看| 97精品一区二区| 日本精品另类| 另类亚洲自拍| 免费不卡中文字幕在线| 久久中文字幕导航| 老司机精品视频网| 欧美一区成人| 国内亚洲精品| 美女国产一区二区三区| 国产免费av国片精品草莓男男| 国产精品xvideos88| 日韩欧美中文在线观看| 亚洲狼人精品一区二区三区| 日韩理论视频| 国产精品香蕉| 日韩视频在线一区二区三区 | 国产精品黄色| 亚洲日本久久| 亚洲开心激情| 麻豆成人在线观看| 亚洲国产专区校园欧美| 日韩区欧美区| a国产在线视频| 欧美日一区二区三区在线观看国产免| 日韩中出av| 精品欠久久久中文字幕加勒比| 国产日韩电影| 亚洲欧美高清| 国产一卡不卡| 亚洲天堂一区二区| 另类激情亚洲| 麻豆91小视频| 亚洲成人精选| 久久尤物视频| 女同性一区二区三区人了人一| 在线综合亚洲| 久久久国产精品网站| 亚洲国产专区校园欧美| 日韩成人午夜精品| 啪啪国产精品| 91精品麻豆| 欧美日韩国产高清电影| 日韩av黄色在线| 精品在线播放| 精品久久电影| 四虎精品一区二区免费| 成人午夜精品| 国产精品视频一区二区三区四蜜臂 | 视频在线观看国产精品| 美女久久久精品| 亚洲精品极品| 激情五月综合网| 国产aa精品| 国产亚洲人成a在线v网站| 国产精品腿扒开做爽爽爽挤奶网站| 欧美a级一区二区| 亚洲精品美女91| 欧美久久精品一级c片| 精品视频一区二区三区在线观看 | 麻豆91精品91久久久的内涵| 亚洲在线观看| 免费久久精品| 免费av一区二区三区四区| 热三久草你在线| 国产91在线播放精品| 国产精品s色| 国产一卡不卡| 欧美亚洲网站| 欧美一级一区| 91精品国产自产在线丝袜啪| 日韩在线观看中文字幕| 亚洲专区视频| 日韩精品乱码av一区二区| 蜜桃免费网站一区二区三区| 伊人久久亚洲影院|