日本不卡不码高清免费观看,久久国产精品久久w女人spa,黄色aa久久,三上悠亚国产精品一区二区三区

您的位置:首頁技術(shù)文章
文章詳情頁

Python使用5行代碼批量做小姐姐的素描圖

瀏覽:178日期:2022-06-15 09:07:02
目錄1. 流程分析2. 具體實現(xiàn)3. 百度圖片爬蟲+生成素描圖

我給大家?guī)淼氖?50行代碼,生成一張素描圖。讓自己也是一個素描“大師”。那廢話不多說,我們直接先來看看效果吧。

Python使用5行代碼批量做小姐姐的素描圖

上圖的右邊就是我們的效果,那具體有哪些步驟呢?

1. 流程分析

Python使用5行代碼批量做小姐姐的素描圖

對于上面的流程來說是非常簡單的,接下來我們來看看具體的實現(xiàn)。

2. 具體實現(xiàn)

安裝所需要的庫:

pip install opencv-python

導(dǎo)入所需要的庫:

import cv2

編寫主體代碼也是非常的簡單的,代碼如下:

import cv2SRC = ’images/image_1.jpg’image_rgb = cv2.imread(SRC)image_gray = cv2.cvtColor(image_rgb, cv2.COLOR_BGR2GRAY)image_blur = cv2.GaussianBlur(image_gray, ksize=(21, 21), sigmaX=0, sigmaY=0)image_blend = cv2.divide(image_gray, image_blur, scale=255)cv2.imwrite(’result.jpg’, image_blend)

那上面的代碼其實并不難,那接下來為了讓小伙伴們能更好的理解,我編寫了如下代碼:

'''project = ’Code’, file_name = ’study.py’, author = ’AI悅創(chuàng)’time = ’2020/5/19 8:35’, product_name = PyCharm, 公眾號:AI悅創(chuàng)code is far away from bugs with the god animal protecting I love animals. They taste delicious.'''import cv2# 原圖路徑SRC = ’images/image_1.jpg’# 讀取圖片image_rgb = cv2.imread(SRC)# cv2.imshow(’rgb’, image_rgb) # 原圖# cv2.waitKey(0)# exit()image_gray = cv2.cvtColor(image_rgb, cv2.COLOR_BGR2GRAY)# cv2.imshow(’gray’, image_gray) # 灰度圖# cv2.waitKey(0)# exit()image_bulr = cv2.GaussianBlur(image_gray, ksize=(21, 21), sigmaX=0, sigmaY=0)cv2.imshow(’image_blur’, image_bulr) # 高斯虛化cv2.waitKey(0)exit()# divide: 提取兩張差別較大的線條和內(nèi)容image_blend = cv2.divide(image_gray, image_bulr, scale=255)# cv2.imshow(’image_blend’, image_blend) # 素描cv2.waitKey(0)# cv2.imwrite(’result1.jpg’, image_blend)

那上面的代碼,我們是在原有的基礎(chǔ)上添加了,一些實時展示的代碼,來方便同學(xué)們理解。其實有同學(xué)會問,我用軟件不就可以直接生成素描圖嗎?那程序的好處是什么?程序的好處就是如果你的圖片量多的話,這個時候使用程序批量生成也是非常方便高效的。這樣我們的就完成,把小姐姐的圖片變成了素描,skr~。

3. 百度圖片爬蟲+生成素描圖

不過,這還不是我們的海量圖片,為了達到海量這個詞呢,我寫了一個百度圖片爬蟲,不過本文不是教如何寫爬蟲代碼的,這里我就直接放出爬蟲代碼,符和軟件工程規(guī)范:

# Crawler.Spider.pyimport reimport osimport timeimport collectionsfrom collections import namedtupleimport requestsfrom concurrent import futuresfrom tqdm import tqdmfrom enum import EnumBASE_URL = ’https://image.baidu.com/search/acjson?tn=resultjson_com&ipn=rj&ct=201326592&is=&fp=result&queryWord={keyword}&cl=2&lm=-1&ie=utf-8&oe=utf-8&adpicid=&st=-1&z=&ic=&hd=&latest=©right=&word={keyword}&s=&se=&tab=&width=&height=&face=0&istype=2&qc=&nc=1&fr=&expermode=&force=&pn={page}&rn=30&gsm=&1568638554041=’HEADERS = { ’Referer’: ’http://image.baidu.com/search/index?tn=baiduimage&ipn=r&ct=201326592&cl=2&lm=-1&st=-1&fr=&sf=1&fmq=1567133149621_R&pv=&ic=0&nc=1&z=0&hd=0&latest=0©right=0&se=1&showtab=0&fb=0&width=&height=&face=0&istype=2&ie=utf-8&sid=&word=%E5%A3%81%E7%BA%B8’, ’User-Agent’: ’Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.100 Safari/537.36’, ’X-Requested-With’: ’XMLHttpRequest’, }class BaiDuSpider: def __init__(self, max_works, images_type): self.max_works = max_works self.HTTPStatus = Enum(’Status’, [’ok’, ’not_found’, ’error’]) self.result = namedtuple(’Result’, ’status data’) self.session = requests.session() self.img_type = images_type self.img_num = None self.headers = HEADERS self.index = 1 def get_img(self, img_url): res = self.session.get(img_url) if res.status_code != 200: res.raise_for_status() return res.content def download_one(self, img_url, verbose): try: image = self.get_img(img_url) except requests.exceptions.HTTPError as e: res = e.response if res.status_code == 404: status = self.HTTPStatus.not_found msg = ’not_found’ else: raise else: self.save_img(self.img_type, image) status = self.HTTPStatus.ok msg = ’ok’ if verbose: print(img_url, msg) return self.result(status, msg) def get_img_url(self): urls = [BASE_URL.format(keyword=self.img_type, page=page) for page in self.img_num] for url in urls: res = self.session.get(url, headers=self.headers) if res.status_code == 200: img_list = re.findall(r’'thumbURL':'(.*?)'’, res.text) # 返回出圖片地址,配合其他函數(shù)運行 yield {img_url for img_url in img_list} elif res.status_code == 404: print(’-----訪問失敗,找不到資源-----’) yield None elif res.status_code == 403: print(’*****訪問失敗,服務(wù)器拒絕訪問*****’) yield None else: print(’>>> 網(wǎng)絡(luò)連接失敗 <<<’) yield None def download_many(self, img_url_set, verbose=False): if img_url_set: counter = collections.Counter() with futures.ThreadPoolExecutor(self.max_works) as executor: to_do_map = {} for img in img_url_set: future = executor.submit(self.download_one, img, verbose) to_do_map[future] = img done_iter = futures.as_completed(to_do_map) if not verbose: done_iter = tqdm(done_iter, total=len(img_url_set)) for future in done_iter: try: res = future.result() except requests.exceptions.HTTPError as e: error_msg = ’HTTP error {res.status_code} - {res.reason}’ error_msg = error_msg.format(res=e.response) except requests.exceptions.ConnectionError: error_msg = ’ConnectionError error’ else: error_msg = ’’ status = res.statusif error_msg: status = self.HTTPStatus.errorcounter[status] += 1if verbose and error_msg: img = to_do_map[future] print(’***Error for {} : {}’.format(img, error_msg)) return counter else: pass def save_img(self, img_type, image): with open(’{}/{}.jpg’.format(img_type, self.index), ’wb’) as f: f.write(image) self.index += 1 def what_want2download(self): # self.img_type = input(’請輸入你想下載的圖片類型,什么都可以哦~ >>> ’) try: os.mkdir(self.img_type) except FileExistsError: pass img_num = input(’請輸入要下載的數(shù)量(1位數(shù)代表30張,列如輸入1就是下載30張,2就是60張):>>> ’) while True: if img_num.isdigit(): img_num = int(img_num) * 30 self.img_num = range(30, img_num + 1, 30) break else: img_num = input(’輸入錯誤,請重新輸入要下載的數(shù)量>>> ’) def main(self): # 獲取圖片類型和下載的數(shù)量 total_counter = {} self.what_want2download() for img_url_set in self.get_img_url(): if img_url_set: counter = self.download_many(img_url_set, False) for key in counter: if key in total_counter: total_counter[key] += counter[key] else: total_counter[key] = counter[key] else: # 可以為其添加報錯功能 pass time.sleep(.5) return total_counterif __name__ == ’__main__’: max_works = 20 bd_spider = BaiDuSpider(max_works) print(bd_spider.main())

# Sketch_the_generated_code.pyimport cv2def drawing(src, id=None): image_rgb = cv2.imread(src) image_gray = cv2.cvtColor(image_rgb, cv2.COLOR_BGR2GRAY) image_blur = cv2.GaussianBlur(image_gray, ksize=(21, 21), sigmaX=0, sigmaY=0) image_blend = cv2.divide(image_gray, image_blur, scale=255) cv2.imwrite(f’Drawing_images/result-{id}.jpg’, image_blend)

# image_list.image_list_path.pyimport osfrom natsort import natsortedIMAGES_LIST = []def image_list(path): global IMAGES_LIST for root, dirs, files in os.walk(path): # 按文件名排序 # files.sort() files = natsorted(files) # 遍歷所有文件 for file in files: # 如果后綴名為 .jpg if os.path.splitext(file)[1] == ’.jpg’: # 拼接成完整路徑 # print(file) filePath = os.path.join(root, file) print(filePath) # 添加到數(shù)組 IMAGES_LIST.append(filePath) return IMAGES_LIST

# main.pyimport timefrom Sketch_the_generated_code import drawingfrom Crawler.Spider import BaiDuSpiderfrom image_list.image_list_path import image_listimport osMAX_WORDS = 20if __name__ == ’__main__’: # now_path = os.getcwd() # img_type = ’ai’ img_type = input(’請輸入你想下載的圖片類型,什么都可以哦~ >>> ’) bd_spider = BaiDuSpider(MAX_WORDS, img_type) print(bd_spider.main()) time.sleep(10) # 這里設(shè)置睡眠時間,讓有足夠的時間去添加,這樣讀取就,去掉或者太短會報錯,所以 for index, path in enumerate(image_list(img_type)): drawing(src = path, id = index)

所以最終的目錄結(jié)構(gòu)如下所示:

C:.│ main.py│ Sketch_the_generated_code.py│├─Crawler│ │ Spider.py│ ││ └─__pycache__│ Spider.cpython-37.pyc│├─drawing│ │ result.jpg│ │ result1.jpg│ │ Sketch_the_generated_code.py│ │ study.py│ ││ ├─images│ │ image_1.jpg│ ││ └─__pycache__│ Sketch_the_generated_code.cpython-37.pyc│├─Drawing_images├─image_list│ │ image_list_path.py│ ││ └─__pycache__│ image_list_path.cpython-37.pyc│└─__pycache__Sketch_the_generated_code.cpython-37.pyc

至此,全部代碼已經(jīng)完成。

到此這篇關(guān)于Python使用5行代碼批量做小姐姐的素描圖的文章就介紹到這了,更多相關(guān)Python 批量做素描圖內(nèi)容請搜索好吧啦網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持好吧啦網(wǎng)!

標(biāo)簽: Python 編程
相關(guān)文章:
日本不卡不码高清免费观看,久久国产精品久久w女人spa,黄色aa久久,三上悠亚国产精品一区二区三区
亚洲理论在线| 国产毛片精品| 午夜国产精品视频免费体验区| 亚洲激情国产| 91九色精品| 正在播放日韩精品| 欧美激情网址| 欧美一区激情| 热久久久久久| 四虎4545www国产精品| 精品一区二区三区视频在线播放| 日本 国产 欧美色综合| 极品日韩av| 国产精品一区毛片| 国产欧美综合一区二区三区| 欧美一区二区三区久久精品| 国产成人1区| 日韩不卡免费高清视频| 免费不卡在线视频| 精品中文字幕一区二区三区四区| 欧美一级久久| 神马午夜久久| 久久国产主播| 在线视频亚洲| 亚洲精品乱码| 欧美激情网址| 成人久久久久| 蜜桃av一区二区三区电影| 亚洲午夜免费| 婷婷精品久久久久久久久久不卡| 国产精品最新| 精品国产亚洲日本| 欧洲精品一区二区三区| 国产亚洲精品精品国产亚洲综合| 中文字幕一区二区精品区| 久久久久观看| 视频一区二区国产| 青青国产91久久久久久| 欧美日韩免费观看视频| 国产欧美日韩影院| 日韩亚洲国产欧美| 韩国久久久久久| 午夜欧美理论片| 鲁大师影院一区二区三区| 午夜av成人| 欧美国产亚洲精品| 国产免费久久| 亚洲黄色在线| 久草免费在线视频| 综合干狼人综合首页| 亚洲精品.com| 视频精品一区| 日韩一区二区三区精品 | 国产精品社区| 午夜在线精品偷拍| 91精品久久久久久久久久不卡| 日韩在线欧美| 日本伊人午夜精品| 国产精品99一区二区三区| 伊人精品在线| 国产免费av国片精品草莓男男| 久久影视一区| 欧美伊人影院| 日韩国产专区| 国产精品观看| 韩国精品主播一区二区在线观看| 国产白浆在线免费观看| 久久不卡日韩美女| 国产高清一区二区| 91欧美精品| 成人午夜在线| 香蕉久久精品| 日韩午夜高潮| 国产精品v一区二区三区| 日本不卡的三区四区五区| 蜜臀va亚洲va欧美va天堂| 国产亚洲毛片| 国产精品亚洲二区| 欧洲av不卡| 国产精品sm| 欧美日中文字幕| 欧美激情aⅴ一区二区三区| 电影亚洲精品噜噜在线观看| 亚洲精品激情| 夜鲁夜鲁夜鲁视频在线播放| 欧美专区一区二区三区| 久久精品二区亚洲w码| 国产视频欧美| 日本精品不卡| 国产日韩在线观看视频| 美日韩精品视频| 中文字幕高清在线播放| 国产欧美三级| 国产精品人人爽人人做我的可爱| sm捆绑调教国产免费网站在线观看 | 香蕉成人久久| 婷婷久久免费视频| 国产亚洲一区二区三区啪| 国产精品流白浆在线观看| 久久永久免费| 国产美女高潮在线| 欧美天堂亚洲电影院在线观看| 中文字幕日本一区二区| 欧美精品成人| 在线看片不卡| 美腿丝袜亚洲一区| 精品国产午夜| 国产精品一区二区av交换 | 美女尤物久久精品| 美国欧美日韩国产在线播放| 精品亚洲美女网站| 国产精品久久久一区二区| 午夜日韩福利| 免费视频最近日韩| 亚洲在线久久| 美国三级日本三级久久99| 久久精品91| 精品亚洲免a| 国产精品99久久免费| 在线亚洲观看| 一本一道久久a久久精品蜜桃| 老牛影视一区二区三区| 国精品一区二区| 91精品亚洲| 92国产精品| 一本大道色婷婷在线| 亚洲精品国产嫩草在线观看| 国产不卡人人| 国产精品毛片视频| 日韩精品1区| 在线看片福利| 99久久99久久精品国产片果冰 | 欧美日韩第一| 日韩欧美精品综合| 日韩精品91| 国产伦一区二区三区| 在线看片一区| 日韩av免费| 美女av在线免费看| 88xx成人免费观看视频库| 91综合网人人| 成人国产精品| 亚洲综合不卡| 欧美日韩中文| 神马久久午夜| 久久精品国产在热久久| 老司机精品久久| 久久亚洲美女| 午夜久久av| 一本一道久久a久久| 日韩黄色av| 成人在线视频区| 亚洲欧美日本国产专区一区| 日本不卡在线视频| 欧美日韩少妇| 精品国产亚洲一区二区三区在线 | 亚洲精品少妇| 蜜桃视频在线网站| 久久高清免费| 视频一区二区欧美| 高潮久久久久久久久久久久久久| 中国字幕a在线看韩国电影| 午夜国产欧美理论在线播放 | 在线免费观看亚洲| 久久久9色精品国产一区二区三区| 精品不卡一区| 久久99伊人| 国产欧美日韩一区二区三区四区 | 久久久精品久久久久久96| 亚洲特级毛片| 日韩av网站免费在线| 国产伦久视频在线观看| 亚洲第一区色| 日本中文字幕视频一区| 精品九九在线| 丝袜美腿亚洲一区| 精品国产乱码| 日韩午夜免费| 久久国产影院| 亚洲欧美在线综合| а√在线中文在线新版| 国产精品外国| 国产精品综合色区在线观看| 亚洲三级国产| 视频一区日韩| 日韩午夜视频在线| 免费看黄色91| 亚洲乱亚洲高清| 丝袜美腿亚洲色图| 鲁大师影院一区二区三区| 日韩视频久久| 性一交一乱一区二区洋洋av| 亚洲欧美成人综合| 日本综合精品一区| 亚久久调教视频| 91精品啪在线观看国产爱臀| 日本不卡高清视频| 日本 国产 欧美色综合| 国产精品亲子伦av一区二区三区 | 日韩中文字幕|