日本不卡不码高清免费观看,久久国产精品久久w女人spa,黄色aa久久,三上悠亚国产精品一区二区三区

您的位置:首頁技術文章
文章詳情頁

MySQL Shell import_table數據導入的實現

瀏覽:185日期:2023-10-18 07:19:22
目錄1. import_table介紹2. Load Data 與 import table功能示例2.1 用Load Data方式導入數據2.2 用import_table方式導入數據3. import_table特定功能3.1 多文件導入(模糊匹配)3.2 并發導入3.3 導入速率控制3.4 自定義chunk大小4. Load Data vs import_table性能對比5. 技術總結1. import_table介紹

上期技術分享我們介紹了MySQL Load Data的4種常用的方法將文本數據導入到MySQL,這一期我們繼續介紹另一款更加高效的數據導入工具,MySQL Shell 工具集中的import_table,該工具的全稱是Parallel Table Import Utility,顧名思義,支持并發數據導入,該工具在MySQL Shell 8.0.23版本后,功能更加完善, 以下列舉該工具的核心功能

基本覆蓋了MySQL Data Load的所有功能,可以作為替代品使用 默認支持并發導入(支持自定義chunk大小) 支持通配符匹配多個文件同時導入到一張表(非常適用于相同結構數據匯總到一張表) 支持限速(對帶寬使用有要求的場景,非常合適) 支持對壓縮文件處理 支持導入到5.7及以上MySQL2. Load Data 與 import table功能示例

該部分針對import table和Load Data相同的功能做命令示例演示,我們依舊以導入employees表的示例數據為例,演示MySQL Load Data的綜合場景

數據自定義順序導入 數據函數處理 自定義數據取值

## 示例數據如下[root@10-186-61-162 tmp]# cat employees_01.csv'10001','1953-09-02','Georgi','Facello','M','1986-06-26''10003','1959-12-03','Parto','Bamford','M','1986-08-28''10002','1964-06-02','Bezalel','Simmel','F','1985-11-21''10004','1954-05-01','Chirstian','Koblick','M','1986-12-01''10005','1955-01-21','Kyoichi','Maliniak','M','1989-09-12''10006','1953-04-20','Anneke','Preusig','F','1989-06-02''10007','1957-05-23','Tzvetan','Zielinski','F','1989-02-10''10008','1958-02-19','Saniya','Kalloufi','M','1994-09-15''10009','1952-04-19','Sumant','Peac','F','1985-02-18''10010','1963-06-01','Duangkaew','Piveteau','F','1989-08-24'## 示例表結構 10.186.61.162:3306 employees SQL > desc emp;+-------------+---------------+------+-----+---------+-------+| Field | Type | Null | Key | Default | Extra |+-------------+---------------+------+-----+---------+-------+| emp_no | int | NO | PRI | NULL | || birth_date | date | NO | | NULL | || first_name | varchar(14) | NO | | NULL | || last_name | varchar(16) | NO | | NULL | || full_name | varchar(64) | YES | | NULL | | -- 表新增字段,導出數據文件中不存在| gender | enum(’M’,’F’) | NO | | NULL | || hire_date | date | NO | | NULL | || modify_date | datetime | YES | | NULL | | -- 表新增字段,導出數據文件中不存在| delete_flag | varchar(1) | YES | | NULL | | -- 表新增字段,導出數據文件中不存在+-------------+---------------+------+-----+---------+-------+2.1 用Load Data方式導入數據

具體參數含義不做說明,需要了解語法規則及含義可查看系列上一篇文章<MySQL Load Data的多種用法>

load data infile ’/data/mysql/3306/tmp/employees_01.csv’into table employees.empcharacter set utf8mb4fields terminated by ’,’enclosed by ’'’lines terminated by ’n’(@C1,@C2,@C3,@C4,@C5,@C6)set emp_no=@C1, birth_date=@C2, first_name=upper(@C3), last_name=lower(@C4), full_name=concat(first_name,’ ’,last_name), gender=@C5, hire_date=@C6 , modify_date=now(), delete_flag=if(hire_date<’1988-01-01’,’Y’,’N’);

MySQL Shell import_table數據導入的實現

2.2 用import_table方式導入數據

util.import_table( ['/data/mysql/3306/tmp/employees_01.csv', ], {'schema': 'employees', 'table': 'emp','dialect': 'csv-unix','skipRows': 0,'showProgress': True,'characterSet': 'utf8mb4','columns': [1,2,3,4,5,6], ## 文件中多少個列就用多少個序號標識就行'decodeColumns': { 'emp_no': '@1', ## 對應文件中的第1列 'birth_date': '@2', ## 對應文件中的第2個列 'first_name': 'upper(@3)', ## 對應文件中的第3個列,并做轉為大寫的處理 'last_name': 'lower(@4)', ## 對應文件中的第4個列,并做轉為大寫的處理 'full_name': 'concat(@3,’ ’,@4)', ## 將文件中的第3,4列合并成一列生成表中字段值 'gender': '@5', ## 對應文件中的第5個列 'hire_date': '@6', ## 對應文件中的第6個列 'modify_date': 'now()',## 用函數生成表中字段值 'delete_flag': 'if(@6<’1988-01-01’,’Y’,’N’)' ## 基于文件中第6列做邏輯判斷,生成表中對應字段值} })

MySQL Shell import_table數據導入的實現

MySQL Shell import_table數據導入的實現

3. import_table特定功能3.1 多文件導入(模糊匹配)

## 在導入前我生成好了3分單獨的employees文件,導出的結構一致[root@10-186-61-162 tmp]# ls -lh總用量 1.9G-rw-r----- 1 mysql mysql 579 3月 24 19:07 employees_01.csv-rw-r----- 1 mysql mysql 584 3月 24 18:48 employees_02.csv-rw-r----- 1 mysql mysql 576 3月 24 18:48 employees_03.csv-rw-r----- 1 mysql mysql 1.9G 3月 26 17:15 sbtest1.csv## 導入命令,其中對對文件用employees_*做模糊匹配util.import_table( ['/data/mysql/3306/tmp/employees_*', ], {'schema': 'employees', 'table': 'emp','dialect': 'csv-unix','skipRows': 0,'showProgress': True,'characterSet': 'utf8mb4','columns': [1,2,3,4,5,6], ## 文件中多少個列就用多少個序號標識就行'decodeColumns': { 'emp_no': '@1', ## 對應文件中的第1列 'birth_date': '@2', ## 對應文件中的第2個列 'first_name': 'upper(@3)', ## 對應文件中的第3個列,并做轉為大寫的處理 'last_name': 'lower(@4)', ## 對應文件中的第4個列,并做轉為大寫的處理 'full_name': 'concat(@3,’ ’,@4)', ## 將文件中的第3,4列合并成一列生成表中字段值 'gender': '@5', ## 對應文件中的第5個列 'hire_date': '@6', ## 對應文件中的第6個列 'modify_date': 'now()',## 用函數生成表中字段值 'delete_flag': 'if(@6<’1988-01-01’,’Y’,’N’)' ## 基于文件中第6列做邏輯判斷,生成表中對應字段值} }) ## 導入命令,其中對要導入的文件均明確指定其路徑util.import_table( ['/data/mysql/3306/tmp/employees_01.csv','/data/mysql/3306/tmp/employees_02.csv','/data/mysql/3306/tmp/employees_03.csv' ], {'schema': 'employees', 'table': 'emp','dialect': 'csv-unix','skipRows': 0,'showProgress': True,'characterSet': 'utf8mb4','columns': [1,2,3,4,5,6], ## 文件中多少個列就用多少個序號標識就行'decodeColumns': { 'emp_no': '@1', ## 對應文件中的第1列 'birth_date': '@2', ## 對應文件中的第2個列 'first_name': 'upper(@3)', ## 對應文件中的第3個列,并做轉為大寫的處理 'last_name': 'lower(@4)', ## 對應文件中的第4個列,并做轉為大寫的處理 'full_name': 'concat(@3,’ ’,@4)', ## 將文件中的第3,4列合并成一列生成表中字段值 'gender': '@5', ## 對應文件中的第5個列 'hire_date': '@6', ## 對應文件中的第6個列 'modify_date': 'now()',## 用函數生成表中字段值 'delete_flag': 'if(@6<’1988-01-01’,’Y’,’N’)' ## 基于文件中第6列做邏輯判斷,生成表中對應字段值} })

MySQL Shell import_table數據導入的實現

MySQL Shell import_table數據導入的實現

3.2 并發導入

在實驗并發導入前我們創建一張1000W的sbtest1表(大約2G數據),做并發模擬,import_table用threads參數作為并發配置, 默認為8個并發.

## 導出測試需要的sbtest1數據[root@10-186-61-162 tmp]# ls -lh總用量 1.9G-rw-r----- 1 mysql mysql 579 3月 24 19:07 employees_01.csv-rw-r----- 1 mysql mysql 584 3月 24 18:48 employees_02.csv-rw-r----- 1 mysql mysql 576 3月 24 18:48 employees_03.csv-rw-r----- 1 mysql mysql 1.9G 3月 26 17:15 sbtest1.csv## 開啟threads為8個并發util.import_table( ['/data/mysql/3306/tmp/sbtest1.csv', ], {'schema': 'demo', 'table': 'sbtest1','dialect': 'csv-unix','skipRows': 0,'showProgress': True,'characterSet': 'utf8mb4','threads': '8' })

MySQL Shell import_table數據導入的實現

MySQL Shell import_table數據導入的實現

3.3 導入速率控制

可以通過maxRate和threads來控制每個并發線程的導入數據,如,當前配置線程為4個,每個線程的速率為2M/s,則最高不會超過8M/s

util.import_table( ['/data/mysql/3306/tmp/sbtest1.csv', ], {'schema': 'demo', 'table': 'sbtest1','dialect': 'csv-unix','skipRows': 0,'showProgress': True,'characterSet': 'utf8mb4','threads': '4','maxRate': '2M' })

MySQL Shell import_table數據導入的實現

3.4 自定義chunk大小

默認的chunk大小為50M,我們可以調整chunk的大小,減少事務大小,如我們將chunk大小調整為1M,則每個線程每次導入的數據量也相應減少

util.import_table( ['/data/mysql/3306/tmp/sbtest1.csv', ], {'schema': 'demo', 'table': 'sbtest1','dialect': 'csv-unix','skipRows': 0,'showProgress': True,'characterSet': 'utf8mb4','threads': '4','bytesPerChunk': '1M','maxRate': '2M' })

MySQL Shell import_table數據導入的實現

4. Load Data vs import_table性能對比 使用相同庫表 不對數據做特殊處理,原樣導入 不修改參數默認值,只指定必備參數

-- Load Data語句load data infile ’/data/mysql/3306/tmp/sbtest1.csv’into table demo.sbtest1character set utf8mb4fields terminated by ’,’enclosed by ’'’lines terminated by ’n’-- import_table語句util.import_table( ['/data/mysql/3306/tmp/sbtest1.csv', ], {'schema': 'demo', 'table': 'sbtest1','dialect': 'csv-unix','skipRows': 0,'showProgress': True,'characterSet': 'utf8mb4' })

MySQL Shell import_table數據導入的實現

MySQL Shell import_table數據導入的實現

可以看到,Load Data耗時約5分鐘,而import_table則只要不到一半的時間即可完成數據導入,效率高一倍以上(虛擬機環境磁盤IO能力有限情況下)

5. 技術總結 import_table包含了Load Data幾乎所有的功能 import_table導入的效率比Load Data更高 import_table支持對導入速度,并發以及每次導入的數據大小做精細控制 import_table的導入進度報告更加詳細,便于排錯及時間評估,包括 導入速度導入總耗時每批次導入的數據量,是否存在Warning等等導入最終的匯總報告

到此這篇關于MySQL import_table數據導入的實現的文章就介紹到這了,更多相關MySQL import_table數據導入內容請搜索好吧啦網以前的文章或繼續瀏覽下面的相關文章希望大家以后多多支持好吧啦網!

標簽: MySQL 數據庫
相關文章:
日本不卡不码高清免费观看,久久国产精品久久w女人spa,黄色aa久久,三上悠亚国产精品一区二区三区
久久精品福利| 久久精品二区三区| 欧美日韩国产免费观看视频| 9999国产精品| 99精品美女| 一区在线视频观看| 亚洲aa在线| 麻豆视频一区| 91精品蜜臀一区二区三区在线| 亚洲午夜在线| 亚洲va久久久噜噜噜久久| 欧美日韩亚洲一区| 国产精品v亚洲精品v日韩精品| 精品视频国产| 日韩中文视频| 久久亚洲风情| 欧美激情综合| av一区二区高清| 四虎在线精品| 国产a久久精品一区二区三区| 欧美综合另类| 日韩国产高清在线| 国产精选在线| 亚洲精品字幕| 精品成人18| 老鸭窝亚洲一区二区三区| 国产精品一国产精品k频道56| 国产a亚洲精品| 国产亚洲网站| 精品国产精品国产偷麻豆| 欧美成人国产| 国产精品.xx视频.xxtv| 成人av动漫在线观看| 欧美亚洲专区| av亚洲在线观看| 欧美成人一二区| 国产高清一区| 国产一区福利| 亚洲人成网站在线在线观看| 在线手机中文字幕| 一区二区高清| 日韩欧美一区二区三区在线观看| 麻豆久久精品| 福利视频一区| 日本亚洲最大的色成网站www | 日韩精品中文字幕第1页| 视频一区在线播放| av在线资源| 91欧美日韩在线| 不卡中文字幕| 精品视频一区二区三区四区五区| 午夜在线精品| av高清一区| 美女高潮久久久| 亚洲97av| 国产精品老牛| 国产综合精品| 精品久久国产一区| 久久精品99国产精品日本| 亚洲一卡久久| 日韩一区二区三区在线免费观看| 国产精品亚洲综合久久| 中文字幕日韩欧美精品高清在线| 成人美女视频| 美女精品视频在线| 亚洲精品大片| 久久aⅴ国产紧身牛仔裤| 99久久久久国产精品| 久久精品国产久精国产| 日本午夜免费一区二区| 亚洲精品少妇| 午夜在线一区二区| 亚洲精品123区| 五月精品视频| 久久天堂成人| 久久激情中文| 亚洲综合在线电影| 成人av三级| 亚洲综合电影| 日韩欧美一区二区三区在线观看| 色综合五月天| 精品国产鲁一鲁****| 久久一区国产| 麻豆视频一区| 欧美激情国产在线| 中文字幕在线视频久| 日韩高清欧美| 欧美日韩免费观看视频| 精品免费av在线| 99视频精品全部免费在线视频| 中文字幕在线视频久| 日韩理论视频| 欧洲亚洲一区二区三区| 久久久精品五月天| 美女网站一区| 亚洲二区在线| 99视频一区| 性一交一乱一区二区洋洋av| 国产婷婷精品| 日韩精品欧美成人高清一区二区| 日本亚洲不卡| 欧美视频久久| 精品一区二区三区免费看| 首页国产精品| 亚洲不卡av不卡一区二区| 亚洲www免费| 蜜臀av免费一区二区三区| 亚洲少妇自拍| 日本成人在线一区| 美女视频黄久久| 国产精品白丝一区二区三区| 精品久久久网| 国模 一区 二区 三区| 蜜桃视频在线观看一区| 欧美日韩一区二区国产| 日韩a一区二区| 尤物精品在线| 欧美久久久网站| 热三久草你在线| 视频一区视频二区中文字幕| 国产欧美一区二区三区国产幕精品 | 日韩极品在线观看| 国产精品15p| 一区二区三区四区在线看| 亚洲精品国模| 国产一区二区精品久| 激情综合自拍| 69堂精品视频在线播放| 国产成人精品999在线观看| 免费观看不卡av| 欧美一区二区三区免费看| 中文字幕在线高清| 丝袜亚洲另类欧美| 免费日韩一区二区三区| 成人看片网站| 日韩一区精品字幕| 老牛国内精品亚洲成av人片| 国产伊人精品| 国产精品资源| 香蕉精品久久| 国产精选久久| 日韩网站在线| 精品久久久网| 免费在线看一区| 国产成人在线中文字幕| 午夜在线播放视频欧美| 精品国产欧美日韩| 亚洲免费中文| 粉嫩av一区二区三区四区五区 | 激情综合婷婷| 久久99伊人| 福利一区和二区| 美女网站久久| 欧美好骚综合网| 伊人www22综合色| 国产欧洲在线| 青草国产精品久久久久久| 激情丁香综合| 麻豆精品视频在线观看视频| 免费在线视频一区| 欧洲精品一区二区三区| 欧美日韩亚洲一区二区三区在线| 久久黄色影院| 久久免费影院| 日韩一区二区三区精品 | 欧美午夜精彩| 国产乱论精品| 中文字幕乱码亚洲无线精品一区| 日韩大片在线| 久久中文字幕一区二区| 天堂成人国产精品一区| 国产白浆在线免费观看| 国产日产一区| 亚洲乱码视频| 午夜亚洲福利在线老司机| av在线日韩| 国产成人精品三级高清久久91| 91精品国产经典在线观看| 亚洲尤物在线| 国产主播一区| 成人羞羞在线观看网站| 国产精品伊人| 日韩激情av在线| 一区二区三区国产在线| 最新亚洲激情| 免费毛片在线不卡| 欧美片第1页| 久久亚洲精精品中文字幕| 国产一精品一av一免费爽爽| 婷婷综合成人| 中文字幕av亚洲精品一部二部| av不卡在线| 欧美日韩第一| 99在线精品免费视频九九视| 激情综合亚洲| 尤物网精品视频| 激情偷拍久久| 国产综合欧美| 在线看片不卡| 国产精品视区|