mysql大批量数据插入技巧
轉自:https://jingyan.baidu.com/album/95c9d20d61b01dec4f75615a.html?picindex=6
首先我是簡單的寫了一個mysql的循環插入數據的SP,具體如下:
這是插入100W數據的過程和結果,可以看到是換了55min +20S約3320秒(約300rows/s),看到之后我是只崩潰,就在網上查了些提速的方法:
而我創建的是Innodb類型的表,分了128個分區。而我依照以上的方法,設置如下:
可以明顯的看到插入百萬數據是100S左右,速度提升了33倍之多。
速度是提升了不少,那就加大插入的數據量,提升10倍,即插入千萬的數據量,具體的SP如下:
可以看到時間差不多是1200s左右,因為字段加長了,可能也有影響插入的速度。
為了具體驗證,就按千萬行插入,字段的長度為1000字節,來查看結果,具體的SP和結果如下:
varchar字段
字段的限制在字段定義的時候有以下規則: a) 存儲限制 varchar 字段是將實際內容單獨存儲在聚簇索引之外,內容開頭用1到2個字節表示實際長度(長度超過255時需要2個字節),因此最大長度不能超過65535。 b) 編碼長度限制 字符類型若為gbk,每個字符最多占2個字節,最大長度不能超過32766; 字符類型若為utf8,每個字符最多占3個字節,最大長度不能超過21845。 對于英文比較多的論壇 ,使用GBK則每個字符占用2個字節,而使用UTF-8英文卻只占一個字節。 若定義的時候超過上述限制,則varchar字段會被強行轉為text類型,并產生warning。 c) 行長度限制 導致實際應用中varchar長度限制的是一個行定義的長度。 MySQL要求一個行的定義長度不能超過65535。若定義的表長度超過這個值,則提示 ERROR 1118 (42000): Row size too large. The maximum row size for the used table type, not counting BLOBs, is 65535. You have to change some columns to TEXT or BLOBs。
再次升級插入的數據量,提升10倍,看插入的時間及占用的內存,字段的字節同樣為1000,具體的SP和結果如下:
從上圖可以清楚的看到,插入1億條數據的時間為5hours +20 min+ 56s=19256s,平均插入的條數為(5193 rows/s)。根上次插入1千萬條的時間差不多,再看所耗磁盤空間,用了98G的空間,跟上次插入千萬條數據時的(26G-17G=9G)也是成線性關系的。按照本機500G的磁盤空間,存儲1行1K字節大小的數據,本機可以存儲理想極限情況下為5億條數據,保守為4~4.5億左右合適,以防其他的應用或者數據庫的UNDO,索引空間占用。
最后再看一次查詢的時間,上次插入百萬數,查詢數據量的時間
因為創建了索引,在查百萬級的數據量時,時間是1秒左右,在數據量上升到千萬時,查詢1億5百萬時,時間為3Min 30S,再插入1億數據,查詢數據量,時間達到27min 43s,可見,不是線性關系,是幾何級增加的。
現在描述集群環境的測試
集群:32G內存 ,500G硬盤,3臺虛擬機也就是3個節點:188.188.2.181(主節點,數據節點和SQL節點)、188.188.2.182(數據節點和SQL節點)和188.188.2.183(數據節點和SQL節點)。/root目錄分區磁盤空間200G(原先默認的是50G)、插入的數據量為8000KW,所占磁盤空間為下圖
總結
以上是生活随笔為你收集整理的mysql大批量数据插入技巧的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 关于html中锚点功能的使用
- 下一篇: SQL必知必会第4版读书笔记