大规模数据导入和导出(mysql)
测试数据2.5G,共有数据9427567条。用的mysql的large服务器的配置。
load 一次需要大概10分钟左右。
建的表用的是MYISAM,调整了几个session的参数值
SET SESSION BULK_INSERT_BUFFER_SIZE = 256217728 ;
SET SESSION MYISAM_SORT_BUFFER_SIZE = 256217728 ;
运行结果如下
Query OK, 9427567 rows affected, 1558 warnings (3 min 55.21 sec)
Records: 9427567 Deleted: 0 Skipped: 0 Warnings: 0
google到的还可以
set global KEY_BUFFER_SIZE = 256217728 ;
alter table tablename disable keys ;
如何load 数据里面带反斜杠(backslash)”\” 的数据
由于如果你没有指定FIELDS子句,则默认值为假设您写下如下语句时的值:
FIELDS TERMINATED BY ‘\t’ ENCLOSED BY ” ESCAPED BY ‘\\’
所以,如果你的数据里面有反斜杠(backslash)”\”的时候,数据会出现被截断的问题。出现这种问题,只要写上如下的fields子句即可
FIELDS TERMINATED BY ‘\t’ ENCLOSED BY ” ESCAPED BY ”
如何load 不同编码的数据
原来用的4.X的mysql,我是select into outfile ,只后用iconv,或者其他软件来做。可以参考这里 ,但是由于这次数据大,用ultraedit等软件打开都要半天。好在新版的mysql可以增加一个新的参数
CHARACTER SET gbk
我的文本数据是GBK的编码,数据表是utf8的,用这种方法测试成功。
如何load 的时候只insert特定的列
比如表里面有比元数据多的列。可以在load 的时候指定要插入的字段名字。
示例的代码如下:
LOAD DATA INFILE ' ~/data.txt '
INTO TABLE fb0505
CHARACTER SET gbk
FIELDS TERMINATED BY ' \t ' ENCLOSED BY '' ESCAPED BY ''
LINES TERMINATED BY ' ' STARTING BY ''
( seller_id , fb_type , fb_date , item_url ) ;
其中表fb0505里面还有一列是id。
- Mysql 导入/导出数据
- mysql 数据表备份导出,恢复导入操作实践
- Mysql数据备份、恢复、数据导入、数据导出的方法
- 导出导入MySql数据
- (转)关于MYSQL数据的导出导入与版本的转换
- MySQL数据的导入导出及编码设定
- Hadoop Hive概念学习系列之HDFS、Hive、MySQL、Sqoop之间的数据导入导出(强烈建议去看)(十八)
- 运用命令行导出导入mysql数据
- Navicat for MySQL使用手记(中)--导入/导出数据表
- mysql在linux和windows下导入和导出数据库、数据表总结
- PHP将Excel表中的数据导入导出mysql
- mysql 导入脚本,如果数据量大,可以用phpstudy 里的数据库导入导出工具
- mysql的数据导入导出几种方法
- linux下mysql数据的导出和导入
- Mysql 导入导出数据结构及数据
- mysql导入导出.csv格式数据
- MySQL对文本的导入导出数据
- 从mysql中 导出/导入表及数据
- mysql 数据库、数据表文件导入导出
- MySQL INTO OUTFILE导出导入数据|mysqldump