`
kabike
  • 浏览: 608494 次
  • 性别: Icon_minigender_1
  • 来自: 大连
社区版块
存档分类
最新评论

mysql快速导入数据

阅读更多
mysql一般导入导出数据有两种方式,1是导出insert语句,然后插入,2是导出outfile,然后load data infile

实验用的的表如下
show create table 20130208load;

CREATE TABLE `20130208load` (
  `id` int(11) NOT NULL AUTO_INCREMENT,
  `uid` int(11) NOT NULL,
  `content` varchar(50) NOT NULL,
  PRIMARY KEY (`id`),
  KEY `20130208load_idx_uid` (`uid`)
) ENGINE=InnoDB

表里有30w数据

导出为outfile的方式为
SELECT * INTO OUTFILE 'F:\\temp\\20130122handler.txt'
FIELDS TERMINATED BY ','
LINES TERMINATED BY '\n'
FROM 20130122handler;

导出的文件7M,里面就是逗号分割的数据

导出为insert文件的方式为

.\mysqldump.exe -u root -proot crap 20130208load > F:\temp\20130208load.sql

导出的文件8M,可以看到它导出的insert语句是insert into values()()()......的形式

下面准备导入到另一个数据allcrap_test中

1 insert 方法

mysql> use allcrap_test;
Database changed
mysql> set autocommit=0;
Query OK, 0 rows affected (0.00 sec)

mysql> source F:\\temp\\20130208load.sql

Query OK, 36537 rows affected (1.34 sec)
Records: 36537  Duplicates: 0  Warnings: 0

Query OK, 35535 rows affected (1.17 sec)
Records: 35535  Duplicates: 0  Warnings: 0

Query OK, 35537 rows affected (1.19 sec)
Records: 35537  Duplicates: 0  Warnings: 0

Query OK, 35536 rows affected (1.20 sec)
Records: 35536  Duplicates: 0  Warnings: 0

Query OK, 35544 rows affected (1.20 sec)
Records: 35544  Duplicates: 0  Warnings: 0

Query OK, 35540 rows affected (1.08 sec)
Records: 35540  Duplicates: 0  Warnings: 0

Query OK, 35542 rows affected (1.17 sec)
Records: 35542  Duplicates: 0  Warnings: 0

Query OK, 35534 rows affected (1.19 sec)
Records: 35534  Duplicates: 0  Warnings: 0

Query OK, 14695 rows affected (0.56 sec)
Records: 14695  Duplicates: 0  Warnings: 0

分为9次insert,差不多有10s

这里其实完全可以先把secondary索引去掉,然后插入,然后重建索引.
首先改下sqldump

.\mysqldump.exe --no-create-info -u root -proot crap 20130208load > F:\temp\20130208load_2.sql

加上了--no-create-info选项,没有导出DDL语句

这次先drop掉那个索引
alter table 20130208load drop index 20130208load_idx_uid
清空表(这是为了删除第一次导入的数据)
TRUNCATE table 20130208load

然后source命令

mysql> source F:\\temp\\20130208load_2.sql;
Query OK, 36537 rows affected (0.75 sec)
Records: 36537  Duplicates: 0  Warnings: 0

Query OK, 35535 rows affected (0.73 sec)
Records: 35535  Duplicates: 0  Warnings: 0

Query OK, 35537 rows affected (1.13 sec)
Records: 35537  Duplicates: 0  Warnings: 0

Query OK, 35536 rows affected (0.64 sec)
Records: 35536  Duplicates: 0  Warnings: 0

Query OK, 35544 rows affected (0.66 sec)
Records: 35544  Duplicates: 0  Warnings: 0

Query OK, 35540 rows affected (0.64 sec)
Records: 35540  Duplicates: 0  Warnings: 0

Query OK, 35542 rows affected (0.67 sec)
Records: 35542  Duplicates: 0  Warnings: 0

Query OK, 35534 rows affected (0.92 sec)
Records: 35534  Duplicates: 0  Warnings: 0

Query OK, 14695 rows affected (0.33 sec)
Records: 14695  Duplicates: 0  Warnings: 0

这次明显快多了,大概6.47s.

最后把secondary索引加上去就行了
alter table 20130208load add index 20130208load_idx_uid(uid);


2 然后试下load data infile
创建用于load data infile的表
create table 20130208load_infile like crap.20130208load

有索引的情况下load
load data INFILE 'F:\\temp\\20130208load.txt'
INTO table 20130208load_infile
FIELDS TERMINATED BY ','
LINES TERMINATED BY '\n'

9s

试下没有索引时候,用同样的load语句,花了5.2s多.


另外看了这篇文章
http://venublog.com/2007/11/07/load-data-infile-performance/

谈到了一些优化,在我的windows机器上,innodb_flush_method是无效的,
设置了innodb_doublewrite=0以后,变成了4.6s


这里有人谈到了,如果把load data infile的大文件拆分成若干个小文件,会不会提高性能.
从他的结果来看,貌似提高不明显.
http://www.mysqlperformanceblog.com/2008/07/03/how-to-load-large-files-safely-into-innodb-with-load-data-infile/


另外吐槽下Navicat里执行source命令居然报语法错误 Err 1064,还是在mysql自带的客户端执行能好使.
0
1
分享到:
评论
2 楼 kabike 2013-02-25  
JasonWilliams 写道
导出为outfile方式的代码有点小问题吧。。执行时会报错啊
应该是
SELECT * FROM 20130122handler INTO OUTFILE 'F:\\temp\\20130122handler.txt'
FIELDS TERMINATED BY ','
LINES TERMINATED BY '\n';

哦?我这边没问题啊.我mysql是5.1的.
1 楼 JasonWilliams 2013-02-22  
导出为outfile方式的代码有点小问题吧。。执行时会报错啊
应该是
SELECT * FROM 20130122handler INTO OUTFILE 'F:\\temp\\20130122handler.txt'
FIELDS TERMINATED BY ','
LINES TERMINATED BY '\n';

相关推荐

    mysql快速导入百万级千万级数据.zip

    mysql快速导入百万级千万级数据 mysql快速导入百万级千万级数据 mysql快速导入百万级千万级数据 mysql快速导入百万级千万级数据 mysql快速导入百万级千万级数据 mysql快速导入百万级千万级数据

    MySQL数据导入导出

    而如果只关注数据的快速导入导出,特别是当操作的表结构已经存在或者不需要备份时,使用 SELECT INTO OUTFILE 和 LOAD DATA INFILE 可能会更高效。 此外,MySQL的权限系统对于数据导入导出操作同样重要。数据库管理...

    MySQL数据导入与导出

    本文将深入探讨MySQL数据导入与导出的方法,通过实际案例解析,帮助读者快速掌握相关技巧。 #### 数据导出:MySQL的多种方式 ##### 1. 使用`SELECT INTO OUTFILE`语句导出数据 `SELECT INTO OUTFILE`是MySQL提供的...

    MySQL 快速导入导出

    自己用JAVA做的第一个swing程序,用来快速导入导出MySQL数据库,导入整个库6万条数据只需要5秒钟,处女作 见笑了。 使用方法:需要系统支持JAVA环境并安装了MySQL,直接运行MySQLdump.jar,填好相应设置项,点击...

    MYSQL数据导入

    `LOAD DATA INFILE` 是MySQL提供的一个高效的数据导入工具,它能够快速地从CSV或其他文本文件中导入数据。例如,如果你有一个名为`data.csv`的文件,你可以使用以下语句: ```sql LOAD DATA INFILE 'data.csv' ...

    python工具-excel批量导入mysql (几千万数据半小时可搞定)

    在本例中,提供的`excelImport.py`脚本应该包含了上述部分或全部逻辑,用于实现快速批量导入Excel数据到MySQL数据库。根据实际需求,你可以对脚本进行调整,例如适应不同的数据库字段结构或处理更多Excel文件。

    MySql数据导入导出

    `LOAD DATA INFILE` 是MySQL提供的一种直接从文件中读取数据并导入到表中的功能,尤其适用于大规模数据的快速导入。 - **命令格式**: ```sql LOAD DATA [LOCAL] INFILE 'file_name' [REPLACE | IGNORE] INTO ...

    MySQL数据库快速导入导出

    自己用JAVA做的第一个swing程序,用来快速导入导出MySQL数据库,导入整个库6万条数据只需要5秒钟,处女作 见笑了。 使用方法:需要系统支持JAVA环境并安装了MySQL,直接运行DBdump.jar,填好相应项,按步骤导入导出...

    datax数据从hive导入mysql数据缺失解决

    Hive 通常用于存储海量数据并进行批处理分析,而 MySQL 则用于存储结构化数据并提供快速查询服务。为了实现两者之间的数据交换,DataX 作为一种开源的数据同步工具被广泛应用。 #### 问题描述 在使用 DataX 将数据...

    2021 全年工作日假期周末mysql快速导入表

    标题 "2021全年工作日假期周末mysql快速导入表" 涉及的主要知识点是MySQL数据库管理和数据导入。MySQL是一种流行的开源关系型数据库管理系统,它在处理大量数据时具有高效性和稳定性。在这个场景中,用户可以快速地...

    mysql数据库大数据量导入导出多种方法

    mysql数据库大数据量导入导出多种方法,该文档详述SELECT * INTO和mysqldump导出方法。导入方法中包括导入sql,txt文件和load data三种方法

    MySQL数据导入导出各类型文件

    对于由`mysqldump`生成的.sql文件,可以使用`source`命令在MySQL客户端中执行文件内容,或者使用`mysqlimport`工具导入数据。 3. 对于csv文件,可以使用`LOAD DATA INFILE`配合`FIELDS TERMINATED BY`,`ENCLOSED ...

    Excel大量数据快速导入数据库源码

    4. **数据映射**:在导入数据时,可能需要将Excel列与数据库表的字段进行映射,`Frm_SetColumns.cs`可能实现了这一功能,允许用户选择或指定Excel列对应数据库的哪个字段。 5. **SQL批量插入**:`Winform_...

    MySQL数据导入导出.pdf

    MySQL 数据导入导出是数据库管理中的重要操作,用于数据迁移、备份、恢复或者在不同环境间同步数据。本文主要介绍两种常见的MySQL数据导入导出方法:`SELECT INTO OUTFILE`语句和`mysqldump`实用程序。 1. **使用 `...

    MySQL如何快速导入数据

    【MySQL如何快速导入数据】 在日常的数据库管理中,快速导入数据是一项重要的技能,尤其是在处理大量数据时。本文主要探讨如何使用MySQL自带的命令行工具有效地导入数据,以提高效率和减少等待时间。 首先,避免...

    mysql导入txt文本

    MySQL提供了一个名为`LOAD DATA INFILE`的命令来快速导入TXT文件。你需要指定文件路径、分隔符和字段终止符。例如,如果TXT文件使用逗号分隔,可以这样写: ```sql LOAD DATA INFILE '/path/to/data.txt' INTO ...

    MYSQL专用导入导出工具mysql-front

    在导入数据方面,MySQL-Front支持多种格式的数据文件,如CSV、TXT、XML等。用户可以选择要导入的文件,指定目标数据库和表,然后设置相应的导入选项,如字段分隔符、编码格式等。导入过程中,MySQL-Front会自动匹配...

    Shell脚本批量添加CSV数据到MySQL

    在IT行业中,数据管理是一项关键任务,特别是在...通过以上步骤,我们可以有效地将`prov.csv`中的数据导入到MySQL数据库中,实现数据的快速迁移和测试数据的准备。熟练掌握这种方法对于提升数据库管理的效率至关重要。

    中国省市区城市列表mysql数据表,可直接导入数据库、可转JSON数据,带行政区划码和经纬度

    描述中提到的“可直接导入数据库”,意味着这个文件(ChinaCity.sql)是一个SQL脚本文件,可以直接在MySQL数据库中执行以创建相应的数据表。这种方式非常便捷,避免了手动输入大量数据的繁琐工作。同时,数据表中的...

Global site tag (gtag.js) - Google Analytics