`

insert大量数据经验之谈

阅读更多

在很多时候,我们会需要对一个表进行插入大量的数据,并且希望在尽可能短的时间内完成该工作,这里,和大家分享下我平时在做大量数据insert的一些经验。

  前提:在做insert数据之前,如果是非生产环境,请将表的索引和约束去掉,待insert完成后再建索引和约束。

  1.

  insert into tab1 select * from tab2; 
  commit;



  这是最基础的insert语句,我们把tab2表中的数据insert到tab1表中。根据经验,千万级的数据可在1小时内完成。但是该方法产生的arch会非常快,需要关注归档的产生量,及时启动备份软件,避免arch目录撑爆。

  2.

  alter table tab1 nologging; 
  insert /*+ append */ into tab1 select * from tab2; 
  commit; 
  alter table tab1 logging;


  该方法会使得产生arch大大减少,并且在一定程度上提高时间,根据经验,千万级的数据可在45分钟内完成。但是请注意,该方法适合单进程的串行方式,如果当有多个进程同时运行时,后发起的进程会有enqueue的等待。注意此方法千万不能dataguard上用(不过要是在database已经force logging那也是不怕的,呵呵)!!

  3.

  insert into tab1 select /*+ parallel */ * from tab2; 
  commit;



  对于select之后的语句是全表扫描的情况,我们可以加parallel的hint来提高其并发,这里需要注意的是最大并发度受到初始化参数parallel_max_servers的限制,并发的进程可以通过v$px_session查看,或者ps -ef |grep ora_p查看。 

  4.

  alter session enable parallel dml; 
  insert /*+ parallel */ into tab1 select * from tab2; 
  commit;


  与方法2相反,并发的insert,尚未比较和方法2哪个效率更高(偶估计是方法2快),有测试过的朋友欢迎补充。

  5.

  insert into tab1 select * from tab2 partition (p1); 
  insert into tab1 select * from tab2 partition (p2); 
  insert into tab1 select * from tab2 partition (p3); 
  insert into tab1 select * from tab2 partition (p4);



  对于分区表可以利用tab1进行多个进程的并发insert,分区越多,可以启动的进程越多。我曾经试过insert 2.6亿行记录的一个表,8个分区,8个进程,如果用方法2,单个进程完成可能要40分钟,但是由于是有8个分区8个进程,后发进程有enqueue,所以因此需要的时间为40分钟×8;但是如果用方法5,虽然单个进程需要110分钟,但是由于能够并发进程执行,所以总共需要的时间就约为110分钟了。

  6.

  DECLARE 
  TYPE dtarray IS TABLE OF VARCHAR2(20) INDEX BY BINARY_INTEGER; 
  v_col1 dtarray; 
  v_col2 dtarray; 
  v_col3 dtarray; 
  BEGIN 
  SELECT col1, col2, col3 BULK COLLECT 
  INTO v_col1, v_col2, v_col3 
  FROM tab2; 
  FORALL i IN 1 .. v_col1.COUNT 
  insert into tab1 WHERE tab1.col1 = v_col1; 
  END;


  用批量绑定(bulk binding)的方式。当循环执行一个绑定变量的sql语句时候,在PL/SQL 和SQL引擎(engines)中,会发生大量的上下文切换(context switches)。使用bulk binding,能将数据批量的从plsql引擎传到sql引擎,从而减少上下文切换过程,提升效率。该方法比较适合于在线处理,不必停机。 

  7.

  sqlplus -s user/pwd< runlog.txt 
  set copycommit 2; 
  set arraysize 5000; 
  copy from user/pwd@sid - 
  to user/pwd@sid - 
  insert tab1 using select * from tab2; 
  exit 
  EOF



  用copy的方法进行插入,注意此处insert没有into关键字。该方法的好处是可以设置copycommit和arrarysize来一起控制commit的频率,上面的方法是每10000行commit一次。

分享到:
评论

相关推荐

    insert插入数据工具

    手动编写SQL插入语句,尤其是在处理大量数据时,确实会变得非常繁琐和耗时。这个工具的出现就是为了减轻这种负担。 首先,让我们了解一下SQL中的INSERT语句。INSERT是用于向数据库表中插入新记录的基本命令。它的...

    sqlserver表数据生成insertsql脚本(导出成insertsql脚本).pdf

    SQL Server表数据生成INSERT SQL脚本 SQL Server是一种强大的关系数据库管理系统,提供了多种方式来生成INSERT SQL脚本,以便将数据导出到其他数据库或系统中。在本文中,我们将介绍如何使用SQL Server 2008中文版...

    Sql Server导出数据 INSERT 脚本

    可以将数据库中的数据导出insert into脚本, sql server2008以上版本已经自带导出数据库数据成insert脚本功能,该工具针对2005以下版本.使用时先选择数据库服务器地址,在右侧选择Sql Server login,输入数据库账号...

    VB 利用INSERT语句向数据表中插入数据

    总的来说,VB利用INSERT语句向数据表中插入数据的过程包括:设置数据库连接,构建INSERT语句,创建并执行命令,以及在完成后清理资源。在实际开发中,这些步骤可能会封装在函数或类中,以提高代码的重用性和可维护性...

    将sqlserver表中指定数据转化为insert语句

    在SQL Server中,有时我们需要将现有表中的特定数据导出为...此外,如果你在处理大量数据时,可能需要考虑分批插入,以避免一次性操作导致的性能问题。在处理非固定数据类型时,记得进行适当的转换,确保数据的正确性。

    c# 导出MSSQL表数据 Insert语句

    本文将深入探讨如何在C#中导出MSSQL表的数据并生成Insert语句,这对于数据迁移、备份或测试环境的搭建都非常有用。 首先,要实现这个功能,我们需要对SQL Server的ADO.NET库有基本的了解。ADO.NET是微软提供的一个...

    bulk insert 文本文件数据导入

    这个操作比使用INSERT语句逐行插入数据快得多,尤其在处理大量数据时。在本篇中,我们将深入探讨`BULK INSERT`的使用方法及其相关的知识点。 首先,`BULK INSERT`的基本语法如下: ```sql BULK INSERT FROM '...

    SQL 导出数据 insert 语句

    这是因为导出数据通常涉及大量的记录,而INSERT语句对于大量数据可能不太实用。但是,当数据量较小或者特定需求时,生成INSERT语句就显得很有价值。 INSERT语句是SQL语言中用于向表中插入新记录的基本命令。其基本...

    bulk insert导入数据

    - **定义**:`BULK INSERT` 是 SQL Server 提供的一种高效数据导入工具,能够帮助用户快速地将大量数据从文本文件导入到数据库表中。 - **优势**: - **高效性**:相比传统的 INSERT 语句,`BULK INSERT` 能够显著...

    自动生成insert语句的工具

    4. **批量处理**:对于大型数据库,工具应能高效处理大量数据,生成的INSERT语句数量可能达到数千甚至上万条。 5. **格式化输出**:生成的INSERT语句通常会被格式化,易于阅读和复制到其他文件中。 6. **安全**:...

    数据库数据导出到insert 语句

    这时,可以考虑使用`LOAD DATA INFILE`(MySQL)或`COPY`(PostgreSQL)命令,它们能更快地导入大量数据。 总的来说,将数据库数据导出为INSERT语句是一种灵活的方法,便于数据的备份和迁移。了解如何正确地执行这...

    SQL SERVER 将select数据生成insert语句

    特别是在处理大量数据时,这种自动化的方法能显著提高工作效率。 总结来说,SQL Server提供了`SELECT INTO`和`INSERT INTO...SELECT`两种语句用于数据迁移。而"SelectInsertTable"这样的工具进一步简化了这一过程,...

    数据导出为Insert 脚本

    在IT领域,数据库管理和数据迁移是常见的任务,而“数据导出为Insert脚本”是其中一个重要的环节。...同时,自定义工具如压缩包中的应用程序,可以提高工作效率,特别是在处理大量数据或频繁进行此类操作时。

    SQL Server表数据导出成Insert语句的工具

    在SQL Server数据库管理中,有时我们需要将表中的数据导出为Insert语句,这在数据迁移、备份或测试环境中非常常见。"SQL Server表数据导出成Insert语句的工具"是一个专门为此目的设计的应用程序,它能帮助数据库管理...

    Oracle导出INSERT语句

    此外,如果数据量巨大,直接运行大量INSERT语句可能会对数据库性能造成影响,因此可能需要分批执行或利用批量插入的优化策略。 总的来说,“Oracle导出INSERT语句”工具简化了数据迁移过程,提供了灵活的数据备份...

    Neo4j大量CSV数据导入测试数据

    例如,`USING PERIODIC COMMIT 1000 LOAD CSV WITH HEADERS FROM 'file:///order_test.csv' AS row CREATE (:Order {id: row.id, ...})`,这个脚本将每1000行提交一次,避免一次性加载大量数据导致内存溢出。...

    DB2数据库批量导insert工具

    1. 批量生成:能够一次性处理大量数据,生成对应的insert语句,减少了手动操作的繁琐。 2. 针对DB2优化:专门针对DB2数据库的特性进行优化,确保生成的insert语句与数据库兼容,执行效率高。 3. 实践验证:已经过...

    plsql批量导入数据

    当我们需要处理大量数据导入任务时,PLSQL提供了多种方法来实现批量导入,这些方法高效且灵活。本文将详细介绍如何在PLSQL中进行批量导入数据。 一、SQL*Loader SQL*Loader是Oracle提供的一个命令行工具,它能够...

Global site tag (gtag.js) - Google Analytics