`

使用bulk collect insert实现大数据快速迁移(转)

阅读更多

(miki西游 @mikixiyou 原文链接: http://mikixiyou.iteye.com/blog/1705838 )

 

 

在数据库管理中,会出现限制某个IP访问数据库的连接数或某个用户访问数据库的连接数的需求。

对于用户访问数据库的连接数限制,我们可以从数据库的profile上着手,使用profile的特性实现该需求。

对于IP访问数据库的连接数限制,从数据库上可以使用logon on database触发器来实现。

 

每一次新会话登录,都将IP记录在vrsession的client_info中,然后count出所有符合条件的会话数目,如果超过了,就直接断开会话连接。

但这个会话连接数据库如果限制了,也只能对非dba角色的用户生效。dba用户只会在alert.log中写一个警告信息而已。

 

实现该功能的触发器代码如下:

 

create table  t_target
  (id         number,
    owner       varchar2(30),
    object_name varchar2(128),
    object_id   number,
    xx          date,
    yy          varchar2(10)
  ) 

 

 

源表为dba_objects ,表结构在数据库中可以查到。

 

需要将源表dba_objects 中两个字段object_name,owner 两个字段的值复制到t_target 表中。

 

declare

  type t_array is table of t_target%rowtype;

  t_data t_array;

  cursor c is

    select null id, owner, object_name, null object_id, null xx, null yy

      from dba_objects;

begin

  open c;

  loop

    fetch c bulk collect

      into t_data limit 100;

    forall i in 1 .. t_data.count

      insert into t_target values t_data (i);

    exit when c%notfound;

  end loop;

  close c;

  commit;

end; 

 

 

Fastest

  1. Explicit cursors doing a BULK COLLECT into a local collection (with an appropriate LIMIT) and using FORALL to write back to the database.
  2. Implicit cursors doing a BULK COLLECT for you behind the scenes along with single-row writes back to the datbase.
  3. Explicit cursors that are not doing a BULK COLLECT and not taking advantage of PL/SQL collections.

 

顺便说一下,这里开发人员多,如果碰到类似要求的,各位可以测试一下这个方法。试试在更大数据量的执行时间和成本会变的如何?

 

本人测试

 

我迁移了一个334W的表中两个字段,用了40秒,不知道这个速度怎么样,呵呵.

 

 

分享到:
评论

相关推荐

    insert大量数据经验之谈

    SELECT col1, col2, col3 BULK COLLECT INTO v_col1, v_col2, v_col3 FROM tab2; FORALL i IN 1 .. v_col1.COUNT INSERT INTO tab1 WHERE tab1.col1 = v_col1(i); END; ``` 批量绑定可以减少PL/SQL和SQL引擎间的...

    OracleToPostgre.rar

    这意味着在执行SQL INSERT语句时,可能会使用BULK COLLECT INTO和FORALL语句(在PL/SQL中)或COPY命令(在PostgreSQL中)。 3. **日志集成**:`log4j`是Apache的一个顶级项目,提供了一种灵活且强大的日志记录框架...

    XLS数据导入至ORACLE

    2. **利用PL/SQL程序**:你可以编写PL/SQL代码来读取Excel文件,然后通过BULK COLLECT和INSERT语句批量插入数据。这需要对Oracle的API如UTL_FILE有一定的了解,以及如何处理文件I/O和数据类型转换。 3. **图形化...

    对比Oracle数据库中多种导入数据方法

    例如,使用BULK COLLECT INTO语句结合PL/SQL,可以显著减少网络通信和数据库调用次数。 4. SQL*Loader:这是一种快速数据加载工具,能直接从文件读取数据并快速写入数据库。SQL*Loader支持复杂的转换规则和错误处理...

    cvs导入oracle

    4. 对于大量数据,可以使用`BULK COLLECT`和`FORALL`等PL/SQL特性提高导入速度。 5. 在导入完成后,记得关闭数据库连接。 **五、性能优化与错误处理** 1. 为了提高导入效率,可以创建索引来加速数据查询。 2. 在...

    c#写的Excel导入Oracle源码

    6. **优化性能**:考虑到大量数据导入时的性能,可以考虑使用Oracle的BULK COLLECT INTO语句配合PL/SQL,或者使用Oracle的外部表功能,将Excel文件直接作为数据库表进行操作。 在提供的压缩包文件"excelToOracle"中...

    plsql excel example

    5. **BULK COLLECT和FORALL**:为了提高效率,当从数据库大量导出数据时,可以使用PL/SQL的BULK COLLECT语句收集数据,然后使用FORALL语句批量插入到Excel文件。 6. **外部表**:Oracle的外部表功能允许将文件系统...

    oracle自动创建数据

    10. **性能优化**:在大量数据生成过程中,要考虑性能因素,比如使用批量插入(BULK COLLECT INTO)以提高数据插入速度,或者在生成数据前创建索引来优化查询效率。 综上,Oracle自动创建数据涉及多个层面,包括...

    excel导入oracle(c#)

    这时可以考虑分批处理,或者使用Oracle的BULK COLLECT功能以提高效率。 4. **错误处理**: 在实际操作中,务必添加适当的错误处理代码,如捕获和处理OracleException、FileNotFoundException等。 5. **自动化和...

    c#批量导入excel数据到oracle数据库.rar

    由于大量插入,建议使用Oracle的BULK COLLECT INTO语句,以提高性能。 6. **执行插入操作**:通过OracleCommand对象执行SQL,完成数据导入。 7. **关闭连接**:操作完成后,记得关闭数据库连接,释放资源。 8. **...

    excel to oracle

    使用PL/SQL的BULK COLLECT和FORALL语句可以提高批量插入的效率。 8. **错误处理和验证**:导入过程中可能会遇到数据不一致或格式错误,需要设置适当的错误处理机制,如忽略错误、记录错误或暂停导入。导入后,通过...

    解析Excle数据到Oracle数据库

    这通常涉及到使用UTL_FILE包读取文件,以及BULK COLLECT和INSERT语句将数据批量插入数据库。 3. **使用ETL工具**:如Oracle的Data Integrator(ODI)或其他第三方工具如Talend、Informatica等,这些工具提供图形化...

    file2oracle

    例如,将多行数据组合成一个大的INSERT语句,或者使用Oracle的BULK COLLECT和FORALL语句进行批量操作。 7. **错误处理与事务控制**: 数据导入过程中可能会遇到各种错误,如数据格式不匹配、主键冲突等。"file2...

Global site tag (gtag.js) - Google Analytics