在Oracle
数据库中,将一张表的部分字段转换导入到另外一张表的部分字段中,如"insert into t_target(owner,object_name) from t_source;"
。
这也是解决此类数据迁移的的常规操作方法。
如果源表记录数不是很多,操作操作也无妨。
但是若源表记录数一旦超过百万千万,执行时间就长了,占用的回滚段也大。不小心执行失败,又要全部回滚。
有没有更好的方法,加hint
如nologging append,
甚至parallel
。
这些我认为都不是很好的方法,有有一种方法,称之为bulk collect into
。使用它可以减少操作时间。这是基于数据块的插入方式。
(miki西游 @mikixiyou 原文链接: http://mikixiyou.iteye.com/blog/1626906
)
目标表的结构如下:
create table t_target
(id number,
owner varchar2(30),
object_name varchar2(128),
object_id number,
xx date,
yy varchar2(10)
)
源表为dba_objects
,表结构在数据库中可以查到。
需要将源表dba_objects
中两个字段object_name,owner
两个字段的值复制到t_target
表中。
declare
type t_array is table of t_target%rowtype;
t_data t_array;
cursor c is
select null id, owner, object_name, null object_id, null xx, null yy
from dba_objects;
begin
open c;
loop
fetch c bulk collect
into t_data limit 100;
forall i in 1 .. t_data.count
insert into t_target values t_data (i);
exit when c%notfound;
end loop;
close c;
commit;
end;
Fastest
- Explicit cursors doing a BULK COLLECT into a local collection (with an appropriate LIMIT) and using FORALL to write back to the database.
- Implicit cursors doing a BULK COLLECT for you behind the scenes along with single-row writes back to the datbase.
- Explicit cursors that are not doing a BULK COLLECT and not taking advantage of PL/SQL collections.
顺便说一下,这里开发人员多,如果碰到类似要求的,各位可以测试一下这个方法。试试在更大数据量的执行时间和成本会变的如何?
分享到:
相关推荐
SELECT col1, col2, col3 BULK COLLECT INTO v_col1, v_col2, v_col3 FROM tab2; FORALL i IN 1 .. v_col1.COUNT INSERT INTO tab1 WHERE tab1.col1 = v_col1(i); END; ``` 批量绑定可以减少PL/SQL和SQL引擎间的...
这意味着在执行SQL INSERT语句时,可能会使用BULK COLLECT INTO和FORALL语句(在PL/SQL中)或COPY命令(在PostgreSQL中)。 3. **日志集成**:`log4j`是Apache的一个顶级项目,提供了一种灵活且强大的日志记录框架...
例如,使用BULK COLLECT INTO语句结合PL/SQL,可以显著减少网络通信和数据库调用次数。 4. SQL*Loader:这是一种快速数据加载工具,能直接从文件读取数据并快速写入数据库。SQL*Loader支持复杂的转换规则和错误处理...
2. **利用PL/SQL程序**:你可以编写PL/SQL代码来读取Excel文件,然后通过BULK COLLECT和INSERT语句批量插入数据。这需要对Oracle的API如UTL_FILE有一定的了解,以及如何处理文件I/O和数据类型转换。 3. **图形化...
6. **优化性能**:考虑到大量数据导入时的性能,可以考虑使用Oracle的BULK COLLECT INTO语句配合PL/SQL,或者使用Oracle的外部表功能,将Excel文件直接作为数据库表进行操作。 在提供的压缩包文件"excelToOracle"中...
4. 对于大量数据,可以使用`BULK COLLECT`和`FORALL`等PL/SQL特性提高导入速度。 5. 在导入完成后,记得关闭数据库连接。 **五、性能优化与错误处理** 1. 为了提高导入效率,可以创建索引来加速数据查询。 2. 在...
5. **BULK COLLECT和FORALL**:为了提高效率,当从数据库大量导出数据时,可以使用PL/SQL的BULK COLLECT语句收集数据,然后使用FORALL语句批量插入到Excel文件。 6. **外部表**:Oracle的外部表功能允许将文件系统...
10. **性能优化**:在大量数据生成过程中,要考虑性能因素,比如使用批量插入(BULK COLLECT INTO)以提高数据插入速度,或者在生成数据前创建索引来优化查询效率。 综上,Oracle自动创建数据涉及多个层面,包括...
这时可以考虑分批处理,或者使用Oracle的BULK COLLECT功能以提高效率。 4. **错误处理**: 在实际操作中,务必添加适当的错误处理代码,如捕获和处理OracleException、FileNotFoundException等。 5. **自动化和...
由于大量插入,建议使用Oracle的BULK COLLECT INTO语句,以提高性能。 6. **执行插入操作**:通过OracleCommand对象执行SQL,完成数据导入。 7. **关闭连接**:操作完成后,记得关闭数据库连接,释放资源。 8. **...
这通常涉及到使用UTL_FILE包读取文件,以及BULK COLLECT和INSERT语句将数据批量插入数据库。 3. **使用ETL工具**:如Oracle的Data Integrator(ODI)或其他第三方工具如Talend、Informatica等,这些工具提供图形化...
使用PL/SQL的BULK COLLECT和FORALL语句可以提高批量插入的效率。 8. **错误处理和验证**:导入过程中可能会遇到数据不一致或格式错误,需要设置适当的错误处理机制,如忽略错误、记录错误或暂停导入。导入后,通过...
例如,将多行数据组合成一个大的INSERT语句,或者使用Oracle的BULK COLLECT和FORALL语句进行批量操作。 7. **错误处理与事务控制**: 数据导入过程中可能会遇到各种错误,如数据格式不匹配、主键冲突等。"file2...