1、手动创建LogMiner文件夹,E:\ora_logminer\utl
2、以DBA用户登陆,配置LogMiner文件夹
conn /as sysdba; CREATE DIRECTORY utlfile AS 'E:\ora_logminer\utl'; alter system set utl_file_dir='E:\ora_logminer\utl' scope=spfile;
注意:由于utl_file_dir只存在于文件当中,所以scope是以文件方式"spfile"写入,而不是both。
开启日志文件追加模式,只有开启后才能看到DML操作记录,否则只能看见DML
alter database add supplemental log data;
修改后需要重新启动数据库
SHUTDOWN IMMEDIATE; STARTUP;
3、创建数据同步用户,如果已经有可以跳过,直接赋予权限
GRANT CONNECT,RESOURCE,DBA,EXECUTE_CATALOG_ROLE TO LOGMINER;
4、切换到你要同步数据用户,以DBA登陆,创建数据=字典文件
conn scott/tiger@orcl as sysdba; EXECUTE dbms_logmnr_d.build(dictionary_filename => 'dictionary.ora', dictionary_location =>'E:\ora_logminer\utl');
5、加入需要分析的日志文件
BEGIN dbms_logmnr.add_logfile(logfilename=>'D:\oracle\product\10.2.0\oradata\orcl\REDO02.LOG',options=>dbms_logmnr.NEW); dbms_logmnr.add_logfile(logfilename=>'D:\oracle\product\10.2.0\oradata\orcl\REDO01.LOG',options=>dbms_logmnr.ADDFILE); dbms_logmnr.add_logfile(logfilename=>'D:\oracle\product\10.2.0\oradata\orcl\REDO03.LOG',options=>dbms_logmnr.ADDFILE); END; /
可以通过
SELECT group#, sequence#, status, first_change#, first_time FROM V$log ORDER BY first_change#;
查看正在使用的日志文件,status为CURRENT的为当前正在使用的日志文件
6、开始使用LogMiner分析
EXECUTE dbms_logmnr.start_logmnr(dictfilename=>'E:\ora_logminer\utl\dictionary.ora');
7、观察分析结果
SELECT sql_redo, sql_undo, seg_owner FROM v$logmnr_contents WHERE seg_name='EMP' AND seg_owner='SCOTT';
需要强调一点的是,视图v$logmnr_contents中的分析结果仅在我们运行过程'dbms_logmrn.start_logmnr'这个会话的生命期中存在,如果要查看新的日志,需要再重新加入分析日志文件、使用LogMiner分析。
常见问题:
1、如果出现“必须声明标识符 'SYS.DBMS_LOGMNR'”异常,需要赋予EXECUTE_CATALOG_ROLE权限
2、当在查询v$logmnr_logs时提示“表或视图不存在”,是因为没有查询v$logmnr_logs的权限。至少怎样单独把v$logmnr_logs赋予用户我不知道,知道的朋友说下。
相关推荐
在本文中,我们将深入探讨如何利用LogMiner实现数据同步迁移,这是一个经济有效的替代昂贵的数据同步软件,如GoldenGate。 首先,LogMiner的实现过程包括几个关键步骤: 1. **创建目录**:为了存储LogMiner所需的...
- 实现源数据库与目标数据库之间的数据同步。 #### 存储虚拟化的方法 存储虚拟化技术允许在源端和目的端之间通过网络(包括 SAN 网络和 IP 网络)进行数据迁移。EMC 的 Invista、IBM 的 SVC 和 LSI StoreAge SVM ...
Oracle Change Data Capture (CDC) 是 Oracle 数据库提供的一项高级特性,用于捕捉数据库中的更改数据,以便在异步环境中实现高效的数据同步。Oracle CDC 特别适用于大数据集成、实时数据分析和企业级应用程序之间的...
总的来说,PowerExchange 提供了一种灵活且高效的数据集成解决方案,能够应对各种数据迁移和实时更新需求,尤其是在Oracle环境下,通过LogMiner实现对数据库变更的精准捕获,确保数据的实时同步。结合其他数据处理...
5. **GoldenGate**:Oracle GoldenGate是一种实时数据复制工具,它允许异构环境下的低延迟数据同步。GoldenGate通过捕获和应用变更数据,实现实时数据迁移和数据集成。 6. **闪回技术**:Oracle的闪回技术包括闪回...
Informatica PowerExchange 是一款功能强大且灵活的数据集成工具,主要用于数据集成、数据迁移、数据同步等领域。本文档是 Informatica PowerExchange 的中文翻译版,包含了 50 个问题的解答,涵盖了增量抽取机制、...
数据同步【数据同步需要存在主键或者唯一键】 FULL模式【全量数据导入导入】数据同步转换导入要求表中存在主键或唯一键,否则因异常错误退出或手工中断退出,断点续传【替换为】无法替换,数据可能会导致重复【除非...
它支持多种数据库平台之间的数据同步,其中Oracle到Oracle的数据迁移是其最常见的应用场景之一。本篇将深入探讨Oracle GoldenGate Fundamentals for Oracle to Oracle版本10.4中的关键技术点,帮助读者更好地理解和...
这一技术旨在提供灵活、可靠的数据共享方案,适用于各种企业环境中的数据同步需求,包括灾难恢复、数据仓库更新、跨平台迁移等多个场景。 Stream Replication的主要组件包括捕获(Capture)、传播(Propagate)和应用...
4. **数据迁移**: 在数据迁移过程中,LogMiner可以用来捕捉源数据库的变化,以便于同步到目标数据库。 #### 七、注意事项 在使用LogMiner的过程中需要注意以下几点: - **词典文件的创建**: 确保词典文件创建成功...
Consistent Set方式提供了更高级别的数据一致性保障,确保在数据同步过程中不会丢失任何变更记录。 **3.5 O2OCDC(ConsistentSetUsingLogMiner)** 使用Oracle LogMiner组件来实现Consistent Set方式的CDC,这种...
2. **数据仓库装载**:通过日志挖掘,将所需数据同步到数据仓库,解决数据同步问题。 3. **多种复制场景**:适应各种复制需求,如业务扩展、数据迁移等。 **流复制原理** 流复制涉及三个主要阶段:捕获、传播和应用...
- **代理**:ODI代理是运行在目标机器上的进程,负责执行数据加载、数据同步等任务。 2. **模型和知识模块导入**: - **模型沿用**:通常在开始CDC操作前,已经创建了源和目标的模型,这里可以通过导入教程中创建...
Oracle GoldenGate 是一款强大的数据复制解决方案,主要用于实现企业级数据库之间的实时或近实时的数据同步。在Oracle数据库环境中,它提供了一种低延迟、高可用性的数据集成方式,使得数据能够跨多个系统、地理位置...
Oracle GoldenGate 提供了实时的数据复制功能,适用于高可用性、升级迁移、报表系统和ETL(抽取、转换、加载)场景。它跟踪数据库的改变并将其实时传输到目标系统,即使在主系统不可用时也能确保数据的一致性。 ...
检查点(checkpoint)参数,如LOG_CHECKPOINT_INTERVAL和LOG_CHECKPOINT_TIMEOUT,用于控制何时创建检查点,以同步数据文件和重做日志,确保在故障恢复时可以从最近的检查点开始恢复。手工触发检查点(ALTER SYSTEM ...
强制数据库立即执行检查点,同步所有数据缓冲区到数据文件,以便于更快的数据库恢复。 3. **添加在线重做日志组**: `alter database add logfile [group 4] ('/disk3/log4a.rdo','/disk4/log4b.rdo') size 1m;` ...
这通常在数据库初始化或同步时发生,使用`sqlalchemy`或其他ETL工具可能有助于实现这一目标。 6. **事务处理(Transaction Framework)**: `transaction_framework.py`涉及数据库事务处理,确保数据一致性。...