`

Delete a Node from Oracle RAC 11gR2(11.2.0.3) on Oracle Linux 6

 
阅读更多

This guide shows how to remove a node from an existing 11gR2 Oracle RAC cluster. It is assumed that the node in question is available and is not part of a GNS/Grid Plug and Play cluster. In other words, the database is considered to be "Administrator-Managed". Also, the database software is non-shared. This guide uses a 3-node cluster running Oracle Linux 6.3 (x64). The three nodes are "node1", "node2", and "node3",we will be removing "node3" from the cluster.

 

Delete Node from Cluster
"Unpin" node
"Unpin" the node – in our case "node3" – from all nodes that are to remain in the cluster; in this case,
 "node1" and "node2". Specify the node you plan on deleting in the command and do so on each remaining node in the cluster.

 

  1. [root@node1 ~]# /u01/app/11.2.0/grid/bin/crsctl unpin css -n node3  
  2. CRS-4667: Node node3 successfully unpinned.  
  1. [root@node2 ~]# /u01/app/11.2.0/grid/bin/crsctl unpin css -n node3  
  2. CRS-4667: Node node3 successfully unpinned.  

Remove RAC Database Instance(s)
The node we are removing houses an instance – "zhongwc3" – which is part of a RAC database – "zhongwc".

Remove the "zhongwc3" instance from the "zhongwc" database using "dbca" in "Silent Mode"

 

  1. [oracle@node1 ~]$ dbca -silent -deleteInstance -nodeList node3 -gdbName zhongwc -instanceName zhongwc3 -sysDBAUserName sys -sysDBAPassword oracle  
  2. Deleting instance  
  3. 1% complete  
  4. 2% complete  
  5. 6% complete  
  6. 13% complete  
  7. 20% complete  
  8. 26% complete  
  9. 33% complete  
  10. 40% complete  
  11. 46% complete  
  12. 53% complete  
  13. 60% complete  
  14. 66% complete  
  15. Completing instance management.  
  16. 100% complete  
  17. Look at the log file "/u01/app/oracle/cfgtoollogs/dbca/zhongwc.log" for further details.  


In this case, we ran the command as "oracle" on "zhongwc1". Afterwards, the database should only show 2 threads and the configuration of the database should show "zhongwc1" and "zhongwc2" as its only instances.

 

  1. [oracle@node1 ~]$ sqlplus / as sysdba  
  2.   
  3. SQL*Plus: Release 11.2.0.3.0 Production on Sat Jan 5 15:20:12 2013  
  4.   
  5. Copyright (c) 1982, 2011, Oracle.  All rights reserved.  
  6.   
  7.   
  8. Connected to:  
  9. Oracle Database 11g Enterprise Edition Release 11.2.0.3.0 - 64bit Production  
  10. With the Partitioning, Real Application Clusters, Automatic Storage Management, OLAP,  
  11. Data Mining and Real Application Testing options  
  12.   
  13. SQL> alter session set nls_date_format='yyyy-mm-dd hh24:mi:ss';    
  14.   
  15. Session altered.  
  16.   
  17. SQL>  col host_name format a11  
  18. SQL>  set line 300  
  19. SQL> select INSTANCE_NAME,HOST_NAME,VERSION,STARTUP_TIME,STATUS,ACTIVE_STATE,INSTANCE_ROLE,DATABASE_STATUS from gv$INSTANCE;  
  20.   
  21. INSTANCE_NAME    HOST_NAME   VERSION           STARTUP_TIME    STATUS   ACTIVE_ST INSTANCE_ROLE      DATABASE_STATUS  
  22. ---------------- ----------- ----------------- ------------------- ------------ --------- ------------------ -----------------  
  23. zhongwc1     node1       11.2.0.3.0        2013-01-05 09:53:24 OPEN     NORMAL    PRIMARY_INSTANCE   ACTIVE  
  24. zhongwc2     node2       11.2.0.3.0        2013-01-04 17:34:40 OPEN     NORMAL    PRIMARY_INSTANCE   ACTIVE  
  1. [oracle@node1 ~]$ srvctl config database -d zhongwc -v  
  2. Database unique name: zhongwc  
  3. Database name: zhongwc  
  4. Oracle home: /u01/app/oracle/product/11.2.0/dbhome_1  
  5. Oracle user: oracle  
  6. Spfile: +DATADG/zhongwc/spfilezhongwc.ora  
  7. Domain:   
  8. Start options: open  
  9. Stop options: immediate  
  10. Database role: PRIMARY  
  11. Management policy: AUTOMATIC  
  12. Server pools: zhongwc  
  13. Database instances: zhongwc1,zhongwc2  
  14. Disk Groups: DATADG,FRADG  
  15. Mount point paths:   
  16. Services:   
  17. Type: RAC  
  18. Database is administrator managed  

Remove RAC Database Software
In this step, the Oracle RAC database software will be removed from the node that will be deleted. Additionally, the inventories of the remaining nodes will be updated to reflect the removal of the node’s Oracle RAC database software home, etc.
Any listener running on "node3" will need to be stopped.

  1. [oracle@node3 ~]$ srvctl disable listener -n node3  
  2. [oracle@node3 ~]$ srvctl stop listener -n node3  

Update inventory on "node3"

 

  1. [oracle@node3 bin]$ ./runInstaller -updateNodeList ORACLE_HOME=$ORACLE_HOME "CLUSTER_NODES={node3}" -local  
  2. Starting Oracle Universal Installer...  
  3.   
  4. Checking swap space: must be greater than 500 MB.   Actual 3930 MB    Passed  
  5. The inventory pointer is located at /etc/oraInst.loc  
  6. The inventory is located at /u01/app/oraInventory  
  7. 'UpdateNodeList' was successful.  

Remove the RAC Database Software from "node3"

 

  1. [oracle@node3 ~]$ cd $ORACLE_HOME/deinstall  
  2. [oracle@node3 deinstall]$ ./deinstall -local  
  3. Checking for required files and bootstrapping ...  
  4. Please wait ...  
  5. Location of logs /u01/app/oraInventory/logs/  
  6.   
  7. ############ ORACLE DEINSTALL & DECONFIG TOOL START ############  
  8.   
  9.   
  10. ######################### CHECK OPERATION START #########################  
  11. ## [START] Install check configuration ##  
  12.   
  13.   
  14. Checking for existence of the Oracle home location /u01/app/oracle/product/11.2.0/dbhome_1  
  15. Oracle Home type selected for deinstall is: Oracle Real Application Cluster Database  
  16. Oracle Base selected for deinstall is: /u01/app/oracle  
  17. Checking for existence of central inventory location /u01/app/oraInventory  
  18. Checking for existence of the Oracle Grid Infrastructure home /u01/app/11.2.0/grid  
  19. The following nodes are part of this cluster: node3  
  20. Checking for sufficient temp space availability on node(s) : 'node3'  
  21.   
  22. ## [END] Install check configuration ##  
  23.   
  24.   
  25. Network Configuration check config START  
  26.   
  27. Network de-configuration trace file location: /u01/app/oraInventory/logs/netdc_check2013-01-05_03-34-48-PM.log  
  28.   
  29. Network Configuration check config END  
  30.   
  31. Database Check Configuration START  
  32.   
  33. Database de-configuration trace file location: /u01/app/oraInventory/logs/databasedc_check2013-01-05_03-34-56-PM.log  
  34.   
  35. Database Check Configuration END  
  36.   
  37. Enterprise Manager Configuration Assistant START  
  38.   
  39. EMCA de-configuration trace file location: /u01/app/oraInventory/logs/emcadc_check2013-01-05_03-35-03-PM.log   
  40.   
  41. Enterprise Manager Configuration Assistant END  
  42. Oracle Configuration Manager check START  
  43. OCM check log file location : /u01/app/oraInventory/logs//ocm_check3913.log  
  44. Oracle Configuration Manager check END  
  45.   
  46. ######################### CHECK OPERATION END #########################  
  47.   
  48.   
  49. ####################### CHECK OPERATION SUMMARY #######################  
  50. Oracle Grid Infrastructure Home is: /u01/app/11.2.0/grid  
  51. The cluster node(s) on which the Oracle home deinstallation will be performed are:node3  
  52. Since -local option has been specified, the Oracle home will be deinstalled only on the local node, 'node3', and the global configuration will be removed.  
  53. Oracle Home selected for deinstall is: /u01/app/oracle/product/11.2.0/dbhome_1  
  54. Inventory Location where the Oracle home registered is: /u01/app/oraInventory  
  55. The option -local will not modify any database configuration for this Oracle home.  
  56.   
  57. No Enterprise Manager configuration to be updated for any database(s)  
  58. No Enterprise Manager ASM targets to update  
  59. No Enterprise Manager listener targets to migrate  
  60. Checking the config status for CCR  
  61. Oracle Home exists with CCR directory, but CCR is not configured  
  62. CCR check is finished  
  63. Do you want to continue (y - yes, n - no)? [n]: y  
  64. A log of this session will be written to: '/u01/app/oraInventory/logs/deinstall_deconfig2013-01-05_03-34-20-PM.out'  
  65. Any error messages from this session will be written to: '/u01/app/oraInventory/logs/deinstall_deconfig2013-01-05_03-34-20-PM.err'  
  66.   
  67. ######################## CLEAN OPERATION START ########################  
  68.   
  69. Enterprise Manager Configuration Assistant START  
  70.   
  71. EMCA de-configuration trace file location: /u01/app/oraInventory/logs/emcadc_clean2013-01-05_03-35-03-PM.log   
  72.   
  73. Updating Enterprise Manager ASM targets (if any)  
  74. Updating Enterprise Manager listener targets (if any)  
  75. Enterprise Manager Configuration Assistant END  
  76. Database de-configuration trace file location: /u01/app/oraInventory/logs/databasedc_clean2013-01-05_03-35-33-PM.log  
  77.   
  78. Network Configuration clean config START  
  79.   
  80. Network de-configuration trace file location: /u01/app/oraInventory/logs/netdc_clean2013-01-05_03-35-33-PM.log  
  81.   
  82. De-configuring Local Net Service Names configuration file...  
  83. Local Net Service Names configuration file de-configured successfully.  
  84.   
  85. De-configuring backup files...  
  86. Backup files de-configured successfully.  
  87.   
  88. The network configuration has been cleaned up successfully.  
  89.   
  90. Network Configuration clean config END  
  91.   
  92. Oracle Configuration Manager clean START  
  93. OCM clean log file location : /u01/app/oraInventory/logs//ocm_clean3913.log  
  94. Oracle Configuration Manager clean END  
  95. Setting the force flag to false  
  96. Setting the force flag to cleanup the Oracle Base  
  97. Oracle Universal Installer clean START  
  98.   
  99. Detach Oracle home '/u01/app/oracle/product/11.2.0/dbhome_1' from the central inventory on the local node : Done  
  100.   
  101. Delete directory '/u01/app/oracle/product/11.2.0/dbhome_1' on the local node : Done  
  102.   
  103. The Oracle Base directory '/u01/app/oracle' will not be removed on local node. The directory is not empty.  
  104.   
  105. Oracle Universal Installer cleanup was successful.  
  106.   
  107. Oracle Universal Installer clean END  
  108.   
  109.   
  110. ## [START] Oracle install clean ##  
  111.   
  112. Clean install operation removing temporary directory '/tmp/deinstall2013-01-05_03-32-07PM' on node 'node3'  
  113.   
  114. ## [END] Oracle install clean ##  
  115.   
  116.   
  117. ######################### CLEAN OPERATION END #########################  
  118.   
  119.   
  120. ####################### CLEAN OPERATION SUMMARY #######################  
  121. Cleaning the config for CCR  
  122. As CCR is not configured, so skipping the cleaning of CCR configuration  
  123. CCR clean is finished  
  124. Successfully detached Oracle home '/u01/app/oracle/product/11.2.0/dbhome_1' from the central inventory on the local node.  
  125. Successfully deleted directory '/u01/app/oracle/product/11.2.0/dbhome_1' on the local node.  
  126. Oracle Universal Installer cleanup was successful.  
  127.   
  128. Oracle deinstall tool successfully cleaned up temporary directories.  
  129. #######################################################################  
  130.   
  131.   
  132. ############# ORACLE DEINSTALL & DECONFIG TOOL END #############  


Make sure to specify the "-local" flag as not to remove more than just the local node’s software, etc.
Update inventories/node list on the remaining nodes.

 

  1. [oracle@node1 ~]$ cd $ORACLE_HOME/oui/bin  
  2. [oracle@node1 bin]$ ./runInstaller -updateNodeList ORACLE_HOME=$ORACLE_HOME "CLUSTER_NODES={node1,node2}"  
  3. Starting Oracle Universal Installer...  
  4.   
  5. Checking swap space: must be greater than 500 MB.   Actual 3598 MB    Passed  
  6. The inventory pointer is located at /etc/oraInst.loc  
  7. The inventory is located at /u01/app/oraInventory  
  8. 'UpdateNodeList' was successful.  

 

Remove Clusterware
Disable the Clusterware on "node3" as root

 

  1. [root@node3 ~]# /u01/app/11.2.0/grid/crs/install/rootcrs.pl -deconfig -force  
  2. Using configuration parameter file: /u01/app/11.2.0/grid/crs/install/crsconfig_params  
  3. Network exists: 1/192.168.0.0/255.255.0.0/eth0, type static  
  4. VIP exists: /node1-vip/192.168.1.151/192.168.0.0/255.255.0.0/eth0, hosting node node1  
  5. VIP exists: /node2-vip/192.168.1.152/192.168.0.0/255.255.0.0/eth0, hosting node node2  
  6. VIP exists: /node3-vip/192.168.1.153/192.168.0.0/255.255.0.0/eth0, hosting node node3  
  7. GSD exists  
  8. ONS exists: Local port 6100, remote port 6200, EM port 2016  
  9. CRS-2791: Starting shutdown of Oracle High Availability Services-managed resources on 'node3'  
  10. CRS-2673: Attempting to stop 'ora.crsd' on 'node3'  
  11. CRS-2790: Starting shutdown of Cluster Ready Services-managed resources on 'node3'  
  12. CRS-2673: Attempting to stop 'ora.oc4j' on 'node3'  
  13. CRS-2673: Attempting to stop 'ora.CRS.dg' on 'node3'  
  14. CRS-2673: Attempting to stop 'ora.DATADG.dg' on 'node3'  
  15. CRS-2673: Attempting to stop 'ora.FRADG.dg' on 'node3'  
  16. CRS-2677: Stop of 'ora.DATADG.dg' on 'node3' succeeded  
  17. CRS-2677: Stop of 'ora.FRADG.dg' on 'node3' succeeded  
  18. CRS-2677: Stop of 'ora.oc4j' on 'node3' succeeded  
  19. CRS-2672: Attempting to start 'ora.oc4j' on 'node1'  
  20. CRS-2676: Start of 'ora.oc4j' on 'node1' succeeded  
  21. CRS-2677: Stop of 'ora.CRS.dg' on 'node3' succeeded  
  22. CRS-2673: Attempting to stop 'ora.asm' on 'node3'  
  23. CRS-2677: Stop of 'ora.asm' on 'node3' succeeded  
  24. CRS-2792: Shutdown of Cluster Ready Services-managed resources on 'node3' has completed  
  25. CRS-2677: Stop of 'ora.crsd' on 'node3' succeeded  
  26. CRS-2673: Attempting to stop 'ora.ctssd' on 'node3'  
  27. CRS-2673: Attempting to stop 'ora.evmd' on 'node3'  
  28. CRS-2673: Attempting to stop 'ora.asm' on 'node3'  
  29. CRS-2673: Attempting to stop 'ora.mdnsd' on 'node3'  
  30. CRS-2677: Stop of 'ora.evmd' on 'node3' succeeded  
  31. CRS-2677: Stop of 'ora.mdnsd' on 'node3' succeeded  
  32. CRS-2677: Stop of 'ora.ctssd' on 'node3' succeeded  
  33. CRS-2677: Stop of 'ora.asm' on 'node3' succeeded  
  34. CRS-2673: Attempting to stop 'ora.cluster_interconnect.haip' on 'node3'  
  35. CRS-2677: Stop of 'ora.cluster_interconnect.haip' on 'node3' succeeded  
  36. CRS-2673: Attempting to stop 'ora.cssd' on 'node3'  
  37. CRS-2677: Stop of 'ora.cssd' on 'node3' succeeded  
  38. CRS-2673: Attempting to stop 'ora.crf' on 'node3'  
  39. CRS-2677: Stop of 'ora.crf' on 'node3' succeeded  
  40. CRS-2673: Attempting to stop 'ora.gipcd' on 'node3'  
  41. CRS-2677: Stop of 'ora.gipcd' on 'node3' succeeded  
  42. CRS-2673: Attempting to stop 'ora.gpnpd' on 'node3'  
  43. CRS-2677: Stop of 'ora.gpnpd' on 'node3' succeeded  
  44. CRS-2793: Shutdown of Oracle High Availability Services-managed resources on 'node3' has completed  
  45. CRS-4133: Oracle High Availability Services has been stopped.  
  46. Successfully deconfigured Oracle clusterware stack on this node  

Delete "node3" node from Clusterware configuration (on a remaining node)

 

  1. [root@node1 ~]# /u01/app/11.2.0/grid/bin/crsctl delete node -n node3  
  2. CRS-4661: Node node3 successfully deleted.  
  3. [root@node1 ~]# /u01/app/11.2.0/grid/bin/olsnodes -t -s  
  4. node1   Active  Unpinned  
  5. node2   Active  Unpinned  


Update inventory on "node3" as the "GRID" software owner.

  1. [grid@node3 ~]$ cd $ORACLE_HOME/oui/bin  
  2. [grid@node3 bin]$ ./runInstaller -updateNodeList ORACLE_HOME=$ORACLE_HOME "CLUSTER_NODES={node3}" CRS=TRUE -local  
  3. Starting Oracle Universal Installer...  
  4.   
  5. Checking swap space: must be greater than 500 MB.   Actual 4075 MB    Passed  
  6. The inventory pointer is located at /etc/oraInst.loc  
  7. The inventory is located at /u01/app/oraInventory  
  8. 'UpdateNodeList' was successful.  

Remove the Clusterware Software from "node3"

 

  1. [grid@node3 ~]$ cd $ORACLE_HOME/oui/bin  
  2. [grid@node3 bin]$ ./runInstaller -updateNodeList ORACLE_HOME=$ORACLE_HOME "CLUSTER_NODES={node3}" CRS=TRUE -local  
  3. Starting Oracle Universal Installer...  
  4.   
  5. Checking swap space: must be greater than 500 MB.   Actual 4075 MB    Passed  
  6. The inventory pointer is located at /etc/oraInst.loc  
  7. The inventory is located at /u01/app/oraInventory  
  8. 'UpdateNodeList' was successful.  
  9. [grid@node3 bin]$ cd $ORACLE_HOME/deinstall  
  10. [grid@node3 deinstall]$ ./deinstall -local  
  11. Checking for required files and bootstrapping ...  
  12. Please wait ...  
  13. Location of logs /tmp/deinstall2013-01-05_03-58-04PM/logs/  
  14.   
  15. ############ ORACLE DEINSTALL & DECONFIG TOOL START ############  
  16.   
  17.   
  18. ######################### CHECK OPERATION START #########################  
  19. ## [START] Install check configuration ##  
  20.   
  21.   
  22. Checking for existence of the Oracle home location /u01/app/11.2.0/grid  
  23. Oracle Home type selected for deinstall is: Oracle Grid Infrastructure for a Cluster  
  24. Oracle Base selected for deinstall is: /u01/app/grid  
  25. Checking for existence of central inventory location /u01/app/oraInventory  
  26. Checking for existence of the Oracle Grid Infrastructure home   
  27. The following nodes are part of this cluster: node3  
  28. Checking for sufficient temp space availability on node(s) : 'node3'  
  29.   
  30. ## [END] Install check configuration ##  
  31.   
  32. Traces log file: /tmp/deinstall2013-01-05_03-58-04PM/logs//crsdc.log  
  33. Enter an address or the name of the virtual IP used on node "node3"[node3-vip]  
  34.  >   
  35.   
  36. The following information can be collected by running "/sbin/ifconfig -a" on node "node3"  
  37. Enter the IP netmask of Virtual IP "192.168.1.153" on node "node3"[255.255.255.0]  
  38.  >   
  39.   
  40. Enter the network interface name on which the virtual IP address "192.168.1.153" is active  
  41.  >   
  42.   
  43. Enter an address or the name of the virtual IP[]  
  44.  >   
  45.   
  46.   
  47. Network Configuration check config START  
  48.   
  49. Network de-configuration trace file location: /tmp/deinstall2013-01-05_03-58-04PM/logs/netdc_check2013-01-05_04-02-44-PM.log  
  50.   
  51. Specify all RAC listeners (do not include SCAN listener) that are to be de-configured [LISTENER]:  
  52.   
  53. Network Configuration check config END  
  54.   
  55. Asm Check Configuration START  
  56.   
  57. ASM de-configuration trace file location: /tmp/deinstall2013-01-05_03-58-04PM/logs/asmcadc_check2013-01-05_04-02-56-PM.log  
  58.   
  59.   
  60. ######################### CHECK OPERATION END #########################  
  61.   
  62.   
  63. ####################### CHECK OPERATION SUMMARY #######################  
  64. Oracle Grid Infrastructure Home is:   
  65. The cluster node(s) on which the Oracle home deinstallation will be performed are:node3  
  66. Since -local option has been specified, the Oracle home will be deinstalled only on the local node, 'node3', and the global configuration will be removed.  
  67. Oracle Home selected for deinstall is: /u01/app/11.2.0/grid  
  68. Inventory Location where the Oracle home registered is: /u01/app/oraInventory  
  69. Following RAC listener(s) will be de-configured: LISTENER  
  70. Option -local will not modify any ASM configuration.  
  71. Do you want to continue (y - yes, n - no)? [n]: y  
  72. A log of this session will be written to: '/tmp/deinstall2013-01-05_03-58-04PM/logs/deinstall_deconfig2013-01-05_03-58-44-PM.out'  
  73. Any error messages from this session will be written to: '/tmp/deinstall2013-01-05_03-58-04PM/logs/deinstall_deconfig2013-01-05_03-58-44-PM.err'  
  74.   
  75. ######################## CLEAN OPERATION START ########################  
  76. ASM de-configuration trace file location: /tmp/deinstall2013-01-05_03-58-04PM/logs/asmcadc_clean2013-01-05_04-03-08-PM.log  
  77. ASM Clean Configuration END  
  78.   
  79. Network Configuration clean config START  
  80.   
  81. Network de-configuration trace file location: /tmp/deinstall2013-01-05_03-58-04PM/logs/netdc_clean2013-01-05_04-03-08-PM.log  
  82.   
  83. De-configuring RAC listener(s): LISTENER  
  84.   
  85. De-configuring listener: LISTENER  
  86.     Stopping listener on node "node3": LISTENER  
  87.     Warning: Failed to stop listener. Listener may not be running.  
  88. Listener de-configured successfully.  
  89.   
  90. De-configuring Naming Methods configuration file...  
  91. Naming Methods configuration file de-configured successfully.  
  92.   
  93. De-configuring backup files...  
  94. Backup files de-configured successfully.  
  95.   
  96. The network configuration has been cleaned up successfully.  
  97.   
  98. Network Configuration clean config END  
  99.   
  100.   
  101. ---------------------------------------->  
  102.   
  103. The deconfig command below can be executed in parallel on all the remote nodes. Execute the command on  the local node after the execution completes on all the remote nodes.  
  104.   
  105. Run the following command as the root user or the administrator on node "node3".  
  106.   
  107. /tmp/deinstall2013-01-05_03-58-04PM/perl/bin/perl -I/tmp/deinstall2013-01-05_03-58-04PM/perl/lib -I/tmp/deinstall2013-01-05_03-58-04PM/crs/install /tmp/deinstall2013-01-05_03-58-04PM/crs/install/rootcrs.pl -force  -deconfig -paramfile "/tmp/deinstall2013-01-05_03-58-04PM/response/deinstall_Ora11g_gridinfrahome1.rsp"  
  108.   
  109. Press Enter after you finish running the above commands  
  110.   
  111. <----------------------------------------  

Make sure to specify the "-local" flag as not to remove more than just the local node’s software, etc.
The script will provide commands to be run as "root", in another window.

Don't rush to press "Enter".

Run the following command as the root user or the administrator on node "node3".
/tmp/deinstall2013-01-05_03-58-04PM/perl/bin/perl -I/tmp/deinstall2013-01-05_03-58-04PM/perl/lib -I/tmp/deinstall2013-01-05_03-58-04PM/crs/install /tmp/deinstall2013-01-05_03-58-04PM/crs/install/rootcrs.pl -force  -deconfig -paramfile "/tmp/deinstall2013-01-05_03-58-04PM/response/deinstall_Ora11g_gridinfrahome1.rsp"

 

  1. [root@node3 ~]# /tmp/deinstall2013-01-05_03-58-04PM/perl/bin/perl -I/tmp/deinstall2013-01-05_03-58-04PM/perl/lib -I/tmp/deinstall2013-01-05_03-58-04PM/crs/install /tmp/deinstall2013-01-05_03-58-04PM/crs/install/rootcrs.pl -force -deconfig -paramfile "/tmp/deinstall2013-01-05_03-58-04PM/response/deinstall_Ora11g_gridinfrahome1.rsp"   
  2. Using configuration parameter file: /tmp/deinstall2013-01-05_03-58-04PM/response/deinstall_Ora11g_gridinfrahome1.rsp  
  3. ****Unable to retrieve Oracle Clusterware home.  
  4. Start Oracle Clusterware stack and try again.  
  5. CRS-4047: No Oracle Clusterware components configured.  
  6. CRS-4000: Command Stop failed, or completed with errors.  
  7. ################################################################  
  8. # You must kill processes or reboot the system to properly     #  
  9. # cleanup the processes started by Oracle clusterware          #  
  10. ################################################################  
  11. Either /etc/oracle/olr.loc does not exist or is not readable  
  12. Make sure the file exists and it has read and execute access  
  13. Either /etc/oracle/olr.loc does not exist or is not readable  
  14. Make sure the file exists and it has read and execute access  
  15. Failure in execution (rc=-1, 256, No such file or directory) for command /etc/init.d/ohasd deinstall  
  16. error: package cvuqdisk is not installed  
  17. Successfully deconfigured Oracle clusterware stack on this node  
  1. [root@node3 ~]# rm -rf /etc/oraInst.loc   
  2. [root@node3 ~]# rm -rf /opt/ORCLfmap  


Press "Enter" to continue.

 

  1. Run the following command as the root user or the administrator on node "node3".  
  2.   
  3. /tmp/deinstall2013-01-05_03-58-04PM/perl/bin/perl -I/tmp/deinstall2013-01-05_03-58-04PM/perl/lib -I/tmp/deinstall2013-01-05_03-58-04PM/crs/install /tmp/deinstall2013-01-05_03-58-04PM/crs/install/rootcrs.pl -force  -deconfig -paramfile "/tmp/deinstall2013-01-05_03-58-04PM/response/deinstall_Ora11g_gridinfrahome1.rsp"  
  4.   
  5. Press Enter after you finish running the above commands  
  6.   
  7. <----------------------------------------  
  8.   
  9. Remove the directory: /tmp/deinstall2013-01-05_03-58-04PM on node:   
  10. Setting the force flag to false  
  11. Setting the force flag to cleanup the Oracle Base  
  12. Oracle Universal Installer clean START  
  13.   
  14. Detach Oracle home '/u01/app/11.2.0/grid' from the central inventory on the local node : Done  
  15.   
  16. Delete directory '/u01/app/11.2.0/grid' on the local node : Done  
  17.   
  18. Delete directory '/u01/app/oraInventory' on the local node : Done  
  19.   
  20. Delete directory '/u01/app/grid' on the local node : Done  
  21.   
  22. Oracle Universal Installer cleanup was successful.  
  23.   
  24. Oracle Universal Installer clean END  
  25.   
  26.   
  27. ## [START] Oracle install clean ##  
  28.   
  29. Clean install operation removing temporary directory '/tmp/deinstall2013-01-05_03-58-04PM' on node 'node3'  
  30.   
  31. ## [END] Oracle install clean ##  
  32.   
  33.   
  34. ######################### CLEAN OPERATION END #########################  
  35.   
  36.   
  37. ####################### CLEAN OPERATION SUMMARY #######################  
  38. Following RAC listener(s) were de-configured successfully: LISTENER  
  39. Oracle Clusterware is stopped and successfully de-configured on node "node3"  
  40. Oracle Clusterware is stopped and de-configured successfully.  
  41. Successfully detached Oracle home '/u01/app/11.2.0/grid' from the central inventory on the local node.  
  42. Successfully deleted directory '/u01/app/11.2.0/grid' on the local node.  
  43. Successfully deleted directory '/u01/app/oraInventory' on the local node.  
  44. Successfully deleted directory '/u01/app/grid' on the local node.  
  45. Oracle Universal Installer cleanup was successful.  
  46.   
  47.   
  48. Run 'rm -rf /etc/oraInst.loc' as root on node(s) 'node3' at the end of the session.  
  49.   
  50. Run 'rm -rf /opt/ORCLfmap' as root on node(s) 'node3' at the end of the session.  
  51. Oracle deinstall tool successfully cleaned up temporary directories.  
  52. #######################################################################  
  53.   
  54.   
  55. ############# ORACLE DEINSTALL & DECONFIG TOOL END #############  


Update inventories/node list on the remaining nodes.

 

  1. [grid@node1 ~]$ cd $ORACLE_HOME/oui/bin  
  2. [grid@node1 bin]$ ./runInstaller -updateNodeList ORACLE_HOME=$ORACLE_HOME "CLUSTER_NODES={node1,node2}" CRS=TRUE  
  3. Starting Oracle Universal Installer...  
  4.   
  5. Checking swap space: must be greater than 500 MB.   Actual 3493 MB    Passed  
  6. The inventory pointer is located at /etc/oraInst.loc  
  7. The inventory is located at /u01/app/oraInventory  
  8. 'UpdateNodeList' was successful.  


Confirm that the node in question – zhongwc3 – has been properly removed via.

 

  1. [grid@node1 ~]$ cluvfy stage -post nodedel -n node3  
  2.   
  3. Performing post-checks for node removal   
  4.   
  5. Checking CRS integrity...  
  6.   
  7. Clusterware version consistency passed  
  8.   
  9. CRS integrity check passed  
  10.   
  11. Node removal check passed  
  12.   
  13. Post-check for node removal was successful.   
  1. [grid@node1 ~]$ crsctl stat res -t  
  2. --------------------------------------------------------------------------------  
  3. NAME           TARGET  STATE        SERVER                   STATE_DETAILS         
  4. --------------------------------------------------------------------------------  
  5. Local Resources  
  6. --------------------------------------------------------------------------------  
  7. ora.CRS.dg  
  8.                ONLINE  ONLINE       node1                                          
  9.                ONLINE  ONLINE       node2                                          
  10. ora.DATADG.dg  
  11.                ONLINE  ONLINE       node1                                          
  12.                ONLINE  ONLINE       node2                                          
  13. ora.FRADG.dg  
  14.                ONLINE  ONLINE       node1                                          
  15.                ONLINE  ONLINE       node2                                          
  16. ora.LISTENER.lsnr  
  17.                ONLINE  ONLINE       node1                                          
  18.                ONLINE  ONLINE       node2                                          
  19. ora.asm  
  20.                ONLINE  ONLINE       node1                    Started               
  21.                ONLINE  ONLINE       node2                    Started               
  22. ora.gsd  
  23.                OFFLINE OFFLINE      node1                                          
  24.                OFFLINE OFFLINE      node2                                          
  25. ora.net1.network  
  26.                ONLINE  ONLINE       node1                                          
  27.                ONLINE  ONLINE       node2                                          
  28. ora.ons  
  29.                ONLINE  ONLINE       node1                                          
  30.                ONLINE  ONLINE       node2                                          
  31. --------------------------------------------------------------------------------  
  32. Cluster Resources  
  33. --------------------------------------------------------------------------------  
  34. ora.LISTENER_SCAN1.lsnr  
  35.       1        ONLINE  ONLINE       node2                                          
  36. ora.cvu  
  37.       1        ONLINE  ONLINE       node1                                          
  38. ora.node1.vip  
  39.       1        ONLINE  ONLINE       node1                                          
  40. ora.node2.vip  
  41.       1        ONLINE  ONLINE       node2                                          
  42. ora.oc4j  
  43.       1        ONLINE  ONLINE       node1                                          
  44. ora.scan1.vip  
  45.       1        ONLINE  ONLINE       node2                                          
  46. ora.zhongwc.db  
  47.       1        ONLINE  ONLINE       node1                    Open                  
  48.       2        ONLINE  ONLINE       node2                    Open  
  1. [oracle@node1 ~]$ sqlplus / as sysdba  
  2.   
  3. SQL*Plus: Release 11.2.0.3.0 Production on Sat Jan 5 16:30:58 2013  
  4.   
  5. Copyright (c) 1982, 2011, Oracle.  All rights reserved.  
  6.   
  7.   
  8. Connected to:  
  9. Oracle Database 11g Enterprise Edition Release 11.2.0.3.0 - 64bit Production  
  10. With the Partitioning, Real Application Clusters, Automatic Storage Management, OLAP,  
  11. Data Mining and Real Application Testing options  
  12.   
  13. SQL> alter session set nls_date_format='yyyy-mm-dd hh24:mi:ss';  
  14.   
  15. Session altered.  
  16.   
  17. SQL> col host_name format a11  
  18. SQL> set line 300  
  19. SQL> select INSTANCE_NAME,HOST_NAME,VERSION,STARTUP_TIME,STATUS,ACTIVE_STATE,INSTANCE_ROLE,DATABASE_STATUS from gv$INSTANCE;  
  20.   
  21. INSTANCE_NAME    HOST_NAME   VERSION           STARTUP_TIME    STATUS   ACTIVE_ST INSTANCE_ROLE      DATABASE_STATUS  
  22. ---------------- ----------- ----------------- ------------------- ------------ --------- ------------------ -----------------  
  23. zhongwc1     node1       11.2.0.3.0        2013-01-05 09:53:24 OPEN     NORMAL    PRIMARY_INSTANCE   ACTIVE  
  24. zhongwc2     node2       11.2.0.3.0        2013-01-04 17:34:40 OPEN     NORMAL    PRIMARY_INSTANCE   ACTIVE  

参考至:http://blog.csdn.net/staricqxyz/article/details/8468774

如有错误,欢迎指正

邮箱:czmcj@163.com

分享到:
评论

相关推荐

    oracle11g 11.2.0.3 linux 32bit

    在Linux 32位操作系统上安装和运行Oracle 11g 11.2.0.3,需要对Linux系统和Oracle数据库有深入的理解。 首先,Oracle数据库系统的核心组件包括数据库服务器、SQL*Plus、企业管理器(EM)等。在Linux环境下,你需要...

    ORACLE11.2.0.3 下载地址种子

    Oracle 11g Release 2 (11.2.0.3) 是Oracle数据库的一个重要版本,它在功能、性能和稳定性方面都有显著提升。Oracle数据库是全球最受欢迎的关系型数据库管理系统之一,广泛应用于企业级应用、云计算服务以及大数据...

    Oracle Database 11g Release 2 (11.2.0.3) RAC On Oracle Linux 6

    Oracle Database 11g Release 2 (11.2.0.3) RAC On Oracle Linux 6.3 Using VirtualBox This article describes the installation of Oracle Database 11g release 2 (11.2.0.3 64-bit) RAC on Linux (Oracle Linux ...

    ORACLE11gR2_11.2.0.3_RAC部署方案good非常好

    ORACLE11gR2_11.2.0.3_RAC部署方案good非常好

    Oracle 11G 11.2.0.3 Client for windows 64位

    Oracle 11g 11.2.0.3 Client是Oracle公司针对Windows 64位操作系统提供的数据库连接客户端软件。这个版本的客户端是Oracle数据库系统的重要组成部分,它允许开发者和管理员在本地计算机上与远程Oracle数据库服务器...

    Oracle 11.2.0.3 使用 ADG 搭建Data Guard 案例

    Oracle 11.2.0.3 数据保护技术在企业级数据库管理中扮演着至关重要的角色,其中Active Data Guard(ADG)是Oracle提供的一种高级数据保护解决方案,用于构建高可用性和灾难恢复策略。本案例将详细介绍如何使用ADG来...

    Oracle 11.2.0.3 单实例 迁移到 11gR2 RAC 案例-- 使用RMAN 异机恢复

    本案例重点讲述了如何利用RMAN(Recovery Manager)工具进行Oracle 11.2.0.3单实例到11gR2 RAC的异机恢复操作。这一过程涉及多个关键步骤,包括数据备份、目标环境准备、恢复和配置调整。 首先,RMAN是Oracle数据库...

    大牛出手Oracle 11.2.0.3 RAC 基于生产环境安装手册

    Oracle 11.2.0.3 Real Application Clusters (RAC) 是Oracle数据库的一个重要特性,它提供了高可用性和可扩展性,使得多个数据库实例能够共享同一个物理数据库,从而在集群环境中实现故障切换和负载均衡。...

    oracle11.2.0.1升级11.2.0.3

    在这个场景中,我们讨论的是将Oracle 11.2.0.1版本升级到11.2.0.3的过程,这是一个常规的数据库软件更新。Oracle 11g是Oracle数据库的第11个主要版本,提供了许多增强功能和修复了早期版本中的问题。 首先,升级...

    Linux上部署11.2.0.3 RAC+Dataguard演示文稿

    一步一步在Linux上部署11.2.0.3 RAC+Dataguard演示文稿

    最新版ORACLE打补丁工具OPatch v11.2.0.3.15 for Oracle 11.2.0.x Linux x86 发布日期2016-08-26

    在给定的压缩包文件中,包含的是Oracle的补丁应用工具OPatch的最新版本v11.2.0.3.15,专为运行在Linux x86平台上的Oracle 11.2.0.x版本设计。发布日期为2016年8月26日,至2017年4月9日,该版本仍是最新的。 **...

    hp_ia64_1131_11.2.0.3_rac 安装文档

    本文档详细介绍了HP Unix IA64 11.31环境下Oracle Database 11.2.0.3及Grid Infrastructure 11.2.0.3的RAC(Real Application Clusters)安装过程。文档不仅提供了必要的硬件与软件配置信息,还涵盖了详细的安装步骤...

    如何在Linux上部署11.2.0.3 RAC Dataguard

    本文档用于详细记录在OEL 5.5 X86_64 位系统上安装配置Oracle 11gR2(11.2.0.3.0)RAC的步骤、RAC数据库的基本维护、为RAC 创建单实例Active Physical Dataguard、验证Active Dataguard的功能、RAC主库同单实例物理备...

    oracle 11G 11.2.0.4 RAC环境打补丁

    ### Oracle 11G 11.2.0.4 RAC环境打补丁操作指南 #### 一、环境配置信息 **操作系统:** Red Hat 7.2 x64 **数据库版本:** Oracle 11.2.0.4 x64 (RAC) **Grid Infrastructure:** 11.2.0.4 **补丁包:** - **GI...

    11gr2 升级 11.2.0.1到11.2.0.3

    ### Oracle 11g R2 (11.2.0.1) 升级至 11.2.0.3 在 Linux 双节点环境下的详细步骤 #### 一、概述 本文档详细介绍了如何在Linux双节点环境下,将Oracle 11g R2 (11.2.0.1) 版本升级到 11.2.0.3 版本的过程。此升级...

    升级11.2.0.3到11.2.0.4

    ### 升级Oracle Grid Infrastructure和RAC从11.2.0.3到11.2.0.4 #### 大概步骤 在进行Oracle Grid Infrastructure (GI) 和 RAC 的版本升级之前,需要对整个升级过程有一个大致的了解。升级流程可以分为三个主要...

    进阶一步一步在Linux上部署Oracle 11.2.0.3 RAC+Dataguard

    Install Oracle 11gR2(11.2.0.3.0) RAC +Active Dataguard on Oracle Enterprise Linux(OEL5.5 X86_64) 本文档用于详细记录在 OEL 5.5 X86_64 位系统上安装配置 Oracle 11gR2(11.2.0.3.0)RAC 的步骤、RAC 数据库的...

    Oracle 11.2.0.3 RAC安装

    Oracle 11.2.0.3 RAC安装,自己动手做的实验,完整过程。

    ORACLE 11.2.0.3 RAC FOR REHL6.3(64BIT)安装文档

    Oracle 11.2.0.3 RAC for Red Hat Enterprise Linux 6.3 (64-bit)的安装过程涉及多个步骤,包括环境准备、系统配置、软件安装以及数据库创建。以下是对这些关键知识点的详细说明: 1. **安装环境**: - RHEL 6.3 ...

Global site tag (gtag.js) - Google Analytics