Redhat 5.4 + ASM + RAW+ Oracle 10g RAC 安装文档

 

基于Redhat 5 redhat 4 RAC 区别在对raw的处理上。 之前做的是redhat 4.7 RAC 实验。 准备做一个Redhat 5.4 的环境。

 

RAC 的一些理论东西:

http://blog.csdn.net/tianlesoftware/archive/2010/02/27/5331067.aspx

 

RAW+ASM+ REDHAT 4.7 RAC 文档

http://blog.csdn.net/tianlesoftware/archive/2010/02/27/5332909.aspx

 

 

服务器主机名

rac1

rac2

公共IP地址(eth0

10.85.10.1

10.85.10.2

虚拟IP地址(eth0

10.85.10.3

10.85.10.4

私有IP地址(eth1

192.168.1.200

192.168.1.201

ORACLE RAC SID

rac1

rac1

集群实例名称

rac

OCR(oracle集群注册表)

/dev/raw/raw1   /dev/sdb1        200M

/dev/raw/raw2   /dev/sdb2        200M

表决磁盘(voting disk

/dev/raw/raw3   /dev/sdc1       200M

/dev/raw/raw4   /dev/sdc2       200M

/dev/raw/raw5   /dev/sdc3       200M

ASM

/dev/sdd1     10G            VOL1 for Oracle Data

/dev/sdd1      5G             VOL2 for flash_recovery_area

数据库备份

/dev/sde1    10G  mkfs -t ext3 /dev/sde1

 

 

实验平台:Oracle 10gR2 RAC + RHEL 5.4 +VMServer 2.0 

 

安装步骤:

1.安装前准备及OS安装配置

2.安装Oracle 10gR2 clusterware

3.安装Oracle 10gR2 database

4.配置netca

5.创建ASM 实例

6.配置dbca创建数据库

7.检查RAC状态

 

一. 安装前准备及OS安装配置

Host OS 准备

1. Oracle OTN下载 oracle 10gR2 for x86 linux,2zip, 一个是clusterware zip,一个是database zip, comp CD 可选.

2. 准备的RHEL 5.4 (x86)

3. 查看Redhat 5.4 内核版本:

[root@redhat5 ~]# uname -a

Linux redhat5 2.6.18-164.el5xen #1 SMP Tue Aug 18 16:06:30 EDT 2009 i686 i686 i386 GNU/Linux

4. Oracle OTN下载 ASM, ASMLib, ASMLib support 这些都是针对你的kernel的,不要下错

http://www.oracle.com/technology/tech/linux/asmlib/index.html

该页面有下载地址,注意选择CPU 类型。 里面有asmlib support 在同一个页面。

5. VMServer 2.0

虚拟机 Workstation,GSX Server ESX之间的区别

http://blog.csdn.net/tianlesoftware/archive/2010/02/22/5316767.aspx

 

Vmware SERVER 简介

http://blog.csdn.net/tianlesoftware/archive/2010/05/26/5623642.aspx

 

 

一.OS安装

1. vmware server中创建redhat 5 虚拟机,取名rac1. 内存800M, 硬盘15GB

2. 加上一块NIC网卡。RAC 实验需要2块网卡。

3. vdiskmanager 创建Share Disk -- 如果用存储的话,就不用这么折腾了。 直接挂上就能分了。

先创建F:/VM/racshare目录,然后把创建的磁盘文件放到这个目录下。 根据前面的分析,我们要创建4个文件。

      dos下进入vmware 的安装目录,找到vmware-vdiskmanager.exe 程序,然后执行如下命令:

vmware-vdiskmanager.exe -c -s 400Mb -a lsilogic -t 2 F:/VM/racshare/ocr.vmdk

vmware-vdiskmanager.exe -c -s 600Mb -a lsilogic -t 2 F:/VM/racshare/votingdisk.vmdk

vmware-vdiskmanager.exe -c -s 15000Mb -a lsilogic -t 2 F:/VM/racshare/asm4data.vmdk

vmware-vdiskmanager.exe -c -s 10000Mb -a lsilogic -t 2 F:/VM/racshare/backup.vmdk

 

 4. rac1的目录,打开rac1.vmx , 在最后空白处添加这几段内容(一定要最后)

 

scsi1.present = "TRUE"

scsi1.virtualDev = "lsilogic"

scsi1.sharedBus = "virtual"

-- 这段是打开 scsi1上的使用,并且设置成virtual, controller设置成lsilogic, 然后依次添加

 

scsi1:1.present = "TRUE"

scsi1:1.mode = "independent-persistent"

scsi1:1.filename = "F:/VM/racshare/ocr.vmdk"

scsi1:1.deviceType = "plainDisk"

 

scsi1:2.present = "TRUE"

scsi1:2.mode = "independent-persistent"

scsi1:2.filename = "F:/VM/racshare/votingdisk.vmdk"

scsi1:2.deviceType = "plainDisk"

 

scsi1:3.present = "TRUE"

scsi1:3.mode = "independent-persistent"

scsi1:3.filename = "F:/VM/racshare/asm4data.vmdk"

scsi1:3.deviceType = "plainDisk"

 

scsi1:4.present = "TRUE"

scsi1:4.mode = "independent-persistent"

scsi1:4.filename = "F:/VM/racshare/backup.vmdk"

scsi1:4.deviceType = "plainDisk"

 

--最后添加这个,这段是对vmware使用共享硬盘的方式进行定义,必须添加

disk.locking = "false"

diskLib.dataCacheMaxSize = "0"

diskLib.dataCacheMaxReadAheadSize = "0"

diskLib.DataCacheMinReadAheadSize = "0"

diskLib.dataCachePageSize = "4096"

diskLib.maxUnsyncedWrites = "0"

 

保存退出之后,启动虚拟机就可以看到刚才添加的硬盘了.

 

5. 安装完redhat 5操作系统后,关机,安装的时候把所有包都装上。

   按照1-5的步骤创建节点rac2.

 

Redhat 2个序列号:

redhat 5.0 : 2515dd4e215225dd

redhat 5.4 SN49af89414d147589

 

因为是测试环境,在做之前先关闭不需要的系统启动耗时服务
              # chkconfig cups off
              # chkconfig sendmail off
              # chkconfig isdn off
              # chkconfig smartd off
              # chkconfig iptables off

 

6.  配置你的2个网卡的固定IPhostname, DNS, gateway, time server (NTP) ,这一步也可以在安装系统时配置

 

根据前面的规划,设置IP地址。可以在redhat 界面上进行修改,也可以修改下面2个文件:

/etc/sysconfig/network-script/ifcfg-eth0

/etc/sysconfig/network-script/ifcfg-eth1

 

修改机器名,IP和网关 -- 默认网关必须设置,不然 vipca 报错

[root@raw1 ~]# vi /etc/sysconfig/network-scripts/ifcfg-eth0

DEVICE=eth0

ONBOOT=yes

BOOTPROTO=static

IPADDR=10.85.10.119

NETMASK=255.255.255.0

GATEWAY=10.85.10.253

 

修改主机名

vi /etc/sysconfig/network

NETWORKING=yes

HOSTNAME=raw1

 

修改完之后重启生效:

/etc/rc.d/init.d/network restart 重新启动

 

查看DNS

cat /etc/resolv.conf

 

 

7. 同步时间:

1 rac1上启动time-stream 服务,并设置为自动动

[root@rac1 ~]# chkconfig time-stream on

redhat 4中,是: #chkconfig time on

 

2)在rac2 上添加任务,每一分钟和rac1进行一次时间同步。

[root@rac2 ~]# crontab -l

*/1 * * * * rdate -s 10.85.10.1

 

rac 对节点间时间较敏感,RAC不能容忍节点间时钟不同步,否则RACDown掉,而且在安装vipca 的时候也会报错。 具体时间同步参考我的blog

 

Linux 时间同步配置

http://blog.csdn.net/tianlesoftware/archive/2010/02/21/5315587.aspx

 

linux 下修改日期和时间

http://blog.csdn.net/tianlesoftware/archive/2009/11/13/4808096.aspx

 

8. 安装结束后,进入 OS 修改解析文件: /etc/hosts

如下

注:机器名和public名要一样

 

127.0.0.1 localhost (必须要这样)

 

10.85.10.1 rac1

10.85.10.2 rac2

192.168.1.200 rac1-priv

192.168.1.201 rac2-priv

10.85.10.3 rac1-vip

10.85.10.4 rac2-vip

 

两个node都要一样.

修改后要确认这个hosts 都正确 (ping)

 

 

9. 建立用户等效性

  建立等效用户之后,2个结点直接Oracle 用户互相访问就不在需要密码了, 这样就为RAC管理提供了可能性,如果等效性没有配好, RAC 肯定是装不起来的。

 

1)  RAC1,RAC2两个节点上添加group add dba oinstall , 创建oracle 用户, 主组oinstall, 附加组是dba.

#groupadd oinstall

#groupadd dba

#useradd -g oinstall -G dba oracle

#passwd oracle

 

2) 建立等效用户

rac1:

 

[oracle@rac1 ~]$ mkdir ~/.ssh

[oracle@rac1 ~]$ chmod 700 ~/.ssh

[oracle@rac1 ~]$ ssh-keygen -t rsa

[oracle@rac1 ~]$ ssh-keygen -t dsa

 

rac2

[oracle@rac2 ~]$ mkdir ~/.ssh

[oracle@rac2 ~]$ chmod 700 ~/.ssh

[oracle@rac2 ~]$ ssh-keygen -t rsa

[oracle@rac2 ~]$ ssh-keygen -t dsa

 

3) 切换回rac1,接着执行:

[oracle@raw1 ~]$ cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

[oracle@raw1 ~]$ cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

 

提示:下列命令会提示你输入rac2 oracle 密码,按照提示输入即可,如果失败可重新尝试执行命令。

Rac1 节点:

[oracle@rac1 ~]$ scp ~/.ssh/authorized_keys rac2:~/.ssh/authorized_keys

 

Rac2节点:

[oracle@rac2 ~]$ cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

[oracle@rac2 ~]$ cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

[oracle@rac2 ~]$  scp ~/.ssh/authorized_keys rac1:~/.ssh/authorized_keys

 

4) 确保2node都有相互的结点信息。两机相互执行。

 

[oracle@rac1 ~]$ ssh rac1 date

[oracle@rac1~]$ ssh rac2 date

[oracle@rac1 ~]$ ssh rac1-priv date

[oracle@rac1 ~]$ ssh rac2-priv date

 

切换至rac2 执行

[oracle@rac2 ~]$ ssh rac1 date

[oracle@rac2~]$ ssh rac2 date

[oracle@rac2 ~]$ ssh rac1-priv date

[oracle@rac2 ~]$ ssh rac2-priv date

 

10. 2个结点上创建目录

 

[root@rac1 ~]# mkdir -p /u01/app/oracle

[root@rac1 ~]# chown -R oracle:oinstall /u01

[root@rac1 ~]# chmod -R 777 /u01

 

这个目录给oracleclusterware系统的

 

11. 修改/etc/sysctl.conf ,添加这些kernel 参数 

 

net.core.rmem_default=262144

net.core.wmem_default=262144

net.core.rmem_max=262144

net.core.wmem_max=262144

 

kernel.shmall = 131072000

kernel.shmmax = 524288000

kernel.shmmni = 4096

kernel.sem = 250 32000 100 128

fs.file-max = 65536

net.ipv4.ip_local_port_range = 1024 65000

 

# sysctl -p 立刻生效

 

kernel.shmall为物理内存除以pagesize;

kernel.shmmax为物理内存的一半;

fs.file-max512 乘以 processes (128process则为 65536);

net.ipv4.ip_local_port_range/net.core.rmem_default/net.core.rmem_max三个参数设置和官方文档不一样, 这是根据metalink 343431.1 最新要求更改的;

net.ipv4.tcp_rmem/net.ipv4.tcp_wmem两个参数一般情况下无需设置, 除非是在Dataguard/Streams等需很多网络传输情况下;

 

其它参数根据官方文档要求设置即可.

 

具体内容参考我的blog

Linux 内核参数及Oracle相关参数调整

http://blog.csdn.net/tianlesoftware/archive/2009/10/15/4668741.aspx

 

 

12. 设置用户资源限制,2个节点都要执行

       因为所有的进程都是以Oracle 身份来运行的,因此需要定义Oracle 用户能够使用的系统资源数量。

 

vi /etc/security/limits.conf

--使用HugePage 内存技术,添加下面2

Oracle soft memlock 5242880

Oracle hard memlock 524280

--进程句柄数量

oracle soft nproc 2047

oracle hard nproc 16384

-- 文件句柄

oracle soft nofile 65536

oracle hard nofile 65536

 

将下面一行添加到/etc/pam.d/login文件中:

session required /lib/security/pam_limits.so

 

13. 配置 hangcheck-timer 模块,2个节点都要执行

Hangcheck-timer Linux 提供的一个内核级的IO-Fencing 模块, 这个模块会监控Linux 内核运行状态, 如果长时间挂起, 这个模块会自动重启系统。 这个模块在Linux 内核空间运行, 不会受系统负载的影响。 这个模块会使用CPUTime Stamp CounterTSC 寄存器,这个寄存器的值会在每个时钟周期自动增加, 因此使用的是硬件时间,所以精度更高。

配置这个模块需要2个参数: hangcheck_tick hangcheck_margin

 

hangcheck_tick用于定义多长时间检查一次,缺省值是30秒。 有可能内核本身很忙, 导致这个检查被推迟, 该模块还允许定义一个延迟上限,就是hangcheck_margin 它的缺省值是180秒。

 

Hangcheck-timer 模块会根据hangcheck_tick 的设置,定时检查内核。只要2次检查的时间间隔小于 hangcheck_tick + hangchec_margin, 都会认为内核运行正常,否则就意味着运行异常,这个模块会自动重启系统。

 

CRS本身还有一个MissCount 参数,可以通过crsctl get css miscount 命令查看。

 

    RAC结点间的心跳信息丢失时, Clusterware 必须确保在进行重构时,故障结点确实是Dead 状态,否则结点仅是临时负载过高导致心跳丢失,然后其他结点开始重构,但是结点没有重启,这样会损坏数据库。 因此MissCount 必须大于 hangcheck_tick+hangcheck_margin的和。

 

1 查看模块位置:

[root@rac1 ~]#  find /lib/modules -name "hangcheck-timer.ko"

/lib/modules/2.6.18-164.el5/kernel/drivers/char/hangcheck-timer.ko

/lib/modules/2.6.18-164.el5xen/kernel/drivers/char/hangcheck-timer.ko

 

2 配置系统启动时自动加载模块,在/etc/rc.d/rc.local 中添加如下内容

[root@rac1 ~]# modprobe hangcheck-timer

[root@rac1 ~]# vi /etc/rc.d/rc.local

modprobe hangcheck-timer

 

3 配置hangcheck-timer参数, /etc/modprobe.conf 中添加如下内容:

[root@rac1 ~]# vi /etc/modprobe.conf

options hangcheck-timer hangcheck_tick=30 hangcheck_margin=180

 

4 确认模块加载成功:

[root@rac1 ~]# grep Hangcheck /var/log/messages | tail -2

Sep  7 19:53:03 rac1 kernel: Hangcheck: starting hangcheck timer 0.9.0 (tick is 180 seconds, margin is 60 seconds).

Sep  7 19:53:03 rac1 kernel: Hangcheck: Using monotonic_clock().

 

14. 格式化分区

我们之前添加了4块硬盘,在分区的时候,ocr 我们要划分成2100M,分别来存放ocr配置文件,votingdisk我们要分成3100M的。 Asm4data 要分成两个,10G 存放数据文件,5G 用在flashback上。 Backup 我们分成一个区。

在一个结点执行格式化就可以了,因为他们是共享的。

 

[root@rac1 ~]# fdisk –l

[root@rac1 ~]# fdisk /dev/sdb

Command (m for help): n

Command action

   e   extended

   p   primary partition (1-4)

p

Partition number (1-4): 1  -- 分区号1,等格式化技术后对应sdb1

First cylinder (1-200, default 1):

Using default value 1 – 分区开始点

Last cylinder or +size or +sizeM or +sizeK (1-200, default 200): +100M  --sdb1 设置成100m

 

Command (m for help): n

Command action

   e   extended

   p   primary partition (1-4)

p

Partition number (1-4): 2  --设置分区sdb2

First cylinder (97-200, default 97):

Using default value 97  --开始点

Last cylinder or +size or +sizeM or +sizeK (97-200, default 200):

Using default value 200  --结束点

 

Command (m for help): w  -- 写数据

The partition table has been altered!

Calling ioctl() to re-read partition table.

WARNING: Re-reading the partition table failed with error 16: Device or resource busy.

The kernel still uses the old table.

The new table will be used at the next reboot.

Syncing disks.

[root@rac1 ~]# fdisk -l

Disk /dev/sdb: 209 MB, 209715200 bytes

64 heads, 32 sectors/track, 200 cylinders

Units = cylinders of 2048 * 512 = 1048576 bytes

   Device Boot      Start         End      Blocks   Id  System

/dev/sdb1               1          96       98288   83  Linux

/dev/sdb2              97         200      106496   83  Linux

这里就是分区的效果

 

其他的操作类似,最终的格式化的效果是:

 

[root@rac1 ~]# fdisk -l

/dev/sda1           251        1958    13719510   83  Linux

/dev/sda2               1         250     2008093+  82  Linux swap / Solaris

/dev/sdb1               1         101      103408   83  Linux

/dev/sdb2             102         200      101376   83  Linux

/dev/sdc1               1          99      101360   83  Linux

/dev/sdc2             100         198      101376   83  Linux

/dev/sdc3             199         300      104448   83  Linux

/dev/sdd1               1        1217     9775521   83  Linux

/dev/sdd2            1218        1912     5582587+  83  Linux

/dev/sde1               1        1274    10233373+  83  Linux

 

注: 格式化时候,在另一个节点要重启一下系统,不然识别不了。

 

 

15. 配置raw 设备

 

   所谓raw 设备,就是通过字符方式访问的设备,也就是读写设备不需要缓冲区。 Linux 下,对磁盘值提供了块方式的访问。要想通过字符方式访问,必须配置raw 设备服务,并且Oracle 用户对这些raw 设备必须有访问的权限。

 

Redhat 5 4在裸设备的配置上不一样。 关于4raw的配置参考:

RAW+ASM+ REDHAT 4.7 RAC 文档

http://blog.csdn.net/tianlesoftware/archive/2010/02/27/5332909.aspx

 

redhat 5raw的配置也可以参考:

       Redhat 5 中裸设备(raw) 的配置

       http://blog.csdn.net/tianlesoftware/archive/2010/08/09/5796962.aspx

 

2个节点上做如下操作:

 

1)修改/etc/udev/rules.d/60-raw.rules 文件

添加如下内容:

ACTION=="add", KERNEL=="sdb1",RUN+="/bin/raw /dev/raw/raw1 %N"

ACTION=="add", KERNEL=="sdb2",RUN+="/bin/raw /dev/raw/raw2 %N"

ACTION=="add", KERNEL=="sdc1",RUN+="/bin/raw /dev/raw/raw3 %N"

ACTION=="add", KERNEL=="sdc2",RUN+="/bin/raw /dev/raw/raw4 %N"

ACTION=="add", KERNEL=="sdc3",RUN+="/bin/raw /dev/raw/raw5 %N"

ACTION=="add",KERNEL=="raw[1-5]", OWNER="oracle", GROUP="oinstall", MODE="660"

 

这里有个小插曲,见:

       http://blog.csdn.net/tianlesoftware/archive/2010/09/08/5871972.aspx

 

2 重启服务:

[root@rac1 ~]# start_udev

Starting udev:         [  OK  ]

 

3 查看raw设备:

[root@rac1 ~]# ls -lrt /dev/raw

total 0

crw-rw---- 1 oracle oinstall 162, 5 Sep  8 03:18 raw5

crw-rw---- 1 oracle oinstall 162, 4 Sep  8 03:18 raw4

crw-rw---- 1 oracle oinstall 162, 1 Sep  8 03:18 raw1

crw-rw---- 1 oracle oinstall 162, 3 Sep  8 03:18 raw3

crw-rw---- 1 oracle oinstall 162, 2 Sep  8 03:18 raw2

raw的配置,也可以直接使用raw来实现。

[root@qs-dmm-rh2 mapper]# cat /etc/rc.local
#!/bin/sh
#
# This script will be executed *after* all the other init scripts.
# You can put your own initialization stuff in here if you don't
# want to do the full Sys V style init stuff.

touch /var/lock/subsys/local


#####
# Oracle Cluster Registry (OCR) devices
#####
chown root:oinstall /dev/mapper/ocr**
chmod 660 /dev/mapper/ocr*
raw /dev/raw/raw1 /dev/mapper/ocrp1
raw /dev/raw/raw2 /dev/mapper/ocrp2
raw /dev/raw/raw3 /dev/mapper/ocrp3
raw /dev/raw/raw4 /dev/mapper/ocrp4
#sleep 2
chown root:oinstall /dev/raw/raw1
chown root:oinstall /dev/raw/raw2
chown root:oinstall /dev/raw/raw3
chown root:oinstall /dev/raw/raw4
chmod 660 /dev/raw/raw1
chmod 660 /dev/raw/raw2
chmod 660 /dev/raw/raw3
chmod 660 /dev/raw/raw4
#####
# Oracle Cluster Voting disks
#####
chown oracle:oinstall /dev/mapper/voting*
chmod 660 /dev/mapper/voting*
raw /dev/raw/raw5 /dev/mapper/votingdiskp1
raw /dev/raw/raw6 /dev/mapper/votingdiskp2
raw /dev/raw/raw7 /dev/mapper/votingdiskp3
raw /dev/raw/raw8 /dev/mapper/votingdiskp4
#sleep 2
chown oracle:oinstall /dev/raw/raw5
chown oracle:oinstall /dev/raw/raw6
chown oracle:oinstall /dev/raw/raw7
chown oracle:oinstall /dev/raw/raw8
chmod 660 /dev/raw/raw5
chmod 660 /dev/raw/raw6
chmod 660 /dev/raw/raw7
chmod 660 /dev/raw/raw8

 

16.  在两个node上都安装 ASMLibs, tools, support 三个rpm文件. 注意内核版本要和linux一致。

 

# rpm -ivh *.rpm --nodeps --force

 

然后运行 /etc/init.d/oracleasm configure

回答 oracle , dba, y, y 就可以了

 

linux 挂在windows 共享的盘

1. 启动nfs服务:   service nfs start

2. mount -o username=share,password=share //10.85.10.80/RAC /mnt

 

17. 创建ASM 磁盘

       在一个node:

通过以 root 用户身份运行以下命令来标记由 ASMLib 使用的磁盘:/etc/init.d/oracleasm createdisk DISK_NAME device_name(提示:DISK_NAME 应由大写字母组成。当前版本有一个错误,即假如使用小写字母,ASM 实例将无法识别磁盘。)

 

记住,ASMlinux下面处理的对象是 partition,不是disk, 所以你那些vmdklinux 下面partition好才能用,所以先fdisk一下在创建.

 

/etc/init.d/oracleasm createdisk VOL1 /dev/sdd1

/etc/init.d/oracleasm createdisk VOL2 /dev/sdd2

 

创建好后, 在这个node 上运行 /etc/init.d/oracleasm listdisks 查看。

 

18. 在另外一个node

/etc/init.d/oracleasm scandisks

/etc/init.d/oracleasm listdisks 查看

 

19. 在每个node上配置Oracleprofile文件

 

Su -oracle

Cd /home/oracle

 

修改 oracle用户家目录下的 .bash_profile 。注意ORACLE_SID 和后面建库要一致。

 

# User specific environment and startup programs

PATH=$PATH:$HOME/bin

export ORACLE_BASE=/u01/app/oracle

export ORACLE_HOME=$ORACLE_BASE/product/10.2.0/db_1

export ORA_CRS_HOME=$ORACLE_BASE/product/crs

export ORACLE_SID=rac1

export PATH=.:${PATH}:$HOME/bin:$ORACLE_HOME/bin

export PATH=${PATH}:/usr/bin:/bin:/usr/bin/X11:/usr/local/bin

export PATH=${PATH}:$ORACLE_BASE/common/oracle/bin

export ORACLE_TERM=xterm

export TNS_ADMIN=$ORACLE_HOME/network/admin

export ORA_NLS10=$ORACLE_HOME/nls/data

export LD_LIBRARY_PATH=$ORACLE_HOME/lib

export LD_LIBRARY_PATH=${LD_LIBRARY_PATH}:$ORACLE_HOME/oracm/lib

export LD_LIBRARY_PATH=${LD_LIBRARY_PATH}:/lib:/usr/lib:/usr/local/lib

export CLASSPATH=$ORACLE_HOME/JRE

export CLASSPATH=${CLASSPATH}:$ORACLE_HOME/jlib

export CLASSPATH=${CLASSPATH}:$ORACLE_HOME/rdbms/jlib

export CLASSPATH=${CLASSPATH}:$ORACLE_HOME/network/jlib

export THREADS_FLAG=native

export TEMP=/tmp

export TMPDIR=/tmp

 

 

第二个节点的 ORACLE_SID=rac2 其他都一样。

 

 

二. 安装Oracle 10gR2 clusterware

 

1. Xmanager 软件连上虚拟机之后运行clusterware 的安装软件, Xmanager 支持图形界面, 所以能省很多事。

       主要要先修改/etc/redhat-release 文件,不然会报错。

              [root@rac2 ~]# more /etc/redhat-release

redhat-4

 

2. 确认你的安装目录是/u01/app/oracle/product/crs

 

3. 增加相关结点信息

rac1 rac1-priv rac1-vip

rac2 rac2-priv rac2-vip

 

4.指定 eth0 的类型时public

 

5. 指定OCR Voting Disk

一般而言,如果采用存储来存放OCRVoting Disk. 存储本身就提供了redundancy策略,此时我们可以选择External Redundancy 选项, 此时Oracle 就不在考虑软件冗余了。 如果没有使用存储设备或者存储为RAID0,那么就可以使用Oracle 自己提供的软件冗余机制 Normal Redundancy 选项,此时就会激活Mirror Location 选项. 用来指定镜像文件位置, Oracle Clusterware在运行时会维护这个Mirror文件的内容同步。

 

 

OCR 最多只有一份冗余:

/dev/raw/raw1

/dev/raw/raw2

 

Voting Disk 最多可以定义2份冗余:

/dev/raw/raw3

/dev/raw/raw4

/dev/raw/raw5

 

6. 开始安装了,结束时会提示用root在每个节点上运行orainstRoot.Sh root.Sh脚本, 在第二个结点上运行root.Sh 后自动调用vipca 这个命令, 在第二个结点运行root.Sh 之前要修改一下vipca命令, 不然可能会报错。

 

RAC安装时需要执行4个脚本及意义

http://blog.csdn.net/tianlesoftware/archive/2010/02/22/5317034.aspx

 

注意: VIPCA 命令也是用ROOT 用户来运行的, 只需要在一个结点运行就可以了。

 

 

进入$CRS_HOME/bin/目录, vi来修改vipca srvctl 2个命令。

 

问题1 vipca报错,是redhatbug

Running vipca(silent) for configuring nodeapps

/home/oracle/crs/oracle/product/10/crs/jdk/jre//bin/java: error while loading

shared libraries: libpthread.so.0: cannot open shared object file:

No such file or directory

 

解决方法:

Remember to re-edit these files on all nodes:

<CRS_HOME>/bin/vipca

<CRS_HOME>/bin/srvctl

<RDBMS_HOME>/bin/srvctl

<ASM_HOME>/bin/srvctl

 

after applying the 10.2.0.2 or 10.2.0.3 patchsets, as these patchset will still include those settings unnecessary for OEL5 or RHEL5 or SLES10.  This issue was raised with development and is fixed in the 10.2.0.4 patchsets.

 

Note that we are explicitly unsetting LD_ASSUME_KERNEL and not merely commenting out its setting to handle a case where the user has it set in their environment (login shell).

 

$ vi vipca

... ...

Linux) LD_LIBRARY_PATH=$ORACLE_HOME/lib:/lib:$ORACLE_HOME/srvm/lib:$LD_LIBRARY_PATH

       export LD_LIBRARY_PATH

        echo $LD_LIBRARY_PATH

        echo $CLASSPATH

       #Remove this workaround when the bug 3937317 is fixed

       arch=`uname -m`

       if [ "$arch" = "i686" -o "$arch" = "ia64" ]

       then

        # LD_ASSUME_KERNEL=2.4.19   

        # export LD_ASSUME_KERNEL 

        echo  -- 这里一定要加上,不然返回会报错

       fi

       #End workaround

 

问题2 如果遇到这个错误:

# vipca

Error 0(Native: listNetInterfaces:[3])

[Error 0(Native: listNetInterfaces:[3])]

解决方法:

CRS_HOME 运行 oifcfg 命令:

 

# ./oifcfg setif -global eth0/10.85.10.0:public

# ./oifcfg setif -global eth1/192.168.1.0:cluster_interconnect

# ./oifcfg getif

eth0 10.85.10.0 global public

eth1 192.168.1.0 global cluster_interconnect

 

-- 注意这里最后一个是0. 代表一个网段。 在一个节点设置之后,其他节点也能看到。  

 

然后在手工运行vipca添加nodeapps resource即可。

 

问题3An unexpected exception has been detected in native code outside the VM.

Unexpected Signal : 11 occurred at PC=0xB7503E29

Function=__libc_free+0x49

Library=/lib/tls/libc.so.6

 

修改主机名不正确导致的。

RHEL

/etc/sysconfig/network 主机名,如果在/etc/hosts中解析不了。就报这个错误!

 

7.  clusterware 就安装结束.

 

确认一下.

$ /u01/app/oracle/product/crs/bin/olsnodes -n

rac1

rac2

$ ls -l /etc/init.d/init.*

-r-xr-xr-x 1 root root 1951 Oct 4 14:21 /etc/init.d/init.crs*

-r-xr-xr-x 1 root root 4714 Oct 4 14:21 /etc/init.d/init.crsd*

-r-xr-xr-x 1 root root 35394 Oct 4 14:21 /etc/init.d/init.cssd*

-r-xr-xr-x 1 root root 3190 Oct 4 14:21 /etc/init.d/init.evmd*

 

检查CRS 安装启动情况:用Root用户执行:

$CRS_HOME/bin/crsctl check crs

CSS appears healthy

CRS appears healthy

EVM appears healthy

 

表明CRS 安装完成,并且启动成功

[root@rac1 bin]# ./crs_stat -t -v

Name           Type           R/RA   F/FT   Target    State     Host

----------------------------------------------------------------------

ora.rac1.gsd   application    0/5    0/0    ONLINE    ONLINE    rac1

ora.rac1.ons   application    0/3    0/0    ONLINE    ONLINE    rac1

ora.rac1.vip   application    0/0    0/0    ONLINE    ONLINE    rac1

ora.rac2.gsd   application    0/5    0/0    ONLINE    ONLINE    rac2

ora.rac2.ons   application    0/3    0/0    ONLINE    ONLINE    rac2

ora.rac2.vip   application    0/0    0/0    ONLINE    ONLINE    rac2

 

注:如果clusterware 安装失败,再次运行安装程序,里面可以把之前的安装删除掉,删除之后在进行安装。

 

 

三. 安装Oracle 10gR2 database

 

1. 检查Oracle 的相关包。Oracle 10g 需要如下包

binutils-2.15.92.0.2-10.EL4

compat-db-4.1.25-9

control-center-2.8.0-12

gcc-3.4.3-9.EL4

gcc-c++-3.4.3-9.EL4

glibc-2.3.4-2

glibc-common-2.3.4-2

gnome-libs-1.4.1.2.90-44.1

libstdc++-3.4.3-9.EL4

libstdc++-devel-3.4.3-9.EL4

make-3.80-5

pdksh-5.2.14-30

sysstat-5.0.5-1

xscreensaver-4.18-5.rhel4.2

libaio-0.3.96

 

To see which versions of these packages are installed on your system, run the following command:

rpm -q binutils compat-db control-center gcc gcc-c++ glibc glibc-common /

gnome-libs libstdc++ libstdc++-devel make pdksh sysstat xscreensaver libaio openmotif21

 

2. Xmanager 中用oracle用户,运行databaserunInstaller

3. ORACLE安装目录指定到 /u01/app/oracle/product/10.2.0/db_1

4. 2node选择上

5. 选择 Install database Software only

6. 会要求你用完全的root权限运行 root.sh ,分别在2node上一一运行

7. 安装完毕

 

 

四. netca 创建监听

 

注:创建数据库过程应该遵循这个顺序: 先配置监听, 再配置ASM 实例, 最后创建数据库实例, 这样可以减少出错的概率。

 

1. oracle 用户在一个node上运行 netca

2. 选择所有node

3. 选择 Listener configuration

4. 添加一个LISTENER, 1521 port ,然后结束配置

 

监听配置成功后, 2个结点上的Listener 都会坐位Application Resource 注册到CRS中, 这样CRS 就可以监控Listener 的运行状态。 我们可以通过 crs_stat -t -v  查看Listener 状态。

 

 

五. 创建ASM 实例

 

1. 运行DBCA 命令

2. 选择 configure Automatic Storage Management 来创建ASM 实例

3. 选择所有结点

4. 输入密码。RAC spfile 必须放在共享目录下。  参数文件我们选择第一个initialization parameter 也可以放在我们建的裸设备上。

5. 修改asm 参数: asm_diskstring = ORCL:VOL*, 这样能让Oracle自动发现这些硬盘

6. ASM 实例创建完后,用Create New 来创建ASM 磁盘组。 我们用VOL1来创建一个DATA 组, VOL2 创建FLASH_RECOVERY_AREA组。

 

注: Redundancy 一般选external 就是也就是不考虑冗余,假如选normal 则是mirror, 至少要一个FailGroup. High 就是triple mirror,3倍镜像,需要三个FailGroup

 

7.  创建完成后,能看到组的状态是Mount, ASM 组必须mount之后才能使用。

 

注意: asm 对应的device 需要oracle 用户的权限,如:

chown oracle:oinstall /dev/mapper/device_name

 

ASM 的相关信息参考blog

Oracle ASM 详解

http://blog.csdn.net/tianlesoftware/archive/2010/02/21/5314541.aspx

 

在这里,如果asm 服务必须要启动。如果没有启动,就手动启动它。 具体参考:

       Oracle RAC 启动与关闭

http://blog.csdn.net/tianlesoftware/archive/2010/03/05/5349003.aspx

 

[root@rac1 bin]# ./crs_stat -t

Name           Type           Target    State     Host

------------------------------------------------------------

ora....SM2.asm application    ONLINE    ONLINE    rac1

ora....C1.lsnr application    ONLINE    ONLINE    rac1

ora.rac1.gsd   application    ONLINE    ONLINE    rac1

ora.rac1.ons   application    ONLINE    ONLINE    rac1

ora.rac1.vip   application    ONLINE    ONLINE    rac1

ora....SM1.asm application    ONLINE    ONLINE    rac2

ora....C2.lsnr application    ONLINE    ONLINE    rac2

ora.rac2.gsd   application    ONLINE    ONLINE    rac2

ora.rac2.ons   application    ONLINE    ONLINE    rac2

ora.rac2.vip   application    ONLINE    ONLINE    rac2

 

. 配置dbca创建数据库

 

1. oracle用户运行 dbca

2. 选择custom database

3. 输入数据库的全局名,比如rac

4. 输入系统的角色建立密码

5. 选择ASM 来存储, 分别选择我们刚创建的DATA FLASH_RECOVERY_AREA

6. Database Services 这里,你选择Add你一个新的service, 随便叫名字,比如oltp。然后选择 TAF Policy,Basic 这个服务在RAC Failover中会用到,如果在这里没有配置,也可以通过dbca命令, 选择 Services Management 来进行配置。 具体参考blog

   Oracle RAC Failover 详解

   http://blog.csdn.net/tianlesoftware/archive/2010/03/03/5340788.aspx

 

7. 开始创建数据库

 

 

 

七. 检查RAC 运行状态

 

1.

[root@rac1 bin]# ./srvctl status database -d rac

Instance rac2 is running on node rac1

Instance rac1 is running on node rac2

 

2.

[root@rac1 bin]# ./crs_stat -t

Name           Type           Target    State     Host

------------------------------------------------------------

ora.rac.db     application    ONLINE    ONLINE    rac1

ora....oltp.cs application    ONLINE    ONLINE    rac2

ora....ac1.srv application    ONLINE    ONLINE    rac2

ora....ac2.srv application    ONLINE    ONLINE    rac1

ora....c1.inst application    ONLINE    ONLINE    rac2

ora....c2.inst application    ONLINE    ONLINE    rac1

ora....SM2.asm application    ONLINE    ONLINE    rac1

ora....C1.lsnr application    ONLINE    ONLINE    rac1

ora.rac1.gsd   application    ONLINE    ONLINE    rac1

ora.rac1.ons   application    ONLINE    ONLINE    rac1

ora.rac1.vip   application    ONLINE    ONLINE    rac1

ora....SM1.asm application    ONLINE    ONLINE    rac2

ora....C2.lsnr application    ONLINE    ONLINE    rac2

ora.rac2.gsd   application    ONLINE    ONLINE    rac2

ora.rac2.ons   application    ONLINE    ONLINE    rac2

ora.rac2.vip   application    ONLINE    ONLINE    rac2

 

 

 

 

------------------------------------------------------------------------------

Blog http://blog.csdn.net/tianlesoftware

网上资源: http://tianlesoftware.download.csdn.net

相关视频:http://blog.csdn.net/tianlesoftware/archive/2009/11/27/4886500.aspx

DBA1 群:62697716(); DBA2 群:62697977()

DBA3 群:63306533;     聊天 群:40132017

你可能感兴趣的:(oracle,redhat,application,database,Path,library)