虚拟机Linux上部署DB2pureScale过程

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了虚拟机Linux上部署DB2pureScale过程相关的知识,希望对你有一定的参考价值。

参考技术A

  在Linux 操作系统 中,可在虚拟机上搭建DB2 pureScale,那么搭建的步骤是怎么样的呢?DB2 pureScale又有什么用呢?下面随我一起来了解下Linux系统如何在虚拟机上部署DB2 pureScale。

  在虚拟机Linux上部署DB2pureScale实践过程

  1、环境准备

  硬件环境:3 台 x86-64虚拟机,内存要求 1.5G 或以上(主要针对虚拟机,内存过低会造成数据库实例启动失败)

  操作系统:Suse Linux Enterprise Server 11.3

  DB2 版本:DB2 v10.5

  机器名:node01 node02 node03

  IP:192.168.18.201 192.168.18.202 192.168.18.203

  网关:192.168.18.2

  利用iscsi服务来做共享存储功能,其中node01 作为 iscsi 的 Server,node01、node02和 node03 作为 iscsi Client,这样三台虚拟机上都能看到相同的磁盘了(按照developer workers上的 文章 :非 InfiniBand 环境下搭建 DB2 pureScale,我用DB2 v10.5时启动实例失败,可能10.5做了限制,CF与member在同一台机器启动失败,帮多了一台虚拟机)。

  2、操作系统安装:

  Node01预留出一块分区,不进行格式化(文件类型为0x83 Linux)做为 pureScale 集群的 Sharing Disk 使用,Node02与Node03跟node01 其它 相同就可,

  安装必要的包:

  libstdc++(32 位和 64 位库)

  glibc(32 位和 64 位库)

  cpp

  gcc

  gcc-c++

  kernel-source

  binutils

  ksh-93u-0.8.1

  openssh

  ntp

  完成SUSE 11 SP3的安装。

  验证:检查/lib/modules/3.0.76-0.11-default/build/include/linux有无autoconf.h,如果没有autoconf.h,安装DB2时会报Compiling GPL :.......Failure错误。

  解决 方法 :cp –v /usr/src/linux-3.0.76-0.11-obj/x86_64/default/include/generated /lib/modules/3.0.76-0.11-default/build/include/linux

  3、添加用户和用户组

  三台机器全部执行如下命令(如果不做特殊说明,以#表示root身份登录,以$表示db2inst1身份,以下相同)。

  #groupadd -g 1001 db2fadm1

  #groupadd -g 1002 db2iadm1

  #useradd -g db2fadm1 -u 1001 -m -d /home/db2fenc1 -p db2fenc1 db2fenc1

  #useradd -g db2iadm1 -u 1002 -m -d /home/db2inst1 -p db2inst1 db2inst1

  #mkdir /root/.ssh

  # su - db2inst1 -c "mkdir -p /home/db2inst1/.ssh"

  4、配置ssh 信任连接

  ssh信任通俗的说就是直接ssh不用输入密码

  在/etc/hosts添加另外两台机器的IP地址及机器名(确保3台机器名与ip地址全部出现在hosts文件中)

  例如我的机器hosts如下:

  127.0.0.1 localhost

  192.168.18.201 node01.site node01

  192.168.18.202 node02.site node02

  192.168.18.203 node03.site node03

  node01执行如下命令:

  #ssh-keygen -t rsa

  #cp -v /root/.ssh/id_rsa.pub /root/.ssh/id01

  #scp /root/.ssh/id01 node02:/root/.ssh

  #scp /root/.ssh/id01 node03:/root/.ssh

  #su - db2inst1

  $ssh-keygen -t rsa

  $cp -v /home/db2inst1/.ssh/id_rsa.pub /home/db2inst1/.ssh/id01

  $scp /home/db2inst1/.ssh/id01 node02:/home/db2inst1/.ssh

  $scp /home/db2inst1/.ssh/id01 node03:/home/db2inst1/.ssh

  node02执行如下命令:

  #ssh-keygen -t rsa

  #cp -v /root/.ssh/id_rsa.pub /root/.ssh/id02

  #scp /root/.ssh/id02 node01:/root/.ssh/

  #scp /root/.ssh/id02 node03:/root/.ssh/

  #su - db2inst1

  $ssh-keygen -t rsa

  $cp -v /home/db2inst1/.ssh/id_rsa.pub /home/db2inst1/.ssh/id02

  $scp /home/db2inst1/.ssh/id02 node01:/home/db2inst1/.ssh/

  $scp /home/db2inst1/.ssh/id02 node03:/home/db2inst1/.ssh/

  node03执行如下命令:

  #ssh-keygen -t rsa

  #cp -v /root/.ssh/id_rsa.pub /root/.ssh/id03

  #scp /root/.ssh/id03 node01:/root/.ssh

  #scp /root/.ssh/id03 node02:/root/.ssh

  #su - db2inst1

  $ssh-keygen -t rsa

  $cp -v /home/db2inst1/.ssh/id_rsa.pub /home/db2inst1/.ssh/id03

  $scp /home/db2inst1/.ssh/id03 node01:/home/db2inst1/.ssh/

  $scp /home/db2inst1/.ssh/id03 node02:/home/db2inst1/.ssh/

  分别在node01、node02、node03执行如下命令

  #cd /root/.ssh

  #cat id01 id02 id03 > authorized_keys

  #chmod 600 authorized_keys

  #su - db2inst1

  $cd /home/db2inst1/.ssh

  $ cat id01 id02 id03 > authorized_keys

  测试是否配置成功

  3台机器分别以root与db2inst1执行:

  #ssh node01 ls

  #ssh node02 ls

  #ssh node03 ls

  #su - db2inst1

  $ssh node01 ls

  $ssh node02 ls

  $ssh node03 ls

  确保不用输入密码,则配置成功。

  5、ISCSI 共享存储配置

  Iscsi server端配置(node01上执行):

  修改/etc/ietd.conf,添加如下内容:

  Target iqn.2014-03.node01.site:scsidisk01

  Lun 0 Path=/dev/sda4,Type=fileio

  注意:我的未分区硬盘为/dev/sda4,你的可能不一样的@_@~~~~

  添加自启动

  #chkconfig -a iscsitarget

  检查是否成功

  #chkconfig -l iscsitarget

  结果:iscsitarget 0:off 1:off 2:off 3:on 4:off 5:on 6:off

  重启iscsitarget服务

  # /etc/init.d/iscsitarget restart

  iscsi client端配置(node01、node02、node03执行,):

  iscsitarget文件内容如下:

  #! /bin/sh

  ### BEGIN INIT INFO

  # Provides: iscsiclsetup

  #node02与node03上如果未装iscsitarget需将下下行的$iscsitarget

  # Required-Start: $network $syslog $iscsitarget $remote_fs smartd

  # Required-Stop:

  # Default-Start: 3 5

  # Default-Stop: 0 1 2 6

  # Description: ISCSI client setup

  ### END INIT INFO

  case "$1" in start)

  iscsiadm --mode discoverydb --type sendtargets --portal 192.168.18.201 --discover

  iscsiadm --m node --targetname iqn.2014-03.node01.site:scsidisk01 --portal 192.168.18.201:3260 --login

  ;;

  stop)

  iscsiadm -m node -T iqn.2014-03.node01.site:scsidisk01 -p 192.168.18.201 --logout

  ;;

  restart) ## Stop the service and regardless of whether it was ## running or not, start it again.

  $0 stop

  $0 start

  ;;

  *)

  Esac

  保存后执行:#/etc/init.d/iscsiclient restart

  验证iscsiclient是否启动成功:

  #fdisk -l

  检查有无/dev/sdb出现

  6、配置Linux环境变量

  /etc/profie.local添加内容

  alias sl='tail -f /var/log/messages'

  alias fc='fcslogrpt /var/log/messages'

  export PATH=/root/bin:/usr/sbin/rsct/bin:/opt/ibm/db2/v10.5/bin:$PATH

  export PATH=/usr/lpp/mmfs/bin:$PATH

  export DB2USENONIB=TRUE

  export DB2_CFS_GPFS_NO_REFRESH_DATA=true

  然后执行# . /etc/profile.local,完成后你就可以安装purescale了,我猜测应该是设置了变量DB2USENONIB,使purescale不再要求你强制InfiniBand或万兆网卡,使我等穷人可以有机会玩这种高档、洋气、上档次的数据库。。。

  7、DB2 V10.5 的安装:

  node01:~/server_t # ./db2_install

  DBI1324W Support of the db2_install command is deprecated. For

  more information, see the DB2 Information Center.

  Default directory for installation of products - /opt/ibm/db2/V10.5

  ***********************************************************

  Install into default directory (/opt/ibm/db2/V10.5) ? [yes/no]

  yes

  Specify one of the following keywords to install DB2 products.

  SERVER

  CONSV

  EXP

  CLIENT

  RTCL

  Enter "help" to redisplay product names.

  Enter "quit" to exit.

  ***********************************************************

  server

  ***********************************************************

  Do you want to install the DB2 pureScale Feature? [yes/no]

  Yes

  曾经出现的错误:

  ERROR: An error occurred while compiling IBM General Parallel File System

  (GPFS) Portability Layer (GPL) on host "node01". Return code "2". GPL

  compilation log file location "/tmp/compileGPL.log.000". The GPFS file system

  cannot be mounted properly until the GPL module is successfully compiled on

  this host. For details, see the specified GPL compilation log. After fixing

  the problems shown in the log file, re-run the DB2 installer. For information

  regarding the GPFS GPL module compile, see DB2 Information Center.

  Compiling GPL :.......Failure

  ERROR: A major error occurred while installing "DB2 Server Edition " on this

  computer.

  解决方案:

  查看错误日志:compileGPL.log.000,为以下内容:

  cd /usr/lpp/mmfs/src/config; ./configure --genenvonly; if [ $? -eq 0 ]; then /usr/bin/cpp -P def.mk.proto > ./def.mk; exit $? || exit 1; else exit $?; fi

  手工执行时会发现在./configure --genenvonly; 这一步报找不到

  /usr/bin/diff: /lib/modules/3.0.76-0.11-default/build/include/linux/autoconf.h: No such file or directory

  Kernel source tree does not have the correct autoconf.h file.

  See /usr/lpp/mmfs/src/README for further information

  手工拷呗一下autoconf.h文件即可

  #cp –v /usr/src/linux-3.0.76-0.11-obj/x86_64/default/include/generated/autoconf.h /lib/modules/3.0.76-0.11-default/build/include/linux/

  GPFS 文件系统配置与挂载

  方法1:使用db2cluster_prepare

  node01上执行:

  #/opt/ibm/db2/v10.5/instance/db2cluster_prepare -instance_shared_dev /dev/sdb

  DBI1446I The db2cluster_prepare command is running.

  DB2 installation is being initialized.

  Total number of tasks to be performed: 1

  Total estimated time for all tasks to be performed: 60 second(s)

  Task #1 start

  Description: Creating IBM General Parallel File System (GPFS) Cluster and Filesystem

  Estimated time 60 second(s)

  Task #1 end

  The execution completed successfully.

  For more information see the DB2 installation log at

  "/tmp/db2cluster_prepare.log".

  DBI1070I Program db2cluster_prepare completed successfully.

  此时df -l查看一下会发现多了一个挂载点

  node01:/opt/ibm/db2/V10.5/instance # df -l

  Filesystem 1K-blocks Used Available Use% Mounted on

  /dev/sda2 19599036 8122392 10481060 44% /

  udev 958688 120 958568 1% /dev

  tmpfs 958688 76 958612 1% /dev/shm

  /dev/sda3 10327940 154460 9648836 2% /home

  /dev/db2fs1 15728640 627712 15100928 4% /db2sd_20140401103940

  曾经出现报错:

  DBI20022E The DB2 installer detected that the variable record "GPFS_CLUSTER" is

  defined in the global registry. However, the GPFS cluster does not exist on

  host "node01".

  Creating IBM General Parallel File System (GPFS) Cluster and Filesystem :.......Failure

  查看/tmp/ibm.db2.cluster.GuOypP发现有如下内容报错:

  014-04-01-10.26.12.358494+480 I5385E400 LEVEL: Warning

  PID : 7469 TID : 139670848014112 PROC : db2cluster

  INSTANCE: NODE : 000

  HOSTNAME: node01

  FUNCTION: DB2 UDB, oper system services, sqloMessage, probe:1

  MESSAGE : Cannot obtain registry variables

  DATA #1 : Hexdump, 4 bytes

  0x00007FFF17631758 : B400 0F87

  解决方案:由于此前我在此机器上试过N次db2cluster_prepare,包括V9.8、V10.1,V10.5安装,导致全局注册表变量没有删除干净,使用db2greg -dump

  V,GPFS_CLUSTER,NAME,db2cluster_20140403105617.site,-,DB2_CREATED将其删除。

  #cp -v /var/db2/global.reg /var/db2/global.reg_20140401

  #db2delgreg -delvarrec service= GPFS_CLUSTER

   总结 :db2cluster_prepare这个命令失败时

  检查iscsi client是否准备好,fdisk -l查看一下是否有/dev/sdb

  全局注册表变量是否未删除干净 ,db2greg -dump查看

  检查一下是否tsa的domain存在,lsrpdomain,使用rmrpdomain将其删掉,如果其node为活动需先将其node停掉。具体参考tsa相关命令,

  检查一下gpfs cluster domain是否未清理干净,如果未清理干净,需要使用将fs、nsd、node清理掉,具体命令参考gpfs信息中心。

  方法2:手工挂载GPFS

  遇到过使用db2cluster_prepare时无法成功,手工安装(不确定是否遇到了 传说 中的bug)。

  创建cluster,不加-filesystem -disk选项:

  node01:

  #db2cluster -cfs -create -domain mydomain -host node01

  #db2cluster -cfs -add -host node02

  # db2cluster -cfs -add -host node03

  说明:上面如果不出故障当然可以加上-filesystem –disk参数,当然也可以用mmaddnode –N XXX来添加节点

  添加许可协议:

  提供两种方法

  #mmchlicense server --accept -N node01,node02,node03

  #/opt/ibm/db2/v10.5/bin/db2cluster -cfs -add -license

  创建nsd:任意node执行

  编写newNSD文件内容如下

  %nsd:

  device=/dev/sdb

  nsd=nsd1

  usage=dataAndMetadata

  #mmcrnsd -F /tmp/newNSD (-v no)

  如果报mmcrnsd: Disk device sdb refers to an existing NSD,而使用mmlsnsd 又查找不到相应的nsd,添加-v no可以跳过此验证。

  #mmlsnsd 查看创建的nsd名称,记下,在第3步时需要用到.

  创建Cluster File System并挂载

  启动所有node,任意node执行

  #mmstartup -a

  #mmgetstate -a

  确保所有node全部启动成功为active

  # mmcrfs -T /db2sd_20140401 db2sd_20140401 nsd1(此处的nsd1为第2步的nsd名称)

  #mmmount all -a

  --曾经出现的错误:mmstartup -a无响应

  ,查看日志/var/adm/ras/mmfs.log.previous

  Tue Apr 1 22:02:11 CST 2014: runmmfs starting

  Removing old /var/adm/ras/mmfs.log.* files:

  Unloading modules from /lib/modules/3.0.76-0.11-default/extra

  runmmfs: The /lib/modules/3.0.76-0.11-default/extra/mmfslinux.ko kernel extension does not exist.

  runmmfs: Unable to verify kernel/module configuration.

  Loading modules from /lib/modules/3.0.76-0.11-default/extra

  runmmfs: The /lib/modules/3.0.76-0.11-default/extra/mmfslinux.ko kernel extension does not exist.

  runmmfs: Unable to verify kernel/module configuration.

  Tue Apr 1 22:02:11 CST 2014 runmmfs: error in loading or unloading the mmfs kernel extension

  Tue Apr 1 22:02:11 CST 2014 runmmfs: stopping GPFS

  解决方案:重新编译一下gpfs的源码,因为手工卸载gpfs。

  /usr/lpp/mmfs/src/README有详细的编译方法:主要命令方法如下:

  #cd /usr/lpp/mmfs/src

  #make Autoconfig

  #make InstallImages

  make InstallImages会在/lib/modules/`uname -r`/extra目录生成3个文件,大功告成.

  创建实例

  创建实例前:

  node02#/opt/ibm/db2/V10.5/instance/db2icrt -cf node01 -cfnet node01

  -m node02 -mnet node02 -instance_shared_dir /db2sd_20140401

  -tbdev 192.168.18.2 -u db2fenc1 db2inst1

  -tbdev 官方解释为:Specifies a shared device path for a device that will act as a tiebreaker in the DB2 pureScale environment to ensure that the integrity of the data is maintained. 通俗的讲就是在member出现故障时,判断哪个member可以恢复服务,穷屌丝们就用网关IP来代替了,只要能 ping 通即可判断为可用。

  此时执行:# db2instance -instance db2inst1 -list可以查看

  node01:/opt/ibm/db2/V10.5/instance # mmlscluster

  GPFS cluster information

  ========================

  GPFS cluster name: db2cluster_20140401103900.site

  GPFS cluster id: 6571095102926235332

  GPFS UID domain: db2cluster_20140401103900.site

  Remote shell command: /var/db2/db2ssh/db2locssh

  Remote file copy command: /var/db2/db2ssh/db2scp

  GPFS cluster configuration servers:

  -----------------------------------

  Primary server: node01.site

  Secondary server: node02.site

  Node Daemon node name IP address Admin node name Designation

  ----------------------------------------------------------------------

  1 node01.site 192.168.18.201 node01.site quorum-manager

  2 node02.site 192.168.18.202 node02.site quorum-manager

  曾经出现报错:

  错误1、报2632-044、2632-068,此类错误为创建tsa domain时的错误,原因在于虚拟机是拷贝的,不是重新安装的。

  解决方法:#/usr/sbin/rsct/install/bin/recfgct

  启动实例

  node01:$/home/db2inst1/sqllib/adm/db2start

  怎么样,报错了吧,应该是SQL1721N

  SQL1721N Starting the DB2 database manager failed because of a problem with a configuration file that is needed by RDMA.受打击吧。

  你装完了实例启动不了,没关系,这么高档的玩意怎么能让你这么快启动啊。

  你得设置两个注册表变量才能用普通网络.

  $db2set DB2_SD_SOCKETS_RESTRICTIONS=false

  $db2set DB2_CA_TRANSPORT_METHOD=SOCKETS

  使用如下命令可以查看CF与member的状态。

  #db2instance -instance db2inst1 -list

  node01:/home/db2inst1 # db2instance -instance db2inst1 -list

  ID TYPE STATE HOME_HOST CURRENT_HOST ALERT PARTITION_NUMBER LOGICAL_PORT NETNAME

  -- ---- ----- --------- ------------ ----- ---------------- ------------ -------

  0 MEMBER STARTED node02 node02 NO 0 0 node02

  128 CF PRIMARY node01 node01 NO - 0 node01

  HOSTNAME STATE INSTANCE_STOPPED ALERT

  -------- ----- ---------------- -----

  node01 ACTIVE NO NO

  node02 ACTIVE NO NO

  此时你可以使用lssam查看tsa的两个节点的状态。

  #lssam

  添加成员

  将node03添加为另一个member,如果实例没有启动会自动启动实例,所以预先将上一步的两台机器上的db2set执行完毕先。

  node01:

  #/opt/ibm/db2/v10.5/instance/db2iupdt -d -add -m node03 –mnet node03 db2inst1

  #su - db2inst1 -c "db2start member 1"

  开启你的purescale之旅

  #db2sampl

  执行完毕后两台member都可以看到数据库sample,可以同时对库进行操作

联网虚拟机下LInux(终端)配置网络的方法

这几天在虚拟机vmware上部署centos系统,想通过内部联网用yum命令安装必需的软件,但是一直不能静态地址联网,今天终于找到一个方法centos内部设置IP,对外联网。设置过程如下:
1、首先是网络适配器设置为NAT;
2、然后是IP设置,修改/etc/sysconfig/network-scripts/ifcfg-eth0的内容为:
DEVICE=eth0
TYPE=Ethernet
ONBOOT=yes    #开机自动调用
BOOTPROTO=dhcp #动态ip设置,这个是内部上网的必须的设置
DEFROUTE=yes
NAME="eth0"
NETMASK=255.255.255.0
IPV4_FAILURE_FATAL=yes
IPV6INIT=no
UUID=5fb06bd0-0bb0-7ffb-45f1-d6edd65f3e03
DNS1=8.8.8.8
IPADDR=192.168.37.128
PREFIX=24
GATEWAY=192.168.37.1
LAST_CONNECT=1384407977

3、网关设置通过虚拟机里Edit->Virtual Network Editor->Vmnet8->NAT settings设置为192.168.37.1 最后重启网络配置,service xinetd restart 通过ping www.baidu.com测试能不能上网。 使用vmware配置centos 6.0+网络出现的各种问题解决方案 使用vmware配置centos 6.0+网络出现的各种问题解决方案 首先介绍下VM常用的两种网络连接方式和区别 一、桥接网络: 在这种模式下,VMWare虚拟出来的操作系统就像是局域网中的一台独立的主机,它可以访问网内任何一台机器。在桥接模式下,你需要手工为虚拟系统配置IP地址、子网掩码,而且还要和宿主机器处于同一网段,这样虚拟系统才能和宿主机器进行通信。同时,配置好网关和DNS的地址后,以实现通过局域网的网关或路由器访问互联网。 二、nat网络: 使用NAT模式,就是让虚拟系统借助NAT(网络地址转换)功能,通过宿主机器所在的网络来访问公网。也就是说,使用NAT模式可以实现在虚拟系统里访问互联网。NAT模式下的虚拟系统的TCP/IP配置信息是由VMnet8(NAT)虚拟网络的DHCP服务器提供的,无法进行手工修改,因此虚拟系统也就无法和本局域网中的其他真实主机进行通讯。采用NAT模式最大的优势是虚拟系统接入互联网非常简单,只需要宿主机器能访问互联网,你不需要配置IP地址,子网掩码,网关,但是DNS地址还是要根据实际情况填的。添加DNS地址除了在网卡属性中填写,还可以在虚拟机中的“虚拟网络编辑器”中的NAT选项卡中点击“编辑”按钮中来添加。 如果仅仅是让虚拟机能上网,两种模式都可以的,用桥接的话只要你在局域网内有合法的地址,比如你的ADSL猫是带路由功能的,如果是在单位,那就要网管给你合法IP才行(现在公司都是mac和ip绑定的)。 现在是主机和虚拟机互通,如果你的adsl带路由功能,那关闭虚拟机的dhcp,选桥接,检查2机是否分配同网段的IP,关闭防火墙。 换成自己的话就是: 桥接是虚拟机相当于一台独立的计算机,有自己的ip地址。 NAT是共享宿主机器的ip来访问网络,主要宿主计算机能访问网络,它就可以访问。 2、初次安装centos 配置网络 a、采用桥接来连接网络(适合有路由、交换机用户),配置静态IP来实现上网,局域网内通信 vim /etc/sysconfig/network-scripts/ifcfg-eth0   DEVICE="eth0" BOOTPROTO=none HWADDR="00:23:54:DE:01:69" ONBOOT="yes" TYPE="Ethernet" USERCTL=no IPV6INIT=no PEERDNS=yes NETMASK=255.255.255.0 IPADDR=192.168.1.110 GATEWAY=192.168.1.1 DNS1=8.8.8.8 HWADDR、IPADDR、GATEWAY 、DNS1实际配置还需要根据自己的网络环境来配置 2、clone克隆一个系统配置网络环境 克隆顾名思义就是从原来的系统上复制一份一模一样的系统,但我们想让克隆系统连接上互联网,则需要对网络环境做一些调整 当我们 service network restart 时会有错误提示消息 Bringing up interface eth0: Device eth0 does not seem to be present,delaying initialization. [FAILED] vim /etc/udev/rules.d/70-persistent-net.rules 记录下 eth1 的MAC地址 # PCI device 0x1022:0x2000 (pcnet32) SUBSYSTEM=="net", ACTION=="add", DRIVERS=="?*", ATTR{address}=="00:0c:29:96:50:1e", ATTR{type}=="1", KERNEL=="eth*", NAME="eth0"

# PCI device 0x1022:0x2000 (pcnet32) SUBSYSTEM=="net", ACTION=="add", DRIVERS=="?*", ATTR{address}=="00:0c:29:d5:65:00", ATTR{type}=="1", KERNEL=="eth*", NAME="eth1" 然后我们需要修改下 vim /etc/sysconfig/network-scripts/ifcfg-eth0 修改原DEVICE eth0 为 eth1 和对应的MAC地址 DEVICE="eth1" HWADDR="00:0C:29:d5:65:00" NM_CONTROLLED="yes" ONBOOT="yes" BOOTPROTO="dhcp" service network restart

ping www.baidu.com 能ping通说明已经连上网络

以上是关于虚拟机Linux上部署DB2pureScale过程的主要内容,如果未能解决你的问题,请参考以下文章

VMware虚拟机Linux系统部署weblogic上线详细全过程图解,weblogic(10.3.6)

Linux下的虚拟化部署

Linux下的虚拟化部署(脚本方式安装,快照和重置虚拟机)

linux系统部署安装过程

Vmware Workstation + Suse Linux 11 SP3 + db2 purescale V10.5

linux虚拟机搭建