openstack环境准备

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了openstack环境准备相关的知识,希望对你有一定的参考价值。

    众所周知,不管是公有云也好,私有云也罢,openstack都是赫赫有名的,那么今天就给大家分享一下oenstack官方目前较新版本mitaka的安装和配置,本次将会带大家配置openstack的Identity service、Compute service、Image service、Networking service、Block Storage service、Dashboard、Orchestration service、Shared File Systems service一些常用服务模块,以下是本实验的一些前期准备。


网络环境准备

公有网络:10.0.0.0/16

私有网络:172.16.0.0/16

管理网络:192.168.10.0/24


直连接口:111.40.215.0/28


由于我使用的是远程机房中的高配服务器虚拟化出来的三台kvm虚拟机做的本实验,所以我这里使用10段地址模拟公网网络,并且新增了一个直连接口给三台虚拟机各自配置了一个公网IP, 以方便直连三台虚拟机执行配置操作,希望大家能够本实验中的网络环境,以免影响你对openstack网络的理解,在此特此说明。


controller节点:

公网IP:10.0.0.10 管理IP:192.168.10.10 直连IP:111.40.215.8


compute节点:

公网IP:10.0.0.20 管理IP:192.168.10.20 直连IP:111.40.215.9


compute节点:

公网IP:10.0.0.31 管理IP:192.168.10.31 直连IP:111.40.215.10


由于是用kvm虚拟化出来的虚机做的实验,所以需要提前开启compute节点的嵌套虚拟化配置,否则无法在虚拟出来的compute节点上再次使用kvm创建虚机


kvm虚拟机开启嵌套虚拟化过程

[[email protected]_test ~]# modinfo kvm_intel | grep nested  //查看kvm宿主机能否支持嵌套虚拟化

parm:           nested:bool

[[email protected]_test ~]# cat /sys/module/kvm_intel/parameters/nested  //查看kvm宿主机是否开启嵌套虚拟化(Y是开启)

N

[[email protected]_test ~]#  //上述情况属于宿主机本身支持嵌套虚拟化,但没有开启,只需要系统级别开启即可


[[email protected]_test ~]# modprobe -r kvm_intel  //卸载kvm模块

[[email protected]_test ~]# echo $?

0

[[email protected]_test ~]# lsmod | grep kvm_intel

[[email protected]_test ~]# modprobe kvm_intel nested=1  //重载kvm模块,并开启kvm嵌套虚拟化功能

[[email protected]_test ~]# lsmod | grep kvm_intel

kvm_intel             162153  0 

kvm                   525259  1 kvm_intel

[[email protected]_test ~]# cat /sys/module/kvm_intel/parameters/nested  //检验kvm嵌套虚拟化是否开启成功

Y

[[email protected]_test ~]# 


修改vm虚拟机的配置文件,cpu标签中添加类似如下的内容

  <cpu mode=‘custom‘ match=‘exact‘>

    <model fallback=‘allow‘>Westmere</model>

    <vendor>Intel</vendor>

    <feature policy=‘require‘ name=‘lahf_lm‘/>

    <feature policy=‘require‘ name=‘xtpr‘/>

    <feature policy=‘require‘ name=‘cx16‘/>

    <feature policy=‘require‘ name=‘tm2‘/>

    <feature policy=‘require‘ name=‘est‘/>

    <feature policy=‘require‘ name=‘vmx‘/>

    <feature policy=‘require‘ name=‘pbe‘/>

    <feature policy=‘require‘ name=‘tm‘/>

    <feature policy=‘require‘ name=‘ht‘/>

    <feature policy=‘require‘ name=‘ss‘/>

    <feature policy=‘require‘ name=‘acpi‘/>

    <feature policy=‘require‘ name=‘ds‘/>

  </cpu>



kvm宿主机网络配置


br1使用eth0接口  openstack管理网络:192.168.10.0/24

br2使用eth1接口  openstack外部网络:10.0.0.0/16

br3使用eth3接口  openstack直辖接口:111.40.215.0/28


[[email protected]_test network-scripts]# cat ifcfg-eth0

DEVICE=eth0

ONBOOT=yes

BRIDGE=br1

[[email protected]_test network-scripts]# cat ifcfg-br1

TYPE=Bridge

BOOTPROTO=none

DEFROUTE=yes

PEERDNS=yes

PEERROUTES=yes

IPV4_FAILURE_FATAL=no

IPV6INIT=yes

IPV6_AUTOCONF=yes

IPV6_DEFROUTE=yes

IPV6_PEERDNS=yes

IPV6_PEERROUTES=yes

IPV6_FAILURE_FATAL=no

NAME=br1

DEVICE=br1

ONBOOT=yes

IPADDR=192.168.10.11

PREFIX=24

[[email protected]_test network-scripts]# cat ifcfg-eth1

DEVICE=eth1

ONBOOT=yes

BRIDGE=br2

[[email protected]_test network-scripts]# cat ifcfg-br2

TYPE=Bridge

BOOTPROTO=static

DEFROUTE=yes

PEERDNS=yes

PEERROUTES=yes

IPV4_FAILURE_FATAL=no

IPV6INIT=yes

IPV6_AUTOCONF=yes

IPV6_DEFROUTE=yes

IPV6_PEERDNS=yes

IPV6_PEERROUTES=yes

IPV6_FAILURE_FATAL=no

NAME=br2

DEVICE=br2

ONBOOT=yes

IPADDR=10.0.0.11

PREFIX=16

[[email protected]_test network-scripts]# cat ifcfg-eth2

DEVICE=eth2

ONBOOT=yes

BRIDGE=br3

[[email protected]_test network-scripts]# cat ifcfg-br3

TYPE=Bridge

BOOTPROTO=none

DEFROUTE=yes

PEERDNS=yes

PEERROUTES=yes

IPV4_FAILURE_FATAL=no

IPV6INIT=yes

IPV6_AUTOCONF=yes

IPV6_DEFROUTE=yes

IPV6_PEERDNS=yes

IPV6_PEERROUTES=yes

IPV6_FAILURE_FATAL=no

NAME=br3

DEVICE=br3

ONBOOT=yes

IPADDR=111.40.215.14

NETMASK=255.255.255.240

GATEWAY=111.40.215.1

[[email protected]_test network-scripts]# cat /etc/resolv.conf 

nameserver 223.5.5.5

[[email protected]_test network-scripts]# 



kvm虚机准备


[[email protected]_test ~]# virsh list --all

 Id    Name                           State

----------------------------------------------------

 -     base                           shut off


[[email protected]_test ~]# virt-clone -o base -n controller -f /kvm/images/controller.qcow2

Allocating ‘controller.qcow2‘                                                               | 400 GB  00:00:02     


Clone ‘controller‘ created successfully.

[[email protected]_test ~]# virt-clone -o base -n block1 -f /kvm/images/block1.qcow2

Allocating ‘block1.qcow2‘                                                               | 400 GB  00:00:02     


Clone ‘block1‘ created successfully.

[[email protected]_test ~]# virt-clone -o base -n compute1 -f /kvm/images/compute1.qcow2

Allocating ‘compute1.qcow2‘                                                                     | 400 GB  00:00:02     


Clone ‘compute1‘ created successfully.

[[email protected]_test ~]# virt-clone -o base -n compute2 -f /kvm/images/compute2.qcow2

Allocating ‘compute2.qcow2‘                                                                   | 400 GB  00:00:03     


Clone ‘compute2‘ created successfully.

[[email protected]_test ~]# virsh list --all

 Id    Name                           State

----------------------------------------------------

 -     base                           shut off

 -     block1              shut off

 -     compute1                    shut off

 -     compute2                    shut off

 -     controller                  shut off


[[email protected]_test ~]#

    至此,还只是一些最基础的准备,每个角色的基础配置我们统一放到各个具体角色配置过程中了。

本文出自 “爱情防火墙” 博客,请务必保留此出处http://183530300.blog.51cto.com/894387/1957705

以上是关于openstack环境准备的主要内容,如果未能解决你的问题,请参考以下文章

openstack环境准备

OpenStack入门篇之OpenStack环境准备

(转)基于OpenStack构建企业私有云实验环境准备

Openstack 环境准备篇

##1.Centos7环境准备--openstack

OpenStack Train:系统环境实施准备