有5种网络模式
Local模式:一般测试时使用,只需一台物理机即可。
GRE模式:隧道数量没有限制,性能有点问题。
Vlan模式:vlan数量有4096的限制
VXlan模式:vlan数量没有限制,性能比GRE好。
Flat模式:管理员创建租户直接到外网,不需要NAT了。
目前的几个项目正好用到了这种Flat模式的网络结构,我觉得小项目中还是比较方便的,Openstack的体系和框架越来越稳定,项目中用用虚拟 化和存储,直接借助Openstack还是很方便。这时网络结构可能就不需要用租户、或者在细分其它,Flat模式反而更简洁直观,毕竟外网IP直接到了 instance。
下面以我实验环境配置为例,存储部分配置省略。
环境:controller node一台 compute node一台 OS:Centos6.4
系统逻辑结构如下
一、controller node 配置
1、网络
[root@controller ~]# more /etc/hosts 192.168.3.98 controller 192.168.3.95 compute [root@controller ~]# more /etc/sysconfig/network-scripts/ifcfg-eth0 #外部网络 DEVICE=eth0 HWADDR=10:BF:48:B7:8F:A0 TYPE=Ethernet ONBOOT=yes BOOTPROTO=none IPADDR=192.168.3.98 NETMASK=255.255.255.0 GATEWAY=192.168.3.1 [root@controller ~]# more /etc/sysconfig/network-scripts/ifcfg-eth1 #vm 及node之间通讯使用 DEVICE=eth1 TYPE=Ethernet ONBOOT=yes [root@controller ~]# more /etc/sysconfig/network NETWORKING=yes HOSTNAME=controller GATEWAY=192.168.3.1 [root@controller ~]# more /etc/resolv.conf nameserver 202.102.134.68 nameserver 202.102.128.68
2、添加源 yum install wget cd /etc/yum.repos.d/ wget http://mirrors.163.com/.help/CentOS6-Base-163.repo yum list
3、LVM配置 [我单独拿出一个分区给cinder使用,同时我的控制和计算节点也都是cinder节点]
[root@controller ~]# umount /dev/sda5 [root@controller ~]# pvcreate /dev/sda5 Physical volume "/dev/sda5" successfully created [root@controller ~]# vgcreate cinder-volumes /dev/sda5 Volume group "cinder-volumes" successfully created
4、安装packstack
yum install -y http://rdo.fedorapeople.org/openstack/openstack-havana/rdo-release-havana.rpm yum install -y openstack-packstack yum -y update 重启机器
5、Packstack配置
创建一个应答文件 packstack --gen-answer-file=multi-node.txt 修改应答文件,由于我已经有专门的cinder volume, 所以不需要创建。如果没有手工创建cinder volume,那么这就不修改就可以。 CONFIG_CINDER_VOLUMES_CREATE=n #不在创建volume CONFIG_HEAT_INSTALL=y CONFIG_NAGIOS_INSTALL=y CONFIG_KEYSTONE_ADMIN_PW=admin CONFIG_NOVA_COMPUTE_HOSTS=192.168.3.98 #此处可以添加compute node IP ,号分割 CONFIG_NEUTRON_OVS_TENANT_NETWORK_TYPE=vlan CONFIG_NEUTRON_OVS_VLAN_RANGES=physnet1:100:200 CONFIG_NEUTRON_OVS_BRIDGE_MAPPINGS=physnet1:br-eth1 CONFIG_NEUTRON_OVS_BRIDGE_IFACES=br-eth1:eth1 CONFIG_HEAT_CLOUDWATCH_INSTALL=y CONFIG_HEAT_CFN_INSTALL=y CONFIG_NAGIOS_PW=admin
6、安装 [RDO的方式部署简直太简单了,我值截取部分]
[root@controller ~]# packstack --answer-file=multi-node.txt #安装过程,开始会输入密码,多节点的话会依此类推。安装过程有可能因为源的原因中断,可以重复运行。 Welcome to Installer setup utility Packstack changed given value to required value /root/.ssh/id_rsa.pub Installing: Clean Up... [ DONE ]
7、 装完后,有可能由于RDO的问题,没有创建br-ex,需要我们手工来创建。
【目前看2014年后,redhat已经修复这个bug,剩下的只是我们对应的创建网卡配置文件和启动port】
[root@controller network-scripts]# more ifcfg-br-ex DEVICE=br-ex IPADDR=192.168.3.98 PREFIX=24 GATEWAY=192.168.3.1 DNS1=202.102.134.68 ONBOOT=yes 修改 /etc/sysconfig/network-scripts/ifcfg-eth0, 注意:一定要加上eth0 的mac地址,不然会出错。 [root@controller network-scripts]# more ifcfg-eth0 DEVICE=eth0 HWADDR=00:90:27:E0:61:14 #TYPE=Ethernet ONBOOT=yes #BOOTPROTO=none #IPADDR=192.168.3.98 #NETMASK=255.255.255.0 ovs-vsctl add-port br-ex eth0; service network restart 当运行 ovs-vsctl add-port的时候,网络就会中断,所以你两条命令需要一起执行。
8、改变桥接网络配置,此处主要修改neutron配置,我们的flat网络模式是依赖在vlan的基础上改进的,也是此文重点之处。
编辑 vi /etc/neutron/plugins/openvswitch/ovs_neutron_plugin.ini 原安装完初始内容如下 [OVS] network_vlan_ranges=physnet1:100:200 tenant_network_type=vlan enable_tunneling=False integration_bridge=br-int bridge_mappings=physnet1:br-eth1 修改成 [OVS] network_vlan_ranges=physnet1,physnet2:100:200 tenant_network_type=vlan enable_tunneling=False integration_bridge=br-int bridge_mappings=physnet1:br-ex,physnet2:br-eth1 然后重启相关服务,如果为省事,重启机器 之后检查网络和桥接情况查询 [root@controller ~]# ovs-vsctl show
9、创建Flat模式网络,目前都可以在web界面操作
[root@controller ~(keystone_admin)]# neutron net-create Public --provider:network_type flat --provider:physical_network physnet1 Created a new network: +---------------------------+--------------------------------------+ | Field | Value | +---------------------------+--------------------------------------+ | admin_state_up | True | | id | 3c5eca6f-aeb4-451b-9fa2-ed70d8bab9e9 | | name | Public | | provider:network_type | flat | | provider:physical_network | physnet1 | | provider:segmentation_id | | | shared | False | | status | ACTIVE | | subnets | | | tenant_id | 2cfb66b8a9524cc68c2e1bf424bda943 | +---------------------------+--------------------------------------+ [root@controller ~(keystone_admin)]# neutron subnet-create Public 192.168.3.0/24 --disable-dhcp --allocation-pool start=192.168.3.100,end=192.168.3.110 Created a new subnet: +------------------+----------------------------------------------------+ | Field | Value | +------------------+----------------------------------------------------+ | allocation_pools | {"start": "192.168.3.100", "end": "192.168.3.110"} | | cidr | 192.168.3.0/24 | | dns_nameservers | | | enable_dhcp | False | | gateway_ip | 192.168.3.1 | | host_routes | | | id | 8d089754-3764-4249-98f2-402f62a872bc | | ip_version | 4 | | name | | | network_id | 3c5eca6f-aeb4-451b-9fa2-ed70d8bab9e9 | | tenant_id | 2cfb66b8a9524cc68c2e1bf424bda943 | +------------------+----------------------------------------------------+
10、cinder配置
查询部署的服务是否正常 [root@controller ~(keystone_admin)]# cinder-manage service list Binary Host Zone Status State Updated At cinder-volume controller nova enabled 2014-02-10 07:42:22 cinder-scheduler controller nova enabled 2014-02-10 07:42:30 [root@controller ~(keystone_admin)]# cinder-manage host list host zone controller nova 然后查询论证是否成功 [root@controller ~(keystone_admin)]# lvdisplay --- Logical volume --- LV Path /dev/cinder-volumes/volume-0a9cc8fc-d3fd-4dd1-9501-9c3813056415 LV Name volume-0a9cc8fc-d3fd-4dd1-9501-9c3813056415 VG Name cinder-volumes LV UUID zbGuJa-3bdk-V6UZ-ZBsx-FWeA-dlys-qMphas LV Write Access read/write LV Creation host, time controller, 2014-02-10 15:46:44 +0800 LV Status available # open 1 LV Size 5.00 GiB Current LE 1280 Segments 1 Allocation inherit Read ahead sectors auto - currently set to 4096 Block device 253:0 [root@controller ~(keystone_admin)]# cinder list +--------------------------------------+-----------+--------------+------+-------------+----------+-------------+ | ID | Status | Display Name | Size | Volume Type | Bootable | Attached to | +--------------------------------------+-----------+--------------+------+-------------+----------+-------------+ | 0a9cc8fc-d3fd-4dd1-9501-9c3813056415 | available | oak | 5 | SSD | false | | +--------------------------------------+-----------+--------------+------+-------------+----------+-------------+ [root@controller ~(keystone_admin)]# 此时,启动一个instance 可以在云硬盘中,选择挂载,挂载到相应的instance上。
二、compute node 配置
1、网络,参考控制节点,其次检查ntp,时间是否与控制节点同步
2、添加源和Openstack软件环境都参考控制节点的前期准备
3、RDO应答文件,填写了compute node IP后,一般nova-compute、openstack-neutron-openvswitch和MySQL-python都已经安装
4、因为我的环境是Flat模式,所以此处neutron配置文件还需修改,然后创建相应的桥
修改neutron
vi /etc/neutron/plugins/openvswitch/ovs_neutron_plugin.ini [OVS] network_vlan_ranges=physnet1,physnet2:100:200 tenant_network_type=vlan enable_tunneling=False integration_bridge=br-int bridge_mappings=physnet1:br-ex,physnet2:br-eth1
创建桥
[root@compute neutron]# cd /etc/sysconfig/network-scripts/ [root@compute network-scripts]# more ifcfg-br-ex DEVICE=br-ex IPADDR=192.168.3.95 PREFIX=24 GATEWAY=192.168.3.1 DNS1=202.102.134.68 ONBOOT=yes [root@compute network-scripts]# more ifcfg-eth0 DEVICE=eth0 HWADDR=00:90:27:E0:61:14 #TYPE=Ethernet ONBOOT=yes #BOOTPROTO=none #IPADDR=192.168.3.95 #NETMASK=255.255.255.0 #GATEWAY=192.168.3.1 [root@compute network-scripts]# ovs-vsctl add-br br-ex [root@compute network-scripts]# ovs-vsctl add-port br-ex eth0; service network restart [root@compute network-scripts]# ovs-vsctl show 3875869a-c249-4514-aadc-b95b92e7f304 Bridge br-ex Port br-ex Interface br-ex type: internal Port "eth0" Interface "eth0" Bridge br-int Port br-int Interface br-int type: internal ovs_version: "1.11.0"
5、cinder 配置
[root@compute ~]# umount /dev/sda4 [root@compute ~]# pvcreate /dev/sda4 Physical volume "/dev/sda4" successfully created [root@compute ~]# vgcreate cinder-volumes /dev/sda4 Volume group "cinder-volumes" successfully created yum install openstack-cinder openstack-utils vi /etc/cinder/api-paste.ini 参考拷贝控制节点内容 [filter:authtoken] paste.filter_factory = keystoneclient.middleware.auth_token:filter_factory # signing_dir is configurable, but the default behavior of the authtoken # middleware should be sufficient. It will create a temporary directory # in the home directory for the user the cinder process is running as. #signing_dir = /var/lib/cinder/keystone-signing admin_tenant_name=services auth_host=192.168.3.98 service_port=5000 auth_uri=http://192.168.3.98:5000/ auth_port=35357 service_host=192.168.3.98 service_protocol=http admin_user=cinder auth_protocol=http admin_password=570fe4a9f7bd4e2d # openstack-config --set /etc/cinder/cinder.conf DEFAULT rpc_backend cinder.openstack.common.rpc.impl_qpid # openstack-config --set /etc/cinder/cinder.conf DEFAULT qpid_hostname 192.168.3.98 vi /etc/cinder/api-paste.ini 参考拷贝控制节点内容 sql_connection=mysql://cinder:0ba1a335f2834e1a@192.168.3.98/cinder qpid_reconnect_timeout=0 qpid_reconnect_limit=0 qpid_reconnect=True qpid_reconnect_interval_max=0 qpid_reconnect_interval_min=0 sql_idle_timeout=3600 qpid_reconnect_interval=0 notification_driver=cinder.openstack.common.notifier.rpc_notifier vi /etc/tgt/targets.conf 增加如下内容 include /etc/cinder/volumes/* # service openstack-cinder-volume start # service tgtd start # chkconfig openstack-cinder-volume on # chkconfig tgtd on [root@controller ~(keystone_admin)]# cinder-manage service list Binary Host Zone Status State Updated At cinder-volume controller nova enabled 2014-02-11 06:31:08 cinder-scheduler controller nova enabled 2014-02-11 06:31:06 cinder-volume compute nova enabled 2014-02-11 06:30:40 [root@controller ~(keystone_admin)]#
相关推荐
Centos6.5部署Openstack云平台(基本环境配置、配置认证服务kesytone、配置镜像服务Glance、配置计算服务、配置网络服务、安装dashboard)
资源名称:CentOS 6.5 x64下安装19实体节点Hadoop 2.2.0集群配置指南内容简介: CentOS 6.5 x64下安装19实体节点Hadoop 2.2.0集群配置指南主要讲述的是CentOS 6.5 x64下安装19实体节点Hadoop 2.2.0集群配置指南;...
### Centos6.5镜像文件下载与安装详解 #### 一、CentOS 6.5简介 CentOS是Community ENTerprise Operating System的缩写,是一个基于Linux内核的操作系统,它主要提供了企业级的计算环境。CentOS 6.5作为CentOS 6...
在本篇中,我们将深入探讨如何在64位的CentOS 6.5操作系统上安装OpenStack,一个广泛使用的开源云平台。OpenStack由多个组件组成,这些组件协同工作,为用户提供灵活、可扩展的云计算服务。让我们逐一了解这些组件,...
centos 6.5 telnet 客户端 安装文件 rpm包 centos 6.5 telnet 服务端 安装文件 rpm包 http://vault.centos.org/6.5/os/x86_64/Packages/ 从官网下载亲测可以用
### CentOS6.5 + OpenStack + KVM 云平台部署详解 #### 一、项目概述与环境准备 本文档旨在详细介绍如何在CentOS 6.5操作系统上搭建一个基于OpenStack Havana版本的KVM虚拟化云平台。此文档将涵盖从环境搭建到各个...
总结,CentOS 6.5上的一键安装MySQL 5.6涉及了系统更新、依赖安装、MySQL仓库配置、服务安装、配置优化以及安全设置等多个环节。每个步骤都需要仔细操作,确保系统的稳定性和数据库的安全性。通过这个过程,你不仅...
在本篇《CentOS6.5_CloudStack_KVM安装手册》中,我们将详细探讨如何在CentOS 6.5操作系统上使用CloudStack管理和部署基于KVM的虚拟化环境。CloudStack是一个开源的云基础设施管理平台,而KVM(Kernel-based Virtual...
根据提供的文件信息,本文将详细解析CentOS 6.5 + OpenStack + KVM云平台部署的相关知识点,包括但不限于主机分配、基础配置、NTP服务安装配置等。 ### 一、主机分配 #### 主机信息 - **主机名**:openstack - **...
CentOs6.5镜像源
标题中的"CentOS 6.5镜像下载地址,OpenStack专用,qcow2格式"指的是一款专为OpenStack设计的CentOS 6.5操作系统镜像文件,该文件采用了qcow2作为磁盘映像格式。qcow2是一种高效的虚拟磁盘格式,它在OpenStack这样的...
虚拟机是安装 CentOS 6.5 的一种常见方式,使用虚拟机可以方便地在物理机上运行多个操作系统。虚拟机安装需要下载相应的虚拟机软件和 CentOS 镜像文件。 1. 下载虚拟机软件 首先,需要下载虚拟机软件,例如 VMware...
"VMware创建安装CentOS6.5(配截图)" VMware 是一款功能强大且流行的虚拟机软件,用户可以在 VMware 中创建多个虚拟机,每个虚拟机都可以独立运行不同的操作系统。CentOS6.5 是一个基于 Linux 的开源操作系统,...
"U盘安装CentOS 6.5" U盘安装CentOS 6.5是相对于光盘安装的一种更快速、更方便的安装方式。使用U盘安装CentOS 6.5可以跳过刻盘的步骤,速度也更快,而且没有硬件限制(新机器USB口都有,光驱不一定有)。 U盘安装...
CentOS 6.5 的 软件源很多官方已经停止维护,该文件包内配置好的yum源是可以正常使用的。将原/etc/yum.repos.d/目录下原来的 .repo 备份, 然后把本文件包内的repo文件复制过去, yum clean all 后,再 yum ...
在本教程中,我们将深入探讨如何使用VMware安装CentOS6.5,这是一个适用于初学者的详细步骤指南。首先,了解Linux操作系统的基本概念是至关重要的。Linux是一个开源操作系统,其核心是Linux内核,而CentOS是基于...
### CentOS 6.5 for Oracle 的安装与配置详解 #### 一、概述 本文将详细介绍如何在服务器上安装并配置CentOS 6.5系统,特别是针对Oracle数据库环境的优化和配置方法。CentOS 6.5是一款稳定且广泛使用的Linux发行版...