精华内容
下载资源
问答
  • openstack安装
    千次阅读
    2022-01-18 18:16:14

    OpenStack 因为架构复杂,配置较多,一向以安装部署过程困难闻名。虽然 OpenStack 社区前后涌现出了很多的自动化部署工具,但是对于普通用户,特别是新人来说,上手仍然有难度。

    使用本文介绍的基于 Kolla-Ansible 构建的操作系统镜像,用户只需执行极少命令即可完成环境的部署。

    安装 OpenStack 可能有多麻烦

    选择项太多

    OpenStack 诞生之时,在运维自动化领域已经存在多个配置工具,不同的团队有不同的技术偏好,因此他们纷纷选择不同的工具来实现 OpenStack 的自动化安装:

    • Ansible
    • Puppet
    • Chef
    • Salt

    OpenStack 可以部署在多个主流的 Linux 系统中:

    • Ubuntu
    • RHEL/CentOS
    • SUSE/openSUSE

    OpenStack 架构也很灵活,除了核心模块外,还有很多可选模块;

    • Swift
    • Cinder
    • Neutron
    • Heat

    核心模块本身也有多种可选配置,比如说网络项目 Neutron,可以选择:

    • Linux Bridge
    • OpenvSwitch

    OpenStack 是一个基于 Python 的开源项目,意味着除了从软件包安装外,还会有使用 pip install 从 pypi 安装 Python 模块,以及从 git 源码仓库下载源码安装的需求:

    • rpm/deb 源
    • pypi 源
    • git 源

    开源社区的工具一般比较中立,各种场景都要照顾到,也不会特意去强调哪种方式更好,所以对于新人来说,如何选择容易上手的部署方式是一个难题。

    OpenStack 针对开发快速上手有一个专门的项目 devstack,但是由于众所周知的国情,会遇到下面的网络问题。

    貌似现在 devstack 把 rejoin 命令去掉了,这样机器重启后继续使用很不方便

    网络是大问题

    开源的部署工具一般都是基于软件包仓库或者是代码仓库,需要在线下载软件包或源码安装。这些仓库基本都是国外的网站。这就又涉及到几个问题:

    一个是下载速度的问题,虽然近些年国内出现了很多镜像站,但是配置软件安装源在不同的操作系统中是不同的操作命令,不是所有人都能熟练完成。
    不是所有的自动化安装工具的作者(绝大部分是老外)会意识到网络会是个问题,所以安装文档里很少会说明安装源的设置,甚至不会把它们作为可配参数提取出来。

    再者,随着版本的升级和时间推移,包括社区的变动,很多软件安装源的 URL 会发生变更,并不是长期保证不变的。也就是说,基于网络安装的文档是有时效性的,可能过1、2年就不具备可操作性了。

    此外,即便网络状况很好,安装一切顺利,如果要反复多次搭建,每次都需要下载安装也会比较耗时间。

    版本变化快

    OpenStack 的版本发行计划是每半年 release 一个版本。听上去没那么频繁,实际上对于这种超大型的项目来说,可能你当前版本还没完全吃透呢,又来新版本了。所以,目前网上很多的安装工具和安装教程也都过时了。

    这里给大家提供的是次新的 Stein 版本,可以体验更多的新特性。

    安装 OpenStack 可以有多简单

    下面给大家介绍的是基于 Kolla-Ansible 的容器化部署方式。

    常规的安装文档中,Kolla-Ansible 本身也是需要安装部署的,它用到的 docker 容器的镜像也需要从网络上拉取,为了进一步简化操作,这里将 Kolla-Ansible 工具和镜像包和 CentOS 系统镜像一起打包,重新构建生成一个可引导的 .iso 镜像。

    本安装方式具有的优点:

    • 从零启动
    • 离线安装
    • 极少命令
    • 组件可选
    • 装完即用
    • 轻松升级

    关于 Kolla 的一些高级特性,如多节点并行安装,高可用部署,在线升级扩容等,因条件所限,本次无法展示。

    准备一台机器

    大部分人可能没有空闲的机器专门来安装 Linux 系统,这里我们使用虚拟机也可以完成安装。

    选择一个适合你的系统的虚拟机管理软件即可:

    VirtualBox (推荐)
    VMWare
    Hyper-V
    其它

    下载 .iso 镜像文件

    微信搜索并关注公众号 DavyCloud,或者扫描下面图中的二维码,获取下载链接

    创建虚机

    先配置两个网络:

    • 两个 host-only 的网络,
    • 其中一个网络的地址段设置为 10.10.10.1/24

    请添加图片描述

    新建一个虚拟机,满足以下条件:

    • 内存 8GB
    • 启动盘选择 davycloud-openstack-stein.iso
    • 磁盘空间 >= 40GB
    • 两个网卡分别配置两个 host-only 的网络,
    • 第一块网卡的地址段对应到 10.10.10.1/24 那一个

    请添加图片描述

    修改启动选项

    进入引导菜单时,有两个选项:

    • 安装 Deploy 节点
    • 安装 Worker 节点 (默认)
      使用方向键移动光标,选择第 1 个,按下回车键开始安装系统。
      请添加图片描述

    为什么要把默认选项放在第 2 个?
    因为部署节点只需要安装一个即可,而工作节点可能会有很多个。
    系统进入自动安装流程,整个过程无需任何交互。系统安装完毕后会弹出光盘并自动重启。

    第一次启动过程会比较耗时,请耐心等待。

    配置修改

    如果虚机的网络地址段按要求配置,对 OpenStack 的模块也没有什么特别要求,这里可以不做任何改动,直接跳到下一步骤即可。

    为了不让本文变得冗长,这里也不具体介绍修改配置的方法,仅简单说明相关情况。

    All-In-One 安装场景默认安装 OpenStack 核心模块和公共组件,包括:

    • MySQL
    • RabbitMQ
    • Memcached
    • Keystone
    • Glance
    • Neutron
    • Nova
    • Heat
      注意到核心模块里包含了初级用户平常比较少用的 Heat 服务,而比较常用的卷存储服务 Cinder 却没有作为核心模块包含在内。如果需要安装 Cinder,需要为其指定一个 backend,不同的存储方式可能还有其它额外的配置条件,这里先保持默认不安装。

    同时注意,即使是 All-In-One 场景,默认也是启用了 HAProxy 和浮动 IP,也就是需要安装:

    • HAProxy
    • Keepalived
      启用 HAProxy 不需要什么额外操作,唯一需要的就是多占用一个 IP 地址。启用浮动 IP 可以使得后续控制节点的横向扩展更简单。因此,除非确定就是一直作为单节点环境使用,否则推荐保留默认配置。

    值得注意的是,在某些云环境下(比如 OpenStack),这个浮动地址可能会面临安全组的问题,需要一些额外的配置。后面有机会再详细说明。

    命令三连:prechecks、deploy、post-deploy

    使用用户名 kolla,密码 kollapass 登录系统,并切换到 root 用户:

    $ sudo -s
    # cd /root
    

    下面的所有操作都使用 root 用户执行,全程只需要执行三个命令:

    下面每个命令都是执行相应的 ansible playbook,所以屏幕会有大量打印。

    安装前的环境检测,检查是否必要条件都已经满足

    # kolla-ansible prechecks
    

    开始安装,视机器性能和选择安装模块数量,20分钟到40分钟不等,耐心等待即可

    # kolla-ansible deploy
    

    安装后的一点点收尾工作

    # kolla-ansible post-deploy
    

    上面的命令执行完成后,会在 /etc/kolla 目录下生成 admin-openrc.sh 文件,其中包含了登录所需要的用户名和密码信息。

    使用 openstack 命令

    以前的 OpenStack 版本每个模块都提供自己的客户端命令,例如 nova, glance等,现在基本都统一使用 openstack 命令。以前的命令有的还能用,比如 nova,有的已经不能用了,比如 keystone

    要使用 openstack 命令,必须先要安装各模块的客户端包。而我们的宿主机系统里面只安装了 Docker 和 Ansible。Kolla 构建的 docker 镜像中,已经在 openstack-base 这个基础镜像中安装了所有的客户端包,这意味着:

    1. 我们完全没有必要在宿主机单独安装客户端
    2. 进入任意一个 OpenStack 服务的容器里,都可以使用客户端

    但是,每次手动敲命令进入容器里毕竟不够方便,所以我在镜像中内置了一个 bash 脚本,取名就叫 openstack,其中的内容是启动一个容器,使用方法和原本 openstack 命令一致:

    
    # source /etc/kolla/admin-openrc.sh    <--仍然需要先导入环境变量
    # openstack                 <-- 直接敲命令
    (openstack)
    

    登录 horizon

    因为随机生成的 admin 用户密码很长,VirtualBox 的控制台不支持复制,所以这时候你最好先找个 SSH 客户端登入虚拟机中把密码拷贝出来

    请添加图片描述
    horizon_login.png

    更多相关内容
  • openstack安装

    2018-03-08 11:02:30
    里面详细讲述了openstack安装过程,但是这个版本是关于openstack icehouse的安装
  • openstack安装教程

    2017-09-03 20:37:06
    open stack安装教程,讲述了如何在Linux下配置安装open stack以及如何解决一些问题,本资料由谢不全,但是基本的功能都能搭建起来,希望能够帮助到大家。
  • openstack安装报告

    2018-02-09 16:35:25
    openstack安装报告,openstack基础安装和部署的方法文档
  • openstack 安装

    2018-08-02 16:37:50
    在kilo环境下 YUM 安装 openstack 在kilo环境下 YUM 安装 openstack
  • Openstack安装文档

    2018-06-06 10:29:56
    安装Octaka版本的Openstack OpenStack是一个开源的云计算管理平台项目,由几个主要的组件组合起来完成具体工作。OpenStack支持几乎所有类型的云环境,项目目标是提供实施简单、可大规模扩展、丰富、标准统一的云计算...
  • openstack安装文档

    2018-11-28 22:37:24
    本实验是在Vmware Workstation下创建的单台Ubuntu服务器版系统中,利用devstack部署的单节点Openstack Pike版。
  • openstack安装Windows虚拟机需要集成virtio驱动,文档为操作步骤
  • 全网最详细的openstack安装教程

    万次阅读 热门讨论 2021-08-12 14:38:14
    全网最详细的openstack安装教程 文件目录 全网最详细的openstack安装教程 文件目录 openstack 官方文档介绍 环境准备: 环境部署 1)安装centos8并修改ip地址(三台都做) 2)同步时间NTP服务(三台都做) ...

    前言:  相信很多安装过openstack的人都知道,openstack的安装过程很麻烦,总是需要修改文件,并且还有一堆报错信息,遇到一些报错也不知道怎么去解决,所以这次就记录并分享一下如何完全安装openstack以及它的组件。

    环境介绍:   本文使用的环境是centos8,以及openstack的v版,如有错误,欢迎大家指出。😃😃

    目录

    全网最详细的openstack安装教程

    openstack 官方文档介绍

    环境准备:

    环境部署

    1)安装centos8并修改ip地址(三台都做)

    2)同步时间NTP服务(三台都做)

    3)安装openstack的库(三台都做)

    4)安装sql数据库(control节点)

    5)消息队列安装(control节点)

    6)memcached安装(control节点)

    7)etcd的安装(control节点)

    openstack部署

    keystone的安装

    glace的安装

    placement的安装

    nova的安装!!!!

    neutron的安装!!!


    openstack 官方文档介绍

    官方文档最主要的界面就是这个了,如果英文很好bb可以直接看文档去安装openstack,链接放在下面了,如果英语不行又想安装的bb们继续往下看。

    官方文档中可以查询到openstack的其他版本安装。

    以下为最小安装配置(可能不够),实线为必选节点,虚线为可选节点

    环境准备:

    本文使用了一台control节点,2台compute节点的架构,各虚拟机的配置如图:

    control内存硬盘ip系统环境
    8GB100G192.168.111.126centos8+openstack v版

    compute1(compute2与compute1配置完全相同)内存硬盘ip系统环境
    8GB100G192.168.111.126centos8+openstack v版

    环境部署

    1)安装centos8并修改ip地址(三台都做)

    vim /etc/sysconfig/network-scripts/ifcfg-ens192

    添加并修改如下代码 如图:

    配置名称解析:(三台都做)

    1.将control节点主机名设置为control,compute1(2)节点主机名设置为compute1(2)

    vim /etc/hosts
    #在下面添加如下内容(记得修改为自己的ip地址)
    192.168.111.126 control
    192.168.111.127 compute1
    192.168.111.128 compute2

    2.配置完成后,验证是否成功

    ping www.baidu.com
    ping control
    ping compute1
    ping compute2

    如出现以下结果说明成功

    2)同步时间NTP服务(三台都做)

    1.在control中:

    1.1安装chrony软件包

    yum install chrony

    1.2修改chrony.conf文件

    1.
    vim /etc/chrony.conf
    在任意位置添加 :server NTP_SERVER iburst
    2.
    修改Allow NTP client access from local network此选项,改为(自己的ip.0)
    allow 192.168.111.0

    如图:

    1.3然后启动ntp服务

    systemctl enable chronyd.service
    systemctl start chronyd.service

    2.在compute上

    2.1 安装软件包

    yum install chrony

    2.2 配置文件

    1.
    vim /etc/chrony.conf
    在任意位置添加 :server control iburst
    2. 
    注释掉该行 pool 2.debian.pool.ntp.org offline iburst

    2.3 重启服务

    systemctl enable chronyd.service
    systemctl start chronyd.service

    验证操作:输入以下命令,出现如图结果说明成功

    chronyc sources

    control:

    其他节点:

    3)安装openstack的库(三台都做)

    1.安装os的库,centos8需要开powertools

    yum install centos-release-openstack-victoria
    yum config-manager --set-enabled PowerTools

    2.安装完成后

    2.1 升级软件包

    yum upgrade

    2.2 安装客户端

    centos7:

    yum install python-openstackclient

    centos8:

    yum install python3-openstackclient

    2.3安装os的selinux

    yum install openstack-selinux

    4)安装sql数据库(control节点)

    1.安装软件包

    yum install mariadb mariadb-server python2-PyMySQL
    1. 创建和编辑/etc/my.cnf.d/openstack.cnf文件 如图

    vim /etc/my.cnf.d/openstack.cnf
    添加内容:
    [mysqld]
    bind-address = 10.0.0.11
    default-storage-engine = innodb
    innodb_file_per_table = on
    max_connections = 4096
    collation-server = utf8_general_ci
    character-set-server = utf8

    1. 完成安装

      启动服务

    systemctl enable mariadb.service
    systemctl start mariadb.service

    设置密码

    mysql_secure_installation

    5)消息队列安装(control节点)

    1. 安装软件包(需要配置epel的源,要不会报错)

      yum install rabbitmq-server
    2. 启动消息队列服务并配置它在系统启动时启动:

      systemctl enable rabbitmq-server.service
      systemctl start rabbitmq-server.service
    3. 添加openstck用户:

      abbitmqctl add_user openstack abcdefg
    4. 允许用户的配置、写入和读取访问权限 openstack

      rabbitmqctl set_permissions openstack ".*" ".*" ".*"

    6)memcached安装(control节点)

    1.安装软件包

    centos7

    yum install memcached python-memcached

    centos8

    yum install memcached python3-memcached

    2.配置文件 如图

    vim /etc/sysconfig/memcached
    
    修改
    OPTIONS="-l 127.0.0.1,::1,control"

    3.启动 Memcached 服务并配置它在系统启动时启动:

    systemctl enable memcached.service
    systemctl start memcached.service

    7)etcd的安装(control节点)

    1.安装软件包

    yum install etcd

    2.配置文件 如图所示

    vim /etc/etcd/etcd.conf修改为下图这样即可
     
    

    3.启动服务

    systemctl enable etcd
    systemctl start etcd

    完成这步后 恭喜你的环境配置完成了,现在可以来安装openstack的组件了!!!!

    openstack部署

    keystone的安装

    1.首先创建一个数据库,用root的身份去连接

    mysql -u root -p
    

    2.进入数据库后,创建keystone的数据库:如图所示

    MariaDB [(none)]> CREATE DATABASE keystone;

    3.给访问权限

    MariaDB [(none)]> GRANT ALL PRIVILEGES ON keystone.* TO 'keystone'@'localhost' \
    IDENTIFIED BY '自己的密码';
    MariaDB [(none)]> GRANT ALL PRIVILEGES ON keystone.* TO 'keystone'@'%' \
    IDENTIFIED BY '自己的密码';

    4.退出数据库

    1. 安装keystone的软件包

      yum install openstack-keystone httpd python3-mod_wsgi
    2. 配置文件如图:

      vim /etc/keystone/keystone.conf
      
      找到database部分
      添加
      connection = mysql+pymysql://keystone:自己密码@control/keystone
      再找到 token部分
      添加
      provider = fernet

    3. 退出文件,填充数据库

      su -s /bin/sh -c "keystone-manage db_sync" keystone
    4. 初始化fernet库

      keystone-manage fernet_setup --keystone-user keystone --keystone-group keystone
      keystone-manage credential_setup --keystone-user keystone --keystone-group keystone
    5. 身份服务

       keystone-manage bootstrap --bootstrap-password (自己的密码) \
        --bootstrap-admin-url http://control:5000/v3/ \
        --bootstrap-internal-url http://control:5000/v3/ \
        --bootstrap-public-url http://control:5000/v3/ \
        --bootstrap-region-id RegionOne
    6. 配置http服务器,如图

      vim /etc/httpd/conf/httpd.conf
      在下图位置添加
      ServerName control
      
      然后执行此命令
      ln -s /usr/share/keystone/wsgi-keystone.conf /etc/httpd/conf.d/

    7. 启动http服务

      systemctl enable httpd.service
      systemctl start httpd.service

      设置临时变量(关机就没了!!)

      export OS_USERNAME=admin
      export OS_PASSWORD=(自己的密码)
      export OS_PROJECT_NAME=admin
      export OS_USER_DOMAIN_NAME=Default
      export OS_PROJECT_DOMAIN_NAME=Default
      export OS_AUTH_URL=http://control:5000/v3
      export OS_IDENTITY_API_VERSION=3

      安装完成!!!!

    12.验证操作:

    1.新建域 如图所示

    openstack domain create --description "An Example Domain" example

    2.新建一个服务项目,如图所示

    openstack project create --domain default \
      --description "Service Project" service

    3.新建一个项目和用户 如图所示

    创建myproject项目

    openstack project create --domain default \
      --description "Demo Project" myproject

    创建myuser用户:

    openstack user create --domain default \
      --password-prompt myuser1

    创建myrole角色

    openstack role create myrole

    myrole角色添加到myproject项目和myuser用户:

    openstack role add --project myproject --user myuser myrole

    4.验证:

    取消设置临时OS_AUTH_URLOS_PASSWORD 环境变量:

    unset OS_AUTH_URL OS_PASSWORD

    请求身份验证令牌,如图所示

    openstack --os-auth-url http://control:5000/v3 \
      --os-project-domain-name Default --os-user-domain-name Default \
      --os-project-name admin --os-username admin token issue

    作为myuser在上一节中创建的用户,请求身份验证令牌:

    openstack --os-auth-url http://control:5000/v3 \
      --os-project-domain-name Default --os-user-domain-name Default \
      --os-project-name myproject --os-username myuser1 token issue
    

    出现上图结果代表安装成功!

    glace的安装

    1.首先创建一个数据库,用root的身份去连接

    mysql -u root -p
    

    2.进入数据库后,创建glance的数据库:如图所示

    MariaDB [(none)]> CREATE DATABASE glance;

    3.给与访问权限

    MariaDB [(none)]> GRANT ALL PRIVILEGES ON glance.* TO 'glance'@'localhost' \
      IDENTIFIED BY 自己密码;
    MariaDB [(none)]> GRANT ALL PRIVILEGES ON glance.* TO 'glance'@'%' \
      IDENTIFIED BY 自己密码;

    4.创建glance用户 如图所示

    openstack user create --domain default --password-prompt glance
    

    5.将admin角色添加到glance用户和 service项目:

    openstack role add --project service --user glance admin

    6.创建glance服务,如图所示

    openstack service create --name glance \
      --description "OpenStack Image" image

    7.创建api端点

    openstack endpoint create --region RegionOne \
      image public http://control:9292
      
    openstack endpoint create --region RegionOne \
      image internal http://control:9292
      
    openstack endpoint create --region RegionOne \
      image admin http://control:9292

     

    安装软件包

    yum install openstack-glance

    配置文件

    vim /etc/glance/glance-api.conf
    1.
    [database]
    connection = mysql+pymysql://glance:自己的密码@control/glance
    
    2.
    [keystone_authtoken]
    www_authenticate_uri  = http://control:5000
    auth_url = http://control:5000
    memcached_servers = control:11211
    auth_type = password
    project_domain_name = Default
    user_domain_name = Default
    project_name = service
    username = glance
    password = (自己的密码)
    
    3.
    [paste_deploy]
    flavor = keystone
    
    4.
    [glance_store]
    stores = file,http
    default_store = file
    filesystem_store_datadir = /var/lib/glance/images/
    

    同步数据库

    su -s /bin/sh -c "glance-manage db_sync" glance

    启动服务

    systemctl enable openstack-glance-api.service
    systemctl start openstack-glance-api.service

    完成安装!!!

    验证操作:

    1. 下载原图像

      wget http://download.cirros-cloud.net/0.4.0/cirros-0.4.0-x86_64-disk.img

    2. 上传到image服务

      glance image-create --name "cirros" \
        --file cirros-0.4.0-x86_64-disk.img \
        --disk-format qcow2 --container-format bare \
        --visibility=public

    1. 确定上传图片以及验证属性

      glance image-list

      成功完成!!!!

      ##

    placement的安装

    1.准备工作

    用root连接数据库

    mysql -u root -p

    创建placement数据库

    MariaDB [(none)]> CREATE DATABASE placement;

    给与访问权限

    MariaDB [(none)]> GRANT ALL PRIVILEGES ON placement.* TO 'placement'@'localhost' \
      IDENTIFIED BY '自己密码';
    MariaDB [(none)]> GRANT ALL PRIVILEGES ON placement.* TO 'placement'@'%' \
      IDENTIFIED BY '自己密码';

    准备完成!

    配置用户和端点

    创建一个placement服务和用户

    openstack user create --domain default --password-prompt placement
    
    

    将 Placement 用户添加到具有 admin 角色的服务项目:

    openstack role add --project service --user placement admin

    创建 Placement API

    openstack service create --name placement \
      --description "Placement API" placement

    创建端口

    openstack endpoint create --region RegionOne \
      placement public http://control:8778
    
    openstack endpoint create --region RegionOne \
      placement internal http://control:8778
      
    openstack endpoint create --region RegionOne \
      placement admin http://control:8778

    安装软件包:

    yum install openstack-placement-api

    配置文件

    vim /etc/placement/placement.conf
    
    [placement_database]
    connection = mysql+pymysql://placement:自己密码@control/placement
    
    [api]
    auth_strategy = keystone
    
    [keystone_authtoken]
    
    auth_url = http://control:5000/v3
    memcached_servers = control:11211
    auth_type = password
    project_domain_name = Default
    user_domain_name = Default
    project_name = service
    username = placement
    password = 自己密码

    同步数据库

    su -s /bin/sh -c "placement-manage db sync" placement

    重启httpd服务

    systemctl restart httpd

    验证操作:

    1.检查状态是否正常

    placement-status upgrade check

    2运行以下命令,如果出现如图结果,说明安装成功

     pip3 install osc-placement
    
    openstack --os-placement-api-version 1.2 resource class list --sort-column name
    
    openstack --os-placement-api-version 1.6 trait list --sort-column name

    nova的安装!!!!

    nova作为openstack中最重要的一部分,它该怎么安装呢???别急,哥来教你。

    • control节点:

      • 准备工作

        • 连接数据库

          mysql -u root -p
        • 创建nova_apinovanova_cell0数据库:

          MariaDB [(none)]> CREATE DATABASE nova_api;
          MariaDB [(none)]> CREATE DATABASE nova;
          MariaDB [(none)]> CREATE DATABASE nova_cell0;
        • 给予权限(infocore为自己密码)

          MariaDB [(none)]> GRANT ALL PRIVILEGES ON nova_api.* TO 'nova'@'localhost' \
            IDENTIFIED BY 'infocore';
          MariaDB [(none)]> GRANT ALL PRIVILEGES ON nova_api.* TO 'nova'@'%' \
            IDENTIFIED BY 'infocore';
          
          MariaDB [(none)]> GRANT ALL PRIVILEGES ON nova.* TO 'nova'@'localhost' \
            IDENTIFIED BY 'infocore';
          MariaDB [(none)]> GRANT ALL PRIVILEGES ON nova.* TO 'nova'@'%' \
            IDENTIFIED BY 'infocore';
          
          MariaDB [(none)]> GRANT ALL PRIVILEGES ON nova_cell0.* TO 'nova'@'localhost' \
            IDENTIFIED BY 'infocore';
          MariaDB [(none)]> GRANT ALL PRIVILEGES ON nova_cell0.* TO 'nova'@'%' \
            IDENTIFIED BY 'infocore';

        • 退出数据库

      • 执行脚本(可忽略)

        . admin-openrc
      • 创建nova凭证

        • 创建nova用户

          openstack user create --domain default --password-prompt nova
          
          openstack role add --project service --user nova admin

        • 创建nova服务

          openstack service create --name nova \
            --description "OpenStack Compute" compute

        • 创建compute api 服务节点

          openstack endpoint create --region RegionOne \
            compute public http://control:8774/v2.1
          
          openstack endpoint create --region RegionOne \
            compute internal http://control:8774/v2.1
            
          openstack endpoint create --region RegionOne \
            compute admin http://control:8774/v2.1

      • 安装软件包

        yum install openstack-nova-api openstack-nova-conductor \
          openstack-nova-novncproxy openstack-nova-scheduler
      • 配置文件

        vim /etc/nova/nova.conf
        1.
        [DEFAULT]
        enabled_apis = osapi_compute,metadata
        2.infocore位compute的密码
        [api_database]
        connection = mysql+pymysql://nova:infocore@control/nova_api
        [database]
        connection = mysql+pymysql://nova:infocore@control/nova
        3.infocore为rabbitmq消息队列的密码
        [DEFAULT]
        transport_url = rabbit://openstack:infocore@control:5672/
        
        4.infocore为nova的密码
        [api]
        auth_strategy = keystone
        
        [keystone_authtoken]
        www_authenticate_uri = http://control:5000/
        auth_url = http://control:5000/
        memcached_servers = control:11211
        auth_type = password
        project_domain_name = Default
        user_domain_name = Default
        project_name = service
        username = nova
        password = infocore
        
        5.
        [DEFAULT]
        my_ip = 192.168.111.126(control节点)
        
        6.
        [vnc]
        enabled = true
        server_listen = $my_ip
        server_proxyclient_address = $my_ip
        
        7.
        [glance]
        api_servers = http://control:9292
        
        8.
        [oslo_concurrency]
        lock_path = /var/lib/nova/tmp
        
        9.infocore位placement的密码
        [placement]
        region_name = RegionOne
        project_domain_name = Default
        project_name = service
        auth_type = password
        user_domain_name = Default
        auth_url = http://control:5000/v3
        username = placement
        password = infocore

      • 同步数据库

        su -s /bin/sh -c "nova-manage api_db sync" nova
      • 配置cell0数据库,结果如下

        su -s /bin/sh -c "nova-manage cell_v2 map_cell0" nova
        
        su -s /bin/sh -c "nova-manage cell_v2 create_cell --name=cell1 --verbose" nova
        
        su -s /bin/sh -c "nova-manage db sync" nova

      • 验证 nova cell0 和 cell1 是否正确注册,结果如下图所示

        su -s /bin/sh -c "nova-manage cell_v2 list_cells" nova

      • 启动compute服务,如下图所示

        systemctl enable \
            openstack-nova-api.service \
            openstack-nova-scheduler.service \
            openstack-nova-conductor.service \
            openstack-nova-novncproxy.service
        systemctl start \
            openstack-nova-api.service \
            openstack-nova-scheduler.service \
            openstack-nova-conductor.service \
            openstack-nova-novncproxy.service

    • 成功安装!!!!!

    • compute节点

      • 安装软件包

        yum install openstack-nova-compute
      • 配置文件

        vim /etc/nova/nova.conf
        1.
        [DEFAULT]
        enabled_apis = osapi_compute,metadata
        transport_url = rabbit://openstack:infocore@control
        my_ip =192.168.111.127
        
        2.
        [api]
        auth_strategy = keystone
        3.
        [keystone_authtoken]
        www_authenticate_uri = http://control:5000/
        auth_url = http://control:5000/
        memcached_servers = control:11211
        auth_type = password
        project_domain_name = Default
        user_domain_name = Default
        project_name = service
        username = nova
        password = infocore
        
        4
        [vnc]
        enabled = true
        server_listen = 0.0.0.0
        server_proxyclient_address = $my_ip
        novncproxy_base_url = http://control:6080/vnc_auto.html
        
        5.
        [glance]
        api_servers = http://control:9292
        
        6.
        [oslo_concurrency]
        lock_path = /var/lib/nova/tmp
        
        7.
        [placement]
        region_name = RegionOne
        project_domain_name = Default
        project_name = service
        auth_type = password
        user_domain_name = Default
        auth_url = http://control:5000/v3
        username = placement
        password = infocore
        
        
      • 判断计算节点是否支持硬件加速

        egrep -c '(vmx|svm)' /proc/cpuinfo
        如果返回值为0,就需要配置/etc/nova/nova.conf
        [libvirt]
        virt_type = qemu
        

      • 启动服务

        systemctl enable libvirtd.service openstack-nova-compute.service
        systemctl start libvirtd.service openstack-nova-compute.service

        如果无法启动,报错如图:

        解决方法

        kill -TERM 1

        成功运行。

        在control上执行以下命令:

        . admin-openrc
        openstack compute service list --service nova-compute
        su -s /bin/sh -c "nova-manage cell_v2 discover_hosts --verbose" nova

        如果出现报错,需要将虚拟机关机,然后勾选这两个选项,继续

        出现此结果说明成功安装

      • 验证安装

        • 列出成功的进程

        openstack compute service list

        • 列出api端口

          openstack catalog list

        • 列出image的连接

          openstack image list

        • 列出单元和放置api是否运行成功

          nova-status upgrade check

        • 这里可能有些人会报错,解决方法如下

          vim /etc/httpd/conf.d/00-placement-api.conf 
          
          把这个加在文件的最后面
          <Directory /usr/bin>
             <IfVersion >= 2.4>
                Require all granted
             </IfVersion>
             <IfVersion < 2.4>
                Order allow,deny
                Allow from all
             </IfVersion>
          </Directory>
          
          重启httpd服务
          systemctl restart httpd

    neutron的安装!!!

    • control节点安装:

      • 准备工作

        • 创建数据库(轻车熟路了都)

          mysql -u root -p
          
          MariaDB [(none)] CREATE DATABASE neutron;
          
          MariaDB [(none)]> GRANT ALL PRIVILEGES ON neutron.* TO 'neutron'@'localhost' \
            IDENTIFIED BY '自己密码';
          MariaDB [(none)]> GRANT ALL PRIVILEGES ON neutron.* TO 'neutron'@'%' \
            IDENTIFIED BY 自己密码;

        • 创建neutron用户

          openstack user create --domain default --password-prompt neutron
          
          openstack role add --project service --user neutron admin

        • 创建neutron服务

          openstack service create --name neutron \
            --description "OpenStack Networking" network

        • 创建api端口

          openstack endpoint create --region RegionOne \
            network public http://control:9696
            
            openstack endpoint create --region RegionOne \
            network internal http://control:9696
            
            openstack endpoint create --region RegionOne \
            network admin http://control:9696

        • 准备工作完成

      • 安装网络

        • 安装包

        yum install openstack-neutron openstack-neutron-ml2 \
          openstack-neutron-linuxbridge ebtables

        • 配置文件(把所有的infocore换成自己的密码)

          vim /etc/neutron/neutron.conf
          
          [database]
          connection = mysql+pymysql://neutron:infocore@control/neutron
          
          [DEFAULT]
          core_plugin = ml2
          service_plugins =
          transport_url = rabbit://openstack:infocore@control
          auth_strategy = keystone
          notify_nova_on_port_status_changes = true
          notify_nova_on_port_data_changes = true
          
          [keystone_authtoken]
          www_authenticate_uri = http://control:5000
          auth_url = http://control:5000
          memcached_servers = control:11211
          auth_type = password
          project_domain_name = default
          user_domain_name = default
          project_name = service
          username = neutron
          password = infocore
          
          [nova]
          auth_url = http://control:5000
          auth_type = password
          project_domain_name = default
          user_domain_name = default
          region_name = RegionOne
          project_name = service
          username = nova
          password = infocore
          
          [oslo_concurrency]
          lock_path = /var/lib/neutron/tmp
        • 配置第二层文件

          vim /etc/neutron/plugins/ml2/ml2_conf.ini
          • 在该[ml2]部分中,启用平面和 VLAN 网络:

          [ml2]
          type_drivers = flat,vlan	
          • 在该[ml2]部分中,禁用自助服务网络:

          [ml2]
          tenant_network_types =
          • 在该[ml2]部分中,启用 Linux 桥接机制:

          [ml2]
          mechanism_drivers = linuxbridge
          • 在该[ml2]部分中,启用端口安全扩展驱动程序:

          [ml2]
          extension_drivers = port_security
          • 在该[ml2_type_flat]部分中,将提供者虚拟网络配置为平面网络:

          [ml2_type_flat]
          flat_networks = provider
          • 在该[securitygroup]部分中,启用ipset以提高安全组规则的效率:

          [securitygroup]
          enable_ipset = true
        • 配置第三层文件

          vim /etc/neutron/plugins/ml2/linuxbridge_agent.ini
          • 在该[linux_bridge]部分中,将提供者虚拟网络映射到提供者物理网络接口:(把ens192改成自己的ens啥啥啥)

            [linux_bridge]
            physical_interface_mappings = provider:ens192
          • 在该[vxlan]部分中,禁用 VXLAN 覆盖网络:

            [vxlan]
            enable_vxlan = false
          • 在该[securitygroup]部分中,启用安全组并配置 Linux 网桥 iptables 防火墙驱动程序:

            [securitygroup]
            enable_security_group = true
            firewall_driver = neutron.agent.linux.iptables_firewall.IptablesFirewallDriver
          • 通过验证以下所有sysctl值都设置为,确保您的 Linux 操作系统内核支持网桥过滤器1

            vim /etc/sysctl.conf 
            
            net.bridge.bridge-nf-call-iptables=1
            net.bridge.bridge-nf-call-ip6tables=1
            执行下面命令
            modprobe br_netfilter
            sysctl -p

        • 配置最后一层文件

          vim /etc/neutron/dhcp_agent.ini
          
          [DEFAULT]
          interface_driver = linuxbridge
          dhcp_driver = neutron.agent.linux.dhcp.Dnsmasq
          enable_isolated_metadata = true
      • 配置元数据

        vim /etc/neutron/metadata_agent.ini
        [DEFAULT]
        nova_metadata_host = control
        metadata_proxy_shared_secret = infocore
      • 配置compute服务(不是compute节点,还是在control上搞)

        vim /etc/nova/nova.conf
        [neutron]
        auth_url = http://control:5000
        auth_type = password
        project_domain_name = default
        user_domain_name = default
        region_name = RegionOne
        project_name = service
        username = neutron
        password = infocore
        service_metadata_proxy = true
        metadata_proxy_shared_secret = infocore
      • 执行初始化操作

        ln -s /etc/neutron/plugins/ml2/ml2_conf.ini /etc/neutron/plugin.ini
        
        su -s /bin/sh -c "neutron-db-manage --config-file /etc/neutron/neutron.conf \
          --config-file /etc/neutron/plugins/ml2/ml2_conf.ini upgrade head" neutron

      • 重启api服务

        systemctl restart openstack-nova-api.service
      • 重启网络服务

        systemctl enable neutron-server.service \
        neutron-linuxbridge-agent.service neutron-dhcp-agent.service \
        neutron-metadata-agent.service
        systemctl start neutron-server.service \
        neutron-linuxbridge-agent.service neutron-dhcp-agent.service \
        neutron-metadata-agent.service

      • control配置完成!!!

    • compute节点的安装

      • 安装包

        yum install openstack-neutron-linuxbridge ebtables ipset
      • 配置文件

        vim /etc/neutron/neutron.conf
        database中,注释掉上所有的connection选项
        
        [DEFAULT]
        transport_url = rabbit://openstack:infocore@control
        auth_strategy = keystone
        
        [keystone_authtoken]
        www_authenticate_uri = http://control:5000
        auth_url = http://control:5000
        memcached_servers = control:11211
        auth_type = password
        project_domain_name = default
        user_domain_name = default
        project_name = service
        username = neutron
        password = infocore
        
        [oslo_concurrency]
        lock_path = /var/lib/neutron/tmp
        
      • 配置网络选项

        vim /etc/neutron/plugins/ml2/linuxbridge_agent.ini
        
        [linux_bridge]
        physical_interface_mappings = provider:ens192
        [vxlan]
        enable_vxlan = false
        [securitygroup]
        enable_security_group = true
        firewall_driver = neutron.agent.linux.iptables_firewall.IptablesFirewallDriver
        
        
        
        vim /etc/sysctl.conf 
        
        net.bridge.bridge-nf-call-iptables=1
        net.bridge.bridge-nf-call-ip6tables=1
        执行下面命令
        modprobe br_netfilter
        sysctl -p
      • 配置网络服务

        vim /etc/nova/nova.conf
        
        [neutron]
        auth_url = http://control:5000
        auth_type = password
        project_domain_name = default
        user_domain_name = default
        region_name = RegionOne
        project_name = service
        username = neutron
        password = infocore
      • 重启服务

        systemctl restart openstack-nova-compute.service
        systemctl enable neutron-linuxbridge-agent.service
        systemctl start neutron-linuxbridge-agent.service
      • 验证服务

        openstack network agent list

         

    展开全文
  • openstack安装图解.docx

    2022-01-12 14:39:29
    openstack安装图解
  • OpenStack安装资源

    2020-11-17 20:06:02
    这个资源对应与博客校园网环境下物理机配置OpenStack,请按照博客中介绍的步骤进项安装,确保安装正常。适合大家了解了解云平台,并在云平台上进行实验研究。
  • 深圳信狮OpenStack安装Pike版安装文档V5.0,主要介绍Openstack Pike版本安装过程及原理详解
  • 最近在两台物理机环境中...本文将总结Neutron的安装部署步骤,并对遇到的问题进行详细的描述,旨在提供解决问题的思路或者给与一定的启示。 根据官方部署文档的说法,Neutron允许创建由其它OpenStack服务管理的接口设
  • openstack安装N版本

    2016-12-09 13:47:29
    openstack_NewTon版本.docx
  • openstack安装手册

    2022-05-22 00:20:19
    网上安装 手册比较多,但不是要价高,就是不完整。我自己重新做了一个文档上传上来。
  • 基于 Fuel 的 Openstack 详细安装图文教程; 由于工作需要为第三方部署 Openstack 私有云 ,而尝试了很多网络上的教程之后,发现很多教程本身存在一些问题,倒是尝试一直失败; 最终经过夜以继日的尝试和配置,终于...
  • openstack 安装及运维

    2016-04-22 11:00:07
    openstack openstack组件安装 openstack配置,nova,glance,keystone,Quantum,
  • 本文给大家分享的是作者在Centos7中安装openstack过程中出现的一些问题的汇总,以及解决的方法,有需要的小伙伴可以参考下
  • openstack安装PPT

    2015-12-06 18:12:31
    openstack安装PPT,RHOSP安装说明,Dashboard操作说明
  • 更多网络原理机制可以参考《OpenStack云平台的网络模式及其工作机制》。OpenStack平台中有两种类型的物理节点,控制节点和计算节点。控制节点包括网络控制、调度管理、api服务、存储卷管理、数据库管理、身份管理和...
  • ###这是在Ubuntu OpenStack安装程序的单一模式下创建OpenStack环境的步骤的摘要。基于。 ###环境由于Ubuntu OpenStack Installer的Single模式在一台计算机上构建节点,因此执行时需要以下规范。 Ubuntu服务器...
  • openstack-安装脚本NUC/Brix 单网卡/多节点 Openstack 设置脚本这些是一些基本脚本,用于: 安装依赖创建物理/虚拟网络安装 Openstack 核心组件创建随机密码文件文件包括: 接口设置控制器.sh setup_compute.sh ...
  • openstack安装和使用

    千次阅读 2020-05-17 22:58:14
    前言本篇文章会介绍openstack安装openstack各组件的配置和功能、还会演示openstack云主机的创建流程,整篇文章花费一天时间完成,万字长文,需要的可以关注,相互学习...

    前言

    本篇文章会介绍openstack的安装、openstack各组件的配置和功能、还会演示openstack云主机的创建流程,整篇文章花费一天时间完成,万字长文,需要的可以关注,相互学习,本篇文章总体分为三个部分:

    第一部分讲解openstack安装

    第二部分讲解openstack组件,包括:

    keystone
    glance
    nova
    neutron
    dashboard
    

    第三部分讲解openstack使用,如:

    创建云主机
    创建公网
    创建子网
    配置路由
    配置防火墙
    配置安全策略
    创建云主机存储卷等
    

    openstack简介

    Openstack是一个开源的云平台管理项目,可以用于构建公有云或者私有云平台,提供了基础设施及服务(Iaas)的解决方案,OpenStack是一个云操作系统,通过数据中心可控制计算、存储、网络等资源池,OpenStack覆盖了网络、虚拟化、操作系统、服务器等各个方面,通过openstack可以启动,分配和管理虚拟机资源,所有的管理也都可以通过前端界面就可以完成。我们部署openstack之后,可以通过这个平台创建各个不同版本的虚拟机,如centos,windows等系统,可以按需分配cpu,内存,磁盘给这些虚拟机,同时还可以提供网络支持。

    第一部分:openstack安装篇

    操作系统版本选择centos7.6或者更高版本

    controller节点:三个60G硬盘 ,8G内存/4核CPU,两块桥接网卡

    computer节点:两个60G硬盘 ,6G内存/4核CPU/,两块桥接网卡

    机器规划

    controller节点

    ens33:192.168.0.100,提供浮动ip的,也就是出网地址(能访问baidu.com)
    ens37:192.168.0.200,内网之间通信用
    

    computer节点:

    ens33:192.168.0.110,提供浮动ip的,也就是出网地址
    ens37:192.168.0.210,内网之间通信用
    

    修改虚拟机的ip变成静态ip,controller节点的配置如下所示:

    cat /etc/sysconfig/network-scripts/ifcfg-ens33

    TYPE=Ethernet

    PROXY_METHOD=none

    BROWSER_ONLY=no

    BOOTPROTO=static

    DEFROUTE=yes

    IPV4_FAILURE_FATAL=no

    IPV6INIT=yes

    IPV6_AUTOCONF=yes

    IPV6_DEFROUTE=yes

    IPV6_FAILURE_FATAL=no

    IPV6_ADDR_GEN_MODE=stable-privacy

    NAME=ens33

    DEVICE=ens33

    ONBOOT=yes

    IPADDR=192.168.0.100

    NETMASK=255.255.255.0

    GATEWAY=192.168.0.1

    DNS1=8.8.8.8

     

    cat /etc/sysconfig/network-scripts/ifcfg-ens37

    TYPE=Ethernet

    PROXY_METHOD=none

    BROWSER_ONLY=no

    BOOTPROTO=static

    DEFROUTE=yes

    IPV4_FAILURE_FATAL=no

    IPV6INIT=yes

    IPV6_AUTOCONF=yes

    IPV6_DEFROUTE=yes

    IPV6_FAILURE_FATAL=no

    IPV6_ADDR_GEN_MODE=stable-privacy

    NAME=ens37

    DEVICE=ens37

    ONBOOT=yes

    IPADDR=192.168.0.200

    NETMASK=255.255.255.0

    GATEWAY=192.168.0.1

    DNS1=8.8.8.8

     

    修改配置文件之后需要重启网络服务才能使配置生效,重启网络服务命令如下:

    service network restart

     

    注:ifcfg-ens33文件配置解释: 

    IPADDR=192.168.0.100

    #ip地址,需要跟自己电脑所在网段一致

    NETMASK=255.255.255.0

    #子网掩码,需要跟自己电脑所在网段一致

    GATEWAY=192.168.0.1

    #网关,在自己电脑打开cmd,输入ipconfig /all可看到

    DNS1=192.168.0.1   

    #DNS,在自己电脑打开cmd,输入ipconfig /all可看到

    配置hosts文件,各个节点保持一致

    cat /etc/hosts  

    在最后一行添加如下内容

    192.168.0.200 controller

    192.168.0.210 computer

    配置yum源,各个节点操作

    (1)备份原来的yum源

    mv /etc/yum.repos.d/CentOS-Base.repo  /etc/yum.repos.d/CentOS-Base.repo.backup

    (2)下载阿里的yum源 

    wget -O /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-7.repo

    (3)生成新的yum缓存

    yum makecache fast

    (4)清理yum缓存 

    yum clean all

    (5)更新yum源 

    yum -y update

    初始化,各个节点操作

    yum -y install wget net-tools nfs-utils lrzsz gccgcc-c++ make cmake libxml2-devel openssl-devel curl curl-devel unzip sudo ntplibaio-devel wget vim ncurses-devel autoconf automake zlib-devel python-devel epel-release lrzsz openssh-server telnet

    关闭防火墙、networkmanager,iptables,各个节点操作

    systemctl stop firewalld && systemctl disable firewalld && systemctl stop NetworkManager && systemctl disable NetworkManager && systemctl  stop  iptables &&  systemctl disable  iptables

    关闭selinux,各个节点操作

    关闭selinux,设置永久关闭,这样重启机器selinux也处于关闭状态

    修改/etc/sysconfig/selinux和/etc/selinux/config文件,把

    SELINUX=enforcing变成SELINUX=disabled,也可用下面方式修改:

    sed -i  's/SELINUX=enforcing/SELINUX=disabled/' /etc/sysconfig/selinux

    sed -i 's/SELINUX=enforcing/SELINUX=disabled/g' /etc/selinux/config

    配置主机名

    192.168.0.100上操作

    hostnamectl set-hostname controller

    192.168.0.110上操作

    hostnamectl set-hostname computer

    做时间同步,各个节点操作

    ntpdate cn.pool.ntp.org

    配置无密码登陆,各个节点操作

    ssh-keygen -t rsa   

    #一直回车即可

    ssh-copy-id -i .ssh/id_rsa.pub controller

    ssh-copy-id -i .ssh/id_rsa.pub computer

    开始安装openstack

    openstack软件包在百度网盘,链接如下:

    链接:https://pan.baidu.com/s/1dHDF4WxvNoqcJd90mDxrbA 
    提取码:yz56
    

    (1)上传openstack离线软件包到root目录下(在controller和computer节点操作)

    在root下创建一个目录openstack,然后把软件包解压到这个目录下

    mkdir /root/openstack && cd openstack && tar zxvf /root/openstack_N.tar.gz

    (2)解压之后会出现一个openstack目录,把openstack目录整体移动到/下(controller和computer节点操作)

    mv openstack /

    (3)重新配置yum源(controller和computer节点都操作)

    cd /etc/yum.repos.d/ && mkdir bak && mv CentOS-* bak/ && mv epel* bak/

    cp bak/CentOS-Base.repo  ./

    (4)生成一个新的openstack的yum源

    cat <<EOF > /etc/yum.repos.d/openstack.repo

    [openstack]

    enable=1

    gpgcheck=0

    baseurl=file:///openstack

    EOF

    yum makecache

    安装openstack应答文件(controller节点操作)

    yum install centos-release-openstack-newton -y

    在controller和computer节点执行如下一条命令

    cd /etc/yum.repos.d && mv *.repo bak/ && mv bak/openstack.repo ./ && cp bak/CentOS-Base.repo ./

    这样在/etc/yum.repos.d下只有如下两个repo文件,这样才可以确保后面安装成功:

    CentOS-Base.repo 
    openstack.repo
    

    接下来的操作继续在controller节点执行

    yum makecache

    yum install openstack-packstack -y

    cd /root

    packstack --gen-answer-file=openstack.txt

    #这样会生成一个应答文件openstack.txt

    (1)查看openstack应答文件内容

    grep -vE '^$|^#' openstack.txt

    [general]

    CONFIG_SSH_KEY=/root/.ssh/id_rsa.pub

    CONFIG_DEFAULT_PASSWORD=

    CONFIG_SERVICE_WORKERS=%{::processorcount}

    CONFIG_MARIADB_INSTALL=y

    CONFIG_GLANCE_INSTALL=y

    CONFIG_CINDER_INSTALL=y

    CONFIG_MANILA_INSTALL=n

    CONFIG_NOVA_INSTALL=y

    CONFIG_NEUTRON_INSTALL=y

    CONFIG_HORIZON_INSTALL=y

    CONFIG_SWIFT_INSTALL=y

    CONFIG_CEILOMETER_INSTALL=y

    CONFIG_AODH_INSTALL=y

    CONFIG_GNOCCHI_INSTALL=y

    CONFIG_SAHARA_INSTALL=n

    CONFIG_HEAT_INSTALL=n

    CONFIG_TROVE_INSTALL=n

    CONFIG_IRONIC_INSTALL=n

    CONFIG_CLIENT_INSTALL=y

    CONFIG_NTP_SERVERS=

    CONFIG_NAGIOS_INSTALL=y

    EXCLUDE_SERVERS=

    CONFIG_DEBUG_MODE=n

    CONFIG_CONTROLLER_HOST=192.168.0.100

    CONFIG_COMPUTE_HOSTS=192.168.0.100

    CONFIG_NETWORK_HOSTS=192.168.0.100

    CONFIG_VMWARE_BACKEND=n

    CONFIG_UNSUPPORTED=n

    CONFIG_USE_SUBNETS=n

    CONFIG_VCENTER_HOST=

    CONFIG_VCENTER_USER=

    CONFIG_VCENTER_PASSWORD=

    CONFIG_VCENTER_CLUSTER_NAMES=

    CONFIG_STORAGE_HOST=192.168.0.100

    CONFIG_SAHARA_HOST=192.168.0.100

    CONFIG_USE_EPEL=n

    CONFIG_REPO=

    CONFIG_ENABLE_RDO_TESTING=n

    CONFIG_RH_USER=

    CONFIG_SATELLITE_URL=

    CONFIG_RH_SAT6_SERVER=

    CONFIG_RH_PW=

    CONFIG_RH_OPTIONAL=y

    CONFIG_RH_PROXY=

    CONFIG_RH_SAT6_ORG=

    CONFIG_RH_SAT6_KEY=

    CONFIG_RH_PROXY_PORT=

    CONFIG_RH_PROXY_USER=

    CONFIG_RH_PROXY_PW=

    CONFIG_SATELLITE_USER=

    CONFIG_SATELLITE_PW=

    CONFIG_SATELLITE_AKEY=

    CONFIG_SATELLITE_CACERT=

    CONFIG_SATELLITE_PROFILE=

    CONFIG_SATELLITE_FLAGS=

    CONFIG_SATELLITE_PROXY=

    CONFIG_SATELLITE_PROXY_USER=

    CONFIG_SATELLITE_PROXY_PW=

    CONFIG_SSL_CACERT_FILE=/etc/pki/tls/certs/selfcert.crt

    CONFIG_SSL_CACERT_KEY_FILE=/etc/pki/tls/private/selfkey.key

    CONFIG_SSL_CERT_DIR=~/packstackca/

    CONFIG_SSL_CACERT_SELFSIGN=y

    CONFIG_SSL_CERT_SUBJECT_C=--

    CONFIG_SSL_CERT_SUBJECT_ST=State

    CONFIG_SSL_CERT_SUBJECT_L=City

    CONFIG_SSL_CERT_SUBJECT_O=openstack

    CONFIG_SSL_CERT_SUBJECT_OU=packstack

    CONFIG_SSL_CERT_SUBJECT_CN=controller

    CONFIG_SSL_CERT_SUBJECT_MAIL=admin@controller

    CONFIG_AMQP_BACKEND=rabbitmq

    CONFIG_AMQP_HOST=192.168.0.100

    CONFIG_AMQP_ENABLE_SSL=n

    CONFIG_AMQP_ENABLE_AUTH=n

    CONFIG_AMQP_NSS_CERTDB_PW=PW_PLACEHOLDER

    CONFIG_AMQP_AUTH_USER=amqp_user

    CONFIG_AMQP_AUTH_PASSWORD=PW_PLACEHOLDER

    CONFIG_MARIADB_HOST=192.168.0.100

    CONFIG_MARIADB_USER=root

    CONFIG_MARIADB_PW=790d13b37c5d4256

    CONFIG_KEYSTONE_DB_PW=d00c51216f0d407e

    CONFIG_KEYSTONE_DB_PURGE_ENABLE=True

    CONFIG_KEYSTONE_REGION=RegionOne

    CONFIG_KEYSTONE_ADMIN_TOKEN=1929401395424bbfae56e4f5d3d14470

    CONFIG_KEYSTONE_ADMIN_EMAIL=root@localhost

    CONFIG_KEYSTONE_ADMIN_USERNAME=admin

    CONFIG_KEYSTONE_ADMIN_PW=98bb8a18d3b44d5b

    CONFIG_KEYSTONE_DEMO_PW=3a1c3aa52f714ce7

    CONFIG_KEYSTONE_API_VERSION=v2.0

    CONFIG_KEYSTONE_TOKEN_FORMAT=UUID

    CONFIG_KEYSTONE_IDENTITY_BACKEND=sql

    CONFIG_KEYSTONE_LDAP_URL=ldap://192.168.0.100

    CONFIG_KEYSTONE_LDAP_USER_DN=

    CONFIG_KEYSTONE_LDAP_USER_PASSWORD=

    CONFIG_KEYSTONE_LDAP_SUFFIX=

    CONFIG_KEYSTONE_LDAP_QUERY_SCOPE=one

    CONFIG_KEYSTONE_LDAP_PAGE_SIZE=-1

    CONFIG_KEYSTONE_LDAP_USER_SUBTREE=

    CONFIG_KEYSTONE_LDAP_USER_FILTER=

    CONFIG_KEYSTONE_LDAP_USER_OBJECTCLASS=

    CONFIG_KEYSTONE_LDAP_USER_ID_ATTRIBUTE=

    CONFIG_KEYSTONE_LDAP_USER_NAME_ATTRIBUTE=

    CONFIG_KEYSTONE_LDAP_USER_MAIL_ATTRIBUTE=

    CONFIG_KEYSTONE_LDAP_USER_ENABLED_ATTRIBUTE=

    CONFIG_KEYSTONE_LDAP_USER_ENABLED_MASK=-1

    CONFIG_KEYSTONE_LDAP_USER_ENABLED_DEFAULT=TRUE

    CONFIG_KEYSTONE_LDAP_USER_ENABLED_INVERT=n

    CONFIG_KEYSTONE_LDAP_USER_ATTRIBUTE_IGNORE=

    CONFIG_KEYSTONE_LDAP_USER_DEFAULT_PROJECT_ID_ATTRIBUTE=

    CONFIG_KEYSTONE_LDAP_USER_ALLOW_CREATE=n

    CONFIG_KEYSTONE_LDAP_USER_ALLOW_UPDATE=n

    CONFIG_KEYSTONE_LDAP_USER_ALLOW_DELETE=n

    CONFIG_KEYSTONE_LDAP_USER_PASS_ATTRIBUTE=

    CONFIG_KEYSTONE_LDAP_USER_ENABLED_EMULATION_DN=

    CONFIG_KEYSTONE_LDAP_USER_ADDITIONAL_ATTRIBUTE_MAPPING=

    CONFIG_KEYSTONE_LDAP_GROUP_SUBTREE=

    CONFIG_KEYSTONE_LDAP_GROUP_FILTER=

    CONFIG_KEYSTONE_LDAP_GROUP_OBJECTCLASS=

    CONFIG_KEYSTONE_LDAP_GROUP_ID_ATTRIBUTE=

    CONFIG_KEYSTONE_LDAP_GROUP_NAME_ATTRIBUTE=

    CONFIG_KEYSTONE_LDAP_GROUP_MEMBER_ATTRIBUTE=

    CONFIG_KEYSTONE_LDAP_GROUP_DESC_ATTRIBUTE=

    CONFIG_KEYSTONE_LDAP_GROUP_ATTRIBUTE_IGNORE=

    CONFIG_KEYSTONE_LDAP_GROUP_ALLOW_CREATE=n

    CONFIG_KEYSTONE_LDAP_GROUP_ALLOW_UPDATE=n

    CONFIG_KEYSTONE_LDAP_GROUP_ALLOW_DELETE=n

    CONFIG_KEYSTONE_LDAP_GROUP_ADDITIONAL_ATTRIBUTE_MAPPING=

    CONFIG_KEYSTONE_LDAP_USE_TLS=n

    CONFIG_KEYSTONE_LDAP_TLS_CACERTDIR=

    CONFIG_KEYSTONE_LDAP_TLS_CACERTFILE=

    CONFIG_KEYSTONE_LDAP_TLS_REQ_CERT=demand

    CONFIG_GLANCE_DB_PW=8d1d5db7e0ea4b0e

    CONFIG_GLANCE_KS_PW=4373de2ce59c4282

    CONFIG_GLANCE_BACKEND=file

    CONFIG_CINDER_DB_PW=f17a2c40c2a34d3d

    CONFIG_CINDER_DB_PURGE_ENABLE=True

    CONFIG_CINDER_KS_PW=6e37e28106a34dcb

    CONFIG_CINDER_BACKEND=lvm

    CONFIG_CINDER_VOLUMES_CREATE=y

    CONFIG_CINDER_VOLUMES_SIZE=20G

    CONFIG_CINDER_GLUSTER_MOUNTS=

    CONFIG_CINDER_NFS_MOUNTS=

    CONFIG_CINDER_NETAPP_LOGIN=

    CONFIG_CINDER_NETAPP_PASSWORD=

    CONFIG_CINDER_NETAPP_HOSTNAME=

    CONFIG_CINDER_NETAPP_SERVER_PORT=80

    CONFIG_CINDER_NETAPP_STORAGE_FAMILY=ontap_cluster

    CONFIG_CINDER_NETAPP_TRANSPORT_TYPE=http

    CONFIG_CINDER_NETAPP_STORAGE_PROTOCOL=nfs

    CONFIG_CINDER_NETAPP_SIZE_MULTIPLIER=1.0

    CONFIG_CINDER_NETAPP_EXPIRY_THRES_MINUTES=720

    CONFIG_CINDER_NETAPP_THRES_AVL_SIZE_PERC_START=20

    CONFIG_CINDER_NETAPP_THRES_AVL_SIZE_PERC_STOP=60

    CONFIG_CINDER_NETAPP_NFS_SHARES=

    CONFIG_CINDER_NETAPP_NFS_SHARES_CONFIG=/etc/cinder/shares.conf

    CONFIG_CINDER_NETAPP_VOLUME_LIST=

    CONFIG_CINDER_NETAPP_VFILER=

    CONFIG_CINDER_NETAPP_PARTNER_BACKEND_NAME=

    CONFIG_CINDER_NETAPP_VSERVER=

    CONFIG_CINDER_NETAPP_CONTROLLER_IPS=

    CONFIG_CINDER_NETAPP_SA_PASSWORD=

    CONFIG_CINDER_NETAPP_ESERIES_HOST_TYPE=linux_dm_mp

    CONFIG_CINDER_NETAPP_WEBSERVICE_PATH=/devmgr/v2

    CONFIG_CINDER_NETAPP_STORAGE_POOLS=

    CONFIG_CINDER_SOLIDFIRE_LOGIN=

    CONFIG_CINDER_SOLIDFIRE_PASSWORD=

    CONFIG_CINDER_SOLIDFIRE_HOSTNAME=

    CONFIG_IRONIC_DB_PW=PW_PLACEHOLDER

    CONFIG_IRONIC_KS_PW=PW_PLACEHOLDER

    CONFIG_NOVA_DB_PURGE_ENABLE=True

    CONFIG_NOVA_DB_PW=9a58820d437a4602

    CONFIG_NOVA_KS_PW=146383d19ded4bf3

    CONFIG_NOVA_MANAGE_FLAVORS=y

    CONFIG_NOVA_SCHED_CPU_ALLOC_RATIO=16.0

    CONFIG_NOVA_SCHED_RAM_ALLOC_RATIO=1.5

    CONFIG_NOVA_COMPUTE_MIGRATE_PROTOCOL=tcp

    CONFIG_NOVA_COMPUTE_MANAGER=nova.compute.manager.ComputeManager

    CONFIG_VNC_SSL_CERT=

    CONFIG_VNC_SSL_KEY=

    CONFIG_NOVA_PCI_ALIAS=

    CONFIG_NOVA_PCI_PASSTHROUGH_WHITELIST=

    CONFIG_NOVA_LIBVIRT_VIRT_TYPE=%{::default_hypervisor}

    CONFIG_NOVA_COMPUTE_PRIVIF=

    CONFIG_NOVA_NETWORK_MANAGER=nova.network.manager.FlatDHCPManager

    CONFIG_NOVA_NETWORK_PUBIF=eth0

    CONFIG_NOVA_NETWORK_PRIVIF=

    CONFIG_NOVA_NETWORK_FIXEDRANGE=192.168.32.0/22

    CONFIG_NOVA_NETWORK_FLOATRANGE=10.3.4.0/22

    CONFIG_NOVA_NETWORK_AUTOASSIGNFLOATINGIP=n

    CONFIG_NOVA_NETWORK_VLAN_START=100

    CONFIG_NOVA_NETWORK_NUMBER=1

    CONFIG_NOVA_NETWORK_SIZE=255

    CONFIG_NEUTRON_KS_PW=9977d7bd457c4981

    CONFIG_NEUTRON_DB_PW=f41058185ba84956

    CONFIG_NEUTRON_L3_EXT_BRIDGE=br-ex

    CONFIG_NEUTRON_METADATA_PW=5c098167b4f941a8

    CONFIG_LBAAS_INSTALL=n

    CONFIG_NEUTRON_METERING_AGENT_INSTALL=y

    CONFIG_NEUTRON_FWAAS=n

    CONFIG_NEUTRON_VPNAAS=n

    CONFIG_NEUTRON_ML2_TYPE_DRIVERS=vxlan

    CONFIG_NEUTRON_ML2_TENANT_NETWORK_TYPES=vxlan

    CONFIG_NEUTRON_ML2_MECHANISM_DRIVERS=openvswitch

    CONFIG_NEUTRON_ML2_FLAT_NETWORKS=*

    CONFIG_NEUTRON_ML2_VLAN_RANGES=

    CONFIG_NEUTRON_ML2_TUNNEL_ID_RANGES=

    CONFIG_NEUTRON_ML2_VXLAN_GROUP=

    CONFIG_NEUTRON_ML2_VNI_RANGES=10:100

    CONFIG_NEUTRON_L2_AGENT=openvswitch

    CONFIG_NEUTRON_ML2_SUPPORTED_PCI_VENDOR_DEVS=['15b3:1004','8086:10ca']

    CONFIG_NEUTRON_ML2_SRIOV_AGENT_REQUIRED=n

    CONFIG_NEUTRON_ML2_SRIOV_INTERFACE_MAPPINGS=

    CONFIG_NEUTRON_LB_INTERFACE_MAPPINGS=

    CONFIG_NEUTRON_OVS_BRIDGE_MAPPINGS=

    CONFIG_NEUTRON_OVS_BRIDGE_IFACES=

    CONFIG_NEUTRON_OVS_BRIDGES_COMPUTE=

    CONFIG_NEUTRON_OVS_TUNNEL_IF=

    CONFIG_NEUTRON_OVS_TUNNEL_SUBNETS=

    CONFIG_NEUTRON_OVS_VXLAN_UDP_PORT=4789

    CONFIG_MANILA_DB_PW=PW_PLACEHOLDER

    CONFIG_MANILA_KS_PW=PW_PLACEHOLDER

    CONFIG_MANILA_BACKEND=generic

    CONFIG_MANILA_NETAPP_DRV_HANDLES_SHARE_SERVERS=false

    CONFIG_MANILA_NETAPP_TRANSPORT_TYPE=https

    CONFIG_MANILA_NETAPP_LOGIN=admin

    CONFIG_MANILA_NETAPP_PASSWORD=

    CONFIG_MANILA_NETAPP_SERVER_HOSTNAME=

    CONFIG_MANILA_NETAPP_STORAGE_FAMILY=ontap_cluster

    CONFIG_MANILA_NETAPP_SERVER_PORT=443

    CONFIG_MANILA_NETAPP_AGGREGATE_NAME_SEARCH_PATTERN=(.*)

    CONFIG_MANILA_NETAPP_ROOT_VOLUME_AGGREGATE=

    CONFIG_MANILA_NETAPP_ROOT_VOLUME_NAME=root

    CONFIG_MANILA_NETAPP_VSERVER=

    CONFIG_MANILA_GENERIC_DRV_HANDLES_SHARE_SERVERS=true

    CONFIG_MANILA_GENERIC_VOLUME_NAME_TEMPLATE=manila-share-%s

    CONFIG_MANILA_GENERIC_SHARE_MOUNT_PATH=/shares

    CONFIG_MANILA_SERVICE_IMAGE_LOCATION=https://www.dropbox.com/s/vi5oeh10q1qkckh/ubuntu_1204_nfs_cifs.qcow2

    CONFIG_MANILA_SERVICE_INSTANCE_USER=ubuntu

    CONFIG_MANILA_SERVICE_INSTANCE_PASSWORD=ubuntu

    CONFIG_MANILA_NETWORK_TYPE=neutron

    CONFIG_MANILA_NETWORK_STANDALONE_GATEWAY=

    CONFIG_MANILA_NETWORK_STANDALONE_NETMASK=

    CONFIG_MANILA_NETWORK_STANDALONE_SEG_ID=

    CONFIG_MANILA_NETWORK_STANDALONE_IP_RANGE=

    CONFIG_MANILA_NETWORK_STANDALONE_IP_VERSION=4

    CONFIG_MANILA_GLUSTERFS_SERVERS=

    CONFIG_MANILA_GLUSTERFS_NATIVE_PATH_TO_PRIVATE_KEY=

    CONFIG_MANILA_GLUSTERFS_VOLUME_PATTERN=

    CONFIG_MANILA_GLUSTERFS_TARGET=

    CONFIG_MANILA_GLUSTERFS_MOUNT_POINT_BASE=

    CONFIG_MANILA_GLUSTERFS_NFS_SERVER_TYPE=gluster

    CONFIG_MANILA_GLUSTERFS_PATH_TO_PRIVATE_KEY=

    CONFIG_MANILA_GLUSTERFS_GANESHA_SERVER_IP=

    CONFIG_HORIZON_SSL=n

    CONFIG_HORIZON_SECRET_KEY=a0158fbb560a411dbe29ebca9a3d2f66

    CONFIG_HORIZON_SSL_CERT=

    CONFIG_HORIZON_SSL_KEY=

    CONFIG_HORIZON_SSL_CACERT=

    CONFIG_SWIFT_KS_PW=af2c0e6494874e79

    CONFIG_SWIFT_STORAGES=

    CONFIG_SWIFT_STORAGE_ZONES=1

    CONFIG_SWIFT_STORAGE_REPLICAS=1

    CONFIG_SWIFT_STORAGE_FSTYPE=ext4

    CONFIG_SWIFT_HASH=1c92f9123f994595

    CONFIG_SWIFT_STORAGE_SIZE=2G

    CONFIG_HEAT_DB_PW=PW_PLACEHOLDER

    CONFIG_HEAT_AUTH_ENC_KEY=15f6ef4aad554643

    CONFIG_HEAT_KS_PW=PW_PLACEHOLDER

    CONFIG_HEAT_CLOUDWATCH_INSTALL=n

    CONFIG_HEAT_CFN_INSTALL=y

    CONFIG_HEAT_DOMAIN=heat

    CONFIG_HEAT_DOMAIN_ADMIN=heat_admin

    CONFIG_HEAT_DOMAIN_PASSWORD=PW_PLACEHOLDER

    CONFIG_PROVISION_DEMO=y

    CONFIG_PROVISION_TEMPEST=n

    CONFIG_PROVISION_DEMO_FLOATRANGE=172.24.4.224/28

    CONFIG_PROVISION_IMAGE_NAME=cirros

    CONFIG_PROVISION_IMAGE_URL=http://download.cirros-cloud.net/0.3.4/cirros-0.3.4-x86_64-disk.img

    CONFIG_PROVISION_IMAGE_FORMAT=qcow2

    CONFIG_PROVISION_IMAGE_SSH_USER=cirros

    CONFIG_PROVISION_UEC_IMAGE_NAME=cirros-uec

    CONFIG_PROVISION_UEC_IMAGE_KERNEL_URL=http://download.cirros-cloud.net/0.3.4/cirros-0.3.4-x86_64-kernel

    CONFIG_PROVISION_UEC_IMAGE_RAMDISK_URL=http://download.cirros-cloud.net/0.3.4/cirros-0.3.4-x86_64-initramfs

    CONFIG_PROVISION_UEC_IMAGE_DISK_URL=http://download.cirros-cloud.net/0.3.4/cirros-0.3.4-x86_64-disk.img

    CONFIG_TEMPEST_HOST=

    CONFIG_PROVISION_TEMPEST_USER=

    CONFIG_PROVISION_TEMPEST_USER_PW=PW_PLACEHOLDER

    CONFIG_PROVISION_TEMPEST_FLOATRANGE=172.24.4.224/28

    CONFIG_PROVISION_TEMPEST_REPO_URI=https://github.com/openstack/tempest.git

    CONFIG_PROVISION_TEMPEST_REPO_REVISION=master

    CONFIG_RUN_TEMPEST=n

    CONFIG_RUN_TEMPEST_TESTS=smoke

    CONFIG_PROVISION_OVS_BRIDGE=y

    CONFIG_GNOCCHI_DB_PW=de94d43493ee4f22

    CONFIG_GNOCCHI_KS_PW=851d3c2e0dfb4733

    CONFIG_CEILOMETER_SECRET=fd8180f8741b4577

    CONFIG_CEILOMETER_KS_PW=4ecf716db75d4df8

    CONFIG_CEILOMETER_SERVICE_NAME=httpd

    CONFIG_CEILOMETER_COORDINATION_BACKEND=redis

    CONFIG_CEILOMETER_METERING_BACKEND=database

    CONFIG_MONGODB_HOST=192.168.0.100

    CONFIG_REDIS_HOST=192.168.0.100

    CONFIG_REDIS_PORT=6379

    CONFIG_AODH_KS_PW=aa05a4e252aa4d8b

    CONFIG_TROVE_DB_PW=PW_PLACEHOLDER

    CONFIG_TROVE_KS_PW=PW_PLACEHOLDER

    CONFIG_TROVE_NOVA_USER=trove

    CONFIG_TROVE_NOVA_TENANT=services

    CONFIG_TROVE_NOVA_PW=PW_PLACEHOLDER

    CONFIG_SAHARA_DB_PW=PW_PLACEHOLDER

    CONFIG_SAHARA_KS_PW=PW_PLACEHOLDER

    CONFIG_NAGIOS_PW=3df8622a70e64edf

     

    (2)修改openstack.txt文件,需要修改的内容如下,大家按照你们自己规划ens33和ens37网段的ip进行修改:

    CONFIG_DEFAULT_PASSWORD=123456

    CONFIG_SWIFT_INSTALL=n

    CONFIG_NAGIOS_INSTALL=n

    CONFIG_CINDER_VOLUMES_SIZE=2G

    CONFIG_PROVISION_DEMO=n

    CONFIG_LBAAS_INSTALL=y

    CONFIG_NEUTRON_FWAAS=y

    CONFIG_NEUTRON_VPNAAS=y

    CONFIG_CONTROLLER_HOST=192.168.0.200

    #controller节点的ens37网卡的ip

    CONFIG_COMPUTE_HOSTS=192.168.0.210

    #computer节点的ens37网卡的ip

    CONFIG_NETWORK_HOSTS=192.168.0.210

    #computer节点的ens37网卡的ip

    (3)查看修改之后的openstack.txt文件中安装哪些

    grep -vE '^$|^#' openstack.txt |grep y

    CONFIG_MARIADB_INSTALL=y

    CONFIG_GLANCE_INSTALL=y

    CONFIG_CINDER_INSTALL=y

    CONFIG_NOVA_INSTALL=y

    CONFIG_NEUTRON_INSTALL=y

    CONFIG_HORIZON_INSTALL=y

    CONFIG_CEILOMETER_INSTALL=y

    CONFIG_AODH_INSTALL=y

    CONFIG_GNOCCHI_INSTALL=y

    CONFIG_CLIENT_INSTALL=y

    CONFIG_RH_OPTIONAL=y

    CONFIG_SSL_CACERT_KEY_FILE=/etc/pki/tls/private/selfkey.key

    CONFIG_SSL_CACERT_SELFSIGN=y

    CONFIG_SSL_CERT_SUBJECT_L=City

    CONFIG_CINDER_VOLUMES_CREATE=y

    CONFIG_NOVA_MANAGE_FLAVORS=y

    CONFIG_NOVA_LIBVIRT_VIRT_TYPE=%{::default_hypervisor}

    CONFIG_LBAAS_INSTALL=y

    CONFIG_NEUTRON_METERING_AGENT_INSTALL=y

    CONFIG_NEUTRON_FWAAS=y

    CONFIG_NEUTRON_VPNAAS=y

    CONFIG_HEAT_CFN_INSTALL=y

    CONFIG_PROVISION_OVS_BRIDGE=y

    看到y的表示是需要安装的组件

    安装openstack组件-controller节点操作

    基于应答文件安装openstack组件,按如下命令操作:

    packstack--answer-file=openstack.txt

    上面命令执行成功之后再回到conputer节点执行如下操作:

    cd /etc/yum.repos.d && mv CentOS-Ceph-Jewel.repo CentOS-OpenStack-newton.repo CentOS-QEMU-EV.repo CentOS-Storage-common.repo bak/

    (1)安装过程需要查看iptables状态,在controller和computer节点

    systemctl status iptables

    如果发现iptables处于active状态,需要停掉

    systemctl stop iptables

    (2)看到如下说明安装成功

    192.168.124.200_controller.pp:                       [ DONE ]            
    Applying 192.168.124.201_network.pp
    192.168.124.201_network.pp:                          [ DONE ]         
    Applying 192.168.124.201_compute.pp
    192.168.124.201_compute.pp:                          [ DONE ]         
    Applying Puppet manifests                            [ DONE ]
    Finalizing                                           [ DONE ]
    
    
     **** Installation completed successfully ******
    

    配置rabbitmq:

    (1)启动rabbitmq的管理界面,controller节点操作

    rabbitmq-plugins enable rabbitmq_management

    (2)在浏览器访问

    192.168.0.200:15672

    账号:guest

    密码:guest

    出现如下界面

    技术交流群

    为了大家更快速的学习知识,掌握技术,随时沟通问题,特组建了技术交流群,大家在群里可以分享自己的技术栈,抛出日常问题,群里会有很多大佬及时解答,这样我们就会结识很多志同道合的人,群里还有很多关于kubernetes/docker/devops/openstack/openshift/linux/IaaS/PaaS的免费文章和视频,长按下图可加我微信,备注运维或者k8s或者devops即可进群,让我们共同努力,向着美好的未来出发吧~~~

    微信:luckylucky421302

    微信公众号

    长按如下指纹可关注公众号·


    第二部分:openstack组件介绍

    访问openstack的dashboard界面

    在浏览器输入:

    192.168.0.200

    账号:admin

    密码:16e424911af144ca

    #密码获取方式参考后文内容

    登陆之后显示如下界面

    获取密码的方法,在controller节点上操作:

    cd  /root

    展开全文
  • Openstack安装部署手册.docx

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 47,758
精华内容 19,103
关键字:

openstack安装

友情链接: EUJchild.rar