精华内容
下载资源
问答
  • 云计算实验之节点创建与配置

    千次阅读 2018-11-04 21:14:10
    这个部分解释如何按示例架构配置控制节点和一个计算节点 尽管大多数环境中包含认证,镜像,计算,至少一个网络服务,还有仪表盘,但是对象存储服务也可以单独操作。仪表盘要求至少要有镜像服务,计算服务和网络服务...

    环境

      

    Contents

    •  

    这个部分解释如何按示例架构配置控制节点和一个计算节点

    尽管大多数环境中包含认证,镜像,计算,至少一个网络服务,还有仪表盘,但是对象存储服务也可以单独操作。仪表盘要求至少要有镜像服务,计算服务和网络服务。

    你必须用有管理员权限的帐号来配置每个节点。可以用 root 用户或 sudo 工具来执行这些命令。

    为获得最好的性能,我们推荐在你的环境中符合或超过在 :ref:`figure-hwreqs`中的硬件要求。

    以下最小需求支持概念验证环境,使用核心服务和几个:term:`CirrOS`实例:

    • 控制节点: 1 处理器, 4 GB 内存, 及5 GB 存储
    • 计算节点: 1 处理器, 2 GB 内存, 及10 GB 存储

    由于Openstack服务数量以及虚拟机数量的正常,为了获得最好的性能,我们推荐你的环境满足或者超过基本的硬件需求。如果在增加了更多的服务或者虚拟机后性能下降,请考虑为你的环境增加硬件资源。

    为了避免混乱和为OpenStack提供更多资源,我们推荐你最小化安装你的Linux发行版。同时,你必须在每个节点安装你的发行版的64位版本。

    每个节点配置一个磁盘分区满足大多数的基本安装。但是,对于有额外服务如块存储服务的,你应该考虑采用 :term:`Logical Volume Manager (LVM)`进行安装。

    对于第一次安装和测试目的,很多用户选择使用 :term:`virtual machine (VM)`作为主机。使用虚拟机的主要好处有一下几点:

    • 一台物理服务器可以支持多个节点,每个节点几乎可以使用任意数目的网络接口。
    • 在安装过程中定期进行“快照”并且在遇到问题时可以“回滚”到上一个可工作配置的能力。

    但是,虚拟机会降低您实例的性能,特别是如果您的 hypervisor 和/或 进程缺少硬件加速的嵌套虚拟机支持时。


    安全

      

    Contents

    •  

    OpenStack 服务支持各种各样的安全方式,包括密码 password、policy 和 encryption,支持的服务包括数据库服务器,且消息 broker 至少支持 password 的安全方式。

    为了简化安装过程,本指南只包含了可适用的密码安全。你可以手动创建安全密码,使用`pwgen <http://sourceforge.net/projects/pwgen/>`__工具生成密码或者通过运行下面的命令:

    $ openssl rand -hex 10

    对 OpenStack 服务而言,本指南使用``SERVICE_PASS`` 表示服务帐号密码,使用``SERVICE_DBPASS`` 表示数据库密码。

    下面的表格给出了需要密码的服务列表以及它们在指南中关联关系:

    密码

    密码名称

    描述

    数据库密码(不能使用变量)

    数据库的root密码

    ADMIN_PASS

    admin 用户密码

    CEILOMETER_DBPASS

    Telemetry 服务的数据库密码

    CEILOMETER_PASS

    Telemetry 服务的 ceilometer 用户密码

    CINDER_DBPASS

    块设备存储服务的数据库密码

    CINDER_PASS

    块设备存储服务的 cinder 密码

    DASH_DBPASS

    Database password for the dashboard

    DEMO_PASS

    demo 用户的密码

    GLANCE_DBPASS

    镜像服务的数据库密码

    GLANCE_PASS

    镜像服务的 glance 用户密码

    HEAT_DBPASS

    Orchestration服务的数据库密码

    HEAT_DOMAIN_PASS

    Orchestration 域的密码

    HEAT_PASS

    Orchestration 服务中``heat``用户的密码

    KEYSTONE_DBPASS

    认证服务的数据库密码

    NEUTRON_DBPASS

    网络服务的数据库密码

    NEUTRON_PASS

    网络服务的 neutron 用户密码

    NOVA_DBPASS

    计算服务的数据库密码

    NOVA_PASS

    计算服务中``nova``用户的密码

    RABBIT_PASS

    RabbitMQ的guest用户密码

    SWIFT_PASS

    对象存储服务用户``swift``的密码

    OpenStack和配套服务在安装和操作过程中需要管理员权限。在很多情况下,服务可以与自动化部署工具如 Ansible, Chef,和 Puppet进行交互,对主机进行修改。例如,一些OpenStack服务添加root权限 sudo 可以与安全策略进行交互。更多信息,可以参考 `管理员参考<http://docs.openstack.org/ admin-guide/compute-root-wrap-reference.html>`__ 。

    另外,网络服务设定内核网络参数的默认值并且修改防火墙规则。为了避免你初始化安装的很多问题,我们推荐在你的主机上使用支持的发行版本。不管怎样,如果你选择自动化部署你的主机,在进一步操作前检查它们的配置和策略。


    主机网络

      

    Contents

    在你按照你选择的架构,完成各个节点操作系统安装以后,你必须配置网络接口。我们推荐你禁用自动网络管理工具并手动编辑你相应版本的配置文件。更多关于如何配置你版本网络信息内容,参考 documentation 。

    出于管理目的,例如:安装包,安全更新, DNS`和 :term:`NTP,所有的节点都需要可以访问互联网。在大部分情况下,节点应该通过管理网络接口访问互联网。为了更好的突出网络隔离的重要性,示例架构中为管理网络使用`private address space <https://tools.ietf.org/html/rfc1918>`__ 并假定物理网络设备通过 :term:`NAT`或者其他方式提供互联网访问。示例架构使用可路由的IP地址隔离服务商(外部)网络并且假定物理网络设备直接提供互联网访问。

    在提供者网络架构中,所有实例直接连接到提供者网络。在自服务(私有)网络架构,实例可以连接到自服务或提供者网络。自服务网络可以完全在openstack环境中或者通过外部网络使用:term:NAT 提供某种级别的外部网络访问。

    示例架构假设使用如下网络:

    • 管理使用 10.0.0.0/24 带有网关 10.0.0.254

    这个网络需要一个网关以为所有节点提供内部的管理目的的访问,例如包的安装、安全更新、 DNS,和 NTP

    • 提供者网段 不用设置。

    这个网络需要一个网关来提供在环境中内部实例的访问。

    您可以修改这些范围和网关来以您的特定网络设施进行工作。

    网络接口由发行版的不同而有各种名称。传统上,接口使用 “eth” 加上一个数字序列命名。为了覆盖到所有不同的名称,本指南简单地将数字最小的接口引用为第一个接口,第二个接口则为更大数字的接口。

    除非您打算使用该架构样例中提供的准确配置,否则您必须在本过程中修改网络以匹配您的环境。并且,每个节点除了 IP 地址之外,还必须能够解析其他节点的名称。例如,controller这个名称必须解析为 10.0.0.11,即控制节点上的管理网络接口的 IP 地址。

     

    警告

    重新配置网络接口会中断网络连接。我们建议使用本地终端会话来进行这个过程。

     

    注解

    你的发行版本默认启用了限制 firewall 。在安装过程中,有些步骤可能会失败,除非你允许或者禁用了防火墙。更多关于安全的资料,参考 OpenStack Security Guide(文档0已关闭防火墙和selinux

     


    一、模板服务器安装与配置

    1.网络设置

      

    配置网络接口

    将第一个接口配置为管理网络接口:

    IP 地址: 10.0.0.11

    子网掩码: 255.255.255.0 (or /24)

    默认网关: 10.0.0.254

    提供者网络接口使用一个特殊的配置,不分配给它IP地址。配置第二块网卡作为提供者网络:

    将其中的 INTERFACE_NAME替换为实际的接口名称。例如,eth1 或者*ens224*。

      • 编辑``/etc/sysconfig/network-scripts/ifcfg-INTERFACE_NAME``文件包含以下内容:

    DEVICE=INTERFACE_NAME

    TYPE=Ethernet

    ONBOOT="yes"

    BOOTPROTO="none"

    重启系统以激活修改。

    配置域名解析

    设置节点主机名为 base

    #hostnamectl set-hostname base

    编辑 /etc/hosts 文件包含以下内容:

    # controller

    10.0.0.11       controller

     

    # compute1

    10.0.0.31       compute1

     

    # block1

    10.0.0.41       block1

     

    # object1

    10.0.0.51       object1

     

    # object2

    10.0.0.52       object2

     

    警告

    一些发行版本在``/etc/hosts``文件中添加了附加条目解析实际主机名到另一个IP地址如 127.0.1.1。为了防止域名解析问题,你必须注释或者删除这些条目。不要删除127.0.0.1条目。

     

     

    2.网络时间协议(NTP)

      

    安装软件包:

    # yum install chrony

    启动 NTP 服务并将其配置为随系统启动:

    # systemctl enable chronyd.service

    # systemctl start chronyd.service

    3OpenStack包

      

    启用OpenStack库

    • 在CentOS中, ``extras``仓库提供用于启用 OpenStack 仓库的RPM包。 CentOS 默认启用``extras``仓库,因此你可以直接安装用于启用OpenStack仓库的包。(现有pike,queens和rockey三个版本,选择其中一个进行安装)

    #yum install centos-release-openstack-pike|queens|rocky

    修改yum

    #cd /etc/yum.repos.d

    #vi CentOS-OpenStack-XXX.repo(XXX替换为相应版本: pike|queens|rocky,下面pike版为例进行修改或添加)

     [centos-openstack-pike]

    name=CentOS-7 - OpenStack pike ftpserver

    #baseurl=http://mirror.centos.org/centos/7/cloud/$basearch/openstack-ocata/

    baseurl=http://10.10.45.193/ centos/7/cloud/$basearch/openstack-pike/

    #vi CentOS-Ceph-Jewel|hammer|luminous.repo(对应修改)

    [centos-ceph-jewel]

    name=CentOS-$releasever - Ceph Jewel ftpserver

    #baseurl=http://mirror.centos.org/centos/$releasever/storage/$basearch/ceph-jewel/

    baseurl=http://10.10.45.193/ centos/$releasever/storage/$basearch/ceph-jewel/

    #vi CentOS-QEMU-EV.repo

    …[centos-qemu-ev]

    name=CentOS-$releasever - QEMU EV ftpserver

    #baseurl=http://mirror.centos.org/centos/$releasever/virt/$basearch/kvm-common/

    baseurl=http://10.10.45.193/ centos/$releasever /virt/$basearch/kvm-common/

    #yum clean all

    验证

    #yum repolist

    Determining fastest mirrors

    repo id                repo name           status

    base/x86_64        CentOS-7 - Base -ftpserver    9,591

    centos-ceph-jewel/x86_64    CentOS-7 - Ceph Jewel ftpserver  53

    centos-openstack-ocata/x86_64    CentOS-7 - OpenStack ocata ftpserver    1,559+2

    centos-qemu-ev/x86_64            CentOS-7 - QEMU EV ftpserver                 35

    extras/x86_64                    CentOS-7 - Extras - ftpserver               278

    updates/x86_64                   CentOS-7 - Updates -ftpserver             1,041

    repolist: 12,557

     

    完成安装

    1. 在主机上升级包:

    # yum upgrade

     

    注解

    如果更新了一个新内核,重启主机来使用新内核。

    1. 安装 OpenStack 客户端:

    # yum install python-openstackclient

    1. 安装 openstack-selinux 软件包以便自动管理 OpenStack 服务的安全策略:

    # yum install openstack-selinux

     

    二、制作各节点服务器

    克隆模板服务器,分别命名为controller,compute1,block1,object1,object2。

    然后完成以下操作。

    1.控制节点

    配置网络接口

    修改网络配置:将第一个接口配置为管理网络接口:

    IP 地址: 10.0.0.11

    子网掩码: 255.255.255.0 (or /24)

    默认网关: 10.0.0.254

      • 编辑``/etc/sysconfig/network-scripts/ifcfg-INTERFACE_NAME``文件包含以下内容:
      • IPADDR=10.0.0.11

    配置主机名

    设置节点主机名为 controller。

    #hostnamectl set-hostname controller

     

    修改NTP服务器配置

    编辑 /etc/chrony.conf 文件,按照你环境的要求,对下面的键进行修改:

    server 10.10.45.193 iburst

     

     为了允许其他节点可以连接到控制节点的 chrony 后台进程,在``/etc/chrony.conf`` 文件添加下面的键:

    allow 10.0.0.0/24

    重启系统以激活修改。

    计算节点

      

    配置网络接口

    修改网络配置:将第一个接口配置为管理网络接口:

    IP 地址: 10.0.0.31

    子网掩码: 255.255.255.0 (or /24)

    默认网关: 10.0.0.254

      • 编辑``/etc/sysconfig/network-scripts/ifcfg-INTERFACE_NAME``文件包含以下内容:
      • IPADDR=10.0.0.31

    配置主机名

    设置节点主机名为 compute1。

    #hostnamectl set-hostname compute1

     

    修改NTP服务配置

    编辑``/etc/chrony.conf`` 文件并注释除``server`` 值外的所有内容。修改它引用控制节点:

    server controller iburst 

    重启系统以激活修改。

    块存储节点(可选)

      

    Contents

    配置网络接口

    修改网络配置:将第一个接口配置为管理网络接口:

    IP 地址: 10.0.0.41

    子网掩码: 255.255.255.0 (or /24)

    默认网关: 10.0.0.254

      • 编辑``/etc/sysconfig/network-scripts/ifcfg-INTERFACE_NAME``文件包含以下内容:
      • IPADDR=10.0.0.41

    配置主机名

    设置节点主机名为 block1。

    #hostnamectl set-hostname block1

     

    修改NTP服务配置

    编辑``/etc/chrony.conf`` 文件并注释除``server`` 值外的所有内容。修改它引用控制节点:

    server controller iburst 

    重启系统以激活修改。

     

    对象存储节点(可选)

      

    配置网络接口

    修改网络配置:将第一个接口配置为管理网络接口:

    IP 地址: 10.0.0.51

    子网掩码: 255.255.255.0 (or /24)

    默认网关: 10.0.0.254

      • 编辑``/etc/sysconfig/network-scripts/ifcfg-INTERFACE_NAME``文件包含以下内容:
      • IPADDR=10.0.0.51

    配置主机名

    设置节点主机名为 object1。

    #hostnamectl set-hostname object1

     

    修改NTP服务配置

    编辑``/etc/chrony.conf`` 文件并注释除``server`` 值外的所有内容。修改它引用控制节点:

    server controller iburst 

    重启系统以激活修改。

    第二个节点

    配置网络接口

    修改网络配置:将第一个接口配置为管理网络接口:

    IP 地址: 10.0.0.52

    子网掩码: 255.255.255.0 (or /24)

    默认网关: 10.0.0.254

      • 编辑``/etc/sysconfig/network-scripts/ifcfg-INTERFACE_NAME``文件包含以下内容:
      • IPADDR=10.0.0.52

    配置主机名

    设置节点主机名为 object2。

    #hostnamectl set-hostname object2

     

    修改NTP服务配置

    编辑``/etc/chrony.conf`` 文件并注释除``server`` 值外的所有内容。修改它引用控制节点:

    server controller iburst 

    重启系统以激活修改。

    验证连通性

      

    Contents

    1. 从*controller*节点,测试能否连接到 Internet:ping 10.10.45.193
    2.  controller 节点,测试到*compute* 节点管理网络是否连通:ping compute1

    # ping -c 4 compute1

    PING compute1 (10.0.0.31) 56(84) bytes of data.

    64 bytes from compute1 (10.0.0.31): icmp_seq=3 ttl=64 time=0.203 ms

    64 bytes from compute1 (10.0.0.31): icmp_seq=4 ttl=64 time=0.202 ms

     

    --- compute1 ping statistics ---

    4 packets transmitted, 4 received, 0% packet loss, time 3000ms

    rtt min/avg/max/mdev = 0.202/0.217/0.263/0.030 ms

    3. compute 节点,测试能否连接到 Internet:ping 10.10.45.193

    4. compute 节点,测试到*controller* 节点管理网络是否连通:

    # ping -c 4 controller

    PING controller (10.0.0.11) 56(84) bytes of data.

    64 bytes from controller (10.0.0.11): icmp_seq=1 ttl=64 time=0.263 ms

    64 bytes from controller (10.0.0.11): icmp_seq=2 ttl=64 time=0.202 ms

    64 bytes from controller (10.0.0.11): icmp_seq=3 ttl=64 time=0.203 ms

    64 bytes from controller (10.0.0.11): icmp_seq=4 ttl=64 time=0.202 ms

     

    --- controller ping statistics ---

    4 packets transmitted, 4 received, 0% packet loss, time 3000ms

    rtt min/avg/max/mdev = 0.202/0.217/0.263/0.030 ms

     验证NTP服务器

    1. 在控制节点上执行这个命令:

    # chronyc sources

      210 Number of sources = 2

      MS Name/IP address         Stratum Poll Reach LastRx Last sample

      ===============================================================================

       ^* 10.10.45.193                    2   6   177    46    +17us[  -23us] +/-   68ms

     Name/IP address 列的内容应显示NTP服务器的主机名或者IP地址。在 S 列的内容应该在NTP服务目前同步的上游服务器前显示 *

    1. 在所有其他节点执行相同命令:

    # chronyc sources

      210 Number of sources = 1

      MS Name/IP address         Stratum Poll Reach LastRx Last sample

      ===============================================================================

      ^* controller                    3    9   377   421    +15us[  -87us] +/-   15ms

     Name/IP address 列的内容应显示控制节点的主机名。

     

    、在controller节点完成以下操作

    SQL数据库

      

    安全并配置组件

    1. 安装软件包:

    # yum install mariadb mariadb-server python2-PyMySQL

    1. 创建并编辑 /etc/my.cnf.d/openstack.cnf,然后完成如下动作:
      •  [mysqld] 部分,设置 ``bind-address``值为控制节点的管理网络IP地址以使得其它节点可以通过管理网络访问数据库:

    [mysqld]

    ...

    bind-address = 10.0.0.11

    default-storage-engine = innodb

    innodb_file_per_table=on

    max_connections = 4096

    collation-server = utf8_general_ci

    character-set-server = utf8

     

    完成安装

    1. 启动数据库服务,并将其配置为开机自启:

    # systemctl enable mariadb.service

    # systemctl start mariadb.service

    1. 为了保证数据库服务的安全性,运行``mysql_secure_installation``脚本。特别需要说明的是,为数据库的root用户设置一个适当的密码。

    # mysql_secure_installation

    建议密码设置的易记

     

    消息队列

      

    安全并配置组件

    1. 安装包:

    # yum install rabbitmq-server

    1. 启动消息队列服务并将其配置为随系统启动:

    # systemctl enable rabbitmq-server.service

    # systemctl start rabbitmq-server.service

    1. 添加 openstack 用户:

    # rabbitmqctl add_user openstack RABBIT_PASS

    Creating user "openstack" ...

    ...done.

    用合适的密码替换 RABBIT_DBPASS

    1. 给``openstack``用户配置写和读权限:

    # rabbitmqctl set_permissions openstack ".*" ".*" ".*"

    Setting permissions for user "openstack" in vhost "/" ...

    ...done.


    Memcached

      

    并配置组件

    安装软件包:

    # yum install memcached python-memcached

    编辑/etc/sysconfig/memcached 文件,完成如下操作:

    OPTIONS=”-l 127.0.0.0,::1,controller”

    注:修改当前存在的这一行:

    OPTIONS=”-l 127.0.0.0,::1”

    完成安装

    • 启动Memcached服务,并且配置它随机启动。
    • # systemctl enable memcached.service

    # systemctl start memcached.service

     

     

     

     

     

    安装Etcd

    并配置组件

    安装软件包:

    # yum install etcd

    编辑 /etc/etcd/etcd.conf文件并设置 ETCD_INITIAL_CLUSTER, ETCD_INITIAL_ADVERTISE_PEER_URLS,ETCD_ADVERTISE_CLIENT_URLS, ETCD_LISTEN_CLIENT_URLS 指向控制节点的管理ip地址,使得其他节点可以通过管理网络访问: 

    #[Member]

    ETCD_DATA_DIR="/var/lib/etcd/default.etcd"

    ETCD_LISTEN_PEER_URLS="http://10.0.0.11:2380"

    ETCD_LISTEN_CLIENT_URLS="http://10.0.0.11:2379"

    ETCD_NAME="controller"

    #[Clustering]

    ETCD_INITIAL_ADVERTISE_PEER_URLS="http://10.0.0.11:2380"

    ETCD_ADVERTISE_CLIENT_URLS="http://10.0.0.11:2379"

    ETCD_INITIAL_CLUSTER="controller=http://10.0.0.11:2380"

    ETCD_INITIAL_CLUSTER_TOKEN="etcd-cluster-01"

    ETCD_INITIAL_CLUSTER_STATE="new"

    完成安装

    启动服务:

    # systemctl enable etcd

    # systemctl start etcd

     

     

     

     

     

     

    展开全文
  • 节点采用主从式树型架构进行分布式控制和管理, 高速数据流在各级节点基于组播方式实现异步交换, 可实现大批量计算、存储节点的可扩展性互连。提出了基于循环光纤延时线的全光分组冲突解决机制。介绍了互连网络节点...
  • 计算服务Nova使用OpenStack Compute来托管管理云计算系统。 OpenStack Compute是基础架构即服务(IaaS)系统的主要部分。 主要模块用Python实现。OpenStack Compute与OpenStack Identity交互以进行身份验证; 用于...

    计算服务Nova
    使用OpenStack Compute来托管和管理云计算系统。 OpenStack Compute是基础架构即服务(IaaS)系统的主要部分。 主要模块用Python实现。
    OpenStack Compute与OpenStack Identity交互以进行身份验证; 用于磁盘和服务器映像的OpenStack映像服务; 和OpenStack Dashboard用于用户和管理界面。
    图像访问受项目和用户的限制; 配额是按项目限制的(例如,实例数)。 OpenStack Compute可以在标准硬件上水平扩展,并将图像下载到启动实例。

    节点配置信息说明:

    控制节点:controller: 
    IP:192.168.164.128 
    hostname&hosts:likeadmin

    计算加点:Nova: 

    IP:192.168.164.129 
    hostname&hosts:likenode

    块存储节点:cinder: 

    IP:192.168.164.136 
    hostname&hosts:likeblock

    1. OpenStack计算服务由下列组件所构成:
    ``nova-api``服务
    接收和响应来自最终用户的计算API请求。此服务支持OpenStack计算服务API,Amazon EC2 API,以及特殊的管理API用于赋予用户做一些管理的操作。它会强制实施一些规则,发起多数的编排活动,例如运行一个实例。
    ``NOVA-API-metadata``服务
    接受来自实例的元数据请求。 当您在具有nova-network安装的多主机模式下运行时,通常会使用nova-api-metadata服务。 有关详细信息,请参阅“OpenStack管理员指南”中的元数据服务。
    ``NOVA-API-metadata``服务
    接受来自实例的元数据请求。 当您在具有nova-network安装的多主机模式下运行时,通常会使用nova-api-metadata服务。 有关详细信息,请参阅“OpenStack管理员指南”中的元数据服务。
    ``nova-compute``服务
    一个持续工作的守护进程,通过Hypervior的API来创建和销毁虚拟机实例。例如:
    XenServer/XCP 的 XenAPI
    KVM 或 QEMU 的 libvirt
    VMware 的 VMwareAPI
    过程是蛮复杂的。最为基本的,守护进程同意了来自队列的动作请求,转换为一系列的系统命令如启动一个KVM实例,然后,到数据库中更新它的状态。
    nova-placement-api服务
    跟踪每个提供商的库存和使用情况。
    ``NOVA-scheduler``服务
    拿到一个来自队列请求虚拟机实例,然后决定那台计算服务器主机来运行它。
    ``NOVA-conductor``模块
    调解nova-compute服务与数据库之间的交互。它消除了nova-compute服务对云数据库的直接访问。 nova-conductor模块水平缩放。但是,请勿将其部署在运行nova-compute服务的节点上。有关更多信息,请参阅“配置参考指南”
    nova-cert模块
    服务器守护进程向Nova Cert服务提供X509证书。用来为``euca-bundle-image``生成证书。仅仅是在EC2 API的请求中使用
    nova-consoleauth模块
    为控制台代理提供的用户授权令牌。请参阅nova-novncproxy和nova-xvpvncproxy。必须运行此服务才能使控制台代理生效。您可以针对群集配置中的单个nova-consoleauth服务运行任一类型的代理。有关信息,请参阅关于nova-consoleauth。
    nova-novncproxy模块
    提供一个代理,用于访问正在运行的实例,通过VNC协议,支持基于浏览器的novnc客户端。
    ``NOVA-spicehtml5proxy``守护进程
    提供一个代理,用于访问正在运行的实例,通过SPICE协议,支持基于浏览器的HTML5客户端。
    nova-xvpvncproxy守护进程
    提供一个代理,用于访问正在运行的实例,通过VNC协议,支持OpenStack的特定的Java的客户端。
    队列
    用于在守护进程之间传递消息的中央集线器。通常用RabbitMQ实现,也可以用另一个AMQP消息队列实现,比如ZeroMQ。
    SQL数据库
    存储构建时和运行时的状态,为云基础设施,包括有:
    可用实例类型
    使用中的实例
    可用网络
    项目
    从理论上讲,OpenStack Compute可以支持SQLAlchemy支持的任何数据库。常见的数据库是用于测试和开发工作的SQLite3,MySQL,MariaDB和PostgreSQL。


    2.安装并配置控制节点
    注:这个部分将描述如何在控制节点上安装和配置 Compute 服务,即 nova
    在安装和配置 Compute 服务前,你必须创建数据库服务的凭据以及 API endpoints。

    为了创建数据库,必须完成这些步骤:

    用数据库连接客户端以 root 用户连接到数据库服务器:
    $ mysql -u root -p

    1)创建计算服务器的nova_api, nova, and nova_cell0 数据库:
    MariaDB [(none)]> CREATE DATABASE nova_api;
    MariaDB [(none)]> CREATE DATABASE nova;
    MariaDB [(none)]> CREATE DATABASE nova_cell0;

    2)对数据库进行正确的授权:

    MariaDB [(none)]> GRANT ALL PRIVILEGES ON nova_api.* TO 'nova'@'localhost' \
    IDENTIFIED BY 'djl18001';
    MariaDB [(none)]> GRANT ALL PRIVILEGES ON nova_api.* TO 'nova'@'%' \
    IDENTIFIED BY 'djl18001';

    MariaDB [(none)]> GRANT ALL PRIVILEGES ON nova.* TO 'nova'@'localhost' \
    IDENTIFIED BY 'djl18001';
    MariaDB [(none)]> GRANT ALL PRIVILEGES ON nova.* TO 'nova'@'%' \
    IDENTIFIED BY 'djl18001';

    MariaDB [(none)]> GRANT ALL PRIVILEGES ON nova_cell0.* TO 'nova'@'localhost' \
    IDENTIFIED BY 'djl18001';
    MariaDB [(none)]> GRANT ALL PRIVILEGES ON nova_cell0.* TO 'nova'@'%' \
    IDENTIFIED BY 'djl18001';
    用合适的密码代替 NOVA_DBPASS。此试验环境选用的是:djl18001作为密码,生成环境,请使用密文作为密码。

    MariaDB [(none)]> show databases;
    +--------------------+
    | Database |
    +--------------------+
    | glance |
    | information_schema |
    | keystone |
    | mysql |
    | nova |
    | nova_api |
    | nova_cell0 |
    | performance_schema |
    +--------------------+
    8 rows in set (0.00 sec)

    2)获得 admin 凭证来获取只有管理员能执行的命令的访问权限:
    [root@likeadmin ~]# source /root/.admin-openrc

    3)创建Compute服务凭据:
    创建 nova 用户:
    [root@likeadmin ~]# openstack user create --domain default --password-prompt nova
    User Password: djl18001
    Repeat User Password:
    +---------------------+----------------------------------+
    | Field | Value |
    +---------------------+----------------------------------+
    | domain_id | default |
    | enabled | True |
    | id | 42c406d7a7ed4784a08a6f2696c2db6c |
    | name | nova |
    | options | {} |
    | password_expires_at | None |
    +---------------------+----------------------------------+
    [root@likeadmin ~]#
    给 nova 用户添加 admin 角色:
    [root@likeadmin ~]# openstack role add --project service --user nova admin
    创建 nova 服务实体:
    [root@likeadmin ~]# openstack service create --name nova \
    > --description "OpenStack Compute" compute
    +-------------+----------------------------------+
    | Field | Value |
    +-------------+----------------------------------+
    | description | OpenStack Compute |
    | enabled | True |
    | id | 4378f37a2c6a4f14b0123f2c9b46a9ec |
    | name | nova |
    | type | compute |
    +-------------+----------------------------------+
    [root@likeadmin ~]#


    4)创建Compute API服务端点:
    [root@likeadmin ~]# openstack endpoint create --region RegionOne \
    > compute public http://likeadmin:8774/v2.1/%\(tenant_id\)s
    +--------------+------------------------------------------+
    | Field | Value |
    +--------------+------------------------------------------+
    | enabled | True |
    | id | ea27f64912a3468f9c77df9298ae6fd7 |
    | interface | public |
    | region | RegionOne |
    | region_id | RegionOne |
    | service_id | 4378f37a2c6a4f14b0123f2c9b46a9ec |
    | service_name | nova |
    | service_type | compute |
    | url | http://likeadmin:8774/v2.1/%(tenant_id)s |
    +--------------+------------------------------------------+
    [root@likeadmin ~]# openstack endpoint create --region RegionOne \
    > compute internal http://likeadmin:8774/v2.1/%\(tenant_id\)s
    +--------------+------------------------------------------+
    | Field | Value |
    +--------------+------------------------------------------+
    | enabled | True |
    | id | 829019c5bfe94637af4876725213690e |
    | interface | internal |
    | region | RegionOne |
    | region_id | RegionOne |
    | service_id | 4378f37a2c6a4f14b0123f2c9b46a9ec |
    | service_name | nova |
    | service_type | compute |
    | url | http://likeadmin:8774/v2.1/%(tenant_id)s |
    +--------------+------------------------------------------+
    [root@likeadmin ~]# openstack endpoint create --region RegionOne \
    > compute admin http://likeadmin:8774/v2.1/%\(tenant_id\)s
    +--------------+------------------------------------------+
    | Field | Value |
    +--------------+------------------------------------------+
    | enabled | True |
    | id | 2d3ee70a3c4c4cb399ba3a689a7fdf82 |
    | interface | admin |
    | region | RegionOne |
    | region_id | RegionOne |
    | service_id | 4378f37a2c6a4f14b0123f2c9b46a9ec |
    | service_name | nova |
    | service_type | compute |
    | url | http://likeadmin:8774/v2.1/%(tenant_id)s |
    +--------------+------------------------------------------+
    [root@likeadmin ~]#
    [root@likeadmin ~]# openstack endpoint list
    +----------------------------------+-----------+--------------+--------------+---------+-----------+------------------------------------------+
    | ID | Region | Service Name | Service Type | Enabled | Interface | URL |
    +----------------------------------+-----------+--------------+--------------+---------+-----------+------------------------------------------+
    | 0f5af5f9e444442eb07ad78fe1314705 | RegionOne | keystone | identity | True | internal | http://likeadmin:5000/v3/ |
    | 2d3ee70a3c4c4cb399ba3a689a7fdf82 | RegionOne | nova | compute | True | admin | http://likeadmin:8774/v2.1/%(tenant_id)s |
    | 36495ec2b54a4a07a8cd83745a3a19b8 | RegionOne | glance | image | True | public | http://likeadmin:9292 |
    | 59ee7ce4b50d4142b5a66c8ab3c8e01a | RegionOne | glance | image | True | admin | http://likeadmin:9292 |
    | 829019c5bfe94637af4876725213690e | RegionOne | nova | compute | True | internal | http://likeadmin:8774/v2.1/%(tenant_id)s |
    | 8a1893ba8035440f8e4a7bdc440ffef8 | RegionOne | glance | image | True | internal | http://likeadmin:9292 |
    | b572d79c6f5c47a789b258ec7474599c | RegionOne | keystone | identity | True | public | http://likeadmin:5000/v3/ |
    | ea27f64912a3468f9c77df9298ae6fd7 | RegionOne | nova | compute | True | public | http://likeadmin:8774/v2.1/%(tenant_id)s |
    | ed967ed76c6141cba66f6f20b9b9c5f2 | RegionOne | keystone | identity | True | admin | http://likeadmin:35357/v3/ |
    +----------------------------------+-----------+--------------+--------------+---------+-----------+------------------------------------------+
    [root@likeadmin ~]#

    5)使用您选择的PLACEMENT_PASS创建一个Placement服务用户:
    [root@likeadmin ~]# openstack user create --domain default --password-prompt placement
    User Password: djl18001
    Repeat User Password:
    +---------------------+----------------------------------+
    | Field | Value |
    +---------------------+----------------------------------+
    | domain_id | default |
    | enabled | True |
    | id | 4025c84b6bfe4470bcb8d66d530fce62 |
    | name | placement |
    | options | {} |
    | password_expires_at | None |
    +---------------------+----------------------------------+
    [root@likeadmin ~]#
    使用admin角色将Placement用户添加到服务项目:
    [root@likeadmin ~]# openstack role add --project service --user placement admin

    6)在服务目录中创建Placement API条目:
    [root@likeadmin ~]# openstack service create --name placement --description "Placement API" placement
    +-------------+----------------------------------+
    | Field | Value |
    +-------------+----------------------------------+
    | description | Placement API |
    | enabled | True |
    | id | a9d8071fc5024ea7a160ffdf2b2629cd |
    | name | placement |
    | type | placement |
    +-------------+----------------------------------+
    [root@likeadmin ~]#

    7)创建Placement API服务端点:
    [root@likeadmin ~]# openstack endpoint create --region RegionOne placement public http://likeadmin:8778
    +--------------+----------------------------------+
    | Field | Value |
    +--------------+----------------------------------+
    | enabled | True |
    | id | 5e5a460effe3446bbad3d434a0c128c4 |
    | interface | public |
    | region | RegionOne |
    | region_id | RegionOne |
    | service_id | a9d8071fc5024ea7a160ffdf2b2629cd |
    | service_name | placement |
    | service_type | placement |
    | url | http://likeadmin:8778 |
    +--------------+----------------------------------+
    [root@likeadmin ~]# openstack endpoint create --region RegionOne placement internal http://likeadmin:8778
    +--------------+----------------------------------+
    | Field | Value |
    +--------------+----------------------------------+
    | enabled | True |
    | id | 94c895aac78141f8a397a1c0f80f8ea1 |
    | interface | internal |
    | region | RegionOne |
    | region_id | RegionOne |
    | service_id | a9d8071fc5024ea7a160ffdf2b2629cd |
    | service_name | placement |
    | service_type | placement |
    | url | http://likeadmin:8778 |
    +--------------+----------------------------------+
    [root@likeadmin ~]# openstack endpoint create --region RegionOne placement admin http://likeadmin:8778
    +--------------+----------------------------------+
    | Field | Value |
    +--------------+----------------------------------+
    | enabled | True |
    | id | e54a008fe46741588458cf66fd67c31f |
    | interface | admin |
    | region | RegionOne |
    | region_id | RegionOne |
    | service_id | a9d8071fc5024ea7a160ffdf2b2629cd |
    | service_name | placement |
    | service_type | placement |
    | url | http://likeadmin:8778 |
    +--------------+----------------------------------+
    [root@likeadmin ~]#

    3。安全并配置组件
    1)安装软件包:
    #yum install openstack-nova-api openstack-nova-conductor \
    openstack-nova-console openstack-nova-novncproxy \
    openstack-nova-scheduler openstack-nova-placement-api
    2)编辑``/etc/nova/nova.conf``文件并完成下面的操作:
    在``[DEFAULT]``部分,只启用计算和元数据API:
    [DEFAULT]
    # ...
    enabled_apis = osapi_compute,metadata

    在``[api_database]``和``[database]``部分,配置数据库的连接:
    [api_database]
    # ...
    connection = mysql+pymysql://nova:djl18001@likeadmin/nova_api

    [database]
    # ...
    connection = mysql+pymysql://nova:djl18001@likeadmin/nova
    用你为 Compute 数据库选择的密码来代替 NOVA_DBPASS。

    在``[DEFAULT]``部分,配置``RabbitMQ``消息队列访问权限:
    [DEFAULT]
    # ...
    transport_url = rabbit://openstack:djl18001@likeadmin
    用你在 “RabbitMQ” 中为 “openstack” 选择的密码替换 “RABBIT_PASS”。

    In the [api] and [keystone_authtoken] sections, configure Identity service access:
    [api]
    # ...
    auth_strategy = keystone

    [keystone_authtoken]
    # ...
    auth_uri = http://likeadmin:5000
    auth_url = http://likeadmin:35357
    memcached_servers = likeadmin:11211
    auth_type = password
    project_domain_name = default
    user_domain_name = default
    project_name = service
    username = nova
    password = djl18001
    使用你在身份认证服务中设置的``nova`` 用户的密码替换``NOVA_PASS``。

    在 [DEFAULT 部分,配置``my_ip`` 来使用控制节点的管理接口的IP 地址。
    [DEFAULT]
    # ...
    my_ip = 192.168.164.128

    在 ``[DEFAULT]``部分,启用网络服务支持:
    [DEFAULT]
    # ...
    use_neutron = True
    firewall_driver = nova.virt.firewall.NoopFirewallDriver
    注解:默认情况下,计算服务使用内置的防火墙服务。由于网络服务包含了防火墙服务,你必须使用``nova.virt.firewall.NoopFirewallDriver``防火墙服务来禁用掉计算服务内置的防火墙服务

    在``[vnc]``部分,配置VNC代理使用控制节点的管理接口IP地址 :
    [vnc]
    enabled = true
    # ...
    vncserver_listen = $my_ip
    vncserver_proxyclient_address = $my_ip

    在 [glance] 区域,配置镜像服务 API 的位置:
    [glance]
    # ...
    api_servers = http://likeadmin:9292

    在 [oslo_concurrency] 部分,配置锁路径:
    [oslo_concurrency]
    # ...
    lock_path = /var/lib/nova/tmp

    在[placement]部分中,配置Placement API:
    [placement]
    # ...
    os_region_name = RegionOne
    project_domain_name = Default
    project_name = service
    auth_type = password
    user_domain_name = Default
    auth_url = http://likeadmin:35357/v3
    username = placement
    password = djl18001
    将PLACEMENT_PASS替换为您在Identity服务中为放置用户选择的密码。 注释掉[placement]部分中的任何其他选项。

    由于 packaging bug,您必须通过将以下配置添加到/etc/httpd/conf.d/00-nova-placement-api.conf来启用对Placement API的访问:
    <Directory /usr/bin>
    <IfVersion >= 2.4>
    Require all granted
    </IfVersion>
    <IfVersion < 2.4>
    Order allow,deny
    Allow from all
    </IfVersion>
    </Directory>

    Restart the httpd service:
    # systemctl restart httpd

    3)填充nova-api数据库:
    # su -s /bin/sh -c "nova-manage api_db sync" nova

    4)注册cell0数据库:
    [root@likeadmin ~]# su -s /bin/sh -c "nova-manage cell_v2 map_cell0" nova
    5)创建cell1小区:
    [root@likeadmin ~]# su -s /bin/sh -c "nova-manage cell_v2 create_cell --name=cell1 --verbose" nova
    1a73b8c8-e82f-4378-9323-a34fe771904b
    6)Populate the nova database:
    [root@likeadmin ~]# su -s /bin/sh -c "nova-manage db sync" nova
    /usr/lib/python2.7/site-packages/pymysql/cursors.py:166: Warning: (1831, u'Duplicate index `block_device_mapping_instance_uuid_virtual_name_device_name_idx`. This is deprecated and will be disallowed in a future release.')
    result = self._query(query)
    /usr/lib/python2.7/site-packages/pymysql/cursors.py:166: Warning: (1831, u'Duplicate index `uniq_instances0uuid`. This is deprecated and will be disallowed in a future release.')
    result = self._query(query)
    [root@likeadmin ~]#


    7)验证nova cell0和cell1是否正确注册:
    [root@likeadmin ~]# nova-manage cell_v2 list_cells
    +-------+--------------------------------------+
    | Name | UUID |
    +-------+--------------------------------------+
    | cell0 | 00000000-0000-0000-0000-000000000000 |
    | cell1 | 1a73b8c8-e82f-4378-9323-a34fe771904b |
    +-------+--------------------------------------+
    [root@likeadmin ~]#

    4.完成安装
    启动 Compute 服务并将其设置为随系统启动:

    # systemctl enable openstack-nova-api.service \
    openstack-nova-consoleauth.service openstack-nova-scheduler.service \
    openstack-nova-conductor.service openstack-nova-novncproxy.service
    # systemctl start openstack-nova-api.service \
    openstack-nova-consoleauth.service openstack-nova-scheduler.service \
    openstack-nova-conductor.service openstack-nova-novncproxy.service

    注:至此在控制节点上部署计算服务Nova已完成

     

    转载于:https://www.cnblogs.com/likezn/p/10789201.html

    展开全文
  • 主要研究访问控制,借鉴社会学中人际关系信任模型,提出“可信”动态级访问控制(Trustworthy and Dynamic Level Access Control,TDLAC)方法,该方法建立云节点的信任机制,计算节点间的信任值的同时,还综合考虑...
  • 1.创建存储池 在ceph节点中执行如下语句。 #ceph osd pool create volumes 128 2.配置 OPENSTACK 的 CEPH 客户端 在ceph节点两次执行如下语句,两...如果显示在控制节点和计算节点中没有ceph文件夹,则在两节点...

    1.创建存储池

     ceph节点中执行如下语句。

    #ceph osd pool create volumes 128

    2.配置 OPENSTACK 的 CEPH 客户端

    ceph节点两次执行如下语句,两次{your-openstack-server}分别填控制节点和计算节点IP。

    如果显示在控制节点和计算节点中没有ceph文件夹,则在两节点中创建对应文件夹。

    #ssh {your-openstack-server} sudo tee /etc/ceph/ceph.conf < /etc/ceph/ceph.conf

    3.安装 CEPH 客户端软件包

      控制节点上进行librbd Python 绑定

    #yum install python-rbd

    计算节点和控制节点进行安装 Python 绑定和客户端命令行工具

    #yum install ceph-common
    
    #yum install ceph

    4.配置 CEPH 客户端认证

    ceph节点Cinder创建新用户

    #ceph auth get-or-create client.cinder mon 'allow r' osd 'allow class-read object_prefix rbd_children, allow rwx pool=volumes'

    ceph节点把 client.cinder的密钥环复制到控制节点,并更改所有权,{your-volume-server}和{your-cinder-volume-server}处填控制节点IP。

    #ceph auth get-or-create client.cinder | ssh {your-volume-server} sudo tee /etc/ceph/ceph.client.cinder.keyring
    
    #ssh {your-cinder-volume-server} sudo chown cinder:cinder /etc/ceph/ceph.client.cinder.keyring 

    ceph节点执行如下语句{your-nova-compute-server}为计算节点IP。

    #ceph auth get-or-create client.cinder | ssh {your-nova-compute-server} sudo tee /etc/ceph/ceph.client.cinder.keyring

    ceph节点client.cinder用户的密钥存进libvirt。libvirt 进程从 Cinder 挂载块设备时要用它访问集群,在运行 nova-compute 的节点上创建一个密钥的临时副本。

    {your-compute-node}为计算节点IP。

    #ceph auth get-key client.cinder | ssh {your-compute-node} tee  /etc/ceph/client.cinder.key
     

    计算节点上执行如下语句,把密钥加进 libvirt 、然后删除临时副本。

    #uuidgen

    记录下产生的数字,将下面的UUIDGEN替换为该数字,并在计算节点执行下列语句

    cat > secret.xml <<EOF
    
    <secret ephemeral='no' private='no'>
    
      <uuid>UUIDGEN</uuid>
    
      <usage type='ceph'>
    
            <name>client.cinder secret</name>
    
      </usage>
    
    </secret>
    
    EOF
    #sudo virsh secret-define --file secret.xml
    
    #sudo virsh secret-set-value --secret 457eb676-33da-42ec-9a8c-9293d545c337 --base64 $(cat client.cinder.key) && rm client.cinder.key secret.xml

    执行完后,记录好上面产生的uuidgen,下面还会用到。

    5.安装并配置控制节点

    5.1先决条件

    控制节点完成下面的步骤以创建数据库:

    用数据库连接客户端以 root 用户连接到数据库服务器:

    #mysql -u root -p

    创建cinde数据库

    #CREATE DATABASE cinder;

    配置 cinder 数据库的访问权限,下列CINDER_DBPASS用合适的密码替换。

    #GRANT ALL PRIVILEGES ON cinder.* TO 'cinder'@'localhost' \
    
      IDENTIFIED BY 'CINDER_DBPASS';
    
    #GRANT ALL PRIVILEGES ON cinder.* TO 'cinder'@'%' \
    
      IDENTIFIED BY 'CINDER_DBPASS';

    退出数据库。

    获得 admin 凭证来获取只有管理员能执行的命令的访问权限:

    # . admin-openrc

    创建服务证书:

    创建一个 cinder 用户:

    #openstack user create --domain default --password-prompt cinder

    添加 admin 角色到 cinder 用户上。

    #openstack role add --project service --user cinder admin

    创建 cinder 和 cinderv2 服务实体:

    #openstack service create --name cinder \
    
      --description "OpenStack Block Storage" volume
    
    #openstack service create --name cinderv2 \
    
      --description "OpenStack Block Storage" volumev2

     

    创建块设备存储服务的 API 入口点:

    #openstack endpoint create --region RegionOne \
    
      volume public http://controller:8776/v1/%\(tenant_id\)s
    
    #openstack endpoint create --region RegionOne \
    
      volume internal http://controller:8776/v1/%\(tenant_id\)s
    
    #openstack endpoint create --region RegionOne \
    
      volume admin http://controller:8776/v1/%\(tenant_id\)s
    
    #openstack endpoint create --region RegionOne \
    
      volumev2 public http://controller:8776/v2/%\(tenant_id\)s
    
    #openstack endpoint create --region RegionOne \
    
      volumev2 internal http://controller:8776/v2/%\(tenant_id\)s
    
    #openstack endpoint create --region RegionOne \
    
      volumev2 admin http://controller:8776/v2/%\(tenant_id\)s

    5.2安装并配置组件

    安装软件包

    # yum install openstack-cinder
    
    #yum install openstack-cinder targetcli python-keystone

    在控制节点上编辑cinder.conf。

    #vi /etc/cinder/cinder.conf

     

    添加如下内容:

    注意:
    1.如果你为 cinder 配置了多后端, [DEFAULT] 节中必须有 glance_api_version = 2

    2.[ceph]中的rbd_secret_uuid后面对应填的刚刚记录的uuid。

    [DEFAULT]
    
    transport_url = rabbit://openstack:RABBIT_PASS@controller
    
    auth_strategy = keystone
    
    my_ip = 控制节点管理网络的IP
    
    enabled_backends = ceph
    
    glance_api_servers = http://controller:9292
    
     
    
    [database]
    
    connection = mysql+pymysql://cinder:CINDER_PASS@controller/cinder
    
     
    
    [keystone_authtoken]
    
    auth_uri = http://controller:5000
    
    auth_url = http://controller:35357
    
    memcached_servers = controller:11211
    
    auth_type = password
    
    project_domain_name = default
    
    user_domain_name = default
    
    project_name = service
    
    username = cinder
    
    password = CINDER_PASS
    
     
    
    [oslo_concurrency]
    
    lock_path = /var/lib/cinder/tmp
     
    
    [ceph]
    
    volume_driver = cinder.volume.drivers.rbd.RBDDriver
    
    rbd_pool = volumes
    
    rbd_ceph_conf = /etc/ceph/ceph.conf
    
    rbd_flatten_volume_from_snapshot = false
    
    rbd_max_clone_depth = 5
    
    rbd_store_chunk_size = 4
    
    rados_connect_timeout = -1
    
    glance_api_version = 2
    
    rbd_user = cinder
    
    rbd_secret_uuid = a852df2b-55e1-4c1b-9fa2-61e77feaf30f

    编辑/etc/nova/nova.conf 添加如下内容:

    [cinder]
    
    os_region_name = RegionOne

    6.重启 OPENSTACK

    控制节点重启计算API 服务:

    # systemctl restart openstack-nova-api.service

     

    启动块设备存储服务,并将其配置为开机自启:

    # systemctl enable openstack-cinder-api.service openstack-cinder-scheduler.service
    
    # systemctl start openstack-cinder-api.service openstack-cinder-scheduler.service

     

    启动块存储卷服务及其依赖的服务,并将其配置为随系统启动:

    # systemctl enable openstack-cinder-volume.service target.service
    
    # systemctl start openstack-cinder-volume.service target.service

     

    7.验证

    控制节点获得 admin 凭证来获取只有管理员能执行的命令的访问权限:

    # . admin-openrc

    列出服务组件以验证是否每个进程都成功启动:

    # cinder service-list

    并且登录界面后可以创建卷

     

     

    展开全文
  • 对服务器初始安装时可用本地用光盘或U盘进行系统安装对控制节点的硬盘分区没有特殊的要求但是对计算节点实例节点一般可预留二个空分区;2; 序号;可以同时配置多个资源库(Repository;CentOS采用的二进制包是
  • 分别查看控制节点和计算节点的主机名,将命令和执行结果提交到答题框。 2.修改/etc/hosts文件,设置主机名和IP地址的映射关系 用vi工具打开/etc/hosts文件,写入IP地址与主机名的对应关系。控制节点的IP地址为192....

    OpenStack云计算平台搭建训练卷

    任务一:基本环境配置

    1. 修改主机名,配置主机与IP地址映射关系

    将控制节点的主机名改为controller,将计算节点的主机名改为compute。完成之后退出登录,再重新登录。分别查看控制节点和计算节点的主机名,将命令和执行结果提交到答题框。

    2.修改/etc/hosts文件,设置主机名和IP地址的映射关系

    用vi工具打开/etc/hosts文件,写入IP地址与主机名的对应关系。控制节点的IP地址为192.168.100.10,计算节点的IP地址为192.168.100.20。在任一节点用cat命令查看/etc/hosts文件的内容,将命令和执行结果提交到答题框。

    3.关闭防火墙

    分别在控制节点和计算节点停止firewalld服务,并设置其开机不启动。分别在控制节点和计算节点查看防火墙的状态,将命令和执行结果提交到答题框。

    4.设置SELinux

    修改/etc/selinux/config文件,将原来的SELINUX=enforcing修改为SELINUX=permissive。此外还需要用setenforce 0命令将当前的SELinux模式设置为permissive。分别在控制节点和计算节点查看SELinux的状态,将命令和执行结果提交到答题框。

    任务二:配置yum源

    1.挂载光盘镜像文件

    将CentOS-7-x86_64-DVD-1511.iso和XianDian-IaaS-v2.2.iso文件上传到控制节点的/opt目录。在/opt中创建centos和iaas目录作为挂载点,分别将CentOS-7-x86_64-DVD-1511.iso和XianDian-IaaS-v2.2.iso以虚拟光驱的形式挂载到centos和iaas目录。依次将上述命令和执行结果提交到答题框。

    2.配置控制节点本地yum源

    配置控制节点本地 yum 源文件 local.repo,指向本地yum源路径/opt/centos和/opt/iaas/iaas-repo。用cat命令查看/etc/yum.repos.d/local.repo文件的内容,将命令和执行结果提交到答题框。

    3.检查控制节点的yum源配置是否正确。

    首先用yum clean all命令清空缓存,然后用yum list命令查看软件包列表。将命令以及执行结果前10行提交到答题框。

    4.在控制节点安装配置vsftpd

    在控制节点上安装ftp服务,将ftp匿名用户登录的根目录改成/opt,启动vsftpd服务并设置开机启动。用systemctl命令查询vsftpd的状态,将命令和执行结果提交到答题框。

    5.配置计算节点yum源

    配置计算节点 yum 源文件 ftp.repo,使用之前配置的控制节点 ftp 作为 yum源。用cat命令查看ftp.repo文件的内容,将命令和执行结果提交到答题框。

    任务三:配置环境变量

    在raid磁盘/dev/md126上创建gpt分区表。然后创建两个分区md126p1和md126p2,其中md126p1占约60%的磁盘空间,余下空间分配给md126p2。完成之后用fdisk相关命令查看/dev/md126的分区信息,将命令和执行结果提交到答题框。

    任务四:配置环境变量

    1.安装iaas-xiandian软件包

    分别在控制节点和计算节点安装iaas-xiandian软件包。

    2.修改/etc/xiandian/openrc.sh文件

    /etc/xiandian/openrc.sh文件是一个模板,需要按以下要求进行修改:

    HOST_IP=192.168.100.10
    
    HOST_NAME=controller
    
    HOST_IP_NODE=192.168.100.20
    
    HOST_NAME_NODE=compute
    
    RABBIT_USER=openstack
    
    RABBIT_PASS=000000
    
    DB_PASS=000000
    
    DOMAIN_NAME=demo
    
    ADMIN_PASS=000000
    
    DEMO_PASS=000000
    
    KEYSTONE_DBPASS=000000
    
    GLANCE_DBPASS=000000
    
    GLANCE_PASS=000000
    
    NOVA_DBPASS=000000
    
    NOVA_PASS=000000
    
    NEUTRON_DBPASS=000000
    
    NEUTRON_PASS=000000
    
    METADATA_SECRET=000000
    
    INTERFACE_NAME=eno33554960 (以实际情况可为准)
    
    CINDER_DBPASS=000000
    
    CINDER_PASS=000000
    
    TROVE_DBPASS=000000
    
    TROVE_PASS=000000
    
    BLOCK_DISK=md126p1 (以实际情况可为准)
    
    SWIFT_PASS=000000
    
    OBJECT_DISK=md126p2 (以实际情况可为准)
    
    STORAGE_LOCAL_NET_IP=192.168.100.20
    
    HEAT_DBPASS=000000
    
    HEAT_PASS=000000
    
    CEILOMETER_DBPASS=000000
    
    CEILOMETER_PASS=000000
    
    AODH_DBPASS=000000
    
    AODH_PASS=000000
    

    先在控制节点修改openrc.sh文件,检查确认无误之后,再将openrc.sh复制一份到计算节点的/etc/xiandian目录。

    3.执行iaas-pre-host.sh脚本

    在确认两个节点的openrc.sh文件准确无误之后,分别执行iaas-pre-host.sh脚本。脚本执行完毕,按Ctrl+D退出登录,然后重新登录。

    在控制节点,用grep命令查看/etc/xiandian/openrc.sh文件中的有效行(即过滤掉注释行和空行),将命令和执行结果提交到答题框。

    任务五:安装MySQL

    1.执行安装脚本

    根据平台安装步骤安装至数据库服务,使用一条命令安装提供的iaas-install-mysql.sh脚本并查看脚本运行的时间,把命令和最后输出的时间信息提交到答题框。

    2.信息查询

    1)使用 root 用户登录数据库,查询数据库列表信息,并提交操作命令和输出结果以文本形式提交到答题框。

    2)使用root用户登录数据库,使用mysql数据库,查询所有表的信息,并查询表user中的host,user,paassword信息,提交操作命令和输出结果以文本形式提交到答题框。

    任务六:安装OpenStack基本服务

    1.安装Keystone

    在控制节点执行iaas-install-keystone.sh安装keystone。安装成功之后,完成以下操作:

    1)在 keystone 中创建用户 alice,密码为 password。将以上所有命令以及执行结果提交到答题框。

    2)使用openstack相关命令,查询用户列表信息,以文本形式提交查询命令和结果到答题框。

    3)使用openstack相关命令,查询admin用户详细信息,以文本形式提交查询命令和结果到答题框。

    2.安装Glance

    在控制节点执行iaas-install-glance.sh,安装成功之后完成以下操作:

    1)使用镜像文件CentOS_7.2_x86_64_XD.qcow2 创建 glance 镜像名为 CentOS7.2,格式为 qcow2。将命令以及执行结果提交到答题框。

    2)使用glance 相关命令查询glance镜像列表,并查询CentOS7.2镜像的详细信息,将操作命令和返回结果提交到答题框。

    3.安装Nova

    在控制节点执行iaas-install-nova-controller.sh

    然后在计算节点执行iaas-install-nova-compute.sh

    安装成功之后,执行以下操作:

    1)使用 nova 相关命令查询 nova 服务状态列表,将操作命令和返回结果提交到答题框。

    2)使用 nova 相关命令查询 nova 资源使用情况的信息,将操作命令和返回结果提交到答题框。

    3)使用nova相关命令查询网络的列表信息,将操作命令和返回结果提交到答题框。

    4. 安装Neutron(10分)

    在控制节点执行iaas-install-neutron-controller.sh,接着执行iaas-install-neutron-controller-gre.sh

    在计算节点执行iaas-install-neutron-compute.sh,接着执行iaas-install-neutron-compute-gre.sh

    安装成功之后,完成以下操作:

    1)使用 neutron 相关命令查询网络服务的列表信息,并以下图的形式打印出来,将相应的查询命令以及反馈结果以文本形式提交到答题框。

    +---------------------------+--------------------+-------+
    | binary         		    | agent_type   		 | alive |
    +---------------------------+--------------------+-------+
    

    2)使用 ovs-vswitchd 管理工具的相关命令查询控制节点的网桥 br-ex 的端口列表信息。将相应的查询命令以及反馈结果以文本形式提交到答题框。

    3)使用 neutron 相关命令查询网络服务 DHCP agent 的详细信息,将相应的查询命令以及反馈结果以文本形式提交到答题框。

    5. 安装Dashboard

    在控制节点执行iaas-install-dashboard.sh。安装成功之后,使用 curl 命令查询网址 http://192.168.100.10/dashboard。将命令和执行结果的前10行粘贴提交到答题框。

    任务七:创建网络(10分)

    本任务可在Dashboard中完成。创建云主机外部网络 ext-net,子网为 ext-subnet,云主机浮动 IP 可用网段192.168.200.100 ~ 192.168.200.200,网关为 192.168.200.1。创建云主机内部网络 int-net1,子网为 int-subnet1,云主机子网 IP 可用网段为 10.0.0.100 ~ 10.0.0.200,网关为 10.0.0.1;创建云主机内部网络 int-net2,子网为 int-subnet2,云主机子网IP 可用网段为 10.0.1.100 ~ 10.0.1.200,网关为 10.0.1.1。添加名为 ext-router 的路由器,添加网关在 ext-net 网络,添加内部端口到 int-net1 网络,完成内部网络 int-net1 和外部网络的连通。

    创建成功之后,完成以下操作:

    1)使用 neutron 相关命令查询所创建网络的列表信息,将查询命令和结果以文本形式提交到答题框。

    2)使用neutron相关命令查询所创建子网的列表信息,并查看内网子网的详细信息,将操作命令和返回结果以文本形式提交到答题框。

    3)使用 neutron 相关命令查询所创建路由器的详细信息,将查询命令和结果以文本形式提交到答题框。

    任务八:创建云主机

    登录Dashboard,创建一个云主机,云主机类型使用 m1.medium,镜像使用 CentOS7,网络连接到int-net1,云主机名称为webserver。使用openstack相关命令查看webserver云主机的详细信息。将命令以及执行结果提交到答题框。

    展开全文
  • 配置 OPENSTACK 的 CEPH 客户端在ceph节点两次执行如下语句,两次{your-openstack-server}分别填控制节点和计算节点IP。如果显示在控制节点和计算节点中没有ceph文件夹,则在两节点中创建对应文件夹。#ssh {your-...
  • 关于云计算的基础知识整理

    千次阅读 2015-12-25 16:07:17
    控制节点、网络节点、计算节点和存储节点组成。除了四个节点分别安装外,安装模式可以采取all-in-one,或者controller节点和网络节点一起,compute节点和存储节点一起。   QEMU服务: 主要用于nova底层的开源虚拟...
  • 提出了基于IFCM的云节点计算资源自平衡方法,设计了基于IFTS预测的主动控制和基于反馈的被动调控相结合的虚拟机调度机制,并给出了云计算网络动态负载均衡策略,增强了云资源池的智能化管理水平,提升了云计算系统的...
  • 完整的OpenStack架构应包括控制节点计算节点,网络节点和存储节点,其中,控制节点控制其余节点完成虚拟机建立、迁移、网络分配和存储分配等工作;计算节点主要负责虚拟机的运行;网络节点主要负责内外网络通信;...
  • Nova 组件如何协同工作Nova 物理部署方案前面大家已经看到 Nova 由很多子服务组成,同时... 对于 Nova,这些服务会部署在两类节点上:计算节点和控制节点计算节点上安装了 Hypervisor,上面运行虚拟机。 由此可知...
  • 其中一个小圆点代表该节点的一个网卡,相同颜色的网卡表示属于同一个子网/网段,六边形代表网络/子网,可以看到,控制节点具有一张网卡,计算节点和网络节点都具有三张网卡,而存储节点具有两张网卡(均是下限)。...
  • Nova 组件如何协同工作Nova 物理部署方案前面大家已经看到 Nova 由很多子服务组成,同时... 对于 Nova,这些服务会部署在两类节点上:计算节点和控制节点计算节点上安装了 Hypervisor,上面运行虚拟机。 由此可知...
  • 针对云计算系统在运行过程中由于计算节点空闲而产生大量空闲能耗,以及由于不匹配任务调度而产生大量“奢侈”能耗的能耗浪费问题,提出一种通过任务调度方式的能耗优化管理方法.首先,用排队模型对云计算系统...
  • 随着云计算的繁荣,许多移动节点选择按服务AP节点交付其证书,其中每个服务AP节点作为代理负责通过移动AP验证虚拟资源访问。基础的service.requests。 但是,此访问控制系统需要移动用户的证书信息,并且可能由于其...
  • 37篇经过消化的云计算论文

    热门讨论 2013-05-23 23:23:30
    本文讲了在Hadoop下用并行计算来解决图像处理和计算物理学的问题。 18、 All-Pairs: An Abstraction for Data-Intensive Cloud Computing 本文提出形成产品的系统应该为终端用户提供高度抽象的使用方法,以便容易...
  • 本文讲了在Hadoop下用并行计算来解决图像处理和计算物理学的问题。 18、 All-Pairs: An Abstraction for Data-Intensive Cloud Computing 本文提出形成产品的系统应该为终端用户提供高度抽象的使用方法,以便容易...
  • 实现了采煤机远端云平台的数据通信同步,即边缘节点负责计算数据,远端云平台负责显示结果,解决了基于远端云计算的采煤机控制系统存在数据传输可靠性低、延时长的问题。边缘计算和远端云计算共同构建了新型采煤机...
  • 本次搭建采用双节点安装,即controller node控制节点和compute node计算节点。enp8s0为外部网络,enp9s0为内部管理网络。存储节点安装操作系统时划分两个空白分区以sda,sdb为例。作为cinder和swift存储磁盘,搭建 ...
  • 支持16个半宽计算节点,或者8个全宽计算节点。E9000将计算、存储网络融合到一个机箱内,构筑领先的硬件基础平台。2、RH2288H:机架式 2U支持24根内存,最大内存容量768G存储设备OceanStor 5600/5800 V3PCIE 3.0...
  • 云计算关于openstack的计算节点控制节点、网络节点等安装配置
  • 资源管理:在未来的网络多云中,所有层、集群和节点计算,存储内存资源分布更均匀,并且可以在更强大的边缘设备上并行执行更多工作负载。这将需要复杂的资源管理控制,如负载平衡细粒度路由、速率限制、流控制...
  • 目录概述一、安装并配置控制节点1.先决条件2.安装并配置组件3.配置计算节点以使用块设备存储4.完成安装二、安装并配置一个存储节点1....典型情况下,块服务API调度器服务运行在控制节点上。取决于使用的驱动,卷服
  • 目录概述一、安装并配置控制节点1.先决条件2.配置网络选项3.配置元数据代理4.为计算节点配置网络服务5.完成安装二、安装并配置计算节点1.安装组件2.配置通用组件3.配置网络选项4.为计算节点配置网络服务5.完成安装三...
  • 本章讲解以下计算服务(nova)的...一、安装配置控制节点1.配置数据库#mysql-uroot-p123456mysql>CREATEDATABASEnova_api; mysql>CREATEDATABASEnova;mysql>GRANTALLPRIVILEGESONnova_api.*TO'nova'@'...

空空如也

空空如也

1 2 3 4 5 6
收藏数 101
精华内容 40
关键字:

云计算控制节点和计算节点