精华内容
下载资源
问答
  • openstack新增计算节点

    万次阅读 2018-02-10 15:12:47
    主要是参考openstack ocata版本的官方文档,链接为:https://docs.openstack.org/ocata/install-guide-rdo/index.html1、主机名称和网路配置新添加的机器的网络...IP配置可以参考现有计算节点。在/etc/sysconfig/networ

    主要是参考openstack ocata版本的官方文档,链接为:

    https://docs.openstack.org/ocata/install-guide-rdo/index.html

    1、主机名称和网路配置

    新添加的机器的网络配置是eno1在192.168.9.0网段,eno2在10.0.0.0网段(OpenStack内网)。IP配置可以参考现有计算节点。在/etc/sysconfig/network-scripts/目录下。
    修改主机名称
    Hostnamectl set-hostname –-static xx-pn //这里的pn可以从现有节点往后推

    ##2、防火墙和Selinux配置
    关闭机器上的防火墙:systemctl stop firewalld
    最好禁止开机自动启动:systemctl disable firewalld
    临时关闭selinux(重启后失效):setenforce 0
    永久关闭:编辑/etc/selinux/config文件,将SELINUX=enforcing该为disabled
    ##3、NTP配置
    参考官方文档
    ntp-config
    将其中的controller改为xxxx-ctl
    ##4、软件源配置
    参考官方文档
    openstack-packages
    安装软件源
    yum install centos-release-openstack-ocata
    安装客户端
    yum install python-openstackclient
    安装selinux
    yum install openstack-selinux
    ##5、计算服务配置
    config-compute node
    安装软件
    yum install openstack-nova-compute
    修改配置(可以从现有节点上拷贝配置文件)
    mv /etc/nova/nova.conf /etc/nova/nova.conf.bak //备份原有文件
    scp yunphant-p2:/etc/nova/nova.conf /etc/nova/nova.conf //拷贝配置文件
    vim /etc/nova/nova.conf //修改my_ip参数,将IP值设定为本机eno2的IP
    chown root:nova /etc/nova/nova.conf //修改文件用户组
    启动服务
    systemctl enable libvirtd.service openstack-nova-compute.service
    systemctl start libvirtd.service openstack-nova-compute.service
    在控制节点上(yunphant-ctl)将新节点信息同步
    su -s /bin/sh -c “nova-manage cell_v2 discover_hosts --verbose” nova
    在控制节点上查看新节点
    openstack host list //看到新节点
    nova service-list //看到新节点
    #6、网络服务配置
    网络服务配置
    安装软件包
    yum install openstack-neutron-linuxbridge ebtables ipset
    修改配置(可以从现有节点上拷贝配置文件)
    mv /etc/neutron/neutron.conf /etc/neutron/neutron.conf.bak //备份原有文件
    scp yunphant-p2:/etc/neutron/neutron.conf /etc/neutron/neutron.conf //拷贝配置文件
    chown root:neutron /etc/neutron/neutron.conf //修改文件用户组
    mv /etc/neutron/plugins/ml2/linuxbridge_agent.ini //etc/neutron/plugins/ml2/linuxbridge_agent.ini.bak //备份原有文件
    scp yunphant-p2:/etc/neutron/plugins/ml2/linuxbridge_agent.ini /etc/neutron/plugins/ml2/linuxbridge_agent.ini //拷贝配置文件
    vim /etc/neutron/plugins/ml2/linuxbridge_agent.ini //修改local_ip参数,将IP值设定为本机eno2的IP
    chown root:neutron /etc/neutron/plugins/ml2/linuxbridge_agent.ini //修改文件用户组
    启动服务
    systemctl enable neutron-linuxbridge-agent.service
    systemctl start neutron-linuxbridge-agent.service
    在控制节点上查看新节点
    neutron agent-list //看到新节点
    nova service-list //看到新节点

    ##7、在控制节点上制定启动虚拟机到新节点验证
    查看网络ID
    openstack network list //记下selfservice的ID
    创建虚拟机,名称设为test
    openstack server create --flavor m1.nano --image cirros
    –nic net-id=SELFSERVICE_NET_ID --availability-zone nova:yunphant-pn test
    openstack server show test //查看虚拟机信息
    检查网络
    openstack floating ip list //查看可用浮动IP选取未使用的IP,比如192.168.9.x
    openstack server add floating ip test 192.168.9.x //绑定浮动IP
    ping 192.168.9.x //检查是否连通
    ssh cirros@192.168.9.x //检查是否ssh登录,密码为xxx

    展开全文
  • kubernetes集群计算节点的升级和扩容 kuernetes集群计算节点升级 首先查看集群的节点状态 Last login: Thu Mar 14 09:39:26 2019 from 10.83.2.89 [root@kubemaster ~]# [root@kubemaster ~]# kubectl get nodes ...

    kubernetes集群计算节点的升级和扩容

    kuernetes集群计算节点升级

    1. 首先查看集群的节点状态
      Last login: Thu Mar 14 09:39:26 2019 from 10.83.2.89
      [root@kubemaster ~]# 
      [root@kubemaster ~]# kubectl get nodes
      NAME         STATUS   ROLES    AGE   VERSION
      kubemaster   Ready    master   17d   v1.13.3
      kubenode1    Ready    <none>   17d   v1.13.3
      kubenode2    Ready    <none>   17d   v1.13.3
      [root@kubemaster ~]#
    2. 查看哪些POD运行在kubenode1节点上面
      [root@kubemaster ~]# kubectl get pods -o wide|grep kubenode1
      account-summary-689d96d949-49bjr                                  1/1     Running            0          7d15h   10.244.1.17    kubenode1    <none>           <none>
      compute-interest-api-5f54cc8dd9-44g9p                             1/1     Running            0          7d15h   10.244.1.15    kubenode1    <none>           <none>
      send-notification-fc7c8ffc4-rk5wl                                 1/1     Running            0          7d15h   10.244.1.16    kubenode1    <none>           <none>
      transaction-generator-7cfccbbd57-8ts5s                            1/1     Running            0          7d15h   10.244.1.18    kubenode1    <none>           <none>
      [root@kubemaster ~]#  
      # 如果别的命名空间也有pods,也可以加上命名空间,比如 kubectl get pods -n kube-system -o wide|grep kubenode1
    3. 使用kubectl cordon命令将kubenode1节点配置为不可调度状态;
      [root@kubemaster ~]# kubectl cordon kubenode1
      node/kubenode1 cordoned
      [root@kubemaster ~]#
    4. 继续查看运行的Pod,发现Pod还是运行在kubenode1上面。其实kubectl crodon的用途只是说后续的pod不运行在kubenode1上面,但是仍然在kubenode1节点上面运行的Pod还是没有驱逐
      [root@kubemaster ~]# kubectl get node
      NAME         STATUS                     ROLES    AGE   VERSION
      kubemaster   Ready                      master   17d   v1.13.3
      kubenode1    Ready,SchedulingDisabled   <none>   17d   v1.13.3
      kubenode2    Ready                      <none>   17d   v1.13.3
      [root@kubemaster ~]# kubectl get pods -n kube-system -o wide|grep kubenode1
      kube-flannel-ds-amd64-7ghpg            1/1     Running   1          17d     10.83.32.138   kubenode1    <none>           <none>
      kube-proxy-2lfnm                       1/1     Running   1          17d     10.83.32.138   kubenode1    <none>           <none>
      [root@kubemaster ~]# 
    5. 现在需要驱逐Pod,使用的命令是kubectl drain 如果节点上面还有一些DaemonSet的Pod在运行的话,需要加上参数 --ignore-daemonsets
      [root@kubemaster ~]# kubectl drain kubenode1 --ignore-daemonsets
      node/kubenode1 already cordoned
      WARNING: Ignoring DaemonSet-managed pods: node-exporter-s5vfc, kube-flannel-ds-amd64-7ghpg, kube-proxy-2lfnm
      pod/traefik-ingress-controller-7899bfbd87-wsl64 evicted
      pod/grafana-57f7d594d9-vw5mp evicted
      pod/tomcat-deploy-5fd9ffbdc7-cdnj8 evicted
      pod/myapp-deploy-6b56d98b6b-rrb5b evicted
      pod/transaction-generator-7cfccbbd57-8ts5s evicted
      pod/prometheus-848d44c7bc-rtq7t evicted
      pod/send-notification-fc7c8ffc4-rk5wl evicted
      pod/compute-interest-api-5f54cc8dd9-44g9p evicted
      pod/account-summary-689d96d949-49bjr evicted
      node/kubenode1 evicted
      [root@kubemaster ~]# 
    6. 再次查看Pod,是否还有Pod在kubenode1上面运行。没有的话开始关机升级配置,增加配置之后启动计算节点。
      [root@kubemaster ~]# kubectl get nodes
      NAME         STATUS                     ROLES    AGE   VERSION
      kubemaster   Ready                      master   17d   v1.13.3
      kubenode1    Ready,SchedulingDisabled   <none>   17d   v1.13.3
      kubenode2    Ready                      <none>   17d   v1.13.3
      [root@kubemaster ~]#
      #发现这个节点还是无法调度的状态
      [root@kubemaster ~]# kubectl uncordon kubenode1
      #设置这个计算节点为可调度
      node/kubenode1 uncordoned
      [root@kubemaster ~]# kubectl get nodes
      NAME         STATUS   ROLES    AGE   VERSION
      kubemaster   Ready    master   17d   v1.13.3
      kubenode1    Ready    <none>   17d   v1.13.3
      kubenode2    Ready    <none>   17d   v1.13.3
      [root@kubemaster ~]#
    7. 至此升级一台k8s集群计算节点的任务就此完成了。现在我们再来实现k8s集群增加一台计算节点;

    kuernetes集群计算节点扩容

    1. 首先参考我以前的一篇关于通过kubeadm安装k8s集群的博客:
        https://blog.51cto.com/zgui2000/2354852
        设置好yum源仓库,安装好docker-ce、安装好kubelet等;
    [root@kubenode3 yum.repos.d]# cat /etc/yum.repos.d/docker-ce.repo 
    [docker-ce-stable]
    name=Docker CE Stable - $basearch
    baseurl=https://mirrors.aliyun.com/docker-ce/linux/centos/7/$basearch/stable
    enabled=1
    gpgcheck=1
    gpgkey=https://mirrors.aliyun.com/docker-ce/linux/centos/gpg
    
    [docker-ce-stable-debuginfo]
    name=Docker CE Stable - Debuginfo $basearch
    baseurl=https://mirrors.aliyun.com/docker-ce/linux/centos/7/debug-$basearch/stable
    enabled=0
    gpgcheck=1
    gpgkey=https://mirrors.aliyun.com/docker-ce/linux/centos/gpg
    
    [docker-ce-stable-source]
    name=Docker CE Stable - Sources
    baseurl=https://mirrors.aliyun.com/docker-ce/linux/centos/7/source/stable
    enabled=0
    gpgcheck=1
    gpgkey=https://mirrors.aliyun.com/docker-ce/linux/centos/gpg
    
    [docker-ce-edge]
    name=Docker CE Edge - $basearch
    baseurl=https://mirrors.aliyun.com/docker-ce/linux/centos/7/$basearch/edge
    enabled=0
    gpgcheck=1
    gpgkey=https://mirrors.aliyun.com/docker-ce/linux/centos/gpg
    
    [docker-ce-edge-debuginfo]
    name=Docker CE Edge - Debuginfo $basearch
    baseurl=https://mirrors.aliyun.com/docker-ce/linux/centos/7/debug-$basearch/edge
    enabled=0
    gpgcheck=1
    gpgkey=https://mirrors.aliyun.com/docker-ce/linux/centos/gpg
    
    [docker-ce-edge-source]
    name=Docker CE Edge - Sources
    baseurl=https://mirrors.aliyun.com/docker-ce/linux/centos/7/source/edge
    enabled=0
    gpgcheck=1
    gpgkey=https://mirrors.aliyun.com/docker-ce/linux/centos/gpg
    
    [docker-ce-test]
    name=Docker CE Test - $basearch
    baseurl=https://mirrors.aliyun.com/docker-ce/linux/centos/7/$basearch/test
    enabled=0
    gpgcheck=1
    gpgkey=https://mirrors.aliyun.com/docker-ce/linux/centos/gpg
    
    [docker-ce-test-debuginfo]
    name=Docker CE Test - Debuginfo $basearch
    baseurl=https://mirrors.aliyun.com/docker-ce/linux/centos/7/debug-$basearch/test
    enabled=0
    gpgcheck=1
    gpgkey=https://mirrors.aliyun.com/docker-ce/linux/centos/gpg
    
    [docker-ce-test-source]
    name=Docker CE Test - Sources
    baseurl=https://mirrors.aliyun.com/docker-ce/linux/centos/7/source/test
    enabled=0
    gpgcheck=1
    gpgkey=https://mirrors.aliyun.com/docker-ce/linux/centos/gpg
    
    [docker-ce-nightly]
    name=Docker CE Nightly - $basearch
    baseurl=https://mirrors.aliyun.com/docker-ce/linux/centos/7/$basearch/nightly
    enabled=0
    gpgcheck=1
    gpgkey=https://mirrors.aliyun.com/docker-ce/linux/centos/gpg
    
    [docker-ce-nightly-debuginfo]
    name=Docker CE Nightly - Debuginfo $basearch
    baseurl=https://mirrors.aliyun.com/docker-ce/linux/centos/7/debug-$basearch/nightly
    enabled=0
    gpgcheck=1
    gpgkey=https://mirrors.aliyun.com/docker-ce/linux/centos/gpg
    
    [docker-ce-nightly-source]
    name=Docker CE Nightly - Sources
    baseurl=https://mirrors.aliyun.com/docker-ce/linux/centos/7/source/nightly
    enabled=0
    gpgcheck=1
    gpgkey=https://mirrors.aliyun.com/docker-ce/linux/centos/gpg
    [root@kubenode3 yum.repos.d]#   
    #准备docker-ce yum仓库文件
    [root@kubenode3 yum.repos.d]# cat /etc/yum.repos.d/kubernetes.repo 
    [kubernetes]
    name=Kubernetes Repo
    baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64/
    enabled=1
    gpgcheck=0
    gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg
    [root@kubenode3 yum.repos.d]#
    #准备kubernetes.repo yum仓库文件
    [root@kubenode3 ~]# cat /etc/hosts
    127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4
    ::1         localhost localhost.localdomain localhost6 localhost6.localdomain6
    10.83.32.146 kubemaster
    10.83.32.138 kubenode1
    10.83.32.133 kubenode2
    10.83.32.144 kubenode3
    #准备hosts文件
    [root@kubenode3 yum.repos.d]# getenforce 
    Disabled
    #禁用selinux,可以通过设置/etc/selinux/config文件
    systemctl stop firewalld
    systemctl disable firewalld
    #禁用防火墙
    yum install docker-ce kubelet kubeadm kubectl
    #安装docker、kubelet等
    curl -sSL https://get.daocloud.io/daotools/set_mirror.sh | sh -s http://f1361db2.m.daocloud.io
    #安装docker镜像加速器,需要重启docker服务。systemctl restart Docker
    docker pull mirrorgooglecontainers/kube-apiserver-amd64:v1.13.3
    docker pull mirrorgooglecontainers/kube-controller-manager-amd64:v1.13.3
    docker pull mirrorgooglecontainers/kube-scheduler-amd64:v1.13.3
    docker pull mirrorgooglecontainers/kube-proxy-amd64:v1.13.3
    docker pull mirrorgooglecontainers/pause-amd64:3.1
    docker pull mirrorgooglecontainers/etcd-amd64:3.2.24
    docker pull carlziess/coredns-1.2.6
    docker pull quay.io/coreos/flannel:v0.11.0-amd64
    docker tag mirrorgooglecontainers/kube-apiserver-amd64:v1.13.3 k8s.gcr.io/kube-apiserver:v1.13.3
    docker tag mirrorgooglecontainers/kube-controller-manager-amd64:v1.13.3 k8s.gcr.io/kube-controller-manager:v1.13.3
    docker tag mirrorgooglecontainers/kube-scheduler-amd64:v1.13.3 k8s.gcr.io/kube-scheduler:v1.13.3
    docker tag mirrorgooglecontainers/kube-proxy-amd64:v1.13.3 k8s.gcr.io/kube-proxy:v1.13.3
    docker tag mirrorgooglecontainers/pause-amd64:3.1 k8s.gcr.io/pause:3.1
    docker tag mirrorgooglecontainers/etcd-amd64:3.2.24 k8s.gcr.io/etcd:3.2.24
    docker tag carlziess/coredns-1.2.6 k8s.gcr.io/coredns:1.2.6
    #将运行的镜像提前下载到本地,因为使用kubeadm安装的k8s集群,api-server、controller-manager、kube-scheduler、etcd、flannel等组件需要运行为容器的形式,所以提前把镜像下载下来;
    vim /etc/sysctl.conf
    net.bridge.bridge-nf-call-ip6tables = 1
    net.bridge.bridge-nf-call-iptables = 1
    sysctl -p
    [root@kubenode3 yum.repos.d]# systemctl enable kubelet
    Created symlink from /etc/systemd/system/multi-user.target.wants/kubelet.service to /etc/systemd/system/kubelet.service.
    [root@kubenode3 yum.repos.d]#
    
    1. 现在开始扩容计算节点

      每个token只有24小时的有效期,如果没有有效的token,可以使用如下命令创建

    [root@kubemaster ~]# kubeadm token create
    fv93ud.33j7oxtdmodwfn7f
    [root@kubemaster ~]#
    #创建token
    openssl x509 -pubkey -in /etc/kubernetes/pki/ca.crt | openssl rsa -pubin -outform der 2>/dev/null | openssl dgst -sha256 -hex | sed 's/^.* //'
    c414ceda959552049efccc2d9fd1fc1a2006689006a5f3b05e6ca05b3ff1a93e
    #查看Kubernetes认证的SHA256加密字符串
    swapoff -a
    #关闭swap分区
    kubeadm join 10.83.32.146:6443 --token fv93ud.33j7oxtdmodwfn7f --discovery-token-ca-cert-hash sha256:c414ceda959552049efccc2d9fd1fc1a2006689006a5f3b05e6ca05b3ff1a93e --ignore-preflight-errors=Swap
    #加入kubernetes集群
    [root@kubemaster ~]# kubectl get node
    NAME         STATUS   ROLES    AGE     VERSION
    kubemaster   Ready    master   18d     v1.13.3
    kubenode1    Ready    <none>   17d     v1.13.3
    kubenode2    Ready    <none>   17d     v1.13.3
    kubenode3    Ready    <none>   2m22s   v1.13.4
    #查看节点状态,发现已经成功加入kubenode3节点

    推荐关注我的个人微信公众号 “云时代IT运维”,周期性更新最新的应用运维类技术文档。关注虚拟化和容器技术、CI/CD、自动化运维等最新前沿运维技术和趋势;

    kubernetes集群计算节点配置升级和扩容计算节点

    转载于:https://blog.51cto.com/zgui2000/2362946

    展开全文
  • OpenStack 计算节点

    千次阅读 2016-01-11 17:44:40
    OpenStack 计算节点

    OpenStack 计算节点

    展开全文
  • 一 实践介绍两个计算节点,一个分配2G内存,一个分配1G内存。当启动一个虚拟机,最终选择分配1G内存的节点。掌握秘钥对的使用掌握云主机定制脚本二 实践过程1 创建一个主机集合2 把内存小的计算节点加入到主机集合3 ...
    一 实践介绍
    两个计算节点,一个分配2G内存,一个分配1G内存。当启动一个虚拟机,最终选择分配1G内存的节点。
    掌握秘钥对的使用
    掌握云主机定制脚本

    二 实践过程
    1 创建一个主机集合
    2 把内存小的计算节点加入到主机集合
    3 给主机集合定义元数据
    4 把元数据加入到主机类型中
    nova flavor-key m1.nano set ssd=true
    5 控制节点上配置调度策略
    6 重启控制节点上的nova,并检查是否正常启动
    7 创建主机
    7.1 创建秘钥对
    vim cloud.key.pub
    7,2 启动云主机定制脚本——修改用户密码

    三 验证结果
    1 选择内存小的节点
    2 验证密码修改成功
    3 验证秘钥对——免密码登陆
    展开全文
  • 最近发现,公司的的大数据环境,空间有不足的情况,集群的计算能力也下降, 此时需要对将大数据的集群环境进行扩容 增加计算节点。 操作步骤 集群示意图: 准备好linux环境 配置hadoop账号,ssh免密,关掉...
  • 分布式计算框架(四) 计算节点模块

    千次阅读 2018-06-04 17:31:07
    四、计算节点模块 4.1 计算节点模块结构 计算节点模块主要功能为数据管理、日志管理、配置管理、处理线程管理、进程通信管理、TCP通信管理。计算节点模块类关系表如下:类名关系类 关系Managementhandle_manage...
  • 怎么区分是控制节点和计算节点

    千次阅读 2017-11-23 14:27:00
    . keystonerc_admin 进入openstack 命令行模式 openstack service restart 重起服务 systemctl status openstack-nova-compute.service 查看服务状态 ...nova hypervisor-list 看计算节点 nova hypervi...
  • 4. 计算节点计算节点是高性能集群中的最主要的计算能力的体现,目前,主流的计算节点有同构节点和异构节点两种类型。 4.1. 同构计算节点同构计算节点是指集群中每个计算节点完全有CPU计算资源组成,目前,在一个计算...
  • openstack创建实例到指定计算节点

    千次阅读 2019-01-21 14:24:22
    添加计算节点教程很多。实例创建到新加计算节点,验证是否成功,需要以下几步。 官方原文:https://docs.openstack.org/nova/rocky/admin/availability-zones.html 1、查看有效区域 openstack availability zone ...
  • 6、配置nova服务计算节点 7、配置neutron服务控制节点 8、配置neutron服务计算节点 9、创建实例 10、配置dashboard服务 部署nova计算节点 我的计算节点ip:192.168.99.10 注意:这个不是控制...
  • 计算节点OS:centos7 问题:在Dashboard的hypervisor中显示每个计算节点能提供的本地存储很小。可能之后因资源不足无法部署虚拟机。 Debug:  登录到计算节点查看磁盘情况:df -h  发现root分区的大小跟...
  • openstack 计算节点附加存储挂载

    千次阅读 2018-10-17 22:00:27
    新购一台计算节点,有一个ssd盘,6个硬盘,如何使用呢,计划把ssd盘安装ubuntu系统和openstack计算节点组件,6个硬盘raid5成一个逻辑盘,再创建为逻辑卷,把逻辑卷挂载到系统作为instance实例分配使用的目录。...
  • OpenStack自动发现计算节点

    千次阅读 2018-01-10 10:57:03
    计算节点服务上线后不会自动加入nova-api的host_mapping, 创建实例 时scheduler也就无法调度。下面介绍两种方法: 1. 命令行方式 nova-manage cell_v2 discover_hosts --verbose 2. 修改配置文件...
  • openstack创建实例计算节点报错

    千次阅读 2019-02-27 13:57:05
    openstack创建实例计算节点报错,compute的nova-compute.log如下 403 Forbidden, You don't have permission to access /resource_providers on this server Failed to retrieve resource provider tree from ...
  • 计算节点nova服务启动失败

    千次阅读 2019-04-25 17:06:04
    计算节点启动openstack-nova-compute服务的时候,服务无法正常启动,查看nova的日志发现如下报错: 2019-04-25 00:02:26.481 24682 ERROR nova Traceback (most recent call last): 2019-04-25 00:02:26.481 24682...
  • 在对计算节点进行维护时,通常会有重启动作,我有遇到一些问题,在这里总结下需要注意的几点:1、在reboot节点前,需要stop掉该节点上面的所有虚机,如果不stop虚机,节点重启后,如果发生一些异常,会导致虚机进入...
  • Openstack把计算节点的内存加到控制节点上(controller操作) 版权声明: 本文为博主学习整理原创文章,如有不正之处请多多指教。 未经博主允许不得转载。 ...
  • 增加一个计算节点列表,并连接到该计算节点的所有虚拟机列表  因为目前没有取得计算几点的api。所以这个功能目前先按照实例列表中过滤存在实例的主机列表。 点击主机名称进入查找该主机下的所有实例列表   1.增加...
  • 计算节点宕机后,vm的迁移方法

    千次阅读 2017-09-13 16:09:19
    计算节点异常断电或者发生故障后,导致计算节点无法正常工作,这时该计算节点上面的vm如何迁移到别的可用计算节点上呢? 由于宕机的计算节点上面的nova-compute服务已经down了,所以shelve和migrate操作无法运行,...
  • ovirt计算节点添加及虚拟机创建

    千次阅读 2018-06-14 13:32:36
    一、计算节点安装,推荐使用物理机、开启虚拟化选项1、centos7.4系统直接添加2、下载官网镜像包,安装后直接添加(类似于esxi)-推荐下载地址如下,近期更新还是比较频繁的,1个月会有2个包左右,不必太纠结...
  • HPC群集系统中计算资源的管理是重要的一块,如果能够实现计算作业可以在异构操作系统上面协同运作,无疑将是一大亮点,微软HPC pack自2012 upate3开始,支持本地linux作为计算节点,微软官网写到如何添加linux计算...
  • openstack中的计算节点中的的过剩存储如何利用起来?有人熟悉的话麻烦帮忙解答一下,谢谢了。
  • 查看计算节点能不能看到cell node上的磁盘,可以不安装GI就能看 第一步,首先将grid的安装包拷贝到一个目录下,将之解压 [crsusr@slcz01db04 bin]$ ls grid_home.zip 第二步 设置LD_LIBRARY_PATH和ORACLE_HOME ...
  • 通过kolla-ansible扩容计算节点后,发现计算节点不能加入到集群中,如下: 2020-05-24 23:41:57.939 6 INFO nova.compute.manager [req-5e895f00-5701-462c-92fb-7bbb1bf6b044 - - - - -] Looking for unclaimed ...
  • 数据结构——计算节点个数、二叉树高度一、计算各种节点(1)计算总节点:(2)计算单分支节点:(3)计算双分支节点:二、计算二叉树高度代码实现: 一、计算各种节点 二叉树结构体如下: // 二叉树结构体 ...
  • torque---添加计算节点

    千次阅读 2016-04-15 15:42:29
    torque怎么添加计算节点呢1 建用户2 复制 torque-package-mom-linux-x86_64.sh torque-package-clients-linux-x86_64.sh 到计算节点3
  • 但是查看计算节点列表正常,openstack compute service list nova hypervisor-list 未发现计算节点 nova-status upgrade check 检查下cell 发现未发现计算节点。出现 cell 失败,不要去执行nova-manage cell_v2 ...
  • Rocks Cluster中计算节点名称的更改

    千次阅读 2017-10-31 16:05:15
    Rocks Cluster中计算节点名称的更改​ 在rocks cluster服务器系统当中,默认的计算节点名称是compute-0-0, compute-0-1 … 这样的名称,加之安装过程中不注意,或者在后期的运维过程当中出现某一个节点需要重装,...
  • openstack中删除一个计算节点

    千次阅读 2016-01-13 11:39:51
    openstack中删除一个计算节点 nova service-disable ,nova service-delete
  • 1.安装openstack-nova-compute[root@compute ~]# yum install ...编辑配置文件/etc/nova/nova.conf(计算节点不需要配置数据库)vim /etc/nova/nova.conf1 [DEFAULT]2 rpc_backend = rabbit3 auth_strategy = keys...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 44,000
精华内容 17,600
关键字:

计算节点