精华内容
下载资源
问答
  • 所以需要启动节点,但是学习开发环境(不想开个虚拟机实现服务器的效果),所以就想着在一台服务器部署多个结点(下文以2个结点作为例子),两个节点分别称为实例一、二。 1、首先将elasticsearch-...

    一般情况下单台服务器只会部署一个ElasticSearch node,但是在学习过程中,很多情况下会需要实现ElasticSearch的分布式效果,所以需要启动多个节点,但是学习开发环境(不想开多个虚拟机实现多个服务器的效果),所以就想着在一台服务器上部署多个结点(下文以2个结点作为例子),两个节点分别称为实例一、二。

    1、首先将elasticsearch-5.4.0文件夹再复制一份

    cp -R elasticsearch-5.4.0 elasticsearch-5.4.0-node2

    2、修改节点1的配置文件

    # ======================== Elasticsearch Configuration =========================
    #
    # NOTE: Elasticsearch comes with reasonable defaults for most settings.
    #       Before you set out to tweak and tune the configuration, make sure you
    #       understand what are you trying to accomplish and the consequences.
    #
    # The primary way of configuring a node is via this file. This template lists
    # the most important settings you may want to configure for a production cluster.
    #
    # Please consult the documentation for further information on configuration options:
    # https://www.elastic.co/guide/en/elasticsearch/reference/index.html
    #
    # ---------------------------------- Cluster -----------------------------------
    #
    # Use a descriptive name for your cluster:
    #
    cluster.name: elk-cluster   #cluster.name 要保持一致
    #
    # ------------------------------------ Node ------------------------------------
    #
    # Use a descriptive name for the node:
    #
    node.name: node1
    #
    # Add custom attributes to the node:
    #
    #node.attr.rack: r1
    #
    node.master: true #该节点有机会成为master节点
    transport.tcp.port: 9300 # 默认里没有自己添加
    # ----------------------------------- Paths ------------------------------------
    #
    # Path to directory where to store the data (separate multiple locations by comma):
    #
    #path.data: /path/to/data
    #
    # Path to log files:
    #
    #path.logs: /path/to/logs
    #
    # ----------------------------------- Memory -----------------------------------
    #
    # Lock the memory on startup:
    #
    #bootstrap.memory_lock: true
    #
    # Make sure that the heap size is set to about half the memory available
    # on the system and that the owner of the process is allowed to use this
    # limit.
    #
    # Elasticsearch performs poorly when the system is swapping the memory.
    #
    # ---------------------------------- Network -----------------------------------
    #
    # Set the bind address to a specific IP (IPv4 or IPv6):
    #
    network.host: 192.168.25.129
    #
    # Set a custom port for HTTP:
    #
    #http.port: 9200
    #
    # For more information, consult the network module documentation.
    #
    # --------------------------------- Discovery ----------------------------------
    #
    # Pass an initial list of hosts to perform discovery when new node is started:
    # The default list of hosts is ["127.0.0.1", "[::1]"]
    #
    #discovery.zen.ping.unicast.hosts: ["host1", "host2"]
    #
    # Prevent the "split brain" by configuring the majority of nodes (total number of master-eligible nodes / 2 + 1):
    # 
    discovery.zen.minimum_master_nodes: 1  #设置这个参数来保证集群中的节点可以知道其它N个有成为master资格的节点
    #
    # For more information, consult the zen discovery module documentation.
    #
    # ---------------------------------- Gateway -----------------------------------
    #
    # Block initial recovery after a full cluster restart until N nodes are started:
    #
    #gateway.recover_after_nodes: 3
    #
    # For more information, consult the gateway module documentation.
    #
    # ---------------------------------- Various -----------------------------------
    #
    # Require explicit names when deleting indices:
    #
    #action.destructive_requires_name: true

    2、修改节点2的配置文件

    # ======================== Elasticsearch Configuration =========================
    #
    # NOTE: Elasticsearch comes with reasonable defaults for most settings.
    #       Before you set out to tweak and tune the configuration, make sure you
    #       understand what are you trying to accomplish and the consequences.
    #
    # The primary way of configuring a node is via this file. This template lists
    # the most important settings you may want to configure for a production cluster.
    #
    # Please consult the documentation for further information on configuration options:
    # https://www.elastic.co/guide/en/elasticsearch/reference/index.html
    #
    # ---------------------------------- Cluster -----------------------------------
    #
    # Use a descriptive name for your cluster:
    #
    cluster.name: elk-cluster
    #
    # ------------------------------------ Node ------------------------------------
    #
    # Use a descriptive name for the node:
    #
    node.name: node2
    node.master: false
    transport.tcp.port: 9301
    #
    # Add custom attributes to the node:
    #
    #node.attr.rack: r1
    #
    #
    # Path to directory where to store the data (separate multiple locations by comma):
    #
    #path.data: /path/to/data
    #
    # Path to log files:
    #
    #path.logs: /path/to/logs
    #
    # ----------------------------------- Memory -----------------------------------
    #
    # Lock the memory on startup:
    #
    #bootstrap.memory_lock: true
    #
    # Make sure that the heap size is set to about half the memory available
    # on the system and that the owner of the process is allowed to use this
    # limit.
    #
    # Elasticsearch performs poorly when the system is swapping the memory.
    #
    # ---------------------------------- Network -----------------------------------
    #
    # Set the bind address to a specific IP (IPv4 or IPv6):
    #
    network.host: 192.168.25.129
    #
    # Set a custom port for HTTP:
    #
    http.port: 9201
    #
    # For more information, consult the network module documentation.
    #
    # --------------------------------- Discovery ----------------------------------
    #
    # Pass an initial list of hosts to perform discovery when new node is started:
    # The default list of hosts is ["127.0.0.1", "[::1]"]
    #
    #discovery.zen.ping.unicast.hosts: ["host1", "host2"]
    #
    # Prevent the "split brain" by configuring the majority of nodes (total number of master-eligible nodes / 2 + 1):
    #
    discovery.zen.minimum_master_nodes: 1
    discovery.zen.ping.unicast.hosts: ["192.168.25.129:9300"] #设置集群中的Master节点的初始列表,可以通过这些节点来自动发现其他新加入集群的节点 
    #
    # For more information, consult the zen discovery module documentation.
    #
    # ---------------------------------- Gateway -----------------------------------
    #
    # Block initial recovery after a full cluster restart until N nodes are started:
    #
    #gateway.recover_after_nodes: 3
    #
    # For more information, consult the gateway module documentation.
    #
    # ---------------------------------- Various -----------------------------------
    #
    # Require explicit names when deleting indices:
    #
    #action.destructive_requires_name: true

    4.启动两个节点,用Kibana查看

     

     至此,多节点搭建成功。

     

    踩过的坑

    1.node2无法启动 是因为复制的elasticsearch文件夹下包含了data文件中node1的节点数据,需要把node1 data文件下的文件清空

    转载于:https://www.cnblogs.com/liuchuanfeng/p/7060294.html

    展开全文
  • OpenStack多节点部署(一)——服务器选型 OpenStack多节点部署(二)——操作系统安装 OpenStack多节点部署(三)——网络配置 OpenStack多节点部署(四)——KeyStone OpenStack多节点部署(五)——Nova ...
    服务器的选型在类似于我们这样的非互联网类的传统公司也会成为一个很大的问题。以为之前并没有相关大规模服务器部署的经验,而且在采购等等环节受制于国企的一些制度和利益的影响,并不是能如意的选择到自己真正适合需要的机器。
    这几年我买买的最多的机器还是DELL的,因为是集团的指定供应商。但是感觉服务很一般,尤其是官方的服务,二级分销商可能还会热情一些。而且在销售上,二级分销商和官方居然是竞争的关系,经常会因为抢做我们的单子而发生争执。
    另外,我总觉得DELL的机器要比惠普的差一些,特别是在主板布局以及接口等方面,如果你手边有这两种服务器的话把机箱盖打开对比一下就知道了。另外网上提到现在国产服务器的份额也在逐年增加,像联想、曙光等等,做的也不错,这个我没接触过,就不评论了。
    我们用的做多的机型是R710和R510,相信大家对着两款机型比较熟悉,是兼容性比较强的机器,属于拿来做什么项目都行的类型。可扩展性比较强,DELL提供的扩展组件也比较多。如果后期要升级的话,建议最好找二级分销商,价格会低很多。同是国企的朋友最好注意第一次购买的时候一定要根据项目需求配置双CPU和大内存,因为这两块占的比重很大,不然后期升级的时候费用很高,相信财务上会比较麻烦。
    DELL最近为了适应云计算领域新推出了PowerEdge C系列的机器, C6100、C6105、以及C6220,比较适用于云计算的大内存,大存储空间的特点,移除了云计算不会涉及到的一些组件,降低了成本,也是可以考虑下的。
    还有就是买KVM的时候千万别忘了RemoteKey,不然总跑机房也挺麻烦的。
    展开全文
  • Kubernetesmaster节点部署反向代理服务器 如图所示,在之前的master节点的基础上搭建一个由nginx做反向代理和负载均衡的调度器。nginx的虚拟IP为:192.168.80130/24.两个proxy代理节点IP地址为:192.168.80.136...

    Kubernetes多master节点部署反向代理服务器

    在这里插入图片描述
    如图所示,在之前的多master节点的基础上搭建一个由nginx做反向代理和负载均衡的调度器。nginx的虚拟IP为:192.168.80130/24.两个proxy代理节点IP地址为:192.168.80.136/24和192.168.80.137/24.

    搭建nginx服务

    这里的nginx我是用的手动编译安装nginx,所以nginx这里不再过多的赘述如何安装nginx。

    搭建keepalived服务

    这里我是用yum安装的方法在两个proxy节点安装keepalived。

    yum install keepalived -y
    

    修改keepalived的配置文件

    ! Configuration File for keepalived
    
    #keepalived的全局配置
    global_defs {
    
    #邮件模块,报警邮件地址
       notification_email {
         acassen@firewall.loc
         failover@firewall.loc
         sysadmin@firewall.loc
       }
    
       notification_email_from Alexandre.Cassen@firewall.loc
    #报警的邮箱服务器
       smtp_server 127.0.0.1
       smtp_connect_timeout 30
    #同一局域网内的统一标识
       router_id_01
       vrrp_skip_check_adv_addr
      ###################################
       #这里需要注释,如果不加注释是无法ping通VIP
      # vrrp_strict
      ###################################
       vrrp_garp_interval 0
       vrrp_gna_interval 0
    }
    
    #检测 nginx 状态的脚本路径
    vrrp_script chk_nginx {
        script "/opt/chk_nginx.sh"
    
    ## 检测时间间隔
        interval 2
     ## 如果条件成立,权重-20
        weight -20
    }
    
    #定义实例,定义主备节点、端口
    vrrp_instance VI_1 {
        state MASTER
        interface ens192
        virtual_router_id 10
        priority 100
    # 主备心跳通讯时间间隔,组播信息发送间隔,两个节点设置必须一样, 默认 1s
        advert_int 1
        authentication {
            auth_type PASS
            auth_pass 1111
        }
    
    ## 执行 Nginx 监控的服务
    track_script {
            chk_nginx
        }
    #配置的虚拟IP地址
        virtual_ipaddress {
            192.168.80.130/24
        }
    }
    

    另一个proxy节点上只需要修改其中一部分内容。

    #状态改为备用
    state BACKUP
    #修改优先级
    priority 99
    

    keepalived的配置文件中定义了监控nginx的脚本,需要在相应的目录下编写监控nginx的脚本。大致的意思是:如果查不到nginx的进程号那么解停止keepalived服务,VIP漂移到其他节点。

    vim /opt/chk_nginx.sh
    #!/bin/bash
    count=$(ps -ef |grep nginx |egrep -cv "grep|$$")
    
    if [ "$count" -eq 0 ];then
        /etc/init.d/keepalived stop
    fi
    

    在启动keepalived之前需要先开启nginx服务。之后再做VIP地址漂移测试。

    #开启nginx
    systemctl start nginx
    #开启keepalived
    systemctl start keepalived
    

    在这里插入图片描述
    VIP生效之后,停止proxy01节点的nginx服务查看VIP是否漂移到proxy02节点。
    在这里插入图片描述
    下面开始配置nginx的配置文件,需要注意的是如果在编译安装nginx的时候没有安装stream模块,需要再次添加stream模块编译安装一次。

    worker_processes  1;
    events {
        worker_connections  1024;
    }
    ##################  添加如下内容 ########################################
    stream {
    #定义日志的格式和日志文件的路径
       log_format  main  '$remote_addr $upstream_addr - [$time_local] $status $upstream_bytes_sent';
        access_log  /var/log/nginx/k8s-access.log  main;
    
    #master01的IP地址和master02的IP地址
        upstream k8s-apiserver {
            server 192.168.80.132:6443;
            server 192.168.80.133:6443;
        }
        server {
                    listen 6443;
                    proxy_pass k8s-apiserver;
        }
        }
    #####################################################################
    http {
        include       mime.types;
        default_type  application/octet-stream;
        sendfile        on;
        keepalive_timeout  65;
    
    
    #由于日志文件路径不存在需要手动创建
    mkdir -p /var/log/nginx
    

    重启nginx服务,并且访问VIP,可以浏览网页。
    在这里插入图片描述
    代理端其实已经完成了,这时就需要修改node节点中的配置文件,将apiserver的地址改为代理端的VIP。

    #移动到/opt/kubernetes/cfg
    cd /opt/kubernetes/cfg
    vim bootstrap.kubeconfig 
    vim kubelet.kubeconfig 
    vim kube-proxy.kubeconfig 
    

    将这三个配置文件中的serverip改为代理的VIP。

     server: https://192.168.80.130:6443
    

    查看是否都改为VIP地址。

    grep 130 *
    

    在这里插入图片描述
    接着重启kubelet、buke-proxy

    systemctl restart kubelet.service
    systemctl restart kube-proxy.service 
    

    查看proxy代理端的日志文件,是否有node节点的请求到master节点。这里的日志文件格式是参照nginx配置文件所定义的日志文件格式。 log_format main ‘$remote_addr upstreamaddr[upstream_addr - [time_local] $status $upstream_bytes_sent’;来访IP地址-跳转上游服务器IP地址-日期状态码

    [root@proxy_01 nginx]# tail k8s-access.log 
    192.168.80.134 192.168.80.133:6443 - [02/May/2020:12:12:16 +0800] 200 1121
    192.168.80.135 192.168.80.132:6443 - [02/May/2020:12:12:16 +0800] 200 1119
    192.168.80.135 192.168.80.132:6443 - [02/May/2020:12:12:16 +0800] 200 1120
    192.168.80.135 192.168.80.133:6443 - [02/May/2020:12:12:16 +0800] 200 1120
    192.168.80.135 192.168.80.132:6443 - [02/May/2020:12:12:17 +0800] 200 1566
    192.168.80.134 192.168.80.133:6443 - [02/May/2020:12:12:26 +0800] 200 1566
    

    到这步其实已经完成了代理的搭建,我们可以创建一个nginx的pod。

    kubectl run nginx --image=nginx
    

    之后我们用命令查看pod的状态

    [root@master_01 cfg]# kubectl get pods
    NAME                    READY   STATUS    RESTARTS   AGE
    nginx-dbddb74b8-wl7qx   1/1     Running   0          10m
    

    详细的pod信息我们用可以查看到具体的IP地址:

    [root@master_01 cfg]# kubectl get pods -o wide
    NAME                    READY   STATUS    RESTARTS   AGE   IP            NODE             NOMINATED NODE
    nginx-dbddb74b8-wl7qx   1/1     Running   0          27m   172.17.59.2   192.168.80.134   <none>
    

    这时我们在node节点访问pod的IP地址:172.17.59.2
    在node节点中打开浏览器,输入pod的IP地址。
    在这里插入图片描述
    我们也可以用curl命令:
    在这里插入图片描述
    要想查看pod中的nginx的日志文件需要创建一个匿名用户的,可以有权限查看pod内部的日志。

    kubectl create clusterrolebinding cluster-system-anonymous --clusterrole=cluster-admin --user=system:anonymous
    clusterrolebinding.rbac.authorization.k8s.io/cluster-system-anonymous created
    

    创建用户需要在etcd中添加的所以在任意master节点中添加都没有关系。最后查看日志。
    在这里插入图片描述
    这样Kubernetes的代理就搭建完毕了。

    展开全文
  • 单台服务器部署多节点

    万次阅读 2017-05-15 09:55:20
    单台服务器部署多节点

    一般情况下单台服务器只会部署一个ElasticSearch node,但是在学习过程中,很多情况下会需要实现ElasticSearch的分布式效果,所以需要启动多个节点,但是学习开发环境(不想开多个虚拟机实现多个服务器的效果),所以就想着在一台服务器上部署多个结点(下文以2个结点作为例子),两个节点分别称为实例一、二。

    1、首先将elasticsearch-2.4.4文件夹再复制一份

    $ cp -R elasticsearch-2.4.4 elasticsearch-2.4.4-node2

    2、主要工作就是修改elasticsearch.yml配置文件。

    实例二:config目录下的elasticsearch.yml内容

    将node.name: node1 修改为 node2,
    如果手动修改了http:port和transport.tcp.port,两个实例中需求设置的不同,不然会端口冲突。

    3、分别开启两个节点

    4、查询是否成功

    curl -i -XGET ‘http://127.0.0.1:9200/_cluster/health?pretty‘\;
    此时会发现,只有一个节点,说明集群未成功。因为我们还有一个地方未配置

    我们需要在elasticsearch.yml文件中配置 discovery.zen.ping.unicast.hosts: [“127.0.0.1:9300”, “127.0.0.1:9301”]

    此时再执行,就会发现有2个节点了

    展开全文
  • Fabric-Solo多机多节点部署方案 Solo多机多节点部署是在单机单节点部署方案的基础上进行的,我简单介绍下我的部署方案:首先在虚拟机上搭建好单机单节点的fabric网络,然后将搭建好的虚拟机进行复制出4台,一共5台,...
  • fabric1.4.3 多节点部署

    千次阅读 2019-09-05 11:59:02
    多机多节点指在多台电脑上部署多个组织和节点,本案例部署一个排序(orderer)服务,两个组织(org1,org2)和四个节点(peer),每个组织包括两个节点,需要五台服务器,规划如下: orderer.example.com ...
  • go-filecoin 多节点部署

    千次阅读 2019-10-29 20:49:38
    go-filecoin 单机多节点部署1,系统版本2,一台服务器运行第2个节点 1,系统版本 # lsb_release -a No LSB modules are available. Distributor ID: Ubuntu Description: Ubuntu 18.04 LTS Release: 18.04 Codename:...
  • Elasticsearch单台服务器多节点伪集群部署Elasticsearch单台服务器多节点伪集群部署kibana连接集群elasticsearch集群失败问题 Elasticsearch单台服务器多节点伪集群部署 将下载的elasticsearch解压3份 修改解压...
  • OpenStack多节点部署

    千次阅读 2013-07-17 15:44:08
    OpenStack多节点部署(一)——服务器选型  服务器的选型在类似于我们这样的非互联网类的传统公司也会成为一个很大的问题。以为之前并没有相关大规模服务器部署的经验,而且在采购等等环节受制于国企的一些制度和...
  • K8s——Kubernetes多节点部署一、部署master02二、部署负载均衡服务器lb01、lb02三、创建dashborad 一、部署master02 #在部署kubernetes单节点的基础上 1、环境:20.0.0.13 [root@master02 ~]# systemctl stop ...
  • OpenStack多节点部署(四)——KeyStone

    千次阅读 2013-02-04 15:12:47
    OpenStack多节点部署(一)——服务器选型 OpenStack多节点部署(二)——操作系统安装 OpenStack多节点部署(三)——网络配置 OpenStack多节点部署(四)——KeyStone OpenStack多节点部署(五)——Nova ...
  • OpenStack多节点部署(六)——Glance

    千次阅读 2013-02-27 17:17:33
    OpenStack多节点部署(一)——服务器选型 OpenStack多节点部署(二)——操作系统安装 OpenStack多节点部署(三)——网络配置 OpenStack多节点部署(四)——KeyStone OpenStack多节点部署(五)——Nova ...
  • OpenStack多节点部署(五)——Nova

    千次阅读 2013-02-17 21:45:24
    OpenStack多节点部署(一)——服务器选型 OpenStack多节点部署(二)——操作系统安装 OpenStack多节点部署(三)——网络配置 OpenStack多节点部署(四)——KeyStone OpenStack多节点部署(五)——Nova ...
  • 服务器ip orderer节点 组织 组织地址 peer节点 192.168.1.101 orderer1.test.com Org1 org1.test.com peer0.org1.test.com 192.168.1.102 orderer2.test.com Org2 org2.test....
  • 区块链单组群多节点部署 环境配置 配置 最低配置 推荐配置 CPU 1.5GHz 2.4GHz 内存 1GB 8GB 核心 1核 8核 带宽 1Mb 10Mb 本次试验使用Ubuntu16.04版本,内存4G Ubuntu16.04版本镜像下载地址 VMware...
  • OpenStack多节点部署(三)——网络配置

    万次阅读 热门讨论 2013-02-04 11:23:10
    OpenStack多节点部署(一)——服务器选型 OpenStack多节点部署(二)——操作系统安装 OpenStack多节点部署(三)——网络配置 OpenStack多节点部署(四)——KeyStone OpenStack多节点部署(五)——...
  • consul部署consul部署consul服务器部署docker容器服务自动加入nginx集群增加一个nginx容器节点,测试服务发现即配置更新功能consul多节点 consul部署 服务器名称 服务 服务器:192.168.238.12 Docker-ce、...
  • 但是在学习过程中,很情况下会需要实现ElasticSearch的分布式效果,所以需要启动节点,但是学习开发环境(不想开个虚拟机实现服务器的效果),所以就想着在一台服务器部署多个结点(下文以2个结点作为...
  • OpenStack多节点部署(一)——服务器选型 OpenStack多节点部署(二)——操作系统安装 OpenStack多节点部署(三)——网络配置 OpenStack多节点部署(四)——KeyStone OpenStack多节点部署(五)——Nova ...
  • 操作系统:ubuntu12.04 双网卡 曙光服务器 DiskA:500GB DiskB:500GB 控制节点:49.123.83.1 计算节点:49.123.83.2  49.123.83.3 网络参考:  陈沙克Blog http://www.chenshake.com  Openstack官网:
  • 本章介绍了如何进行Solo多机多节点部署,采用的是打包的方式在不同服务器上部署智能合约。
  • 一项目部署3台服务器,当有新的功能上线时,要先停掉一台,部署新的代码, 怎么保证停掉这台服务时,已经请求到该机器的请求已经全部处理完
  • Devstack多节点部署实验

    千次阅读 2016-07-17 02:50:23
    这是个在物理服务器部署openstack例子:1 先决条件Linux&网络1.1 最小化安装系统你需要一个刚安装好的Linux系统。你可以直接下载最小化的Ubuntu版本,devstack会下载安装所有额外的依赖关系。同样也支持网络安装...
  • 昨天晚上在群中和一些网友聊到了MySQL实例的话题,最早接触MySQL实例还是在1年前,那会我刚步入运维行业,做过MySQL实例的相关实验,在...在同一台物理服务器部署多个实例,而实例的部署方式简单,但是如...
  • Kubernetes要做的一个最重要的工作就是实现Docker容器的集群,并且一般都是在不同的物理机器上。我们通过使用命令行来操作...(1)阿里云centos 7.2master是Kubernetes主服务器,nodes是Kubernetes的从服务器,推荐
  • ElasticSearch 5学习(3)——单台服务器部署多节点 一般情况下单台服务器只会部署一个ElasticSearch node,但是在学习过程中,很情况下会需要实现ElasticSearch的分布式效果,所以需要启动节点,但是...
  • ICE通信之IceGrid多节点部署

    千次阅读 2018-06-10 14:59:43
    一、 简介Ice版本:3.1.1使用iceGrid服务实现一个简单的打印系统,主要说明iceGrid的使用方法,系统部署在4台主机上,注册器和打印服务器安装在同一台主机上,如下图所示:下图显示了一个客户端通过间接代理的初始...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 2,153
精华内容 861
关键字:

服务器多节点部署