精华内容
下载资源
问答
  • 一、基础环境 (1)操作系统:CentOS 7.3 (2)MongoDB:4.0.9 链接:... 二、节点角色规划 先来看一张图 ...从图中可以看到有四个组件:mongos、config server、shard、replica set。...mongos,数据库集群请求的入...

    一、基础环境

    (1)操作系统:CentOS 7.3

    (2)MongoDB:4.0.9  链接:https://pan.baidu.com/s/1dIfYNXyBRxDRn0uEZw6a6g 提取码:c4k3

    二、节点角色规划

    先来看一张图

     

    从图中可以看到有四个组件:mongos、config server、shard、replica set。

    mongos,数据库集群请求的入口,所有的请求都通过mongos进行协调,不需要在应用程序添加一个路由选择器,mongos自己就是一个请求分发中心,它负责把对应的数据请求请求转发到对应的shard服务器上。在生产环境通常有多mongos作为请求的入口,防止其中一个挂掉所有的mongodb请求都没有办法操作。

    config server,顾名思义为配置服务器,存储所有数据库元信息(路由、分片)的配置。mongos本身没有物理存储分片服务器和数据路由信息,只是缓存在内存里,配置服务器则实际存储这些数据。mongos第一次启动或者关掉重启就会从 config server 加载配置信息,以后如果配置服务器信息变化会通知到所有的 mongos 更新自己的状态,这样 mongos 就能继续准确路由。在生产环境通常有多个 config server 配置服务器,因为它存储了分片路由的元数据,防止数据丢失!

    shard,分片(sharding)是指将数据库拆分,将其分散在不同的机器上的过程。将数据分散到不同的机器上,不需要功能强大的服务器就可以存储更多的数据和处理更大的负载。基本思想就是将集合切成小块,这些块分散到若干片里,每个片只负责总数据的一部分,最后通过一个均衡器来对各个分片进行均衡(数据迁移)。

    replica set,中文翻译副本集,其实就是shard的备份,防止shard挂掉之后数据丢失。复制提供了数据的冗余备份,并在多个服务器上存储数据副本,提高了数据的可用性, 并可以保证数据的安全性。

    仲裁者(Arbiter),是复制集中的一个MongoDB实例,它并不保存数据。仲裁节点使用最小的资源并且不要求硬件设备,不能将Arbiter部署在同一个数据集节点中,可以部署在其他应用服务器或者监视服务器中,也可部署在单独的虚拟机中。为了确保复制集中有奇数的投票成员(包括primary),需要添加仲裁节点做为投票,否则primary不能运行时不会自动切换primary。

    简单了解之后,我们可以这样总结一下,应用请求mongos来操作mongodb的增删改查,配置服务器存储数据库元信息,并且和mongos做同步,数据最终存入在shard(分片)上,为了防止数据丢失同步在副本集中存储了一份,仲裁在数据存储到分片的时候决定存储到哪个节点。

    那么我们将三台节点的角色进行如下规划:

    三、端口分配

    mongos:20000
    config:21000
    shard1:27001
    shard2:27002
    shard3:27003

    四、安装MongoDB(所有节点)

    1、解压安装

    tar -xvf mongodb-linux-x86_64-rhel70-4.0.9.tgz
    
    mv mongodb-linux-x86_64-rhel70-4.0.9/ /usr/local/mongodb

    2、创建相关目录

    分别在每台机器建立conf、mongos、config、shard1、shard2、shard3六个目录,因为mongos不存储数据,只需要建立日志文件目录即可

    mkdir -p /usr/local/mongodb/conf
    mkdir -p /usr/local/mongodb/mongos/log
    mkdir -p /usr/local/mongodb/config/{data,log}
    mkdir -p /usr/local/mongodb/shard1/{data,log}
    mkdir -p /usr/local/mongodb/shard2/{data,log}
    mkdir -p /usr/local/mongodb/shard3/{data,log}

    3、配置环境变量

    vim ~/.bashrc
    
    export PATH=/usr/local/mongodb/bin:$PATH

    使环境变量生效

    source ~/.bashrc

    五、配置config server配置服务器(所有节点)

    1、配置

    vim /usr/local/mongodb/conf/config.conf
    
    pidfilepath = /usr/local/mongodb/config/log/configsrv.pid
    dbpath = /usr/local/mongodb/config/data
    logpath = /usr/local/mongodb/config/log/congigsrv.log
    logappend = true
    bind_ip = 0.0.0.0
    port = 21000
    fork = true
    configsvr = true
    #副本集名称
    replSet=configs
    #设置最大连接数
    maxConns=20000

    - 设置了最大连接数,相应的需要修改系统的最大打开连接数,部署成功之后可登陆到数据库使用“db.serverStatus().connections”命令查看当前连接数

    vim /etc/security/limits.conf
    
    *       soft    nofile  65535
    *       hard    nofile  65535
    
    logout重新登陆即可生效

    2、启动三台服务器的config server

    /usr/local/mongodb/bin/mongod -f /usr/local/mongodb/conf/config.conf

    3、登录任意一台配置服务器,初始化配置副本集

    #连接
    /usr/local/mongodb/bin/mongo --port 21000
    
    #配置config变量,"_id" : "configs"应与配置文件中配置的replSet=configs一致,"members"中的"host"为三个节点的ip和port
    config = {
        _id : "configs",
         members : [
             {_id : 0, host : "10.201.82.18:21000" },
             {_id : 1, host : "10.201.82.19:21000" },
             {_id : 2, host : "10.201.82.21:21000" }
         ]
     }
    
    # 回车之后看到如下提示
    {
    	"_id" : "configs",
    	"members" : [
    		{
    			"_id" : 0,
    			"host" : "10.201.82.18:21000"
    		},
    		{
    			"_id" : 1,
    			"host" : "10.201.82.19:21000"
    		},
    		{
    			"_id" : 2,
    			"host" : "10.201.82.21:21000"
    		}
    	]
    }
    
    # 初始化副本集
    rs.initiate(config)
    
    # 看到如下提示说明配置成功
    {
    	"ok" : 1,
    	"operationTime" : Timestamp(1534907024, 1),
    	"$gleStats" : {
    		"lastOpTime" : Timestamp(1534907024, 1),
    		"electionId" : ObjectId("000000000000000000000000")
    	},
    	"$clusterTime" : {
    		"clusterTime" : Timestamp(1534907024, 1),
    		"signature" : {
    			"hash" : BinData(0,"AAAAAAAAAAAAAAAAAAAAAAAAAAA="),
    			"keyId" : NumberLong(0)
    		}
    	}
    }

    六、配置分片副本集(所有节点)

    (1)、设置第一个分片副本集(三个节点)

    vim /usr/local/mongodb/conf/shard1.conf
    
    pidfilepath = /usr/local/mongodb/shard1/log/shard1.pid
    dbpath = /usr/local/mongodb/shard1/data
    logpath = /usr/local/mongodb/shard1/log/shard1.log
    logappend = true
    bind_ip = 0.0.0.0
    port = 27001
    fork = true
    #副本集名称
    replSet=shard1
    shardsvr = true
    #设置最大连接数
    maxConns=20000

    启动三台服务器的shard1 server

    /usr/local/mongodb/bin/mongod -f /usr/local/mongodb/conf/shard1.conf

    登陆任意一台服务器的mongo(非仲裁节点服务器),初始化副本集

    #连接
    /usr/local/mongodb/bin/mongo --port 27001
    
    #定义副本集配置,第三个节点的
    "arbiterOnly":true 代表其为仲裁节点。
    config = {
        _id : "shard1",
         members : [
             {_id : 0, host : "10.201.82.18:27001" },
             {_id : 1, host : "10.201.82.19:27001" },
             {_id : 2, host : "10.201.82.21:27001" , arbiterOnly: true }
         ]
     }
     
    #回车之后提示如下信息
     {
    	"_id" : "shard1",
    	"members" : [
    		{
    			"_id" : 0,
    			"host" : "10.201.82.18:27001"
    		},
    		{
    			"_id" : 1,
    			"host" : "10.201.82.19:27001"
    		},
    		{
    			"_id" : 2,
    			"host" : "10.201.82.21:27001",
    			"arbiterOnly" : true
    		}
    	]
    }
    
    #初始化副本集配置
    rs.initiate(config);

    (2)、设置第二个分片副本集(三个节点)

    vim /usr/local/mongodb/conf/shard2.conf
    
    pidfilepath = /usr/local/mongodb/shard2/log/shard2.pid
    dbpath = /usr/local/mongodb/shard2/data
    logpath = /usr/local/mongodb/shard2/log/shard2.log
    logappend = true
    bind_ip = 0.0.0.0
    port = 27002
    fork = true
    #副本集名称
    replSet=shard2
    shardsvr = true
    #设置最大连接数
    maxConns=20000

    启动三台服务器的shard2 server

    /usr/local/mongodb/bin/mongod -f /usr/local/mongodb/conf/shard2.conf

    登陆任意一台服务器的mongo(非仲裁节点服务器),初始化副本集

    /usr/local/mongodb/bin/mongo --port 27002
    
    #定义副本集配置
    config = {
        _id : "shard2",
         members : [
             {_id : 0, host : "10.201.82.18:27002"  , arbiterOnly: true },
             {_id : 1, host : "10.201.82.19:27002" },
             {_id : 2, host : "10.201.82.21:27002" }
         ]
     }
     
    #回车之后提示如下信息
     {
    	"_id" : "shard2",
    	"members" : [
    		{
    			"_id" : 0,
    			"host" : "10.201.82.18:27002",
    			"arbiterOnly" : true
    		},
    		{
    			"_id" : 1,
    			"host" : "10.201.82.19:27002"
    		},
    		{
    			"_id" : 2,
    			"host" : "10.201.82.21:27002"
    		}
    	]
    }
    
    #初始化副本集配置
    rs.initiate(config);

    (3)、设置第三个分片副本集(三个节点)

    vim /usr/local/mongodb/conf/shard3.conf
    
    pidfilepath = /usr/local/mongodb/shard3/log/shard3.pid
    dbpath = /usr/local/mongodb/shard3/data
    logpath = /usr/local/mongodb/shard3/log/shard3.log
    logappend = true
    bind_ip = 0.0.0.0
    port = 27003
    fork = true
    #副本集名称
    replSet=shard3
    shardsvr = true
    #设置最大连接数
    maxConns=20000

    启动三台服务器的shard3 server

    /usr/local/mongodb/bin/mongod -f /usr/local/mongodb/conf/shard3.conf

    登陆任意一台服务器的mongo(非仲裁节点服务器),初始化副本集

    /usr/local/mongodb/bin/mongo --port 27003
    
    #定义副本集配置
    config = {
        _id : "shard3",
         members : [
             {_id : 0, host : "10.201.82.18:27003" },
             {_id : 1, host : "10.201.82.19:27003" , arbiterOnly: true},
             {_id : 2, host : "10.201.82.21:27003" }
         ]
     }
     
    #回车之后提示如下信息
     {
    	"_id" : "shard3",
    	"members" : [
    		{
    			"_id" : 0,
    			"host" : "10.201.82.18:27003"
    		},
    		{
    			"_id" : 1,
    			"host" : "10.201.82.19:27003",
    			"arbiterOnly" : true
    		},
    		{
    			"_id" : 2,
    			"host" : "10.201.82.21:27003"
    		}
    	]
    }
    
    #初始化副本集配置
    rs.initiate(config);

    七、配置路由服务器 mongos(所有节点)

    vim /usr/local/mongodb/conf/mongos.conf
    
    pidfilepath = /usr/local/mongodb/mongos/log/mongos.pid
    logpath = /usr/local/mongodb/mongos/log/mongos.log
    logappend = true
    bind_ip = 0.0.0.0
    port = 20000
    fork = true
    #监听的配置服务器,只能有1个或者3个 configs为配置服务器的副本集名字
    configdb = configs/10.201.82.18:21000,10.201.82.19:21000,10.201.82.21:21000
    #设置最大连接数
    maxConns=20000

    启动三台服务器的mongos server

    /usr/local/mongodb/bin/mongos -f /usr/local/mongodb/conf/mongos.conf

    八、启用分片

    我们目前已经搭建了mongodb配置服务器、路由服务器,各个分片服务器,不过应用程序连接到mongos路由服务器并不能使用分片机制,还需要在程序里设置分片配置,让分片生效,登陆任意一台mongos

    /usr/local/mongodb/bin/mongo --port 20000
    
    #串联路由服务器与分片副本集
    sh.addShard("shard1/10.201.82.18:27001,10.201.82.19:27001,10.201.82.21:27001")
    sh.addShard("shard2/10.201.82.18:27002,10.201.82.19:27002,10.201.82.21:27002")
    sh.addShard("shard3/10.201.82.18:27003,10.201.82.19:27003,10.201.82.21:27003")
    
    #查看集群状态
    sh.status()
    
    #可看到如下所示信息
    --- Sharding Status --- 
      sharding version: {
      	"_id" : 1,
      	"minCompatibleVersion" : 5,
      	"currentVersion" : 6,
      	"clusterId" : ObjectId("5b7cd29cef0eeb88e8c19e4b")
      }
      shards:
            {  "_id" : "shard1",  "host" : "shard1/10.201.82.18:27001,10.201.82.19:27001",  "state" : 1 }
            {  "_id" : "shard2",  "host" : "shard2/10.201.82.19:27002,10.201.82.21:27002",  "state" : 1 }
            {  "_id" : "shard3",  "host" : "shard3/10.201.82.18:27003,10.201.82.21:27003",  "state" : 1 }
      active mongoses:
            "3.6.5" : 3
      autosplit:
            Currently enabled: yes
      balancer:
            Currently enabled:  yes
            Currently running:  no
            Failed balancer rounds in last 5 attempts:  0
            Migration Results for the last 24 hours: 
                    No recent migrations
      databases:
            {  "_id" : "config",  "primary" : "config",  "partitioned" : true }

    九、测试

    目前配置服务、路由服务、分片服务、副本集服务都已经串联起来了,但我们的目的是希望插入数据,数据能够自动分片。登录任意一台mongos,准备让指定的数据库、指定的集合分片生效。

    /usr/local/mongodb/bin/mongo 10.201.82.18:20000
    
    #使用admin数据库
    use admin
    
    #指定test_db分片生效
    db.runCommand( { enablesharding :"test_db"});
    
    #回车之后可看到如下提示
    {
    	"ok" : 1,
    	"$clusterTime" : {
    		"clusterTime" : Timestamp(1534917663, 6),
    		"signature" : {
    			"hash" : BinData(0,"AAAAAAAAAAAAAAAAAAAAAAAAAAA="),
    			"keyId" : NumberLong(0)
    		}
    	},
    	"operationTime" : Timestamp(1534917663, 6)
    }
    
    #指定数据库里需要分片的集合和片键
    db.runCommand( { shardcollection : "test_db.table1",key : {id: "hashed"} } )
    
    #回车之后看到如下提示
    {
    	"collectionsharded" : "test_db.table1",
    	"collectionUUID" : UUID("19629078-d4d0-4fc7-a371-2d7c330f77b3"),
    	"ok" : 1,
    	"$clusterTime" : {
    		"clusterTime" : Timestamp(1534917720, 14),
    		"signature" : {
    			"hash" : BinData(0,"AAAAAAAAAAAAAAAAAAAAAAAAAAA="),
    			"keyId" : NumberLong(0)
    		}
    	},
    	"operationTime" : Timestamp(1534917720, 14)

    我们设置test_db的table1表需要分片,根据id自动分片到shard1,shard2,shard3上面去。要这样设置是因为不是所有mongodb的数据库和表都需要分片!

    查看测试结果

    #使用test_db
    use test_db
    
    #插入10000条测试数据
    for (var i = 1; i <= 10000; i++)db.table1.save({id:i,"test1":"testval1"});
    
    #查看分片情况,可以看到1000条数据分布于三个片上
    db.table1.stats();
    或
    sh.status()

    十、启动关闭

    mongodb的启动顺序是,先启动所有节点配置服务器,在启动所有节点的分片,最后启动所有节点的mongos

    /usr/local/mongodb/bin/mongod -f /usr/local/mongodb/conf/config.conf
    
    /usr/local/mongodb/bin/mongod -f /usr/local/mongodb/conf/shard1.conf
    /usr/local/mongodb/bin/mongod -f /usr/local/mongodb/conf/shard2.conf
    /usr/local/mongodb/bin/mongod -f /usr/local/mongodb/conf/shard3.conf
    
    /usr/local/mongodb/bin/mongos -f /usr/local/mongodb/conf/mongos.conf

    关闭时,直接killall杀掉所有进程即可

    killall mongod
    killall mongos

    十一、设置开机自启

    cd /etc/systemd/system

    分别为config、shard1、shard2、shard3、mongos编写service文件,如下

    vim mongo-config.service
    
    [Unit]
    Description=mongo-config
    
    [Service]
    user=root
    group=root
    Type=forking
    ExecStart=/usr/local/mongodb/bin/mongod -f /usr/local/mongodb/conf/config.conf
    TimeoutStopSec=0
    Restart=always
    RestartSec=15s
    TimeoutStartSec=30s
    #ExecStop=/usr/local/mongodb/bin/mongod -f /usr/local/mongodb/conf/config.conf --shutdown
    
    [Install]
    WantedBy=multi-user.target
    Alias=mongoc
    vim mongo-shard1.service
    
    [Unit]
    Description=mongo-shard1
    Requires=mongo-config.service
    After=mongo-config.service
    
    [Service]
    user=root
    group=root
    Type=forking
    ExecStart=/usr/local/mongodb/bin/mongod -f /usr/local/mongodb/conf/shard1.conf
    TimeoutStopSec=0
    Restart=always
    RestartSec=15s
    TimeoutStartSec=30s
    #ExecStop=/usr/local/mongodb/bin/mongod -f /usr/local/mongodb/conf/shard1.conf --shutdown
    
    [Install]
    WantedBy=multi-user.target
    Alias=mongosh1
    vim mongo-shard2.service
    
    [Unit]
    Description=mongo-shard2
    Requires=mongo-shard1.service
    After=mongo-shard1.service
    
    [Service]
    user=root
    group=root
    Type=forking
    ExecStart=/usr/local/mongodb/bin/mongod -f /usr/local/mongodb/conf/shard2.conf
    TimeoutStopSec=0
    Restart=always
    RestartSec=15s
    TimeoutStartSec=30s
    #ExecStop=/usr/local/mongodb/bin/mongod -f /usr/local/mongodb/conf/shard2.conf --shutdown
    
    [Install]
    WantedBy=multi-user.target
    Alias=mongosh2
    vim mongo-shard3.service
    
    [Unit]
    Description=mongo-shard3
    Requires=mongo-shard2.service
    After=mongo-shard2.service
    
    [Service]
    user=root
    group=root
    Type=forking
    ExecStart=/usr/local/mongodb/bin/mongod -f /usr/local/mongodb/conf/shard3.conf
    TimeoutStopSec=0
    Restart=always
    RestartSec=15s
    TimeoutStartSec=30s
    #ExecStop=/usr/local/mongodb/bin/mongod -f /usr/local/mongodb/conf/shard3.conf --shutdown
    
    [Install]
    WantedBy=multi-user.target
    Alias=mongosh3
    vim mongos.service
    
    [Unit]
    Description=mongos
    Requires=mongo-shard3.service
    After=mongo-shard3.service
    
    [Service]
    user=root
    group=root
    Type=forking
    ExecStart=/usr/local/mongodb/bin/mongos -f /usr/local/mongodb/conf/mongos.conf
    TimeoutStopSec=0
    Restart=always
    RestartSec=15s
    TimeoutStartSec=30s
    #ExecStop=/usr/local/mongodb/bin/mongos -f /usr/local/mongodb/conf/mongos.conf
    
    [Install]
    WantedBy=multi-user.target

    添加文件权限,设置开机自启

    chmod +x mongo*.service
    
    systemctl daemon-reload
    
    systemctl enable mongo-config.service
    systemctl enable mongo-shard1.service
    systemctl enable mongo-shard2.service
    systemctl enable mongo-shard3.service
    systemctl enable mongos.service

    注意!使用systemctl的方式设置开机自启,因此种方式的先天限制,我们mongo设置的最大连接数并不能按照我们设置的20000来生效,会发现按照系统默认1024的80%生效,即819,解决此方法我们可以修改系统配置文件即可,修改这个配置文件需要重启系统才能生效!

    vim /etc/systemd/system.conf
    
    打开或者添加如下两行配置即可
    
    DefaultLimitCORE=infinity
    DefaultLimitNOFILE=64000

     

    展开全文
  • MongoDB数据库多节点副本集安装配置

    千次阅读 2018-08-22 16:57:23
    查看复制集的状态,可以看出哪个是主节点,哪个是从节点,哪个是仲裁节点 { "set" : "GRIDSUM", "date" : ISODate("2018-08-16T03:03:27.337Z"), "myState" : 1, "term" : NumberLong(1), ...

    一、基础环境

    (1)操作系统:CentOS 7.3

    (2)MongoDB:3.6.5  链接:https://pan.baidu.com/s/14_F9PUycakX5tt6kQ2hqDw 密码:udc0

    二、安装MongoDB

    (1)解压安装

    tar -xvf mongodb-linux-x86_64-rhel70-3.6.5.tgz
    
    mv mongodb-linux-x86_64-rhel70-3.6.5 /usr/local/mongodb

    (2)创建数据库目录及日志目录

    mkdir /usr/local/mongodb/dbs
    touch /usr/local/mongodb/logs

    (3)创建mongodb配置文件并启动mongodb

    touch /usr/local/mongodb/bin/mongod.conf
    
    # 数据库文件位置
    dbpath=/usr/local/mongodb/dbs
    # 数据库日志位置
    logpath=/usr/local/mongodb/logs
    # 进程文件
    pidfilepath=/usr/local/mongodb/mongodb.pid
    # 是否以守护进程方式启动
    fork=true
    # 错误日志采用追加模式
    logappend=true
    # 端口号
    port=27017
    # 绑定地址,本机地址
    bind_ip=192.168.0.101

    添加权限,启动数据库

    chmod 777 /usr/local/mongodb/bin/mongod.conf
    
    /usr/local/mongodb/bin/mongod -f /usr/local/mongodb/bin/mongod.conf

    可通过如下命令登录mongodb数据库

    /usr/local/mongodb/bin/mongo IP:27017

    (4)配置开机自启

    chmod +x /etc/rc.d/rc.local
    
    vi /etc/rc.d/rc.local
    
    添加以下配置
    /usr/local/mongodb/bin/mongod -f /usr/local/mongodb/bin/mongod.conf

    三、配置副本集

    (1)设置复制集集群名称

    开启复制集并为复制集设置名称,需要在所有节点添加

    vim /usr/local/mongodb/bin/mongod.conf
    
    #replication:
    replSet=GRIDSUM  #复制集名称

    (2)主节点登录Mongo进行配置

    /usr/local/mongodb/bin/mongo 10.201.82.18:27017 #登录
    
    config = {_id : "GRIDSUM",members : [{_id : 0, host : "10.201.82.18:27017"},{_id : 1, host : "10.201.82.19:27017" },{_id : 2, host : "10.201.82.21:27017" , arbiterOnly: true}]}

    其中,“GRIDSUM”为复制集集群,将三台机器加入复制集集群,“arbiterOnly: true”为指定此台机器所在节点为仲裁节点,不接收数据,回车之后看到如下提示

    {
    	"_id" : "GRIDSUM",
    	"members" : [
    		{
    			"_id" : 0,
    			"host" : "10.201.82.18:27017"
    		},
    		{
    			"_id" : 1,
    			"host" : "10.201.82.19:27017"
    		},
    		{
    			"_id" : 2,
    			"host" : "10.201.82.21:27017",
    			"arbiterOnly" : true
    		}
    	]
    }

    运行rs.initiate(config);命令看到如下提示,说明配置成功

    {
    	"ok" : 1,
    	"operationTime" : Timestamp(1534388033, 1),
    	"$clusterTime" : {
    		"clusterTime" : Timestamp(1534388033, 1),
    		"signature" : {
    			"hash" : BinData(0,"AAAAAAAAAAAAAAAAAAAAAAAAAAA="),
    			"keyId" : NumberLong(0)
    		}
    	}
    }

    通过rs.status();查看复制集的状态,可以看出哪个是主节点,哪个是从节点,哪个是仲裁节点

    {
    	"set" : "GRIDSUM",
    	"date" : ISODate("2018-08-16T03:03:27.337Z"),
    	"myState" : 1,
    	"term" : NumberLong(1),
    	"heartbeatIntervalMillis" : NumberLong(2000),
    	"optimes" : {
    		"lastCommittedOpTime" : {
    			"ts" : Timestamp(1534388605, 1),
    			"t" : NumberLong(1)
    		},
    		"readConcernMajorityOpTime" : {
    			"ts" : Timestamp(1534388605, 1),
    			"t" : NumberLong(1)
    		},
    		"appliedOpTime" : {
    			"ts" : Timestamp(1534388605, 1),
    			"t" : NumberLong(1)
    		},
    		"durableOpTime" : {
    			"ts" : Timestamp(1534388605, 1),
    			"t" : NumberLong(1)
    		}
    	},
    	"members" : [
    		{
    			"_id" : 0,
    			"name" : "10.201.82.18:27017",
    			"health" : 1,
    			"state" : 1,
    			"stateStr" : "PRIMARY",
    			"uptime" : 756,
    			"optime" : {
    				"ts" : Timestamp(1534388605, 1),
    				"t" : NumberLong(1)
    			},
    			"optimeDate" : ISODate("2018-08-16T03:03:25Z"),
    			"electionTime" : Timestamp(1534388044, 1),
    			"electionDate" : ISODate("2018-08-16T02:54:04Z"),
    			"configVersion" : 1,
    			"self" : true
    		},
    		{
    			"_id" : 1,
    			"name" : "10.201.82.19:27017",
    			"health" : 1,
    			"state" : 2,
    			"stateStr" : "SECONDARY",
    			"uptime" : 573,
    			"optime" : {
    				"ts" : Timestamp(1534388605, 1),
    				"t" : NumberLong(1)
    			},
    			"optimeDurable" : {
    				"ts" : Timestamp(1534388605, 1),
    				"t" : NumberLong(1)
    			},
    			"optimeDate" : ISODate("2018-08-16T03:03:25Z"),
    			"optimeDurableDate" : ISODate("2018-08-16T03:03:25Z"),
    			"lastHeartbeat" : ISODate("2018-08-16T03:03:26.562Z"),
    			"lastHeartbeatRecv" : ISODate("2018-08-16T03:03:26.914Z"),
    			"pingMs" : NumberLong(0),
    			"syncingTo" : "10.201.82.18:27017",
    			"configVersion" : 1
    		},
    		{
    			"_id" : 2,
    			"name" : "10.201.82.21:27017",
    			"health" : 1,
    			"state" : 7,
    			"stateStr" : "ARBITER",
    			"uptime" : 573,
    			"lastHeartbeat" : ISODate("2018-08-16T03:03:26.592Z"),
    			"lastHeartbeatRecv" : ISODate("2018-08-16T03:03:26.001Z"),
    			"pingMs" : NumberLong(2),
    			"configVersion" : 1
    		}
    	],
    	"ok" : 1,
    	"operationTime" : Timestamp(1534388605, 1),
    	"$clusterTime" : {
    		"clusterTime" : Timestamp(1534388605, 1),
    		"signature" : {
    			"hash" : BinData(0,"AAAAAAAAAAAAAAAAAAAAAAAAAAA="),
    			"keyId" : NumberLong(0)
    		}
    	}
    }

     

    展开全文
  • 同一个操作系统可以部署节点节点之间采用不同的端口进行区分。 SequoiaDB 巨杉数据库节点分为三种不同的角色:协调节点、编目节点与数据节点。 协调节点 协调节点不存储任何用户数据。作为外部访问的接入...

    概述

    SequoiaDB 巨杉数据库存储引擎采用分布式架构。集群中的每个节点为一个独立进程,节点之间采用TCP/IP协议进行通讯。 同一个操作系统可以部署多个节点,节点之间采用不同的端口进行区分。 SequoiaDB 巨杉数据库的节点分为三种不同的角色:协调节点、编目节点与数据节点。

    协调节点

    协调节点不存储任何用户数据。作为外部访问的接入与请求分发节点,协调节点将用户请求分发至相应的数据节点,最终合并数据节点的结果应答对外进行响应。

    编目节点

    编目节点主要存储系统的节点信息、用户信息、分区信息以及对象定义等元数据。在特定操作下,协调节点与数据节点均会向编目节点请求元数据信息,以感知数据的分布规律和校验请求的正确性。

    数据节点

    数据节点为用户数据的物理存储节点,海量数据通过分片切分的方式被分散至不同的数据节点。在关系型与 JSON 数据库实例中,每一条记录会被完整地存放在其中一个或多个数据节点中;而在对象存储实例中,每一个文件将会依据数据页大小被拆分成多个数据块,并被分散至不同的数据节点进行存放。

    展开全文
  • 【SequoiaDB|巨杉数据库节点介绍之协调节点 协调节点 协调节点不存储任何用户数据。作为外部访问的接入与请求分发节点,协调节点将用户请求分发至相应的数据节点,最终合并数据节点...更可关注巨杉数据库官网 ...

    【SequoiaDB|巨杉数据库】节点介绍之协调节点

    协调节点

    协调节点不存储任何用户数据。作为外部访问的接入与请求分发节点,协调节点将用户请求分发至相应的数据节点,最终合并数据节点的结果应答对外进行响应。

    更多可关注巨杉数据库官网

    展开全文
  • 【SequoiaDB|巨杉数据库节点介绍之编目节点 编目节点 编目节点主要存储系统的节点信息、用户信息、分区信息以及对象定义等元数据。在特定操作下,协调节点与数据节点均会向编目节点...更可关注巨杉数据库官网 ...
  • 在关系型与 JSON 数据库实例中,每一条记录会被完整地存放在其中一个或个数据节点中;而在对象存储实例中,每一个文件将会依据数据页大小被拆分成个数据块,并被分散至不同的数据节点进行存放。 更可关注巨杉...
  • 概念 数据节点为一种逻辑节点,其中保存用户数据信息。 数据节点中没有专门的编目信息集合,因此第一次访问集合前需要向编目节点...一个集群中可以配置个分区组。通过增加分区组,可以充分利用物理设备进行水平扩展。
  • tedious, 连接 SQL Server 数据库节点TDS模块 ( TDS的节点实现) Tedious是 TDS协议插件的纯javascript实现,它用于与微软的协议实例交互。 它打算是一个相当细微的协议实现,并且没有太的附加功能。注意:默认...
  • neo4j数据库节点与关系的增删改查

    千次阅读 2020-03-11 23:07:01
    neo4j数据库节点与关系的增删改查写在最前面1.创建节点1.1 创建一个或节点1.2 创建带有标签的节点1.3 创建带有属性的节点2.创建关系2.1 创建两个新的节点并为他们增加关系2.2 现有节点添加关系补充说明3. 查找...
  • 前言在oracle运维中经常会遇到各种故障,很初中级dba遇到故障时都不知道该怎么处理,尤其在面对oracle RAC故障时更加束手无策,...故障情况描述开发人员邮件报障:云平台一套RAC数据库节点一启动失败,报错信息...
  • 【SequoiaDB|巨杉数据库】整体框架 SequoiaDB 巨杉数据库作为分布式数据库,由数据库存储引擎与数据库实例两大模块构成。 其中,数据库存储引擎模块是数据存储的核心,负责提供整个...更可关注巨杉数据库官网 ...
  • 这是慧科电脑服务中心软件组写的。很新人才开始的时候可能都需要这个东东。商品目录,书目录等。
  • 单服务器部署三节点mongodb数据库详细教程 参考链接: https://www.cnblogs.com/xshrim/p/9798504.html 注意: 服务器和单服务器各项配置和操作略有不同,需要区分清楚, 本教程使用的是mongodb 4.2.11版本。 ...
  • MySQL实例数据库搭建MySQL实例是指安装MySQL之后,我们可以在一台Linux服务器上同时启动个MySQL数据库(实例),不需要安装个MySQL;如果是有台Linux服务器,那么我们需要每台服务器都分别安装MySQL;在一台...
  • 同一个操作系统可以部署节点节点之间采用不同的端口进行区分。 SequoiaDB 巨杉数据库节点分为三种不同的角色:协调节点、编目节点与数据节点。 协调节点 协调节点不存储任何用户数据。作为外部访问的接入与...
  • 多节点访问数据库占用资源并发问题 环境: 上层一个管理服务,管理底层 控制服务, 控制服务在 两个(或者多个)节点部署,HA 负载均衡模式,控制层共用一个数据库,读写分离模式 问题: 上层向底层并发批量申请...
  • 在实际生产环境中集群的各节点的时间,在运行中时间的偏差会逐渐增大。这时我们可以通过搭建NTP服务来保证所有节点的时间同步。 1、环境 2台(CentOS7.X),NTP服务器IP:10.10.35.116,客户端IP:10.10.35.114 2、...
  • 使用很简单: ...网上讲解的资料很,可参看: http://blog.51cto.com/fengcl/2072707 https://blog.csdn.net/weiwenhp/article/details/8218091 https://www.cnblogs.com/benbenduo/p/4588612.html ...
  • 概念 数据节点为一种逻辑节点,其中保存用户数据信息。 数据节点中没有专门的编目信息集合,因此第一次访问集合前需要向编目节点请求该集合的元数据信息。...更内容点击巨杉数据库文档中心 ...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 8,935
精华内容 3,574
关键字:

数据库多节点