精华内容
下载资源
问答
  • 云盘在线扩容阿里云盘在线扩容 阿里云盘在线扩容 安装插件 CentOS 7、Aliyun Linux: yum install cloud-utils-growpart yum install xfsprogs Ubuntu 14、Ubuntu 16、Ubuntu 18、Debian 9: apt install cloud-...

    教你如何快速在线扩容阿里云ESC服务器的磁盘

    安装插件

    1. CentOS 7、Aliyun Linux:

    yum install cloud-utils-growpart
    		yum install xfsprogs
    

    2. Ubuntu 14、Ubuntu 16、Ubuntu 18、Debian 9:

    apt install cloud-guest-utils
    	apt install xfsprogs
    

    确认磁盘扩容是否成功

    fdisk -l 
    

    查看当前的磁盘大小

    df -h
    

    调用growpart为需要扩容的云盘和对应的第几个分区扩容

    growpart /dev/vda 1
    

    调用resize2fs扩容文件系统

    resize2fs /dev/vda1
    
    展开全文
  • 引言 众所周知,我们大多数服务都是跑在 Linux上的,因为Linux命令行形式的特性,也导致了很多开发者只...为了方便后人快速扩容,特此记录。 LVM是什么 LVM(Logical Volume Manager)翻译过来是逻辑卷管理器,大家可

    引言

    众所周知,我们大多数服务都是跑在 Linux上的,因为Linux命令行形式的特性,也导致了很多开发者只喜欢把Linux当做跑服务的机器,并不作为日常的使用。这样导致了我们只能记得常用的部署命令,但遇到一些复杂的Linux运维就不知如何下手了。这不,我这两天就遇到了服务器磁盘不足的问题,一开始只想Google一下快速搞定,结果还是得补补Linux中LVM的这块知识点才可以。为了方便后人快速扩容,特此记录。

    LVM是什么

    LVM(Logical Volume Manager)翻译过来是逻辑卷管理器,大家可以把它认为是一种“RAID”形式的统一将多个磁盘当一块来用的中间层(可以暂时这么理解,但其实原理不是一回事)。就是说假如我们有3块4T的硬盘,我们可以用LVM组成一个12T的硬盘来用,后期也可以非常安全的在线扩容。ps:现在Linux安装的时候其实默认就采用了LVM的形式。

    LVM的组成

    LVM从上至下主要由三部分组成:

    • Physical Volumes 物理卷:通过物理存储设备来创建,就是我们的磁盘;
    • Volume Group 卷组:有了PV(特指物理卷)后,我们就可以创建VG(特指卷组);
    • Logical Volume 逻辑卷:那么有了VG后,就可以创建可供我们最终存储文件挂载所使用的LV(逻辑卷)。
      在这里插入图片描述
      为了方便大家理解,我就举个炸油条的例子。我们最底层的物理卷就相当于我们的一带面粉,从JD买回来两袋面粉后,我们需要对面粉进行和面,我们一袋面和一盆,和了两盆(这两盆就是PV)。然后我们可以把这两盆醒好的面放到一个大缸里待使用(大缸就是VG)。那炸油条的操作员就可以通过拿大缸里和好的面(LV),然后制作油条 。操作员想拿多少拿多少,对不对,这一缸面想怎么用就怎么用。至于这一缸面是从那个面粉里来的,不重要好吧,直接用!ps:其实PV在创建的时候会默认将面粉分成4M一份的形式,这个4M的最小单元叫PE(Physical Extend)。

    开始扩容

    那么了解了基本概念后,我们就要开始扩容了,我们先使用df -h看看我的服务器的可用空间:
    在这里插入图片描述
    太惨了吧!只有不到30G可用,这能干点啥,但现在硬盘至少都500G了怎么才这么点可用空间,应该是没用起来导致的。所以我们用lsblk来看看磁盘情况:
    在这里插入图片描述
    果然,可以看到我最大的一块LV分区(cach3-lvcache3)拥有484.2G的存储并没有使用。那么我们先来看看这台机器的油条生产线的情况如何:
    首先看看PV面盆,使用pvs命令(精简)pvdisplay命令(详细):
    在这里插入图片描述
    我这个机器一共有三盆面粉,分别是:/dev/sda3 [54 G]、/dev/sda6 [279 G]、/dev/sda7 [204 G],还记得我们上面说的PE嘛,可以看到都是4M。
    我们再来看看我的面缸:使用vgs命令(精简)vgdiplay命令(详细):
    在这里插入图片描述
    这里就比较明确了,我们原来没有把面盆和好的面放到一个缸里,而是放到了两个缸里:cache3centos。我空闲的那484 G的面缸原来一直都没用起来,我直接就是给他降级,注意:我们所有逆操作必须把比自己高一级或者同级的降一级再操作。这里我想把同为LG的cache3centos放到一起,也就是把cache3合并到centos里,就需要先把cache3降级。删除VG的指令是:vgremove cache3
    在这里插入图片描述
    好啦,这就把cache3这个缸给删了,放到了面盆里了。
    在这里插入图片描述
    我们现在知道面粉已经在dev/sda6dev/sda7盆里了,我们现在就要把这俩盆里的面给放到缸里。使用:vgextend centos /dev/sda6 命令。添加后可以看到VG(面缸)已经合并为一个,总大小是539G了,可以用的是484G。
    在这里插入图片描述
    我把这484G可用空间分别给到了现有home LV 380G、root LV 100G。这个时候再看我们的操作室LV就已经扩容啦!
    在这里插入图片描述
    咦~但我们的文件系统为啥还是这么小呢?这是因为逻辑卷是一个底层的东西,操作系统要使用这个东西都要进行一个格式化也就是创建文件系统,而文件系统在创建的时候大小已经固定了,我们拉伸了底层的逻辑卷却没有更新这个文件系统。这个时候操作系统还没法识别到这个新的空间,所以我们要更新一下让操作系统知道我们已经扩容啦!不同格式的分区更新文件系统的方式也不一样。需要查看一下你的文件系统是ext4还是xfs。如果是ext4使用:resize2fs /dev/centos/root来更新,如果是xfs 使用:xfs_growfs /dev/mapper/centos-root命令。怎么查看自己分区的格式呢?使用:cat /etc/fstab | grep centos-home命令
    在这里插入图片描述
    可以看到,这里我是xfs,所以我使用:xfs_growfs /dev/mapper/centos-root命令。
    在这里插入图片描述
    Yeah~ 终于搞定了!

    总结

    整体来说LVM还是非常方便的,可以非常安全的对我们的文件系统进行调整。希望对你有帮助!
    See you~

    展开全文
  • 往往在大促等高峰时段都需要对流量提前预估,但实际上预先计算好的资源和应用容量,依然可能不足以支撑流量高峰,需要紧急扩容;而容器技术则非常适合这种场景,在需要时快速地、自动弹性伸缩。那么在业务需求极速...

    往往在大促等高峰时段都需要对流量提前预估,但实际上预先计算好的资源和应用容量,依然可能不足以支撑流量高峰,需要紧急扩容;而容器技术则非常适合这种场景,在需要时快速地、自动弹性伸缩。那么在业务需求极速上升的情况下,大量服务器资源启动时如何抗住并发部署的压力呢?

     

    在本次双十一期间容器镜像服务参与并提供了服务支撑,其具备在十分钟之内快速万台服务其部署的能力。


    指数级别增长、百亿次拉取次数,容器镜像之于容器技术


    作为一种轻量级的虚拟化技术,容器技术所具备的敏捷、可移植、可控性,使得它一经推出就受到众多开发者的追捧。但其实更重要的是,容器技术定义了一种标准化的交付方式——容器镜像

     

    容器镜像将应用的代码以及代码环境依赖都都打包在一起,这是一个与环境无关的交付物,可以应用在软件生命周期的任何阶段。就像集装箱改变了传统的运输体系,创造了容器镜像的容器技术彻底改变了传统的软件交付模式。

     

    纵观全球,整个容器技术在近三年得到了爆发式的增长。据统计有67%的企业在生产环节或者尝试在生产环节中使用Docker,帮助他们敏捷进化,提高研发交付的效率。据Docker Con 2017的统计,近三年应用数增长了30倍,约有百万级别的容器化应用数。而容器镜像的拉取个数,近三年更是趋于了指数级别增长,承载了约110亿次拉取。



      DockerCon2017年容器镜像拉取情况的最新统计


    双十一与容器镜像服务的故事

     

    早在2015年,阿里巴巴就在尝试使用容器技术。2016年双十一就已经将所有交易核心应用容器化,几十万容器撑起了双 11 交易 17.5 万笔/秒的下单峰值。而在今年双十一,阿里巴巴已在集团范围实现在线服务全部容器化,内部已达到百万级容器部署规模,其中双十一交易峰值到32.5万笔/秒并且可以实现十分钟内万台服务器的快速部署。

     

    截止目前,容器镜像服务支撑了集团10万镜像的托管,共计2亿次的镜像下载量。

     

    为了承受高压,我们做了多维度的优化


    在早期的容器推行演练中,由于当时发布系统日均的发布量上万,很多应用的规模开始破万,发布失败率开始增高,影响到了业务的正常迭代流程。这个困境的根本问题在于发布过程大量大应用镜像拉取的需求,而应用镜像内容过于冗余臃肿,彼时存在大量超过5G的大镜像,文件服务器扛不住大量的请求。

     

    为了解决多规模、并发情况下容器镜像的获取问题,我们考虑了容器镜像大小、容器内容加速及流控、镜像Registry性能等三个大维度的优化。

     

    容器镜像大小优化


    Action 1:之前将所有的构建过程编写在同一个Dockerfile中,包括应用及其依赖库的编译、测试、打包等流程,这里可能会带来的一些问题:镜像臃肿、镜像层次嵌套深、也可能存在源代码泄露的风险。我们进行了多阶段镜像构建优化,将镜像制作过程中的中间产物与最终镜像构建产物分离,形成最精简的应用镜像。


    多阶段镜像构建优化后获取最精简应用镜像

     

    Action 2:将功能统一的命令聚合到同一层来完成,将使用频繁的应用或环境制作成基础镜像复用,尽可能减少镜像的层数。

     

    容器内容加速和流控


    在大规模的镜像分发场景之下,优化镜像本身的大小作用有限,我们依然需要考虑如何从系统上提升镜像拉取的性能。最初很容易想到服务器扩容,可是扩容后又发现后端存储成为瓶颈。此外,大量来自不同IDC的客户端请求消耗了巨大的网络带宽,造成网络拥堵。同时,很多业务走向国际化,大量的应用部署在海外,海外服务器下载要回源国内,浪费了大量的国际带宽,而且还很慢;如果传输大文件,网络环境差,失败的话又得重来一遍,效率极低。

     

    为了解决这些问题,阿里推出了蜻蜓这个产品。蜻蜓通过使用P2P技术同时结合智能压缩、智能流控等多种创新技术,解决大规模文件下载以及跨网络隔离等场景下各种文件分发难题,大幅提高数据预热、大规模容器镜像分发等业务能力。

     

    在本地机器使用了分层的方式来下载镜像,下面介绍下DockerPull的执行过程:


    Docker 镜像分层下载图


    Docker Daemon调用RegistryAPI得到镜像的Manifest,从Manifest中能算出每层的URL,Daemon随后把所有镜像层从Registry并行下载到Host本地仓库。

     

    所以最终,镜像传输的问题变成了各镜像层文件的并行下载的问题。而蜻蜓擅长的正是将每层镜像文件从Registry用P2P模式传输到本地仓库中。

     

    那么具体又是如何做到的呢?

     

    事实上蜻蜓会在Host上启动proxy,Docker Engine的所有命令请求都会通过这个proxy,我们看下图:


    蜻蜓P2P容器镜像分发示意图


    首先,docker pull命令,会被dfget proxy截获。然后,由dfget proxy向CM发送调度请求,CM在收到请求后会检查对应的下载文件是否已经被缓存到本地,如果没有被缓存,则会从Registry中下载对应的文件,并生成种子分块数据(种子分块数据一旦生成就可以立即被使用);如果已经被缓存,则直接生成分块任务,请求者解析相应的分块任务,并从其他peer或者supernode中下载分块数据,当某个Layer的所有分块下载完成后,一个Layer也就下载完毕了,同样,当所有的Layer下载完成后,整个镜像也就下载完成了。

     

    蜻蜓支持多种容器技术,对容器本身无需做任何改造,镜像分发比natvie方式提速可高达57倍,Registry网络出流量降低99.5%以上。为阿里巴巴业务的极速扩张和双十一大促保驾护航。

     

    镜像Registry性能优化


    蜻蜓利用P2P的模式解决了从Registry获取镜像层并传输到本地的问题,不过当镜像拉取规模在几万并发的量级的时候,从Registry获取镜像的Manifest也会成为性能瓶颈。容器镜像服务从代码层面、基础设施层面做了很多定制化的增强:

     

    在代码层面:容器镜像服务增加了对于Docker Registry优化,根据之前的镜像请求,自动分析热点数据并增加了热点数据的缓存,从容应对大规模并发下镜像Manifest的拉取。增加了对镜像下载源的动态判断,根据镜像下载请求的不同来源,自动返回离镜像下载最近的Registry地址。


    在基础设施层面:为了应对流量的突发,容器镜像服务加强了针对Registry流量、存储的多维度监控,定时进行监控探活,并且实时收集监控数据,当达到监控阈值,Registry会自动进行报警和基础设施的弹性扩容。

     

    镜像服务惠及云上用户


    自2015年起面向阿里集团内部和对阿里云容器服务提供支撑以来,阿里云容器镜像技术积累了深厚的经验。一般而言,大家认为容器镜像服务是为用户提供了安全稳定的镜像托管能力,但是实际上并不至于此:除了镜像托管以及镜像的上传下载之外,容器镜像服务还包含了从镜像构建到应用部署等一整套的DevOps能力。

     

    为了将阿里巴巴在容器技术上的积累带给云上用户,容器镜像服务于2017年10月30日正式对外公测。容器镜像服务(ContainerRegistry)免费提供了安全的镜像托管能力,稳定的国内外镜像构建服务,便捷的镜像授权功能,方便用户在云上进行容器镜像全生命周期管理,体验容器技术带来的敏捷变革。

     

    1)全球多地域支持及镜像加速器:


    阿里云容器镜像服务提供了全球多地域支持,用户可以在自己业务地就近托管容器镜像,保障应用镜像的极速上传、下载操作。我们也为每一位用户提供了新一代专属镜像加速器,通过镜像加速器可以快速获取国外优秀的镜像。镜像加速器采用了自主研发的智能路由及动态缓存技术,极大提升了镜像的下载速度和用户体验。并且完全兼容 Docker 原生参数配置方式,支持 Linux、MacOS、Windows 三大平台。目前,容器镜像服务已经加速了千万次的镜像拉取,帮助用户节省超过十万个小时。

     

    2)多阶段构建:


    阿里云容器镜像服务提供了丰富稳定的镜像构建功能,包含自动构建、海外构建、多阶段构建(multi-stage build)支持,方便打造云上容器DevOps最佳实践。用户可以将应用代码托管在阿里云Code、Github、Bitbucket或者自建的GitLab之上,通过容器镜像服务多阶段构建功能或者阿里云CodePipline进行代码编译测试,构建完成后的镜像将推送至容器镜像服务托管。最后通过容器镜像服务上的webhook,动态通知容器服务集群上相应的应用重新部署。

     

    通过整个解决方案,用户在将代码提交至线上之后,可以实现自动的代码测试,测试通过后应用自动构建成镜像,最终部署到测试、预发或者生产环境的集群上。


    阿里云容器化DevOps流程图

     

    3)  镜像安全扫描


    镜像已经成为企业的核心资产,企业软件交付流水线的中心,线上的应用的安全问题也是至关重要的。容器镜像服务提供了便捷的镜像安全扫描功能,提供多维度的镜像漏洞报告。镜像漏洞报告中包含漏洞的CVE编号、漏洞的等级、漏洞位置及官方和社区提供的漏洞修复方案。



    阿里云容器镜像安全扫描示意图

     

    总结

     

    容器镜像服务通过Registry性能优化,蜻蜓通过P2P技术结合智能压缩和流控等方案,共同解决了大规模文件下载以及跨网络隔离等场景下各种文件分发难题,在阿里已然成为重要的基础设施之一,为业务的极速扩张和双十一大促保驾护航。

     

    截止到目前为止,已经有数万用户经过容器镜像服务(ContainerRegistry)享受了安全的镜像托管能力、稳定的国内外镜像构建服务、便捷的镜像授权功能,通过容器镜像进行全生命周期管理。容器镜像服务简化了Registry的搭建运维工作,支持多地域的镜像托管,并联合容器服务、CodePipeline等云产品,为用户打造云上使用Docker的一体化体验。

      

    作者简介:


    阿里云容器服务团队成立于2015年,于2016年公有云容器服务正式商业化、专有云企业版正式发布、产品实现国际化,于今年发布专有云敏捷版,全面升级提供Kubernetes和Swarm的支持。

    展开全文
  • 往往在大促等高峰时段都需要对流量提前预估,但实际上预先计算好的资源和应用容量,依然可能不足以支撑流量高峰,需要紧急扩容;而容器技术则非常适合这种场景,在需要时快速地、自动弹性伸缩。那么在业务需求极速...

    一、写在前面

    又是一年双十一,这次的购物狂欢再次刷新记录,而背后的阿里云技术也再次交上了一份不错的‘期末考卷’。

    往往在大促等高峰时段都需要对流量提前预估,但实际上预先计算好的资源和应用容量,依然可能不足以支撑流量高峰,需要紧急扩容;而容器技术则非常适合这种场景,在需要时快速地、自动弹性伸缩。那么在业务需求极速上升的情况下,大量服务器资源启动时如何抗住并发部署的压力呢?

    今年双十一期间,阿里云容器镜像仓库存放30万类镜像,其中包含共计1000万镜像版本,而镜像下载量高达8亿次。

    (容器镜像服务产品页,移步了解更多:https://www.aliyun.com/product/acr

    image

    2017年天猫双十一再次刷新了记录, 交易峰值32.5万笔/秒,支付峰值25.6万次/秒,数据库处理峰值4200万次/秒。

    二、指数级别增长、百亿次拉取次数,容器镜像之于容器技术

    作为一种轻量级的虚拟化技术,容器技术所具备的敏捷、可移植、可控性,使得它一经推出就受到众多开发者的追捧。但其实更重要的是,容器技术定义了一种标准化的交付方式——容器镜像。

    容器镜像将应用的代码以及代码环境依赖都都打包在一起,这是一个与环境无关的交付物,可以应用在软件生命周期的任何阶段。就像集装箱改变了传统的运输体系,创造了容器镜像的容器技术彻底改变了传统的软件交付模式。

    纵观全球,整个容器技术在近三年得到了爆发式的增长。据统计有67%的企业在生产环节或者尝试在生产环节中使用Docker,帮助他们敏捷进化,提高研发交付的效率。据Docker Con 2017的统计,近三年应用数增长了30倍,约有百万级别的容器化应用数。而容器镜像的拉取个数,近三年更是趋于了指数级别增长,承载了约110亿次拉取。

    image

    三、双十一与容器镜像服务的故事

    早在2015年,阿里巴巴就在尝试使用容器技术。2016年双十一就已经将所有交易核心应用容器化,几十万容器撑起了双 11 交易 17.5 万笔/秒的下单峰值。而去年双十一,阿里巴巴已在集团范围实现在线服务全部容器化,内部已达到百万级容器部署规模,其中双十一交易峰值到32.5万笔/秒并且可以实现十分钟内万台服务器的快速部署。

    截止目前,容器镜像服务支撑了集团10万镜像的托管,共计2亿次的镜像下载量。

    四、为了承受高压,我们做了多维度的优化

    在早期的容器推行演练中,由于当时发布系统日均的发布量上万,很多应用的规模开始破万,发布失败率开始增高,影响到了业务的正常迭代流程。这个困境的根本问题在于发布过程大量大应用镜像拉取的需求,而应用镜像内容过于冗余臃肿,彼时存在大量超过5G的大镜像,文件服务器扛不住大量的请求。

    为了解决多规模、并发情况下容器镜像的获取问题,我们考虑了容器镜像大小、容器内容加速及流控、镜像Registry性能等三个大维度的优化。

    1) 容器镜像大小优化

    Action 1:之前将所有的构建过程编写在同一个Dockerfile中,包括应用及其依赖库的编译、测试、打包等流程,这里可能会带来的一些问题:镜像臃肿、镜像层次嵌套深、也可能存在源代码泄露的风险。我们进行了多阶段镜像构建优化,将镜像制作过程中的中间产物与最终镜像构建产物分离,形成最精简的应用镜像。

    image

    Action 2:将功能统一的命令聚合到同一层来完成,将使用频繁的应用或环境制作成基础镜像复用,尽可能减少镜像的层数。关于容器镜像优化的最佳实践,我们也开展了很多的线下沙龙活动进行分享,可以通过《Docker 镜像优化与最佳实践》了解更多,文章链接为https://yq.aliyun.com/articles/219139

    2) 容器内容加速和流控

    在大规模的镜像分发场景之下,优化镜像本身的大小作用有限,我们依然需要考虑如何从系统上提升镜像拉取的性能。最初很容易想到服务器扩容,可是扩容后又发现后端存储成为瓶颈。此外,大量来自不同IDC的客户端请求消耗了巨大的网络带宽,造成网络拥堵。同时,很多业务走向国际化,大量的应用部署在海外,海外服务器下载要回源国内,浪费了大量的国际带宽,而且还很慢;如果传输大文件,网络环境差,失败的话又得重来一遍,效率极低。

    为了解决这些问题,阿里推出了蜻蜓这个产品。蜻蜓通过使用P2P技术同时结合智能压缩、智能流控等多种创新技术,解决大规模文件下载以及跨网络隔离等场景下各种文件分发难题,大幅提高数据预热、大规模容器镜像分发等业务能力。

    在本地机器使用了分层的方式来下载镜像,下面介绍下Docker Pull的执行过程:
    image

     *Docker 镜像分层下载图*
    

    Docker Daemon调用Registry API得到镜像的Manifest,从Manifest中能算出每层的URL,Daemon随后把所有镜像层从Registry并行下载到Host本地仓库。

    所以最终,镜像传输的问题变成了各镜像层文件的并行下载的问题。而蜻蜓擅长的正是将每层镜像文件从Registry用P2P模式传输到本地仓库中。

    那么具体又是如何做到的呢?

    事实上蜻蜓会在Host上启动proxy,Docker Engine的所有命令请求都会通过这个proxy,我们看下图:
    image

    首先,docker pull命令,会被dfget proxy截获。然后,由dfget proxy向CM发送调度请求,CM在收到请求后会检查对应的下载文件是否已经被缓存到本地,如果没有被缓存,则会从Registry中下载对应的文件,并生成种子分块数据(种子分块数据一旦生成就可以立即被使用);如果已经被缓存,则直接生成分块任务,请求者解析相应的分块任务,并从其他peer或者supernode中下载分块数据,当某个Layer的所有分块下载完成后,一个Layer也就下载完毕了,同样,当所有的Layer下载完成后,整个镜像也就下载完成了。

    蜻蜓支持多种容器技术,对容器本身无需做任何改造,镜像分发比natvie方式提速可高达57倍,Registry网络出流量降低99.5%以上。为阿里巴巴业务的极速扩张和双十一大促保驾护航。

    3) 镜像Registry性能优化

    蜻蜓利用P2P的模式解决了从Registry获取镜像层并传输到本地的问题,不过当镜像拉取规模在几万并发的量级的时候,从Registry获取镜像的Manifest也会成为性能瓶颈。容器镜像服务从代码层面、基础设施层面做了很多定制化的增强:

    在代码层面:容器镜像服务增加了对于Docker Registry优化,根据之前的镜像请求,自动分析热点数据并增加了热点数据的缓存,从容应对大规模并发下镜像Manifest的拉取。增加了对镜像下载源的动态判断,根据镜像下载请求的不同来源,自动返回离镜像下载最近的Registry地址。

    在基础设施层面:为了应对流量的突发,容器镜像服务加强了针对Registry流量、存储的多维度监控,定时进行监控探活,并且实时收集监控数据,当达到监控阈值,Registry会自动进行报警和基础设施的弹性扩容。

    五、容器技术惠及云上用户

    为了将阿里在容器技术上的积累带给云上的用户使用,我们在2017年10月公测了阿里云容器服务。容器镜像服务(Container Registry)提供安全的镜像托管能力,稳定的国内外镜像构建服务,便捷的镜像授权功能,方便用户进行容器镜像全生命周期管理。容器镜像服务简化了Registry的搭建运维工作,支持多地域的镜像托管,并联合容器服务、CodePipeline等云产品,为用户打造云上使用Docker的一体化体验。

    1)全球多地域支持及镜像加速器:

    阿里云容器镜像服务提供了全球多地域支持,用户可以在自己业务地就近托管容器镜像,保障应用镜像的极速上传、下载操作。我们也为每一位用户提供了新一代专属镜像加速器,通过镜像加速器可以快速获取国外优秀的镜像。镜像加速器采用了自主研发的智能路由及动态缓存技术,极大提升了镜像的下载速度和用户体验。并且完全兼容 Docker 原生参数配置方式,支持 Linux、MacOS、Windows 三大平台。目前,容器镜像服务已经加速了千万次的镜像拉取,帮助用户节省192kh。

    2)多阶段构建:

    阿里云容器镜像服务提供了丰富稳定的镜像构建功能,包含自动构建、海外构建、多阶段构建(multi-stage build)支持,方便打造云上容器DevOps最佳实践。用户可以将应用代码托管在阿里云Code、Github、Bitbucket或者自建的GitLab之上,通过容器镜像服务多阶段构建功能或者阿里云CodePipline进行代码编译测试,构建完成后的镜像将推送至容器镜像服务托管。最后通过容器镜像服务上的webhook,动态通知容器服务集群上相应的应用重新部署。

    通过整个解决方案,用户在将代码提交至线上之后,可以实现自动的代码测试,测试通过后应用自动构建成镜像,最终部署到测试、预发或者生产环境的集群上。

    image

    3) 镜像安全扫描

    镜像已经成为企业的核心资产,企业软件交付流水线的中心,线上的应用的安全问题也是至关重要的。容器镜像服务提供了便捷的镜像安全扫描功能,提供多维度的镜像漏洞报告。镜像漏洞报告中包含漏洞的CVE编号、漏洞的等级、漏洞位置及官方和社区提供的漏洞修复方案。

    image

    六、写在后面

    容器镜像服务通过Registry性能优化,蜻蜓通过P2P技术结合智能压缩和流控等方案,共同解决了大规模文件下载以及跨网络隔离等场景下各种文件分发难题,在阿里已然成为重要的基础设施之一,为业务的极速扩张和双十一大促保驾护航。

    为了将阿里巴巴在容器技术上的积累带给云上用户,在2017年10月阿里巴巴推出了容器镜像服务(公测版)。容器镜像服务(Container Registry)免费提供了安全的镜像托管能力,稳定的国内外镜像构建服务,便捷的镜像授权功能,方便用户在云上进行容器镜像全生命周期管理,体验容器技术带来的敏捷变革。
    此外,还有一个重大预告,容器镜像服务即将推出企业版,支持在用户自己的OSS上进行镜像托管,提供P2P镜像插件支撑大规模镜像拉取能力,提供自定义域名配置,镜像实例级别同步,镜像安全扫描等企业级功能。敬请期待!

    展开全文
  • 在线扩容实时备库

    2021-02-27 17:42:32
    2.4 在线扩容实时备库 2.4.1 引言 当生产环境需要对主备集群数据库进行增加备库节点,同时希望系统持续运行,又或者要求停机时间尽量短,此时我们可利用动态增加节点的方式进行系统扩容。 2.4.2 扩容节点规划 PS:...
  • 服务扩容的一点总结

    2011-12-27 21:07:38
    最近一年经历了很多业务快速增长的情况,早期对容量...有状态扩容主要的应用场景是服务器负载均衡技术以及数据库水平扩容。无论是服务器负载均衡还是数据库水平扩容,主要考虑的问题都是:1,怎么分配请求;2,怎么...
  • 一个单体应用的扩容之路 一、前言 对于一个初期的系统来说,功能较少,为了能够快速上线进行推广,此时一般会单体应用架构来进行开发。此时应用系统和数据库很可能都是部署在同一台服务器上。如下图所示。 对于这样...
  • 对于遇到过系统瓶颈,需要扩容的系统,恭喜你,你的系统一定是快速发展,遇到了访问量上升的情况! 【云架构,系统扩容案例】 先说下我个人的经历:我是做GPS防盗器系统的,硬件需要给后台服务器回发数据...
  • 对于遇到过系统瓶颈,需要扩容的系统,恭喜你,你的系统一定是快速发展,遇到了访问量上升的情况! 【云架构,系统扩容案例】 先说下我个人的经历:我是做GPS防盗器系统的,硬件需要给后台服务器回发数据...
  • DELL_RAID磁盘阵列扩容规则

    千次阅读 2018-03-20 15:50:38
    RAID磁盘阵列扩容 系统管理 - Wiki这里我们讨论服务器硬盘空间不足时,我们有什么方法可以扩充原有虚拟磁盘的空间,而无需删除上面的数据。演示快速入口:联机容量扩充 (OCE)RAID 级别迁移 (RLM)简介我们可通过扩充...
  • RAID磁盘阵列扩容

    2012-08-08 09:31:49
    这里我们讨论服务器硬盘空间不足时,我们有什么方法可以扩充原有虚拟磁盘的空间,而无需删除上面的数据。 演示快速入口: 联机容量扩充 (OCE) RAID 级别迁移 (RLM) 简介 我们可通过扩充容量和 / 或改变 RAID ...
  • 场景2:你的公司在做一个促销活动,用户访问量已经达到上限瓶颈,服务器压力已经达到极限,如何快速的实现扩容,从而保证业务的正常运行 场景3:俏销活动结束后,如何快速缩容,释放服务器资源 下面介绍如何通过...
  • 南京铁路运输法院智慧法院科技法庭核心存储扩容及容灾系统一、项目背景:南京铁路运输法院高清科技法庭系统经过近年的建设,已具有相当规模,服务器系统为Red Hat Liunx。同时庭审数据是一个法院的重要资产,对于...
  • 一个服务器的磁盘用量渐渐增长逐渐接近分区大小时,可以在服务器上安装另一块硬盘并将新硬盘的容量充入到原来的逻辑分区中去,过程非常快速服务器不需终端,各项进程也无需停止。是一种非常方便的磁盘管理方式。 ...
  • 天下武功唯快不破,因此在互联网时代,很多软件采取的都是先开发一个简化版,然后再快速迭代,这边功能少了就加上,那边功能弱了就补上,数据量大了就增加 存储器,性能不够了就增加服务器,一切看起来似乎都是没...
  • 一、前言 在前面一篇博文中,我们使用docker swarm+docker service实现了单应用的集群部署,那么在多应用的...5.使用docker service 动态扩容缩容 由于我没有创建私有仓库,因此第一步就略过,直接从第二步开始 三、开
  • FastDFS为互联网量身定制,充分考虑了冗余备份、负载均衡、线性扩容等机制,并注重高可用、高性能等指标,使用 FastDFS很容易搭建一套高性能的文件服务器集群提供文件上传、下载等服务。FastDFS 架构包括 Tracker ...
  • 快速开始 注意,开始搭建此架构前,你需要具备如下条件 一个可用域名,映射到一台服务器(以下称这台服务器为 Comb Server)的公网IP上 集群中的所有机器都已经安装了Docker() Comb Server需要安装Docker Compose ()...
  • 服务器Elastic Compute Service(ECS)是...在使用过程中,随着业务的扩展,您可以随时扩容磁盘、增加带宽。如果不再需要云服务器,也能随时释放资源,节省费用。 详细内容:7天玩转云服务器服务器是一种简单...
  • 通过一台主服务器和N个副服务器可以将网站的流量合理的分配至各个副服务器,如果副服务器仍旧处理不了则可以通过添加更多的副服务器来进一步扩容。等待流量高峰期结束再删除掉副服务器节省成本开支。 利用腾讯云轻量...

空空如也

空空如也

1 2 3 4 5 ... 15
收藏数 284
精华内容 113
关键字:

服务器快速扩容