精华内容
下载资源
问答
  • lstio
    千次阅读
    2022-04-27 15:16:16

    4月25日,Google Cloud官博发布公告称,在即将迎来5周岁生日的lstio开源项目已提交给云原生计算基金会(CNCF),供其考虑作为一个孵化项目。

    在这里插入图片描述在2022年3月初,CNCF正式接受了Knative开源项目捐赠,lstio作为一款成熟的项目,捐赠给CNCF有利于加快反馈、功能和开发周期,lstio将被更广泛地应用到云原生模式并成为生态系统中主要驱动力。

    lstio是什么?

    与Kubernetes、Knative一样,lstio也是一款应用在云原生基础实施中项目,它是一个开源的服务网格,提供了一个统一、高效和透明的方式来保护、连接和监控云原生应用中的服务。它支持零信任网络、策略执行、流量管理、负载平衡和监控;所有这些都不需要重写应用程序。

    Istio还扩展了Kubernetes,利用Envoy服务代理建立了一个可配置的、应用感知的网络。它可以管理云原生和传统工作负载,支持从单集群到复杂的多网络部署。

    而在开源支持,该项目就建立了完善治理结构,从而促进用户对项目的参与和持续贡献。

    lstio已被数百家机构采用,为lstioCon带来了超4000名开发者。它还扩展了Kubernetes,使用Envoy服务代理建立了一个可编程的、应用感知的网络。Istio可与基于Kubernetes的工作负载和传统工作负载一起工作,并为复杂的部署带来标准、通用的流量管理、遥测和安全。

    在CNCF安家的Istio将更接近云原生生态系统,并将促进持续的开放创新。

    lstio发展历程

    在2016年,谷歌与IBM、Lyft团队合作开发了lstio,其基础是用于连接谷歌生产应用模式。彼时,谷歌安全聚焦目标与IBM的开源流量管理平台互补,因此两家决定合作开发lstio。在2017年5月,lstion已“完全成型”,0.1版本已具备流量控制、可观察性(observability)和政策(policy)功能,而这些都是当下定义服务网格所必备的功能。

    在几个月后的lstio 0.3版本发布之时,已经有用户将其应用于生产环境。在2018年面世的1.0版本,eBay和和The Weather Company已进行了大规模使用。而在1.5版本中,谷歌进行了一些重大改版,将控制平面统一为一个单一的服务,从而减少管理开销,这一功能改进还被写入IEEE软件杂志里。此外,通过在Envoy建立对WebAssembly插件支持,大大简化了网格的可扩展行。

    Istio现在由20多个供应商提供管理或托管服务,包括Anthos Service Mesh,这是一套帮助用户在企业内部或谷歌云上监控和管理可靠的服务网的工具。

    捐赠后的lstio 会有哪些发展?

    据CNCF DevStats的统计,谷歌为Istio做出了超过一半的贡献,并做出了三分之二的提交。在决定为Istio采用Envoy后,谷歌成了Envoy的头号贡献者。

    Istio是站在几个CNCF项目肩膀上发展起来的组件,如Kubernetes、Envoy、gRPC、Prometheus和SPIFFE,Istio社区的许多贡献者也积极参与了这些项目。作为K8s生态系统中最后一个位于CNCF之外的主要组件,其API与K8s非常一致。加入CNCF的lstio会让云原生堆栈变的更加完善,更接近K8s项目。加入CNCF也会让贡献者和客户更容易证明支持和治理符合其他关键云原生项目的标准。

    Istio是谷歌云未来的关键,如果该项目被CNCF接受,谷歌也将继续对Istio进行战略投资,作为主要的维护者,并通过对上游贡献的工程进行持续投资。

    参考链接:

    更多相关内容
  • lstio是一个开源平台,它为为开发人员无缝连接,管理和保护不同微服务器的网络提供了一种方式。 “Istio为开发人员提供了细微的可见性和对流量的控制,而不需要对应用程序代码进行任何更改,并为CIO和CSO提供了帮助...
    毫无疑问,微服务正在撬动着IT世界,各大IT巨头和程序员都在时刻关注着微服务的发展。近日,Google,IBM和Lyft已经联手公布了Istio项目的首次公开发行版。lstio是一个开源平台,它为为开发人员无缝连接,管理和保护不同微服务器的网络提供了一种方式。
    “Istio为开发人员提供了细微的可见性和对流量的控制,而不需要对应用程序代码进行任何更改,并为CIO和CSO提供了帮助在整个企业中实施安全性和合规性要求所需的工具。”云服务平台产品经理Varun Talwar在博文中如此描述lstio平台。
    优点
    可见性:发生故障时,运营商需要工具来保持集群的健康状况和微服务的可视化。 Istio生成关于使用Prometheus&Grafana呈现的应用程序和网络行为的详细监控数据,可以轻松扩展,将度量标准和日志发送到所有回收,聚合和查询系统。 Istio可以使用Zipkin跟踪分析性能热点和分布式故障模式的诊断。灵活性和效率:在开发微服务时,运营商要提前预防网络不可靠的情况,运营商可以使用重试,负载平衡,流量控制(HTTP / 2)和断路以补偿由于不可靠的网络导致的一些常见故障模式。 Istio提供了统一的方法来配置这些功能,使其更容易操作高度弹性的服务网格。开发人员的生产力:Istio通过让程序员专注于以自己选择的语言来构建服务功能,大大提升开发人员的生产力。lstio以统一的方式来处理弹性和网络挑战,开发人员无需将解决方案的分布式系统问题放到代码中解决。 Istio通过提供支持A / B测试,canarying和故障注入的常用功能,进一步提高生产力。规则驱动行动:Istio授权不同领域的团队独立运作。它将集群运营商与功能开发周期分离,允许改进安全性、监控、扩展和服务拓扑,无需更改代码。运营商可以精确掌握生产流量以适应新的服务版本,运营商可以通过在流量中制造故障或延迟来测试服务网络的弹性,也可以通过设置速率限制来防止服务超载。lstio允许强制执行合规性规则,在服务之间定义ACL,只有授权的服务才能相互通信。
    IBM云平台副总裁兼首席技术官IBM研究员Jason McGee在一篇博文中表示lstio平台的目标是通过引入可编程路由和共享管理层将“不同的微服务转换为综合业务网格”。
    为了将代理服务器放置到服务之间的网络路径中,lstio提供了复杂的流量管理控制,如负载平衡和细粒度路由。 这种路由网格还可以获取到大量的流量行为数据,以供管理层来作出决策,例如细粒度访问控制和运营商可配置的速率限制。同时,这些指标发送到监控系统,可以更好地了解流入和流出应用程序的数据,无需通过进行大量配置和重新编程来确保应用程序的平稳安全工作。
    服务之间的通信一旦被控制,我们就可以对通信服务进行认证和授权。
    Istio不是最后的边界
    据Talwar表示这个开源平台是构建、部署、使用和管理微服务的解决方案。 在具有不同环境和广泛使用第三方软件的大型企业中,开发人员也希望以平台无关的方式来发现、实例化和使用服务,开发人员更看重时间快、覆盖面广以及跟踪使用和成本的方法。
    Google、IBM和Lyft三者联合发布的0.1版本主要面向Kubernetes环境,在之后0.2版本中将升级到多个Kubernetes集群和基本的混合部署中。
    展开全文
  • 以下图片为演变过程 个人理解的服务网格 一句话代理,业务逻辑和网络功能拆分 ...linkerd Envoy Lstio Conduit Kuma lstio 架构解析 listio 分为控制层和数据层 Control plane 控制层面 包括以下 Pilot:为Envoy

    以下图片为演变过程
    在这里插入图片描述

    个人理解的服务网格

    一句话代理,业务逻辑和网络功能拆分

    服务网格的功能

    1、负载均衡 2、服务发现 3、熔断降级 4、动态路由
    5、故障注入 6、错误重试 7、安全通信 8、和语言没有关系 等等

    服务网格的产品

    linkerd Envoy Lstio Conduit Kuma

    lstio 架构解析

    在这里插入图片描述
    listio 分为控制层和数据层

    Control plane 控制层面 包括以下

    Pilot:为Envoy Sidecar提供服务发现的功能,为智能路由(例如A/B测试、金丝雀部署等)和弹性(超时、重试、熔断器等)提供流量管理功能。

    Citadel:通过内置身份和凭证管理可以提供强大的服务与服务之间的最终用户身份验证,可用于升级服务网格中未加密的流量。金丝雀部署等)和弹性(超时、重试、熔断器等)提供流量管理功能。

    Galley:负责配置管理的组件,用于验证配置信息的格式和正确性。Galley使用网格配置协议(Mesh Configuration Protocol)和其它组件进行配置的交互

    Data plane 数据层面

    ingress traffic 入口流量

    Egress traffic 出口流量

    Mesh traffic 路由

    Envoy :c++开发 属于lstio数据平面用于调解服务网格中所有服务的入站和出战流量

    VirtualService: VirtualService(显拟服分)基丁IStIO15T口R六Ni塞t连通性和服务发现能力,将请求路田到对应的日怀。母一V些alLloeivie含一组路由规则,Istio将每个请求根据路由匹配到达指定的地址

    展开全文
  • 关于IO故障注入的系列Trick

    千次阅读 2022-05-21 14:30:29
    就以我们要谈的IO注入来看,大体可以把执行流划分为内核态和用户态(不考虑网络文件系统)。 用户态的的逻辑其实很好搞清楚,判断下是否使用-static强制静态链接,是否使用-z,now提前载入所有的动态链接,使得GOT表...

    在这里插入图片描述本作品采用知识共享署名-非商业性使用-相同方式共享 4.0 国际许可协议进行许可。

    本作品 (李兆龙 博文, 由 李兆龙 创作),由 李兆龙 确认,转载请注明版权。

    引言

    我不是人肉朴素贝叶斯工具人。

    故障注入的方法论我认为就是在调用路径上寻找可行的侵入点,但是如何确定调用路径呢?就以我们要谈的IO注入来看,大体可以把执行流划分为内核态和用户态(不考虑网络文件系统)。

    用户态的的逻辑其实很好搞清楚,判断下是否使用-static强制静态链接,是否使用-z,now提前载入所有的动态链接,使得GOT表不可写,以防止程序被篡改,除去这两点顾虑,基本GDB就可以把一直到systemcall的步骤看清楚了。

    内核IO栈

    到了内核态,问题的重点就成了Linux IO栈[3]:
    在这里插入图片描述
    以前在[4]这篇文章中简单的分析过VFS,Page Cache,这其实也是平时工作学习中与我们关系最紧密的一层,
    再向下一点就是挂载到VFS中的各种文件系统,显然要开始处理文件,用户需要在存储设备 之上构建文件系统布局,然后将新创建的文件系统挂载到根文件系统层次结构中的某个位置 (mount),后来在这个文件树分支上的文件操作就会调用对应的特化接口执行相关逻辑。

    最终文件IO还是会被发送向存储设备,请求的调度(noop、cfq、deadline),合并,排序,统计等是Block Layer的职责,BIO的特殊结构封装了一组IO请求,这些请求指向块设备需要读取/写入的各个内存页面,上层通过BIO来统一描述发往块设备的IO请求。

    这幅图是4.10的IO栈,但实际在5.0中因为其本身具有局限性,blk-sq(包括基于blk-sq的IO调度器,如cfq、noop)代码已经被移除了。

    由于采用每个块设备1个请求队列的设计,传统的Block Layer对多核体系scalability不佳。当系统配备现代高速存储器件时,单队列引入的软件开销变得突出(在多socket体系中尤为严重),在2010年是一个CPU可以达到80万的IOPS,但是就算磁盘本身性能足够,多个CPU也只能到达100万左右的IOPS,这使得Block Layer成为IO性能的瓶颈,主要瓶颈如下:

    1. 请求队列锁竞争,出队,入队,batch,重排,调度都需要获取锁。
    2. 硬件中断,一个CPU负责处理所有的硬件中断,并将他们作为软中断发送给其他核。
    3. 远端内存访问:如果提交IO请求的cpu不是接收硬件中断的cpu,就会出现锁所在缓存行的共享,从而触发false sharing[10]

    blk-mq(Block multi-queue)则是为了适配现代存设备(高速SSD等)高IOPS、低延迟的特征而被创造的块设备层框架,基本架构如下[8]:
    在这里插入图片描述

    越过Block Layer,就到了块设备和 SCSI 层,SCSI曾负责与使用 SCSI 协议的存储设备(几乎意味着所有的存储设备)进行通信,这一层和我目前从事的工作脱离较远,遂没有花时间学习,更多可参考[7][11]

    OK,以上思考大概理清楚以后我们其实就可以开始正事,也就是如何注入IO故障了。

    IO故障注入

    我们称XX级别注入为以XX粒度做注入,比如pid级别就是指定pid的故障注入。

    现有的技术方案其实有两个,一个是基于systemTap的忙等注入(可以是pid,设备,文件系统级别注入),一个是Pingcap基于fuse的文件系统级别注入[1],这两种业界已有的实现分别有自己的弊端。

    基于systemTap虽然可支持的注入粒度多,且简单易实现,但是目前了解到的资料来看使用systemTap这种基于内核模块注入延迟故障的方案是不安全的,因为udelay/mdelay可能会在在一些kprobe/tracepoint中阻塞整个系统,因为这本质上是在禁用中断的情况下执行忙等,我正在尝试复现,除此之外还会引入debuginfo这个沉重的依赖。

    Chaos-mesh基本原理在整个IO栈上嵌入一层fuse文件系统,大致细节是将容器的挂载点mount-move,然后基于ftrace替换容器中已存在的fd,这种方法的实验范围为一个容器(文件系统),粒度较大。

    以上两种方案的注入其实都是在VFS级别的,不过一种是嵌入可编程的逻辑(eBPF现有限制使得我们无法执行任意延迟),一种是嵌入一个中间层罢了,打开思路,显然我们还可以向下或者向上,要么走到Block Layer,要么走到用户态。

    其实我认为把Block Layerblk-mq看作网络栈中的TC没什么不妥,一个是块设备的BIO请求调度,一个是网络数据包的调度。现在已经知道的是IO Schedulers是运行时可插入的[5],那我们是否可以实现一个内核模块,然后动态替换IO调度策略,已实现类似于TC的延迟功能呢?

    可以从/sys/block/DEVName/queue/scheduler中看到目前的IO调度策略,当前选择的调度程序在括号中,可以在/sys/block/nbd0/queue/iosched看到IO调度队列的可调参数[13]。偶然间看到了mq-deadline有两个可调参数read_expire/write_expire,其解释如下[14]:

    read_expire: This tunable allows you to set the number of milliseconds in which a read request should be serviced. By default, this is set to 500 ms (half a second).

    write_expire: This tunable allows you to set the number of milliseconds in which a write request should be serviced. By default, this is set to 5000 ms (five seconds).

    说实话很疑惑,which a read request should be serviced?这个请求被服务的时间默认是500ms?最后在SUSE的文档找到了容易理解的解释[15]:

    read_expire: Sets the deadline (current time plus the read_expire value) for read operations in milliseconds. Default is 500.
    write_expire: Sets the deadline (current time plus the write_expire value) for write operations in milliseconds. Default is 5000.

    虽然弄清楚了参数的含义,但是问题还是没有被解决。

    偶然间看到了Kyber这个IO调度器,其可调参数看起来可以满足我们的需求,但是实际测试以后和预期不符合,也许需要看看源码解答疑惑:

    read_lat_nsec: Sets the target latency for read operations in nanoseconds. Default is 2000000.
    write_lat_nsec: Sets the target latency for write operations in nanoseconds. Default is 10000000.

    但就算在IO调度器我们可以做手脚也不精准,因为块设备IO没到IO调度程序时已经返回了(Page Cache),这意味着用户看来并不是所有的写操作都能被注入。

    题外话,不同的IO调度器适应与不同的负载,可以参考redhat的配置文档[16]:

    场景应用
    Traditional HDD with a SCSI interfaceUse mq-deadline or bfq.
    High-performance SSD or a CPU-bound system with fast storageUse none, especially when running enterprise applications. Alternatively, use kyber.
    Desktop or interactive tasksUse bfq.
    Virtual guestUse mq-deadline. With a multi-queue host bus adapter (HBA), use none.

    最终我和y7n05h在讨论了一段时间时间以后给出了一种在以上两个方法中折衷的一个做法.

    这样的实现可以做到pid级别的任意延迟注入,但是现在累了,具体实现和优缺点暂时不说了。

    总结

    结果本身有意义,但是过程也是足够有趣的。

    参考:

    1. How to Simulate I/O Faults at Runtime
    2. libco源码解析(8) hook机制探究
    3. Linux Storage Stack Diagram
    4. 再聊聊Linux IO
    5. docs kernel blk-mq
    6. [转载] Multi-queue 架构分析
    7. Storage Stack
    8. Linux Block IO: Introducing Multi-queue SSD Access on Multi-core Systems
    9. High Performance Storage with blk-mq and scsi-mq
    10. 从false sharing到缓存一致性,这其实与我们息息相关
    11. SCSI wiki
    12. 浅谈动态追踪:从SystemTap到bpfTrace
    13. Linux kernel Block Layer docs
    14. Deadline I/O Scheduler
    15. Tuning I/O Performance
    16. redhat Configuration Tools
    展开全文
  • 云原生相关名词Istio发音

    千次阅读 2020-11-12 08:35:52
    云原生相关名词Istio发音 服务网格词汇 Istio,希腊语言中大概是风帆的意思, 发音 [iːst’iəʊ] ,相当于中文的 伊斯特亿欧
  • k8s-istio 使用K8S ISTIO的Hello World应用程序 我正在使用Carl Dunkelberger的app.yaml,并且还遵循此链接启用Kubernetes Ingress 先决条件: ...gateway.networking.istio.io/default-http-gatewa
  • 用户请求首先到portal前端页面,也就是程序的首页,在首页的各项功能操作都会由Gateway网关服务转发到各自的微服务程序上,比如请求一个订单服务,订单服务会事先注册到Eureka中,由Gateway将请求发送给Eureka,再由...
  • LVGL移植到基于VSCode的platformio工程的STM32L476 Nucleo开发板,移植说明文档见https://blog.csdn.net/BigAntHome/article/details/114965827
  • 05-【istio】-【istio介绍】istio的架构

    千次阅读 2022-02-09 16:54:15
    一、istio的架构 服务网格(istio是服务网格的一个产品)由两部分组成:数据平面、控制平面 可以看到, 数据平面包括核心组件:Proxy代理(sidecar代理);... 控制平面包括核心组件:Pilot引导、Citadel堡垒,...
  • Istio是啥?一文带你彻底了解!

    万次阅读 2021-06-01 11:56:35
    Istio是什么 官方对 Istio 的介绍浓缩成了一句话: An open platform to connect, secure, control and observe services. 翻译过来,就是”连接、安全加固、控制和观察服务的开放平台“。开放平台就是指它本身是...
  • istio功能介绍(一.Istio基本功能)

    千次阅读 2019-09-03 10:13:45
    文章目录基本原理istio与服务治理关于微服务服务治理的三种形态第1种:在应用程序中包含治理逻辑第2种:治理逻辑独立的代码第3种:治理逻辑独立的进程Istio与kubernetesIstio的工作机制Istio的重要组件Istio-...
  • Istio 部署

    千次阅读 2022-01-27 13:42:04
    k8s部署方法本文不再赘述 Istio安装包下载 curl -L https://istio.io/downloadIstio | sh - 这个命令执行官方提供的istio下载安装脚本。该脚本会自动帮你匹配合适的linux版本内核。不过前提是你的部署环境能访问...
  • Service Mesh -- Istio概述

    千次阅读 2019-07-07 11:39:04
    istio官网:https://istio.io 官方对 Istio 的介绍高度浓缩成了一句话: An open platform to connect, secure, control and observe services. 翻译过来,就是” 连接、安全加固、控制和观察服务的开放平台 “。...
  • {"apiVersion":"networking.istio.io/v1alpha3","kind":"DestinationRule","metadata":{"annotations":{},"name":"mvc-service","namespace":"default"},"spec":{"host":"mvc-service","subsets":[{"labels":{...
  • minikube + istio + mosn

    千次阅读 2022-02-24 19:19:02
    华为云 2C4G,有免费的1个月 你好,Minikube | Kubernetes minikube start --force --driver=docker --...curl -L https://istio.io/downloadIstio | sh - cd ist.. export PATH=$PATH:$(pwd)/bin istioct
  • Service Mesh与Istio初识

    千次阅读 2021-06-13 15:36:55
    一、Service Mesh介绍  服务网格(Service Mesh)是处理服务间通信的基础设施层。它负责构成现代云原生应用程序的复杂服务拓扑来可靠的交付请求。在实践中,Service Mesh通常以轻量级网络代理阵列的形式实现,这些...
  • 修改路由规则 执行以下命令,把对 reviews 服务的调用全部路由到 v2 版本上: kubectl apply -f - <apiVersion: networking.istio.io/v1alpha3 kind: VirtualService metadata: name: reviews spec: hosts: - ...
  • sentinel、isitio、hystrix 限流熔断降级

    千次阅读 2021-11-17 14:55:15
    https://sentinelguard.io/zh-cn/docs/circuit-breaking.html istio文档 https://istio.io/latest/docs/tasks/traffic-management/circuit-breaking/ sentinel vs hystrix 发展前景 Netflix已
  • Istio安装与Bookinfo部署

    千次阅读 2021-06-19 16:22:11
    ➜ ~ curl -L https://istio.io/downloadIstio | sh - ➜ ~ ls -l istio-1.10.1 total 48 -rw-r--r-- 1 jyy staff 11348 6 5 04:44 LICENSE -rw-r--r-- 1 jyy staff 5866 6 5 04:44 README.md drwxr-x--- 3 jyy ...
  • 一、应用场景 除了需要具备服务治理功能,还需要知道服务运行的怎么样、有没有问题、以及哪里有问题等。 这一般是APM的职能,设计数据采集、存储、检索。 istio基于mixer的遥测数据收集 在遥测数据采集场景下,...
  • Istio 最新版1.12离线安装

    千次阅读 2021-12-08 19:24:41
    macOS): $ curl -L https://istio.io/downloadIstio | sh - 上面的命令下载最新版本(用数值表示)的 Istio。 你可以给命令行传递变量,用来下载指定的、不同处理器体系的版本。 例如,下载 x86_64 架构的、1.6.8 ...
  • 1.2istio使用示例 istio通过配置实现灰度发布的实例: apiVersion: networking.istio.io/vlalpha3 kind: VirtualService metadata: name: recommendation spec: hosts: - recommendation http:  - match: - ...
  • istio完成金丝雀、灰度发布

    千次阅读 2019-07-19 11:35:42
    networking.istio.io/v1alpha3 kind : DestinationRule metadata : name : [ DestinationRule的名字 ] #随便取,后续没有绑定关系 spec : host : [ svc的名字 ] #这里很关键,这里绑定了svc ...
  • Istio 是啥?一文带你彻底了解

    万次阅读 多人点赞 2020-05-20 11:39:23
    目录 前言 什么是 istio? 什么是 service mesh 再来看 istio ...istio 解决什么问题 ...如果你比较关注新兴技术的话,那么很可能在不同的地方听说过 istio,并且知道它和 service mesh 有着牵扯。...
  • Istio 注入原理

    千次阅读 2020-09-21 09:43:51
    Istio通过注入边车使得本身的应用获取了一些高级能力,是如何完成边车的注入的呢? 注入方式 手动注入 - 针对具体的一个资源对象 工作原理: 通过改写yaml文件植入Istio-proxy容器,以及init-container用于修改...
  • istio简介和基础组件原理(服务网格Service Mesh)

    万次阅读 多人点赞 2018-11-27 13:06:46
    Istio简介 Istio:一个连接,管理和保护微服务的开放平台。 按照isito文档中给出的定义: ... Istio提供一种简单的方式来建立已部署的服务的网络,具备负载均衡,服务到服务认证,监控等等功能,而不需要改动...
  • 在Istio官方文档中,安装Istio是以Linux或MacOS系统为例的,对于Windows用户不是很友好,不过真难不倒我们。
  • Istio真的性能低吗?

    千次阅读 2019-09-27 01:02:45
    作者 | hzxuzhonghu 来源 | 容器魔方 长期以来听到种种质疑声:“Istio 性能很差”、“数据延迟很大”、“sidecar 内存、cpu 占用...https://istio.io/docs/concepts/performance-and-scalability/
  • 在docker desktop的k8s中部署Istio-demo

    千次阅读 2020-05-11 11:09:59
    部署前先检查80端口是否被占用 $ k apply -f weather-gateway.yaml gateway.networking.istio.io/weather-gateway created destinationrule.networking.istio.io/frontend-dr created virtualservice.networking....
  • 使用Istio打造微服务(第1部分)

    千次阅读 2019-02-28 23:40:01
    $ kubectl get svc -n istio-system -l istio = ingressgateway NAME TYPE CLUSTER-IP EXTERNAL-IP istio-ingressgateway LoadBalancer 10.0.132.127 13.93.30.120 在本文的后续部分中,我们将访问此IP上的应用...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 35,542
精华内容 14,216
关键字:

lstio