精华内容
下载资源
问答
  • k8s pod 时区 千次阅读
    2022-04-21 14:36:26
          containers:
          - args:
            - -c
            - "run.sh"
            command:
            - /bin/bash
            image: quay.io/fluentd_elasticsearch/elasticsearch:v7.4.2
            name: elasticsearch-logging
            env:
            - name: TZ
              value: Asia/Shanghai
            volumeMounts:
              - name: elasticsearch-logging
                mountPath: /data
              - name: tz-config
                mountPath: /etc/localtime
          volumes:
            - name: elasticsearch-logging
              emptyDir: {}
            - name: tz-config
              hostPath:
                path: /etc/localtime

    更多相关内容
  • K8S监控模板,用于k8S集群Pod监控
  • K8S Pod详解

    千次阅读 2021-10-30 15:25:11
    Podk8s 系统中可以创建和管理的最小单元,是资源对象模型中由用户创建或部署的最 小资源对象模型,也是在 k8s 上运行容器化应用的资源对象,其他的资源对象都是用来支 撑或者扩展 Pod 对象功能的,比如控制器...

    1.Pod概述

    Pod 是 k8s 系统中可以创建和管理的最小单元,是资源对象模型中由用户创建或部署的最
    小资源对象模型,也是在 k8s 上运行容器化应用的资源对象,其他的资源对象都是用来支
    撑或者扩展 Pod 对象功能的,比如控制器对象是用来管控 Pod 对象的,Service 或者
    Ingress 资源对象是用来暴露 Pod 引用对象的,PersistentVolume 资源对象是用来为 Pod
    提供存储等等,k8s 不会直接处理容器,而是 Pod,Pod 是由一个或多个 container 组成
    Pod 是 Kubernetes 的最重要概念,每一个 Pod 都有一个特殊的被称为”根容器“的 Pause
    容器。Pause 容器对应的镜 像属于 Kubernetes 平台的一部分,除了 Pause 容器,每个 Pod
    还包含一个或多个紧密相关的用户业务容器

    在这里插入图片描述
    在这里插入图片描述

    2.Pod基本概念

    • 最小部署的单元
    • Pod里面是由一个或多个容器组成【一组容器的集合】
    • 一个pod中的容器是共享网络命名空间
    • Pod是短暂的
    • 每个Pod包含一个或多个紧密相关的用户业务容器

    3.Pod存在的意义

    • 创建容器使用docker,一个docker对应一个容器,一个容器运行一个应用进程
    • Pod是多进程设计,运用多个应用程序,也就是一个Pod里面有多个容器,而一个容器里面运行一个应用程序
    • 在这里插入图片描述
    • Pod的存在是为了亲密性应用
      两个应用之间进行交互
      网络之间的调用【通过127.0.0.1 或 socket】
      两个应用之间需要频繁调用

    4.Pod 两种机制

    4.1 Pod 网络共享机制

    • 首先会创建Pause容器,也叫作info容器
    • 之后创建业务容器
    • 创建会后,把业务容器的 ip mac port 加入到info容器中,使得所有业务容器和在同一namespace中,实现网络共享
      在这里插入图片描述

    4.2 共享机制

    当节点node1宕机,运行周期node1的数据,如业务数据等是否会丢失呢?
    我们之前了解到,K8S有自我修复能力,意思是如果node挂掉了,那么该节点的Pod会转移到其他node中,如node2

    可是如果pod在node2节点运行,node2是不是又要重新拉去镜像,那么之前数据不就没了?

    K8S做了一个持久化存储,也叫数据卷;通过持久化存储,当node1挂掉之后,n该节点的Pod会持久化存储,之后node2会从中读取数据
    在这里插入图片描述

    5.镜像拉取策略

    主要有三种策略:

    • IfNotPresent:默认值,镜像在宿主机上不存在才拉取
    • Always:每次创建Pod都会重新拉取一次镜像
    • Never:Pod永远不会主动拉取这个镜像
      在这里插入图片描述
      在这里插入图片描述

    6.Pod资源限制

    也就是我们Pod在进行调度的时候,可以对调度的资源进行限制,例如我们限制 Pod调度是使用的资源是 2C4G,那么在调度对应的node节点时,只会占用对应的资源,对于不满足资源的节点,将不会进行调度
    在这里插入图片描述
    在这里插入图片描述

    • request:表示调度所需的资源
    • limits:表示最大所占用的资源

    7.Pod重启策略

    在这里插入图片描述
    重启策略主要分为以下三种

    • Always:当容器终止退出后,总是重启容器,默认策略 【nginx等,需要不断提供服务】
    • OnFailure:当容器异常退出(退出状态码非0)时,才重启容器。
    • Never:当容器终止退出,从不重启容器 【批量任务】

    8.Pod健康检查

    在这里插入图片描述

    9.创建Pod流程

    master节点

    • 首先创建一个pod,会进入到API Server 进行创建,之后通过API Server 将pod信息存储在 Etcd中
    • 在Etcd存储完成后,Etcd将存储结果返回给API Server,告诉它,我已经存储成功
    • 然后是Scheduler,监控API Server是否有新的Pod,如果有的话,先是通过API server读取存储在Etcd的pod信息,之后会通过调度算法,把pod调度某个node上

    node节点

    • 在node节点,会通过 kubelet – apiserver 读取etcd 拿到分配在当前node节点上的pod,然后通过docker创建容器
    • 创建成功后 ,会将创建结果返回给Kubectl ,通过Kubectl 更新API Server的Pod状态,之后通过API Server更新etc存储状态
    • 更新后,Etcd返回给API Server,之后通过API Server 返回给Kubectl
      在这里插入图片描述

    10.影响Pod调度的属性

    10.1.Pod资源限制对Pod的调度会有影响,这个之前已经提到,不再赘述

    10.2.节点选择器标签影响Pod调度


    关于节点选择器,其实就是有两个环境,然后环境之间所用的资源配置不同在这里插入图片描述

    以通过以下命令,给我们的节点新增标签,然后节点选择器就会进行调度了

    [root@localhost manifests]# kubectl get nodes k8s-node1 --show-labels
    NAME        STATUS   ROLES    AGE    VERSION   LABELS
    k8s-node1   Ready    <none>   6h6m   v1.22.3   beta.kubernetes.io/arch=amd64,beta.kubernetes.io/os=linux,kubernetes.io/arch=amd64,kubernetes.io/hostname=k8s-node1,kubernetes.io/os=linux
    [root@localhost manifests]# kubectl label node  k8s-node1 env_role=dev
    node/k8s-node1 labeled
    [root@localhost manifests]# kubectl get nodes k8s-node1 --show-labels
    NAME        STATUS   ROLES    AGE    VERSION   LABELS
    k8s-node1   Ready    <none>   6h8m   v1.22.3   beta.kubernetes.io/arch=amd64,beta.kubernetes.io/os=linux,env_role=dev,kubernetes.io/arch=amd64,kubernetes.io/hostname=k8s-node1,kubernetes.io/os=linux
    
    

    10.3.节点亲和性

    节点亲和性 nodeAffinity 和 之前nodeSelector 基本一样的,根据节点上标签约束来决定Pod调度到哪些节点上

    • 硬亲和性:约束条件必须满足
    • 软亲和性:尝试满足,不保证
      支持常用操作符:in、NotIn、Exists、Gt、Lt、DoesNotExists

    反亲和性:就是和亲和性刚刚相反,如 NotIn、DoesNotExists等
    在这里插入图片描述

    10.4. 污点和污点容忍

    • nodeSelector 和 NodeAffinity,都是Prod调度到某些节点上,属于Pod的属性,是在调度的时候实现的。

    • Taint 污点:节点不做普通分配调度,是节点属性

    场景

    • 专用节点【限制ip】
    • 配置特定硬件的节点【固态硬盘】
    • 基于Taint驱逐【在node1不放,在node2放】

    污点相关命令

    查看污点情况

    kubectl describe node k8smaster | grep Taint
    

    删除污点

    kubectl taint node k8snode1 env_role:NoSchedule-
    

    未节点添加污点
    kubectl taint node [node] key=value:污点的三个值

    kubectl taint node k8snode1 env_role=yes:NoSchedule
    

    污点值类型

    • NoSchedule:一定不被调度
    • PreferNoSchedule:尽量不被调度【也有被调度的几率】
    • NoExecute:不会调度,并且还会驱逐Node已有Pod

    污点容忍

    就是某个节点可能被调度,也可能不被调度
    在这里插入图片描述

    演示例子

    正常情况下,node1,node2是都有的

    [root@localhost ~]#  kubectl get deployment
    NAME    READY   UP-TO-DATE   AVAILABLE   AGE
    nginx   1/1     1            1           6h3m
    [root@localhost ~]# kubectl scale deployment nginx --replicas=5
    deployment.apps/nginx scaled
    [root@localhost ~]# kubectl get pod  -o wide
    NAME                     READY   STATUS    RESTARTS   AGE    IP           NODE        NOMINATED NODE   READINESS GATES
    nginx-6799fc88d8-9gdz2   1/1     Running   0          14s    10.244.1.4   k8s-node1   <none>           <none>
    nginx-6799fc88d8-ct4v9   1/1     Running   0          14s    10.244.2.4   k8s-node2   <none>           <none>
    nginx-6799fc88d8-dfcrn   1/1     Running   0          14s    10.244.2.3   k8s-node2   <none>           <none>
    nginx-6799fc88d8-n692z   1/1     Running   0          6h6m   10.244.1.3   k8s-node1   <none>           <none>
    nginx-6799fc88d8-r6dp6   1/1     Running   0          14s    10.244.1.5   k8s-node1   <none>           <none>
    [root@localhost ~]#
    
    
    [root@localhost ~]# kubectl delete deployment nginx
    deployment.apps "nginx" deleted
    [root@localhost ~]# kubectl get deployment
    No resources found in default namespace.
    

    对node1添加污点,类型为一定不会调度NoSchedule,发现创建pod后,pod运行节点只有node2

    [root@localhost ~]# kubectl taint node k8s-node1 env_role=yes:NoSchedule
    node/k8s-node1 tainted
    [root@localhost ~]# kubectl create deployment web --image=nginx
    deployment.apps/web created
    [root@localhost ~]# kubectl get pod  -o wide
    NAME                  READY   STATUS    RESTARTS   AGE   IP           NODE        NOMINATED NODE   READINESS GATES
    web-96d5df5c8-276vj   1/1     Running   0          8s    10.244.2.5   k8s-node2   <none>           <none>
    [root@localhost ~]# kubectl scale deployment nginx --replicas=5
    Error from server (NotFound): deployments.apps "nginx" not found
    [root@localhost ~]# kubectl scale deployment web --replicas=5
    deployment.apps/web scaled
    [root@localhost ~]# kubectl get pod  -o wide
    NAME                  READY   STATUS              RESTARTS   AGE   IP           NODE        NOMINATED NODE   READINESS GATES
    web-96d5df5c8-276vj   1/1     Running             0          30s   10.244.2.5   k8s-node2   <none>           <none>
    web-96d5df5c8-8b4gz   0/1     ContainerCreating   0          3s    <none>       k8s-node2   <none>           <none>
    web-96d5df5c8-n5cg2   1/1     Running             0          3s    10.244.2.7   k8s-node2   <none>           <none>
    web-96d5df5c8-qpb2q   1/1     Running             0          3s    10.244.2.6   k8s-node2   <none>           <none>
    web-96d5df5c8-xdvkt   0/1     ContainerCreating   0          3s    <none>       k8s-node2   <none>           <none>
    
    

    查看污点是否添加

    [root@localhost ~]# kubectl describe node k8s-node1 | grep Taint
    Taints:             env_role=yes:NoSchedule
    

    删除污点,之后扩容发现可以调度到节点node1了

    [root@localhost ~]# kubectl taint node k8s-node1 env_role:NoSchedule-
    node/k8s-node1 untainted
    [root@localhost ~]# kubectl describe node k8s-node1 | grep Taint
    Taints:             <none>
    [root@localhost ~]# kubectl get pod  -o wide
    NAME                  READY   STATUS    RESTARTS   AGE     IP           NODE        NOMINATED NODE   READINESS GATES
    web-96d5df5c8-276vj   1/1     Running   0          9m13s   10.244.2.5   k8s-node2   <none>           <none>
    web-96d5df5c8-8b4gz   1/1     Running   0          8m46s   10.244.2.8   k8s-node2   <none>           <none>
    web-96d5df5c8-n5cg2   1/1     Running   0          8m46s   10.244.2.7   k8s-node2   <none>           <none>
    web-96d5df5c8-qpb2q   1/1     Running   0          8m46s   10.244.2.6   k8s-node2   <none>           <none>
    web-96d5df5c8-xdvkt   1/1     Running   0          8m46s   10.244.2.9   k8s-node2   <none>           <none>
    [root@localhost ~]# kubectl get pod  -o wide
    NAME                  READY   STATUS    RESTARTS   AGE     IP           NODE        NOMINATED NODE   READINESS GATES
    web-96d5df5c8-276vj   1/1     Running   0          9m17s   10.244.2.5   k8s-node2   <none>           <none>
    web-96d5df5c8-8b4gz   1/1     Running   0          8m50s   10.244.2.8   k8s-node2   <none>           <none>
    web-96d5df5c8-n5cg2   1/1     Running   0          8m50s   10.244.2.7   k8s-node2   <none>           <none>
    web-96d5df5c8-qpb2q   1/1     Running   0          8m50s   10.244.2.6   k8s-node2   <none>           <none>
    web-96d5df5c8-xdvkt   1/1     Running   0          8m50s   10.244.2.9   k8s-node2   <none>           <none>
    [root@localhost ~]# kubectl scale deployment web --replicas=7
    deployment.apps/web scaled
    [root@localhost ~]# kubectl get pod  -o wide
    NAME                  READY   STATUS              RESTARTS   AGE     IP           NODE        NOMINATED NODE   READINESS GATES
    web-96d5df5c8-276vj   1/1     Running             0          9m33s   10.244.2.5   k8s-node2   <none>           <none>
    web-96d5df5c8-8b4gz   1/1     Running             0          9m6s    10.244.2.8   k8s-node2   <none>           <none>
    web-96d5df5c8-9zm59   0/1     ContainerCreating   0          3s      <none>       k8s-node1   <none>           <none>
    web-96d5df5c8-b6mbj   0/1     ContainerCreating   0          3s      <none>       k8s-node1   <none>           <none>
    web-96d5df5c8-n5cg2   1/1     Running             0          9m6s    10.244.2.7   k8s-node2   <none>           <none>
    web-96d5df5c8-qpb2q   1/1     Running             0          9m6s    10.244.2.6   k8s-node2   <none>           <none>
    web-96d5df5c8-xdvkt   1/1     Running             0          9m6s    10.244.2.9   k8s-node2   <none>           <none>
    
    
    展开全文
  • k8s集群pod经常重启问题排查总结
  • $ cat /sys/fs/cgroup/memory/kubepods/burstable/pod//memory.kmem.slabinfo 来查看是否存在bug,如果返回 cat: memory.kmem.slabinfo: Input/output error 则不存在bug 问题解决 需要在 kubelet 和 docker 上都将...
  • k8s pod频繁自动重启

    千次阅读 2021-06-16 17:26:05
    刚开始粗浅的认为是服务压力太大,于是增加pod数量,然而问题依旧 查看服务运行状态,发现服务频繁重启 查看该服务的pod资源配额配置 进入容器,查看该服务的的jvm启动参数,发现最大堆内存设置竟然超过了...

    问题描述:某个服务重启频率非常高,监控告警里产生了大量的“jvm内存超过limit 85%”和服务503告警
    jvm内存超警戒告警
    jvm内存超限

    服务503不可用告警
    服务503告警

    问题原因:该服务的jvm启动参数设置不合理
    排查思路:

    1. 刚开始粗浅的认为是服务压力太大,于是增加pod数量,然而问题依旧

    2. 查看服务运行状态,发现服务频繁重启
      服务频繁重启

    3. 查看该服务的pod资源配额配置
      服务资源配额

    4. 进入容器,查看该服务的的jvm启动参数,发现最大堆内存设置竟然超过了pod资源配额的limit值
      jvm堆内存

    5. 调整jvm最大堆内存(Xmx)的值不超过pod资源配额limit的85%,问题解决
      jvm最大堆内存

    总结:jvm参数设置的时候,要综合考虑pod资源配额limit的值和告警触发值,否则容器很容易因为不合理的jvm参数设置达到pod资源配额的上限而被kill掉,导致频繁的触发告警。

    k8s集群环境下,docker容器中运行镜像方式启动springboot项目。由于制作的镜像未对JVM的内存进行配置,那么 JVM 会默认设置堆栈的大小,这个大小是根据物理机的内存进行分配的。 那么物理机的内存越大,默认分配的内存就越大(最大堆栈=1/4 * 物理机内存,初始堆栈=1/64 * 物理机内存)。JVM 是不知道自己在Docker容器中运行的,jvm识别的是物理主机的内存,而不是k8s给pod分配的内存或docker容器的内存。

    因此在没有给jvm指定内存大小的情况下,机器物理内存很大时,jvm默认占用的内存Xms超出了k8s分配给pod的内存,导致pod内存溢出,从而k8s不断重启pod。也可能是运行过程中,jvm不断申请内存直到最大堆内存Xmx,Xmx超出了k8s分配给pod的内存,从而k8s自动重启pod。

    注意,jdk版本不同,配置参数可能也会不同。

    展开全文
  • k8s Pod状态详解

    千次阅读 2022-02-18 16:56:50
    Pod有以下几个状态: Pending 等待中 Running 运行中 Succeeded 正常终止 Failed 异常停止 Unkonwn 未知状态 Pod状态详解 Pending Pod已经被创建,但还没有完成调度,可能处在:写数据到etcd,调度,pull镜像,...

    Pod有以下几个状态:

    1. Pending 等待中
    2. Running 运行中
    3. Succeeded 正常终止
    4. Failed 异常停止
    5. Unkonwn 未知状态

    Pod状态详解

    Pending

    Pod已经被创建,但还没有完成调度,可能处在:写数据到etcd,调度,pull镜像,启动容器这四个阶段中的任何一个阶段,pending伴随的事件通常会有:ADDED, Modified这两个事件的产生。

    Running

    该 Pod 已经绑定到了一个节点上,Pod 中所有的容器都已被创建。至少有一个容器正在运行,或者正处于启动或重启状态。

    Succeeded

    Pod中的所有的容器已经正常的执行后退出,并且不会自动重启,一般会是在部署job的时候会出现。

    Failed

    Pod 中的所有容器都已终止了,并且至少有一个容器是因为失败终止。也就是说,容器以非0状态退出或者被系统终止。

    Unkonwn

    API Server无法正常获取到Pod对象的状态信息,通常是由于其无法与所在工作节点的kubelet通信所致。

    pod从创建到成功或失败的事件

    PodScheduled

    pod正处于调度中,刚开始调度的时候,hostip还没绑定上,持续调度之后,有合适的节点就会绑定hostip,然后更新etcd数据

    Initialized

    pod中的所有初始化容器已经初启动完毕

    Ready

    pod中的容器可以提供服务了

    Unschedulable

    不能调度,没有合适的节点

    Pod状态的详细说明

    • CrashLoopBackOff: 容器退出,kubelet正在将它重启
    • InvalidImageName: 无法解析镜像名称
    • ImageInspectError: 无法校验镜像
    • ErrImageNeverPull: 策略禁止拉取镜像
    • ImagePullBackOff: 正在重试拉取
    • RegistryUnavailable: 连接不到镜像中心
    • ErrImagePull:通用的拉取镜像出错
    • CreateContainerConfigError: 不能创建kubelet使用的容器配置
    • CreateContainerError: 创建容器失败
    • m.internalLifecycle.PreStartContainer 执行hook报错
    • RunContainerError: 启动容器失败
    • PostStartHookError: 执行hook报错
    • ContainersNotInitialized: 容器没有初始化完毕
    • ContainersNotReady: 容器没有准备完毕
    • ContainerCreating:容器创建中
    • PodInitializing:pod 初始化中
    • DockerDaemonNotReady:docker还没有完全启动
    • NetworkPluginNotReady: 网络插件还没有完全启动
    • Evicte: pod被驱赶
    展开全文
  • 容器编排之争在 Kubernetes 一统天下局面形成后,K8S 成为了云原生时代的新一代操作系统。K8S 让一切变得简单了,但自身逐渐变得越来越复杂。【K8S Internals 系列专栏】围绕 K8S 生态的诸多方面,将由博云容器云...
  • K8S Pod该如何监控

    千次阅读 2020-06-17 00:37:32
    PodK8S上调度的最小单元,本文就K8S Pod该如何监控进行说明。 CPU 在使用物理机/虚拟机时,对于CPU的监控通常关注的是CPU使用率、CPU负载等。在K8S场景下,关注的指标有所不同:CPU使用率、CPU受限(CPU Throttled...
  • k8s pod 污点

    千次阅读 2022-04-06 18:04:25
    目录 1、查看污点情况 2、为节点添加污点 3、验证 4、删除污点 ...专用节点、配置特定硬件的节点、基于...NoExecute: 不会调度,而且还会驱逐Node已有pod 2、为节点添加污点 #kubectl taint node k8snode1 en.
  • k8s pod配置文件ymal详解

    千次阅读 2021-12-07 11:45:08
    yaml 常用配置模板 一般来说,常用的配置也不算多,...kind: Pod # 资源类型 metadata: name: pod-name namespace: dev spec: containers: - image: nginx:1.17.1 name: nginx-container imagePullPolicy: Alw
  • k8s pod如何停止(不删除)

    千次阅读 2021-04-20 23:29:52
    问题描述 用户咨询 k8s上正在运行的pod 如何对它进行停止操作(不删除) 解决方案 将pod进行缩容操作 让其为0 即等同于停止操作 kubectl scale --replicas=0 deployment/<your-deployment>
  • k8s pod 详解

    千次阅读 2020-03-20 02:13:37
    一、什么是Pod kubernetes中的一切都可以理解为是一种资源对象,pod,rc,service,都可以理解是 一种资源对象。pod的组成示意图如下,由一个叫...pause的状态带便了这一组容器的状态,pod里多个业务容器共享pod的...
  • pod label selctor rs svc deploment hpa LB
  • k8s pod OOMKilled 错误原因

    千次阅读 2021-03-24 10:19:10
    k8s oomkilled 错误原因:容器使用的内存资源超过了限制。只要节点有足够的内存资源,那容器就可以使用超过其申请的内存,但是不允许容器使用超过其限制的资源。 在yaml文件的resources.limits.memory 下定义了容器...
  • K8S Pod status的状态

    2021-09-02 20:59:40
    K8S Pod status的状态: CrashLoopBackOff: 容器退出,kubelet正在将它重启 InvalidImageName: 无法解析镜像名称 ImageInspectError: 无法校验镜像 ErrImageNeverPull: 策略禁止拉取镜像 ImagePullBackOff: 正在...
  • k8s Pod IP地址规划(CIDR)

    千次阅读 2020-12-22 14:50:12
    Kubernetes 为每个节点分配一个 IP 地址范围,即 CIDR 地址块,以便每个 Pod 可以拥有唯一的 IP 地址。CIDR 地址块的大小对应于每个节点的最大 Pod 数量。默认情况下,Kubernetes的节点配置为运行不超过 110 个 Pod...
  • k8s pod一直处于pending状态

    千次阅读 2021-04-27 15:52:26
    k8s pod一直处于pending状态,使用下面的命令,查看log,找出详细的错误信息。 # kubectl get pod # kubectl describe pod pod_name -n kube-system # kubectl logs pod_name
  •   关于云原生架构的部署技术,有 Docker、Docker - Compose、K8sPod 等等很多名词,这里做简单的讲解,给大家区分之间的不同和各自相对应用场景。 资源利用率十分低效!   在传软件部署阶段,往往是一个应用...
  • 问题背景:使用k8s-job-pod-container时 python的print总是在程序退出时打印,导致无法实时获取容器的日志。 解决方案: 这是因为stdout和stderr流在Python中进行了缓冲。 您可以将环境变量设置为...
  • k8s pod启动报错ErrImagePull

    千次阅读 2021-08-31 17:38:29
    症状:coredns pod启动失败,报错ErrImagePull 查看日志: 从日志可以看出大概原因应该是node2节点无法从镜像仓库拉取到镜像。 这里可以看到此pod是在192.168.4.102这个节点上启动失败那么我们上这个node上看看...
  • 基于hostpath的k8s pod日志持久化

    千次阅读 2021-11-19 22:02:23
    考虑到pod的多副本,但同时需要将日志集中收集起来,所以采用hostpath的方式将同一个服务的多pod的日志持久化到一起,日志穿插性的写在一个文件中。 由于pod重启会打散分配到不同节点上,所以基于nfs的网络文件系统...
  • 修改k8s pod Ip地址段(pod-cidr)

    千次阅读 2020-12-22 14:50:15
    1. 修改k8s相关配置kube-apiserver: --pod-network-cidrkube-proxy: --cluster-cidrkube-controller-manager: --cluster-cidr2.修改calico IP pool配置calico连接etcd:calicoctl get ippool -o wide --config /etc/...
  • k8s pod删不掉

    2021-05-28 18:01:00
    问题现象:pod一直删除不掉问题 起因:在pod运行过程中,修改了其deployment,导致pod一直删不掉 操作过程: 删除pod,删不掉 强制删除pod,依然删除不了 删除deployment,旧的pod依然删不掉,因为deployment已经...
  • k8s pod访问不通外网问题排查

    千次阅读 2020-12-20 02:43:21
    环境概况自建k8s集群,主机操作系统ubuntu16.04,k8s版本v1.14, 集群网络方案calico-3.3.6.worker节点数50+,均为GPU物理服务器,服务器类型异构,如Nvidia P4/T4/V100等。异常现象故障起因是k8s集群新增加了一台...
  • k8s pod 一直重启 code 137 排查记录

    千次阅读 2022-02-10 16:26:14
    k8s pod一直在重启,调度不起来 排查 1. 首先看状态 这个比较简单,我直接在页面上的(rancher查看api、查看/编辑yaml等都能看) 如图,找到containerStatuses,里面有个exitCode:137 网上搜了下错误码的意思: ...
  • k8s pod 状态 查询

    千次阅读 2021-04-28 18:11:06
    启动容器失败 PostStartHookError: 执行hook报错 ContainersNotInitialized: 容器没有初始化完毕 ContainersNotReady: 容器没有准备完毕 ContainerCreating:容器创建中 PodInitializing:pod 初始化中 ...
  • 1. 硬件设施 1.1 检查pod所在服务器的磁盘空间是否被占满 1.2 检查pod所在服务器的cpu、内存是否被占满
  • k8s pod-infrastructure.tgz 软件包,用于 k8s部署基础包
  • k8s pod hostNetwork网络模式

    千次阅读 2021-12-03 14:45:02
    问题: 往 k8s 搭建的 fastdfs集群上传文件报错、、 ################## fastdfs 参数配置 ################## fdfs: so-timeout: 1501 ...[hadoop@k8s-node-01 fastdfs]$ kubectl get pod -n fastdfs-ns -o

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 81,066
精华内容 32,426
关键字:

k8s pod

友情链接: 12-calc.zip