k8s 基于 Ingress 实现 k8s 七层调度和负载均衡

本文详细介绍了在Kubernetes(k8s)环境中如何实现应用的负载均衡,包括Service在四层负载均衡中的作用,以及Ingress在七层负载均衡中的应用。讨论了四层负载均衡如LVS和七层负载均衡如Nginx的区别,并通过案例演示了使用Service和IngressController代理k8s内部应用的过程。此外,还提供了安装NginxIngressController的步骤和配置Ingress规则的方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

  •  如何在 k8s 中实现应用的负载均衡?

  • 负载均衡是什么?

    负载均衡是由多台服务器以对称的方式组成一个服务器集合,每台服务器都具有等价的地位,都可以单独对外提供服务而无需其他服务器的辅助。

    通过某种负载分担技术,将外部发送来的请求按照某种策略分配到服务器集合的某一台服务器上,而接收到请求的服务器独立地回应客户的请求。

    负载均衡解决了大量并发访问服务问题,其目的就是用最少的投资获得接近于大型主机的性能。

  • 在接触 k8s 之前都了解哪些负载均衡方案?

    四层负载均衡:lvs(软件层面)、f5(硬件层面)
    缺点:对网络依赖较大,负载智能化方面没有 7 层负载好(比如不支持对 url 个性化负载),F5 硬件性能很高但成本也高,需要人民币几十万,对于小公司就望而却步了。


    常见的七层负载均衡:nginx、apache
    优点:对网络依赖少,负载智能方案多(比如可根据不同的 url 进行负载)


    在 k8s 中为什么要做负载均衡?
    Pod 漂移问题

    Kubernetes 具有强大的副本控制能力,能保证在任意副本(Pod)挂掉时自动从其他机器启动一个新的,还可以动态扩容等。通俗地说,这个 Pod 可能在任何时刻出现在任何节点上,也可能在任何时刻死在任何节点上;那么自然随着 Pod 的创建和销毁,Pod IP 肯定会动态变化;那么如何把这个动态的Pod IP 暴露出去?这里借助于 Kubernetes 的 Service 机制,Service 可以以标签的形式选定一组带有指定标签的 Pod,并监控和自动负载他们的 Pod IP,那么我们向外暴露只暴露 Service IP 就行了;这就是 NodePort 模式:即在每个节点上开起一个端口,然后转发到内部 Pod IP 上。

     
  • 使用 service 做四层负载均衡

  • 在 kubernetes 中,Pod 是有生命周期的,如果 Pod 重启 IP 很有可能会发生变化。

    如果我们的服务都是将 Pod 的 IP 地址写死,Pod 的挂掉或者重启,和刚才重启的 pod 相关联的其他服务将会找不到它所关联的 Pod

    为了解决这个问题,在 kubernetes 中定义了 service 资源对象Service 定义了一个服务访问的入口,客户端通过这个入口即可访问服务背后的应用集群实例,service 是一组 Pod 的逻辑集合,这一组 Pod 能够被 Service 访问到,通常是通过 Label Selector 实现的。
    可以看下面的图:

    此时的数据包流向如下:
    客户端请求-->node 节点的 ip:端口--->service 的 ip:端口--->pod 的 ip:端口

  • 案例演示:
    创建一个 k8s pod,通过 service 代理
    vim pod_test.yaml

     创建一个 service
    vim service_test.yaml

     端口管理问题
    采用 service 的 NodePort 方式暴露服务面临的问题是,服务一旦多起来,NodePort 在每个节点上开启的端口会及其庞大,而且难以维护。

  • 四层负载均衡和七层负载均衡对比分析

    1)四层的负载均衡就是基于 IP+端口的负载均衡:在三层负载均衡的基础上,通过发布三层的 IP 地址(VIP),然后加四层的端口号,来决定哪些流量需要做负载均衡,对需要处理的流量进行 NAT 处理,转发至后台服务器,并记录下这个 TCP 或者 UDP 的流量是由哪台服务器处理的,后续这个连接的所有流量都同样转发到同一台服务器处理。

    2)
    七层的负载均衡就是基于虚拟的 URL 或主机 IP 的负载均衡:在四层负载均衡的基础上(没有四层是绝对不可能有七层),再考虑应用层的特征,比如同一个 Web 服务器的负载均衡,除了根据 VIP加 80 端口辨别是否需要处理的流量,还可根据七层的 URL、浏览器类别、语言来决定是否要进行负载均衡。

    举个例子,如果你的 Web 服务器分成两组,一组是中文语言的,一组是英文语言的,那么七层负载均衡就可以当用户来访问你的域名时,自动辨别用户语言,然后选择对应的语言服务器组进行负载均衡处理。 

     
  • Ingress 和 Ingress Controller 深度解读
     

  • 为什么要使用 k8s 原生的 Ingress controller 做七层负载均衡?

  • Ingress 介绍

    Ingress 官网定义:Ingress 可以把进入到集群内部的请求转发到集群中的一些服务上,从而可以把服务映射到集群外部。

    Ingress 能把集群内 Service 配置成外网能够访问的 URL,流量负载均衡,提供基于域名访问的虚拟主机等。

    Ingress 简单的理解就是你原来需要改 Nginx 配置,然后配置各种域名对应哪个 Service,现在把这个动作抽象出来,变成一个 Ingress 对象,你可以用 yaml 创建,每次不要去改 Nginx 了,直接改yaml 然后创建/更新就行了;

  • 那么问题来了:”Nginx 该怎么处理?”

    Ingress Controller 这东西就是解决 “Nginx 的处理方式” 的;


    Ingress Controller 通过与Kubernetes API 交互,动态的去感知集群中 Ingress 规则变化,然后读取他,按照他自己模板生成一段 Nginx 配置,再写到 Ingress Controller Nginx 里,最后 reload 一下

    工作流程如下图:
     

    实际上 Ingress 也是 Kubernetes API 的标准资源类型之一,它其实就是一组基于 DNS 名称(host)或 URL 路径把请求转发到指定的 Service 资源的规则

    用于将集群外部的请求流量转发到集群内部完成的服务发布。我们需要明白的是,Ingress 资源自身不能进行“流量穿透”,仅仅是一组规则的集合,这些集合规则还需要其他功能的辅助,比如监听某套接字,然后根据这些规则的匹配进行路由转发,这些能够为 Ingress 资源监听套接字并将流量转发的组件就是 Ingress Controller。

    注:Ingress 控制器不同于 Deployment 控制器的是,Ingress 控制器不直接运行为 kubecontroller-manager 的一部分,它仅仅是 Kubernetes 集群的一个附件,类似于 CoreDNS,需要在集群上单独部署。

  • Ingress Controller 介绍

  • Ingress Controller 是一个七层负载均衡调度器,客户端的请求先到达这个七层负载均衡调度器,由七层负载均衡器在反向代理到后端 pod,常见的七层负载均衡器有 nginx、traefik,以我们熟悉的nginx 为例,假如请求到达 nginx,会通过 upstream 反向代理到后端 pod 应用,但是后端 pod 的 ip 地址是一直在变化的,因此在后端 pod 前需要加一个 service,这个 service 只是起到分组的作用,那么我们 upstream 只需要填写 service 地址即可

  • Ingress 和 Ingress Controller 总结


    Ingress Controller 可以理解为控制器,它通过不断的跟 Kubernetes API 交互,实时获取后端Service、Pod 的变化,比如新增、删除等,结合 Ingress 定义的规则生成配置,然后动态更新上边的Nginx 或者 trafik 负载均衡器,并刷新使配置生效,来达到服务自动发现的作用。


    Ingress 则是定义规则,通过它定义某个域名的请求过来之后转发到集群中指定的 Service。它可以通过 Yaml 文件定义,可以给一个或多个 Service 定义一个或多个 Ingress 规则。

  • 使用 Ingress Controller 代理 k8s 内部应用的流程
    (1)部署 Ingress controller,我们 ingress controller 使用的是 nginx
    (2)创建 Pod 应用,可以通过控制器创建 pod
    (3)创建 Service,用来分组 pod
    (4)创建 Ingress http,测试通过 http 访问应用
    (5)创建 Ingress https,测试通过 https 访问应用
    客户端通过七层调度器访问后端 pod 的方式
    使用七层负载均衡调度器 ingress controller 时,当客户端访问 kubernetes 集群内部的应用时,数据包走向如下图流程所示:


  • 安装 Nginx Ingress Controller

  • 需要的 yaml 所在的 github 地址:
    https://github.com/kubernetes/ingress-nginx/
    default-backend.yaml
    nginx-ingress-controller.yaml
    nginx-ingress-controller-rbac.yml
    需要修改 nodeName:

     需要修改 nodeName:

    注意:
    default-backend.yamlnginx-ingress-controller.yaml 文件指定了 nodeName:k8s-01表示 default 和 nginx-ingress-controller 部署在 k8s-01 节点,需要自行修改成自己的主机名,这样才会调度成功,让 default-http-backend 和 nginx-ingress-controller 这两个 pod 在一个节点上。

    default-backend.yaml:这是官方要求必须要给的默认后端,提供 404 页面。它还提供了一个http 检测功能,检测 nginx-ingress-controll 健康状态的,通过每隔一定时间访问 nginx-ingresscontroll 的/healthz 页面,如是没有响应就返回 404 之类的错误码。

  • 测试 Ingress HTTP 代理 k8s 内部站点

  • 部署后端 tomcat 服务
    # vim ingress-demo.yaml

  • 编写 ingress 规则
    #编写 ingress 的配置清单
    # cat ingress-myapp.yaml

    rules: #定义后端转发的规则
     - host: tomcat.lucky.com #通过域名进行转发

     http:
     paths:
     - path: / #配置访问路径,如果通过 url 进行转发,需要修改;空默认为访问的路径为"/"
     pathType: Prefix
     backend: #配置后端服务
     service:
     name: tomcat
     port:
     number: 8080 

    #修改电脑本地的 host 文件,增加如下一行,下面的 ip 是 k8s-01 节点 ip
    192.168.2.40 tomcat.lucky.com
    浏览器访问 tomcat.lucky.com,出现如下: 


     

  • 测试 Ingress HTTPS 代理 tomcat
    1、构建 TLS 站点
    (1)准备证书,在 master1 节点操作
    openssl genrsa -out tls.key 2048
    openssl req -new -x509 -key tls.key -out tls.crt -subj /C=CN/ST=Beijing/L=Beijing/O=DevOps/CN=tomcat.lucky.com

     (2)生成 secret,在 master1 节点操作
    # kubectl create secret tls tomcat-ingress-secret --cert=tls.crt --key=tls.key
    (3)查看 secret
    # kubectl get secret

     (4)查看 tomcat-ingress-secret 详细信息
    # kubectl describe secret tomcat-ingress-secret
     

     
    创建 Ingress
    Ingress 规则可以参考官方:
    https://kubernetes.io/zh/docs/concepts/services-networking/ingress/

    # kubectl explain ingress.spec.rules.http.paths.backend.service


    vim ingress-tomcat-tls.yaml

    Ingress 规则可以参考官方:
    https://kubernetes.io/zh/docs/concepts/services-networking/ingress/


  • 更新时提示报错

  • kubectl apply -f ingress-myapp.yaml 
    Error from server (InternalError): error when creating "ingress-myapp.yaml": Internal error occurred: failed calling webhook "validate.nginx.ingress.kubernetes.io": an error on the server ("") has prevented the request from succeeding

    kubectl get validatingwebhookconfigurations                                                               
    NAME                      WEBHOOKS   AGE
    ingress-nginx-admission   1          30m

    kubectl delete -A ValidatingWebhookConfiguration ingress-nginx-admission
    validatingwebhookconfiguration.admissionregistration.k8s.io "ingress-nginx-admission" deleted

<think>嗯,用户现在问的是Kubernetes Service的负载均衡策略。我需要先回忆一下Kubernetes中Service的作用以及负载均衡的不同类型。首先,Service在k8s中主要用来暴露应用,让其他服务或外部用户能够访问到Pod。而负载均衡策略则是决定流量如何分发到后端Pod的关键。 用户可能已经了解Service的基本概念,但想深入了解具体的负载均衡策略。我需要先确认Kubernetes支持的几种策略,比如默认的轮询、会话保持(Session Affinity),还有可能的其他方式,比如基于客户端IP的亲性,或者外部负载均衡器提供的策略。另外,不同云服务商(如AWS、GCP)可能有不同的实现,需要提到这一点吗? 记得之前的回答中,用户问过发版流程,现在转向Service的负载均衡,可能是在实际工作中遇到了流量管理的问题,或者想优化服务性能。用户可能是一个运维工程师或者开发人员,负责维护k8s集群,需要确保服务的高可用高效负载均衡。 接下来要整理Kubernetes Service的负载均衡策略。首先,Service类型有ClusterIP、NodePort、LoadBalancerExternalName,但这里主要关注负载均衡策略,无论Service类型如何。负载均衡策略分为两个层面:kube-proxy的代理模式外部负载均衡器的配置。 kube-proxy支持三种模式:userspace(已弃用)、iptablesipvs。其中,ipvs模式提供了更多的负载均衡算法,如轮询(rr)、加权轮询(wrr)、最少连接(lc)、加权最少连接(wlc)等。而默认的iptables模式是基于概率的轮询,没有这些高级算法。 另外,Service的sessionAffinity配置,可以设置基于客户端IP的会话保持,确保同一客户端的请求转发到同一个Pod。但这不是严格的负载均衡策略,而是会话亲性。 此外,使用Ingress控制器(如Nginx、Traefik)或服务网格(如Istio)时,它们可能提供更复杂的负载均衡策略,比如基于路径、头部的路由,或更高级的算法如一致性哈希。这部分是否需要包含进来?可能用户想知道的是Service本身的策略,而不是外部组件的,但为了全面性,可以简要提及。 需要注意,Kubernetes的Service负载均衡是四层(TCP/UDP)的,而七层(HTTP)的负载均衡通常由Ingress控制器处理。因此,在回答时要区分清楚不同层次的负载均衡策略。 用户的问题是否包括外部负载均衡器?比如,当使用LoadBalancer类型的Service时,云提供商的负载均衡器可能会有自己的策略,如AWS的ALB使用轮询或最少异常算法。这部分是否需要解释?可能用户关心的是k8s自身提供的策略,但结合实际情况,云服务商的策略也很重要,特别是当Service类型为LoadBalancer时。 另外,需要提到如何配置这些策略,比如在Service的spec中设置sessionAffinity,或者选择不同的kube-proxy模式。如果有示例yaml配置会更好,方便用户理解。 总结一下,我需要分点回答:首先介绍Service的负载均衡机制,包括kube-proxy的不同模式及其策略,然后讨论sessionAffinity,接着提到外部负载均衡Ingress控制器的策略,最后给出配置示例选择建议。 可能还需要注意用户的实际应用场景,比如是否需要会话保持,是否需要更高效的负载均衡算法,以及如何根据需求选择合适的策略。例如,高性能场景可能倾向于使用ipvs模式,而需要会话保持的应用则需配置sessionAffinity。 还要检查是否有最新的Kubernetes版本中的变化,比如是否引入了新的负载均衡策略或废弃了旧有的。例如,ipvs模式现在是否已成为默认?或者某些配置是否有更新。 最后,确保回答结构清晰,分点说明,并给出实际工作中的建议,比如如何选择模式,如何配置,以及常见的使用场景注意事项。</think>以下为Kubernetes Service负载均衡策略的深度解析(附生产环境实战配置): 一、Service负载均衡核心机制 1. 流量代理层级架构 - 四层负载均衡:Service IP + kube-proxy实现TCP/UDP流量转发 - 七层负载均衡:需配合Ingress Controller(如Nginx、Traefik) 2. kube-proxy工作模式对比 | 模式 | 实现原理 | 算法支持 | 性能指标 | |-----------|---------------------|--------------------------|---------------| | iptables | 生成概率轮询规则链 | 随机均衡 | 万级Pod性能下降明显 | | ipvs | 内核级连接调度 | rr/wrr/lc/wlc等8种算法 | 支持十万级Pod连接 | | userspace | 用户态代理(已弃用) | 轮询 | 仅用于兼容旧版本 | 二、Service级别负载均衡策略 1. 基础会话亲性配置 ```yaml apiVersion: v1 kind: Service spec: sessionAffinity: ClientIP # 可选None/ClientIP sessionAffinityConfig: clientIP: timeoutSeconds: 10800 # 默认3小时 ``` 2. IPVS高级调度算法(需启用ipvs模式) ```bash # kube-proxy启动参数配置 --proxy-mode=ipvs --ipvs-scheduler=wlc # 可选rr|wrr|lc|wlc|lblc|lblcr等 ``` 3. 特定云厂商增强策略(以AWS为例): ```yaml metadata: annotations: service.beta.kubernetes.io/aws-load-balancer-attributes: | load_balancing.algorithm.type=least_outstanding_requests ``` 三、Ingress七层负载均衡策略 1. Nginx Ingress示例(加权轮询) ```yaml apiVersion: networking.k8s.io/v1 kind: Ingress metadata: annotations: nginx.ingress.kubernetes.io/upstream-hash-by: "$request_uri" # 一致性哈希 nginx.ingress.kubernetes.io/load-balance: "ewma" # 指数加权移动平均 ``` 2. 金丝雀流量分配策略 ```yaml apiVersion: networking.k8s.io/v1 kind: Ingress metadata: annotations: nginx.ingress.kubernetes.io/canary: "true" nginx.ingress.kubernetes.io/canary-weight: "20" ``` 四、生产环境选型建议 1. 算法选择指南 - 无状态服务:默认轮询(rr) - 长连接场景:最少连接(lc) - 硬件异构:加权轮询(wrr) - 缓存优化:一致性哈希(需Ingress配合) 2. 性能调优参数 ```bash # kube-proxy ipvs模式优化 --ipvs-exclude-cidrs=10.0.0.0/8 # 排除集群内部通信 --ipvs-strict-arp=true # 避免ARP冲突 --ipvs-sync-period=5s # 同步周期 ``` 五、诊断命令工具箱 1. 查看实际负载分布 ```bash # 查看Service端点 kubectl get endpoints <service-name> # IPVS连接统计 ipvsadm -Ln --stats ``` 2. 实时流量监控 ```bash # 跟踪kube-proxy日志 kubectl logs -f <kube-proxy-pod> -n kube-system | grep "SyncProxyRules" # TCP连接数统计 ss -ntp | grep <service-ip> ``` 六、特殊场景处理方案 1. 本地流量优先(拓扑感知路由) ```yaml apiVersion: v1 kind: Service metadata: annotations: service.kubernetes.io/topology-mode: Auto ``` 2. 服务网格增强策略(以Istio为例) ```yaml apiVersion: networking.istio.io/v1alpha3 kind: DestinationRule spec: trafficPolicy: loadBalancer: simple: LEAST_CONN consistentHash: httpHeaderName: X-User-ID ``` 实际生产建议: - 中小规模集群(<100节点)优先使用ipvs + wrr组合 - 有状态服务必须配置sessionAffinity并合理设置超时时间 - 结合Prometheus监控连接数分布,定期分析负载均衡效果 - 重要服务建议在Ingress应用层做双重负载均衡
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值