Files
Cloud-book/Kubernetes/Pod与网络.md
2025-08-27 17:10:05 +08:00

15 KiB
Raw Blame History

pod概念

image-20240904112128424

首先我们要明确一个概念Kubernetes并不是只支持Docker这一个容器运行时Kubernetes通过CRI这个抽象层支持除Docker之外的其他容器运行时比如rkt甚至支持客户自定义容器运行时。

  • 第一个原因借助CRI这个抽象层使得Kubernetes不依赖于底层某一种具体的容器运行时实现技术而是直接操作podpod内部再管理多个业务上紧密相关的用户业务容器这种架构便于Kubernetes做扩展。
  • 第二个原因我们假设Kubernetes没有pod的概念而是直接管理容器那么一组容器作为一个单元假设其中一个容器死亡了此时这个单元的状态应该如何定义呢应该理解成整体死亡还是个别死亡

这个问题不易回答的原因是因为包含了这一组业务容器的逻辑单元没有一个统一的办法来代表整个容器组的状态这就是Kubernetes引入pod的概念并且每个pod里都有一个Kubernetes系统自带的pause容器的原因通过引入pause这个与业务无关并且作用类似于Linux操作系统守护进程的Kubernetes系统标准容器以pause容器的状态来代表整个容器组的状态。

image-20240904112421964
  • 第三个原因pod里所有的业务容器共享pause容器的IP地址以及pause容器mount的Volume通过这种设计业务容器之间可以直接通信文件也能够直接彼此共享。

Pause特性

  • Pod内部第一个启动的容器
  • 初始化网络栈
  • 挂载需要的存储卷
  • 回收僵⼫进程
  • 容器与Pause容器共享名字空间(Network、PID、IPC)

实战基于Docker模拟pod

  • 编写Nginx配置文件
cat <<EOF>> nginx.conf
error_log stderr;
events {
    worker_connections 1024;
}
http {
    access_log /dev/stdout combined; 
    server {
        listen 80 default_server; 
        server_name example.com www.example.com; 
        location / {
            proxy_pass http://127.0.0.1:2368;
        }
    }
}
EOF
  • 启动容器
docker run --name pause -p 8080:80 -d k8s.gcr.io/pause:3.1

docker run --name nginx -v `pwd`/nginx.conf:/etc/nginx/nginx.conf --net=container:pause --ipc=container:pause --pid=container:pause -d nginx

docker run -d --name ghost -e NODE_ENV=development --net=container:pause --ipc=container:pause --pid=container:pause ghost

image-20240904115715394

kubernetes网络

基本概述

Kubernetes的网络模型假定了所有Pod都在一个可以直接连通的扁平的网络空间中这在GCEGoogle Compute Engine里面是现成的网络模型Kubernetes假定这个网络已经存在。而在私有云里搭建Kubernetes集群就不能假定这个网络已经存在了。我们需要自己实现这个网络假设将不同节点上的Docker容器之间的互相访问先打通然后运行Kubernetes。

网络模型原则

  • 在不使用网络地址转换(NAT)的情况下集群中的Pod能够与任意其他Pod进行通信
  • 在不使用网络地址转换(NAT)的情况下在集群节点上运行的程序能与同一节点上的任何Pod进行通信
  • 每个Pod都有自己的IP地址IP-per-Pod并且任意其他Pod都可以通过相同的这个地址访问它

CNI

借助CNI标准Kubernetes可以实现容器网络问题的解决。通过插件化的方式来集成各种网络插件实现集群内部网络相互通信只要实现CNI标准中定义的核心接口操作ADD将容器添加到网络DEL从网络中删除一个容器CHECK检查容器的网络是否符合预期等。CNI插件通常聚焦在容器到容器的网络通信。

image-20240904134937631

CNI的接口并不是指HTTPgRPC这种接口CNI接口是指对可执行程序的调用exec可执行程序Kubernetes节点默认的CNI插件路径为/opt/cni/bin

[root@master01 ~]# ls /opt/cni/bin/
bandwidth  calico       dhcp   firewall  host-device  install  loopback  portmap  sbr     tap     vlan
bridge     calico-ipam  dummy  flannel   host-local   ipvlan   macvlan   ptp      static  tuning  vrf

CNI通过JSON格式的配置文件来描述网络配置当需要设置容器网络时由容器运行时负责执行CNI插件并通过CNI插件的标准输入stdin来传递配置文件信息通过标准输出stdout接收插件的执行结果。从网络插件功能可以分为五类

image-20240904135319098

  • Main插件
    • 创建具体网络设备
      • bridge网桥设备连接container和host
      • ipvlan为容器增加ipvlan网卡
      • loopbackIO设备
      • macvlan为容器创建一个MAC地址
      • ptp创建一对Veth Pair
      • vlan分配一个vlan设备
      • host-device将已存在的设备移入容器内
  • IPAM插件
    • 负责分配IP地址
      • dhcp容器向DHCP服务器发起请求给Pod发放或回收IP地址
      • host-local使用预先配置的IP地址段来进行分配
      • static为容器分配一个静态IPv4/IPv6地址主要用于debug
  • META插件
    • 其他功能的插件
      • tuning通过sysctl调整网络设备参数
      • portmap通过iptables配置端口映射
      • bandwidth使用TokenBucketFilter来限流
      • sbr为网卡设置source based routing
      • firewall通过iptables给容器网络的进出流量进行限制
  • Windows插件专门用于Windows平台的CNI插件win-bridge与win-overlay网络插件
  • 第三方网络插件第三方开源的网络插件众多每个组件都有各自的优点及适应的场景难以形成统一的标准组件常用有Flannel、Calico、Cilium、OVN网络插件

image-20240904135633230

网络插件

image-20240904135815763

人气数据

数据更新时间2024-09-04

提供商 项目 Stars Forks Contributors
Canal https://github.com/projectcalico/canal 714 100 20
Flannel https://github.com/flannel-io/flannel 8.7k 2.9k 235
Calico https://github.com/projectcalico/calico 5.9k 1.3k 353
Weave https://github.com/weaveworks/weave/ 6.6k 668 87
Cilium https://github.com/cilium/cilium 19.7k 2.9k 803

功能说明

提供商 网络模型 路由分发 网络策略 网格 外部数据存储 加密 Ingress/Egress策略
Canal 封装(VXLAN) K8s API
Flannel 封装(VXLAN) K8s API
Calico 封装(VXLANIPIP),未封装 Etcd 和K8s API
Weave 封装
Cilium 封装(VXLAN) Etcd和K8sAPI
  • 网络模型:封装或未封装。
  • 路由分发一种外部网关协议用于在互联网上交换路由和可达性信息。BGP可以帮助进行跨集群pod之间的网络。此功能对于未封装的CNI网络插件是必须的并且通常由BGP完成。如果你想构建跨网段拆分的集群路由分发是一个很好的功能。
  • 网络策略Kubernetes提供了强制执行规则的功能这些规则决定了哪些service可以使用网络策略进行相互通信。这是从Kubernetes1.7起稳定的功能,可以与某些网络插件一起使用。
  • 网格允许在不同的Kubernetes集群间进行service之间的网络通信。
  • 外部数据存储具有此功能的CNI网络插件需要一个外部数据存储来存储数据。
  • 加密:允许加密和安全的网络控制和数据平面。
  • Ingress/Egress策略允许你管理Kubernetes和非Kubernetes通信的路由控制。

网络模型

  • underlay network非封装网络
    • 现实的物理基础层网络设备
    • underlay就是数据中心场景的基础物理设施保证任何两个点路由可达其中包含了传统的网络技术
  • overlay network封装网络
    • 一个基于物理网络之上构建的逻辑网络
    • overlay是在网络技术领域指的是一种网络架构上叠加的虚拟化技术模式
    • Overlay网络技术多种多样一般采用TRILL、VxLan、GRE、NVGRE等隧道技术

overlay

image-20240904140729187

underlay

image-20240904140805520

calico

或许是目前最主流的网络解决方案-calico

Calico是一个纯三层的虚拟网络它没有复用docker的docker0网桥而是自己实现的calico网络不对数据包进行额外封装不需要NAT和端口映射

calico架构

image-20240904141203196
  • Felix
    • 管理网络接口
    • 编写路由
    • 编写ACL
    • 报告状态
  • birdBGPClient
    • BGPClient将通过BGP协议⼴播告诉剩余calico节点从而实现网络互通
  • confd
    • 通过监听etcd以了解BGP配置和全局默认值的更改。Confd根据ETCD中数据的更新动态生成BIRD配置文件。当配置文件更改时confd触发BIRD重新加载新文件

VXLAN

  • VXLAN即Virtual Extensible LAN虚拟可扩展局域网是Linux本身支持的一网种网络虚拟化技术。VXLAN可以完全在内核态实现封装和解封装工作从而通过“隧道”机制构建出覆盖网络OverlayNetwork
  • 基于三层的”二层“通信层即vxlan包封装在udp数据包中要求udp在k8s节点间三层可达
  • 二层即vxlan封包的源mac地址和目的mac地址是自己的vxlan设备mac和对端vxlan设备mac实现通讯。

image-20240904143234102

  • 数据包封包封包在vxlan设备上将pod发来的数据包源、目的mac替换为本机vxlan网卡和对端节点vxlan 网卡的mac。外层udp目的ip地址根据路由和对端vxlan的mac查fdb表获取

  • 优势只要k8s节点间三层互通可以跨网段对主机网关路由没有特殊要求。各个node节点通过vxlan设备实现基于三层的”二层”互通,三层即vxlan包封装在udp数据包中要求udp在k8s节点间三层可达二层即vxlan封包的源mac地址和目的mac地址是自己的vxlan设备mac和对端vxlan设备mac

  • 缺点需要进行vxlan的数据包封包和解包会存在一定的性能损耗

image

配置方法

# 在calico的配置文件中。如下配置
# Auto-detect the BGP IP address.
- name: IP
value: "autodetect"
# Enable IPIP
- name: CALICO_IPV4POOL_IPIP
value: "Never"
# Enable or Disable VXLAN on the default IP pool.
- name: CALICO_IPV4POOL_VXLAN
value: "Always"
# Enable or Disable VXLAN on the default IPv6 IP pool.
- name: CALICO_IPV6POOL_VXLAN
value: "Always"

# 分割线========================
# calico_backend: "bird"
calico_backend: "vxlan"


# - -felix-live
# - -bird-live

查看验证

image-20240904150012585

VXLAN不需要BGP来建立节点间的邻接关系

image-20240904150019409

IPIP

  • Linux原生内核支持
  • IPIP隧道的工作原理是将源主机的IP数据包封装在一个新的IP数据包中新的IP数据包的目的地址是隧道的另一端。在隧道的另一端接收方将解封装原始IP数据包并将其传递到目标主机。IPIP隧道可以在不同的网络之间建立连接例如在IPv4网络和IPv6网络之间建立连接。
image-20240904145716982
  • 数据包封包封包在tunl0设备上将pod发来的数据包的mac层去掉留下ip层封包。外层数据包目的ip地址根据路由得到。
  • 优点只要k8s节点间三层互通可以跨网段对主机网关路由没有特殊要求。
  • 缺点需要进行IPIP的数据包封包和解包会存在一定的性能损耗

image-20240904145738269

配置方法

# 在calico的配置文件中。如下配置
# Auto-detect the BGP IP address.
- name: IP
value: "autodetect"
# Enable IPIP
- name: CALICO_IPV4POOL_IPIP
value: "Always"
# Enable or Disable VXLAN on the default IP pool.
- name: CALICO_IPV4POOL_VXLAN
value: "Never"
# Enable or Disable VXLAN on the default IPv6 IP pool.
- name: CALICO_IPV6POOL_VXLAN
value: "Never"

查看验证

image-20240904150123553

IPIP模式需要BGP来建立节点间的邻接关系VXLAN不需要

image-20240904150127316

BGP

边界网关协议Border Gateway Protocol,BGP是互联网上一个核心的去中心化自治路由协议。它通过维护IP路由表或前缀表来实现自治系统AS之间的可达性属于矢量路由协议。BGP不使用传统的内部网关协议IGP的指标而使用基于路径、网络策略或规则集来决定路由。因此它更适合被称为矢量性协议而不是路由协议。BGP通俗的讲就是讲接入到机房的多条线路如电信、联通、移动等融合为一体实现多线单IPBGP机房的优点服务器只需要设置一个IP地址最佳访问路由是由网络上的骨⼲路由器根据路由跳数与其它技术指标来确定的不会占用服务器的任何系统。

image-20240904151200463

  • 数据包封包:不需要进行数据包封包
  • 优点不用封包解包通过BGP协议可实现pod网络在主机间的三层可达
  • 缺点跨网段时配置较为复杂网络要求较高主机网关路由也需要充当BGPSpeaker。

配置方法

# 在calico的配置文件中。如下配置
# Auto-detect the BGP IP address.
- name: IP
value: "autodetect"
# Enable IPIP
- name: CALICO_IPV4POOL_IPIP
value: "Off"
# Enable or Disable VXLAN on the default IP pool.
- name: CALICO_IPV4POOL_VXLAN
value: "Never"
# Enable or Disable VXLAN on the default IPv6 IP pool.
- name: CALICO_IPV6POOL_VXLAN
value: "Never"

查看验证

image-20240904151418487 image-20240904151425020 image-20240904151434684