登录
首页 >  文章 >  linux

Linux下Kubernetes安装配置教程

时间:2025-08-29 10:07:17 414浏览 收藏

本文详细介绍了在Linux系统上安装和配置Kubernetes集群的步骤,旨在帮助读者快速搭建一个高效的容器化应用管理平台。首先,文章强调了部署前的准备工作,包括操作系统选择、硬件资源规划、禁用Swap、配置防火墙和SELinux等关键环节,为后续集群的稳定运行奠定基础。随后,文章详细阐述了使用kubeadm工具初始化主控节点、配置kubectl、部署网络插件以及加入工作节点的具体操作流程。通过本文,读者可以系统地了解Kubernetes的安装配置过程,并掌握集群的初步管理方法,为构建现代云原生架构打下坚实的基础。

答案:部署Kubernetes前需准备操作系统、硬件资源、禁用Swap、配置网络和容器运行时。具体包括更新系统、关闭Swap和防火墙、设置内核参数、安装containerd并配置systemd驱动,确保节点间通信及固定IP,为后续集群初始化奠定基础。

如何在Linux系统中安装和配置Kubernetes?快速部署容器集群的教程

在Linux系统上安装和配置Kubernetes,本质上是为了构建一个能高效管理容器化应用的平台。这个过程通常涉及对操作系统进行一系列预备性调整,然后利用像kubeadm这样的工具来初始化集群的主控节点,接着将工作节点加入其中,并最终部署一个网络插件来打通容器间的通信。它能够极大简化容器化应用的部署、扩展和运维工作,是现代云原生架构中不可或缺的核心组成部分。

解决方案

部署Kubernetes集群,我个人倾向于使用kubeadm工具,它提供了一种快速且相对标准化的方式来搭建一个功能完备的集群。以下是我认为最直接、最实用的步骤:

1. 准备工作: 在所有节点(包括主控节点和工作节点)上执行以下操作:

  • 更新系统并安装必要的工具:

    sudo apt update && sudo apt upgrade -y # Debian/Ubuntu
    sudo yum update -y && sudo yum install -y vim net-tools device-mapper-persistent-data lvm2 # CentOS/RHEL
  • 禁用Swap: Kubernetes对Swap的支持并不友好,因为它可能导致性能问题。

    sudo swapoff -a
    sudo sed -i '/ swap / s/^\(.*\)$/#\1/g' /etc/fstab
  • 配置内核参数: 允许br_netfilter模块截获桥接流量,这是网络插件正常工作的基础。

    cat <
  • 禁用SELinux (CentOS/RHEL):

    sudo setenforce 0
    sudo sed -i 's/^SELINUX=enforcing$/SELINUX=permissive/' /etc/selinux/config
  • 安装容器运行时(Container Runtime): Kubernetes需要一个容器运行时来运行容器。containerd是目前推荐的选择。

    对于Containerd:

    # 安装依赖
    sudo apt install -y apt-transport-https ca-certificates curl gnupg lsb-release # Debian/Ubuntu
    sudo yum install -y yum-utils device-mapper-persistent-data lvm2 # CentOS/RHEL
    
    # 添加Docker的官方GPG密钥
    curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo gpg --dearmor -o /usr/share/keyrings/docker-archive-keyring.gpg # Debian/Ubuntu
    sudo yum-config-manager --add-repo https://download.docker.com/linux/centos/docker-ce.repo # CentOS/RHEL
    
    # 添加Docker仓库 (Containerd通常随Docker一起安装或单独安装)
    echo "deb [arch=$(dpkg --print-architecture) signed-by=/usr/share/keyrings/docker-archive-keyring.gpg] https://download.docker.com/linux/ubuntu $(lsb_release -cs) stable" | sudo tee /etc/apt/sources.list.d/docker.list > /dev/null # Debian/Ubuntu
    
    sudo apt update # Debian/Ubuntu
    sudo apt install -y containerd.io # Debian/Ubuntu
    sudo yum install -y containerd.io # CentOS/RHEL
    
    # 配置containerd
    sudo mkdir -p /etc/containerd
    sudo containerd config default | sudo tee /etc/containerd/config.toml
    sudo sed -i 's/SystemdCgroup = false/SystemdCgroup = true/g' /etc/containerd/config.toml # 关键一步:使用systemd作为cgroup驱动
    sudo systemctl restart containerd
    sudo systemctl enable containerd

2. 安装kubeadm, kubelet, kubectl: 在所有节点上执行:

  • 添加Kubernetes apt/yum仓库:Debian/Ubuntu:

    sudo apt update
    sudo apt install -y apt-transport-https ca-certificates curl
    curl -fsSL https://packages.cloud.google.com/apt/doc/apt-key.gpg | sudo gpg --dearmor -o /usr/share/keyrings/kubernetes-archive-keyring.gpg
    echo "deb [signed-by=/usr/share/keyrings/kubernetes-archive-keyring.gpg] https://apt.kubernetes.io/ kubernetes-xenial main" | sudo tee /etc/apt/sources.list.d/kubernetes.list
    sudo apt update

    CentOS/RHEL:

    cat <
  • 安装kubelet, kubeadm, kubectl:

    sudo apt install -y kubelet kubeadm kubectl
    sudo apt-mark hold kubelet kubeadm kubectl # 阻止自动更新
    sudo systemctl enable --now kubelet

3. 初始化主控节点 (仅在主控节点上执行): 选择一个主控节点,并执行kubeadm init。这里我通常会指定一个Pod网络CIDR,因为它与后续安装的网络插件相关。

sudo kubeadm init --pod-network-cidr=10.244.0.0/16 --apiserver-advertise-address=<你的主控节点IP>

这个命令会输出一些重要的信息,包括如何配置kubectl以及如何让工作节点加入集群的命令。务必保存好这些信息。

4. 配置kubectl (仅在主控节点上执行): 按照kubeadm init命令的输出,配置当前用户的kubectl环境。

mkdir -p $HOME/.kube
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config

5. 部署网络插件 (仅在主控节点上执行): 集群初始化后,Pod之间还无法通信,因为缺少网络插件。我个人比较喜欢Calico,因为它功能强大且稳定。

kubectl apply -f https://raw.githubusercontent.com/projectcalico/calico/v3.25.0/manifests/calico.yaml

(请注意,Calico的版本号可能需要根据实际情况调整,通常我会去Calico的GitHub仓库查看最新的稳定版本。)

6. 加入工作节点 (在每个工作节点上执行): 使用kubeadm init命令输出的kubeadm join命令将工作节点加入集群。

sudo kubeadm join <主控节点IP>:<端口> --token  --discovery-token-ca-cert-hash sha256:

如果token过期,可以使用kubeadm token create --print-join-command在主控节点重新生成。

至此,一个基本的Kubernetes集群就搭建完成了。

在部署Kubernetes之前,我需要做哪些准备工作?

坦白说,很多初学者在部署Kubernetes时,往往会忽视前期的准备工作,导致部署过程中遇到各种意想不到的问题。在我看来,充分的准备是确保集群顺利上线并稳定运行的关键。

首先,操作系统选择与更新是基础。我通常推荐使用Ubuntu Server (LTS版本) 或 CentOS Stream/RHEL。这些发行版对Kubernetes的支持较好,社区资源也丰富。在任何节点上,第一步都应该是彻底更新系统:sudo apt update && sudo apt upgrade -y(或sudo yum update -y)。这不仅能修补安全漏洞,也能确保所有软件包处于最新状态,避免版本兼容性问题。

其次,硬件资源规划不容小觑。虽然Kubernetes可以在树莓派上跑,但对于生产环境,主控节点至少需要2核CPU、2GB内存,而工作节点则应根据预期的负载来配置,通常建议4核CPU、8GB内存起步,并配备SSD硬盘以获得更好的I/O性能。一个常见的误区是认为“够用就好”,但实际上,资源紧张会直接影响集群的稳定性和应用的响应速度。

接下来是几个技术细节:禁用Swap是必须的。Kubernetes的kubelet组件在检测到Swap开启时会报错,因为它会干扰内存管理,导致性能下降和不可预测的行为。通过sudo swapoff -a和修改/etc/fstab来永久禁用它。

防火墙配置也至关重要。Kubernetes集群的各个组件需要通过特定的端口进行通信。例如,API Server默认监听6443端口,kubelet监听10250端口。如果你的环境允许,最简单的做法是在开发测试阶段直接禁用防火墙(如sudo ufw disablesudo systemctl stop firewalld),但生产环境则必须精确配置,开放必要的端口。

SELinux (CentOS/RHEL)也是一个需要特别注意的地方。它的安全策略可能会阻止容器运行时或Kubernetes组件的正常操作。通常,我会选择将其设置为permissive模式,或者在更严格的环境下,仔细配置SELinux策略以允许Kubernetes的运行。

网络配置是另一个潜在的坑。确保所有节点都拥有固定的IP地址,并且它们之间可以互相ping通。如果你的服务器在云端,通常会有一个内部私有网络,确保所有节点都在这个网络中。

最后,容器运行时的选择。Docker曾经是唯一的选择,但现在containerdCRI-O等更轻量级的运行时成为了主流。我个人倾向于containerd,因为它更符合Kubernetes的CRI(Container Runtime Interface)规范,且资源占用更低。安装它,并确保其cgroup驱动与kubelet的配置一致(通常是systemd)。

这些准备工作可能看起来有些繁琐,但它们是构建一个稳固Kubernetes集群的基石。跳过任何一步,都可能在后期带来难以排查的故障。

Kubernetes集群的各个核心组件都有什么作用,它们是如何协同工作的?

要真正理解Kubernetes,光知道如何安装是不够的,还需要明白其内部的各个组件是如何协同工作的。这就像是了解一台汽车的每个零件,才能明白它是如何行驶的。Kubernetes集群可以大致分为两类组件:控制平面(Control Plane)组件和工作节点(Worker Node)组件。

控制平面组件 (Master Node Components):

  1. kube-apiserver: 这是Kubernetes集群的“大脑”和“前门”。所有对集群的操作(创建Pod、更新Service等)都必须通过它。它提供RESTful API,是所有内部和外部组件与集群交互的唯一途径。它的高可用性对整个集群至关重要。

  2. etcd: 这是一个高可用的键值存储系统,它保存了整个Kubernetes集群的所有状态数据,包括Pod、Service、Deployment等各种对象的配置和当前状态。如果etcd丢失数据,整个集群就“失忆”了。因此,etcd的备份和恢复是运维中的重中之重。

  3. kube-scheduler: 顾名思义,它的任务是调度Pod。当一个新的Pod被创建时,调度器会根据资源需求(CPU、内存)、节点亲和性/反亲和性、污点/容忍度等策略,决定这个Pod应该运行在哪个工作节点上。它就像一个高效的交通调度员,确保资源得到合理分配。

  4. kube-controller-manager: 这不是一个单一的控制器,而是一组控制器(如节点控制器、副本控制器、端点控制器、服务账号控制器等)的集合。每个控制器都负责监控集群的特定资源,并努力将集群的实际状态调整到用户期望的状态。例如,副本控制器会确保某个Deployment始终运行着指定数量的Pod副本。

  5. cloud-controller-manager (可选): 如果你的Kubernetes集群部署在云环境中(如AWS、Azure、GCP),这个组件就会发挥作用。它负责与云服务商的API进行交互,管理云资源,例如为Service创建负载均衡器、为持久化存储配置云磁盘等。

工作节点组件 (Worker Node Components):

  1. kubelet: 这是运行在每个工作节点上的代理。它是节点与控制平面通信的关键。kubelet接收来自API Server的指令,管理Pod的生命周期,包括创建、启动、停止和删除Pod中的容器。它还负责向API Server报告节点和Pod的状态。

  2. kube-proxy: 运行在每个工作节点上的网络代理。它维护着节点上的网络规则,负责实现Kubernetes Service的抽象。当一个Service被访问时,kube-proxy会确保请求被正确地路由到后端Pod。它支持多种代理模式,如iptables和IPVS。

  3. Container Runtime (如containerd, Docker): 这是真正运行容器的底层软件。它负责从镜像仓库拉取镜像,然后根据Pod的定义,创建并运行容器。Kubernetes通过CRI(Container Runtime Interface)与这些运行时进行交互。

它们如何协同工作?

我们可以通过一个简单的Pod创建流程来理解它们的协同:

  1. 用户提交Pod定义: 用户通过kubectl apply -f my-pod.yaml命令,将Pod的YAML定义发送给kube-apiserver
  2. API Server接收并存储: kube-apiserver接收到请求后,会验证其合法性,并将Pod的信息存储到etcd中。
  3. 调度器发现新Pod: kube-scheduler持续监控API Server,一旦发现有新的、尚未分配节点(nodeName为空)的Pod,就会开始工作。
  4. 调度决策: 调度器根据各种策略(如资源可用性、节点标签、Pod亲和性等)为Pod选择一个最合适的工作节点。
  5. API Server更新Pod状态: 调度器将选定的节点信息更新到Pod的nodeName字段,并通过API Server存储到etcd。
  6. kubelet接收指令: 目标工作节点上的kubelet通过与API Server的Watch机制,感知到有新的Pod被调度到自己身上。
  7. kubelet创建容器: kubelet指示Container Runtime拉取Pod所需的容器镜像,并根据Pod的定义(如CPU/内存限制、端口映射等)创建并运行容器。
  8. kube-proxy配置网络: 同时,kube-proxy会监听Service和Endpoint的变化。如果这个Pod是某个Service的后端,kube-proxy会在节点上配置相应的网络规则(如iptables或IPVS),确保Service的流量能够正确地转发到这个Pod。
  9. kubelet报告状态: kubelet持续向API Server报告Pod和容器的运行状态,API Server再将这些信息存储到etcd中,供其他组件和用户查询。

这个流程展示了Kubernetes各个组件如何紧密协作,共同完成容器化应用的自动化部署和管理。理解这些组件的功能和交互方式,对于故障排查和集群优化都至关重要。

部署完成后,我该如何验证Kubernetes集群的健康状况并进行初步管理?

集群部署完成,并不意味着万事大吉。验证其健康状况,并学会一些初步的管理命令,是确保你的投入没有白费的关键步骤。这就像你组装了一台电脑,总要开机测试一下各个部件是否正常工作。

首先,最基础的验证是检查节点状态

kubectl get nodes

你应该看到所有节点都处于Ready状态。如果某个节点显示NotReady,那很可能意味着该节点上的kubelet服务有问题,或者网络不通畅。我会立即检查kubelet的日志:sudo journalctl -u kubelet -f

接着,验证系统Pod的状态。Kubernetes自身运行了很多关键的Pod,它们通常位于kube-system命名空间下。

kubectl get pods -n kube-system

这里应该看到所有的Pod都处于Running状态。特别需要关注网络插件(如calico-nodecoredns)的Pod,它们如果出现问题,整个集群的网络功能就会受影响。如果某个Pod卡在PendingCrashLoopBackOff或其他非Running状态,我会用kubectl describe pod -n kube-system查看其详细事件,通常能找到问题线索。

检查网络插件的正常运行是下一步。如果kube-system下的网络插件Pod都正常运行,通常意味着网络层是健康的。你也可以尝试部署一个简单的测试应用,比如一个Nginx Pod,然后暴露一个Service,尝试从集群内部或外部访问它,以验证Pod间通信和Service的负载均衡功能。

# 部署一个Nginx Deployment
kubectl create deployment nginx --image=nginx
# 暴露为NodePort Service
kubectl expose deployment nginx --type=NodePort --port=80
# 查看Service信息,获取NodePort
kubectl get svc nginx

然后你可以通过http://<任意工作节点IP>:来访问Nginx页面。

在日常管理中,查看集群事件是一个非常有用的习惯。

kubectl get events

这会列出集群中最近发生的所有事件,包括Pod的调度、镜像的拉取、容器的启动/停止等。当出现问题时,事件日志往往能提供关键的上下文信息。

查看日志是排查应用或系统Pod问题的利器。

kubectl logs  -n 

如果Pod有多个容器,你需要指定容器名称:kubectl logs -c -n --follow参数可以实时跟踪日志输出。

对于资源管理kubectl top命令能让你快速了解节点和Pod的CPU和内存使用情况。

kubectl top nodes
kubectl top pods -n  # 可以不指定namespace,查看所有

这对于发现资源瓶颈或异常的

到这里,我们也就讲完了《Linux下Kubernetes安装配置教程》的内容了。个人认为,基础知识的学习和巩固,是为了更好的将其运用到项目中,欢迎关注golang学习网公众号,带你了解更多关于Kubernetes,集群部署,kubeadm,容器运行时,kubectl的知识点!

相关阅读
更多>
最新阅读
更多>
课程推荐
更多>