带着问题学 Kubernetes 架构
K8S 是什么,又为什么上手难度大?K8S 是一个基于容器技术的分布式集群管理系统,是谷歌几十年来大规模应用容器技术的经验积累和升华的一个重要成果。所以为了能够支持大规模的集群管理,它承载了很多的组件,而且分布式本身的复杂度就很高。
作者:CSDN云计算
来源:CSDN云计算
2017-07-12 09:55:15

打开这篇文章的同学,想必对 Docker 都不会陌生。Docker  是一种虚拟容器技术,它上手比较简单,只需在宿主机上起一个 Docker  Engine,然后就能愉快的玩耍了,如:拉镜像、起容器、挂载数据、映射端口等等。相对于 Kubernetes(K8S)的上手,可谓简单很多。

那么 K8S 是什么,又为什么上手难度大?K8S 是一个基于容器技术的分布式集群管理系统,是谷歌几十年来大规模应用容器技术的经验积累和升华的一个重要成果。所以为了能够支持大规模的集群管理,它承载了很多的组件,而且分布式本身的复杂度就很高。又因为 K8S 是谷歌出品的,依赖了很多谷歌自己的镜像,所以对于国内的同学环境搭建的难度又增加了一层。

下面,我们带着问题,一步步来看 K8S 中到底有哪些东西?

首先,既然是个分布式系统,那势必有多个 Node 节点(物理主机或虚拟机),它们共同组成一个分布式集群,并且这些节点中会有一个 Master 节点,由它来统一管理 Node 节点。

如图所示:

CSDN

问题一:主节点和工作节点是如何通信的呢?

首先,Master 节点启动时,会运行一个 kube-apiserver 进程,它提供了集群管理的 API 接口,是集群内各个功能模块之间数据交互和通信的中心枢纽,并且它页提供了完备的集群安全机制(后面还会讲到)。

在 Node 节点上,使用 K8S 中的 kubelet 组件,在每个 Node 节点上都会运行一个 kubelet 进程,它负责向 Master 汇报自身节点的运行情况,如 Node 节点的注册、终止、定时上报健康状况等,以及接收 Master 发出的命令,创建相应 Pod。

在 K8S 中,Pod 是最基本的操作单元,它与 docker 的容器有略微的不同,因为 Pod 可能包含一个或多个容器(可以是 docker 容器),这些内部的容器是共享网络资源的,即可以通过 localhost 进行相互访问。

关于 Pod 内是如何做到网络共享的,每个 Pod 启动,内部都会启动一个 pause 容器(google的一个镜像),它使用默认的网络模式,而其他容器的网络都设置给它,以此来完成网络的共享问题。

如图所示:

CSDN2

问题二:Master 是如何将 Pod 调度到指定的 Node 上的?

该工作由 kube-scheduler 来完成,整个调度过程通过执行一些列复杂的算法最终为每个 Pod 计算出一个最佳的目标 Node,该过程由 kube-scheduler 进程自动完成。常见的有轮询调度(RR)。当然也有可能,我们需要将 Pod 调度到一个指定的 Node 上,我们可以通过节点的标签(Label)和 Pod 的 nodeSelector 属性的相互匹配,来达到指定的效果。

如图所示:

CSDN3

关于标签(Label)与选择器(Selector)的概念,后面会进一步介绍。

问题三:各节点、Pod 的信息都是统一维护在哪里的,由谁来维护?

从上面的 Pod 调度的角度看,我们得有一个存储中心,用来存储各节点资源使用情况、健康状态、以及各 Pod 的基本信息等,这样 Pod 的调度来能正常进行。

在 K8S 中,采用 etcd 组件 作为一个高可用强一致性的存储仓库,该组件可以内置在 K8S 中,也可以外部搭建供 K8S 使用。

集群上的所有配置信息都存储在了 etcd,为了考虑各个组件的相对独立,以及整体的维护性,对于这些存储数据的增、删、改、查,统一由 kube-apiserver 来进行调用,apiserver 也提供了 REST 的支持,不仅对各个内部组件提供服务外,还对集群外部用户暴露服务。

外部用户可以通过 REST 接口,或者 kubectl 命令行工具进行集群管理,其内在都是与 apiserver 进行通信。

如图所示:

CSDN4

问题四:外部用户如何访问集群内运行的 Pod ?

前面讲了外部用户如何管理 K8S,而我们更关心的是内部运行的 Pod 如何对外访问。使用过Docker 的同学应该知道,如果使用 bridge 模式,在容器创建时,都会分配一个虚拟 IP,该 IP 外部是没法访问到的,我们需要做一层端口映射,将容器内端口与宿主机端口进行映射绑定,这样外部通过访问宿主机的指定端口,就可以访问到内部容器端口了。

那么,K8S 的外部访问是否也是这样实现的?答案是否定的,K8S 中情况要复杂一些。因为上面讲的 Docker 是单机模式下的,而且一个容器对外就暴露一个服务。在分布式集群下,一个服务往往由多个 Application 提供,用来分担访问压力,而且这些 Application 可能会分布在多个节点上,这样又涉及到了跨主机的通信。

这里,K8S 引入了 Service 的概念,将多个相同的 Pod 包装成一个完整的 service 对外提供服务,至于获取到这些相同的 Pod,每个 Pod 启动时都会设置 labels 属性,在 Service 中我们通过选择器 Selector,选择具有相同 Name 标签属性的 Pod,作为整体服务,并将服务信息通过 Apiserver 存入 etcd 中,该工作由 Service Controller 来完成。同时,每个节点上会启动一个 kube-proxy 进程,由它来负责服务地址到 Pod 地址的代理以及负载均衡等工作。

如图所示:

CSDN5

问题五:Pod 如何动态扩容和缩放?

既然知道了服务是由 Pod 组成的,那么服务的扩容也就意味着 Pod 的扩容。通俗点讲,就是在需要时将 Pod 复制多份,在不需要后,将 Pod 缩减至指定份数。K8S 中通过 Replication Controller 来进行管理,为每个 Pod 设置一个期望的副本数,当实际副本数与期望不符时,就动态的进行数量调整,以达到期望值。期望数值可以由我们手动更新,或自动扩容代理来完成。

如图所示:

CSDN6

问题六:各个组件之间是如何相互协作的?

最后,讲一下 kube-controller-manager 这个进程的作用。我们知道了 ectd 是作为集群数据的存储中心, apiserver 是管理数据中心,作为其他进程与数据中心通信的桥梁。而 Service Controller、Replication Controller 这些统一交由 kube-controller-manager 来管理,kube-controller-manager 作为一个守护进程,每个 Controller 都是一个控制循环,通过 apiserver 监视集群的共享状态,并尝试将实际状态与期望不符的进行改变。关于 Controller,manager 中还包含了 Node 节点控制器(Node Controller)、资源配额管控制器(ResourceQuota Controller)、命名空间控制器(Namespace Controller)等。

如图所示:

CSDN7

总结

本文通过问答的方式,没有涉及任何深入的实现细节,从整体的角度,概念性的介绍了 K8S 中涉及的基本概念,其中使用相关的包括有:

1.Node

2.Pod

3.Label

4.Selector

5.Replication Controller

6.Service Controller

7.ResourceQuota Controller

8.Namespace Controller

9.Node Controller

以及运行进程相关的有:

1.kube-apiserver

2.kube-controller-manager

3.kube-scheduler

4.kubelet

5.kube-proxy

6.pause

这也是我学习 K8S 后对其整体架构的一次总结,因为刚上手时,阅读官方文档,确实被如此多的内容搞得有点晕,所在在这里进行了简单的梳理。文中有理解不到位的地方,欢迎指正!

关注中国IDC圈官方微信:idc-quan或微信号:821496803 我们将定期推送IDC产业最新资讯

查看心情排行你看到此篇文章的感受是:


  • 支持

  • 高兴

  • 震惊

  • 愤怒

  • 无聊

  • 无奈

  • 谎言

  • 枪稿

  • 不解

  • 标题党
2017-07-17 11:48:00
运维管理 SDN在云数据中心的应用——架构篇
SDN概念一直如火如荼,若是要谈到概念落地及大规模应用,一定离不开SDN在云计算数据中心的实践应用。云数据中心对网络提出了灵活、按需、动态和隔离的需求,SDN的集中控制 <详情>
2017-04-24 17:21:40
云资讯 华为 马全一:使用Golang实现DevOps Orchestration
我们华为目前开源做的一套DevOps的产品,我们把它定义为ContainerOps,我们讲了一个新的理念,DevOps编排,现在在容器社区大家都讲容器的Container的Orchestration,容器的 <详情>
2017-04-24 14:13:50
云资讯 google王宏晔:Kubernetes and Google Container English
在Google的实际经验来讲,容器在过去十年给行业界包括Google本身提供了很大帮助。从这两个曲线可以看出来,第一个蓝色曲线是Google这些年在人员设置上,在维护自己数据中心 <详情>
2017-04-24 14:01:22
云资讯 红帽高级方案架构师张家驹:红帽容器技术实践与展望
红帽做linux出身,红帽本质最核心的技术是IPM技术,通过IPM软件包的方式做系统的更新,这个技术用了20多年。 <详情>
2017-04-24 13:51:52
云资讯 慧与李志霄:HPE Kubernetes企业级容器云:加速数字创新
企业IT架构更灵活、高效、问。开发运维更简单、快速、低成本、高效。持续集成、持续交付,整体提升IT质量。不要让IT的开发、测试、运维再成为企业创新的瓶颈,IT是企业的资 <详情>
2017-04-24 13:39:22
云资讯 才云CEO张鑫:从Kubernetes到谷歌集群管理的演化与落地
这个调研数据是美国做容器监控公司针对目前容器常用的编排工具做的一个使用调研,我们看到为什么今天这么多的Kubernetes的演讲,也是有它的必然原因在这里面。从传统IAAS到 <详情>
2017-04-24 11:49:34
云资讯 DC/OS 社区中国创始人 陈冉:DC/OS开创容器管理新时代
容器时代我们谈得更多是Docker,Docker只是容器的一种,如果没有容器管理,那容器只是这种纷乱的形状,大家在很多演讲的时候也可以看到,这张图以我的理解来说,换句话说容 <详情>
2016-12-28 17:01:02
国内资讯 阮少钧:企业在云计算架构下的运维治理
12月20-22日,第十一届中国IDC产业年度大典(IDCC2016)在北京国家会议中心隆重召开。本次大会由中国信息通信研究院、云计算发展与政策论坛、数据中心联盟指导,中国IDC产 <详情>
2016-11-14 10:31:00
云技术 微软添加Kubernetes到Azure容器服务
Azure容器的一个主要特性是不支持谷歌Kubernetes编排系统,一项技术成为synonymous等同于Docker。 <详情>
2016-02-26 17:43:00
云技术 CoreOS是如何将Kubernetes的性能提高10倍的?
本文是CoreOS近期对Kubernetes扩容性的一些针对性试验、检测和研究,分析并且得出了对Kubernetes集群部署和pod吞吐量等Kubernetes集群性能问题、扩容性问题上一系列的尝试 <详情>

CSDN云计算

阅读量
阅读排行榜