开放服务网格 Open Service Mesh 如何开放?
TL;DR
本文从服务网格发展现状、到 Open Service Mesh 源码,分析开放服务网格中的开放是什么以及如何开放。笔者总结其开放体现在以下几点:
- 资源提供者(Provider)接口和资源的重新封装:通过资源提供者接口抽象计算平台的资源,并封装成平台、代理无关的结构化类型,并由统一的接口
MeshCataloger
对外提供访问。虽然目前只有 Kubernetes 相关资源的 Provider 实现,但是通过抽象出的接口,可以兼容其他平台,比如虚拟机、物理机。 - 服务网格能力接口:对服务网格能力的抽象,定义服务网格的基础功能集。
- 代理控制面接口:这一层与反向代理,也就是 sidecar 的实现相关。实际上是反向代理所提供的接口,通过对接口的实现,加上
MeshCataloger
对资源的访问,生成并下发代理所需的配置。
背景
服务网格是什么
服务网格是在 2017年由 Buoyant 的 Willian Morgan 在 What’s a service mesh? And why do I need one? 给出了解释。
服务网格是处理服务间网络通信的基础设施组件,旨在从平台层面提供可观性、安全以及可靠性特性,以进程外的方式提供原本由部分应用层逻辑承载的基础能力,真正实现与业务逻辑的分离。典型的实现是与应用程序一起部署的可扩展网络代理(通常称为 sidecar 模型),来代理服务间的网络通信,也是服务网格特性的接入点。这些代理就组成了服务网格的数据平面,并由控制平面进行统一的管理。
服务网格现状
过去几年 Istio 有着成为服务网格事实标准的趋势,但时至今日,各种各样的服务网格产品如雨后春笋般层出不穷。CNCF 发布的 2021 Cloud Native survey results 中不难看出,这些网格产品也慢慢被市场所接受,并大有超越 Istio 的态势(部分地区)。
打开 CNCF 的服务网格全景图,会发现有不少服务网格的产品。实际上还有很多产品没有列出,比如 HashiCorp Consul Connect、OpenShift Service Mesh、Nginx Service Mesh、Kong Mesh、SOFAMesh 等等,当然还有我司的 Flomesh。此外还有一些云厂商基于开源的网格产品。
这些产品有些使用相同的数据平面,也有些不同,但控制平面各不相同。众多产品为大家提供了更多选择的同时,也由于各个产品间有着很强的隔离性,阻碍了生态系统的发展。这导致很难从一个实现切换到另一个,从控制面到到数据面,以及为其开发的管理后台都有重新开发的成本。此外,还有用户使用习惯的改变,无法做到透明无感知。
针对这种诉求,按照“惯例”就是借助标准接口来进行抽象,提供实现的互通性。比如容器网络、运行时、存储有 CNI、CRI、CSI 接口,服务网格也有其抽象接口 Service Mesh Interface(简称SMI),以及其实现也就是今天的主角 Open Service Mesh(简称OSM)。
SMI 与 OSM 简介
在 CNCF 的服务网格全景图中可以看到 SMI 和 OSM。
SMI 是什么
SMI 是服务网格的规范,重点关注在 Kubernetes 上运行的服务网格。它定义了一个可以由各种供应商使用的通用标准。允许最终用户的标准化和服务网格技术提供商的创新。SMI 实现了灵活性和互操作性,并涵盖了最常见的服务网格功能。
SMI 提供了 Kubernetes 服务网格的标准接口、常见服务网格场景的基本功能集、支持服务网格新功能的灵活性,以及服务网格技术生态的创新空间。
SMI 的目标是将概念与实现隔离开来,像软件开发过去一直做的那样,将复杂的东西分层抽象。
SMI 规范的最新版本是 0.6.0,覆盖了常见的流量访问控制、遥测、管理等基础服务网格能力。与规范对应的是 API,各个网格供应商基于该 API 进行实现。
OSM 是什么
OSM 是一个轻量级可扩展的云原生服务网格,是简单、完整且独立的服务网格解决方案,它允许用户统一管理、保护并获得针对高度动态微服务环境的开箱即用的可观察性功能。OSM 运行在 Kubernetes 之上控制平面实现了 xDS API 并配置了 SMI API,为应用程序注入 Envoy sidecar 容器作为代理,通过 SMI Spec 来引用网格中的服务。
虽然默认情况下使用 Envoy 作为数据平面,但是设计上提供接口的抽象,支持兼容 xDS 的代理,甚至其他的代理。
SMI 规范
SMI 规范为常见服务网格能力提供了一套规范:
- 流量策略:跨服务应用身份和传输加密等策略。
- 流量遥测:捕获关键指标,如错误率和延迟。
- 流量管理:在不同服务之前转移流量。
流量策略
这个规范是用来指定应用的流量表现形式,并与访问控制策略结合来定义特定流量在服务网格中的行为。
比如下面的定义中,/metrics
端点仅对外提供 GET 方式访问,比如 Prometheus。而其他端点,支持所有方式。
kind: TCPRoute
metadata:
name: the-routes
spec:
matches:
ports:
- 8080
---
kind: HTTPRouteGroup
metadata:
name: the-routes
spec:
matches:
- name: metrics
pathRegex: "/metrics"
methods:
- GET
- name: everything
pathRegex: ".*"
methods: ["*"]
下面的定义,则在前面的基础上,允许 Prometheus(使用 prometheus
ServiceAccount 部署)访问所有 service-a
ServiceAccount 的应用的 /metrics 端点。
kind: TrafficTarget
metadata:
name: path-specific
namespace: default
spec:
destination:
kind: ServiceAccount
name: service-a
namespace: default
rules:
- kind: TCPRoute
name: the-routes
- kind: HTTPRouteGroup
name: the-routes
matches:
- metrics
sources:
- kind: ServiceAccount
name: prometheus
namespace: default
流量管理
访问控制以外的流量管理,更多是体现在流量的拆分上。流量拆分 TrafficSplit
用于实现将流量按百分比拆分到同一应用程序的不同版本。
下面的定义中,将来自Firefox 请求全都路由到 website 的 v2
版本,实现金丝雀发布。在实际场景中的操作流程,参考 SMI 的示例。
kind: TrafficSplit
metadata:
name: ab-test
spec:
service: website
matches:
- kind: HTTPRouteGroup
name: ab-test
backends:
- service: website-v1
weight: 0
- service: website-v2
weight: 100
---
kind: HTTPRouteGroup
metadata:
name: ab-test
matches:
- name: firefox-users
headers:
user-agent: ".*Firefox.*"
流量遥测
流量遥测还是处于很早期的版本 v1alpha1
。
该规范描述了一种资源,该资源为工具提供了一个通用集成点,这些工具可以通过使用与 HTTP 流量相关的指标而受益。对于即时指标它遵循 metrics.k8s.io
的模式,这些指标可被 CLI 工具、HPA 扩展或自动化金丝雀更新使用。
比如下面定义了从 Pod foo-775b9cbd88-ntxsl
到 Pod baz-577db7d977-lsk2q
的延迟以及成功率指标。
kind: TrafficMetrics
# See ObjectReference v1 core for full spec
resource:
name: foo-775b9cbd88-ntxsl
namespace: foobar
kind: Pod
edge:
direction: to
side: client
resource:
name: baz-577db7d977-lsk2q
namespace: foobar
kind: Pod
timestamp: 2019-04-08T22:25:55Z
window: 30s
metrics:
- name: p99_response_latency
unit: seconds
value: 10m
- name: p90_response_latency
unit: seconds
value: 10m
- name: p50_response_latency
unit: seconds
value: 10m
- name: success_count
value: 100
- name: failure_count
value: 100
OSM 的设计
OSM 的控制层面包含了五个核心组件:
- Proxy Control Plane:代理控制面在操作服务网格中起着关键作用,所有以 sidecar 方式运行的代理,都会与其建立连接,并不断地接受配置的更新。这个组件实现反向代理所需的接口。目前 OSM 使用 Envoy 作为其默认的代理实现,因此这个组件实现了 Envoy 的 xDS API。
- Certificate Manger:证书管理器组件为网格中的服务提供 TLS 证书,这些证书用于使用 mTLS 建立和加密服务之间的连接。
- Endpoints Providers:端点提供者是与计算平台(Kubernetes 集群、云主机、本地机器)交互的一系列组件的统称。端点提供者将服务名解析为 IP 地址。
- Mesh Specification:网格规范是现有SMI 规范组件的封装。该组件抽象了为 YAML 定义的特定存储。这个模块实际上是SMI Spec 的 Kubernetes informers的封装。
- Mesh Catalog:是 OSM 的核心组件,它将其他组件的输出组装成新的结构。新的结构可以转换为代理配置并通过代理控制面分发给所有的代理。
这几个抽象的组件,都有接口与其一一对应,
- Proxy Control Plane:Envoy
AggregatedDiscoveryServiceServer
- Certificate Manger:
certificate.Manager
- Endpoints Providers:
endpoint.Provider
- Mesh Specification:
smi.MeshSpec
- Mesh Catalog:
catalog.MeshCataloger
源码分析
代理控制平面接口
基于 Evnoy 代理的服务网格实现,代理控制面都要实现 AggregatedDiscoveryServiceServer
接口。目前 OSM 实现的是 V3 版本的接口。深入到代码中,OSM 的 ads.Server
实现了 AggregatedDiscoveryServiceServer
接口。
从 ads.Server
的定义中可以看到其他组件接口 catalog.MeshCataloger
、certificate.Manager
的身影。
// Server implements the Envoy xDS Aggregate Discovery Services
type Server struct {
catalog catalog.MeshCataloger
proxyRegistry *registry.ProxyRegistry
xdsHandlers map[envoy.TypeURI]func(catalog.MeshCataloger, *envoy.Proxy, *xds_discovery.DiscoveryRequest, configurator.Configurator, certificate.Manager, *registry.ProxyRegistry) ([]types.Resource, error)
xdsLog map[certificate.CommonName]map[envoy.TypeURI][]time.Time
xdsMapLogMutex sync.Mutex
osmNamespace string
cfg configurator.Configurator
certManager certificate.Manager
ready bool
workqueues *workerpool.WorkerPool
kubecontroller k8s.Controller
// ---
// SnapshotCache implementation structrues below
cacheEnabled bool
ch cachev3.SnapshotCache
srv serverv3.Server
// When snapshot cache is enabled, we (currently) don't keep track of proxy information, however different
// config versions have to be provided to the cache as we keep adding snapshots. The following map
// tracks at which version we are at given a proxy UUID
configVerMutex sync.Mutex
configVersion map[string]uint64
msgBroker *messaging.Broker
}
此处,不得不提一下 messaging.Broker
,OSM 控制平面的“消息总线”。集群中,任何资源(K8s 原生资源、OSM 定义资源、SMI 资源)的变更,都会以事件的方式发布到消息总线。
特定事件消息的订阅方在接收到事件后就会执行特定的逻辑。
这里 ads.Server
在启动 grpc 服务后,便会订阅 ProxyUpdate
事件,收到事件会触发对应的逻辑:通过 catalog.MeshCataloger
的实现获取结构化的数据,进而转换成代理的配置并发送给代理。
在 OSM 中 ProxyUpdate
事件是一些事件的集合,这些事件最终都会被**“当作”** ProxyUpdate
事件进行处理。
网格目录接口
Mesh Catalog 的接口 catalog.MeshCataloger
,定义了一些用于生成结构化数据的方法。这些结构化的数据,是在 K8s 原生资源、SMI 自定义资源的基础上的封装。作为底层资源和代理控制面的中间层,对上隔离了底层资源的实现,对下统一了资源的对外暴露形式。
// MeshCataloger is the mechanism by which the Service Mesh controller discovers all Envoy proxies connected to the catalog.
type MeshCataloger interface {
// ListOutboundServicesForIdentity list the services the given service identity is allowed to initiate outbound connections to
ListOutboundServicesForIdentity(identity.ServiceIdentity) []service.MeshService
// ListOutboundServicesForMulticlusterGateway lists the upstream services for the multicluster gateway
ListOutboundServicesForMulticlusterGateway() []service.MeshService
// ListInboundServiceIdentities lists the downstream service identities that are allowed to connect to the given service identity
ListInboundServiceIdentities(identity.ServiceIdentity) []identity.ServiceIdentity
// ListOutboundServiceIdentities lists the upstream service identities the given service identity are allowed to connect to
ListOutboundServiceIdentities(identity.ServiceIdentity) []identity.ServiceIdentity
// ListServiceIdentitiesForService lists the service identities associated with the given service
ListServiceIdentitiesForService(service.MeshService) []identity.ServiceIdentity
// ListAllowedUpstreamEndpointsForService returns the list of endpoints over which the downstream client identity
// is allowed access the upstream service
ListAllowedUpstreamEndpointsForService(identity.ServiceIdentity, service.MeshService) []endpoint.Endpoint
// GetIngressTrafficPolicy returns the ingress traffic policy for the given mesh service
GetIngressTrafficPolicy(service.MeshService) (*trafficpolicy.IngressTrafficPolicy, error)
// ListInboundTrafficTargetsWithRoutes returns a list traffic target objects composed of its routes for the given destination service identity
ListInboundTrafficTargetsWithRoutes(identity.ServiceIdentity) ([]trafficpolicy.TrafficTargetWithRoutes, error)
// GetEgressTrafficPolicy returns the Egress traffic policy associated with the given service identity.
GetEgressTrafficPolicy(identity.ServiceIdentity) (*trafficpolicy.EgressTrafficPolicy, error)
// GetKubeController returns the kube controller instance handling the current cluster
GetKubeController() k8s.Controller
// GetOutboundMeshTrafficPolicy returns the outbound mesh traffic policy for the given downstream identity
GetOutboundMeshTrafficPolicy(identity.ServiceIdentity) *trafficpolicy.OutboundMeshTrafficPolicy
// GetInboundMeshTrafficPolicy returns the inbound mesh traffic policy for the given upstream identity and services
GetInboundMeshTrafficPolicy(identity.ServiceIdentity, []service.MeshService) *trafficpolicy.InboundMeshTrafficPolicy
}
接口的实现 catalog.MeshCatalog
,也是通过几个接口获取底层的资源:
endpoint.Provider
:endpoint.Endpoint
抽象资源的提供者,在目前 OSM 版本中提供获取 Kubernetes Endpoint 的实现。service.Provider
:service.MeshService
抽象资源的提供者,目前同样是提供获取 Kubernetes Service 的实现。smi.MeshSpec
:故名思义针对是 SMI 自定义资源,直接使用 SMI 的定义,并没有重新抽象封装。k8s.Controller
:用于获取 Kubernetes 原生资源,比如 ServiceAcount、Namespace、Pods 等。policy.Controller
:用于获取 OSM 的Egress
和IngressBackend
资源。
// MeshCatalog is the struct for the service catalog
type MeshCatalog struct {
endpointsProviders []endpoint.Provider
serviceProviders []service.Provider
meshSpec smi.MeshSpec
certManager certificate.Manager
configurator configurator.Configurator
// This is the kubernetes client that operates async caches to avoid issuing synchronous
// calls through kubeClient and instead relies on background cache synchronization and local
// lookups
kubeController k8s.Controller
// policyController implements the functionality related to the resources part of the policy.openrservicemesh.io
// API group, such as egress.
policyController policy.Controller
}