Slime 2022 展望:把 Istio 的复杂性塞入智能的黑盒

网易数帆轻舟微服务团队很早就开始使用 Istio 做服务网格。在实践过程中,我们开发了很多 Istio 周边模块,方便了自身及网易集团内部客户使用 Istio。为了回馈社区,我们系统整理了这些模块,并选择了一部分,在 2021 年初开源出 Slime 项目(github.com/slime-io/slime)。

Slime 项目旨在解决 Istio 使用上的痛点,方便用户使用 Istio 的高级功能,并始终坚持可以无缝对接 Istio,无需任何的定制化改造的原则,极大降低了使用门槛。
这一年多来,Slime 在架构、功能、工程方面做了很多变化和尝试,得到了很大提升,并且在 2021 年 12 月受邀加入 Istio 生态,正式成为 Istio Ecosystem - integrations 的成员。
今天,本文将会介绍 Slime 现阶段的主要能力,以懒加载和智能限流模块为主,并展望未来发展,希望能让更多的 ServiceMesher 了解 Slime,参与 Slime,一起更轻松地使用服务网格。
Istio 的全量推送性能问题,是所有 Istio 使用者都要面对的问题。
众所周知,早期 Istio 的配置下发非常粗糙,直接全量推送。这意味着,随着服务网格中业务规模的不断扩大,控制面需要下发的内容越来越多,数据面需要接收的内容也不断增长,这必然带来性能问题。集群中往往有多个业务系统。一个业务系统的应用感知所有业务系统的配置,这意味着推送大量冗余配置,也是不合理的。如下图左侧所示,A 只和 B 有关系,却被推送了 C 和 D 的配置。另一个问题是,推送的频率会很高。当一个服务发生变化,控制面要通知数据面所有 SidecarProxy。

于是,Istio 1.1 版本提供了解决方案 - Sidecar CRD (本文会称之为 SidecarScope,以和 Envoy 实现的 SidecarProxy 做区分)。用户可以在 SidecarScope 中描述 SidecarProxy 需要关心的服务信息,借此屏蔽无关的服务配置下发。结果如上图右侧所示,服务配置了 SidecarScope 后,收到的配置精简了,不再包含无关的配置。同时,不相关服务的配置变化也不会再通知,减少了推送频率。
一个典型的 SidecarScope 样例如下,样例表示允许匹配的 SidecarProxy 感知 Namespace prod1 和 istio-system 中的所有服务以及 Namespace prod2 中 ratings 服务配置信息。
apiVersion: networking.istio.io/v1alpha3kind: Sidecarmetadata:name: defaultnamespace: prod1spec:egress:- hosts:- "prod1/*"- "prod2/ratings.prod2.svc.cluster.local"- istio-system/*
Istio 提供的 SidecarScope 可以解决配置全量下发的问题,看起来问题解决了。但是在实践中,手动管理 SidecarScope 很困难。一方面是服务依赖的信息不好整理,另一方面一旦配置有误,会导致调用出现问题。这非常不利于服务网格大规模落地。我们迫切希望能够更智能地管理 SidecarScope。
懒加载模块就是用于解决上述问题。懒加载可自动对接服务网格,在转发过程中支持 Istio 所有网络治理能力,无性能问题。它可以帮助业务人员使用了 SidecarScope,而无需直接管理它。
我们认为,服务依赖关系可以分成运行过程中不断变化的动态服务依赖和业务人员可以提前知晓的静态服务依赖两类。对于动态依赖,我们设计了一套机制,实时获取服务依赖并修改 SidecarScope ;对于静态依赖,我们着重简化了配置规则,使其更加人性化。
懒加载包含 Global-sidecar 和 Lazyload Controller 两个组件。
Global-sidecar: 兜底组件,当源服务无法找到目标服务时,进行兜底转发,并生成相应的服务依赖 Metric
Lazyload Controller: 控制组件,处理 Global-sidecar 上报的 Metric,修改源服务的 SidecarScope,为其增加相应配置
简化的动态配置更新流程如下所示

服务 A 的 SidecarScope 初始是空白,没有服务 B 的配置信息
服务 A 发起对服务 B 的第一次访问,由于服务 A 的 SidecarProxy 没有服务 B 的配置信息,请求发送到兜底组件 Global-Sidecar
兜底组件 Global-Sidecar 拥有全量服务配置信息,自然包含服务 B ,转发请求到服务 B,首次请求成功,并生成 Metric(A->B)
Lazyload Controller 感知到 Metric(A->B) ,修改 SidecarScope A,为其增加服务 B 的配置
服务 A 第二次访问服务 B 时,服务 A 的 SidecarProxy 已经有服务 B 的配置,请求直达服务 B
详细的流程图如下

其中 ServiceFence 是懒加载中引入的 CRD,作用是存储与服务相关的 Metric,实现 SidecarScope 的更新。
详细的介绍可参考 懒加载教程 - 架构 (本文教程链接皆可通过“阅读原文”跳转)
懒加载发展早期,我们聚焦于动态服务依赖关系的获取,这看起来智能又省心。然而在实践中,我们发现很多用户出于安全考虑,往往希望直接配置一些规则到 SidecarScope 中,即配置静态服务依赖关系。于是,我们开始思考如何灵活配置静态依赖关系。
于是,我们设计出一套很好用的静态规则,并将其写到 ServiceFence 中(是的,就是动态配置更新中用于存储 Metric 的 CRD,它在这里发挥了新作用)。之后 Lazyload Controller 根据这些规则更新相应的 SidecarScope 。
现在我们提供的静态配置规则有三类:
依赖某些 Namespace 所有服务
依赖具有某些 label 的所有服务
依赖某个特定服务
此处以 label 匹配举个例子,假如应用部署如下图所示

现在为服务 productpage 启用懒加载,已知 productpage 的依赖规则为
具有 label app: details 的所有服务
具有 label app: reviews 与 version: v2 的所有服务
那么对应的 ServiceFence 写法如下
---apiVersion: microservice.slime.io/v1alpha1kind: ServiceFencemetadata:name: productpagenamespace: defaultspec:enable: truelabelSelector: # Match service label, multiple selectors are 'or' relationship- selector:app: details- selector: # labels in one selector are 'and' relationshipapp: reviewsversion: v2
Lazyload Controller 会根据实际匹配结果,填充 SidecarScope。实际得到的 SidecarScope 如下,上图中绿色的服务全部选中
apiVersion: networking.istio.io/v1beta1kind: Sidecarmetadata:name: productpagenamespace: defaultspec:egress:- hosts:- '*/details.ns1.svc.cluster.local'- '*/details.ns2.svc.cluster.local'- '*/details.ns3.svc.cluster.local'- '*/reviews.ns2.svc.cluster.local'- istio-system/* # istio部署的ns- mesh-operator/* # lazyload部署的nsworkloadSelector:labels:app: productpage
终于,我们不用在上线前反复确认,是否填齐了所有服务依赖,更不用在服务依赖关系变更时,手动修改 SidecarScope。配置两三条 ServiceFence 的规则就可搞定一切。
详细的介绍可参考 懒加载教程 - 静态服务依赖关系添加
在“动态配置更新”章节中,我们解释了 Metric 是动态依赖关系生成的根本。目前懒加载支持的 Metric 类型有两个:Prometheus 和 AccessLog。

使用 Prometheus Mode,指标由各个业务应用的 SidecarProxy 产生。Lazyload Controller 查询 Prometheus 获取指标。此模式需要服务网格对接 Prometheus。
使用 AccessLog Mode,指标来源是 Global-sidecar 的 AccessLog。Global-sidecar 在兜底转发的同时,会生成固定格式的 AccessLog,发给 Lazyload Controller 进行处理。此模式无需外部依赖,更为轻便。
懒加载模块有两种使用模式,Namespace 模式和 Cluster 模式。两种模式中,Lazyload Controller 都是全局唯一的,不同点在于前者的 Global-sidecar 是 Namespace 级别,后者是 Cluster 级别。如下图所示

对于 N 个 Namespace,Namespace 模式的懒加载组件数是 O(N),Cluster 模式则是 O(1)。现在我们更推荐使用 Cluster 模式。如上图所示,每个集群只需要部署两个 Deployment,简洁明了。
详细的介绍可参考 懒加载教程 - 安装和使用
随着 Istio 移除 Mixer,在服务网格中实现限流变得困难起来。
场景少:Envoy 的本地限流组件功能简单,不能实现全局均分、全局共享限流等高阶用法
配置复杂:本地限流需要借助 Envoy 内建插件 envoy.local.ratelimit,用户不得不面对复杂的 EnvoyFilter 配置
条件固定:没有根据资源使用率等实际情况,自动调整限流配置的能力
为了解决这个问题,我们推出了智能限流模块。智能限流模块具有很多优势,具体来说
场景多:支持本地限流、全局均分限流、全局共享限流
配置方便:配置简单,可读性好,无需配置 EnvoyFilter
条件自适应:限流触发的条件可结合 Prometheus Metric,动态计算,实现自适应限流效果
我们设计了一个新的 CRD - SmartLimiter,其配置规则接近自然语义。模块的逻辑分成两部分
SmartLimiter Controller 获取监控数据,更新 SmartLimiter CR
SmartLimiter CR 到 EnvoyFilter 的转换
限流模块架构如下

红色是本地限流,绿色是全局均分限流,而蓝色是全局共享限流。详细的介绍可参考 智能限流教程 - 架构
本地限流是最基础的使用场景。SmartLimiter 替服务的每个 Pod 设置固定的限流数值。底层依赖 Envoy 内建插件envoy.local.ratelimit。标识字段是action.strategy: single。
一个样例如下,表示 reviews 服务每个 Pod 的 9080 端口每分钟限流 60 次。
apiVersion: microservice.slime.io/v1alpha2kind: SmartLimitermetadata:name: reviewsnamespace: defaultspec:sets:_base: # 匹配所有服务,关键词 _base ,也可以是你定义的 subset ,如 v1descriptor:- action: # 限流规则fill_interval:seconds: 60quota: '100'strategy: 'single'condition: 'true' # 永远执行该限流target:port: 9080
全局均分限功能根据用户设置的总的限流数,然后平均分配到各个 Pod。底层依赖 Envoy 内建插件envoy.local.ratelimit。标识字段是action.strategy: average。
一个样例如下,表示 reviews 服务所有 Pod 的 9080 端口每分钟一共限流 60 次,具体到每个 Pod 的限流次数由action.quota计算得出。
apiVersion: microservice.slime.io/v1alpha2kind: SmartLimitermetadata:name: reviewsnamespace: defaultspec:sets:_base:descriptor:action:fill_interval:seconds: 60quota: '100/{{._base.pod}}' # 如果reviews实例数是2,则每个Pod限流每分钟50次strategy: 'average'condition: 'true'target:port: 9080
全局共享限流限制目标服务的所有 Pod 可访问的总次数,不会像全局均分限流限制在平均值,比较适用于访问不均的场景。此场景会维护一个全局计数器,底层依赖 Envoy 插件envoy.filters.http.ratelimit和 RLS 服务提供的全局计数能力。标识字段是action.strategy: global。
一个样例如下,表示 reviews 服务所有 Pod 的 9080 端口每分钟一共限流 60 次,不均分到每个 Pod 。
apiVersion: microservice.slime.io/v1alpha2kind: SmartLimitermetadata:name: reviewsnamespace: defaultspec:sets:_base:#rls: 'outbound|18081||rate-limit.istio-system.svc.cluster.local' 如果不指定默认是该地址descriptor:- action:fill_interval:seconds: 60quota: '100'strategy: 'global'condition: 'true'target:port: 9080
上述三个场景中,触发限流的条件字段condition除了可以是固定数值(true),还可以是 Prometheus Query 的计算结果。后者就是自适应限流。此场景和上述三个场景是交叉关系。
用户可以自定义需要获取的监控指标,比如定义一个 handlercpu.sum,其数值等于sum(container_cpu_usage_seconds_total{namespace="$namespace",pod=~"$pod_name",image=""}),后面就可以将触发限流的condition设置为{{._base.cpu.sum}}>100的形式,实现自适应限流。
一个样例如下,表示 reviews 服务每个 Pod 的 9080 端口只有当 CPU 使用值大于 100 时,每分钟限流 60 次。对比 3.4 中的例子,condition 不再永远为真,是否触发限流,由 SmartLimiter Controller 根据应用实际状态判断,更加智能化。
apiVersion: microservice.slime.io/v1alpha2kind: SmartLimitermetadata:name: reviewsnamespace: defaultspec:sets:_base: # 匹配所有服务,关键词 _base ,也可以是你定义的 subset ,如 v1descriptor:- action: # 限流规则fill_interval:seconds: 60quota: '100'strategy: 'single'condition: '{{._base.cpu.sum}}>100' 如果服务的所有负载大于100,则执行该限流target:port: 9080
这一节简单介绍下 Slime 的项目架构,帮助大家理解 Slime 多模块场景下的代码仓库和部署形态。架构如下图所示

Slime 的项目架构遵守“高内聚,低耦合”的设计思想,包含三块
Modules: 提供某个功能的独立模块,像懒加载、智能限流都属于 Modules
Framework: 模块的底座,提供 Modules 需要的基础能力,比如日志输出、监控指标获取
Slime-boot: 启动组件,负责拉起 Framework 和指定的 Modules
整个代码仓库分成 1+N。Slime-boot 和 Framework 位于 slime 主仓库 slime-io/slime,懒加载等模块全部位于独立仓库。
部署形式也是 1+N 的,即一个 Slime Deployment 包含一个公用的 Framework 和用户想要的 N 个模块。好处是,无论使用多少 Slime 模块,部署时都是一个 Deployment,很好解决了微服务组件过多的维护痛点。
Slime 开源至今一年多的时间,除了模块层面新功能的添加、已有功能的完善,还经过了一次架构大调整和 Metric 体系的重构,可以说,现在 Slime 的发展已经走上正轨,进入新的阶段。未来规划可以分为已有模块的提升和新模块的引入,下面详细说明。



相关阅读
Slime 项目地址:https://github.com/slime-io/slime
网易数帆开源项目概览:https://sf.163.com/opensource?tab=opensource
作者简介:王晨宇,网易数帆资深服务端开发工程师,Istio 社区成员,Slime Maintainer,熟悉 Istio 与 Kubernetes,主要负责 Slime 及网易数帆轻舟服务网格的设计与研发,具有多年云原生相关领域的实践经验。
TDengine 开源至今,安装实例已超 10w,用户遍布全球。这些用户主要来自物联网、工业互联网、车联网、物流、IT 运维监测、电力、智慧城市、智慧矿山等领域。这其中,不仅有大量的中小企业,也有很多全球 500 强企业,包括蔚来、理想、京东、顺丰等。5 月 21 日 14:00-18:00,我们邀请到 4 位 TDengine 的用户线上分享如何使用 TDengine 处理不同场景(工业物联网、新能源、数据治理等)的海量时序数据。点击阅读原文立刻预约。

点个在看少个 bug 关注公众号:拾黑(shiheibook)了解更多 [广告]赞助链接:
四季很好,只要有你,文娱排行榜:https://www.yaopaiming.com/
让资讯触达的更精准有趣:https://www.0xu.cn/
关注网络尖刀微信公众号随时掌握互联网精彩
- 1 中法关系如何“走得更稳更好” 7904690
- 2 中国队今晚将再次对阵日本队 7808315
- 3 你的婚纱照可能被人卖了 7712552
- 4 今年流感为啥这么“凶” 7618805
- 5 男子海洋馆内抽烟被白鲸喷水浇灭 7520963
- 6 五粮液降价到800多元?公司回应 7424877
- 7 全网寻找的用围巾擦地女乘客找到了 7333512
- 8 40岁后这两项体检不要跳过 7236930
- 9 又一个10万亿大省要来了 7139337
- 10 2000多年前中国水利设计有多超前 7047264




![3MimE_过来为师办公室[毛球]](https://imgs.knowsafe.com:8087/img/aideep/2023/9/24/8756507c54acc73b315ed67b0f36e1e7.jpg?w=250)


InfoQ
