FinOps模式如何落地?
Posted: Thu Dec 26, 2024 10:21 am
到目前为止,我们已经了解到,云服务的正确财务管理是任何云项目成功的关键方面。那么如何在现实中应用 FinOps 原则呢?
无论公司的成熟度如何,FinOps 框架都可以按照明确定义的路径采用。在由米兰理工学院云转型观察站组织的第一次会议“云和 FinOps 成本管理”中,描述了构成FinOps 生命周期的三个阶段。
第一阶段提供了创建共同责任所需的可见性。第二阶段旨在识别效率机会并确定其价值。最后,最后一个阶段定义并实施实现技术、财务和业务目标的流程。让我们详细了解 FinOps 生命周期的三个阶段:
1. 第一阶段:告知
FinOps 第一阶段的重点是对云费用进行分类,以获得准 老挝电报数据 确的退款和退款。在此阶段,还分析了公司团队使用云的动态。
第一阶段的 KPI:通过退款正确分配云成本的百分比
2.第二阶段:优化
一旦确定了云费用并获得了必要的技能,公司就必须优化其云服务,例如调整活动规模和自动关闭。通过对公司需求的普查,您可以限制通常更昂贵的按需服务的使用。
第二阶段的 KPI:承诺云与按需云的百分比
3. 第三阶段:运营
组织开始持续监控业务目标和基准 KPI,参与围绕业务、财务和运营利益相关者构建的云成本卓越中心,这些利益相关者还定义了适当的策略和治理模型。
第三阶段KPI:云支出预测与实际支出的偏差
FinOps 和云原生:模型的技术变体
如果您已经定义了适当的团队并了解采用 FinOps 模型的各个阶段,那么您距离更高效地管理云服务就只有一步之遥。然而,现在我们需要从技术角度 了解如何实施上一段所述的基准测试/优化阶段中确定的准则。
在云原生环境中,参考架构利用基于Kubernetes的集群中托管的微服务模型 (无论是RedHat 的OpenShift 、 AWS 的Elastic Kubernetes Service 还是 Microsoft Azure 的Azure Kubernetes Service)。在这种情况下,可以通过技术能力来调整、管理和监控已分配或将要分配的资源。这些功能可以在部署/设计阶段定义,包括:
资源请求/限制:在 Pod 级别,它们标识可以请求的资源以及服务所需的资源;
服务质量:工作负载类型,以优化调度程序使用节点的密度
命名空间:集群内的逻辑隔离,允许您定义其中包含的 Pod 可以使用的最大 CPU/RAM 限制;
Autoscaler:无论是垂直还是水平,它们都有助于调整集群内给定 POD 的副本数量。
尊重和教育不要忽视这些准则(甚至分发设置),使您能够控制计算能力的实际使用- 无论是云还是本地 - 并最大化其使用密度。
最后,通过适当的数据收集和报告工具,可以将技术指标(基于 CPU/RAM)转换为更容易理解的货币价值。这完全符合透明度和报告的关键概念,所有公司利益相关者都可以轻松咨询和理解。
无论公司的成熟度如何,FinOps 框架都可以按照明确定义的路径采用。在由米兰理工学院云转型观察站组织的第一次会议“云和 FinOps 成本管理”中,描述了构成FinOps 生命周期的三个阶段。
第一阶段提供了创建共同责任所需的可见性。第二阶段旨在识别效率机会并确定其价值。最后,最后一个阶段定义并实施实现技术、财务和业务目标的流程。让我们详细了解 FinOps 生命周期的三个阶段:
1. 第一阶段:告知
FinOps 第一阶段的重点是对云费用进行分类,以获得准 老挝电报数据 确的退款和退款。在此阶段,还分析了公司团队使用云的动态。
第一阶段的 KPI:通过退款正确分配云成本的百分比
2.第二阶段:优化
一旦确定了云费用并获得了必要的技能,公司就必须优化其云服务,例如调整活动规模和自动关闭。通过对公司需求的普查,您可以限制通常更昂贵的按需服务的使用。
第二阶段的 KPI:承诺云与按需云的百分比
3. 第三阶段:运营
组织开始持续监控业务目标和基准 KPI,参与围绕业务、财务和运营利益相关者构建的云成本卓越中心,这些利益相关者还定义了适当的策略和治理模型。
第三阶段KPI:云支出预测与实际支出的偏差
FinOps 和云原生:模型的技术变体
如果您已经定义了适当的团队并了解采用 FinOps 模型的各个阶段,那么您距离更高效地管理云服务就只有一步之遥。然而,现在我们需要从技术角度 了解如何实施上一段所述的基准测试/优化阶段中确定的准则。
在云原生环境中,参考架构利用基于Kubernetes的集群中托管的微服务模型 (无论是RedHat 的OpenShift 、 AWS 的Elastic Kubernetes Service 还是 Microsoft Azure 的Azure Kubernetes Service)。在这种情况下,可以通过技术能力来调整、管理和监控已分配或将要分配的资源。这些功能可以在部署/设计阶段定义,包括:
资源请求/限制:在 Pod 级别,它们标识可以请求的资源以及服务所需的资源;
服务质量:工作负载类型,以优化调度程序使用节点的密度
命名空间:集群内的逻辑隔离,允许您定义其中包含的 Pod 可以使用的最大 CPU/RAM 限制;
Autoscaler:无论是垂直还是水平,它们都有助于调整集群内给定 POD 的副本数量。
尊重和教育不要忽视这些准则(甚至分发设置),使您能够控制计算能力的实际使用- 无论是云还是本地 - 并最大化其使用密度。
最后,通过适当的数据收集和报告工具,可以将技术指标(基于 CPU/RAM)转换为更容易理解的货币价值。这完全符合透明度和报告的关键概念,所有公司利益相关者都可以轻松咨询和理解。