Federator.ai® for OpenShift


容器的采用正在增长,Kubernetes正在成为容器管理平台事实上的标准。 无论容器采用是在本地,公共云还是两者中进行,操作开销都是巨大的。 IT管理员无法预见应用程序的计算资源需求,因此他们必须为工作负载保留比所需更多的计算资源。 管理计算资源和优化多个云的成本是艰巨的任务。 Federator.ai,ProphetStor的IT运营人工智能(AIOps)平台,提供智能来协调VM(虚拟机)或裸机之上的容器资源,允许用户在不需要管理底层计算资源的情况下运行应用程序。

产品概述


过度配置的计算资源以及不正确的VM数量和/或大小的部署是多云环境中的两个常见问题。 Federator.ai通过在多云环境中编排资源来解决这些问题。 如图1所示,Federator.ai优化了Day-1部署和Day-2操作的成本。 它利用由OpenShift收集的Prometheus上存储的指标来动态预测资源消耗,并为pod建议适当数量的资源,为典型工作负载提供20-60%的浪费资源减少。 用户可以堆叠预测的pod资源,以确定要部署的VM的正确数量和大小,并启用这些建议的自动执行。

  • Text Hover
使用Federator.ai,用户不再需要为每个容器指定CPU和内存请求和限制。 它建议最佳的pod配置。 直接影响是配置的资源将准确且动态地匹配工作负载。 它还有效地减少了欠配置问题的发生,例如内存不足(OOM)。

主要特点

在任何OpenShift环境中部署Federator.ai之后,它会学习应用程序资源使用模式并预测所需的资源到容器级别。 Federator.ai还提供了一个显示每个容器建议的仪表板。 Federator.ai for OpenShift具有以下主要功能:
多层工作负载预测:Federator.ai应用多种分析工具(如机器学习和信号处理)来预测容器化应用程序和节点资源使用情况,作为pod资源建议的基础。 Federator.ai支持物理和虚拟CPU和内存。
应用程序感知推荐执行:应用程序资源需求确定容器的数量和大小。 Federator.ai利用基于工作负载模式的资源使用预测来推荐正确的pod大小。
CPU和内存的策略驱动规划:Federator.ai根据用户指定的策略为不同类型的应用程序规划集群范围的CPU和内存分配。
企业就绪:Federator.ai旨在与任何OpenShift操作的环境一起使用。 Federator.ai基于运营商框架提供应用程序生命周期管理,并与Red Hat OpenShift无缝协作。
易于安装:使用一个kubectl命令或单击OpenShift Web控制台即可轻松安装Federator.ai。用户将在一小时内获得第一个推荐。
针对最佳资源规划的持续建议:Federator.ai不断生成建议,并通过更多累积的指标数据更好地学习。
Dashboard for visualizing prediction and recommendation 
  • Text Hover
Red Hat Summit 2019 Keynote Presentation

产品效益


Federator.ai旨在提供最佳的资源规划建议,帮助企业做出更好的决策。 Federator.ai的效益包括:
  • 节省高达60%的资源:Federator.ai主要用于减少不必要的支出并提高企业和云提供商的应用服务质量。 ProphetStor数据科学家和工程团队共同合作,构建最先进的AIOps解决方案,以减少不同基础设施层的资源浪费。借助专利预测技术,Federator.ai可以同时减少开支并提供必要的性能。 
  • 提高运营效率:Federator.ai使用户无需持续监控OpenShift群集利用率和云支出。用户也不需要手动记录使用数据,计算最佳配置,并根据计算更改配置。使用Federator.ai时,通常会完成这些任务。 
  • 使用数字智能缩短手动配置时间:Federator.ai允许用户随时打开优化引擎。 Federator.ai将在适当的时间使用正确的值重新配置pod。 
Share