ML模型 - 容器计算资源


EnOS企业分析平台的智能集市(MI Hub)为智能模型的使用者和数据科学家提供了一系列智能资产的集散中心,为模型开发者提供全面的模型注册流程和托管服务。


当一个模型从创作实验室中开发完成,或者是在第三方的系统中开发完成后,模型开发者可将其部署到生产环境中执行预测任务。基于用户模型更新的需求,用户可以通过金丝雀部署、蓝绿部署的方式将多个模型同时部署到生产环境中。智能集市为模型开发者提供科学有效管的版本管理工具,并在安全可控的环境中分享给终端用户和其他协作者,同时也可复用其他协同开发人员已探索或创作的智能资产。


有关智能集市(MI Hub)的详细信息,请参见 智能集市概述

申请ML模型容器计算资源场景

在使用智能集市部署机器学习模型前,需申请 ML模型-容器计算 资源。

注解

可申请资源数量上限为5。

资源规格说明

在部署模型时,可根据实际业务需要,选择合适的CPU、内存、和存储空间,申请相应的资源来支撑产品功能的使用。具体说明如下:

资源类型 资源说明
CU 1 CU = 1 Core CPU + 16 GB 内存,支持的申请范围为 2 ~ 320 CU
资源模式

选择主分区或子分区;

  • 主分区创建上限为1
  • 子分区创建上限为5
存储空间 支持的申请范围为 5 ~ 2000 GB
数据访问权限 开启后可读取 HDFS,数据仓库存放的数据

注解

ML模型资源在同一个OU下只能在一个申请出来的资源池上安装Dev Console,并且Dev Console可操作该OU下的其他资源池。ML模型资源将资源模式拆分为主分区和子分区,EAP的Dev Console须安装到主分区关联的命名空间下。