ModelArts提供灵活开放的开发环境,您可以根据实际情况选择。 ModelArts提供了云化版本的Notebook,无需关注安装配置,即开即用,具体参见JupyterLab简介及常用操作。 ModelArts也提供了本地IDE的方式开发…
ModelArts支持在新版开发环境中开启MindInsight可视化工具。在开发环境中通过小数据集训练调试算法,主要目的是验证算法收敛性、检查是否有训练过程中的问题,方便用户调测。 MindInsight能可视化展现出训练过程中的标量、图…
ModelArts支持通过本地IDE环境远程连接到Notebook中,开发基于Pytorch、TensorFlow和MindSpore引擎的AI模型。具体操作流程如下图所示。 图1 使用本地IDE开发流程 配置本地IDE 在用户的PC端配置…
创建Notebook实例 登录ModelArts控制台。选择控制台区域,以“华北-北京四”为例。 在开发环境Notebook中创建基于pytorch1.4-cuda10.1-cudnn7-ubuntu18.04镜像的Notebook,具体操…
什么是动态扩容EVS 存储配置采用云硬盘EVS的Notebook实例, 存储盘是挂载至容器/home/ma-user/work/目录下, 可以在实例运行中的状态下,动态扩充存储盘容量,单次最大动态扩容100GB。 动态扩容EVS适用于哪些使…
操作场景 通过设置ModelArts在线服务和模型负载告警规则,用户可自定义监控目标与通知策略,及时了解ModelArts在线服务和模型负载状况,从而起到预警作用。 设置ModelArts服务和模型的告警规则包括设置告警规则名称、监控对象、…
背景描述 ModelArts推理默认使用公网访问在线服务。在线服务部署成功后,将为用户提供一个可调用的API,此API为标准Restful API。您可以在服务详情页面,调用指南页签中查看API接口公网地址。 图1 API接口公网地址 访问…
输入 系统预置物体检测输入输出模式,适用于物体检测的模型,使用该模式的模型被标识为物体检测模型。预测请求路径“/”,请求协议为“HTTP”,请求方法为“POST”,调用方需采用“multipart/form-data”内容类型,以“key”…
输入 系统预置预测分析输入输出模式,适用于预测分析的模型,使用该模式的模型将被标识为预测分析模型。预测请求路径“/”,请求协议为“HTTP”,请求方法为“POST”,调用方需采用“application/json”内容类型,发送预测请求,请…
AI模型开发完成后,在ModelArts服务中可以将AI模型创建为AI应用,将AI应用快速部署为推理服务,您可以通过调用API的方式把AI推理能力集成到自己的IT平台。 图1 推理简介 开发模型:模型开发可以在ModelArts服务中进行,…