Azure ML 服务中的度量文档太大

Posted

技术标签:

【中文标题】Azure ML 服务中的度量文档太大【英文标题】:Metric Document is too large in Azure ML Service 【发布时间】:2020-02-29 15:12:00 【问题描述】:

我正在尝试保存指标:在 100 和 50 个时期内每个时期的损失、验证损失和 mAP,但在实验结束时我有这个错误: 运行失败:RunHistory 终结失败:ServiceException:代码:400 消息:(ValidationError)度量文档太大

我正在使用此代码来保存指标

run.log_list("loss", history.history["loss"])
run.log_list("val_loss", history.history["val_loss"])
run.log_list("val_mean_average_precision", history.history["val_mean_average_precision"])

我不明白为什么只保存 3 个指标会超出 Azure ML 服务的限制。

【问题讨论】:

您不仅记录了三个值,还记录了三个值列表。每个列表有多长? 是的,每个 100 个元素 hm 我找不到任何关于此限制的公共文档,因此我建议您在 Azure 门户中打开官方支持票证 【参考方案1】:

您可以像这样将运行历史记录列表写入更小的块:

run.log_list("loss", history.history["loss"][:N])
run.log_list("loss", history.history["loss"][N:])

在内部,运行历史记录服务将具有相同度量名称的块连接到一个连续的列表中。

【讨论】:

这在此处记录:docs.microsoft.com/en-us/azure/machine-learning/…。

以上是关于Azure ML 服务中的度量文档太大的主要内容,如果未能解决你的问题,请参考以下文章

Azure ML 和 Azure ML 实验之间的区别

如何在 Azure ML 服务计算集群上并行工作?

将自定义 R 脚本部署为 Web 服务 Azure ML Studio

使用ML.NET和Azure Function进行机器学习 - 第1部分

如何将 Azure 数据湖存储连接到 Azure ML?

(413) 请求实体太大 - 在 Azure 上上传 Wcf 时