Swift中Vision / CoreML对象识别器的精度

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Swift中Vision / CoreML对象识别器的精度相关的知识,希望对你有一定的参考价值。

我只是想开始学习苹果支持的令人难以置信的框架,当我浏览网页时,我遇到了一个非常基本的问题,目前还没有人说过:CoreML对象识别器有多精确?意味着CoreML应用程序可以区分多少?

例如:

如果我想尝试创建一个汽车模型识别器,它能告诉大众高尔夫4的大众高尔夫3吗?

它是否能够区分不同的直升机(摩托车)?

它可以说出啤酒和普通汽水瓶之间的区别吗?

答案

这完全取决于您设计的模型以及如何训练它。它与Core ML本身没什么关系,因为Core ML对汽车,摩托车或汽水瓶一无所知。您的模型捕获了这些知识。如果您可以训练可以执行此类操作的模型,那么Core ML可能会运行它。

找出一个模型是否可以将大众高尔夫3从4分开的最简单方法是收集两种类型汽车的一大堆图像,并使用Turi Create(Apple的开源)来训练这样的模型。

至于这种模型的准确程度,找出答案的唯一方法是建立一个并对其进行训练,然后对其进行评估。请注意,ILSVRC挑战中的图像分类器(您在此处讨论的模型类型)的准确率超过95%,这被认为与人类级别的性能有关。

因此,如果有足够的数据,精心选择的模型体系结构和适当的培训程序,您可能会接近您选择的问题域中的普通人类专家的准确性级别。

以上是关于Swift中Vision / CoreML对象识别器的精度的主要内容,如果未能解决你的问题,请参考以下文章

在 macOS 中使用 Vision 和 CoreML 对图像进行分类

Vision 和 CoreML – CGImagePropertyOrientation 需要错误的类型

CoreML试水--图片识别

Swift 的 Vision 框架无法识别日文字符

是否可以使用 Vision coreML 执行批量预测

CoreML Vision 人脸检测的输入图像尺寸要求是啥