Apple Vision Framework:通过观察检测微笑或幸福的面孔?

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Apple Vision Framework:通过观察检测微笑或幸福的面孔?相关的知识,希望对你有一定的参考价值。

我正在开发一个项目,该项目使用Vision Framework来检测图像中的面部,然后使用CoreML模型来检测面部是否在微笑。问题是CoreML模型文件接近500 MB。我不想那么膨胀我的应用程序。

由于我已经从Vision框架获取了VNFaceLandmarks2D观察数据,我想我会尝试使用它来检测微笑。

有没有人试图使用Vision框架中的VNFaceLandmarks2D数据来确定面部是幸福还是微笑?

如果是这样,你是怎么做到的,它的效果如何?

谢谢!

答案

一种解决方案是使用较小的Core ML模型文件。听起来你正在使用基于VGGNet的模型。有几个更小的模型架构(4到16 MB之间)与VGGNet具有相同的精度,因此更适合在移动设备上使用。

以上是关于Apple Vision Framework:通过观察检测微笑或幸福的面孔?的主要内容,如果未能解决你的问题,请参考以下文章

在 Apple 的 Vision 框架中,我如何判断哪些语言可用于文本识别?

Apple Vision - 无法将单个数字识别为区域

Apple Vision 框架:LCD/LED 数字识别

如何仅在 CGRect 中使用 Apple Vision 检测条形码?

Apple Vision 错误 – 使用未解析的标识符“ObjectDetector”

Swift Vision Framework - VNRecognizeTextRequest:传递给不带参数的调用的参数