使用 ARKit 和 CoreML 从远距离检测物体

Posted

技术标签:

【中文标题】使用 ARKit 和 CoreML 从远距离检测物体【英文标题】:Detect an Object from long distance using ARKit and CoreML 【发布时间】:2019-08-17 17:10:42 【问题描述】:

我们如何使用 CoreML 或 ARKit 从几乎任何距离检测物体。目前我已经尝试过 ARKIT 3d 物体扫描和检测,它可以在距离物体很近的地方工作,但是当我们远离物体时,它无法检测到那个物体。同样使用 CoreML,我训练了一个模型来检测物体,该模型仅从近距离检测物体。如何实现远距离物体检测,实际物体明显太小。

【问题讨论】:

【参考方案1】:

在我看来,扫描远处的物体并没有实际应用。

首先,您需要从所有可用面扫描您的对象,以便将来识别该对象,而不仅仅是从唯一的一个 PoV。

其次,有时环境中的雾霾(烟雾、雨水等)会降低这种远距离物体的饱和度,使其难以辨认。

最后,远处物体的表面缺乏细节,换句话说,“纹理”很差。

解决这个问题的实用方法很简单:只需在 ARKit 和 CoreML 中对预先拍摄的照片使用图像识别技术。扫描的数据也比.mlmodel要重一些,不是吗?

【讨论】:

以上是关于使用 ARKit 和 CoreML 从远距离检测物体的主要内容,如果未能解决你的问题,请参考以下文章

对象检测 ARKit 与 CoreML

ARKit 和视觉框架——检测墙壁边缘

是否可以使用 CoreML 模型检测对象并找到该对象的测量值?

带有 ARkit 和 CoreML 的视觉框架

结合 CoreML 和 ARKit

Vision 和 CoreML – CGImagePropertyOrientation 需要错误的类型