我们如何在 iOS 11 中使用 CoreML 框架进行手写检测

Posted

技术标签:

【中文标题】我们如何在 iOS 11 中使用 CoreML 框架进行手写检测【英文标题】:How can we make use of CoreML framework for handwriting detection in iOS 11 【发布时间】:2017-11-09 06:49:57 【问题描述】:

如何使用CoreML将手写图片转为文字?

【问题讨论】:

但我相信这被否决的原因是因为 Stack Overflow 并不是用来寻找 API 的资源。通常,我们支持您尝试找到正确方向的步骤并寻求帮助。 更新了问题。我相信现在在***上发布一个问题应该是有意义的。 通常情况下,您不应该在此处询问要使用的框架的建议,原因是第三方框架实际上并不能帮助您学习编写代码。他们只是为你做。 CoreML 目前无法读取笔迹,但 Apple 可能会在未来对 CoreML 框架的更新中深入研究这一点。 框架一词是针对苹果内置框架而非第三方 SDK。 我明白了! CoreML 是最接近您需要的框架,但目前还没有 Apple 框架能够转录手写内容。我知道 Apple 已经做到了(例如在 Apple Watch 上编写文本),但该代码目前是专有的。明年我们可能会得到它! 【参考方案1】:

实现此目的的一种方法是使用 Vision 框架来检测图像中的文本,它会为您提供一个矩形列表。然后使用经过训练的神经网络来识别每个矩形上的文本。您可以使用 Vision 来驱动 Core ML,但您仍然需要自己为其提供合适的神经网络。您可以在网上找到为此预训练的网络,但您需要使用 Apple 提供的工具将它们转换为 Core ML。

【讨论】:

你有这样一个预训练模型的链接吗?我只能找到对 MNIST 数据集的引用... 这些天我会使用 Google 的 ML Kit,它内置了这种功能。训练自己的手写识别模型真的很难。

以上是关于我们如何在 iOS 11 中使用 CoreML 框架进行手写检测的主要内容,如果未能解决你的问题,请参考以下文章

将训练好的 Keras 图像分类模型转换为 coreml 并集成到 iOS11

iOS-机器学习框架CoreML

iOS 11 : CORE ML—浅析

如何将使用 Mask Rcnn 在自定义对象检测上创建蒙版图像的 Keras 模型转换为 CoreML 模型以在 iOS 应用程序中使用?

从远程源加载重型 CoreML 模型

图像识别的 CoreML 模型预测仅适用于 iPhone 11 和 12 模型