我们如何在 iOS 11 中使用 CoreML 框架进行手写检测
Posted
技术标签:
【中文标题】我们如何在 iOS 11 中使用 CoreML 框架进行手写检测【英文标题】:How can we make use of CoreML framework for handwriting detection in iOS 11 【发布时间】:2017-11-09 06:49:57 【问题描述】:如何使用CoreML
将手写图片转为文字?
【问题讨论】:
但我相信这被否决的原因是因为 Stack Overflow 并不是用来寻找 API 的资源。通常,我们支持您尝试找到正确方向的步骤并寻求帮助。 更新了问题。我相信现在在***上发布一个问题应该是有意义的。 通常情况下,您不应该在此处询问要使用的框架的建议,原因是第三方框架实际上并不能帮助您学习编写代码。他们只是为你做。CoreML
目前无法读取笔迹,但 Apple 可能会在未来对 CoreML
框架的更新中深入研究这一点。
框架一词是针对苹果内置框架而非第三方 SDK。
我明白了! CoreML 是最接近您需要的框架,但目前还没有 Apple 框架能够转录手写内容。我知道 Apple 已经做到了(例如在 Apple Watch 上编写文本),但该代码目前是专有的。明年我们可能会得到它!
【参考方案1】:
实现此目的的一种方法是使用 Vision 框架来检测图像中的文本,它会为您提供一个矩形列表。然后使用经过训练的神经网络来识别每个矩形上的文本。您可以使用 Vision 来驱动 Core ML,但您仍然需要自己为其提供合适的神经网络。您可以在网上找到为此预训练的网络,但您需要使用 Apple 提供的工具将它们转换为 Core ML。
【讨论】:
你有这样一个预训练模型的链接吗?我只能找到对 MNIST 数据集的引用... 这些天我会使用 Google 的 ML Kit,它内置了这种功能。训练自己的手写识别模型真的很难。以上是关于我们如何在 iOS 11 中使用 CoreML 框架进行手写检测的主要内容,如果未能解决你的问题,请参考以下文章
将训练好的 Keras 图像分类模型转换为 coreml 并集成到 iOS11
如何将使用 Mask Rcnn 在自定义对象检测上创建蒙版图像的 Keras 模型转换为 CoreML 模型以在 iOS 应用程序中使用?