我们可以在 Server 上编译 CoreML 模型吗?

Posted

技术标签:

【中文标题】我们可以在 Server 上编译 CoreML 模型吗?【英文标题】:Can we compile a CoreML model on Server? 【发布时间】:2019-02-19 20:54:49 【问题描述】:

我正在使用 CoreML 和 ARKit 进行人脸识别。但我不想用 app 构建 CoreML 模型。我已经用 python Turicate 制作了一个 coreML 模型。我希望把这个模型放在服务器上,它给了我们一个 API,然后我会通过这个 API 向这个模型发送人脸图片,然后服务器以 JSON 的形式返回一个响应。我想要这个,因为 CoreML 的大小非常高,如果我们想要更多地训练这个模型然后这个用户必须下载这个大尺寸模型并在设备上编译。我研究并发现苹果添加了一个功能来在设备上编译 CoreML 模型但是每次模型用户的小训练升级都必须再次下载这个大尺寸模型。

【问题讨论】:

【参考方案1】:

那么不要使用 Core ML,而是使用 TensorFlow 和 TensorFlow Serving 之类的东西。 Core ML 旨在在设备上使用。如果你不想把模型放到设备上,那么使用 Core ML 就没有意义了。

【讨论】:

我在做人脸识别,在 Tensor Flow 中只做图像标记而不是图像识别,而且 Tensor Flow 是付费的。

以上是关于我们可以在 Server 上编译 CoreML 模型吗?的主要内容,如果未能解决你的问题,请参考以下文章

在windows 上编译部署Rap2

haskell 代码可以在 leksah 上编译,但不能在 ghc 上编译

没有前向声明的嵌套函数模板实例化可以在 GCC 上编译,但不能在 clang 上编译

程序在一台机器上编译,但不在另一台机器上编译

rust交叉编译配置:windows上编译linux可执行程序

在Ubuntu上编译z3:报错与处理