如何将工艺(用于文本检测的字符区域感知)的输出提供给 crnn

Posted

技术标签:

【中文标题】如何将工艺(用于文本检测的字符区域感知)的输出提供给 crnn【英文标题】:How to give the output of craft( character - region awareness for text detection ) to crnn 【发布时间】:2020-04-20 18:56:09 【问题描述】:

我正在做文本检测和识别。我使用了 Craft(character-Region Awareness for text detection)https://github.com/clovaai/CRAFT-pytorch。它给了我一个带有边界框的图像输出和一个带有数字的文本文件。我想将输出提供给 CRNN https://github.com/bgshih/crnn 。但我需要文本图像的 ROI 才能使 CRNN 工作。如何连接工艺和 CRNN

【问题讨论】:

【参考方案1】:

我认为你需要给 CRNN 网络提供一个裁剪的图像来识别字符。

简单方法如下:

    CRAFT_pytorch一张图片 通过CRAFT_pytorch输出的边界框结果裁剪并保存图像 将裁剪后的图像作为输入提供给CRNN

如果你同时调用两个函数CRAFT_pytorchCRNN,你可以跳过第二阶段保存裁剪图像。

【讨论】:

谢谢,但我的问题是如何从 CRAFT_pytorch 的输出坐标中裁剪和保存图像,以便我可以将其用作 CRNN 的输入 CRAFT_pytorch 的输出内容。请让我更清楚地知道你有什么,你必须做什么。

以上是关于如何将工艺(用于文本检测的字符区域感知)的输出提供给 crnn的主要内容,如果未能解决你的问题,请参考以下文章

全景驾驶感知网络YOLOP部署与实现(交通目标检测可驾驶区域分割车道线检测)

连通区域

自动驾驶感知系统实现(车道线检测和拟合目标检测与跟踪道路可行驶区域分割深度估计图像视野到BEV空间映射像平面到地平面映射)

在 Windows C++ 中将字符串解析为日期的区域感知

Mosdepth检测BAM深度

如何将彩色文本输出到 Linux 终端?