如何使用 OCR 从低分辨率图像中获得更好/准确的结果

Posted

技术标签:

【中文标题】如何使用 OCR 从低分辨率图像中获得更好/准确的结果【英文标题】:How to get better/accurate results with OCR from low resolution images 【发布时间】:2018-11-24 12:07:25 【问题描述】:

我在python 中编写了一个脚本,使用pytesseract 将文本嵌入到图像中。当我运行我的脚本时,刮板的工作很奇怪,这意味着我得到的文本与图像中的文本完全不同。

我尝试过的脚本:

import requests, io, pytesseract
from PIL import Image

response = requests.get('http://skoleadresser.no/4DCGI/WC_Pedlex_Adresse/864928.jpg')
img = Image.open(io.BytesIO(response.content))
imagetext = pytesseract.image_to_string(img)
print(imagetext)

图片中的文字如下:

我得到的结果:

Adresse WM 0an Hanssensm 7 A
4u21 Slavanqer

warm 52 m so no

Te‘efaks 52 m 90 m

E'Dus‘x Van’s strandflanlmu

我怎样才能得到准确的结果?

【问题讨论】:

是编码吗? 不,我想不是,因为当我尝试在本地打印该图像中的文本时,结果仍然相同。 我没有投反对票,但我同意任何投反对票的人都应该提供理由。 【参考方案1】:

tl;博士:

import requests
import io
import pytesseract
from PIL import Image

response = requests.get('http://skoleadresser.no/4DCGI/WC_Pedlex_Adresse/864928.jpg')
img = Image.open(io.BytesIO(response.content))
width, height = img.size
new_size = width*6, height*6
img = img.resize(new_size, Image.LANCZOS)
img = img.convert('L')
img = img.point(lambda x: 0 if x < 155 else 255, '1')
imagetext = pytesseract.image_to_string(img)

print(imagetext)

结果:

地址 Olav Hanssens vei 7 A 教授 4021斯塔万格

电话 52 70 90 00

Telefaks 52 70 90 01

E-post vanja.strand@aof.no

说明/方法

OCR 旨在扫描打印、手写或打字文档中的字母,这些文档以高分辨率扫描,基本上没有模糊 - 也许存在一些专门用于扫描低分辨率数字图像和大量模糊,但通常他们无法以任何合理的速率从此类输入数据中猜测字母 - 它太模糊且像素太少,OCR 工具无法利用这些数据做出有用的事情。

这听起来好像几乎没有机会让它工作 - 只是在没有任何进一步处理的情况下放大它并不能解决问题,正如您稍后会看到的那样,图像仍然距离太远类似于键入/打印的文本。

我对缩放因子做了一些试验和错误,发现 6 最适合这张图片,所以:

width, height = img.size
new_size = width*6, height*6

在不进行任何重采样的情况下将其放大 6 倍:

img = img.resize(new_size)

给我们这个图像,它非常没用,因为它基本上与以前完全相同的不可读图像,只是 1px*1px 现在是 6px*6px(注意几乎在字母之间相交的灰色区域 - 特别是 Pr , sk 会导致大问题):

幸运的是,有一些重采样公式给出了非常好的结果,对于 PIL,有PIL.Image.LANCZOS(其中包括)应用了Lanczos resampling formula:

img = img.resize(new_size, Image.LANCZOS)

一开始可能看起来差异并不大 - 但现在我们对字母进行了更好的填充,而不是那些黑色和灰色块 - 并且我们可以在下一步中使用更自然的模糊。现在看看Prsk,我们发现它们不再如此相交了。

接下来需要做什么才能使图像看起来更像是实际打印的文档,通过消除模糊使其变为黑白 - 第一步是使图像与 mode L(8 位像素 b /w)

img = img.convert('L')

当然几乎没有区别,因为源图像是白色背景上的黑色文本 - 但您仍然需要此步骤才能使用亮度阈值将其转换为黑白图像。

这是通过通过 8 位值评估图像中的每个像素来完成的 - 开始尝试的一个好的值是 128,它是 50% 黑色:

img = img.point(lambda x: 0 if x < 128 else 255, '1')

这给我们的文本太细了 - OCR 工具会将大多数 5 识别为 S,而将一些 0 识别为 O

现在将亮度阈值设置为200,我们得到以下图像:

OCR 工具可以处理此文本,因为它看起来就像一个粗体字体 - 但如前所述,OCR 工具旨在扫描正常打印的文本,因此它可能无法识别图像中的实际粗体文本,因为与普通文本相比,它太粗了。

让我们将阈值设置在 128200 之间的某个位置,以便我们得到看起来自然的打印文本 - 通过反复试验,我发现 155 工作得很好,并且看起来一样字体粗细与原图相同:

由于这看起来非常像对打印质量差的黑白文档的高分辨率扫描,因此 OCR 工具现在可以正常工作。

【讨论】:

以上是关于如何使用 OCR 从低分辨率图像中获得更好/准确的结果的主要内容,如果未能解决你的问题,请参考以下文章

如何在 iOS 中使用 Tesseract OCR 库从图像中识别准确的文本?

使用opencv c#检测图像中的文本块

OCR 图像预处理

如何使用不同颜色和字体的文本改进图像的 OCR?

没有从 Tesseract OCR 中获得有效的结果作为 newocr 生产

OCR 的最小字符大小