如何使用 OCR 从低分辨率图像中获得更好/准确的结果
Posted
技术标签:
【中文标题】如何使用 OCR 从低分辨率图像中获得更好/准确的结果【英文标题】:How to get better/accurate results with OCR from low resolution images 【发布时间】:2018-11-24 12:07:25 【问题描述】:我在python
中编写了一个脚本,使用pytesseract
将文本嵌入到图像中。当我运行我的脚本时,刮板的工作很奇怪,这意味着我得到的文本与图像中的文本完全不同。
我尝试过的脚本:
import requests, io, pytesseract
from PIL import Image
response = requests.get('http://skoleadresser.no/4DCGI/WC_Pedlex_Adresse/864928.jpg')
img = Image.open(io.BytesIO(response.content))
imagetext = pytesseract.image_to_string(img)
print(imagetext)
图片中的文字如下:
我得到的结果:
Adresse WM 0an Hanssensm 7 A
4u21 Slavanqer
warm 52 m so no
Te‘efaks 52 m 90 m
E'Dus‘x Van’s strandflanlmu
我怎样才能得到准确的结果?
【问题讨论】:
是编码吗? 不,我想不是,因为当我尝试在本地打印该图像中的文本时,结果仍然相同。 我没有投反对票,但我同意任何投反对票的人都应该提供理由。 【参考方案1】:tl;博士:
import requests
import io
import pytesseract
from PIL import Image
response = requests.get('http://skoleadresser.no/4DCGI/WC_Pedlex_Adresse/864928.jpg')
img = Image.open(io.BytesIO(response.content))
width, height = img.size
new_size = width*6, height*6
img = img.resize(new_size, Image.LANCZOS)
img = img.convert('L')
img = img.point(lambda x: 0 if x < 155 else 255, '1')
imagetext = pytesseract.image_to_string(img)
print(imagetext)
结果:
地址 Olav Hanssens vei 7 A 教授 4021斯塔万格
电话 52 70 90 00
Telefaks 52 70 90 01
E-post vanja.strand@aof.no
说明/方法
OCR 旨在扫描打印、手写或打字文档中的字母,这些文档以高分辨率扫描,基本上没有模糊 - 也许存在一些专门用于扫描低分辨率数字图像和大量模糊,但通常他们无法以任何合理的速率从此类输入数据中猜测字母 - 它太模糊且像素太少,OCR 工具无法利用这些数据做出有用的事情。
这听起来好像几乎没有机会让它工作 - 只是在没有任何进一步处理的情况下放大它并不能解决问题,正如您稍后会看到的那样,图像仍然距离太远类似于键入/打印的文本。
我对缩放因子做了一些试验和错误,发现 6 最适合这张图片,所以:
width, height = img.size
new_size = width*6, height*6
在不进行任何重采样的情况下将其放大 6 倍:
img = img.resize(new_size)
给我们这个图像,它非常没用,因为它基本上与以前完全相同的不可读图像,只是 1px*1px 现在是 6px*6px(注意几乎在字母之间相交的灰色区域 - 特别是 Pr
, s
和 k
会导致大问题):
幸运的是,有一些重采样公式给出了非常好的结果,对于 PIL,有PIL.Image.LANCZOS
(其中包括)应用了Lanczos resampling formula:
img = img.resize(new_size, Image.LANCZOS)
一开始可能看起来差异并不大 - 但现在我们对字母进行了更好的填充,而不是那些黑色和灰色块 - 并且我们可以在下一步中使用更自然的模糊。现在看看Pr
、s
和k
,我们发现它们不再如此相交了。
接下来需要做什么才能使图像看起来更像是实际打印的文档,通过消除模糊使其变为黑白 - 第一步是使图像与 mode L
(8 位像素 b /w)
img = img.convert('L')
当然几乎没有区别,因为源图像是白色背景上的黑色文本 - 但您仍然需要此步骤才能使用亮度阈值将其转换为黑白图像。
这是通过通过 8 位值评估图像中的每个像素来完成的 - 开始尝试的一个好的值是 128
,它是 50% 黑色:
img = img.point(lambda x: 0 if x < 128 else 255, '1')
这给我们的文本太细了 - OCR 工具会将大多数 5
识别为 S
,而将一些 0
识别为 O
:
现在将亮度阈值设置为200
,我们得到以下图像:
OCR 工具可以处理此文本,因为它看起来就像一个粗体字体 - 但如前所述,OCR 工具旨在扫描正常打印的文本,因此它可能无法识别图像中的实际粗体文本,因为与普通文本相比,它太粗了。
让我们将阈值设置在 128
和 200
之间的某个位置,以便我们得到看起来自然的打印文本 - 通过反复试验,我发现 155
工作得很好,并且看起来一样字体粗细与原图相同:
由于这看起来非常像对打印质量差的黑白文档的高分辨率扫描,因此 OCR 工具现在可以正常工作。
【讨论】:
以上是关于如何使用 OCR 从低分辨率图像中获得更好/准确的结果的主要内容,如果未能解决你的问题,请参考以下文章
如何在 iOS 中使用 Tesseract OCR 库从图像中识别准确的文本?