Tesseract是一个开源的OCR(光学字符识别)引擎,用于识别并输出图片中的文字。虽然和商业软件比起来识别精度不算很高,但是如果你要寻找免费开源的OCR引擎,可能Tesseract就是唯一的选择了。Tesseract用起来还算是比较方便。它提供了一个简单的命令行工具,没有很多选项,输入图片输出就是文字。因为是开源的,你也可以直接编译使用它基于C++的库。
最近一段时间我对Python产生了很大的兴趣。它是如此的简洁高效,只要可以用Python完成的工作就懒得使用其他编程语言。所以到了应用Tesseract的时候我首先想到了去Google一下有没有Python binding。确实有人使用swig做了个tesseract的封装,不过不幸的是实际应用存在不少问题。首先是安装不便,尤其在mac上的安装令人崩溃。即使完成安装,不知为何又segment fault。其次,很多方法只做了简单的封装,又缺乏文档,想做深入一点的应用例如输出文字在图中的位置,感觉无从着手。不如从Tesseract的源代码入手,自己编写python的扩展,对tesseract的某些感兴趣的方法做个封装,也顺便熟悉下Python和C/C++集成的方法。可以在扩展里为所欲为,真是令人心情愉快。
首先,新建一个cpp源文件,然后为这个新模块想个名字,比如 tessex。然后,需要定义这个新模块,以及模块里需要暴露出来的方法。这样在Python里就可以用import tessex来载入模块。
static PyMethodDef tessexMethods【】 = {
{"recognize", (PyCFunction)tessex_recognize,
METH_VARARGS|METH_KEYWORDS,
"recognize text in an image."},
{NULL, NULL, 0, NULL}
};
PyMODINIT_FUNC inittessex(void) {
(void) Py_InitModule("tessex", tessexMethods);
}
这里,我们暴露一个方法recognize,用来扫描给定图片然后返回识别的文字以及位置。大家知道Python方法可以传两种参数,一种是无名的,一种是有名的,分别对应METH_VARARGS以及METH_KEYWORDS。作为一个有点完美主义倾向的人,我把两个选项都勾上了。然后我们看下recognize方法的定义。正如之前讲的,需要声明参数args以及kw。
static PyObject tessex_recognize(PyObject self, PyObject args, PyObject kw){
接下来是展开从Python调用传进来的参数。要使用有名参数,需要把所有参数名都先列出来。
static const char kwlist【】={"data", "w", "h", "channels", "step", NULL};
然后调用PyArg_ParseTupleAndKeywords展开有名参数。一个格式字符串用于声明参数的类型。data是图像的像素buffer,适用S类型。w、h、channels、step分别是图像的宽度、高度、信道数、步长,都是整型变量,适用i类型。
PyStringObject data;
int w=0;
int h=0;
int channels=0;
int step=0;
if (!PyArg_ParseTupleAndKeywords(args, kw, "Siiii", (char*)(kwlist),
&data, &w, &h, &channels, &step)) {
PyErr_SetString(PyExc_Exception, "Tessex: Failed to parse arguments.");
return NULL;
}
我们要开始使用Tesseract的API了。Tesseract支持多种语言,不过语言包要分别下载安装。这里我们使用英语。
tesseract::TessBaseAPI api = new tesseract::TessBaseAPI();
if (api->Init(NULL, "eng")) {
PyErr_SetString(PyExc_Exception, "Tessex: Failed to initialize tesseract API.");
return NULL;
}
把传入的图像数据传递给Tesseract,然后进行识别。
api->SetImage((const unsigned char)PyString_AS_STRING(data),
w, h, channels, step);
api->Recognize(0);
识别结果的处理稍微复杂点。一般的应用如果只想得到所有文字,只要调用GetUTF8Text()就完了。但是我想知道每一行的文字,它们的具体位置以及可信度,就需要对识别结果进行详细的分析。幸运的是Tesseract提供了iterator接口,可以返回不同粒度的数据。这里我选择了按行输出,即RIL_TEXTLINE。
//代码效果参考:http://hnjlyzjd.com/xl/wz_25244.htmlPyObject l = PyList_New(0);
tesseract::ResultIterator it = api->GetIterator();
it->Begin();
while(1) {
char utf8_text;
int left, top, right, bottom;
int confidence = 0;
utf8_text = it->GetUTF8Text(tesseract::RIL_TEXTLINE);
if (utf8_text == NULL)
break;
confidence = it->Confidence(tesseract::RIL_TEXTLINE);
it->BoundingBox(tesseract::RIL_TEXTLINE, &left, &top, &right, &bottom);
PyObject t = Py_BuildValue("(siiiii)", utf8_text,
left, top, right, bottom, confidence);
PyList_Append(l, t);
delete 【】utf8_text;
it->Next(tesseract::RIL_TEXTLINE);
}
api->End();
PyObject o = Py_BuildValue("O", l);
return o;
返回的是一个list,其每个元素都是一个tuple,代表识别出来的文字行,包括文字、位置和可信度。
最后不要忘了include需要的头文件,并在链接选项里加入需要的库。
#include "Python.h"
#include
#include
具体如何编译tesseract可以参考
在示例代码里我们并没有用到任何图形库。但是因为要使用Tesseract就必须链接leptonica库,所以需要加入链接选项-llept。
如果你想在扩展里使用leptonica的功能可以include 。或者你想使用openCV,可以include 并链接-lopencv_XXXXX。
这样代码部分算是完成了。不过接下来还有一步,我们需要打包完成一个Python扩展使之容易编译和安装。可以使用distutils模块。
from distutils.core import setup, Extension
tessenigma = Extension (
'tessex',
sources=【'tessex.cpp'】,
include_dirs = 【'/usr/local/include'】,
libraries=【 'tesseract'】,
library_dirs=【'/usr/local/lib'】
)
setup (name='tessex',
version='1.0',
description='This is a tesseract extensiion.',
ext_modules = 【tessex】)
把这些定义写入一个setup.py文件里。这样我们就可以用通常的方式编译和安装模块了。编译用setup.py build。一个动态链接库会生成。例如在Linux下面就是tessex.so。安装模块使用setup.py install。前面生成的库文件会被复制到Python的site-packages下面。当然你也可以手动复制到$PYTHONPATH路径下面,一样能被Python找到。
安装好扩展后,在Python里是这样调用的,假定我们使用一个openCV图像:
import tessex
import cv
cv_img = cv.LoadImage(path, cv.CV_LOAD_IMAGE_COLOR)
lines = tessex.recognize(
data=cv_img.tostring(),
w=cv_img.width,
h=cv_img.height,
channels=cv_img.nChannels,
step=cv_img.width cv_img.nChannels cv_img.depth / 8)
for line in lines:
line_text, left, top, right, bottom, confidence = line
通过Tesseract扩展,可以在Python中比较方便地识别图像中的文字以及位置,对基于图像识别的自动化测试是很有帮助的。