# PaddleOCR-json Python API 使用这份API,可以方便地调用 PaddleOCR-json 。比起Python原生的PaddleOCR库,PaddleOCR-json拥有更好的性能。你可以同时享受C++推理库的高效率和Python的简易开发。 请先在本项目 [Releases](https://github.com/hiroi-sora/PaddleOCR-json/releases) 中下载OCR引擎二进制程序,然后将 [python api](https://github.com/hiroi-sora/PaddleOCR-json/tree/main/api/python) (当前目录中的所有文件)下载到本地,即可通过python接口调用二进制程序。 Python API 拥有三大模块: - 基础OCR接口 - 结果可视化模块,将OCR结果绘制到图像上并展示或保存。 - 文本后处理模块,支持段落合并、竖排文本整理等功能。 # 基础OCR接口 ```python from PPOCR_api import GetOcrApi ``` ### 调用OCR的流程分为三步: 1. 初始化OCR引擎进程 2. 通过OCR引擎,执行一次或多次识图任务 3. 关闭OCR引擎进程 ### 第一步:初始化 **接口:** `GetOcrApi()` **参数:** | 名称 | 默认值 | 类型 | 描述 | | ---------- | ------ | ---- | -------------------------------------------------------------- | | exePath | 必填 | str | 引擎二进制文件的路径,或远程服务器地址,见下。 | | modelsPath | None | str | 识别库路径,若为None则默认识别库与引擎在同一目录下。 | | argument | None | dict | 启动参数字典。可以用这个参数指定配置文件、指定识别语言。 | | ipcMode | "pipe" | str | 进程间通信方式,可选值为套接字模式`socket` 或 管道模式`pipe`。 | ##### 关于 `exePath` : 当前允许两种调用引擎的模式: 1. 引擎部署在本地: - 在 [Releases](https://github.com/hiroi-sora/PaddleOCR-json/releases) 中下载OCR引擎二进制程序到本地,解压。 - Windows 平台:`exePath` 传入 `PaddleOCR-json.exe` 的路径。 - Linux 平台:`exePath` 传入 `run.sh` 的路径 2. 引擎部署在远程: - 在服务器上部署 PaddleOCR-json 程序,启用服务器模式,并确保客户机可以访问服务器。 - 客户机:`exePath` 传入 `"remote://ip:port"` 。 ##### 关于 `modelsPath` : 这个参数的本意是希望能自动处理相对路径在不同的工作路径下出错的问题。API在启动引擎进程时会将工作路径设置在引擎的父文件夹下,如果用户直接传入 `models_path` 路径到参数字典 `argument` 则很容易出现路径错误。而 `modelsPath` 参数则会先将输入的路径以当前的python运行路径为基准转换成绝对路径,之后再用 `models_path` 参数的形式输入给引擎,进而防止路径错误。当然,你也可以通过输入一个新的 `models_path` 参数到 `argument` 字典来覆盖掉这个路径。 [更多有关 `models_path` 参数的细节请看这里](../../README.md#常用配置参数说明)。 **返回值:** 初始化成功,返回引擎API对象。初始化失败或连接远程服务失败,抛出异常。 **示例1:** 最简单的情况 ```python ocr = GetOcrApi(r"…………\PaddleOCR_json.exe") ``` **示例2:** 指定使用繁体中文识别库(需要先在引擎models目录内放入识别库文件) 注意,config_path的路径如果是相对路径,则根为PaddleOCR-json.exe所在的路径,而不是Python脚本的路径。 ```python argument = {'config_path': "models/config_chinese_cht.txt"} ocr = GetOcrApi(r"…………\PaddleOCR_json.exe", argument) ``` **示例3:** 指定使用套接字通信方式 使用管道通信(默认)和套接字通信,在使用上而言是透明的,即调用方法完全一致。 性能上有微弱的区别,管道的效率略高一点,而套接字TCP在大型数据传输时(如30MB以上的Base64图片数据)可能稳定性略好一些。对于普通用户,使用默认设定即可。 ```python ocr = GetOcrApi(r"…………\PaddleOCR_json.exe", ipcMode="socket") ``` **示例4:** 使用套接字模式连接到远程服务器 在套接字通信模式下,你可以连接到一个远程的PaddleOCR-json服务器。这样一来就不需要将整套系统部署到同一台机器上了。 ```python ip = '192.168.10.1' port = 1234 ocr = GetOcrApi(r"remote://192.168.10.1:1234", ipcMode="socket") ``` 这里我们使用一个URI来代替引擎位置,表示服务器的IP和端口。接着用参数 `ipcMode` 来使用套接字模式(不可以用管道模式)。在这种情况下,输入 `argument` 参数不会有任何作用,因为这个python脚本并不会启动引擎进程。 在这种部署情况下,我们建议你使用方法 `runBase64()` 或者 `runBytes()` 来传输文件,方法 `run()` 的路径传输方式很容易出错。当然,你也可以禁用服务器的[路径传输json命令image_path](../../cpp/README.md#cmake构建参数)。 ### 第二步:识别图片 Python API 提供了丰富的接口,可以用各种姿势调用OCR。 #### 1. 识别本地图片 **方法:** `run()` **说明:** 对一张本地图片进行OCR **参数:** | 名称 | 默认值 | 类型 | 描述 | | ------- | ------ | ---- | ------------------------------------ | | imgPath | 必填 | str | 识别图片的路径,如`D:/test/test.png` | **返回值字典:** | 键 | 类型 | 描述 | | ---- | ---- | ------------------------------------------------------- | | code | int | 状态码。识别成功且有文字为100。其他情况详见主页README。 | | data | list | 识别成功时,data为OCR结果列表。 | | data | str | 识别失败时,data为错误信息字符串。 | **示例:** ```python res = ocr.run("test.png") print("识别结果:\n", res) ``` #### 2. 识别图片字节流 **方法:** `runBytes()` **说明:** 对一个图片字节流进行OCR。可以通过这个接口识别 PIL Image 或者屏幕截图或者网络下载的图片,全程走内存,而无需先保存到硬盘。 **参数:** | 名称 | 默认值 | 类型 | 描述 | | ---------- | ------ | ----- | ---------- | | imageBytes | 必填 | bytes | 字节流对象 | **返回值字典:同上** **示例:** ```python with open("test.png", 'rb') as f: # 获取图片字节流 imageBytes = f.read() # 实际使用中,可以联网下载或者截图获取字节流 res = ocr.runBytes(imageBytes) print("字节流识别结果:\n", res) ``` #### 3. 识别图片Base64编码字符串 **方法:** `runBase64()` **说明:** 对一个Base64编码字符串进行OCR。 **参数:** | 名称 | 默认值 | 类型 | 描述 | | ----------- | ------ | ---- | ------------------ | | imageBase64 | 必填 | str | Base64编码的字符串 | **返回值字典:同上** #### 4. 格式化输出OCR结果 **方法:** `printResult()` **说明:** 用于调试,打印一个OCR结果。 **参数:** | 名称 | 默认值 | 类型 | 描述 | | ---- | ------ | ---- | ----------------- | | res | 必填 | dict | 一次OCR的返回结果 | **无返回值** **示例:** ```python res = ocr.run("test.png") print("格式化输出:") ocr.printResult(res) ```
剪贴板相关接口已弃用,不建议使用 #### 5. 识别剪贴板图片 **方法:** `runClipboard()` **说明:** 对当前剪贴板首位的图片进行OCR **无参数** **返回值字典:同上** **示例:** ```python res = ocr.runClipboard() print("剪贴板识别结果:\n", res) ```
**方法:** `isClipboardEnabled()` **说明:** 检测剪贴板功能是否启用。 **无参数:** **返回值** 如果剪贴板已启用:`True` 如果剪贴板未启用:`False` **方法:** `getRunningMode()` **说明:** 检测PaddleOCR-json引擎的运行模式,本地或远程 **无参数:** **返回值字符串:** 如果引擎运行在本地:`"local"` 如果引擎运行在远程:`"remote"` 使用示例详见 [demo1.py](demo1.py) ### 第三步:关闭OCR引擎进程 一般情况下,在程序结束或者释放ocr对象时会自动关闭引擎子进程,无需手动管理。 如果希望手动关闭引擎进程,可以使用 `exit()` 方法。 **示例:** ```python ocr.exit() ``` 如果需要更换识别语言,则重新创建ocr对象即可,旧的对象析构时也会自动关闭旧引擎进程。 **示例:** ```python argument = {'config_path': "语言1.txt"} ocr = GetOcrApi(r"…………\PaddleOCR_json.exe", argument) # TODO: 识别语言1 argument = {'config_path': "语言2.txt"} ocr = GetOcrApi(r"…………\PaddleOCR_json.exe", argument) # TODO: 识别语言2 ``` # 结果可视化模块 纯Python实现,不依赖PPOCR引擎的C++ opencv可视化模块,避免中文兼容性问题。 需要PIL图像处理库:`pip install pillow` ```python from PPOCR_visualize import visualize ``` ### 获取文本块 首先得成功执行一次OCR,获取文本块列表(即`['data']`部分) ```python testImg = "D:/test.png" getObj = ocr.run(testImg) if not getObj["code"] == 100: print('识别失败!!') exit() textBlocks = getObj["data"] # 提取文本块数据 ``` ### 展示结果图片 只需一行代码,传入文本块和原图片的路径,打开图片浏览窗口 ```python visualize(textBlocks, testImg).show() ``` 此时程序阻塞,直到关闭图片浏览窗口才继续往下走。 ### 图片保存到本地 ```python visualize(textBlocks, testImg).save('可视化结果.png') ``` ### 获取PIL Image对象 ```python vis = visualize(textBlocks, testImg) img = vis.get() ``` ### 调整显示图层 以上`show`,`save`,`get`三个接口,均能开启或禁用指定图层: - `isBox` T时启用包围盒图层。 - `isText` T时启用文字图层。 - `isOrder` T时启用序号图层。 - `isSource` T时启用原图。F禁用原图,即得到透明背景的纯可视化结果。 ### 左右对比 传入两个PIL Image对象,返回它们左右拼接而成的新Image ```python img_12 = visualize.createContrast(img1, img2) ``` ### 调整显示效果(颜色、粗细、字体等) 导入PIL库,以便操作图片对象 ```python from PIL import Image ``` 接口创建各个图层,传入文本块、要生成的图层大小、自定义参数,然后将各个图层合并 颜色有关的参数,均可传入6位RGB十六进制码(如`#112233`)或8位RGBA码(最后两位控制透明度,如`#11223344`) ```python # 创建各图层 img = Image.open(testImg).convert('RGBA') # 原始图片背景图层 imgBox = visualize.createBox(textBlocks, img.size, # 包围盒图层 outline='#ccaa99aa', width=10) imgText = visualize.createText(textBlocks, img.size, # 文本图层 fill='#44556699') # 合并各图层 img = visualize.composite(img, imgBox) img = visualize.composite(img, imgText) img.show() # 显示 ``` 使用示例详见 [demo2.py](demo2.py) # 文本后处理 tbpu (text block processing unit) ```python from tbpu import GetParser ``` 由 [Umi-OCR](https://github.com/hiroi-sora/Umi-OCR) 和 [间隙树排序法](https://github.com/hiroi-sora/GapTree_Sort_Algorithm) 带来的技术。 OCR返回的结果中,一项包含文字、包围盒、置信度的元素,称为一个“文本块” - text block 。 文块不一定是完整的一句话或一个段落。反之,一般是零散的文字。一个OCR结果常由多个文块组成,这项文块原始的顺序也不一定符合阅读顺序。 文块后处理 tbpu 的作用就是:将OCR原始文本块进行处理,调整其顺序、并划分出段落。 ### 方案列表 | 方案id | 方案名称 | | ------------- | ------------- | | `multi_para` | 多栏-自然段 | | `multi_line` | 多栏-总是换行 | | `multi_none` | 多栏-无换行 | | `single_para` | 单栏-自然段 | | `single_line` | 单栏-总是换行 | | `single_none` | 单栏-无换行 | | `single_code` | 单栏-代码段 | 也可以在 [Umi-OCR](https://github.com/hiroi-sora/Umi-OCR) 中直观地体验这些方案的作用。 通过 `GetParser("方案id")` 来获取对应方案的后处理解析器对象。通过`run()`接口调用解析,并传入OCR结果列表,得到处理后的新列表,见下。 ### 使用 向接口传入文本块列表(即`['data']`部分),返回新的文本块列表。 ```python from tbpu import GetParser textBlocks = getObj["data"] # 获取“多栏-自然段”排版解析器对象 parser = GetParser("multi_para") # 传入OCR结果列表,返回新的文本块列表 textBlocksNew = parser.run(textBlocks) ``` - 执行后,原列表 textBlocks 的结构可能被破坏,不要再使用原列表(或先深拷贝备份)。 - 新文本块列表 textBlocksNew 中,每个文本块的顺序会根据所选方案重新排序。 - 同时,textBlocksNew每个文本块中会增加键值 `["end"]` ,表示这个文本块的结尾符(即与下一个文本块的间隔符号)是什么。以 `multi_para` 为例: - 假如一个文本块位于一个自然段的段尾,则 `["end"]=="\n"` 。 - 假如位于自然段的中间,且上下文为中文,则 `["end"]==""` 。 - 假如位于自然段的中间,且上下文为英文,则 `["end"]==" "` 。 跟结果可视化配合使用: ```python from tbpu import GetParser # OCR原始结果 可视化 textBlocks = getObj["data"] img1 = visualize(textBlocks, testImg).get(isOrder=True) # 执行文本块后处理:多栏-自然段 parser = GetParser("multi_para") textBlocksNew = parser.run(textBlocks) # 后处理结果 可视化 img2 = visualize(textBlocksNew, testImg).get(isOrder=True) # 左右拼接图片并展示 visualize.createContrast(img1, img2).show() ``` 使用示例详见 [demo3.py](demo3.py)