paddleocr印章弯曲文字识别无法定位和识别弯曲文字

https://github.com/PaddlePaddle/PaddleOCR/blob/release/2.6/applications/%E5%8D%B0%E7%AB%A0%E5%BC%AF%E6%9B%B2%E6%96%87%E5%AD%97%E8%AF%86%E5%88%AB.md

我在复现paddleocr的印章弯曲文字识别的时候,发现使用paddle提供的弯曲文字定位模型DB++时,只能定位给到水平文字,无法定位到弯曲文字。

如下图


image.png

因为我本人是个菜鸟啊,我只会看paddle的教程啊,他说的我就照做,他没说,我就不会啊。

最终经过我的研究,需要修改一个参数。参数的路径如下:
PaddleOCR/ppocr/postprocess/db_postprocess.py


image.png

改了下面的参数就可以定位任意多边形啦。效果图如下:


image.png

但是呢,我又发现用他的弯曲文字定位模型SVTR不能识别弯曲文字,只能识别水平文字,我就很不高兴,我找了好久也没找到类似的定位模型里面的参数,所以无从下爪。

不着急慢慢分析。

首先,根据paddle给出的做法,当我们拿到印章图片,并且定位到印章中的文字之后,我们手里应该是有文字的坐标的,也就是下面代码里的points,但是如果是水平文字(或者水平略倾斜),那么我们的定位框就是一个四边形,也就是下面代码里assert 的points的长度是4,也就是4个点形成一个闭合框。但是呢,如果我要预测弯曲文字怎么办,points就不是四个点了啊。这时你看看最顶端被注销掉的部分代码,他的做法是什么,其目的就是取一个紧贴定位框的四边形。这么做的效果是什么呢。

import cv2
import numpy as np

def get_rotate_crop_image(img, points):
    '''
    img_height, img_width = img.shape[0:2]
    left = int(np.min(points[:, 0]))
    right = int(np.max(points[:, 0]))
    top = int(np.min(points[:, 1]))
    bottom = int(np.max(points[:, 1]))
    img_crop = img[top:bottom, left:right, :].copy()
    points[:, 0] = points[:, 0] - left
    points[:, 1] = points[:, 1] - top
    '''
    assert len(points) == 4, "shape of points must be 4*2"
    img_crop_width = int(
        max(
            np.linalg.norm(points[0] - points[1]),
            np.linalg.norm(points[2] - points[3])))
    img_crop_height = int(
        max(
            np.linalg.norm(points[0] - points[3]),
            np.linalg.norm(points[1] - points[2])))
    pts_std = np.float32([[0, 0], [img_crop_width, 0],
                          [img_crop_width, img_crop_height],
                          [0, img_crop_height]])
    M = cv2.getPerspectiveTransform(points, pts_std)
    dst_img = cv2.warpPerspective(
        img,
        M, (img_crop_width, img_crop_height),
        borderMode=cv2.BORDER_REPLICATE,
        flags=cv2.INTER_CUBIC)
    dst_img_height, dst_img_width = dst_img.shape[0:2]
    if dst_img_height * 1.0 / dst_img_width >= 1.5:
        dst_img = np.rot90(dst_img)
    return dst_img


def run(data_dir, label_file, save_dir):
    datas = open(label_file, 'r').readlines()
    for idx, line in enumerate(datas):
        img_path, label = line.strip().split('\t')
        img_path = os.path.join(data_dir, img_path)

        label = json.loads(label)
        src_im = cv2.imread(img_path)
        if src_im is None:
            continue

        for anno in label:
            seal_box = anno['seal_box']
            txt_boxes = anno['polys']
            crop_im = get_rotate_crop_image(src_im, text_boxes)

            save_path = os.path.join(save_dir, f'{idx}.png')
            if not os.path.exists(save_dir):
                os.makedirs(save_dir)
            # print(src_im.shape)
            cv2.imwrite(save_path, crop_im)

这么做的效果就如下图,乱七八糟的,用脚指头想,都知道识别的效果不会好的


image.png

下面是识别效果,都是paddle的代码和paddle的模型。


image.png

但是呢如果一张图片里既有水平文字,又有弯曲文字的时候,他对水平文字就是别的很好,弯曲文字就完全不行。如下图
image.png

下图是文字识别的结果


image.png

难道他的正确率55%是抛弃所有弯曲文字,只要水平文字得来的吗?
image.png

搞得我都怀疑我自己了,到底是哪里做错了。
是不是因为我把定位和识别联系起来的过程中用的文字切片有问题,人家在det和rec连接的时候还有什么高明的做法吗?
我用截图软件,找了几张非常清晰的图片,将弯曲文字切割出来,不通过det模型直接送给rec模型试试看效果。如下面几个图的效果,是我用win自带的截图截出来的。win+shift+s


d2670fcecb9cf1b001a7e025f301ec7.png

9f51eee1a153998f31dc8c5b3905edc.png

437a6b52d2c9a23d41a53342830ab6e.png

测试的结果如下图,没一个能看的,结果显示的是识别出来的文字+置信度,你看看,甚至很多置信度都是0,完全识别不到文字。


image.png

我累了,我再找找原因吧,,,,,
肯定还有一个隐藏的参数,没让我发现。
这个世界对菜鸟太不友好了。
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容