我在复现paddleocr的印章弯曲文字识别的时候,发现使用paddle提供的弯曲文字定位模型DB++时,只能定位给到水平文字,无法定位到弯曲文字。
如下图
因为我本人是个菜鸟啊,我只会看paddle的教程啊,他说的我就照做,他没说,我就不会啊。
最终经过我的研究,需要修改一个参数。参数的路径如下:
PaddleOCR/ppocr/postprocess/db_postprocess.py
改了下面的参数就可以定位任意多边形啦。效果图如下:
但是呢,我又发现用他的弯曲文字定位模型SVTR不能识别弯曲文字,只能识别水平文字,我就很不高兴,我找了好久也没找到类似的定位模型里面的参数,所以无从下爪。
不着急慢慢分析。
首先,根据paddle给出的做法,当我们拿到印章图片,并且定位到印章中的文字之后,我们手里应该是有文字的坐标的,也就是下面代码里的points,但是如果是水平文字(或者水平略倾斜),那么我们的定位框就是一个四边形,也就是下面代码里assert 的points的长度是4,也就是4个点形成一个闭合框。但是呢,如果我要预测弯曲文字怎么办,points就不是四个点了啊。这时你看看最顶端被注销掉的部分代码,他的做法是什么,其目的就是取一个紧贴定位框的四边形。这么做的效果是什么呢。
import cv2
import numpy as np
def get_rotate_crop_image(img, points):
'''
img_height, img_width = img.shape[0:2]
left = int(np.min(points[:, 0]))
right = int(np.max(points[:, 0]))
top = int(np.min(points[:, 1]))
bottom = int(np.max(points[:, 1]))
img_crop = img[top:bottom, left:right, :].copy()
points[:, 0] = points[:, 0] - left
points[:, 1] = points[:, 1] - top
'''
assert len(points) == 4, "shape of points must be 4*2"
img_crop_width = int(
max(
np.linalg.norm(points[0] - points[1]),
np.linalg.norm(points[2] - points[3])))
img_crop_height = int(
max(
np.linalg.norm(points[0] - points[3]),
np.linalg.norm(points[1] - points[2])))
pts_std = np.float32([[0, 0], [img_crop_width, 0],
[img_crop_width, img_crop_height],
[0, img_crop_height]])
M = cv2.getPerspectiveTransform(points, pts_std)
dst_img = cv2.warpPerspective(
img,
M, (img_crop_width, img_crop_height),
borderMode=cv2.BORDER_REPLICATE,
flags=cv2.INTER_CUBIC)
dst_img_height, dst_img_width = dst_img.shape[0:2]
if dst_img_height * 1.0 / dst_img_width >= 1.5:
dst_img = np.rot90(dst_img)
return dst_img
def run(data_dir, label_file, save_dir):
datas = open(label_file, 'r').readlines()
for idx, line in enumerate(datas):
img_path, label = line.strip().split('\t')
img_path = os.path.join(data_dir, img_path)
label = json.loads(label)
src_im = cv2.imread(img_path)
if src_im is None:
continue
for anno in label:
seal_box = anno['seal_box']
txt_boxes = anno['polys']
crop_im = get_rotate_crop_image(src_im, text_boxes)
save_path = os.path.join(save_dir, f'{idx}.png')
if not os.path.exists(save_dir):
os.makedirs(save_dir)
# print(src_im.shape)
cv2.imwrite(save_path, crop_im)
这么做的效果就如下图,乱七八糟的,用脚指头想,都知道识别的效果不会好的
下面是识别效果,都是paddle的代码和paddle的模型。
但是呢如果一张图片里既有水平文字,又有弯曲文字的时候,他对水平文字就是别的很好,弯曲文字就完全不行。如下图
下图是文字识别的结果
难道他的正确率55%是抛弃所有弯曲文字,只要水平文字得来的吗?
搞得我都怀疑我自己了,到底是哪里做错了。
是不是因为我把定位和识别联系起来的过程中用的文字切片有问题,人家在det和rec连接的时候还有什么高明的做法吗?
我用截图软件,找了几张非常清晰的图片,将弯曲文字切割出来,不通过det模型直接送给rec模型试试看效果。如下面几个图的效果,是我用win自带的截图截出来的。win+shift+s
测试的结果如下图,没一个能看的,结果显示的是识别出来的文字+置信度,你看看,甚至很多置信度都是0,完全识别不到文字。
我累了,我再找找原因吧,,,,,
肯定还有一个隐藏的参数,没让我发现。
这个世界对菜鸟太不友好了。