汉字识别关键技术研究(我的大学论文)

汉字识别关键技术研究

摘要

现如今人们在日常生活办公中使用计算机处理一些文本、图表等数据信息。因为由于汉字其数量庞大、结构复杂,所以加重了人们处理数据的难度。汉字识别系统的研究可以提高人们数据处理效率,而算法的优化可以提高系统的效率。本文主要介绍汉字识别预处理方面算法的优化。

首先,结合前人的经验对二值化算法进行了优化,提出了结合手动阈值选取和边界轮廓提取结合的二值化算法,该算法不仅提高了图像二值化的效果,而且对图像上存在的单像素噪声进行清除。

其次,总结经验提出了适合印刷体汉字识别汉字切分算法和汉字倾斜矫正算法。

最后,在汉字识别模块,使用区域分割的模板匹配算法突出相似汉字的不同之处,能很好的区分相似汉字。

关键词:汉字识别,预处理,模板匹配 

1绪  论

本章节我们对汉字识别的发展过程、汉字识别对我国未来科技发展存在的意义、汉字识别关键名词介绍和本文的章节内容安排。

1.1汉字识别的发展过程

从历史文献上可以看出,印刷字体的识别最早是在美国开始,美国巨头公司IBM在1966年发表了文章介绍关于印刷体汉字识别方面的理论基础。在美国之后日本根据之前的文章做了很多相关工作,并研制出能识别两千多字的汉字识别系统,但是由于他们研制的汉字识别系统成本比较高,没有得到应用。而我们国家汉字识别的研究可以分为下面的几个阶段:

第一时期,从70年年代末期至80年代末期,主要是一些关键性算法的研究及系统方案的探索。

第二时期,90年代,汉字识别技术慢慢的走出实验室得到初步的应用。

第三时期,性能优化,其中包括效率、准确率及与其他文字的混合识别。

1.2汉字识别研究的意义

21世纪随着互联网的发展,人们生活办公日益网络化,我们的工作生活,使用计算机处理一些文本信息、图标等数据信息。汉字自动识别的研究可以有效的减少人们在日常生活工作中的劳动量大大的提高工作效率,对于我国而言,我们是汉字的发源国家,拥有着上千年的汉字使用历史是世界上使用汉字人数最多的国家[1]。因此汉字自动识别对于我国在智能化办公、人工智能等高尖端科技领域有着重要的意义。就汉字而言,因为其数量庞大、结构复杂,并且与拼音字母不同。所以大大的加重了人们在处理数据中遇到的难度,因此汉字识别关键技术的研究对我国未来科技的发展具有重大意义。

汉字识别可以应用于诸多领域,其中不仅包括阅读、检索、翻译、信息校对等基础领域,而且还可以应用在人工智能、军事技术等高尖端技术的应用,汉字识别的研究及应用对我国各行各业的工作效率提高,及我国高尖端技术的发展有着重要的意义。

1.3汉字识别的难点

我国是汉字的发源地,有着数千年的文化历史,因为汉字的文化悠久,演变过程多样,因此汉字识别存在一些影响汉字识别的关键因素。

1.3.1类别大

汉字不像数字,字母数量非常少识别起来方便,汉字数量非常大,我们常用的汉字就有将近七千个汉字,每个汉字的结构也不一样,汉字庞大的数量使我们在进行汉字识别中要做大量的工作,总结规律。

1.3.2结构复杂

笔画是汉字的基本组成部分[2]。由于汉字的笔画从一划到几十划不等,所以汉字结构复杂程度不同。

1.3.3形似字比较多

由于汉字之间存在一些形状非常相近的汉字,例如:“大”和“太”,另外还存在一些汉字笔画数相同但只存在一些细微的差异例如:“太”和“犬”,因此要求汉字识别系统要能够判断这些细微的变化,以避免错误的发生。

汉字由于具有以上的几种特殊情况因此造成了汉字识别的困难。

1.4汉字识别流程简介

印刷体汉字识别技术主要包括:1)扫描文本图像文件;2)对文本图像进行二值化处理;3)对扫描过后的文本图像进行预处理;4)对图像进行行字切分;5)进行汉字特征提取与选择;6)进行识别。印刷体汉字识别框图如图1.1所示。


图1.1印刷体汉字识别系统框图

1.5专业术语介绍

1)二值化

二值化就是将一张多灰度值得图像变成只有两种灰度值得图像。

2)图像预处理

预处理就是说去除一些不必要的因素(影响汉字识别的因素)。

1.6章节安排

第一章对汉字识别的基本情况进行概述

第二章是对汉字识别关键算法的探究,了解结构模式、统计模式、人工神经网络和模板匹配算法的实现原理及优劣。

第三章主要是汉字预处理算法介绍与设计,提出手动阈值选取和边界轮廓结合的二值化算法、适合印刷体汉字的临界点切割和平移法的汉字矫正算法。

第四章对系统进行设计与实现,并对系统的性能进行总结。

第五章总结本系统的优劣并对未来汉字识别的趋势进行展望。

2汉字识别方法研究

本章主要是探究汉字识别算法的探究,分别对结构模式识别、统计模式识别、人工神经网络、模板匹配算法进行介绍。

2.1结构模式识别

结构识别模式其实就像埃及的金字塔倒过来,由大到小一级一级的直到最小的那一块金字塔,结构模式就是这样的原理,我们把一个汉字分解成不同的小块一直到最小的那块为止,这样就可以方便我们的对汉字进行识别,结构模式分解示意图如图2.1所示。

图2.1 模式分解示意图

在结构识别模式中我们将我们观察的图像想象成一个由基元组成的结构,将模式类表示成一个具有相似结构特征的集合。我们把基元构成模式所遵循的规则称为文法(句法)。结构识别模式的系统框图如图2.2所示[3]。

图2.2结构模式识别系统框图

2.2统计模式识别

2.2.1统计模式识别简介

统计模式识别方法就是使用样本集 [4]。在知道的研究对象统计模型或者我们已经知道函数的判别方法的情况下根据一定的准则,把学习n维特征空间划分成为D个区域,把每一个区域与不同的类别对应起来。统计模式识别的系统框图如图2.3所示,其中统计模式的最核心是选择器的选择。

图2.3统计模式系统框图

2.2.2统计模式识别常用的算法

1)贝尔斯决策方法

贝斯决策法有以下假定:

1、每一个类别的总体概率分布已知。

2、被我们决策的分类数是一定的。

3、我们要观察的对象由多个特征供我们观测。

当我们要识别的对象用m表示,随机向量使用n表示,我们已经知道分类的先验概率的条件密度函数,根据贝叶斯公式求得解后的概率按照其进行判别分类及使贝叶斯决策方法[6]。

2)判别函数法(几何分类法)

判别函数是指直接用来对统计模式进行分类的标准函数。

如果分别属于w1,w2两类模式可以使用同一方程f(x)=0来进行划分,那么我们就称f(x)为判别函数,由图2.4知方程法f(x)=w1x1+w2*x2+w3=0,其中x1,x2为坐标,w1,w2,w3是方程的参数[7]。

图2.4两类二维模式分布

2.3人工神经网络

近年来计算机科学结合生物科学,人们创造性的提出了人工神经网络[5]。即模拟人类的神经元建立模型,然后再根据不同的场景使用不同的连接策略对人工神经网络模型进行连接。神经网络模型图如图2.5所示。

图2.5神经网络模型图

其中bp神经网络是由神经网络延伸而来,bp神经网络设就是设置不同的标准即隐含层,当要出输出的结果达不到预期的效果则会将其反向输入出去,根据隐含层中不同的规则对达不到要求的结果进行修正,直至达到要求为止。BP神经网络模型图如图2.6所示。

图2.6 bp神经网络模型图

正向传递:正向传递就是按照图2.6所示,样本从输入层输入,经过隐含层对样本进行相应的处理,最后到达输出层。

误差的反向传播:我们将达不到预期要求的结果,以一种特定的方式进行反向传播。并计算出误差信号平均分摊到隐含层中,各隐含层根据误差信号对样本进行处理[6]。

由于反向传播使用梯度下降法,需要计算平方误差函数对网络权重的导数。

假设对于输出神经元,平方误差函数为:


其中,E为平方误差,t为训练样本的目标输出,y为输出神经元的实际输出。

加入系数1/2是为了抵消微分出来的指数。之后,该表达式会乘以一个任意的学习速率,因此在这里乘上一个常系数是没有关系的。对每个神经元 j,它的输出Oj定义为

激活函数 :


其导数的形式很好:


求误差的导数

计算误差对权重Wij  的偏导数是两次使用链式法则得到的:


在右边的最后一项中,只有加权和  netj  取决于Wij  ,因此

神经元 j的输出对其输入的导数就是激活函数的偏导数(这里假定使用逻辑函数):

这就是为什么反向传播需要的激活函数是可微的。

如果神经元在输出层中,因为此时 j=y以及


所以第一项可以直接算出。

但如果Oj 是网络中任一内层,求 E 关于Oj的导数就不太简单了。

考虑 E 为接受来自神经元Oj 的输入的所有神经元 L=u,v…,w的输入的函数,

关于Oj取全微分,可以得到该导数的一个递归表达式:

因此,若已知所有关于下一层(更接近输出神经元的一层)的输出Ol 的导数,则可以计算Oj的导数。

把它们放在一起。


其中

要使用梯度下降法更新Wij ,必须选择一个学习速率。要加在原本的权重上的权重的变化,等于学习速率与梯度的乘积,乘以 -1。

之所以要乘以 -1是因为要更新误差函数极小值而不是极大值的方向。

2.4模板匹配算法

模板匹配算法,就是在模板堆中找到与样本一样的。模板匹配系统框图如图2.7所示。

图2.7模板匹配框图

一种简单的模板匹配算法如下。

其中T表示模板,Si,j表示样本,下面是去均值算法。

但是通过观察发现使用这种模板匹配算法对一些相似汉字的识别存在不能区分的情况。通过我们观察相似的汉字发现,相似汉字都是在某一部分存在不一样的地方,如果我们在汉字识别过程中能够突出显示这一不同的地方加以区分便可轻松解决模板匹配算法在相似字识别方面存在的不足之处。我们可以把一个汉字样本分割成多块来进行识别这样我们可以把汉字的不同之处突出出来,但是分割成多少块是一个问题,因为如果我们把一个汉字分割的区域过多就会导致在识别的过程中耗时比较长的问题,如果分割的区域过少则可能导致不同点突出不来的情况。经过我们大量的实验测试发现把汉字分割成四个区域效果比较理想,而且我们在汉字识别的过程中判定如果识别的第一区域没有通过则终止与该模板的对比,这样可以节约一部分时间。但是对于分成四个模板分别对汉字进行识别来说,该算法还是存在耗时比较长的问题。样本分割示意图如图2.8位所示。

我们假设二值化预处理过后的图像{fI(i,j),i=1,2,..,n,j=1,2,…,m},I=1,2,…,p,模板图像{Tk(I,j),i=1,2,…,n,j=1,2,…,m},k=1,2,,…,q,匹配系数:


图2.8 样本分割示意图

3 预处理算法介绍及优化

本章节主要介绍预处理算法相关算法及部分算法的优化。

3.1二值化

二值化就是将一张多灰度值得图像变成只有两种灰度值得图像。

3.1.1 OTSU大律法

是使用最大方差算法,计算出使前景色与背景色相比方差最大的值即为阈值。

设图像包含F个灰度级(0,1…,F-1),灰度值为i的像素点数为Ni,图像总的象素点数为M=M0+M1+...+M(F-1)。灰度值为i的点的概率为:P(i) = M(i)/M.

图像的方差函数:σ=p1*p2(k1-k2)^2式中,pj为类cj的面积与图像总面积之比,p1=sum(P(i)) i->t, p2= 1-p1;kj为类cj的均值,k1 = sum(i*P(i))/p1 0->t, k2= sum(i*P(i))/p2, t+1->F-1,该法选择方差最大,即:令Δk=k1-k2,σb = max{ p1(t)*p2(t)Δk^2}。

OSTU算法计算简单,稳定有效是常用的算法。

3.1.2 力矩保持法

我们根据经验选取一个比较合适的阈值,让二值化过后的图像和原来的图像相比具有三个不同的力矩。

3.1.3 灰度值平均值法

就是将一张图片的灰度值进行相加,然后求出平均值。

3.1.4手动阈值选取与边界轮廓提取结合

我们在介绍手动阈值选取与边界轮廓提取结合二值化算法之前,我们首先要了解什么是边界轮廓提取,边界轮廓提取的规律。像素边界线有如下四类:直线,分叉线,十字线,折线。

根据上图可知,我们想要判定某一像素是不是为边界像素,我们只需要观察该像素是不是的四相邻是边界背景像素还是前景像素,在该点是前景像素的前提下,如果它的四相邻像素不全为前景像素的前提下则该像素为边界像素。边界像素提取算子如图3.10所示。


图3.10边界像素提取算子

我们将是边界像素的坐标保存到数组中,把不是边界像素的前景色删除,把灰度值重新更改并写到图片上则得到的图像为边界轮廓提取图像。

本文采用的二值化算法,是使用手动阈值选取与边界轮廓提取结合的算法,即我们先选择一个比较通用的一个二值化阈值对图像进行二值化,然后再通过边界轮廓提取算法对图像进行边界轮廓提取。然后再把非边界元素的前景色进行反向填充[10]。这样可以避免,手动阈值选取存在的不必要影响。

首先是手动阈值的选取,我们通过大量实验表明,手动选取阈值的值大概为160比较好。首先进行手动阈值处理,采用算法原理是:

如果p1-p>0则p2=255;

如果p1-p<=0则 p2=0。

其中p为阈值,p1为灰度值。

然后我们进行边界轮廓的提取,假设P[i][j]存放着图像的灰度值,我们通过观察发现当P[i][j]的相邻像素都为前景色的时候,当该满足是前景色的前提下,只要满足该像素的四相邻像素的灰度值不全是前景色的前提下则该点为边界轮廓点。前景色非临界点的情况如表3.1所示。

边界轮廓提取当满足下列条件则该点则为边界点

P[i,j]为前景色即P[i,j]=0;

P[i,j-1]、P[i-1,j]、 P[i+1,j]、 P[i,j+1]不全部为前景色(P[i,j-1]、P[i-1,j]、 P[i+1,j]、 P[i,j+1]存在值等于255)。

或者

P[i,j-1]、P[i-1,j]、 P[i+1,j]、 P[i,j+1]存在至少有一个是前景色,至少有一个是背景色(P[i,j-1]、P[i-1,j]、 P[i+1,j]、 P[i,j+1]存在值等于255而且存在值等于0的两种情况)。

满足上述两种情况之一我们即可以得出边界轮廓坐标,但是经过分析发现第一种算法更好一些,因为对于第一种情况而言,可以对单像素噪声进行直接过滤,单像素噪声的情况如表3.2所示。

其中0代表前景色,1代表背景色

第二种方法只是判断了四相邻像素是否符合边界轮廓像素的条件,但并没有计算该点像素是否符合前景色的情况,如表3.2所示,前景色的四相邻像素由于满足边界轮廓的条件会被判定为该四点为边界点,然而事实上并非如此,从而会对二值化的图像产生不必要的噪声污染,然而第一种方法,由于前提是先进行了前景色的判断该情况不属于前景色个不用说是边界点,因此会默认将此点更改为背景色,不仅可以消除噪音而且由于直接判断该点不是前景色结束了当前的判断从而减少了下面的几种情况的判断,从而减少了不必要的时间浪费,提高了工作效率。然而通过观察大量图像二值化边界轮廓提取的二值化实例效果图发现,该效果并不能满足我们的需求。二值化边界轮廓提取效果图3.11所示。


图3.11边界轮廓提取效果图

通过观察大量的实验结果发现该效果图种存在大量背景像素,而这些像素的存在会对我们下面的工作造成严重的影响,但是细心观察会发现,原本应该是前景色的背景色都存在一个规律及它们的四相邻像素都是前景色,该元素四相邻像素情况如表3.3所示。


即当P[i,j]满足下列情况我们则对P[i,j]进行填充:

P[i,j]为背景色即(P[i,j]=255);

P[i,j-1]、P[i-1,j]、 P[i+1,j]、 P[i,j+1]全部为前景色即(P[i,j-1]=255、P[i-1,j]=255、 P[i+1,j]=255、 P[i,j+1]=255)。

如果满足上诉两种情况我们则令P[ i,j]为前景色,即P[ i,j]=0。

经过填充过后的二值化效果图如图3.12所示,图3.13和图3.14分别是手动阈值选取和边界轮廓提取示意图。


3.2中值滤波

由于汉字在二值化的过程中,由于算法二值化算法的问题或者纸张,环境等一些问题二值化之后的图像存在一些不必要的噪声影响汉字识别的操作,因此我们要对汉字进行去噪声的处理,减少对汉字识别存在的不必要影响。

中值滤波其实就是比较大小的算法,将每一个像素的灰度值与周围的灰度值相比较。如果差距比较大就更改该灰度值为与周围灰度值相似的灰度值函数图如图3.16所示[11]。


3.3倾斜矫正

印刷体汉字其实在采集转换成图像信息时,如果发生倾斜整张图片的倾斜角度是一样的,因此我们对该样本进行倾斜矫正可以采取平移法。

我们可以采用让扫描整张图片选取某一边界以该边界的起点为起始点进行往下做两条直线构成直角三角形,引线示意图如图3.17所示。


我们以n为起始点向上做两条线,根据勾股定理求出倾斜角度然后进行矫正。

结合图3.17和勾股定理可知


根据图3.17可以知道只需要将每一行的像素向左移动特定的像素,从第一行开始从上到下逐行进行向左移动m个像素,h表示第几行,h的值不大于b,每行要平移的像素

向上平移的像素是固定值n=b-a。然后我们对每一列的像素都进行向上向左平移校正的示意图如图3.18所示。


然后我们对图片进行处理将上图中右侧的倒三角的像素进行删除,得到的图像就是校正后的图像。

3.4汉字切分

相对于印刷体而言,其整体存在一定的规范,行与行之间,列于列之间,相对来说比较规范,因此我们对汉字的切分可以通过整体汉字行列之间的空隙来进行切分,这样的切分方法,算法简单,实现起来容易,而且所消耗的时间相对来说有一定的优势.

原理是我们对整张图片进行扫描,通过记录前景色和背景色的相交点作为切分点的方法对汉字进行切分,对行切分的时候不仅要记录下行的临界点的位置而且还要记录该行开始和结束位置列的临界点的位置,因为如果不记录列临界点的位置,我们对汉字进行切分的时候,由于每段的结尾开头两行行存在的汉字个数与其他行存在差异,我们记录开始和结束行的列临界点的位置,切分的时候进行精确切分,避免如图在切分的时候存在空白的情况,这样不仅可以避免空白图像的出现,相对来说也是对识别效率的一种提升。图3.19为汉字切分示意图。


通过对图的观察发现,算法实现的原理是,首先对行列进行扫描,如果当这一行存在一点是前景色,而且上一行为背景色即存在P[i,j]=0、P[i-1,j]=255(i=2,3,…,n)则记录i的值,列的切分,同理如果当这一列存在一点是前景色,而且上一列为背景色即存在P[i,j]=0、P[i,j-1]=255(j=2,3,…,n)则记录的值,并且记录下行与行相邻行之间的差值范围内列的开始的位置值与结束的位置,然后我们再两者结合对汉字进行切分,这样可以避免我们如果先通过单独行切分单独列切分存在左右结构上下结构的汉字分开的情况例如:“川”和“二”。这样不仅算法实现起来简单,而且可以有效的避免把上下左右结构的汉字分开的情况,汉字切分结果如图3.20所示。      


3.5汉字细化

在字符识别过程中,突出形状的特点可以减少信息的信息量.

Zhang快速细化算法

汉字细化的特点:

在细化过程中,图像有规律的缩小­

在缩小过程中,图像的连通性质保持不变

把一幅图像中的一个3×3

区域,四个条件同时满足时,删除P1(即使P1=0)。3X3区域标记如表3.4所示。


图像细化的条件



3.6汉字特征提取

印刷体识别特征是值具有参考价值的特征。常用的识别特征如下:

1)复杂指数

复杂指数只反应字符笔画的复杂,与位置大小无关。


2)包含配选法

因为汉字也具有一些相同特征,根据汉字的结构可以将汉字分成不同偏旁部首的汉字,这样根据偏旁部首就可以大致知道汉字是属于哪一类汉字[13]。

4原型系统设计与实现

4.1原型系统设计

4.1.1系统识别框图

汉字识别系统主要包括两部分即预处理模块和汉字识别模块。汉字系统识别框图如图4.1所示。


4.1.2预处理模块设计

首先进行手动阈值选取的二值化方法,然后再通过边界轮廓提取,反向填充,增加了二值化的效果,不仅仅是二值化效果更加接近于原图,而且直接对单像素噪声进行了去噪,从而方便下面工作的开展。

然后使用中值滤波的方法,去除了影响汉字识别的不必要因素从而提高汉字识别的效率,保存汉字识别的边缘特性;然后通过使用平移法对图像进行校正让图恢复原来的矩形。最后通过使用汉字临界点切割法对汉字行切分列切割。预处理系统框图如图4.2所示。


4.1.3汉字识别模块设计

通过第二节的处理使影响汉字识别的因素降到了最低,然后通过提取汉字的结构特征和优化模板匹配算法,将识别样本分成四个象限区域,采取逐区域的进行汉字识别,以减少相似字的识别存在误差的因素,从而提高汉字识别的准确率。汉字识别模块框图如图4.3所示。


4.2原型系统实现

4.2.1实验环境

本系统使用的开发平台是windows7、开发工具是myeclipse和Tesseract。

Myeclipse是基于eclipse的集成开发工具,Tesseract是汉字模板库软件。其中有汉字模板训练库。

4.2.2实验结果

运行系统,为系统运行图如图4.4,4.5所示,汉字识别结果如图4.6,4.7所示。



4.3性能分析

4.3.1优势

由于采用汉字识别区域分割的模板匹配算法,所以在汉字识别过程中能对相似汉字进行很好的识别。相似汉字识别效果如图4.8所示。



4.3.2劣势

1)乱码

由于使用中值滤波去噪,根据中值滤波的原理如果存在噪声比较大或者噪声存在某个汉字方块区域内,那么我们并不能有效的清除噪声,噪声会被保存下来导致汉字存在粘在一起的情况。如果噪声在某个汉字方块内汉字识别过程中就会出现错误或者乱码情况如图4.9所示,如果噪声不在汉字方块内噪声就会被消除,不影响汉字识别如图4.10所示。


2)耗时比较长

由于在预处理过程中对图片的二值化使用手动阈值选取结合边界轮廓提取的二值化算法,行字切分使用临界点分割算法。而手动阈值选取结合边界轮廓提取的二值化算法占用的时间包括手动阈值算法的时间、边界轮廓提取所使用的时间以及反向填充所占用的时间,三个时间的总合;汉字临界点切割算法因为标记的临界点坐标位置比较多,在进行临界点提取的时候需要消耗一部分时间。算法平均耗时如表4.1所示。


在汉字识别算法采用区域分割模板匹配算法,虽然我们在判断第一部分时如果样本与模板不匹配我们就结束与该区域的匹配,但是由于存在一些原因虽然样本与模板某些部分相似但确并不相同,我们会接着进行第二区域第三区域甚至第四区域的比对,这样就会存在浪费时间的情况。对存在相似汉字和不存在相似汉字的,分别进行识别,它们的平均耗时如表4.2所示。


结论

在这当中我经过了很多测试,选出比较合适的阈值先作为手动阈值的初始值,然后我再采用我设计的手动阈值选取结合边界轮廓提取的二值化算法对图像文件进行二值化处理,经过处理的图像文件可识别度非常的高,而且通过手动阈值选取结合边界轮廓提取的二值化算法还可以对单像素的噪声进行了清除。在进行噪声处理的时候采用中值滤波算法使图像上存在的不必要噪声得到清除,我们对图像文件进行倾斜矫正的方法采用自己设计的结合平行四边形和直角三角形的原理从上到下逐行对图像中的像素进行平移便可得到校正过后的图像文件,对图像的质量没有任何影响,而且原理简单容易实现;在进行字切分的过程中我们采用临界点切割法,我们通过扫描根据一定的规律对图像文件进行汉字的行与列的临界点标记,然后分别把行列临界点的坐标分别记录到数组中,我们通过数组中的临界点,通过规律让行临界点n>1,列临界点m>1,通过m-(m-1),n-(n-1),通过类似的方式对行列进行一次性切分;为了达到识别不同大小的文字我们还要让图像中的文字设定特定的规律其中包括汉字的大小的经过算法处理使汉字的大小都相同。

经过上面的一系列处理,我们将处理过的信息,放入到我们的模板库中进行对比,首先我们将信息分成四个区域进行匹配,对相似汉字的识别例如“日”和“月”,“天”和“夫”,“未”和“末”等都能很好的区分开来,使相似汉字识别存在的不必要的误差得到了有效的降低

由于采取优化的算法使汉字识别的准确率有了很大的提高,但是由于算法的改进,导致算法的复杂度也有所上升例如手动阈值选取算法结合使用虽然在二值化图像的质量上面有了大大升高,但是于此同时算法结构复杂我们同时采用了两种算法结合使识别之前对图像信息进行处理所占用的时间成几何增长(大概增长了三倍)、模板匹配算法由于将相样本分割成数个区域进行分别比对导致所占用时间是原来的几倍及临界点汉字切分算法由于所要标记的临界点位置比较多,因此读取使用的时候也比较占用时间,总体来说虽然本系统用时比较长,但是对相似字的识别效率比较高。

总体来说,以后汉字识别技术研究的关键是更快更准,通过对算法的优化与改进达到瞬间就可以获取自己所需要的信息的目的。以后发展过程中一定会是多学科跨领域的结合,可以达到随时获取信息。

©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。