基于华为智能手机的人民币鉴伪-版式与金额识别文献综述

 2022-11-28 17:08:06

一、引言

近年来,我国对于人民币真伪鉴别技术得到了良好的发展,但是对于移动终端的真伪鉴别研究较少,利用手机人民币图像对真伪鉴别是一个很有意义的研究课题。随着人民币的国际化[1],人民币在国外流通时的真伪鉴别成为了一个重要的问题,利用手机终端能够有效地准确识别人民币真伪。随着智能手机的不断发展,智能手机的普及率越来越高,同时还搭载了高分辨率相机,在高分辨率手机相机下可以清楚地看见人眼难以看清楚的人民币纹理细节。人民币金额与版式的识别是人民币真伪鉴别中的一个重要步骤,只有知道了识别物体是否为人民币,并且知道了该人民币的金额与版式,我们才能对特定金额的人民币进行真伪鉴别工作。当然,该部分内容可由用户自己输入,但对于用户,尤其是中老年人群体以及不了解人民币的群体,复杂的操作和主观的辨别将严重破环他们的体验,一款交互性良好的App,减少用户操作是十分必要的。

二、相关文献的研究现状

(一)人民币金额与版式识别

人民币金额与版式的识别,就是通过图像自动识别该人民币的面额与版式,这看似是一个简单的挑战,但当同时考虑识别一张图像中的目标是否为人民币时,这个问题就变得复杂起来了。到目前为止,国内外有关纸币图像金额识别的研究文献已经有很多,但基于手机图像金额识别与纸币版式识别的研究文献较少。

2010年,Papastavrou S等人[2]利用智能手机相机采集纸币图像,通过计算纸币的高度和宽度,实现欧元、波兰纸币和美元的面额识别,但是该方法的识别结果会因为纸币的褶皱、磨损和撕裂等发生巨大的变化。2011年,Paisios N等人[3]提出了一种基于移动手机的纸币识别方法,用以帮助视障人士,该方法对采集的美元纸币图像提取SIFT算子,通过K均值进行聚类从而实现对美元面额的识别。2011年,Singh P等人[4]针对印度卢比开发了一种手机应用,采用GrabCut算法分离前景和背景,利用BOW进行识别,该方法对于图像光照和背景十分敏感。2014年,Singh S等人[5]利用手机相机采集印度纸币图像,使用BOW进行面值识别。2014年,Daniel B.P.等人[6]使用手机采集美元图像,使用基于主成分分析的特征脸识别法,用于识别美元的面额,但是此方法对于图像的光照和背景比较敏感。2016 年,Doush I.A.等人[7]提出了一个手机识别系统,使用约旦币的SIFT特征进行面值识别,对于光照和图像采集距离敏感度较高。2018 年,Tamarafinide V.D.等人[8]做了一个手机应用,使用手机相机采集尼日尼亚纸币图像,然后通过KNN算法进行面额识别。2019年,Julia Schulte等人[9]研究了深度学习用于钞票处理机欧元识别的可行性,为拒绝非欧元物体使用0-class模块,用谷歌的inception-v3网络进行训练并取得了很好的识别准确率。

2008年,程海玉等人[10]提出了一种基于BP神经网络的人民币面额识别方法,但其是提取人民币图像轮廓点个数作为特征向量。2015年,刘慧孟[11]对人民币信息识别算法进行研究,利用CIS传感器采集人民币图像,在识别前对人民币图像进行了校正、定位、平滑等预处理,在允许拒识得情况下,取得了很高得准确率。2015年,焦梦姝等人[12]基于Android开发平台对人民币面额手机识别系统设计进行了研究,使用SVM训练模型进行识别。

(二)深度学习

深度学习是机器学习领域中一个新的研究方向,其概念源于人工神经网络的研究,含多个隐藏层的多层感知器就是一种深度学习结构。深度学习通过组合低层特征形成更加抽象的高层表示属性类别或特征,以发现数据的分布式特征表示。在过去十年中,强大的硬件计算能力和更大的数据集使深度学习发展突飞猛进,在自然语言处理、语音识别和图像识别等学科中取得的成果远超许多经典算法。

深度学习发展史上的一个里程碑就是卷积神经网络AlexNet[13]在ILSVRC挑战中获胜,它将ImageNet数据集的top-5错误率从26.1%降到了15.3%,将当时最佳图像识别性能提高了一倍。此后,卷积神经网络在图像分类、图像分割、目标检测等领域获得广泛应用。VGG[14]提出了可以通过重复使用简单基础块来构建深度网络模型的思路;另外,GoogLeNet[15]引入了inception并行连结结构,通过不同窗口形状的卷积层和池化层来并行抽取信息,并使用1x1卷积层减少通道数从而降低模型复杂度。残差网络ResNet[16]、稠密连接网络DenseNet[17]等网络的出现,也为如今深度学习的发展作出重大贡献。

由于神经网络的性质,为了获得更好的性能,网络层数在不断增加,但随之而来的就是效率问题,主要是模型的存储问题和模型进行预测的速度问题。对于效率问题,通常的方法是进行模型压缩,即在已经训练好的模型上进行压缩,使得网络携带更少的网络参数,从而解决内存问题,同时可以解决速度问题。目前,深度学习的模型压缩方法主要有模型裁剪、核的稀疏化等。相比于在已经训练好的模型上进行处理,轻量化模型设计则是另辟蹊径。轻量化模型设计主要思想在于设计更高效的网络计算方式,从而使网络参数减少的同时,不损失网络性能。如SqueezeNet[18]、MobileNet[19]等,使用更加细致、高效的模型设计,能够很大程度的减少模型尺寸,并且也具有不错的性能。

剩余内容已隐藏,您需要先支付 10元 才能查看该篇文章全部内容!立即支付

以上是毕业论文文献综述,课题毕业论文、任务书、外文翻译、程序设计、图纸设计等资料可联系客服协助查找。