努尔毕亚·亚地卡尔 作品数:6 被引量:11 H指数:2 供职机构: 新疆大学信息科学与工程学院 更多>> 发文基金: 国家自然科学基金 博士科研启动基金 新疆维吾尔自治区高校科研计划 更多>> 相关领域: 自动化与计算机技术 更多>>
基于优化GaitSet模型的步态识别研究 被引量:1 2022年 为了能够保留更多的输入步态轮廓图的轮廓和纹理等信息,增加深浅特征融合的输入,提出了基于优化GaitSet模型的步态识别研究.首先,在原模型的基础上,采用了联合Loss优化,步态轮廓图的裁剪对齐为较大图片尺寸,并且进行进一步的论证;其次,增加多尺度的感受野的特征输入和深浅特征融合;最后,在CASIA-B数据库上进行了验证.实验结果表明:LT样本规模及非相同视角下,NM状态下的识别率为97.309%,BG状态下的识别率为94.048%,CL状态下的识别率为81.736%.相比较原模型Rank-1的准确率有较大的提升. 刘正道 努尔毕亚·亚地卡尔 木特力甫·马木提 阿力木江·艾沙 阿力木江·艾沙关键词:步态识别 图像尺寸 基于方向特征的维吾尔文离线签名鉴别 被引量:1 2017年 本文以弥补我国少数民族离线签名鉴别体系中这一漏洞的前提下,结合维吾尔文手写签名的书写风格及特点,提出了一种基于16维方向的维吾尔文离线签名鉴别方法。实验中,对10个维吾尔族人的600个手写签名样本进行签名预处理和特征提取之后,分别用三种距离分类器来进行了签名鉴别,得到的最高签名总正确率为92.58%。实验结果表明,本文提出的方法对于离线的维吾尔文手写签名鉴别来说是一种较有效的鉴别方法。 祖丽皮亚·艾尼 麦合甫热提 努尔毕亚·亚地卡尔 库尔班·吾布力关键词:维吾尔文 基于深度卷积网络的非接触式掌纹识别与验证 被引量:1 2022年 针对非接触式掌纹图像存在手姿态、光照等干扰因素的问题,提出了使用深度卷积网络来提取非接触式掌纹特征的识别方法,对不同网络提取非接触式掌纹特征的性能进行了验证.为了提高实用性,避免非接触式掌纹验证前的ROI提取操作,提出了基于Siamese Network的非接触式掌纹验证方法.选用了ResNet、DenseNet、MobileNetV2和RegNet 4个卷积神经网络模型,在IITD、Tongji和MPD 3个非接触式掌纹数据集上做了非接触式掌纹识别的评估实验,在IITD数据集上进行了训练和验证.MobileNetV2在IITD数据集上的收敛速度最快,RegNet在Tongji、MPD两个数据集上的收敛速度明显快于另外3个网络.RegNet在3个数据集上的识别率均最高,且较传统方法有所提高.实验结果表明,用深度卷积网络提取非接触式掌纹特征的方法有更好的识别结果.基于Siamese Network的非接触式掌纹验证方法对自然场景下的掌纹图像有较好的验证结果,且对光照和手姿态具有一定的鲁棒性. 许赫庭 木特力甫·马木提 阿力木江·艾沙 努尔毕亚·亚地卡尔 库尔班·吾布力关键词:卷积神经网络 掌纹识别 非接触式 基于MobileNet网络多国人脸分类识别 被引量:3 2020年 随着各国经济贸易、文化交流往来的日益频繁,快速、有效地区分各国人员身份是当前人脸识别领域的一项重要研究。本文特针对亚洲区域五个国家(中国、日本、韩国、泰国、印度)进行人脸分类识别的研究,本文基于MobileNet进行五国人脸分类识别,因为这五国人脸较为相似,为能有效降低冗余,本文将八度卷积插入该网络中减少冗余,提升精度;并提出使用中心损失函数和交叉熵损失函数相结合的方法来提升准确率。经过实验验证,本文提出的在网络中插入八度卷积和中心损失函数两种改进方法均可以提升准确率,其最高准确率可达87.84%,其Error top 1最低达到0.120%。 郭奕君 阿里木江·阿布迪日依木 努尔毕亚·亚地卡尔 朱亚俐 朱亚俐改进SURF特征的维吾尔文复杂文档图像匹配检索 被引量:3 2019年 针对图像局部特征的词袋模型(Bag-of-Word, BOW)检索研究中聚类中心的不确定性和计算复杂性问题,提出一种由不同种类的距离进行相似程度测量的检索和由匹配点数来检索的方法。这种方法首先需要改进文档图像的SURF特征,有效降低特征提取复杂度;其次,对FAST+SURF特征实现FLANN双向匹配与KD-Tree+BBF匹配,在不同变换条件下验证特征鲁棒性;最后,基于这两种检索方法对已收集整理好的各类维吾尔文文档图像数据库进行检索。实验结果表明:基于距离的相似性度量复杂度次于基于匹配数目的检索,而且两种检索策略都能满足快速、精确查找需求。 阿丽亚·巴吐尔 努尔毕亚·亚地卡尔 吾尔尼沙·买买提 阿力木江·艾沙 库尔班·吾布力关键词:SURF特征 基于多粒度与自修复融合的人脸表情识别 被引量:2 2023年 为有效提取和融合表情多粒度特征信息,降低自然场景人脸表情数据集存在不确定性和错误数据等因素致使准确率难以满足现实需求的问题,基于深度卷积神经网络提出多粒度与自修复融合的表情识别模型。采用拼图生成器生成不同粒度图像,利用渐进式的训练过程学习不同粒度图像之间互补的特征信息,采用自修复方法避免网络过度拟合错误样本图像,对错误样本进行重新标注。在AffectNet数据集和RAF-DB数据集上准确率分别达到了63.94%和87.10%,实验结果表明,该模型具有较高的准确率和良好的鲁棒性。 王俊峰 木特力甫·马木提 阿力木江·艾沙 努尔毕亚·亚地卡尔 库尔班·吾布力关键词:多粒度 自修复 表情识别