201810247019
基于双流融合卷积神经网络的X光图片智能识别系统
创新训练项目
同济大学
工学
力学类
2018-09-01
2020-06-06
姓名 年级 学号 所在院系 专业 联系电话 E-mail 是否主持人
陶研廷 * 1753555 * * * * 第一主持人
田宇清 * 1751975 * * * *
段抒彤 * 1853912 * * * *
姓名 单位 专业技术职务 指导教师类型
赵才荣 副研究员 第一指导教师
负责人曾经参与科研的情况:
指导教师承担科研课题情况:
指导教师对本项目的支持情况:
项目简介: 目前,基本上所有X光安检仪设置的场所,如地铁站、火车站、飞机场等地,X光安检仪所生成的伪彩图都是由安检员来查看,这样的安检流程明显存在很多弊端:1.??误判违禁品。安置X光安检仪的场所,一般都有人流量较大,开放时间较长的特征,安检员长时间查看X光安检仪产生的图像,必然会产生疲劳感,注意力与判断力会随之衰弱,造成其对违禁品的误判,给不法分子以可乘之机,产生社会安全隐患。2.??培训成本高。只有经过严格培训的安检员,才能快速准确地识别X光安检图片中的违禁品。对安检员的培训,就需要花费大量的时间与人力成本。未经过专业培训的安检员,可能会因为速度过慢导致人员短时间滞留,人流拥堵。但是,随着人工智能的出现及发展,举例说明,在2015年的ImageNetLargeScaleVisualRecognitionCompetition上,在其中图像分类项目中,KaimingHe的团队发明的ResNet,成功地在对分类类别数达到1000类的大量图片的分类中,将错误率降低到了3.57%。因此,我们考虑到可以将在图像分类任务中表现得更好的机器,应用于X光安检图片的分类识别中。事实上,国内外也确实出现了将计算机视觉领域的模型应用到X光行李图像的分类检测的领域的研究。在对X光下的物品的分类方面,之前的工作主要是基于视觉词袋模型(Bag-of-Visual-Words)的机器学习方法。其中,结合了特征描述符(featuredescriptor)和支持向量机(SupportVectorMachine,SVM)的BOVW模型在用于对X光图像的单视图和双视图的分类中,达到了对枪械与笔记本电脑的分类的最佳平均精度。而之后使用了迁移学习的卷积神经网络(CNN)方法被证明,在不考虑物品的探测(定位)问题时,在广义上要优于BOVW模型。然而,分类只能解决确认行李是否含有违禁品的问题。另一个需要解决的重要问题就是以边界框标注出违禁品在X光安检图片中的定位,即探测问题。使用了线性SVM分类器与定向梯度直方图(histogramoforientedgradients,HOG)的滑动窗口检测方法,结合对从现代X光扫描仪中多个视点拍摄的X光图像单视图探测的步骤,避免了错误检测并找到真实检测的交集。在之后的研究实验中,现代的目标检测模型R-CNN,R-FCN,YOLOv2的方法在目标探测领域的速度与准确率的表现,都要优于基于滑动窗口的CNN方法(SW-CNN)。其中,YOLOv2模型在六分类问题中达到了0.885的mAP值,在枪械二分类问题中达到了0.974的mAP值。(meanAveragePrecision,mAP值:用于衡量模型在所有类别上的探测效果的好坏)但是考虑到将其应用于安检领域,任何一种违禁物的误判都可能带来严重的社会安全隐患,现有的目标检测模型在多分类问题上的表现(mAP值)还不足以保证其被应用到实际的安检工作中。因此本课题立足安检领域,在当下目标检测深度学习模型基础上,融合双流卷积神经网络的思想优化目标检测模型,获得目标图像稳定鲁棒的高层语义描述,设计更加高效的X光图片识别系统。