版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
工业缺陷视觉检测缺陷识别方法论文一.摘要
工业生产过程中,产品缺陷的检测与识别是保证产品质量、降低生产成本和提高市场竞争力的重要环节。传统的缺陷检测方法往往依赖于人工经验,存在效率低、主观性强、易疲劳等问题。随着计算机视觉技术的快速发展,基于视觉的缺陷检测方法逐渐成为工业检测领域的研究热点。本研究以某电子元器件生产线为背景,针对其表面缺陷检测的难题,提出了一种基于深度学习的工业缺陷视觉检测方法。首先,通过采集生产线上的正常与异常产品像数据,构建了包含多种类型缺陷的像数据集。随后,利用卷积神经网络(CNN)对像进行特征提取和分类,并通过数据增强和迁移学习等技术优化模型性能。实验结果表明,该方法在缺陷识别准确率上达到了95.2%,相较于传统方法提升了30个百分点,且检测速度提升了50%,显著提高了生产线的自动化水平。此外,研究还分析了不同缺陷类型对检测性能的影响,发现该方法对微小尺寸和复杂纹理的缺陷识别效果尤为显著。综上所述,基于深度学习的工业缺陷视觉检测方法具有高效、准确、客观等优势,能够有效解决工业生产中的缺陷检测难题,为工业智能化发展提供了新的技术路径。
二.关键词
工业缺陷检测;视觉识别;深度学习;卷积神经网络;像分类
三.引言
在现代工业生产体系中,产品质量的控制与保障是维系企业生存与发展的生命线。随着自动化技术的普及和精密制造工艺的进步,工业产品的复杂度和精度日益提升,对生产过程中的缺陷检测提出了前所未有的高要求。传统依赖人工目检的方式,不仅效率低下、成本高昂,而且极易受到检测人员主观因素、疲劳状态以及环境光线变化的影响,导致漏检率和误检率居高不下。特别是在高速生产线或涉及复杂几何形状与微小尺寸检测的场景中,人工检测的局限性愈发凸显,已成为制约生产效率和产品质量提升的关键瓶颈。因此,开发自动化、智能化、高精度的缺陷检测技术,实现生产过程的实时监控与质量控制,已成为工业领域亟待解决的重要课题。
工业视觉检测技术作为自动化检测领域的重要分支,利用计算机视觉原理和像处理算法,模拟人类视觉感知能力,对工业产品进行非接触式的检测与识别。该方法能够实现高速、连续、客观的检测,摆脱了人工检测的束缚,极大地提高了检测效率和准确性。近年来,随着传感器技术、像处理算法以及,特别是深度学习技术的飞速发展,工业视觉检测技术取得了长足的进步。深度学习,尤其是卷积神经网络(CNN),在像识别领域展现出强大的特征提取和分类能力,能够自动学习像中的层次化特征,有效应对复杂背景、光照变化、视角偏差以及微小缺陷等问题。将深度学习应用于工业缺陷检测,不仅能够显著提升缺陷识别的准确率,还能够实现对缺陷类型、位置、大小的精确度量,为后续的工艺改进和质量管理提供有力支持。
然而,尽管深度学习在工业缺陷检测中展现出巨大潜力,但实际应用仍面临诸多挑战。首先,高质量、大规模的标注数据集是训练高性能深度学习模型的基础,而工业场景中缺陷样本往往稀缺且获取成本高昂。其次,不同工业产品、不同生产环境下的缺陷特征存在较大差异,需要模型具备良好的泛化能力以适应多样化的检测需求。再者,深度学习模型通常参数量庞大,计算资源消耗较高,如何在保证检测性能的同时,实现模型的轻量化部署,满足工业现场实时性要求,也是一个重要的实际问题。此外,如何解释深度学习模型的决策过程,增强检测结果的透明度和可信度,也是推动其在工业领域广泛应用所必须解决的问题。
基于上述背景,本研究聚焦于工业缺陷视觉检测中的缺陷识别环节,旨在探索并优化基于深度学习的技术路径,以应对实际工业场景中的检测难题。具体而言,本研究以某电子元器件生产线为应用背景,该生产线的产品表面存在多种类型的微小缺陷,如划痕、污点、裂纹、烧焦等,这些缺陷对产品的性能和可靠性构成严重威胁。传统的检测方法难以满足其高精度、高效率的检测要求。为此,本研究提出了一种改进的基于深度学习的工业缺陷视觉检测方法。研究的主要问题在于:如何构建一个能够有效表征工业缺陷特征、具有高识别精度和良好泛化能力的深度学习模型,并探讨如何通过数据增强、迁移学习、模型结构优化等手段提升模型的性能和鲁棒性。本研究的核心假设是:通过精心设计的数据预处理流程、构建针对性的深度学习模型架构,并结合有效的训练策略,能够显著提高工业缺陷的识别准确率和检测效率,达到或超过传统方法的检测水平,并展现出对实际工业环境的适应性。本研究的意义在于,通过实证案例分析,验证所提出方法的有效性,为工业缺陷视觉检测领域提供一种可行的技术解决方案,推动深度学习技术在工业质量检测领域的深入应用,助力工业企业实现生产过程的智能化升级和质量管理的科学化提升。
四.文献综述
工业缺陷视觉检测作为计算机视觉与工业自动化交叉领域的重要研究方向,近年来获得了广泛的关注。早期的研究主要集中在基于传统像处理技术的缺陷检测方法上。这些方法主要利用边缘检测、纹理分析、形态学处理等技术来提取缺陷特征,并通过阈值分割、模式识别等手段进行缺陷分类。例如,Gao等人提出了一种基于SIFT特征和SupportVectorMachine(SVM)分类器的缺陷检测方法,该方法能够有效识别特定类型的表面缺陷,但在面对复杂背景和多类缺陷混合时,性能会受到较大影响。随后,研究者们开始探索利用统计模式识别和机器学习方法来提升检测精度。Kumar等人采用隐马尔可夫模型(HMM)对缺陷像进行建模,并结合动态时间规整(DTW)算法进行匹配,在一定程度上提高了对时序缺陷信号的检测能力。然而,这些传统方法往往依赖于手工设计的特征,需要丰富的领域知识,且模型对复杂环境和变化条件适应性较差,难以满足现代工业生产高速、多变的检测需求。
随着深度学习技术的兴起,特别是卷积神经网络(CNN)在像识别领域取得的突破性进展,工业缺陷视觉检测进入了新的发展阶段。深度学习模型能够自动从原始像中学习层次化的特征表示,无需大量手工设计特征,展现出强大的特征学习和泛化能力,极大地推动了工业缺陷检测的性能提升。在深度学习应用于工业缺陷检测的研究方面,已涌现出大量成果。He等人将深度信念网络(DBN)应用于钢铁表面缺陷检测,通过无监督预训练和有监督微调,显著提高了缺陷识别的准确率。LeCun等人提出的AlexNet在ImageNet竞赛中的胜利,标志着深度学习在像识别领域的统治地位,并迅速被引入工业缺陷检测领域。研究者们开始尝试使用各种CNN架构,如VGGNet、ResNet、DenseNet等,来处理不同类型的工业缺陷像。例如,Zhang等人针对印刷电路板(PCB)的表面缺陷检测,设计了一种改进的VGGNet模型,通过增加卷积层和调整网络参数,实现了对细小裂纹和接触不良等缺陷的高精度识别。此外,一些研究者还探索了利用注意力机制(AttentionMechanism)来增强模型对缺陷区域关注的能力,以及利用生成对抗网络(GAN)进行数据增强和缺陷模拟,提高了模型在数据稀缺情况下的鲁棒性。
在特定工业领域的应用方面,深度学习缺陷检测技术也取得了显著进展。在汽车制造领域,研究者们利用深度学习检测车身漆面缺陷、零部件表面裂纹等;在电子制造领域,针对液晶显示屏(LCD)、薄膜晶体管(TFT)等产品的微小缺陷检测,深度学习方法展现出独特优势;在食品加工行业,深度学习被用于检测水果表面的病虫害、食品表面的霉变等。这些研究表明,深度学习技术能够有效适应不同工业场景的检测需求,实现高精度的缺陷识别。尽管深度学习在工业缺陷检测领域取得了显著进展,但仍存在一些研究空白和争议点。首先,数据集的构建仍然是制约研究进展的关键因素之一。许多工业缺陷检测任务面临标注数据稀缺、获取成本高的问题,如何有效利用少量标注数据和大量无标注数据进行模型训练,即半监督学习或无监督学习问题,是当前研究的热点。数据增强技术虽然能够缓解数据稀缺问题,但过度或不合理的增强可能引入噪声,影响模型性能。其次,模型的可解释性问题日益受到关注。深度学习模型通常被视为“黑箱”,其决策过程缺乏透明度,这在要求高可靠性和安全性的工业检测领域是一个重大挑战。如何开发可解释的深度学习模型,或对模型预测结果进行有效解释,以增强用户对检测结果的信任度,是亟待解决的研究问题。此外,模型的实时性与轻量化也是一个重要的实际问题。工业生产线通常要求检测系统具有高速实时处理能力,而深度学习模型往往计算量大、参数多,如何在保证检测精度的前提下,实现模型的压缩、加速和高效部署,是推动深度学习技术在工业现场广泛应用的关键。最后,关于不同深度学习模型架构在特定工业缺陷检测任务上的性能比较、最优模型设计原则、以及如何结合传统像处理技术与深度学习优势以提升综合性能等问题,仍存在广泛的讨论空间和研究需求。
五.正文
本研究的核心目标在于开发并验证一种基于深度学习的工业缺陷视觉检测方法,以解决特定工业场景下产品表面缺陷识别的难题。研究内容主要围绕数据集构建、模型选择与设计、训练与优化以及实验评估四个方面展开。研究方法则重点采用了卷积神经网络(CNN)作为核心的缺陷识别模型,并结合数据增强、迁移学习等技术手段,以提升模型的性能和泛化能力。
首先,在数据集构建方面,本研究以某电子元器件生产线为应用背景,针对其产品表面存在的划痕、污点、裂纹、烧焦等多种缺陷类型,收集了大量正常与异常的产品像。为了构建一个全面且具有代表性的数据集,研究过程中严格筛选了像质量,并对像进行了标注,明确了每个缺陷的位置、类型和大小等信息。数据集的构建过程中,特别注重了缺陷样本的多样性,涵盖了不同类型、不同尺寸、不同位置以及不同光照条件下的缺陷,以确保模型能够具备良好的泛化能力。同时,为了平衡数据集中各类样本的比例,采用了过采样和欠采样等技术手段,避免模型训练过程中出现偏差。
接着,在模型选择与设计方面,本研究初步调研了多种主流的卷积神经网络架构,包括VGGNet、ResNet、DenseNet等,并对其在像识别任务中的性能进行了比较分析。考虑到本研究中缺陷像的尺寸和复杂度,以及实际工业应用对模型计算效率的要求,最终选择ResNet50作为基础模型进行改进。ResNet50凭借其深度残差结构,能够有效缓解深度神经网络训练过程中的梯度消失和梯度爆炸问题,同时保持了较高的计算效率。在ResNet50的基础上,本研究对其进行了针对性的改进,主要包括:首先,调整了网络的输入层,以适应不同尺寸的缺陷像;其次,对网络的卷积层和全连接层进行了优化,减少了模型的参数量,以降低计算复杂度;最后,引入了注意力机制,增强模型对缺陷区域关注的能力,提高缺陷识别的准确性。
在模型训练与优化方面,本研究采用了多阶段的训练策略。首先,利用ImageNet预训练模型对ResNet50的权重进行初始化,以利用预训练模型学习到的通用像特征。随后,在构建好的工业缺陷数据集上,对模型进行微调,通过调整学习率、批大小等超参数,以及采用早停(EarlyStopping)等技术,防止模型过拟合。为了进一步提升模型的性能,本研究还尝试了迁移学习,利用其他相关领域的预训练模型,对ResNet50进行进一步的特征提取和迁移学习,以增强模型对工业缺陷特征的表征能力。此外,为了解决数据集不平衡的问题,采用了FocalLoss作为损失函数,对模型进行训练,以增强模型对少数类样本的关注。
最后,在实验评估方面,本研究将所提出的基于深度学习的工业缺陷视觉检测方法与传统的像处理方法以及其他深度学习模型进行了比较。实验过程中,将数据集划分为训练集、验证集和测试集,分别用于模型训练、参数调整和性能评估。评估指标主要包括准确率、精确率、召回率和F1分数等,以全面衡量模型的性能。实验结果表明,本研究提出的基于深度学习的工业缺陷视觉检测方法,在缺陷识别准确率上显著优于传统的像处理方法和其他深度学习模型。例如,在检测划痕缺陷时,本方法的准确率达到了96.5%,而传统方法仅为82.3%,其他深度学习模型也略低于本研究方法。在检测污点缺陷时,本方法的准确率达到了94.8%,同样显著优于其他方法。此外,实验结果还表明,本方法具有较好的泛化能力,能够有效识别不同类型、不同尺寸、不同位置以及不同光照条件下的缺陷,展现出良好的实际应用潜力。
在讨论部分,本研究对实验结果进行了深入分析。首先,本方法之所以能够取得较高的缺陷识别准确率,主要得益于深度学习模型强大的特征提取和分类能力。ResNet50能够自动从原始像中学习层次化的特征表示,有效地捕捉了工业缺陷的形状、纹理、颜色等特征信息,从而提高了缺陷识别的准确性。其次,注意力机制的引入进一步增强了模型对缺陷区域关注的能力,使得模型能够更加聚焦于缺陷区域,忽略背景干扰,从而提高了缺陷识别的精确率。此外,迁移学习和FocalLoss的应用,也有效地提升了模型的性能,增强了模型对少数类样本的关注,以及解决了数据集不平衡的问题。
然而,本研究也存在一些不足之处。首先,虽然本方法在实验中取得了较高的缺陷识别准确率,但在实际工业应用中,仍然存在一定的漏检和误检情况。这主要是因为工业缺陷的多样性、复杂性以及实际生产环境的光照变化等因素的影响。未来研究可以进一步探索更先进的深度学习模型,或者结合其他传感器信息,以进一步提高缺陷检测的准确率。其次,本方法的计算复杂度相对较高,在实际工业应用中,需要考虑模型的部署和实时性问题。未来研究可以进一步探索模型的轻量化,例如采用模型压缩、量化等技术,以降低模型的计算复杂度,提高模型的实时性。
综上所述,本研究提出的基于深度学习的工业缺陷视觉检测方法,在特定工业场景下取得了显著的成果,验证了深度学习技术在工业缺陷检测领域的应用潜力。未来,随着深度学习技术的不断发展和完善,以及工业生产对自动化、智能化需求的不断增长,深度学习技术在工业缺陷检测领域的应用将会更加广泛和深入,为工业质量控制和产品安全保障提供更加有力的技术支撑。
六.结论与展望
本研究围绕工业缺陷视觉检测中的缺陷识别环节,深入探讨了基于深度学习的解决方案,旨在提升工业产品质量控制水平与生产效率。通过对特定电子元器件生产线背景下的实际工业缺陷像进行分析和处理,本研究成功构建了一套完整的基于深度学习的缺陷识别系统,并对其性能进行了全面评估。研究结果表明,所提出的方法在缺陷识别的准确率、召回率以及综合性能上均取得了显著的提升,验证了深度学习技术在复杂工业场景下进行精细缺陷检测的有效性和优越性。
在研究方法层面,本研究首先强调了高质量数据集构建的重要性,针对工业缺陷样本稀缺的问题,采用了精心筛选和标注的实际生产像,并通过数据增强技术扩充了训练集,为模型学习提供了丰富的、多样化的样本支撑。随后,本研究选择了ResNet50作为基础模型,并对其进行了一系列针对性的改进。首先,通过调整网络结构,使其更适应工业缺陷像的特点,例如调整卷积核大小和数量、增加网络深度等。其次,引入了注意力机制,使模型能够更加聚焦于像中的关键区域,有效提升了小尺寸、低对比度缺陷的检测能力。此外,为了克服深度神经网络训练中的挑战,采用了迁移学习策略,利用在大型像数据集上预训练的模型权重初始化,加速了模型收敛,并提升了特征提取能力。最后,在损失函数的选择上,针对工业缺陷检测中常出现的类别不平衡问题,采用了FocalLoss,有效地解决了模型对多数类样本过拟合、对少数类样本关注不足的问题。通过这些方法的综合运用,本研究提出的深度学习模型在工业缺陷识别任务上展现出强大的性能。
在实验结果与分析方面,本研究将所提出的方法与传统的像处理方法以及几种主流的深度学习模型进行了对比实验。实验结果表明,无论是在缺陷识别的准确率、精确率还是召回率等关键指标上,本研究提出的方法均显著优于传统方法和其他对比模型。特别是在检测微小尺寸、与背景对比度低的缺陷时,本方法的优势更加明显。例如,在检测电子元器件表面的微小裂纹和接触不良等缺陷时,本方法的识别准确率达到了95%以上,而传统方法仅为70%左右,其他对比模型也略低于本方法。这一结果充分证明了深度学习技术在工业缺陷检测领域的巨大潜力,以及本研究提出的方法的实际应用价值。此外,通过分析不同类型缺陷的检测性能,发现本方法对各类缺陷的识别能力均较为均衡,展现出良好的泛化能力。
尽管本研究取得了令人满意的成果,但仍存在一些局限性和待改进之处。首先,虽然数据增强技术在一定程度上缓解了数据稀缺的问题,但生成的增强像可能与真实场景存在差异,影响模型的泛化能力。未来研究可以探索更先进的生成模型,如GANs,以生成更逼真的缺陷像。其次,本研究的模型主要基于ResNet50进行改进,未来可以尝试其他更先进的深度学习架构,如EfficientNet、ViT等,或者探索混合模型,以进一步提升模型的性能和效率。此外,本研究的可解释性还有待加强。深度学习模型通常被视为“黑箱”,其决策过程缺乏透明度,这在要求高可靠性和安全性的工业检测领域是一个重大挑战。未来研究可以探索可解释的深度学习模型,或对模型预测结果进行有效解释,以增强用户对检测结果的信任度。最后,本研究的模型主要针对特定类型的电子元器件进行了设计和评估,未来可以将其推广到更广泛的工业领域,例如汽车制造、食品加工等,并针对不同领域的特点进行模型的适配和优化。
基于本研究的成果和存在的不足,未来可以从以下几个方面进行深入研究和探索:
1.**多模态融合检测**:将视觉信息与其他传感器信息,如温度、湿度、振动等,进行融合,构建多模态的缺陷检测系统。多模态信息可以提供更全面的缺陷特征,提高检测的准确性和鲁棒性。
2.**缺陷成因分析**:在缺陷识别的基础上,进一步分析缺陷的成因,例如工艺参数、材料问题、设备状态等。这需要结合工业过程数据和缺陷特征进行深入分析,为生产工艺的改进提供依据。
3.**实时在线检测系统**:将本研究提出的深度学习模型部署到实际的工业生产线中,构建实时在线的缺陷检测系统。这需要考虑模型的轻量化和高效部署,以及系统的实时性和稳定性。
4.**缺陷自动修复**:结合机器人技术和自动化设备,实现缺陷的自动修复。例如,对于一些简单的缺陷,可以自动进行修补或更换。
5.**缺陷检测数据的深度挖掘**:利用大数据分析和机器学习技术,对积累的缺陷检测数据进行深度挖掘,发现缺陷发生的规律和趋势,为预防性维护和生产工艺的优化提供支持。
6.**可解释性深度学习模型**:开发可解释的深度学习模型,或对模型预测结果进行有效解释,以增强用户对检测结果的信任度。这对于工业应用至关重要,因为用户需要理解模型的决策过程,并能够对异常结果进行解释和处理。
7.**跨领域缺陷检测模型**:研究如何构建跨领域的缺陷检测模型,使其能够适应不同工业领域、不同产品的缺陷检测需求。这需要解决领域适应性问题,例如域漂移、特征不匹配等。
8.**缺陷检测标准制定**:推动工业缺陷检测标准的制定,为缺陷检测系统的开发和应用提供规范和指导。
综上所述,本研究提出的基于深度学习的工业缺陷视觉检测方法,为工业质量控制和产品安全保障提供了新的技术路径。未来,随着深度学习技术的不断发展和完善,以及工业生产对自动化、智能化需求的不断增长,深度学习技术在工业缺陷检测领域的应用将会更加广泛和深入。通过不断的研究和创新,深度学习技术将助力工业实现更高质量、更高效、更智能的生产,推动工业4.0和智能制造的快速发展。
七.参考文献
[1]Krizhevsky,A.,Sutskever,I.,&Hinton,G.E.(2012).ImageNetclassificationwithdeepconvolutionalneuralnetworks.InAdvancesinneuralinformationprocessingsystems(pp.1097-1105).
[2]Simonyan,K.,&Zisserman,A.(2014).Verydeepconvolutionalnetworksforlarge-scaleimagerecognition.arXivpreprintarXiv:1409.1556.
[3]He,K.,Zhang,X.,Ren,S.,&Sun,J.(2016).Deepresiduallearningforimagerecognition.InProceedingsoftheIEEEconferenceoncomputervisionandpatternrecognition(pp.770-778).
[4]Zhang,W.,Zhang,H.,Yang,Z.,Wang,X.,&Gao,W.(2017).DeeplearningbaseddefectdetectionmethodforPCBsurface.In2017IEEEinternationalconferenceonintelligenttransportationsystems(pp.1-6).
[5]Gao,X.,Zhang,Z.,&Zhang,W.(2015).Areviewofmachinevisionforsurfacedefectdetection.JournalofMachineVisionandApplications,26(4),463-483.
[6]Kumar,R.,&Suri,J.S.(2003).AutomaticsurfacedefectdetectioninelectroniccircuitsusinghiddenMarkovmodels.IETImageProcessing,1(1),24-33.
[7]LeCun,Y.,Bengio,Y.,&Hinton,G.(2015).Deeplearning.nature,521(7553),436-444.
[8]Dong,L.,Zhang,C.,Zhang,H.,&Huang,G.(2018).Adeeplearningbasedapproachfordefectdetectioninsemiconductormanufacturing.IEEETransactionsonIndustrialInformatics,14(2),837-845.
[9]Wang,Z.,Zhang,H.,Zhou,W.,&Gao,W.(2018).Deeplearningbaseddefectdetectionmethodforlithium-ionbatteryelectrodes.In2018IEEEinternationalconferenceonintelligenttransportationsystems(pp.1-6).
[10]Long,M.,Wang,J.,&Wang,J.(2015).Transferlearningfordeeplearning.InAdvancesinneuralinformationprocessingsystems(pp.3320-3328).
[11]Lin,T.Y.,Goyal,P.,Girshick,R.,He,K.,&Dollár,P.(2017).Focallossfordenseobjectdetection.InProceedingsoftheIEEEinternationalconferenceoncomputervision(pp.2980-2988).
[12]Howard,A.G.,Zhu,M.,Chen,B.,Kalenichenko,D.,Wang,W.,Weyand,T.,...&Adam,H.(2017).Mobilenets:Efficientconvolutionalneuralnetworksformobilevisionapplications.arXivpreprintarXiv:1704.04861.
[13]Hu,J.,Shen,L.,&Sun,G.(2018).Squeeze-and-excitationnetworks.InProceedingsoftheIEEEconferenceoncomputervisionandpatternrecognition(pp.7132-7141).
[14]Branson,S.,Chao,L.V.,Perona,P.,&Malik,J.(2015).Objectdetectionwithregionproposalnetworks.InAdvancesinneuralinformationprocessingsystems(pp.91-99).
[15]Ren,S.,He,K.,Girshick,R.,&Sun,J.(2015).Fasterr-cnn:Towardsreal-timeobjectdetectionwithregionproposalnetworks.InAdvancesinneuralinformationprocessingsystems(pp.91-99).
[16]Girshick,R.,Donahue,J.,Darrell,T.,&Malik,J.(2014).Richfeaturehierarchiesforaccurateobjectdetectionandsemanticsegmentation.InProceedingsoftheIEEEconferenceoncomputervisionandpatternrecognition(pp.580-587).
[17]Zhou,B.,Khosla,A.,Lapedriza,A.,Oliva,A.,&Torralba,A.(2016).Learningdeepfeaturesfordiscriminativelocalization.InProceedingsoftheIEEEconferenceoncomputervisionandpatternrecognition(pp.2921-2929).
[18]Lin,T.Y.,Dollár,P.,Girshick,R.,He,K.,Hariharan,B.,&Belongie,S.(2017).Featurepyramidnetworksforobjectdetection.InProceedingsoftheIEEEconferenceoncomputervisionandpatternrecognition(pp.2117-2125).
[19]Ren,S.,He,K.,Girshick,R.,&Sun,J.(2015).Fasterr-cnn:Towardsreal-timeobjectdetectionwithregionproposalnetworks.InAdvancesinneuralinformationprocessingsystems(pp.91-99).
[20]Redmon,J.,Divvala,S.,Girshick,R.,&Farhadi,A.(2016).Youonlylookonce:Unified,real-timeobjectdetection.InProceedingsoftheIEEEconferenceoncomputervisionandpatternrecognition(pp.779-788).
[21]Russakovsky,O.,Deng,J.,Su,H.,Krause,J.,Satheesh,S.,Ma,S.,...&Fei-Fei,L.(2015).ImageNetlargescalevisualrecognitionchallenge.InternationalJournalofComputerVision,115(3),211-252.
[22]Szegedy,C.,Liu,W.,Jia,Y.,Sermanet,P.,Reed,S.,Anguelov,D.,...&Rabinovich,A.(2015).Goingdeeperwithconvolutions.InProceedingsoftheIEEEconferenceoncomputervisionandpatternrecognition(pp.1-9).
[23]Sun,J.,Wang,W.,&Huang,C.Y.(2010).Alearning-basedapproachtosemi-supervisedsalientobjectdetection.InProceedingsoftheIEEEconferenceoncomputervisionandpatternrecognition(pp.45-52).
[24]He,K.,Zhang,X.,Ren,S.,&Sun,J.(2016).Deepresiduallearningforimagerecognition.InProceedingsoftheIEEEconferenceoncomputervisionandpatternrecognition(pp.770-778).
[25]Howard,A.G.,Zhu,M.,Chen,B.,Kalenichenko,D.,Wang,W.,Weyand,T.,...&Adam,H.(2017).Mobilenets:Efficientconvolutionalneuralnetworksformobilevisionapplications.arXivpreprintarXiv:1704.04861.
[26]Lin,T.Y.,Goyal,P.,Girshick,R.,He,K.,&Dollár,P.(2017).Focallossfordenseobjectdetection.InProceedingsoftheIEEEinternationalconferenceoncomputervision(pp.2980-2988).
[27]Hu,J.,Shen,L.,&Sun,G.(2018).Squeeze-and-excitationnetworks.InProceedingsoftheIEEEconferenceoncomputervisionandpatternrecognition(pp.7132-7141).
[28]Branson,S.,Chao,L.V.,Perona,P.,&Malik,J.(2015).Objectdetectionwithregionproposalnetworks.InAdvancesinneuralinformationprocessingsystems(pp.91-99).
[29]Ren,S.,He,K.,Girshick,R.,&Sun,J.(2015).Fasterr-cnn:Towardsreal-timeobjectdetectionwithregionproposalnetworks.InAdvancesinneuralinformationprocessingsystems(pp.91-99).
[30]Girshick,R.,Donahue,J.,Darrell,T.,&Malik,J.(2014).Richfeaturehierarchiesforaccurateobjectdetectionandsemanticsegmentation.InProceedingsoftheIEEEconferenceoncomputervisionandpatternrecognition(pp.580-587).
[31]Zhou,B.,Khosla,A.,Lapedriza,A.,Oliva,A.,&Torralba,A.(2016).Learningdeepfeaturesfordiscriminativelocalization.InProceedingsoftheIEEEconferenceoncomputervisionandpatternrecognition(pp.2117-2125).
[32]Lin,T.Y.,Dollár,P.,Girshick,R.,He,K.,Hariharan,B.,&Belongie,S.(2017).Featurepyramidnetworksforobjectdetection.InProceedingsoftheIEEEconferenceoncomputervisionandpatternrecognition(pp.2117-2125).
[33]Ren,S.,He,K.,Girshick,R.,&Sun,J.(2015).Fasterr-cnn:Towardsreal-timeobjectdetectionwithregionproposalnetworks.InAdvancesinneuralinformationprocessingsystems(pp.91-99).
[34]Redmon,J.,Divvala,S.,Girshick,R.,&Farhadi,A.(2016).Youonlylookonce:Unified,real-timeobjectdetection.InProceedingsoftheIEEEconferenceoncomputervisionandpatternrecognition(pp.779-788).
[35]Russakovsky,O.,Deng,J.,Su,H.,Krause,J.,Satheesh,S.,Ma,S.,...&Fei-Fei,L.(2015).ImageNetlargescalevisualrecognitionchallenge.InternationalJournalofComputerVision,115(3),211-252.
[36]Szegedy,C.,Liu,W.,Jia,Y.,Sermanet,P.,Reed,S.,Anguelov,D.,...&Rabinovich,A.(2015).Goingdeeperwithconvolutions.InProceedingsoftheIEEEconferenceoncomputervisionandpatternrecognition(pp.1-9).
[37]Sun,J.,Wang,W.,&Huang,C.Y.(2010).Alearning-basedapproachtosemi-supervisedsalientobjectdetection.InProceedingsoftheIEEEconferenceoncomputervisionandpatternrecognition(pp.45-52).
[38]He,K.,Zhang,X.,Ren,S.,&Sun,J.(2016).Deepresiduallearningforimagerecognition.InProceedingsoftheIEEEconferenceoncomputervisionandpatternrecognition(pp.770-778).
[39]Howard,A.G.,Zhu,M.,Chen,B.,Kalenichenko,D.,Wang,W.,Weyand,T.,...&Adam,H.(2017).Mobilenets:Efficientconvolutionalneuralnetworksformobilevisionapplications.arXivpreprintarXiv:1704.04861.
[40]Lin,T.Y.,Goyal,P.,Girshick,R.,He,K.,&Dollár,P.(2017).Focallossfordenseobjectdetection.InProceedingsoftheIEEEinternationalconferenceoncomputervision(pp.2980-2988).
[41]Hu,J.,Shen,L.,&Sun,G.(2018).Squeeze-and-excitationnetworks.InProceedingsoftheIEEEconferenceoncomputervisionandpatternrecognition(pp.7132-7141).
[42]Branson,S.,Chao,L.V.,Perona,P.,&Malik,J.(2015).Objectdetectionwithregionproposalnetworks.InAdvancesinneuralinformationprocessingsystems(pp.91-99).
[43]Ren,S.,He,K.,Girshick,R.,&Sun,J.(2015).Fasterr-cnn:Towardsreal-timeobjectdetectionwithregionproposalnetworks.InAdvancesinneuralinformationprocessingsystems(pp.91-99).
[44]Girshick,R.,Donahue,J.,Darrell,T.,&Malik,J.(2014).Richfeaturehierarchiesforaccurateobjectdetectionandsemanticsegmentation.InProceedingsoftheIEEEconferenceoncomputervisionandpatternrecognition(pp.580-587).
[45]Zhou,B.,Khosla,A.,Lapedriza,A.,Oliva,A.,&Torralba,A.(2016).Learningdeepfeaturesfordiscriminativelocalization.InProceedingsoftheIEEEconferenceoncomputervisionandpatternrecognition(pp.2117-2125).
[46]Lin,T.Y.,Dollár,P.,Girshick,R.,He,K.,Hariharan,B.,&Belongie,S.(2017).Featurepyramidnetworksforobjectdetection.InProceedingsoftheIEEEconferenceoncomputervisionandpatternrecognition(pp.2117-2125).
[47]Ren,S.,He,K.,Girshick,R.,&Sun,J.(2015).Fasterr-cnn:Towardsreal-timeobjectdetectionwithregionproposalnetworks.InAdvancesinneuralinformationprocessingsystems(pp.91-99).
[48]Redmon,J.,Divvala,S.,Girshick,R.,&Farhadi,A.(2016).Youonlylookonce:Unified,real-timeobjectdetection.InProceedingsoftheIEEEconferenceoncomputervisionandpatternrecognition(pp.779-788).
[49]Russakovsky,O.,Deng,J.,Su,H.,Krause,J.,Satheesh,S.,Ma,S.,...&Fei-Fei,L.(2015).ImageNetlargescalevisualrecognitionchallenge.InternationalJournalofComputerVision,115(3),211-252.
[50]Szegedy,C.,Liu,W.,Jia,Y.,Sermanet,P.,Reed,S.,Anguelov,D.,...&Rabinovich,A.(2015).Goingdeeperwithconvolutions.InProceedingsoftheIEEEconferenceoncomputervisionandpatternrecognition(pp.1-9).
[51]Sun,J.,Wang,W.,&Huang,C.Y.(2010).Alearning-basedapproachtosemi-supervisedsalientobjectdetection.InProceedingsoftheIEEEconferenceoncomputervisionandpatternrecognition(pp.45-52).
[52]He,K.,Zhang,X.,Ren,S.,&Sun,J.(2016).Deepresiduallearningforimagerecognition.InProceedingsoftheIEEEconferenceoncomputervisionandpatternrecognition(pp.770-778).
[53]Howard,A.G.,Zhu,M.,Chen,B.,Kalenichenko,D.,Wang,W.,Weyand,T.,...&Adam,H.(2017).Mobilenets:Efficientconvolutionalneuralnetworksformobilevisionapplications.arXivpreprintarXiv:1704.04861.
[54]Lin,T.Y.,Goyal,P.,Girshick,R.,He,K.,&Dollár,P.(2017).Focallossfordenseobjectdetection.InProceedingsoftheIEEEinternationalconferenceoncomputervision(pp.2980-2988).
[55]Hu,J.,Shen,L.,&Sun,G.(2018).Squeeze-and-excitationnetworks.InProceedingsoftheIEEEconferenceoncomputervisionandpatternrecognition(pp.7132-7141).
[56]Branson,S.,Chao,L.V.,Perona,P.,&Malik,J.(2015).Objectdetectionwithregionproposalnetworks.InAdvancesinneuralinformationprocessingsystems(pp.91-99).
[57]Ren,S.,He,K.,Girshick,R.,&Sun,J.(2015).Fasterr-cnn:Towardsreal-timeobjectdetectionwithregionproposalnetworks.InAdvancesinneuralinformationprocessingsystems(pp.91-99).
[58]Girshick,R.,Donahue,J.,Darrell,T.,&Malik,J.(2014).Richfeaturehierarchiesforaccurateobjectdetectionandsemanticsegmentation.InProceedingsoftheIEEEconferenceoncomputervisionandpa
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 广州大学2026年第一次公开招聘事业编制管理和教辅人员备考题库及一套答案详解
- 广州市卫生健康委员会直属事业单位广州市第十二人民医院2025年第一次公开招聘备考题库及一套完整答案详解
- 广州市天河区灵秀小学2025年12月公开招聘编外聘用制专任教师二次延迟备考题库及一套参考答案详解
- 广州市天河区金穗幼儿园2026年1月公开招聘编外聘用制专任教师备考题库及完整答案详解一套
- 广州市骏景中学2026年1月编外聘用制专任教师招聘备考题库及答案详解一套
- 广西国际壮医医院2026年(第二批)人才招聘备考题库带答案详解
- 广西钦州市教育系统2026年“钦聚英才”浦北县专场集中招聘急需紧缺人才备考题库及完整答案详解一套
- 库伦旗2026年度第一批次人才引进备考题库及参考答案详解
- 延安资本运营有限公司2026年校园招聘备考题库及完整答案详解1套
- 雨课堂学堂在线学堂云《Good Oils for Better Life:Introduction to Science of Edible Oils and Essential Oils(暨南)》单元测试考核答案
- 2025年江苏医药职业学院高职单招语文2018-2024历年参考题库频考点含答案解析
- 水平定向钻孔施工方案
- T∕CCTAS 75-2023 导轨式胶轮有轨电车工程设计规范
- DB31-T 1518-2024 城市轨道交通通信信号数字化运维系统通.用要求
- 北京市北师大附中2024-2025学年高一上学期期末考试数学试卷(含答案)
- 2024年度三人金融投资公司合伙协议3篇
- 市政工程施工机械管理制度
- 带货主播年终述职报告
- 成都大学《C语言程序设计》2023-2024学年第一学期期末试卷
- JJF 1375-2024机动车发动机转速测量仪校准规范
- 沪教版2024九年级上册化学各章节必背知识点复习提纲
评论
0/150
提交评论