甲骨文原始拓片单字自动分割的智能识别系统设计_第1页
甲骨文原始拓片单字自动分割的智能识别系统设计_第2页
甲骨文原始拓片单字自动分割的智能识别系统设计_第3页
甲骨文原始拓片单字自动分割的智能识别系统设计_第4页
甲骨文原始拓片单字自动分割的智能识别系统设计_第5页
已阅读5页,还剩59页未读 继续免费阅读

付费下载

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

[32]的标准化分辨率。4基于YOLO网络的甲骨文单字自动分割甲骨文原始拓片图像的自动单字分割任务不只是具备图像分割的基本特性,还融合了目标检测相关元素,这对模型的准确性和效率提出了更高要求,所以构建一个能够适应这些要求的模型是本节的主要研究目标,鉴于甲骨文原始拓片图像具有的独特特征,本任务选用了在目标检测领域经过充分验证且效果显著的YOLOv5与YOLOv8算法来完成甲骨文图像分割工作,YOLO系列算法凭借其出色性能、高准确性以及实时处理能力而闻名,能够很好地满足甲骨文图像分割的需求。4.1研究坏境及参数设定本实验主要采用Python语言,并在Anaconda中配置虚拟环境,并使用PyTorch深度学习框架构建神经网络,安装CUDA工具包,并配置CUDA以使用NVIDIAGeForceRTX4090训练模型。其具体实验环境如表4-1所示:表4-1实验环境列表软件或硬件版本参数操作系统Windows11CPU16核,Xeon(R)Gold6430RAM120GGPUNVIDIAGeForceRTX4090开发语言Python3.11集成开发环境PyCharmProfessional2024.3.1深度学习框架PyTorch2.1CUDA版本12.6编译器AnacondaNavigator(anaconda3)在模型训练之前,需要对模型配置文件中的参数进行调整,以确保其与本文数据集的训练要求相匹配。模型训练参数的详细设置如表4-2所示。表4-2模型训练参数参数项数值训练轮次epochs100输入图片尺寸imgsz640×640/320×320每轮样本数batch-size32初始学习率lr00.001续表4-2参数项数值动量值momentum0.937权重衰减weight_decay0.005预训练权重modelv5x/v8n/v8m/v8l4.2甲骨文图像分割流程YOLO网络实现甲练好的甲骨文字符检测模型,输出结果为检测框位置;再根据检测框对每一幅图像进行分割,即可完成甲骨文的分割任务,具体流程在图中给出:图4-1甲骨文字符分割流程4.3损失函数优化损失函数是整个算法网络训练收敛时的目标函数,训练过程中模型尽可能的将损失函数值最优化以调整自身参数实现最佳的检测性能,合理的损失函数可以有效提高模型的收敛、泛化性能。边界框回归函数主要负责微调预测的边界框,使其更准确地贴合目标的真实边界。交并比(IoU)是目标检测评估预测边界框与真实边界框之间重叠程度的常用指标。IoU公式如下:L式(4.1)中,A和B分别是实际边界框区域和预测边界框区域的面积。YOLOv8对IoU进行了一定的优化形成了CIoU,考虑了检测框的中心点距离和长宽比。CIoU公式如下:L式(4.2)中,D表示预测框与真实框中心点之间的欧氏距离,C表示包围预测框和真实框的最小外接框对角线长度,α是平衡因子,通常根据真实框和预测框的宽高比计算,V是宽高比的惩罚项,用于控制框的形状偏差。SIoU是一种新的目标检测损失函数,它的目的是解决IoU损失函数训练时的梯度消失问题,通过整合方向信息,它对损失函数的惩罚指标做了重新定义,新的损失函数主要由角度损失、距离损失、形状损失和IoU损失这四个部分构成,这种综合性损失函数旨在更全面评估预测框与真实框之间的差异,进而指导模型进行更精确的调整,综合四个部分,新的损失函数能更全面引导模型进行优化,提升目标检测的准确性和稳定性,预测框和真实框的相对位置如图4-2所示。图4-2预测框和真实框相对位置图角度损失的计算过程如公式(4.3)所示,A=1−2∗其中Cℎ为真实框和预测框中心点的高度差,σ距离损失的计算过程如公式(4.4)所示,Δ其中btgt表示真实框的中心点,形状损失的计算过程公式如(4.5)所示Ω其中θ表示对形状损失的控制参数。最终SIoU损失函数定义如式(4.6)所示:L尽管CIoU在传统IoU的基础上进行了有效的改进,但在小目标检测中并没有考虑到角度以及规模因素,由于甲骨文字在拓片图像中呈现出小目标的特性,所以引入针对小目标检测的损失函数SIoU来提高小目标检测精度。SIoU(SmoothedIntersectionoverUnion)函数是一种用于目标检测任务中评估检测框预测的精度的方法,它基于IoU(IntersectionoverUnion)度量,但引入了平滑因子来提高对小目标的鲁棒性。通常情况下,由于小目标尺寸较小,预测的检测框可能与真实框之间的重叠区域相对较小,这可能导致IoU度量的不稳定性。SIoU函数通过引入平滑因子,对IoU进行平滑处理,从而在一定程度上减少了这种不稳定性,提高了对小目标的检测性能。4.4模型训练选择了广泛应用的YOLOv5网络与YOLOv8网络,针对v5网络,模型性能评价指标选择了其中最为先进的v5x模型,针对v8网络,则综合考虑了不同复杂度和性能的模型,最终选择了v8n、v8m以及v8l这三个网络模型。针对选择的不同的模型,在划分好的不同比例的数据集上训练,并且通过不断调整超参数来优化训练效果,具体的训练环境和参数配置如表4-1和表4-2所示。其中综合训练结果最好的模型为在640×640下经过预处理操作、改进损失为SIoU的YOLOv8m网络(,模型的关键性能指标的变化图如图4-3所示。横轴代表迭代次数,而纵轴代表了概率值,概率值的范围介于0到1之间,没有单位。从图可以看出,模型显现出良好的收敛特性,训练损失(Loss)曲线迅速趋于平稳。整个训练过非常顺畅,模型的稳定性很好。图4-3指标和损失4.5评价指标本文为了评估改进模型的稳定性和鲁棒性,使用精确率(Precision,P)、召回率(Recall,R)以及平均准确度(meanAveragePrecision,mAP)这几个指标。以下是这些评估指标的介绍。(1)精确率:P可以描述为目标检测算法模型在预测为正样本的实例中,真正为正样本的比例。简单来说,P反映了模型预测为正样本的实例中有多少是真正的正样本。它是衡量模型预测准确性的一个重要指标。高P通常意味着模型在预测正样本时较为可靠。其计算公式如式(4.7)。P=(2)召回率:R可以被理解为目标检测模型在识别所有实际存在的正样本时的能力。简单来说,R是衡量模型能够成功找出多少真正的正样本,相对于所有实际的正样本来说,一个高R的模型意味着它较少遗漏真正的正样本。此外,R也反映了模型在寻找正样本时的完备性。其计算公式如式(4.8)。R=(3)平均准确度:mAP是评估目标检测模型综合性能的关键指标,它通过计算不同召回率水平下的平均精度来全面衡量模型性能,mAP考虑了模型在不同检测阈值下的表现,给出了一个全面又准确的性能评估。mAP_0.5特别关注预测边界框与真实边界框的IoU达到或超过0.5时的检测性能,好处是只有当预测框与真实框的重叠部分占各自区域的比例至少为0.5时,才能认为该检测结果是正确的。mAP_0.5主要侧重于评估模型在较高检测精度要求下的性能,反映模型在严格标准下识别目标的能力,总之mAP_0.5是衡量模型在精确检测目标时的表现,特别是在对检测结果有较高要求的应用场景中,其计算公式如式(4.9)。&AP=公式(4.7)、(4.8)、(4.9)中,TP测试为正的正样本;TN测试为负的负样本;FP测试为正的负样本;FN测试为负的负样本;P(R)为PR曲线中P的值;N为待测试目标的种类数;APi为4.6模型的对比与评估4.6.18:2数据集下的对比高的训练精度。然而,此时模型参数量巨大,达到了220GFLOPs,这导致了训练时间v8网络系列,选择了参数8.7GFLOPS17.9mb。在保持一定性能的同时,显著降低v8网络系列在参数量与性能之间的灵活调整能力,表4-3网络参数数量对比640作为网络图像的输入大小。这是因为在训练YOLO模型时,需要确保输入图像具有一致的尺寸。然而,为了更深入地探索网络精度时既保证了检测精度,又确保了训练不会过于复杂,各模型的。图4-4网络精度对比由训练精度图可以看到在经过图像预处理与损失函数改进后,所训练模型v8m-640-pro-siou0.901,效果最佳。图4-5和图4-6展示了v5x模型与预处理并改进损失函数后的v8m模型在部分验证集v8m图4-5v5x-640模型测试结果图4-6v8m-640-pro-siou模型测试结果4.6.27:3数据集下的对比为进一步探究训练精度停滞在0.89附近的原因,推测是否是训练集划分比例7:3v8mSIoU损失函数,并对图像进行预处理。从mAP精度图4-7中可以看到,0.9094.6.10.01的提升。图4-77:3数据集网络精度4.6.37:2:1数据集下的对比最后为了排除测试集未设置对训练精度提升可能产生的影响7:2:1的比0.1排除了测试集对训练精度提升可能产生的影响图4-87:2:1数据集网络精度4.7结果测试图4-9为字符检测测试结果图,可以看到针对大部分甲骨文字,实现了准确的检测,并未出现误检的情况。图4-9字符检测测试示例在经过上述模型训练后,选择出权衡了精度与模型参数量的v8m-640-pro-siou网络模型,对测试集的原始拓片图像进行自动单字分割,展示部分单字分割结果,如4-10图所示。图4-10分割后图像与原始拓片对比5基于卷积神经网络的甲骨文字符识别5.1甲骨文字符识别框架对甲骨文原始拓片图像文字自动识别任务,采用两种方法进行训练和验YOLOv8完成对测试集中YOLOv8目甲骨文字符识别框架图5-1甲骨文字符识别框架图5.2所有实验均在Windows系统环境下进行,其中本实验使用的Pycharm软件配备了以下环境:pytorch2.1、python3.11、CUDA12.1;硬件环境见表5-1。表5-1硬件环境表CPU16核,Xeon(R)Gold6430RAM120GGPUNVIDIAGeForceRTX4090D在模型训练之前,需要对模型配置文件中的参数进行调整,以确保其与本文数据集的训练要求相匹配。模型训练参数的详细设置如表5-2所示。表5-2模型训练参数TrainingParametersValuesLearning0.001Batch256Epochs19112×1125.3模型性能为全面评估甲骨文字符识别模型的训练效果与泛化能力,本节采用训练精度(TrainingAccuracy)、验证精度(ValidationAccuracy)、训练损失(TrainingLoss)和验证损失(ValidationLoss)四项核心指标进行量化分析。各指标定义及作用如下:(1)训练精度(TrainingAccuracy):训练精度表示模型在训练集上预测正确的样本比例,该指标反映模型对训练数据的拟合程度,但需结合验证精度避免过拟合现象,其计算公式如式(5.1)。TrainingAccuracyNtrain表示训练集总样本数,yi表示第i个样本的真实标签,yi表示第i个样本的预测标签,I(2)验证精度(ValidationAccuracy):验证精度通过独立的验证集计算,衡量模型对未知数据的预测能力,验证精度与训练精度的差异可判断模型是否存在过拟合(训练精度高但验证精度低)或欠拟合(两者均低),其计算公式如式(5.2)。ValidationAccuracyNval表示(3)训练损失(TrainingLoss):训练损失反映模型在训练集上的优化目标函数值(如交叉熵损失),其收敛性体现模型对训练数据的学习稳定性,其计算公式如式(5.3)。TrainingLossC表示类别总数,的真实标签在类别上的独热编码(0或1)(4)验证损失(ValidationLoss):验证损失通过验证集计算,用于监控模型的泛化性能,若验证损失随训练轮次增加而上升,表明模型可能过拟合,其计算公式如式(5.4)。ValidationLoss精度与损失的互补性:高训练精度+低验证精度→过拟合、高训练损失+高验证损失→欠拟合(模型未充分学习数据特征)。损失函数收敛性:训练损失下降但验证损失上升,表明模型开始过拟合,需提前终止训练或增强正则化;训练与验证损失同步下降,表明模型优化方向正确。5.4数据预处理与数据集划分在实验前,首先对文字识别原始训练数据进行预处理,详细预处理信息如表5-3所示。表5-3数据预处理信息预处理对象数据值图像位深24数据集划分比例随机7:3训练集数据量28419测试集集数据量12225图片统一尺寸[112,112]输送入网络前预处理标准化预处理为了探AlexNet网络,分别在训练7:38:2详细的分类精度和损失函数值见表5-4。图5-2不同数据集划分比例分类性能对比表5-4分类精度和损失对比数据集划分比例7:38:2训练精度11验证精度0.82450.8199训练损失00验证损失0.74960.7639由图5-2和表5-4可知,当数据集比例为7:3时,分类精度更高,因此选取的数据集划分比例为7:3。5.5选定好数据集比例后,选取六种网络进行训练+验证,对比分类精度选取一个分类性能最好的网络模型。六种网络分别是,AlexNet、VGG16、GoogleNet、ResNet18、ResNet50和ResNet152,得到的分类精度结果如图5-3所示,其中(a)是训练精度对比图,(b)是训练损失对比图,(c)是验证精度对比图,(d)是验证损失对比图。图5-3不同网络分类性能对比详细的分类精度和损失函数值见表5-5表5-5数据预处理信息网络模型AlexNetVGG16GoogleNetResNet18ResNet50ResNet152训练精度110.99940.99980.99970.9996验证精度0.82450.92560.93720.90970.91480.9167训练损失00.0001490.00310.002470.002360.00326验证损失0.74960.36010.27960.39290.37030.3503由图5-3和表5-5可得,发现在传统的经典卷积网络中,VGG16、GoogleNet、ResNet18、ResNet50和ResNet152网络均能实现较高精度的分类任务,验证集分类精度都在0.9以上。特别是GoogleNet,分类精度可达0.9372,达到了一个较好的性能。在YOLO算法中不仅可以实现目标检测任务,还可以实现分类任务,所以针对文字识别任务,同样使用YOLOv8对该数据集进行训练,训练结果如图5-4所示,可以看到YOLOv8s的分类精度高于上述的卷积神经网络,在文字识别数据集上达到了0.945的验证精度,对原始甲骨文拓片进行文字自动识别。图5-4YOLOv8s训练结果图5-5展示了YOLOv8s模型部分验证集图5-5YOLOv8s识别结果原始甲骨文拓片并不是单个文字,而是包含多个文字,因此无法直接将整个拓片图像放进文字识别任务训练好的网络中预测。因此必须对原始拓片进行分割处理。在此选用第四章中所训练好的v8m-640-pro-siou分割模型,对图片进行分割处理,然后原始甲骨文拓片单字检测分割并识别的示例如图5-6图5-6w01815的文字分割与识别结果6甲骨文识别系统的设计与实现随着历史文献数字化技术的快速发展与甲骨文研究的不断深入,一种高效、精准的甲骨文原始拓片单字自动分割与识别系统变得尤为重要。传统甲骨文拓片处理主要依赖人工目视分割与经验辨识,存在效率低、主观性强、易受拓片模糊与噪声干扰等问题,难以满足大规模甲骨文数字化整理与智能化研究需求。因此,本章以第三、四、五章的研究为基础,将图像去噪预处理、训练好的甲骨文分割与甲骨文识别算法模型进行整合,通过深度学习分割识别模型与PyQt5框架结合,构建直观易用的交互平台,可使研究人员能够高效、精准地完成拓片单字分割、字形识别任务。本系统的应用将大幅降低甲骨文数字化处理成本,提升古文字整理效率,为古文字学研究与文化遗产保护提供智能化技术支撑,助力中华传统文化传承与创新。6.1设计工具介绍6.1.1PyQt5简介PyQt5是基于Python编程语言的图形用户界面工具包,可用来创建交互式且直观的桌面应用程序,它有着丰富的功能以及多样的模块,包含用于创建窗口、对话框、按钮、文本框等各类GUI元素的类和方法,其设计着重于组件的可重用性与系统的可扩展性,允许开发者借助模块化构建方式轻松实现复杂界面开发。更重要的是PyQt5支持跨平台运行,涵盖Windows、Linux和macOS等操作系统,这让开发者能一次编写代码后在多个平台无缝部署应用,极大的提升开发效率与便捷性。PyQt5经常被用在开发桌面应用程序方面,还会用于数据可视化工具开发,也用于工业控制界面以及嵌入式系统前端开发,它高效的开发模式加上跨平台特性让其成为PythonGUI开发主流选择之一。在甲骨文识别系统开发过程中,采用PyQt5作为图形界面的开发框架。因为PyQt5包含强大的UI库和事件处理机制,能与Python科学计算生态系统无缝对接,特别是OpenCV、NumPy等库,很容易就实现图像处理和UI界面的直接集成,给用户最直观的感受。6.1.2QtDesigner简介在PyQt5的应用程序开发中,设计师有两种实现方式可供选择:一种是通过直接编写代码,另一种则是利用QtDesigner工具。QtDesigner遵循基本的MVC(模型-视图-控制器)结构,实现视图与逻辑面的分离,极大地简化了复杂界面的设计流程。通过直观的拖拽方式,设计者可以轻松完成界面布局,并且还提供了页面的实时预览以及查看效果的功能。QtDesigner创建的界面保存为以.ui为后缀的文件,然后可通过PyUIC工具将.ui文件转换为Python代码文件(.py),以便在自定义的Python程序中进行加载和使用。在甲骨文识别系统的开发进程当中,QtDesigner的运用极大程度简化了复杂界面设计工作,借助QtDesigner可视化设计登录窗口、主窗口以及设置面板等界面元素,再结合PyQt5具备的功能把界面和图像处理、识别算法等后端功能加以整合,这种开发方式不但加快了整体开发速度,而且保证了用户界面的专业性与一致性。6.2系统总体设计本文的甲骨文智能识别系统是基于原始拓片的图像数据,结合经大规模甲骨文字符数据集训练的深度学习模型,来对甲骨文拓片中的单字做智能分割和识别,之后把处理结果用直观的可视化方式呈现出来,该系统设计可以对甲骨文拓片图像进行快速处理,并且利用改进的YOLOv8目标检测算法对图像里的甲骨文字符进行定位和分类,以此实现单字的精确分割与识别。经过对大量甲骨文拓片图像数据进行训练与优化,网络模型可以有效应对拓片中字迹模糊、残缺不全等特殊情况,同时系统充分运用现代计算机视觉技术,把识别结果以清晰方式呈现给用户,包含字符位置、类别信息以及置信度等内容,让用户能够快速获取甲骨文字符的识别信息,为后续考古研究和文字考证提供重要参考依据。本文系统基于PyQt5框架开发,总体架构如图6-1所示,分为交互界面层、识别算法层和系统环境层三大部分。图6-1功能结构图交互界面层作为用户和系统交互的核心之处,提供着完整的操作功能,其中涵盖用户登录和注册模块、图像检测功能、视频检测功能、实时可视化展示以及检测结果导出等功能,用户能够通过该平台进行简单操作,进而实现对甲骨文拓片的智能处理工作。识别算法层采用经过改进的YOLOv8模型,为系统提供强大的甲骨文字符检测分割和识别能力,支持对模糊拓片进行智能处理,可实现单字精确定位分割与识别,并且提供类别和中文对照功能,支持多种信息可视化展示。系统环境层主要负责保障整个系统的稳定运行,包含管理系统运行环境和依赖、处理模型加载和推理、确保数据的实时传输和处理等方面工作。本系统的设计理念是充分考虑了甲骨文研究工作实际需求的,借助模块化设计来确保各功能单元的独立性与可扩展性,系统不只是提高了甲骨文字符识别的自动化水平,还给传统的甲骨文研究工作提供了高效的技术支持工具,依靠直观的可视化界面和智能的识别算法,系统能够快速且准确地完成甲骨文字符的分割与识别任务,大幅提升了研究工作的效率,并且系统的开放性设计也为后续功能的扩展和优化奠定了良好基础,可依照实际应用需求来进行持续的改进与完善。6.3系统实现这一节会详细介绍甲骨文原始拓片单字自动分割智能识别系统的功能模块设计,该系统是基于PyQt5框架来进行开发的,运用模块化设计思想并通过不同功能模块协同工作,以此实现甲骨文字符的自动分割与识别。6.3.1用户登录与注册用户登录与注册模块作为系统的入口保障系统安全和用户数据隔离,此模块运用简洁美观的界面设计来提供用户身份验证与新用户注册功能,登录界面当中包含用户名和密码输入框以及登录和注册按钮。登录界面设计得简洁大方,采用了甲骨文特色元素跟系统主题相呼应,登录界面运用了分区设计,顶部属于系统标题与logo区域,中部是用户信息输入区域,底部为操作按钮所在区域,登录模块会验证用户身份信息,只有通过验证之后才能进入系统主界面,这确保了系统使用的安全性,系统采用CSV文件来存储用户信息,其中包含用户名、密码等基本数据,当用户输入登录信息之后,系统会验证输入的用户名和密码是否与CSV文件里的记录相匹配,如图6-2所示,验证成功之后系统会自动跳转到主界面,验证失败则会提示相应的错误信息。图6-2用户信息存储用户注册时,系统会检查用户名是否已存在,确保每个用户名的唯一性,,输入必要的个人信息后,系统将信息存储至用户数据文件中,方便后续登录验证然后将新用户信息添加到CSV文件中。系统注册、登录示例如图6-3所示,其中(a)、(b)是新用户注册成果界面,(c)、(d)是使用注册好的账号成功登录的界。图6-3注册登录界面6.3.2图像检测图像检测模块系统的核心功能,负责甲骨文拓片的处理与识别。该模块主要包括图像选择与导入、模型选择与参数配置、检测处理以及结果可视化与分析四个子模块。(1)图像选择与导入图像选择与导入子模块能提供灵活的图像数据导入方式,并且支持单图片和视频导入功能,用户能够通过文件浏览器去选择目标文件夹,系统会自动扫描并列出该文件夹里所有图像文件,同时系统还提供文件筛选功能,用户可借助关键词检索特定图像文件来提高操作效率,该子模块支持JPG、PNG、BMP等常见图像格式,以此确保系统具备广泛适用性。(2)模型选择与参数配置模型选择与参数配置子模块能让用户依照具体任务需求挑选合适训练模型,并且调整关键参数来优化检测效果,用户可从预设模型库里面选择适用于甲骨文字符识别的深度学习模型,系统对常规检测模型和甲骨文模糊拓片检测模型都予以支持,参数配置界面给出了直观的参数调整工具,涵盖置信度阈值、IOU阈值、输入图像尺寸等重要参数,用户能根据拓片质量和识别需求灵活设置这些参数,系统会及时更新参数值并将其应用于后续检测过程。(3)检测处理检测处理子模块作为整个识别系统的核心部分,负责执行甲骨文字符的检测与识别相关任务,该子模块是基于PyTorch深度学习框架构建的,采用改进后的YOLOv8目标检测算法,能够有效处理甲骨文拓片中存在的字符,检测过程包含图像预处理、模型推理和后处理这三个阶段,在图像预处理阶段会对输入图像开展去噪、尺寸调整、归一化等操作,在模型推理阶段会调用训练模型对处理后的图像进行前向计算以得到初步检测结果,在后处理阶段会对模型输出结果进行非极大值抑制等处理从而得到最终的字符检测结果,针对模糊拓片系统实现了特殊的两阶段检测策略,先对整体图像进行检测再对检测到的区域进行局部精细化处理,显著提升了对模糊字符的识别能力。(4)结果可视化与分析结果可视化子模块会把检测结果用直观形式呈现给用户并且提供详细信息,系统能够支持多种可视化方式,如边界框标注、关键点标注等,用户可按照自身需要灵活进行切换,对于每个检测到的字符系统不仅显示其位置信息还给出类别标识和置信度评分,并且将检测到的字符自动匹配到对应的现代汉字以方便研究人员理解分析。图6-4非模糊拓片单字识别流程该子模块还支持实时调整检测进度,针对甲骨文视频检测用户能通过进度条控制检测过程来暂停、继续或停止检测任务以灵活适应不同工作需求,图像检测示例如图6-4所示,涵盖从非模糊拓片图像导入到结果可视化的完整过程,图6-5中(a)、(b)(c)、(d)分别展示对甲骨文单字非模糊拓片图像、甲骨文多字非模糊拓片图像、甲骨文非模糊拓片视频、甲骨文多字模糊拓片的识别结果。图6-5多种类型识别对比6.3.3数据存储与导出图6-6识别结果保存数据存储与导出模块负责管理检测结果数据,提供结果保存与导出功能。对于检测完成的图像,该模块支持将处理后的图像以及检测数据保存至用户指定的目录,识别结果保存示例如图6-6所示。图像保存时会保留检测标注信息,能直观展示检测结果,数据导出是以CSV格式存储检测到的甲骨文字符详细信息,涵盖位置坐标、类别、中文释义和置信度等内容,方便后续进一步分析研究。该模块在检测完成之后会自动激活,用户可通过界面上的保存按钮执行导出操作,在导出过程中,系统会检查目标路径的有效性,以此确保数据能够正确保存,同时为避免数据覆盖情况,系统会对同名文件进行检测,并提示用户确认操作。针对视频处理的多个图像结果,该模块支持一次性全部导出以提高工作效率。7安全性与经济性在设计和应用甲骨文智能识别系统的过程中,安全性与经济性属于需重点考量的核心要素,本设计系统依靠严谨的访问控制机制保障数据和模型的可靠性,同时用合理的成本投入实现高效的文化遗产数字化保护,展现出显著的技术价值与应用潜力。7.1安全性分析本文的甲骨文智能识别系统在安全性设计方面采取了多层次防护策略,系统采用本地化存储方案将所有图像和识别结果直接存于本地数据库,以此避免网络传输过程中可能出现的数据泄露风险,在权限管理方面系统基于PyQt5框架实现严格分级访问控制机制,普通用户仅能进行图像上传、基础处理与结果查看操作,管理员用户则可调整系统参数、管理数据集、导出分析结果和配置用户权限,登录验证模块通过user.csv文件存储用户账号信息且每次登录时进行身份验证,以此防止未授权访问情况出现,系统使用标准密码验证机制来确保用户信息的安全。本研究针对系统稳定性采用模块化设计架构,把图像预处理、目标检测与分类识别功能独立封装起来,这样任何单一模块故障都不会致使整个系统崩溃,系统日志记录功能可自动追踪所有关键操作,方便管理员开展安全审计与异常排查工作,对于甲骨文拓片常有的噪声干扰和字符破损问题,预处理模块融合了Laplace边缘增强、稀疏表示与低秩逼近去噪等技术,极大提升了图像质量,经实验验证,对存在划痕或点状噪声的拓片处理之后,字符笔画连续性得到明显改善,为后续分割与识别提供可靠输入,在系统压力测试当中,连续处理高分辨率拓片时内存占用率能保持稳定,响应时间波动范围也处于可控状态,展现出良好的运行稳定性。7.2经济性分析本系统在经济性方面有着突出的表现,重点体现在开发成本控制和应用效益这两个层面,系统核心框架是基于开源技术栈来构建的,其中包含PyTorch深度学习框架与PyQt5界面库,有效规避了商业软件授权费用问题,核心成本主要集中在硬件配置和数据标注环节,通过进行算法优化以及模型裁剪操作,系统能够在主流GPU配置上流畅运行起来,避免了对高端硬件产生过度依赖情况,降低了系统的部署门槛,基于NVIDIAGeForceRTX4090GPU的训练环境可支持多模型并行优化工作,相较于传统CPU训练效率提升得十分显著,缩短了模型的迭代周期。从应用效益的角度来看,系统自动化识别流程把单张甲骨拓片处理时间从传统人工分析的数小时缩短到几秒钟,这大幅提高了工作效率,以一幅包含密集字符的复杂拓片作为例子,系统能够快速完成分割、识别并输出字符位置与类别信息,极大减轻了专业人员的工作负担,系统生成的数字化结果可直接用于构建甲骨文数据库,减少了后续人工校对的工作量,为学术研究提供了结构化数据支撑,模块化的系统架构支持功能扩展,未来可通过集成语义分析或历史文献关联模块,进一步挖掘甲骨文研究的应用价值,实现长期成本效益的持续释放,系统的主要成本来源于初期的模型训练与数据标注,随着识别精度的不断提升,维护成本将逐步降低,从长期经济效益来看,系统能够支持大规模甲骨文数字化工作,具有显著的应用价值。8总结与展望8.1工作总结本研究着眼于甲骨文原始拓片单字自动分割与识别这一技术难题,设计出一套完整的智能处理系统方案,并且实现了从理论到实践的系统化突破,研究提出一种多阶段甲骨文图像预处理方法,融合Laplace变换、稀疏表示与低秩逼近去噪、同态滤波和高斯滤波等技术,有效解决拓片图像中的噪声干扰、对比度不均等问题,为后续处理奠定良好基础。在单字分割方面,基于YOLO算法开发出自适应分割模型,通过引入SIoU损失函数显著提升小字符检测精度,实现90.1%的检测准确率,为复杂拓片中的密集字符提供精准定位能力。针对文字识别任务,构建多模型对比实验平台,系统评估多种典型卷积神经网络架构,发现GoogLeNet和YOLOv8在甲骨文字识别任务上表现优异,分别达到93.7%和94.5%的识别准确率,证明YOLOv8方法在古文字识别领域的有效性。本研究依托PyQt5框架设计出完整的甲骨文智能识别平台,集成图像去噪、目标分割和字符识别核心功能模块,实现全流程自动化处理,系统用户界面设计得直观又友好,能通过可视化界面同步呈现检测框坐标与字符释义,还支持识别结果结构化导出等多种功能,给甲骨文研究人员提供了便捷高效工作的工具,同时系统设计了严格权限管理和数据安全机制确保文化遗产数据数字化过程中的安全性与完整性,系统在实际应用测试中展现出较高稳定性和可靠性,以技术创新和工程实践相结合方式为甲骨文研究提供高效数字化工具,展示出人工智能技术在文化遗产保护中的应用价值。8.2工作展望本文的研究工作尽管取得了初步成果,但接下来的路任重道远,还有许多有待解决的问题和更进一步的研究方向。深度学习在图像识别、目标检测、关键点定位及语义理解领域展现出突出能力,若应用于甲骨文数据集,则可尝试相关算法,为甲骨文学提供新的研究视角,并为实现未知甲骨文字的智能解析奠定基础。。参考文献高旭.基于卷积神经网络的甲骨文识别研究与应用[D].吉林大学,2021.张更明.甲骨文:解读中华文明的古老密码[J].协商论坛,2023,(11):56-58.GaoF,LiuY,LiD,etal.Informationdisentanglementforunsuperviseddomainadaptiveoracleboneinscriptionsdetection[J].SignalProcessing:ImageCommunication,2025:117-334.宋传鸣,周雨晴,张晋豪,等.连通区域拓扑结构约束的甲骨拓片图像分割[J].闽南师范大学学报(自然科学版),2023,36(04):35-50.刘国英.基于深度学习的甲骨文字检测与识别[J].殷都学刊,2020,41(03):54-59.刘梦婷.基于深度卷积神经网络的甲骨文字识别研究[D].郑州大学,2020.刘洋,陆逸,魏钰驰,等.甲骨文识别技术研究现状与展望[J].知识管理论坛,2023,8(02):115-125.LiuM,LiuG,LiuY,etal.Oracleboneinscriptionsrecognitionbasedondeepconvolutionalneuralnetwork[J].Journalofimageandgraphics,2020,8(4):114-119.王帅,李鹏,苏倩文.甲骨文信息化研究之路简述[J].黄河.黄土.黄种人,2022,(18):16-21.舒城.基于图像显著性的图像场景分类算法研究[D].南京邮电大学,2020.龚芳媛,方冰杰,程雪佼,等.基于改进YOLOv5的路面裂缝检测算法[J].大连理工大学学报,2024,64(03):314-322.徐光达,毛国君.多层级特征融合的无人机航拍图像目标检测[J].计算机科学与探索,2023,17(03):635-645.万溪洲.基于改进的全卷积网络遥感图像语义分割算法研究[D].湖北工业大学,2021.Al-JawfiR.HandwritingArabiccharacterrecognitionLeNetusingneuralnetwork[J].Int.ArabJ.Inf.Technol.,2009,6(3):304-309.PurwonoP,Ma'arifA,RahmaniarW,etal.Understandingofconvolutionalneuralnetwork(cnn):Areview[J].InternationalJournalofRoboticsandControlSystems,2022,2(4):739-748.王琦琦.基于深度卷积神经网络的甲骨文精确识别[D].江西科技师范大学,2020.韦鹏程,赵宇,张宗银.基于人工智能算法的研究与应用[M].中国原子能出版社,2021.AlomMZ,TahaTM,YakopcicC,etal.Thehistorybeganfro

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论