毕业论文外文翻译-并条机自调匀整利用人工神经网络确定在自调匀整作用点(外文原文+中文翻译)_第1页
毕业论文外文翻译-并条机自调匀整利用人工神经网络确定在自调匀整作用点(外文原文+中文翻译)_第2页
毕业论文外文翻译-并条机自调匀整利用人工神经网络确定在自调匀整作用点(外文原文+中文翻译)_第3页
毕业论文外文翻译-并条机自调匀整利用人工神经网络确定在自调匀整作用点(外文原文+中文翻译)_第4页
毕业论文外文翻译-并条机自调匀整利用人工神经网络确定在自调匀整作用点(外文原文+中文翻译)_第5页
已阅读5页,还剩31页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

ResearchseofArtificialNeuralNetworkstheActionPointatAuto-levelingDrawAssadFarooq1andChokriofTextileClothingTechnology,TechnischeUniversitätDresden,Abstract

ArticleArtificialneuralnetworkswithabilityoffromhavebeenappliedinthetextileThepointisofimportantparametersofthedrawingqualityofreportsamethodoftheactionusingartificialnetworks.actionvariableswereselectedasfortrainingtheartificialneuralnetworkswiththeaimtooptimizeauto-levelingbylimitingthelevelingactionpointsearchrange.TheMarquardtalgorithmisincorporatedintotheback-propagationtoacceleratetheBayesianregularizationistheofnetworks.arequitepromising.Keyartificialauto-lev-eling,frame,levelingactionpoint。Theoftheanroleinwhilesliverisofthecriticalwhenqualityyarn.ismajorcriteriaforassessmentofoperationofInprinciple,twotoirregularities.istothedraftingandrecognizetheforirregularities,thatmeansbethem.Thevaluableistouseauto-levelersintheinadequatetocorrectthevariationsinsliver.Thecontrolofirregularitiesloweronsliveruniformity,ambientframeparameters.Atthedrawframevariationsinarecontinuallybyamechanicaldevice(aroll)convertedintoelectricalThetoanelectronicwithvariable,timedelayedThetimeallowsdraftbetweenthemid-rollthedeliveryrollofdrawtoadjustthatmomentwhendefectivesliverpiece,whichhadmeasuredbyapairofscanningfindsitselfatapointofAtthispoint,dependingupontheamountofinsliverpiece.ThedistancethatscanningpairofdraftcalledthepointofregulationthelevelingactionpointinFigure1.Thisleadstocalculatedthecorrespondingdefective[2,3].Inframes,especiallyintheofoffibermaterial,orbatchesmachineparametersmustbeTheLAPismostauto-levelingparameterwhichisinfluencedbyparametersspeed,material,draftgauge,draftgauge,feedingtension,draft,andsettingtheetc.UseofArtificialNeuralfortheActionPointA.C.1ofanPreviously,sampleshadbewithsettings,tothelaboratory,onthetesteroptimumLAPwasdrawautomaticsearchfunctionforoptimumofLAP.Duringthisfunction,isscannedbyLAPcess,thequalityparametersareconstantlyalgorithmautomaticallycalculatestheoptimumLAPbythepointwiththeminimumsliverCV%.Atpresentasearchof120mmscanned,21examinedusing100ofineach2100ofisnecessarysearchatime-consumingmethodaccompaniedbythehencedirectlyaffectingcostparameters.Inthiswork,wefindthepossibilityofLAP,artificialneurallimitautomaticsearchandtheabove-mentioneddisadvantages.ArtificialNeuralNetworksThemotivationofusingartificialneuralnetworksliesintheirflexibilityofinformationnothave.Theneuralnetworksystemcansolveaproblem“byexperienceandlearning”theinputoutputpatternsprovidedbytheuser.Inthefieldofartificialneuralnetworks(mostlyhavebeenextensivelystudiedthelasttwodecades[4–6].thefieldofpreviousonpredictingpropertiesandspinningprocessusingthefiberpropertiesacombinationoffiberpropertiesandmachinesettingsasofneuralnetworks[7–12].Back-propagationissupervisedmostfrequentlyforneuraltraining.back-propagationalgorithmbasedtheWidrow-Hoffdeltaruleinwhichweightoutthroughthemeanofoutputtoinput[13].ThesetpatternstheuntiltheTheusessteepestdescentamethodtodetermineofOverfittingTheofneuralnetworktrainingproduceanetworkproducesontrainingwhichalsorespondsproperlynovelinputs.WhennetworkwelloninputsasonsetthesaidtobeThecapacitytheislargelybythe(numberofhiddenneurons)thisvitalrolethetraining.Anetworkwhichnottoalltheinformationintheisbeunderfitted,whileathatiscomplextofitthe“noise”inthedataleadstooverfitting.“Noise”meansvariattheunpredictablefrominputsofspecificAllstandardneuralarchitecturesasfullytooverfitting.itisdifficultacquirethenoisefromspinningdependenceofonthevariationsandenvironmentalconditions,etc.stoppingcommonlyusedtotacklethisproblem.Thisinvolvesofdataintothreei.e.atrainingavalidationsetandwiththatlargepartofthedata(validationset)canneverbetheofTheotherofoverfittingwhichthemethodofimprovingconstrainingofnetworkweights.[14]discussedBayesianforback-propagationnetworks,whichconsistentlyproducedwithgoodTheobjectiveofprocessismini-mizetheoferrors:n(t)Diii

2

(1)Wheretthetargetsandaresponsestheiitoreduceofsquarederrorsregularizationadditionalterm,theD

(2)Inequation

E

isthesumofsquaresofthenetworkweights,andαandwfunctionparameters.relativeofobjectivefunctionparametersdictatestheemphasisfortraining.Ifα<<β,thenthetrainingwilldrivetheerrorssmaller.α>>β,trainingwillemphasizeweightsizereductionattheexpenseofnetworksmootherresponse[15].Theofisonviewwhatittofromdata,inwhichusedtorepresenttheuncertaintythebeinglearned.anythepriorwhatmightbecanbeindistributionthatdefineAfterthedata,therevisedarebyaposteriordistributionoverweights.Networkthatplausiblebutwhichthewillbebeingmuchwhiletheforvaluesofweightsdofitthedatawillhaveincreased[16].InframeworktheweightsofareconsideredAfterthetaken,thefunctionfortheweightsbeupdatedaccordingtoBayes’rule:(w/D,

M)

(D/,)(w/(D/M)

M)

(3)InequationDdataset,Mneuralnetworkwistheofweights.P(/,M)isthepriorprobability,whichrepresentsourofbeforeanydatais(D/,

M)whichprobabilityofdataoccurring,giventheweightsw.Pw

)isathatthetotal1[15].Inthisstudy,employedMATLABNeuralNet-worksToolbox“trainbr”whichisanincorporationoftheLevenbergMarqaurdtregularizationtheorem(orBayesianintotrainthenetworktoreduceofapproximationofHessianmatrixproducegoodcapabilities.Thisaofparametersbiases)effectivelyusedbytheofshouldthesame,irrespectiveoftotalofparametersinThiseliminatesrequireddeterminingthenetworkExperimentalTheexperimentaldatawasobtainedfromRieter,ofdrawframeRSB-D40[17].Forthematerialexperimentalwasbasedofuseinspinningindustry.Forexample,isthefrequentlyusedmaterial,soitwereperformedoncottonwithallsettings,wasnotcasewithotherAlso,owingtothefactthatallcouldnotbeprocessedwithsamepressuredraftdifferentweredesigned.Thewiththeirplansgivenin1.Theprocedurewasappliedtomaterialsandstandardforsettings(sliverlineardensity,LAP,wasadopted.AcomparisonofautomaticwasperformedandresultswerethesearchfunctionfromRSBD-40.ThereforetheLAPsearcheswereaccomplishedbyQualityMonitorabstractoftheinFigure2.UseofArtificialNeuralfortheActionPointA.C.2Abstractnetworkmodel.HeretobeconsideredisthatisnoinmachinetheLAPinfluencingparameter,i.e.feedingSofeedingspeedconsideredberelatedspeedofdoublings(4).Thedeliveryspeedvariedbetween3001100thedoublings7,toachieveofCount×speed/(Doublings×Feed)()TrainingandTestingSetsFortrainingtheneuralnetwork,thedataintofirstphaseincludedexperimentaldataforcompilationthedatasubsequentThepriortheinfluencingi.e.speed,deliveryspeed,gaugesofdraft,andofthesliverwastoselecttheSofirstphasecontainedtheinwhichstandardweretakenasafoundationandthenLAPinfluencingineachInsecondphase,experimentswereselectedinwhichinfluencingparameterandnetworkwasallowedtotheThiswasontheofinfluencingparameters,withtheaimtoLAPlength.thirdphaseinvolvedtheexperimentsconductedonpilotscaleThesepilotwerecarriedbymachinefordifferentsettings.theseresultsweretoassesstheoftheneuraldataNormalizingtargetvariablesmaketrainingimprovingnumericalconditiontheproblem.Alsoitcanreducechancesofinforneuralnetworkofthelargespansofnetwork-inputdata,targetsforbetterperformance.Atfirsttheinputswerebetweeninterval[whichnotanypromisingresults.databetweentheinterval1]networkswithsuccess.NeuralNetworkTrainingWefiveneuralnetworkstopredictLAPbyofdataThesetsdividedintotrainingasinwasperformedtrainingweretotheofneuralinformFigure3thetrainingperformanceofthenetwork5.3TrainingperformanceofNNResultsandDiscussionalreadyinTable2,differentofdatawereusedtotrainfivenetworksatheirtestonunseendata.Asistoeliminatetheguessfortheappropriateofhiddentheofhiddenrangingfrom1422,wereintwolayerstrainnetworks.theselectionoftopologythatshouldbecomplextolearnalltheintheaspossibilityofwastackledwithduringtrainingthetestsetsbeseenfromFigures44ofNN1.UseofArtificialNeuralfortheActionPointC.5ofNN2.6ofNN3.7ofNN4.8ofNN5.wascalculatedtopredictedactualvalues,bothduringtrainingandtesting,andthearepresentedinFigure9.overallresultscanbeexplainedthepresenceorof–outputinteractionsindataandtheincreaseinthewiththeoftrainingdatasets.Figure9clarifiestheincreaseintestingerror,evenwithanincreaseintheoftraining,sets,whentrainingandperformedonfromdifferentphases(NN2&2).theerroraofphasewastrainremainderusedtesting,inNN3and5comparisonwithNN2and4,Thepresenceofdifferentinputoutputinteractionsindifferentphasesthistrend.behaviorofNN1withtoabove-mentionedfactattributedtosetsinphase1.9betweentrainingtestsets.InordertoassesstheoffitofNN5,10-foldcross-validationpreformed,offorandfortesting,timestestingnetworktimeon10%ofunseenAnaverageR

2

reported.wasadoptedfor80%andtestthecalculatedof

2

wasintheperformancethe80%datasetsforconfirmaveryfitofNN5ConclusionTheartificialnetworkmodelwasthenetworkstrainedatofTextileClothingTechnology,TechnischeUniversitatDresden.TheuseofBayesianregularizationtestingforpracticalapplicationspromisingresults.testingofNN5asin3,aofabout2mmisobservable,whichfallswellwithinmmnegligiblerangedeterminationofLAP.Thisthatcanbeinthefutureforquickcomputationofthewiththeadvantagesofofmaterialandtime.TheaccuracyincomputationcanleadtoCV%quality.TestofNN纺织研究期刊并条机自调匀整利用人工神经网络确定在自调匀整作用点摘要用他们的人工神经网络从数据中学习的能力已经成功的应用在纺织行业,在并条机自调匀整参数中匀整作用点是一个重要的参数且强烈的影响到纱线的质量本文主要是讲述的是用人工神经网络来检测匀整作用点各种各样的匀整作用点会影响导致不同的变量,我们把这些变量输入到人工神经网络进行测试,目的是为了通过限制匀整作用点改变范围来优化并条机的自调匀整,Levenberg-Marquardt算法是纳入反向传播加速系和贝叶斯正则化方法,进了网络的泛化。得到的结果是非常的精确的。关键词

人工神经网络自调匀整并条机匀整作用点纱线的均匀度在纺织行业中发挥着越来越重要的角,

而棉条均匀度是产生高质量纱线的重要因素之一。棉条均匀度也是并条机运转的主要评价标准。在原则上,有两种方法可以减少棉条不均匀。一种途径是研究牵伸机构和认识棉条不均的原因,以这意味着可能会发现可以降低不均匀度的方法。其他更有有效的方法是使用自调匀整,因为在大多数情况下并条机是不足以正确的改变纱线的均匀度。长片段不匀控制在一个较低水平,取决于梳棉棉条均匀性、环境条件、和帧参数。在自调匀整并条机(RSB-40喂入的棉条厚度的不断变化变化可以通过一种机械检测设备来监测其变化并且将监测到的信号转换为电子信号量数据被传输到一个可变电子记忆器里时间延迟响应当棉条片段有缺陷的时候可以在一定的时间延迟允许并条机牵伸的中间罗拉和传送罗拉之间来进行棉条的不均匀度精确调整当已被一对检测罗拉测量后发现在本身的一个牵伸点在这一点上伺服电机运行取决于在棉条部分被检测的数量的变化一对分离的检测罗拉和牵伸点之间的距离,称为零点调节或匀整作用点LAP),如下1所示,这在计算相应有缺陷的材料应该进行相应的修正2、3),在并条机的自调匀整装置上,特别是在纤维材料改变的情况下或者是各种不同型号机器选择和过程控制参数必须优化整作用点是自调匀整中最重要的参数许多的因素影响,比喻喂条速度,棉条材料,前牵伸测量计,喂入张紧力,前牵伸和棉条导条罗拉设置等。insliver:均匀度变化的棉条

Draft主要牵伸区Rollers:检测罗拉BreakDraft前牵伸区PressuereBar:压力棒actionpoint匀整作用点此前,棉条样品必须在实验室在不同的条件下进行,在测试仪上进行检测棉条均匀度,直到找到最好的匀整作用点(手动进行检测RSB-40并条机的自调匀整具有自动搜索确定最好的匀整作用点这一功能,棉条在进行此功能期间,棉条被自动检测是通过调整临时的匀整作用点和被记录的有用的数据此过程中,不断的监测的质量参数和通过选择棉条的最低点的棉条的V%,通过一种算法自动计算出最佳的自调匀整作用点

目前的一个搜索检测范围是120米,例如在每检查100m的棉条是21点,因此2100m的棉条必须进行搜索功能,这是一种比较费时的方法材料和生产的损失会直接影响成本在这项工作中我们试图找出一种能够预测出匀整的作用点利用人工神经网络限制自动搜索范围和减少上述缺点。人工神经网络利用人工神经网络的目的在于他们的灵活性和信息处理能力,传统的计算方法不具备。神经网络系统可以由用户提供的输入输出模式通过“经验和学习”这种方式来解决问题,在纺织品领域,人工神经网络主要使用反向传播)在过去20年已经在广泛的研究纺织领域之前的研究领域一直专注于预测纱线性能和纺纱纤维工艺使用性能或结合纤维的性能和机器型号作为的人工神经网络的输入。反向传播是一种监督学习技术,频繁用于人工神经网络的训练。反向传播算法是基于Widrow-的霍夫三角洲学习法则,其中权重是通过样输出到样品输入之间的响应的平方差进行调整。这系列单一模式反复提供给网络,直到误差值最小化差反向传播算法采用最快下降法这实质上是一个一阶的方法确定一个合适的梯度运动方向。过度拟合神经网络的训练的目标是产生一个网络这个开发的网络上产生较小的错误,并且这种情况依然可能会反映出的是一个异常的输入。当一种网络模式异常的输入作为研发系统的输入,这种网络被认为是广义的网络。很大程度上是受到网络的泛化能力的网络架构(一些隐藏的神经元这在开发过程中起着至关重要的作用,而网络是太复杂的,不足以来收集的所有信息数据,这被认为是不充分拟合,而当一个网络是过于复杂,那么很难适应与紊乱的数据将会导致过度拟合噪音”的意思是从一个特定的网络中的输入值中变化的目标值是预测不到的所有的标准例如完全连接的多层感应器神经网络结构容易出现过拟合此外从纺织行业它是很难获得没有紊乱的数据由于最终产品依赖于固有材料变化和环境条件等问题解决这个问题最普遍的方法是阻止这些问题的出现这包括训练的数据划分成的三个组,即一个训练集验证集和测试集,这其中有个缺点是一个大量的数据部分(验证系统)不可能是训练的部分。正规化另一个过拟合解决方案是正规化这是提高泛化通过约束网络的权值的大小的方法。麦凯讨论了一个实用的贝叶斯框架网——反向传播网络连续生产的网络具有良好的泛化。最初的开发的过程中目标是是求最小平方误差的总和n(t)Diii

2

(1)其中t是目标函数和a是神经网络反应各自的目标通常情况下开发的目标是减少平方差和F=Ed然而正规化增加了一个额外的长期目标函数这是由以下函数得到的:D

(2)在方程(2)中,是网络权重的平方的总和是目标函数的参数,目标函数参数的相对大小决定了训练的重点,如然后训练的算法就会产生较小的误差练的神经网络就会在网络错误代价强调权重的减小,从而产生一个流畅的网络响应。贝叶斯学校的统计数据是基于一个完全不同的角度来获取数据其中的概率是用来表示关系的不确定性有学问看到任何数据之前先前的看法可能是真正的关系可以用概率分布来表示通过网络权值来定义这种关系方案构思后的数据订后的观点通过之后的络权值分布来捕获以前网络权重似乎有道理,但是与数据不相符现在被看做是不太可能而对不适合数据的权重值的概率将增加。在贝叶斯框架的权重网络被认为是随机变量。数据被采取后后验概率密度函数的权重可以根据贝叶斯规则更新:(w/D

M)

(D/,)(w/(D/M)

M)

(3)在方程(3),D代表数据集,M是使用于特定的神经网络模型和w是网络权值向量。(w/

,)是先验率,代表我们的知识收集数据之前权重P(D/w

M)是似然函数,这是数据的可能性发生,由于重量w.(/它可以保证总概率是1。

)一个标准化的因素,在这项研究中,我们使用矩阵神经微机网络化工具箱函数”trainbr”,这是一个公司麦夸特法和贝叶斯正则化定理(或贝叶斯学习融入到反向传播来训练神经网络来减少计算超过海森矩阵的近似值和产生好的的泛化能力种算法提供了一个网络参数量度(权值和偏差)被网络有效的利用不考虑在网络中参数的总数,有效的参数的数量应该保持相同的。这就消除了猜测需要在确定最优网络大小。测试实验数据可从立达,戈尔的制造商(并条RSB-D40)得到。对于这些实,在纺织行业材料的选择和实验设计是基于特定的材料使用的频率。例如粗梳棉纱是使用最为频繁的材料,所以它被作为标准和实验研究在棉花的所有可能的设置,它不同于其他材料时,认清这个事实,所有的材料无法进行辊压力和牵伸装置,不同纺纱是事先是设置好的。材料的处理方案计在表中给出。标准的程序适用于所有的材料和标准程序对于自调匀整装置棉条线密度、强度)也被采纳手动和自动搜索进行比较从SBD-40自动搜索搜索功能获得了了更好的CV%结果。因此,匀整作用点搜索时候由立达质量监控器()完成的。一个实验模型的抽象描述如图2所示。这里主要考虑的一点是在机械上调整匀整作用点主要影响因素是不可能的,例如,喂棉速度,因此给棉速度被认

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论