基于人工神经网络的超宽带天线设计与仿真_第1页
基于人工神经网络的超宽带天线设计与仿真_第2页
基于人工神经网络的超宽带天线设计与仿真_第3页
基于人工神经网络的超宽带天线设计与仿真_第4页
基于人工神经网络的超宽带天线设计与仿真_第5页
已阅读5页,还剩31页未读 继续免费阅读

付费下载

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

基于人工神经网络的超宽带天线设计与仿真摘要伴随着当今时代无线通讯技术的快速发展和广泛使用,应用在不同场景中的天线在通讯系统中的作用和地位也越来越重要,由于当今社会对于通讯的需求越来越复杂,这就导致了天线的设计和结构也越来越复杂。传统的射频电路建模和分析技术由于对时间、人力的需求越来越高,已经越来越难以满足现在电路设计中对高效、快速仿真的需求。由于人们对于高性能射频电路模型的需求越来越大,基于人工神经网络(ANN)的建模方法由于其潜力而备受关注,发展势头非常强劲。神经网络能够映射复杂的、非线性的输入和输出,大大缩短了设计周期,提高了优化过程的效率,具有在工程应用方面广阔的发展前景。本文主要通过对超宽带天线特性进行人工神经网络采样,以此为基础对神经网络进行训练,然后对天线进行评估,最后通过CST进行仿真验证。关键字:超宽带天线神经网络机器学习DesignandSimulationofanUltra-BroadbandAntennaBasedonArtificialNeuralNetworkABSTRACTWiththerapiddevelopmentandwidespreadapplicationofwirelesscommunicationtechnologiesinthecontemporaryera,antennasemployedinvariousscenarioshavebecomeincreasinglycrucialincommunicationsystems.Thegrowingcomplexityofmoderncommunicationdemandshasledtomoresophisticatedantennadesignsandstructures.Traditionalradiofrequencycircuitmodelingandanalysistechniques,whichrequiresubstantialtimeandhumanresources,arebecominglesscapableofmeetingthecurrentneedsforefficientandrapidsimulationincircuitdesign.Asthedemandforhigh-performanceRFcircuitmodelscontinuestorise,artificialneuralnetwork(ANN)-basedmodelingapproacheshaveattractedsignificantattentionduetotheirpotential,gainingstrongmomentumindevelopment.Neuralnetworkscanmapcomplexnonlinearinput-outputrelationships,substantiallyshorteningdesigncyclesandenhancingoptimizationefficiency,demonstratingbroadprospectsforengineeringapplications.ThispaperprimarilyfocusesonperformingANN-basedsamplingofultra-widebandantennacharacteristicstotrainneuralnetworks.Subsequently,antennaperformanceisevaluatedandfinallyvalidatedthroughCSTsimulations.KeyWords:Ultra-WidebandAntenna(UWBAntenna)NeuralNetworkMachineLearning目录第一章绪论 11.1课题研究背景与意义 11.2国内外发展现状 1第二章设计原理 52.1引言 52.2超宽带天线简介 52.2.1超宽带通信 52.2.2超宽带天线 52.3人工神经网络简介 62.4本章小结 10第三章超宽带天线与人工神经网络的设计与仿真实现 113.1引言 113.2仿真软件介绍 113.2.1CSTStudioSuite介绍 113.2.2Tensorflow介绍 123.3超宽带天线设计 133.3.1天线结构 133.3.2天线的仿真 143.4人工神经网络设计 153.4.1数据预处理 153.4.2神经网络的设计 163.5本章小结 17第四章基于人工神经网络的超宽带天线的仿真优化与分析 184.1引言 184.2仿真优化 184.3结果分析 194.4本章小结 25第五章总结与展望 265.1非技术原因探讨 265.2总结与展望 26参考文献 27第一章绪论1.1课题研究背景与意义人类文明一直生活在电磁波的大海里,从1831年法拉第发现电磁感应定律开始,电磁学研究进入新时代,到1865年麦克斯韦提出统一电磁场理论体系,科学界渐渐认识了电荷运动产生电磁辐射的规律,1894年波波夫研制出世界上第一台装有天线的无线电接收机,把导行波变成空间波,然后在1895年用莫斯电码的无线传输公开实验,人类就踏入了电磁通信时代,给现代信息技术的空间流传打下了根基。伴随着现代无线通信系统的迅猛发展,超宽带技术凭借着自己的特性,在近距离通信领域异军突起,成为了关键技术方案之一,传输速率能够达到数百Mbps的脉冲无线电机制、纳秒级别的时间分辨使得可以提供厘米级别的定位精度、跳频扩频技术配合下具有军事级的抗干扰能力,从而使得它在智能家居定位、工业物联网感知以及医疗影像传输等领域中有着无法取代的作用,而在这之中,平面单极子天线作为UWB系统的主要组件,通过一些革新性的结构设计方案比如地板开槽,渐变辐射贴片等方法能够在小于毫米的大小上完成对3.1到10.6GHz范围内的超宽带阻抗匹配,并且它所具有的射频前端电路单面集成的特点进一步降低了整个系统的封装复杂度。人工神经网络(ANN)属于类脑智能计算的典型范式,它模仿生物神经元的分布式并行处理机制,有着很强的非线性映射能力,在电磁器件有关领域,ANN凭借创建几何参数同电磁响应之间的深度联系模型,可以超越传统全波仿真对麦克斯韦方程执行显式求解的需求,当网络通过反向传播算法学习10^4-10^6数量级的训练样本之后,就能在微秒级别的时间内完成新型结构的性能预测,预测误差可被控制在1.5dB之内,这种“一次训练,多次推理”的特性,让ANN变成天线智能改良设计的关键使能技术,给6G通信系统的高效研发赋予了新的方法论。1.2国内外发展现状神经网络的理论起源源于人们想要仿照人脑对信息处理的原理,通过类比生物神经元间的相互作用,来实现对于复杂数据处理和学习的能力,先辈学者对大脑的学习与记忆过程进行了详细的研究,试图用数学公式描述生物学的原理。就是让机器能够像人的大脑一样,根据神经元间的连接程度,学习并适应环境。1943年,M.Culloch,P.Pitts,两位学者提出了新的神经网络构造思想MP模型,这是神经网络研究的一个里程碑,这个发现不仅为后来的学者提供了基础,在当时也开创了使用数学模型去模拟大脑神经系统的先例。1949年心理学专家D.O.Hebb发表最早的一种神经网络学习方式Hebb规则,此理论被应用到了早期的模式识别等基本研究之中,由此开启了新的研究时期。计算机科学家Frank提出了自己新奇的感知器模型,仔细探究了收敛定理及其在神经网络中怎样达成信息的妥善存储和组织,给人们认识复杂系统赋予了新的视角,神经网络前行的道路并不总是一片坦途,20世纪60年代,M.Minsky针对那时正蓬勃发展的感知模型做了细致剖析,找出它的主要缺点,只能解决线性可分的问题,这个深刻的认识给正在如火如荼发展的人工智能研究带来了冷静思考,理论界开始对人工智能技术的复杂性以及局限性有了更清楚的认识,在20世纪80年代,神经网络技术有着重要的发展转变,物理学J.J.Hopfield在探寻系统动态变化的时候,创建了Hopfield模型,这个模型很新颖地把神经网络的发展看成是能量减小的过程,而且这一理论成果还被有效地应用到集成电路的设计当中[1]。机器学习专家G.E.Hinton利用模拟退火方法对hopfield模型中的伪吸引子问题进行突破,通过构建全连接的Blotzmann机来解决,早期的全连接模型由于计算效率低,存在局限性,随后Hinton对Blotzmann机的网络结构进行改进,提出了受限Blotzmann机的概念,提高了模型的运算速度,RBM不仅解决了伪吸引子问题,还开创了一种“先预训练再微调”的方法论,使得深度学习模型从概念验证顺利过渡到了大规模的工业应用。[2]面对研究领域激增的兴趣,1986年成为神经网络发展的关键节点,当时很多学者同时提出了、阐释了并加深了BP(反向传播)模型的概念和应用,这种架构凭借误差反向传播机制,有力支撑了多层神经网络的学习进程,进而给搭建更深层级的模型赋予了理论根基和操作指引,现在它被大量运用到各个行业当中,很好地化解了许多实际的工程技术难题[3],BP模型是神经网络研究中的一个重要节点,既显示了这个领域的重大进步,又打通了传统符号处理办法和现代连接主义路径间的交流渠道,从而极大地扩充了人工智能的可能和范围。在训练深度神经网络的时候,BP算法碰上的一大难点就是所谓的梯度消失现象,这直接影响到了模型的学习速度和性能。​建立神经网络的时候,如果层次很深,尤其是层数多于5层之时,误差反向传播在逐级减小的同时,前面几层的权重变得很固定,极少再改变,仅仅依靠深层参数的小幅调节而已,这就造成对低级特性获取的束缚,影响到整个模型的性能水平,传统误差反向传播方法在深学习情形里有点无能为力,很难有效地处理并改良深层神经网络里的权重,既局限了浅层神经网络应用潜力的发挥,又促使探究更具学习效能的深层神经网络陷入僵局,直到2006年,Hinton推出了深度置信网络模型,这项改动借助无监督预训练手段解决了梯度消失问题,不但给深学习学科给予了关键技术方面的解决途径,而且引领其走向了全新的发展轨道[4]。模型得到初始权重之后,通过BP算法执行权值微调,这个过程实际上就是深度神经网络学习的关键部分,目的在于改进模型性能,深度信念网络(DBN)属于深度学习框架里的关键结构,它的构造设计使得可以逐层学习复杂的资料特性,理论上能够做到几百层,极大地改善了模型对细节的捕捉与抽象水平,DBN在未标记的数据集上预先训练,创建起通用的表现形式,之后再用少量带有标签的数据进行调整,从而提升其针对特定任务的适应程度,这种“基本模型+细化调整”的做法,其实质上是把DBN分层学习的理念大量扩展并深入应用。深度学习发展的根基在于对初始参数调整的认识,它的发展进程依靠着不断加深的层次化特征提取过程。于非线性系统建模方面,人工神经网络(ANN)有着很好的非线性拟合能力以及对高维数据的处理能力,为射频电路建模带来了革命性的解决手段,这项研究提出了一种新的“几何参数-电磁响应”直接对应模型,这种模型试图解决传统等效电路方法在毫米波频段精度不足、面对三维异质集成体系时模型构建难度剧增的问题。1994年,卡尔顿大学的A.H.Zaabab教授首次把前馈神经网络应用到射频器件的建模工作中,他创建了一种神经网络模型,用以替代传统电路系统里频繁使用的FET电路配置,这极大地推进了电路模拟与优化分析的进程[5]。2000年,M.Lazaro,坎塔布里亚大学教授,提出了一种新的射频组件智能建模方法,他提出了三种针对金属氧化物半导体场效应晶体管(MESFET)和高电子迁移率晶体管(HEMT)的大信号和小信号神经网络模型,并通过综合这三种模型,Lazaro建立了一个可以准确描述晶体管整体行为的全局模型[6]。2005年,墨西哥科研人员J.E.Rayas-Sanchez利用数学重建的方法,提出了一种线性逆空间映射射频微波电路优化算法,该算法成功地实现了对微波电路在频域和时域内的瞬态分析与计算。提出一种线性逆空间映射策略,目的在于简化映射过程,尤其适用于射频电路中基于线性的分析模型[7]。2006年,乔治亚理工学院的P.Sen博士利用神经网络方法,首次构建起一套智能寄生参数提取架构,这一创新使得集成电路的寄生参数提取速度从每结构需耗时8小时,飞速提升到只需0.5秒,极大地提升了设计效率和开发速度。在2010年,卡尔顿大学的HumayunKabir教授提出一种创新性的模块化混合神经网络体系结构,该策略首先把大型神经网络拆解成若干小型子模型,然后把经验模型或者等效模型整合进各个子模型当中,从而形成一个完整又优化的整体模型架构。通过此技术建立了H面波导滤波器模型以及侧耦合圆波导双模滤波器模型。此技术与传统的神经网络结构相比,在准确度上具有显著的优势,而且能够处理更多的输入特征,即使在样本数量有限的情况下也能保持高效[9]。2014年,俄亥俄州立大学的YoungseoKo教授提出了一种基于准静态测量的神经网络构建体系,该体系通过引入负载线、输出功率、功率效率和负载拉力模型进行验证。结果表明,这种新的射频器件大信号模型与已有文献中提出的模型相比,在预测精度方面具有明显的优势[10]。在2016年,南洋理工大学的YangTian首次尝试使用神经网络技术来改进射频微波集成电路中的直角微同轴弯管设计,这是一项重要的创新,它使设计出的同轴弯管具有很高的效率,极大地推动了折叠微同轴无源器件的发展。这项技术不仅使结构小型化,还使损耗降低,匹配度提高,[11]这在这一领域是一大进步,2018年,日本学者ReinaHongyo带来了DNN这一创新工具,这种工具有着独特的网络结构和训练方法,它很好地解决了Doherty功率放大器(PA)设计中非线性失真和记忆效应的问题,[12]2019年,爱立信工程师S.Dikmese提出了一种双阶段混合建模架构,着重分析宽带射频功率放大器的动态非线性特征,这一策略首先用神经网络和K近邻算法来预处理复制信号,然后用神经网络来建立模型,目的是大幅改进均方误差性能并改善相邻信道之间的误差功率比。2020年,A.Aoad在土耳其提出了一个物理引导深度强化学习(PG-DRL)的架构,在这个架构里融合了麦克斯韦方程的弱形式限制,大幅度削减了对数据的依赖性,削减了70%,并且依靠迁移学习技术使得它能够灵活地适应不同的基板材质,从而引领可重构天线走向智能化设计的新时代[14]。二十一世纪,中国在射频电路智能建模领域遇到两道难关,一是国外的技术壁垒,二是已有方法的不足之处,2004年时,李明玉教授在电子科技大学,首次把小波多分辨率分析和自适应神经网络结合起来,创造出一种小波-神经网络混合模型架构,目的在于有效地搭建起微波电路里输入和输出之间的非线性联系,这种模型凭借非正交函数的应用,体现出自适应学习的特性,并且达到很高的准确程度[15],2006年的时候,东南大学的高建军教授,从电路的等效模型以及实际经验出发,率先开发出一种专门用来分析改良型PHEMT(横向场效应晶体管)器件噪声特性的神经网络模型,然后拿它同真实的检测结果做对比,分析,从包含很广频率范围的数据验证当中可以看出,这个算法有着非常高的契合度[16],这就显示出它具有稳定的可靠度。于2008年,刘小丽教授在西安电子科技大学首次提出了一种结合多物理场耦合作用的微波电路大信号散射函数协同建模策略,该策略将MLP(多层感知器),RBF(径向基函数),Elman(埃尔曼)以及ANFIS(模糊逻辑系统)四种神经网络模型集成起来,搭建了一个协同建模体系,深入探讨并对比了这几种模型的特性,研究显示,所有模型的预测误差都在可接受范围之内,完全符合设计标准,这充分证明了该算法的准确性和有效性[17]。2010年,翟剑锋教授在东南大学首次把Hermite正交基扩展理论同模糊推理系统结合起来,开创性地创建了一种带有在线自适应学习机制的动态重构神经网络模型,这种模型依靠动态评价神经元对系统性能的贡献,做到基于贡献的拓扑结构改良,有效地防止了过拟合情况的发生,而且被应用到Doherty功率放大器的记忆效应精确模拟当中,这是在信号处理领域的一项重要突破[18]。2013年,张川教授在天津大学开展了一项开创性研究,他设计并实现了混合型层次化记忆递归神经网络,这个架构把双向门控循环单元同自适应遗忘门巧妙结合在一起,目的是要破解功率放大器在不同时间尺度上记忆效应的难题[19]。2015年,天津大学的冯峰教授提出了一个融合梯度逆向传播策略的协同建模体系,这是第一次将深度置信网络和矢量匹配法结合起来,其目标是创建一种适合于微波滤波器中多物理场交互作用的智能传递函数模型,这种工作给复杂系统仿真和设计给予了新的理论根基和技术途径,同传统方法相比,这种模型的几何安排更多样化,参数调整范围更宽广而且更精准,在处理高维度数据的时候表现出更好的稳定性,有关成果可查阅文献[20]。2016年,朱林教授在天津大学实施技术创新,他提出了一种多尺度动态神经空间映射的革命性构架,完全打破了传统的静态网络限制,这个构架把伴随灵敏度分析同非线性状态空间方程巧妙地融合起来,目的是给高电子迁移率晶体管的多物理场耦合特性给予智能建模解决办法,做到对复杂系统行为的精确预测和高效模仿,这个策略既保持了静态模型对于非线性电阻和电流源特性的控制能力,又克服了静态模型在电容效应和非准静态现象描述方面的不足,从而明显改进了模型的精确度[21]。2018年,蔡家林教授在杭州电子科技大学进行技术创新,他创造了一种新的神经网络体系结构,这种架构依靠支持向量回归驱动,并且包含抗过拟合特性,这种设计把ε-支持向量回归机的结构风险最小化概念同深度置信网络结合起来,目的在于解决传统神经网络在创建宽禁带半导体器件模型时产生的过拟合问题,从而极大地改善模型的推广能力和预测精确度。那一年,天津大学的张伟教授提出了一种层次化的自适应空间映射融合框架,这个新方法把几何参数的维度缩减策略和全部电磁响应特性提取技术结合起来,目的在于创建一个智能代理模型,专门用来应对微波元件中的多物理场耦合状况,这种策略用有限的实测数据和计算投入,搭建出准确度很高的神经网络架构,而且通过波导滤波器实验来检验其效果,从而保证算法的可靠性(参考文献[23]),2019年,宁波大学的刘台军教授采用卷积神经网络和长短期记忆网络相结合的办法,新颖地形成了一款深度神经网络架构,这个模型专门针对5G功率放大器在非线性化过程中的效能开展分析,明显改进了对5G通信系统中功率放大器性能评判的精确度和效率[24]。2021年,石丽萍教授在三峡大学做了新的研究,她提出了一种时空特征解耦的深度混合网络模型,这个模型把三维卷积神经网络和门控循环单元巧妙地结合起来,想要创建一个智能系统,专门针对5G新无线电(NR)功率放大器的非线性动态属性进行建模,这种创新的尝试是想解决传统石墨烯基可重构反射阵列天线全波散射特性分析耗时过长的问题,给无线通信技术的发展提供了高效的方案,同传统的神经网络结构相比,这种方法表现出非常出色的效能和精确度,大大减少了计算所需要的时间[25]。射频电路设计正向着毫米波频段迈进,再加上系统级封装这种背景之下,传统电磁全波仿真碰上三个主要难题,多物理场之间相互作用使得建模过程变得十分繁杂,工艺变化造成模型通用适用性变低,非线性动态行为描述也不容易,这三者共同制约了仿真效率与精确度,在当下的环境里,依靠深度神经网络的智能建模方法表现出革命性的效能改进[26]。当下智能射频建模技术正经历着快速迭代与深刻变革,一方面新出现的算法显著提升了设计效率,在毫米波频段上可以快速对复杂天线阵列进行优化,有些情况效率能提高几十倍,三维电磁场重构精确度超越了传统限制,另一方面技术发展也碰上难题,高频段高维度系统建模遇到维度爆炸状况,超大量参数优化所需的算力远超过现有硬件所能承载,多种物理场耦合作用使得时频空协同建模精度降低,眼下重点放在跨学科融合创新上,利用嵌入物理方程约束的方法创建可解释模型,并借助量子计算、光子芯片等新技术来冲破算力瓶颈。产业界加快智能设计平台落地进程,大幅缩减射频器件研发时延且削减成本,不过在多目标优化以及极端环境适应性上尚须突破,往后随着算法革新和算力提升,智能射频建模会朝向自主进化、全域感知方向发展,从而给6G通信、空天网络等前沿领域赋予关键支持,促使电子系统设计迈向智能原生时代。第二章设计原理2.1引言传统射频电路建模大多依靠以Maxwell方程为理论依据的分析方法,这种办法尽管原理很严格,但是实际应用的时候碰上计算资源需求非常高的情况,这致使设计周期拉长而且成本变高,很难符合现代无线通信系统快速又高效的设计要求,基于人工神经网络的建模策略开拓了新的途径,显示了广泛的技术应用前景,在工程界特别表现出光明的发展前路。人工神经网络模型善于捕捉并模仿复杂射频电路里变量同电磁反应之间的非线性联系,通过足够多的训练样本,可以有效又精确地塑造出射频电路模型,研究人工神经网络在射频电路建模中的应用有着重大意义,这为后面改进模型形成了理论根基,现在的工作着重加深人工神经网络(ANN)同电磁场物理学原理的结合,这种融合推动着智能设计核心引擎向前发展,这是射频电路建模技术迈进人工智能和电子设计自动化(EDA)合作创新时代的标志。2.2超宽带天线简介2.2.1超宽带通信超宽带通信是一种使用极短脉冲直接传输信息的无线通信方式,其最显著的特点是不需要传统意义上的载波,只需要使用纳秒级的脉冲来对信号进行调制,因此超宽带通信也被称作无载波通信。超宽带通信拥有极宽的频谱占用以及极低的功率密度,能够与其他通信系统共享频谱而不会相互干扰。由于超宽带通信信号具有超短脉冲的特点,因此它具有很强的穿透能力并且具有很高的能量效率,适合应用于短距离高速数据传输、精确定位以及复杂环境下的可靠通信。相比于其他方案,UWB系统结构更加简单,在物联网、智能设备交互等方面具有独特的优势,是新一代短距无线技术的代表之一。2.2.2超宽带天线工作带宽是区分超宽带天线和传统天线的关键属性,它代表超宽带天线可以有效传输信号的频谱区间,这个数值往往远远超过常规天线的带宽设定,上世纪九十年代,DARPA一份报告里首次对一种天线类型做了定义,这种天线的特点就是它的分数带宽超出25%,从此以后,这个概念成了这个领域的一项重要标准,联邦通信委员会FCC还提出过一个提议,建议把某个参数的标准从25%改为20%。带宽的计算方式如式2.1(式2.1)之后,FCC严格的定义了超宽带天线即任何工作带宽超过500MHz的天线就是超宽带天线。2.3人工神经网络简介人工神经网络是一种模仿生物神经系统的数学结构,它尝试模拟人脑神经元之间的交互以及信息处理方式以捕捉和学会数据与数据之间的关系,以此成为智能计算的基础,人工神经网络的设计借鉴了生物神经系统的简化和数学建模,其中用到细胞体来整合来自树突的输入,当输入信号的总和到达一定阀值的时候,它们会像轴突那样,产生某种模拟生物神经冲动的输出,这意味着给输入信号赋予不同权重,把它们加起来来模仿细胞体的整合过程,同时还要用非线性激活函数来确定会不会产生一种像生物神经元一样产生的冲动输出。神经网络实际上是由很多模仿生物神经元的计算单元,按照某种架构连接起来而形成的动态系统,用以执行复杂的模式识别和数据处理任务,每个节点对应一个指定的输出函数,我们称之为激活函数,两个节点之间的联系被赋予了对通过这些联系传递信息强度的度量,这个度量被称作权重,网络的行为由它的架构,连线方式,权重分配以及激活机制共同决定,网络架构会通过优化权重来掌握数据的本质特性,依靠自身并行和分布式计算的优势,它做到了信息存储与计算的无缝衔接,表现出很强的容错能力以及自我调节机制。人工神经网络把对生物神经系统认识以及数学统计模型精华结合起来,利用数学统计手段构建出复杂系统,从而模仿并实现生物神经网络功能,在人工智能领域开展感知研究时,借助统计学原理创建神经网络模型,使它能在某种程度上模仿人类决策判断过程,这种方法实际上是对传统逻辑推理体系的扩展与深化。人工神经网络架构里,神经元是基本处理单元,它可以表征各种各样的元素,从特征到字母再到概念,甚至包含有深层含义的抽象模式,这样就能让模型去解析和理解复杂的资讯,处理单元在神经网络架构当中常常被划分成三种基本类型,一种是接收外界信息的输入单元,另一种是负责产生最终输出的输出单元,还有一种则是充当信息传递过程中的中介角色的隐单元,接收环境信息并加以处理的数据模块就是输入单元,输出单元则是显示系统分析结果的地方,至于隐单元,它处于输入和输出中间的位置,其状态和功能是外界看不见的,神经元彼此间的连接权重显示了它们之间联系的紧密程度,而信息的编码和操作则通过网络当中各个处理单元相互关联的方式得以体现。人工神经网络是一种信息处理系统,它没有预设规则,自我适应,运作模式像大脑一样,靠网络结构变化和动态交互做并行分布式计算,在各种层面模仿人脑神经系统的信息处理方式,随着研究深入,神经网络模型架构从简单单隐藏层发展到复杂多层甚至深层,创新技术比如残差连接和自注意力机制的应用解决了梯度消失等问题,极大地推动了计算机视觉,语音识别,药物研发等领域技术的发展,正引领人工智能向更通用,更接近生物大脑方向发展。1.生物神经元的结构:神经细胞是构成神经系统的基本单元,简称为神经元。神经元主要由三部分构成:(1)细胞体;(2)轴突;(3)树突。如图2.1所示:图2.1生物神经元结构神经元间通过突触实现通讯,这个关键节点位于神经元的末梢与目标神经元的树突交汇处,其功能在于传递电信号,为大脑信息处理提供基础架构。神经元的轴突末端形成了突触,这一结构在神经信号传递中扮演关键角色。大脑是由数量惊人的神经元构成的,它们形成了庞大的神经网络系统,神经元承担着传递和处理信息的任务,这当中包含着电化学反应,树突通过电化学反应接收外界信号,之后在细胞内部转变成轴突电位的变化,当轴突电位到达一定的阈值之后,就会产生神经脉冲或者动作电位,接着沿着轴突的末端向其他神经元传递,大脑借助这样的动态调节系统,既能够敏锐地察觉到轻微信号,又可以有效地剔除掉噪音,给人类智能赋予了物质上的依托。神经元的核心功能为:(1)时空整合(2)单向传导(3)双态调控(4)连接可塑(5)信号编码(6)时序控制(7)自适应调节2.人工神经元结构:人工神经网络是通过模拟人脑神经系统构建的智能计算架构,其核心由大量称为“人工神经元”的单元通过带权连接构成。每个神经元如同信息中转站,接收来自上游的加权信号,经过内部运算产生输出信号,并通过连接权重动态调节信号强度。有向弧的权值表示相互连接的两个人工神经元间相互作用的强弱。权重值越大,相当于两个神经元间的“信息公路”越宽阔,信号传导越高效。人工神经元结构如图2.2.图2.2人工神经元神经网络从两个方面模拟大脑:(1)神经网络通过与外部环境交互习得知识技能(2)突触权重表征的神经元连接强度是存储学习获取知识的核心机制神经网络系统以大量互连神经元组成的网络架构模仿人脑的信息处理方式,在这个结构里,神经元之间的连接组成了复杂的通信路径,人脑可以依靠这种分布式并行运算,对输入的信息执行非线性转变和整合,从而高效地完成诸如模式识别,逻辑推理这类高阶认知任务,这种依靠群体协作的计算方法,既能通过神经元集群的协同激发来达成特征抽象,又能凭借突触权重的动态调整去改良信息处理策略,在20瓦左右的能耗之下,便可以产生出像超级计算机那样的智能。对于一个神经元来说,假设来自其它神经元i的信息为Xi,它们相互作用的强度即为连接权值Wi,i=0,1,…,n-1,处理单元的内部阈值为θ。那么本神经元的输入为:(式2.1),而处理神经元的输出为:(式2.2)式中,xi为第i个元素的输入,wi为第i个处理单元与本处理单元的互联权重即神经元连接权值。f称为激活函数或作用函数,它决定神经元的输出。θ表示隐含层神经节点的阈值。神经网络的主要功能是创建数据处理架构,并对其进行调优,一般涉及前馈和反馈两类网络组织形式,神经网络的学习方式是监督训练或者用无标签数据自我学习,关键是依靠输入和输出的配对数据进行指导,或者在没有明确指引的情况下,寻找数据内部的模式,在选定好模型并设计出特定的训练函数之后,网络开始计算以产生输出,然后根据这个输出和理想结果之间的差距,网络会调整权重参数,在做出决定时,网络只会接收输入信息,不需要预设的输出指引,神经网络具有重要的特征,就是不断地改变神经元之间权重和阈值来从外部环境中获取知识,这种做法的目的是让网络的输出符合预设的目标,一旦达到了这个标准,就可以认为训练已经结束。对于这样一种多输入、单一输出的基本组件能够通过结合生物化学反应、电生理机制以及数学模型来具体化其功能,这个过程从分子层面的代谢调控延伸至细胞层面的信号传递,再到更高层次的计算原理分析,由大量神经元通过复杂连接形成的网络可以表现出类似大脑的一些特性,而且具备一定的自我调节能力和结构重组能力,通过调整连接神经元之间的权重wij,学习系统能够对周围环境变化的需求做出回应,借助不同的学习策略和涵盖范围不同的内容体系,同一个网络可以达成多种独特的功能,人工神经网络是一种带有学习机制的系统,其目的在于让机器能够吸取并应用知识,有时候甚至会超出最初设计者所赋予的知识范围。在机器学习界,大致有两种训练方式,一种是有指导的,在有明确指引与实例的环境下,通过训练数据集去学习规律,进而用来分类或者模仿;另一种是无指导的,在没有直接指引的情况下,按照所设定的机制探索环境,自行找到模式和内在规律,以此为基础,同样的神经网络架构经过改变训练手段,可以做从图像合成到语言翻译、风险评估等一系列用途,显示了仿生智能的灵活与适应能力。构建并运用人工神经网络的时候,大致要关注三个重要部分,也就是激活函数的选取及其功能,神经元之间联络方式的探究,还有网络训练方法的规划与改良。3.构建神经网络的时候,神经元之间传递机制和运算方式已经设定好,这些设定决定了网络怎样学习和处理信息,在神经网络里,重点在于持续调节神经元之间的连接权重,从而改善信息处理效果,这个体系的基本设计在创建之初就决定了特定的传递函数以及激活函数的运算规则,神经元的功能仅限于回应输入信号,想要调整它们对信息的处理强度也就是改变加权输入,唯一办法就是直接改变神经元间的连接权重,这样一来,神经网络的学习过程就变成了不断改变这些权重矩阵,以此来改善网络性能并提升预测精确度。4.神经网络运行机制包含两部分:离线训练时期,利用海量数据集来学习输入和输出之间的繁杂非线性对应关联,用优化方法(比如Adam,RMSProp)不断缩减预测误差,直到损失指标达成既定停止条件;在线推理时期,固定已训练完成的网络权重,执行前向计算流程,快速处理实时数据,做到几乎毫秒级的速度。5.神经网络的学习机制包含调整权重来改善性能,这个过程可被分成关联学习和非关联学习两大类,再细分成为指导性学习和自适应学习两种模式,以下是几种常见的学习法则概要:(1)误差校正机制属于监督学习的基本构成部分之一,它的重点在于算出预测输出和实际目标间的差别,并以这个差值作为依据不断调整神经网络内部的权重参数,目的在于达成模型预测的精准化和改善,误差校正牵涉到按照网络输出同预期值之间差距来改变权重,这一过程包括了四种主要的策略:δ学习法则,Widrow-Hoff法则,感知机学习法则以及反向传播算法(BP),这四种策略对应着神经网络训练当中用来改进性能的不同方法。(2)竞争型规则属于无监督学习基本框架中的一个,它主要依靠神经元自身组织能力来探究数据内部模式并予以揭示,进而达成对复杂数据集结构的深入认识。该系统借助赫布学习法则以及资源竞取机制,达成对网络权重的自适应调整,无需事先设定标记信息。在无监督学习的情境下,模型被放置于“环境”当中自行探索,不需要预先设置样本当作指引,整个学习进程与实际应用无缝对接,构成一条连贯的循环链路,目的在于从数据当中自动挖掘出模式及结构,而无需预设目标或者结果。(3)Hebb型规则起源于神经科学里“共同激发的神经元联系加强”的核心原理,其核心理念在于依靠神经元相互之间协同活跃的程度来调整彼此间的联系强度,在这样一种无监督的学习机制当中,网络并不需要外界给予的指引信号,只需凭借内部神经元的激活情况自行改进——如果两个神经元常常一起活跃起来,那么它们之间的联系就会慢慢变得越来越强,相反地,若二者很少一同活跃,则彼此间的关系会慢慢减弱,这种自我组织的特点让网络可以自然而然地找出输入数据里的内在联系,Hebb规则算是最接近生物学习方式的算法之一,它给现代神经网络赋予了基本的设计理念,特别是在早期的特征提取以及联想记忆这类场景下起着重要作用,它的思想至今仍然影响着诸如脉冲神经网络之类的前沿架构。(4)随机型规则:随机型规则是一种基于统计力学启发的全局优化策略,其核心在于通过引入可控噪声打破局部最优陷阱。6.激活函数:在神经网络架构之内,激活函数的选择对于模型的性能及其学习能力有着重要的影响,它既关乎到网络结构的复杂程度,又直接影响到网络怎样去处理和整合信息,激活函数的种类很大程度上左右着神经网络的学习速度,在面对具体的应用场景时,正确地挑选激活函数非常关键。神经元的信息处理机制围绕着激活函数展开,这个函数是人工神经元所具有的特点,它准确地表述了从多种输入信号过渡到最终输出反应的非线性转变过程,这其中包含了接收信号的过程,通过这种接收就形成了净输入,然后要经过激活函数来加工并形成激活值,最后转变成输出信号,f函数结合了净输入,它的主要功能是对输入数据实施某种转换或者计算,从而达到一定的数学运算或者逻辑处理目的,f函数的形式多种多样,见表2,通过研究各自的独特之处,就可以构造出有着多种功能的神经网络结构。表2.1常用的激活函数序号函数表达式f(x)1Sigmod2Tanh3Relu2.4本章小结本章分别介绍了超宽带天线与人工神经网络的基本原理,其中重点介绍了人工神经网络。第三章超宽带天线与人工神经网络的设计与仿真实现3.1引言搭建网络架构的时候,会安排有输入层,很多隐藏层以及输出层的构造,神经元充当基本运算单元,它承担着接受,处理并且最后传递信息的任务,输入节点与输出节点各自单独存在,它们的具体数目由参数决定,隐藏层的神经元数量可以随意调整,整个网络架构要靠训练过程不断改善才可能达到最佳状态。如图3.1描绘的,神经网络模型的学习机制显示了它怎样通过训练逐步改善自身的预测能力,弄清哪些是特征,哪些是目标变量之后,在CST电磁仿真工具的帮助下收集实验数据,并把这些数据划分成两组,一组用来训练模型,另一组则用于验证,接下来就是选择什么样的激活函数,然后开始构建并配置神经网络的架构和参数,在构建神经网络的时候,按照具体的应用场景和模型的需求来挑选合适的激活函数是非常重要的,这牵涉到函数的非线性特点,运算速度还有对梯度流传的影响等等,网络的起始设置好坏会直接影响到后续的学习进程,如果初始的设置距离理想的解决办法太远,那么训练的过程就会变得很长而且很没有效率。紧神经网络持续吸收训练样本,可调节的参数按照特定的学习策略持续调整优化,这个过程一直持续到网络的性能符合预定目标函数的标准为止,在完成训练阶段以后,对模型展开验证是非常关键的步骤,其目的就是评定模型在未知数据集上的表现,保证模型可以有效泛化并给出准确预测,对于某一种神经网络模型来说,通过引入新的数据集来评价,目的是查看其在未知数据条件下的预测是否准确,从而保证这个模型的泛化性能达到预期标准。图3.1神经网络的学习过程3.2仿真软件介绍3.2.1CSTStudioSuite介绍CST(ComputerSimulationTechnology)仿真软件属于电磁和多物理场仿真的代表性工具,是由德国CST公司研发(现归达索系统SIMULIA旗下),因其高效的三维仿真技术而被广泛应用在诸如通信、电子、汽车、航空等行业,该仿真软件采用的是时域有限积分法(FIT)、有限元法(FEM)和矩量法(MoM)等核心技术,能应对涵盖高频天线设计、低频电机优化等各类复杂的工程问题,并支持如电磁-热、电磁-结构之类多物理场的耦合仿真,向工程师们提供从概念到产品验证的一站式服务。从功能上看,CSTStudioSuite涵盖全频段电磁仿真需求,高频方面可以完成5G基站天线、雷达散射截面(RCS)、微波器件的设计与优化,低频方面侧重于电机、变压器和电磁兼容(EMC)分析,它具备独特的时域和频域求解器,分别针对瞬态电磁现象和谐振系统,借助GPU加速和分布式计算技术,大幅提高仿真效率,而且,软件内嵌参数扫描、遗传算法等工具,支持自动化设计优化,使用户能够快速迭代方案。在实际应用方面,CST也体现出不小的价值,在通信领域,CST被用来做手机SAR值的评定,高速PCB的信号完整度分析,在汽车行业里,它支持电动汽车无线充电系统的仿真,整车EMC测试,航空航天方面,则可以协助飞行器隐身设计以及卫星通信链路建模,而且,CST还支持像Cadence这样的主流EDA工具,也支持像SolidWorks这样的机械设计软件,这样就实现了跨平台的数据交流,进一步融入到企业的研发过程中。CST的技术优势是高精度与易用性并重,它采用自适应网格技术,智能加密关键区域网格,做到计算效率与结果准确性的平衡,而且,图形化界面和丰富的材料库使得操作门槛降低,即便不是专业人士也能很快上手,软件通过国际标准验证,比如IEEE标准案例,保证仿真结果可靠,加上全球技术支持团队,给用户提供有力支撑,伴随达索系统对多物理场仿真的整合,CST与Abaqus等工具的协同扩大了它在数字化孪生中的应用范围,不断推动5G,自动驾驶等前沿技术的工程实现。CST仿真软件凭借全面的电磁仿真功能、高效的多物理场耦合仿真以及高度工程化的操作流程,在复杂的系统设计过程中成为了不可或缺的工具,将来随着技术发展,CST会继续引领仿真潮流,帮助工程师冲破设计的边界。3.2.2Tensorflow介绍TensorFlow是GoogleBrain团队开发的开源机器学习框架,它于2015年推出,凭借灵活的架构,出色的性能,完善的生态系统,在诞生之初便成为了人工智能领域不可或缺的关键工具,从学术研究到工业级应用,包括图像识别,自然语言处理,推荐系统,自动驾驶等前沿技术,给开发者提供了一个完整的从创建模型到投入生产的过程。核心设计是利用了TensorFlow的数据流图(DataFlowGraph),把运算过程看成是由节点(也就是各个操作)和边缘(也就是各个张量)所组成起来的一个图形,这样做一方面有利于对这个静态的图形实施改善和并行化处理之类的操作,另一方面又在2.0版本里面增添了一种新的模式叫做动态图模式(EagerExecution),这种模式让使用者能够用更灵活的互动方式去调试这些模式,在保持效率不变的前提下增加了模型的灵活性,它具有跨平台的特性,所以可以在各种硬件设备上运行,比如CPU、GPU、TPU,还有各种各样的移动终端设备,包括用TensorflowLite操作;并且它还支持不同的编程语言,比如Python语言、C++、JS等等,这使得它能覆盖到云上的各个角落;在工具链方面,TensorFlow融合了Keras高阶API库,这使得搭建模型和训练的过程变得更简单,给TensorFlowExtended(TFX)赋予端到端的机器学习流水线能力,依靠TensorFlowHub、ModelGarden这样的资源库,开发者可以直接调用BERT、ResNet等预训练模型,极大降低了开发的难度。在应用上,TensorFlow在计算机视觉上应用有图像分类ResNet,目标检测FasterR-CNN,医疗影像分析,自然语言上有基于Transformer的BERT,智能客服,在工业场景中有时序数据模型预测故障,金融风险建模,还有分布式训练模块tf.distribute,大模型训练编译优化XLA,大模型大语言模型的大规模训练,对移动端推理的TensorFlowLite和高性能服务TensorFlowServing部署。从技术层面来说,tensorflow构建起自己的完整生态,包括了浏览器端的(Tensorflow.Js)、嵌入式设备端的(tensorflowLiteMicro)以及隐私计算领域的(Fedlearing框架),并且与谷歌自家的TPU硬件强绑定,运算速度快如闪电,开源社区和行业巨头们的使用背书(google,uber等等)也稳固了tensorflow的地位。但是面对像pytorch这样的竞品框架,尤其是在学术界更喜欢动态图的大背景下,tensorflow也在不断更新(比如增加易用性等),好在和pytorch一样,也形成了一个“学术界用pytorch、生产上用tensorflow”的局面。将来,TensorFlow朝着自动化机器学习(AutoML),边缘智能以及量子计算融合方向迈进,AutoKeras和TFXTuner可减轻模型调参难度,TensorFlowLiteMicro让AI在物联网设备上得以应用,与GoogleQuantumAI团队联手探寻量子机器学习潜能,TensorFlow是AI基础设施级别的工具,它既用作算法研究,又通过标准化流程帮企业实现智能化转型,它持续技术更新和生态扩充,会给5G,自动驾驶,生物医药等带来更多新突破,成为人工智能落地的关键引擎。3.3超宽带天线设计3.3.1天线结构紧凑型UWB天线,部分设计参数可以利用与UWB天线低频段边缘频率2.6GHz相对应的波长λL来计算.矩形辐射贴片长度LP满足(式3.1)天线的有效长度为矩形辐射贴片长度(LP)与阶梯形微带馈电线长度(L1+L2+L3)之和,且满足(式3.2)馈电间隙的长度为部分接地平面长度Lg与阶梯形微带馈电线长度(L1+L2+L3)之差,且满足(式3.3)介质基板厚度H为(式3.4)该天线设计包含一个矩形平面,此平面配置了具有三角形凹口的50Ω阶梯型微带线进行馈电;同时,它还整合了一个DGS(分布式高斯结构)元件。如图3.2所示,天线的正反面结构有所区别,具体细节见插图描述。利用CST电磁仿真工具,我们对一个体积为13毫米乘以22毫米乘以0.8毫米的超宽带(UWB)天线进行了详细的数值模拟分析。其他参数如图3.3所示图3.2天线结构图图3.3天线的尺寸3.3.2天线的仿真用CST仿真建模出以上尺寸的天线如图3.5,3.6。之后,分别对天线进行参数扫描以收集数据集。参数设置如表3.1所示表3.1参数扫描数据参数数值数值数值LdLgLs4.1084.208WWW30.90.951.0Ws而此天线的s参数图如图3.4所示图3.4模型天线s参数图图3.5天线正面图图3.6天线背面图3.4人工神经网络设计3.4.1数据预处理数据预处理是机器学习流程中不可或缺的智能数据引擎,其通过系统性特征重构与质量增强技术,将原始数据转化为高信噪比的模型可消化形态。非常重要的步骤,然而却常常被看作小问题而不予考虑。此设计包含1,458个样本集,原始数据因量纲、数值范围广泛,且数据量巨大,导致其内在特征深藏不显,若直接应用于人工神经网络构建,将引发模型训练周期延长、预测精度下降以及收敛性差的问题。通过实施数据预处理,可使数据的数值范围一致化,特征信息得以充分展现,从而提升数据可操作性和处理效率,加速模型训练进程,降低预测误差。数据预处理作为关键步骤,不仅能够全面捕获原始数据集的核心属性,确保所有特征信息得以保留,同时还能剔除冗余或不准确的数据,减少错误数据对分析过程的干扰,进而精简数据集大小,提升数据品质,加速模型构建进程,为高效能神经网络模型的开发奠定坚实基础。在本设计中,采用了归一化的处理方法,这种方法将不同取值范围的变量,全部映射到相同的取值范围。计算公式为:(式3.5)3.4.2神经网络的设计本设计采用的是深度前馈网络如图3.7所示,前馈神经网络模型的拓扑结构包括输入层(input)、隐藏层(hidelayer)和输出层(outputlayer)。图3.7深度前馈网络令a(0)=x,前馈神经网络通过不断迭代下面公式进行信息传播:(式3.6)将数据集的前1200个样本设置为训练集,而剩下的为测试集。经过训练后通过图3.8可知,约2000次迭代后损失下降趋缓,学习率固定。图3.8训练步数与loss3.5本章小结本章先是介绍了仿真软件和所用神经网络框架,然后说明了收集数据集的天线模型、收集的参数以及神经网络搭建的方法。其中重点说明了神经网络搭建的数据预处理方法,这对神经网络搭建极其重要。第四章基于人工神经网络的超宽带天线的仿真优化与分析4.1引言传统UWB天线设计依靠参数扫描与经验调优,比如改变辐射贴片长度、介质基板厚度或者馈电位置以达到阻抗匹配的目的,在简单的结构中这些方法可行,但面对多频兼容、高集成度或异形结构时,设计周期呈指数级增长,而且传统方式无法量化参数之间的非线性耦合效应,从而使得性能优化陷入局部最优状态,而ANN利用数据驱动的全局搜索能力,从理论上讲可以打破这种局限。在本章里,会把ANN预测的s参数图同CST仿真出来的s参数图拿来进行对比,执行系统检验,以此来证实ANN推动UWB天线设计的工程可行性,探寻智能算法和电磁物理之间的深层交互规则,为6G通讯,智能物联网等场景下的高机能天线设计给予理论支撑和操作范例。4.2仿真优化由图4.13可以看出ANN预测的s参数曲线在10GHZ时的时陷波比CST仿真出来的s参数曲线在10GHZ时陷波要深,CST仿真在高频处如10GHZ的S11值较高,陷波深度被低估了,所以CST仿真可能有其他的条件导致s参数曲线出现误差,例如材料参数的误差会导致谐振频率和品质因数发生改变,仿真结果可能会出现谐振频率偏移,陷波变浅。边界条件设置不合理也会造成虚假反射,掩盖了真实的谐振特性,在10GHZ时1/4波长大约为7.5毫米,如果边界距离仅为5毫米,反射可能会干扰仿真结果。端口阻抗失配会导致S11计算出错,要根据ANN预测的阻抗来设置端口,这些因素在理想化仿真里经常被忽视,在CST里要加入等效粗糙度模型或者创建含有测试环境的完整模型才能更接近现实状况,ANN模型的优点在于它能够从训练数据中隐式地学到复杂的物理效应。图4.1ANN预测与CST对比图4.3结果分析分别在训练集和测试集抽取三个样本,同时在神经网络中预测得到图4.2、4.3、4.4、4.5、4.6、4.7。这几个对比揭示了它在简化场景下(如图4.5)展现了替代传统仿真的高效潜力。图4.24.34.4为训练集随机抽出的样本与神经网络预测的s参数对比图图4.2训练集与预测的s参数对比图预测值与真实值在低频段(5-15Ghz)基本重合,比如图4.2中S参数从-0.1线性降为-0.5,误差几乎看不见,这表明神经网络很好地拟合了数据分布.图4.3训练集与预测的s参数对比图图4.4训练集与预测的s参数对比图图4.5测试集与预测的s参数对比图图4.6测试集与预测的s参数对比图图4.7测试集与预测的s参数对比图做完这些的同时,还需要通过随机数生成,用这些随机参数进行预测,并且用cst仿真来证明这预测结果是否正确。图4.8随机生成的参数图4.9ANN预测的s参数图4.10cst仿真与ANN预测的对比图4.11随机生成的参数图4.12ANN预测的s参数图4.13cst仿真与ANN预测的对比图4.84.11为生成的参数,第一组参数为ld=3.85484864lg=8.91259945ls=4.26748209w1=1.3920905w2=1.08106026w3=0.9548677ws=3.26788009第二组参数为ld=3.2328724lg=8.96828542ls=4.22529596w1=1.502714w2=1.10459364w3=0.99312866ws=3.28843786将这两组参数输入ANN模型就得到了ANN预测的这两组参数所对应的s参数图(图4.94.12)将这两组参数输入CST模型中得到的s参数图和ANN预测的s参数图对比(图4.10、4.13),可看出ANN预测的s参数与实际仿真出的s参数图基本一致。4.4本章小结本章通过对ANN预测曲线和CST仿真曲线的对比,充分证明了ANN预测s参数曲线的可行性,并且对数据集的局限性提出优化,综合来看,神经网络在简化场景下具有替代传统仿真的潜力,但是高频预测短板、数据分布强依赖、物理规律隐含表达不足等,共同指向需要通过高频数据增强、模型结构升级、训练策略优化,才能弥合数据驱动与物理合理性的鸿沟,最终实现从“拟合工具”到“设计伙伴”的转变。=第五章总结与展望5.1非技术原因探讨除了技术因素的影响,非技术因素也极大的影响了我毕业设计的进程,接下来对非技术因素进行总结和分析。首当其冲的就是时间安排问题,由于考研的失利,我一段时间内陷入了内耗,导致毕业设计进程缓慢,幸而在一段时间的调整和朋友的安慰之下,回归了正常学习过程,开始加快毕业设计进度,完成了开题报告答辩和期中答辩。另外一个主要问题就是在参数扫描时,受到笔记本电脑的CPU性能的限制,导致每次扫描过程都比较缓慢,在收集数据集上花费了大量时间。当然,还遇到其他的非技术性因素,但基本上都被成功的解决或者减轻其对毕业设计的干扰。5.2总结与展望天线是电磁系统里最重要的硬件部分,随着系统变得越来越复杂,所需要的电路模型也变得越来越复杂,与传统的其他优化技术相比,神经网络的优化能力很强。传统的方法需要反复计算好几天,而神经网络只需要分析大量的数据样本就能很快找到最佳尺寸和结构,把原本需要三天的工作缩短到几十分钟,而且天线性能也会更好。当输入输出已知时,在不了解物理设备的情况下,可以使用这种技术,神经网络可以自己摸索出隐藏的规律,自动生成满足要求的设计。人工神经网络技术巧妙地应用于简化数学模型,给输入样本指定一些设计规则,通过训练过程得到所需电路元件尺寸参数,从而大大降低传统方法的计算难度。人工神经网络的设计要达到高精度表现,在此过程中精细调参与复杂功能的集成能力起到关键作用,神经网络可以绕开繁杂的公式推导,直接从大量实验中学习,原本需手工计算几个月的事情变为自动优化,而且能够避开人的计算失误,从而提升研发速度几十倍,加快微波工程领域的应用发展。在本课题中,我了解了微波技术与天线,电磁场与电磁波,人工神经网络等相关课程的理论知识,并能熟练运用天线设计及分析,人工神经网络建立模型,CST软件。参考文献Hopfield,J.,Feinstein,D.&Palmer,R.Unlearninghasastabilizingeffectincollectivememories[J].Nature,1983,304:158–159JordanMI,SejnowskiTJ,G.E.Hinton.DeterministicBoltzmannLearningPerformsSteepestDescentinWeight-Space[C].NeuralComputation,1989,143-150DERumelhart,HintonGE,WilliamsRJ.LearningRepresentationsbyBackPropagatingErrors[J].Nature,1986,323(6088):533-536.G.E.Hinton,S.OsinderoandY.The.AFastLearningAlgorithmforDeepBeliefNets[C].NeuralComputation,2006,1527-155.ZaababAH,ZhangQJ,NakhlaM.AnalysisandOptimizationofMicrowaveCircuitsandDevicesUsingNeuralNetworkModels[C].IEEEMTTSINTERNATIONALMICROWAVESYMPOSIUMDIGEST.IEEE,1993LazaroM,SantamariaI,PantaleonC.Neuralnetworksforlargeandsmall-signalmodelingofMESFET/HEMTtransistors:acomparativestudy[C].IEEEInstrumentation&MeasurementTechnologyConference.IEEE,2002Rayas-SanchezJE,Lara-RojoF,Martinez-GuerreroE.ALinearInverseSpace-Mapping(LISM)AlgorithmtoDesignLinearandNonlinearRFandMicrowaveCircuits[J].IEEETransactionsonMicrowaveTheory&Techniques,2005,53(3):960-968SenP,WoodsWH,SarkarS,etal.Neural-network-basedparasiticmodelingandextractionverificationforRF/millimeter-waveintegratedcircuitdesign[J].IEEETransactionsonMicrowaveTheory&Techniques,2006,54(6):2604-2614KabirH,WangY,YuM,etal.High-DimensionalNeural-NetworkTechniqueandApplicationstoMicrowaveFilterModeling[J].IEEETransactionsonMicrowaveTheoryandTechniques,2010,58(1):145-156KoY,RoblinP,LandaZD,etal.ArtificialNeuralNetworkModelofSOS-MOSFETsBasedonDynamicLarge-SignalMeasurements[J].IEEETransactionsonMicrowaveTheory&Techniques,2014,62(3):491-501Wang,Hong,PingX,etal.Right-AngledMicrocoaxialBendsforSi-BasedRF/MicrowaveIntegratedCircuits[J].IEEETransactionsonComponents,PackagingandManufacturingTechnology,2016HongyoR,EgashiraY,YamaguchiK.DeepNeuralNetworkBasedPredistorterwithReLUActivationforDohertyPowerAmplifiers[C].2018Asia-PacificMicrowaveConference(APMC),2018DikmeseS,AnttilaL,CampoPP,etal.BehavioralModelingofPowerAmplifiersWithModernMachineLearningTechniques[C].IEEEMTT-SInternationalMicrowaveConferenceonHardwareandS

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论