版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
1感知机到深度学习的AI跃迁之路2深度学习实验室搭建与张量基础3线性与逻辑回归——从弹道预测到肿瘤诊断4图像的语言——卷积神经网络CNN全景5反向传播——点亮深度学习的火种6创造者与批评家——GAN生成对抗网络全景7时间的舞者——LSTM与RNN时序建模详解8语言的深层次——Transformer与BERT演进之路9瞥即见:YOLO视觉革命10情感的倾诉:人脸表情识别11舞蹈的诗:人体姿态识别技术详解12探索巨擘:ChatGPT与大型预训练模型
13守护智慧之门——保卫人工智能世界《人工神经网络与深度学习》全套可编辑PPT课件从感知机到深度学习:AI的跃迁目
录CONTENTS01感知机兴衰:AI第一次寒冬02AI简史:从符号到连接03机器学习全景:数据驱动范式04深度学习内核:自动特征革命05神经网络架构:从FNN到多模态目录CONTENTS01应用与未来:机遇挑战并存02回顾与思考感知机兴衰:AI第一次寒冬01感知机诞生:模拟神经元的破冰01感知机的提出20世纪50年代末,康奈尔航空实验室的年轻科学家FrankRosenblatt提出感知机,试图模拟生物神经元的信息传递方式,实现机器的思考和学习功能,开启了AI研究的新篇章。02MarkI机器的构建Rosenblatt搭建了MarkI机器,由400个光电管、3000个电位器组成,能够接收20×20像素图像并进行二值识别,通过反复调节权重实现图像的泛化识别,为后续研究提供了实践基础。03感知机的影响力感知机的成功引发了广泛关注,《纽约时报》等媒体对其进行了报道,预言其将超越人类,吸引大量资金投入AI研究,点燃了第一波AI投资热潮,推动了相关技术的发展。线性枷锁:异或难题引发质疑感知机的局限性感知机只能处理线性可分问题,面对异或等非线性问题无能为力;随着层数增加,缺乏有效的权重更新规则,训练过程变得复杂且低效,这些问题限制了其进一步发展。AI简史:从符号到连接02达特茅斯启航:AI术语正式登场达特茅斯会议的召开1956年夏,麦卡锡、明斯基等科学家在达特茅斯学院召开会议,首次提出“ArtificialIntelligence”这一术语,明确了用机器实现智能行为的学科目标,为AI的发展奠定了基础。会议成果与影响会议展示了逻辑理论家、神经网络雏形与LISP语言等成果,确立了符号主义与连接主义两大研究路线,吸引了全球资金与人才投入,成为现代AI史的起点,其愿景至今仍指引着研究方向。符号崛起与神经蛰伏符号主义的发展1960-70年代,符号主义在AI领域占据主导地位,专家系统如DENDRAL、MYCIN在化学、医疗等领域取得成功,基于规则的推理方法在特定领域展现出强大的应用潜力。符号主义的局限然而,符号主义面临知识获取困难和常识推理不足的问题,随着应用的拓展,其局限性逐渐显现,难以适应复杂多变的现实世界,导致维护成本不断攀升。感知机被证伪后,神经网络研究陷入低谷,相关研究陷入停滞,仅少数学者坚守阵地,但这一时期的研究为后续连接主义的复兴积累了宝贵的经验和知识。BP破冰与深蓝震撼BP算法的突破1986年,Hinton团队提出反向传播算法,解决了多层网络的训练难题,打破了感知机的线性限制,为神经网络的发展带来了新的希望,推动了连接主义的复兴。深蓝的胜利1997年,IBM的深蓝计算机凭借专用芯片和α-β搜索算法,在国际象棋比赛中击败世界冠军卡斯帕罗夫,展示了AI在复杂策略游戏中的巨大潜力,为AI的发展注入了新的活力。深度学习爆发与全面反思深度学习的崛起2012年,AlexNet在ImageNet图像识别大赛中取得突破性成绩,开启了深度学习的黄金十年,随后AlphaGo、GPT-3、AlphaFold2等成果不断涌现,推动了AI在各个领域的广泛应用。繁荣背后的挑战深度学习的快速发展也带来了能耗、隐私、伦理等一系列问题,引发了社会各界的广泛关注和讨论,促使行业进入理性反思和治理阶段。政策法规的推进欧盟AI法案等政策法规的出台,为AI的发展提供了规范和指导,推动了轻量化模型和可解释性研究的发展,确保AI技术的健康可持续发展。诺贝尔奖的肯定相关领域的诺贝尔奖项也对AI技术的发展给予了肯定,进一步推动了AI技术在科学研究和产业应用中的深度融合与创新发展。机器学习全景:数据驱动范式03ML三要素与七步闭环机器学习的核心要素机器学习以数据、模型、算法为三大支柱,形成采集、预处理、特征提取、模型选择、训练、评估、部署七步闭环流程,为解决实际问题提供了系统的框架和方法。四大学习范式对比监督学习监督学习利用带标签的数据进行训练,适用于分类和回归任务,如疾病诊断,通过学习输入输出之间的映射关系,实现对新数据的准确预测。无监督学习无监督学习处理无标签数据,旨在发现数据中的结构和规律,如用户聚类,通过聚类算法将相似的数据点分组,为数据挖掘和分析提供基础。半监督学习半监督学习结合少量标签数据和大量无标签数据,提高模型性能,适用于数据标注成本较高的场景,如文本分类,充分利用无标签数据提升分类效果。强化学习强化学习通过与环境的交互,根据奖励信号调整策略,适用于游戏AI等领域,通过不断试错学习最优行为策略,实现智能决策。163深度学习内核:自动特征革命04三驾马车:算法算力数据共振算法突破反向传播、CNN、RNN、GAN、Transformer等算法的出现,为深度学习的发展提供了强大的技术支持,使多层网络的训练成为可能。算力提升GPU/TPU等硬件的发展,极大地提高了计算效率,将复杂模型的训练时间从周缩短到小时,为深度学习的广泛应用奠定了基础。数据驱动ImageNet、CommonCrawl等大规模数据集的出现,为深度学习模型提供了丰富的训练素材,使其能够在大数据的驱动下不断优化和提升性能。三大核心优势碾压经典ML自动特征提取深度学习无需手工设计特征,卷积核等结构能够自动学习从边缘到语义的多层次特征表示,大大降低了特征工程的难度和复杂度。处理复杂数据深层网络能够容纳海量参数,擅长处理高维非结构化数据,如图像、语音等,在复杂数据的建模和分析方面展现出显著优势。强大的泛化能力ReLU等非线性激活函数在大数据驱动下,使深度学习模型获得更强的泛化能力,图像识别错误率首次低于人类水平,推动了AI技术的广泛应用。神经网络架构:从FNN到多模态05单层到深层:感知机→MLP→DNN感知机的局限感知机仅能处理线性可分问题,限制了其在复杂任务中的应用,难以满足日益增长的AI需求。MLP的突破MLP引入隐藏层和Sigmoid激活函数,能够逼近任意连续函数,突破了感知机的线性限制,为复杂问题的建模提供了可能。DNN的发展DNN通过ReLU、批归一化等技术,解决了深层网络训练中的梯度消失等问题,实现了从单层到深层的跨越,推动了深度学习的广泛应用。CNN·RNN·GAN·Transformer各霸场景CNN主导图像领域CNN凭借卷积核的局部感受野,能够有效提取图像的空间特征,在图像分类、目标检测等任务中表现出色,成为计算机视觉领域的主流架构。RNN服务时序数据RNN通过循环隐藏态建模时序信息,适用于语音、文本等序列数据的处理,在自然语言处理等领域发挥重要作用。GAN创造逼真数据GAN通过生成器与判别器的对抗训练,能够生成逼真的图像、视频等数据,在图像生成、视频制作等领域展现出强大的创造力。Transformer引领多模态Transformer凭借自注意力机制,并行捕捉长距离依赖关系,在多模态CLIP、StableDiffusion等模型中实现文本-图像跨域生成,推动了多模态智能的发展。应用与未来:机遇挑战并存06视觉·语言·机器人·数据挖掘落地计算机视觉在医学影像病灶检测、工业缺陷分拣等领域,CNN等技术实现了高精度的图像识别和分析,为医疗诊断和工业生产提供了有力支持。自然语言处理Transformer架构支持实时机器翻译和智能写作,推动了信息交流和内容创作的智能化发展,提升了工作效率和创作质量。机器人技术结合深度强化学习,机器人能够完成抓取、导航和垃圾分拣等复杂任务,拓展了机器人在生产和服务领域的应用范围。数据挖掘神经网络用于气候30天温度订正和金融异常交易检测,为气象预测和金融风险防控提供了有效的数据分析工具。未来趋势:多模态轻量可解释多模态融合未来技术将朝着多模态融合方向发展,文本、图像、音频等多模态数据的联合理解和生成将成为主流,为智能应用提供更丰富的信息和更强大的功能。模型轻量化通过剪枝、量化、蒸馏等技术实现模型轻量化,使AI能够在移动端和边缘设备上高效运行,拓展AI的应用场景和普及范围。可解释性研究可解释性方法如注意力热图、因果推断等将得到进一步发展,帮助医生、监管者等专业人士理解和信任AI决策,推动AI在关键领域的应用。挑战:能耗隐私伦理治理01能耗问题大模型训练耗电巨大,相当于数百家庭年用量,碳排放压力促使绿色AI技术的研发和应用,以实现可持续发展。02隐私保护海量个人数据标注引发隐私泄露风险,联邦学习与差分隐私等技术成为保护隐私的关键手段,确保数据安全和用户隐私。03伦理治理深度伪造、歧视决策等问题冲击社会伦理,欧盟AI法案等政策法规的出台为AI发展确立了风险分级与合规红线,推动技术与政策的协同创新。回顾与思考07本章回顾:从感知机到大模型AI发展历程从单层感知机到万亿参数大模型,AI经历了符号主义、连接主义、深度学习三次浪潮,不断推动技术的进步和应用的拓展。机器学习范式机器学习确立了数据驱动的范式,通过数据、模型、算法的结合,实现了从经验数据中学习和改进,为AI发展提供了核心动力。深度学习架构CNN、RNN、GAN、Transformer等架构构建了多模态智能的底座,推动了AI在视觉、语言等领域的广泛应用,改变了人们的生活和工作方式。未来挑战与机遇能耗、隐私、伦理等问题成为AI发展的新挑战,同时也促使轻量化、可解释性等研究方向的兴起,为AI的可持续发展提供了新的机遇。思考与练习强化学习的特征强化学习通过环境奖励信号调整策略,与监督学习的完全标签不同,它更注重与环境的交互和试错学习。深度学习的核心优势深度学习的核心优势是自动提取抽象特征,无需人工设计,能够从原始数据中学习多层次的特征表示,大大提高了效率和准确性。感知机的重要性Rosenblatt感知机首次实现可训练神经元硬件原型,为后续神经网络研究提供了重要的启发和基础,点燃了神经网络研究的火种。思考与练习神经网络的应用医学影像CNN自动定位肿瘤、机械臂RL抓取垃圾、气象DNN订正30天温度等应用,展示了神经网络在不同领域的强大功能和广泛前景。未来发展趋势未来量子神经网络、脑机接口、科学计算大模型等技术有望带来革命性变化,但需同步构建伦理与治理框架,确保技术的健康发展。THANK
YOU感谢大家观看打造深度学习实验室:环境搭建·框架争霸·张量基石目录CONTENTS封面与目录框架江湖与硬件总览软件栈与开发工具安装实战流程张量基础与实战总结与行动清单封面与目录01打造深度学习实验室:环境搭建·框架争霸·张量基石封面介绍封面点明全书主题,副标题概括三大核心:环境搭建、框架对比、张量基础。以轻松且硬核的基调,激发听众对深度学习实验室搭建的兴趣。目录:硬件配置·软件生态·安装实战·张量基础·思考总结目录内容目录列出五章递进式路线:硬件选型、软件生态兵器谱、手把手安装、深入张量世界、总结行动清单。逻辑由宏观到微观、由理论到实操,帮助听众在40页内完成认知闭环并立刻上手实验。路线意义通过明确的目录路线,让听众清晰了解深度学习实验室搭建的全过程,从硬件到软件,从安装到实战,逐步深入,确保学习的系统性和连贯性。框架江湖与硬件总览02引入故事:框架江湖时间线2015TensorFlow静态图出世2015年,TensorFlow以静态图的形式出世,为深度学习领域带来了强大的计算能力和高效的模型训练方式,奠定了其在行业内的基础地位。2016PyTorch动态图逆袭2016年,PyTorch凭借动态图的优势强势逆袭,其灵活的调试和开发体验吸引了众多研究人员和开发者,与TensorFlow形成了竞争态势。今天双雄并立如今,TensorFlow和PyTorch在深度学习领域双雄并立,各有优势和应用场景,开发者可以根据自身需求选择合适的框架进行研究和开发。框架争霸赛比分牌:ResNet-50速度内存实测TensorFlow内存优势在ResNet-50模型测试中,TensorFlow的内存占用低40%,这使得其在大规模数据训练和模型部署时具有更好的资源利用效率,适合对内存敏感的应用场景。PyTorch速度优势PyTorch在训练速度上表现出色,比TensorFlow快3秒。其动态图机制使得调试更加友好,能够快速响应模型的调整和优化,适合需要频繁迭代的开发过程。生态兵器谱:TF与PT周边工具链全景生态工具链TensorFlow拥有TensorBoard、TensorFlowLite、TensorFlowServing等强大工具链,而PyTorch则有HuggingFace、TorchServe等。双方在生态建设上各具特色,虽表面互掐,但暗地里也在互相借鉴和学习。硬件总览图:科研战车爆炸图硬件组成深度学习硬件包括GPU、CPU、内存、存储和网络。GPU是训练的核心动力,CPU负责调度和数据预处理,内存和存储提供数据支持,网络则是分布式训练的关键。硬件重要性硬件配置对深度学习实验室至关重要。合理的硬件搭配能够充分发挥深度学习框架的性能,提高训练效率,加速模型的开发和部署。GPU发动机:千核并行矩阵乘GPU核心优势GPU拥有数千并行核心,能够高效处理高吞吐矩阵乘运算,是深度学习训练的发动机,为大规模数据处理和复杂模型训练提供强大动力。A100核心架构A100GPU的核心架构设计先进,支持TensorCore技术,能够进一步加速深度学习计算,提升训练和推理效率。GPU选择建议在选择GPU时,需要根据实验室的预算和需求,综合考虑核心数量、显存容量和带宽等因素,以实现最佳的性能和性价比。CPU指挥官:调度与预处理CPU角色CPU在深度学习实验室中扮演指挥官角色,负责数据加载、batch调度和预处理等任务。多核和大缓存设计有助于提高数据处理效率,避免数据饥饿现象。内存与存储金字塔:速度成本权衡金字塔结构内存与存储呈金字塔结构,从L1缓存到HDD,速度越往上越快,成本越高。深度学习训练需要合理利用各级存储,将热数据放在高速存储中,以提高整体性能。存储策略在深度学习实验室中,建议将热数据存储在DRAM中,冷数据存储在SSD中,HDD仅作为备份存储。这样可以平衡速度和成本,确保训练过程的高效性。网络血管:分布式训练all-reduce01网络重要性网络是分布式深度学习训练的血管,负责参数同步和数据传输。高速网络能够有效提高分布式训练的效率,加速模型收敛。02all-reduce算法all-reduce算法是分布式训练中的关键算法,通过参数服务器或RingAll-Reduce等方式实现参数的高效同步,确保各节点模型的一致性。03网络配置建议建议实验室配置100GbpsRDMA网络,以满足分布式训练对低延迟和高带宽的需求。同时,合理选择all-reduce算法,优化网络通信效率。软件栈与开发工具03软件栈分层图:从硬件到IDE软件栈结构深度学习软件栈分为六层:硬件、驱动、CUDA/cuDNN、框架、Python和IDE/Git/Docker。每一层都为上一层提供支持,形成了完整的开发环境。层次关系软件栈的层次关系决定了开发过程中的依赖顺序。硬件是基础,驱动和CUDA/cuDNN提供硬件支持,框架和Python实现算法,IDE/Git/Docker则为开发提供便利。语言王者Python:科学计算全家桶Python优势Python因其简洁易读的语法和丰富的库支持,成为深度学习领域的首选语言。它能够快速实现算法原型,方便调试和优化。科学计算库NumPy、Pandas、Matplotlib和Scikit-learn等库构成了Python的科学计算全家桶,为数据处理、可视化和传统机器学习提供了强大的工具支持。库的互补性这些库在功能上相互补充,NumPy用于张量操作,Pandas用于表格数据处理,Matplotlib用于数据可视化,Scikit-learn用于传统机器学习算法实现。IDE对比表:PyCharmvsVSCodevsJupyterIDE选择PyCharm、VSCode和Jupyter是常用的深度学习IDE。PyCharm适合重度调试,VSCode轻量且插件丰富,Jupyter则适合交互式探索。开发者可以根据自身需求选择合适的IDE。Docker一键搬家:打包运输运行Docker优势Docker能够将深度学习环境打包成镜像,实现一键搬家。它解决了不同机器之间的环境差异问题,确保代码在不同环境中的一致性。镜像容器仓库Docker的镜像、容器和仓库是其核心概念。镜像用于打包环境,容器是运行实例,仓库则用于存储和分发镜像。GPU镜像对于GPU加速的深度学习环境,需要额外安装nvidia-docker2。它能够使Docker容器支持GPU计算,充分发挥GPU的性能优势。AI编程工具双骄:Cursor与TraeCursor功能Cursor是一款强大的AI编程工具,支持Tab补全和自然语言改代码功能。它能够显著提高编程效率,减少重复编码工作。Trae能力Trae能够根据一句话生成论坛全栈代码。它为开发者提供了快速搭建应用的能力,但生成的代码仍需人工审核和优化。安装实战流程04安装总览流程图:四步入门第一步:下载Anaconda下载Anaconda是安装深度学习环境的第一步。Anaconda集成了Python、conda包管理器和JupyterNotebook,为后续安装提供了基础。第二步:安装PyCharm安装PyCharm作为集成开发环境。PyCharm提供了丰富的功能和插件支持,能够方便地进行代码编写、调试和版本控制。第三步:创建虚拟环境创建虚拟环境是隔离项目依赖的关键步骤。通过conda创建虚拟环境,可以避免不同项目之间的包冲突,确保环境的稳定性。第四步:安装TensorFlow和PyTorch最后一步是安装TensorFlow和PyTorch深度学习框架。根据项目需求选择合适的框架版本,并确保其与系统环境兼容。Anaconda是什么:发行版+包管理+环境管理Anaconda定义Anaconda是一个流行的Python发行版,集成了众多科学计算和数据分析的库。它提供了conda包管理器,方便安装和管理Python包。包管理功能conda能够解决Python包依赖问题,避免不同包之间的版本冲突。它提供了丰富的包仓库,方便用户快速安装所需的包。环境管理Anaconda通过conda管理虚拟环境,用户可以轻松创建、切换和删除虚拟环境,为不同项目提供独立的运行环境。为什么必须先装Anaconda:避免依赖地狱依赖地狱问题在深度学习项目中,不同包之间可能存在复杂的依赖关系。直接使用pip安装包容易导致依赖冲突,而Anaconda的conda能够有效避免这一问题。下载渠道:官网与清华镜像官网下载可以从Anaconda官网下载最新版本的安装包。官网提供了详细的安装指南和系统兼容性信息,确保用户能够顺利安装。清华镜像为了提高下载速度,国内用户可以使用清华镜像站下载Anaconda。镜像站提供了与官网相同的安装包,但下载速度更快。安装步步截图:exe到PATH01安装步骤一双击Anaconda安装程序的exe文件启动安装过程。在安装向导中选择安装路径,建议安装到默认路径以避免后续问题。02安装步骤二在安装过程中,确保勾选将Anaconda添加到系统PATH环境变量的选项。这样可以在终端或命令行中直接使用conda命令。03安装步骤三完成安装后,打开终端或命令行,输入conda--version命令验证安装是否成功。如果显示Anaconda版本信息,则说明安装成功。验证安装:conda版本与信息验证conda版本在终端或命令行中输入conda--version命令,查看Anaconda的版本信息。确保安装的是最新版本,以获取最新的功能和修复。查看conda信息输入condainfo命令,查看Anaconda的详细信息,包括安装路径、活跃环境、可用频道等。这些信息有助于了解当前的安装状态。PyCharm安装:Community版足够PyCharm版本选择对于深度学习开发,PyCharm的Community版已经足够使用。它提供了丰富的功能,能够满足日常开发需求。安装插件在PyCharm中安装Python、Git、Docker和Markdown等插件,这些插件能够增强PyCharm的功能,方便深度学习项目的开发和管理。安装过程从JetBrains官网下载PyCharmCommunity版安装包,按照安装向导进行安装。安装完成后,启动PyCharm并配置插件。虚拟环境原理:洋葱隔离图虚拟环境概念虚拟环境是隔离项目依赖的有效方式。通过创建虚拟环境,可以为每个项目提供独立的Python环境,避免不同项目之间的包冲突。创建PyTorch环境命令:conda一条龙创建环境命令使用condacreate-ntorch39python=3.9命令创建名为torch39的虚拟环境,并指定Python版本为3.9。这是安装PyTorch环境的第一步。激活环境创建环境后,使用condaactivatetorch39命令激活该环境。激活后,所有操作都将在该虚拟环境中进行,确保环境的独立性。PyTorch官网Selector:CPU与CUDA版本勾选01官网Selector在PyTorch官网的安装页面,使用Selector工具选择适合的安装命令。根据操作系统、包管理器、语言和CUDA版本进行勾选。02CUDA版本选择如果机器配备NVIDIAGPU,需要选择CUDA版本。CUDA版本应与GPU驱动版本兼容,以确保GPU加速功能正常工作。03CPU版本对于没有GPU的机器,可以选择CPU版本的PyTorch。虽然性能稍逊,但仍然可以进行深度学习开发和实验。清华源通道列表:八行condaconfig清华源配置通过condaconfig命令添加清华源通道,可以加快包的下载速度。清华源提供了丰富的Python包资源,确保安装过程的高效性。验证PyTorch:import成功与版本打印验证安装在Python环境中输入importtorch命令,验证PyTorch是否安装成功。如果无报错,则说明安装成功。打印版本使用print(torch.__version__)命令打印PyTorch的版本信息,确保安装的是预期版本。版本信息中包含CUDA版本,可验证GPU支持情况。TensorFlow环境同理:condacreate与pip结合创建TensorFlow环境使用condacreate-ntf39python=3.9命令创建名为tf39的虚拟环境,并指定Python版本为3.9。这是安装TensorFlow环境的第一步。安装TensorFlow在创建的虚拟环境中,使用pipinstalltensorflow==2.10-i清华源命令安装TensorFlow。指定版本号确保安装的是特定版本,清华源可加快下载速度。环境兼容性安装TensorFlow时,需注意其与CUDA和cuDNN的兼容性。根据TensorFlow版本选择合适的CUDA和cuDNN版本,以确保GPU加速功能正常工作。验证TensorFlow:import与版本打印验证安装在Python环境中输入importtensorflowastf命令,验证TensorFlow是否安装成功。如果无报错,则说明安装成功。打印版本使用print(tf.__version__)命令打印TensorFlow的版本信息,确保安装的是预期版本。版本信息中包含CUDA版本,可验证GPU支持情况。张量基础与实战05张量定义:多维数组+阶+形状张量概念张量是深度学习中的基本数据结构,可以看作是多维数组。它在数学上用于表示多维数据,是深度学习模型输入和输出的核心形式。阶与形状张量的阶(Rank)表示张量的维度数,形状(Shape)则描述了每个维度的大小。例如,一个形状为(3,4)的张量是一个二维张量,阶为2。张量可视化通过0到5阶的立体示意图,可以直观地理解张量的维度和形状。这种可视化有助于初学者快速掌握张量的概念和结构。图像即三阶张量:高度宽度通道图像与张量在深度学习中,图像通常表示为三阶张量,其维度分别为高度、宽度和通道。这种表示方式使得图像可以作为模型的输入进行处理。张量布局三阶张量的通道在内存中通常采用HWC(高度、宽度、通道)或CHW(通道、高度、宽度)两种布局。不同的布局方式会影响数据的预处理和模型的输入。动态图vs静态图:PyTorch与TF差异动态图与静态图PyTorch采用动态图机制,边运行边构建计算图,调试友好;TensorFlow采用静态图机制,先构建计算图再运行,部署优化强。选择框架开发者可以根据项目需求和开发阶段选择合适的框架。在模型开发和调试阶段,动态图框架如PyTorch更具优势;在模型部署和优化阶段,静态图框架如TensorFlow可能更适合。PyTorch自动微分:动态计算图原理自动微分PyTorch的自动微分机制能够自动构建反向传播图,简化了手动计算梯度的过程。开发者只需关注模型的前向传播,反向传播由框架自动完成。动态计算图在PyTorch中,动态计算图是在运行时构建的。每次调用forward方法时,都会根据操作自动构建计算图,这使得调试更加灵活和直观。grad_fn与leafnodePyTorch中的grad_fn属性用于记录梯度计算函数,leafnode表示计算图的叶子节点。通过这些机制,PyTorch能够自动计算梯度并进行反向传播。CPUvsGPU张量类型对照表张量类型在PyTorch中,张量类型包括Float、Double、Int、Long、Byte、Char和Short。在CPU和GPU上,这些类型分别有不同的关键字表示。生成张量五法:列表、NumPy、zeros、ones、randn列表生成使用torch.tensor(list)可以从Python列表创建张量。这种方法简单直观,适用于小规模数据的快速转换。NumPy生成通过torch.from_numpy方法可以从NumPy数组创建张量。这使得NumPy和PyTorch之间的数据转换变得非常方便,便于利用NumPy的强大功能。zeros、ones、randn生成使用zeros、ones和randn方法可以创建特定形状的张量,分别初始化为0、1和随机数。这些方法在初始化模型参数时非常有用。变形操作家族:view、reshape、squeeze、unsqueeze变形操作view、reshape、squeeze和unsqueeze是PyTorch中常用的变形操作。这些操作可以改变张量的形状,而不改变其数据内容。操作区别view要求内存连续,reshape可以自动复制数据。squeeze用于去除尺寸为1的轴,unsqueeze用于增加尺寸为1的轴。这些操作在调整张量形状时非常灵活。索引四式:一维、切片、布尔、高级01一维索引一维索引是通过索引值直接访问张量中的元素。例如,tensor[0]可以获取张量的第一个元素。02切片索引切片索引用于获取张量中的一段连续元素。例如,tensor[1:3]可以获取张量中索引为1到3的元素。03布尔索引布尔索引使用布尔值数组作为索引,返回满足条件的元素。例如,tensor[mask]可以获取张量中满足mask条件的元素。拼接与拆分:cat、stack、chunk、split拼接操作cat和stack是PyTorch中的拼接操作。cat在指定维度上拼接张量,而stack会增加一个新的维度。这些操作用于组合多个张量。拆分操作chunk和split是拆分操作。chunk按数量均分张量,split则可以按长度列表拆分张量。这些操作用于将张量分解为多个子张量。数学与矩阵运算:广播、聚合、线性代数广播机制广播机制允许不同形状的张量进行数学运算。较小的张量会自动扩展以匹配较大张量的形状,这使得运算更加灵活。聚合运算sum和mean是常见的聚合运算。sum用于计算张量中所有元素的总和,mean用于计算平均值。这些运算在数据统计和模型评估中非常有用。线性代数运算mm用于矩阵乘法,t用于矩阵转置,inv用于矩阵求逆。这些线性代数运算在深度学习模型中广泛应用,如神经网络的权重更新。总结与行动清单06总结与行动清单:三步验收安装Anaconda和框架确保安装了Anaconda以及TensorFlow和PyTorch框架。这是深度学习实验的基础,为后续开发提供了必要的工具和环境。验证GPU版本运行代码验证GPU版本的框架是否正常工作。这一步确保了硬件资源能够被充分利用,加速深度学习模型的训练和推理。实践代码亲手敲一遍本章代码,熟悉张量操作和框架的基本使用。通过实践加深对深度学习基础知识的理解,为后续模型开发打下坚实基础。THANK
YOU感谢大家观看线性&逻辑回归:从弹道到肿瘤预测目录CONTENTS故事导入线性回归原理线性回归实战-房价线性回归小结逻辑回归原理逻辑回归实战-肿瘤故事导入01线性&逻辑回归:从弹道到肿瘤预测封面说明本PPT将深入探讨线性回归与逻辑回归两种经典统计模型,从历史背景到实际应用,涵盖从军事弹道计算到医学肿瘤预测的广泛应用场景。时间轴:1940s计算机萌芽1943年Colossus1943年,英国科学家发明了Colossus计算机,用于破解德国的加密通信,这是世界上第一台电子数字计算机,标志着计算机时代的开端。1945年ENIAC1945年,美国宾夕法尼亚大学的ENIAC计算机问世,它体积庞大,运算速度极快,为后续计算机的发展奠定了基础。1946年冯·诺依曼架构1946年,冯·诺依曼提出了现代计算机的存储程序架构,这一架构至今仍是计算机设计的核心理念,极大地推动了计算机技术的发展。人物卡:GraceHopper人物介绍GraceHopper是一位杰出的计算机科学家,她发明了第一个编译器,为计算机编程语言的发展做出了巨大贡献。金句她有一句名言:'It'seasiertoaskforgivenessthanitistogetpermission.'这句话鼓励人们勇于尝试,即使可能会犯错。场景:炮弹轨迹vs风速/角度01炮弹落点影响因素炮弹的落点受到多种因素的影响,包括风速、发射角度和初速度等,这些因素共同决定了炮弹的飞行轨迹和最终落点。02战场需求在战场上,快速准确地预测炮弹落点至关重要,这需要一种能够快速计算的方法来应对不断变化的战场环境。03简化模型最简单的模型是一条直线,通过拟合直线可以快速预测炮弹落点,这种方法在当时被广泛应用于军事计算中。线性回归原理02问题:如何“一条直线”搞定落点?核心问题如何用一条直线将风速、仰角等变量映射到炮弹落点偏差,历史上海军通过最小二乘法手工完成这一计算,这种方法简单且高效。定义:拟合直线,最小化残差平方和线性回归定义线性回归是一种统计方法,通过拟合一条直线来预测因变量与自变量之间的关系,目标是最小化残差平方和。残差平方和残差平方和是衡量模型拟合优度的重要指标,通过最小化残差平方和,可以找到最佳拟合直线。模型方程:模型方程线性回归的模型方程为y=β₀+β₁x+ε,其中y是因变量,x是自变量,β₀是截距,β₁是斜率,ε是误差项。截距与斜率截距β₀表示当x为0时y的值,斜率β₁表示x每增加一个单位,y的变化量。误差项误差项ε表示实际观测值与预测值之间的差异,反映了模型无法解释的部分。假设1:线性关系线性关系假设线性回归假设自变量与因变量之间存在线性关系,这是模型成立的基础,可以通过散点图初步判断。假设2:误差正态、零均值、同方差误差正态分布线性回归假设误差项服从正态分布,这有助于进行统计推断和假设检验。零均值误差项的均值为零,表示模型没有系统偏差,预测值是无偏的。同方差误差项具有相同的方差,即方差恒定,这保证了模型的稳定性和可靠性。假设3:误差独立且与X独立误差独立误差项之间相互独立,不存在自相关,这保证了模型的估计是有效的。与X独立误差项与自变量独立,这意味着模型没有遗漏变量或测量误差。线性回归实战-房价03最小二乘推导:矩阵形式一张图最小二乘推导最小二乘法通过矩阵形式进行推导,得到参数估计的解析解,这种方法在计算上非常高效。任务目标:输入房子特征→输出价格任务描述本任务的目标是通过输入房子的特征,如面积、卧室数量等,预测房子的价格,这是一个典型的回归问题。数据集使用house_prices.csv数据集,包含多个特征,如面积、卧室数量、浴室数量等,用于训练和测试模型。应用场景这种模型在房地产市场中非常实用,可以帮助评估房屋价值,为买卖双方提供参考。数据快照:house_prices.csv前5行截图数据快照展示house_prices.csv数据集的前五行,包括面积、卧室数量、浴室数量和价格等列,直观呈现数据结构。数据字典:area、bedrooms、bathrooms…01数据字典数据字典详细描述了每个字段的含义,如area表示房屋面积,bedrooms表示卧室数量,bathrooms表示浴室数量等。02数值型变量所有变量均为数值型,无需进行编码处理,可以直接用于模型训练。03数据准备了解数据字典有助于更好地理解数据,为后续的数据预处理和模型训练做好准备。缺失值处理:df.dropna/SimpleImputer缺失值处理策略对于缺失值,可以选择删除含有缺失值的行,或者使用SimpleImputer进行填充,具体方法取决于数据情况。工程惯例当缺失值比例小于5%时,通常直接删除含有缺失值的行,这是一种常见的数据处理方法。异常值:Z-score截断前后对比箱线图异常值检测使用Z-score方法检测异常值,当Z-score大于3时,认为该数据点为异常值。截断前后对比通过箱线图对比截断异常值前后的数据分布,直观展示异常值处理的效果。异常值处理异常值会放大残差平方和,影响模型的拟合效果,因此需要进行处理。特征相关:热力图(红-绿)特征相关性通过热力图展示特征之间的相关性,红色表示正相关,绿色表示负相关。相关性分析分析特征之间的相关性有助于了解变量之间的关系,为模型选择和优化提供依据。ANOVA:分类变量显著性表ANOVA分析使用ANOVA分析分类变量的显著性,如zipcode,判断其对房价的影响。初版模型:ols('price~area+bedrooms+bathrooms')初版模型构建构建初版线性回归模型,使用ols公式'price~area+bedrooms+bathrooms',包含面积、卧室数量和浴室数量作为自变量。模型训练使用statsmodels库进行模型训练,得到初步的回归结果。结果:R²=0.678
模型结果初版模型的R²值为0.678,表示模型能够解释67.8%的方差,但仍有改进空间。多重共线:VIF条形图>5危险区多重共线性检测通过VIF(方差膨胀因子)检测多重共线性,VIF值大于5表示存在共线性问题。共线性处理识别并处理多重共线性问题,有助于提高模型的稳定性和准确性。虚拟变量:get_dummies01虚拟变量创建使用pd.get_dummies方法将分类变量转换为虚拟变量,避免分类变量直接进入模型。02虚拟变量示意图展示虚拟变量转换的示意图,直观呈现转换过程。03虚拟变量作用虚拟变量可以将分类变量纳入回归模型,提高模型的解释能力。线性回归小结04终版:R²=0.919终版模型结果经过优化后的终版模型R²值达到0.919,模型拟合效果显著提升。残差图分析通过残差图分析模型的拟合效果,残差呈水平带状分布,满足同方差假设。优势:简单、可解释、计算快模型简单线性回归模型结构简单,易于理解和实现,适合初学者学习和应用。可解释性强线性回归模型的系数具有明确的解释意义,可以直观地解释自变量对因变量的影响。计算速度快线性回归模型的计算复杂度低,能够快速处理大规模数据,适合实时预测和分析。局限:非线性/共线/异常敏感01非线性问题线性回归假设自变量与因变量之间存在线性关系,对于非线性关系的数据拟合效果不佳。02多重共线性当自变量之间存在多重共线性时,线性回归模型的系数估计不稳定,影响模型的解释能力。03异常值敏感线性回归模型对异常值非常敏感,异常值会显著影响模型的拟合效果。逻辑回归原理05解决策略:多项式、正则、PCA、稳健回归多项式回归多项式回归可以处理非线性关系的数据,通过增加多项式项来提高模型的拟合能力。正则化正则化方法如L1和L2正则化可以处理多重共线性问题,通过惩罚项限制系数的大小。主成分分析(PCA)PCA可以降维去相关,减少自变量之间的相关性,提高模型的稳定性和解释能力。稳健回归稳健回归方法对异常值不敏感,可以提高模型在存在异常值时的鲁棒性。需求:二分类→需要概率[0,1]二分类问题逻辑回归用于处理二分类问题,目标是预测样本属于某个类别的概率。概率输出逻辑回归模型输出的是概率值,范围在[0,1]之间,可以用于决策和风险评估。Sigmoid函数:公式+S曲线图Sigmoid函数公式Sigmoid函数公式为σ(z)=1/(1+e⁻ᶻ),将输入映射到(0,1)区间。S曲线图Sigmoid函数的图像呈S形,随着输入值的增加,输出值逐渐趋近于1。函数特性Sigmoid函数在输入值为0时输出0.5,随着输入值的增加或减少,输出值逐渐趋近于1或0。对数几率:ln(p/1-p)=wᵀx对数几率公式对数几率公式ln(p/1-p)=wᵀx将概率问题转化为线性问题,便于求解。最大似然估计:损失函数-logL最大似然估计逻辑回归采用最大似然估计方法来估计模型参数,通过最大化似然函数来找到最优参数。损失函数逻辑回归的损失函数为-logL,通过最小化损失函数来优化模型参数。逻辑回归实战-肿瘤06正则化:L1/L2惩罚项对比L1正则化L1正则化通过在损失函数中添加L1惩罚项,使部分系数为零,实现特征选择。L2正则化L2正则化通过在损失函数中添加L2惩罚项,使系数值变小,提高模型的稳定性。正则化对比L1正则化适用于稀疏数据,L2正则化适用于连续数据,两者在实际应用中可根据数据特点选择。任务:乳腺肿瘤良/恶性任务描述本任务的目标是预测乳腺肿瘤的良恶性,这是一个典型的二分类问题。数据集使用WisconsinBreastCancer数据集,包含569条样本和30个特征,用于训练和测试模型。应用场景这种模型在医学领域非常重要,可以帮助医生进行早期诊断和治疗决策。数据来源:WisconsinBreastCancer569条数据来源数据来源于UCI机器学习库,包含569条样本,每条样本有30个特征。数据特点数据集无缺失值,特征已进行标准化处理,可以直接用于模型训练。特征示例:radius_mean、texture_mean…特征示例数据集中的特征包括radius_mean(平均半径)、texture_mean(平均纹理)等,这些特征反映了肿瘤细胞的形态特征。特征类型所有特征均为数值型,无需进行编码处理,可以直接用于模型训练。特征选择选择与目标变量相关性高的特征,有助于提高模型的预测能力。标签分布:357良vs212恶标签分布数据集中良性肿瘤样本有357个,恶性肿瘤样本有212个,整体分布较为平衡。饼图展示通过饼图直观展示良性与恶性肿瘤样本的比例,帮助理解数据分布情况。标准化:StandardScaler前后直方图01标准化处理使用StandardScaler对数据进行标准化处理,使特征值具有零均值和单位方差。02标准化前后对比通过直方图对比标准化前后数据的分布,直观展示标准化效果。03标准化作用标准化可以消除特征值之间的量纲差异,提高模型的训练效果。训练集/测试集:80/20分层采样数据分割将数据集分为训练集和测试集,比例为80/20,用于模型训练和评估。分层采样采用分层采样方法,确保训练集和测试集中恶性肿瘤样本的比例与原始数据一致。模型代码:LogisticRegression(max_iter=10000)模型构建使用LogisticRegression构建逻辑回归模型,设置最大迭代次数为10000,确保模型收敛。模型训练使用训练集数据训练模型,得到模型参数和预测结果。评估指标:Accuracy、Precision、Recall、F1表准确率(Accuracy)准确率表示模型预测正确的样本占总样本的比例,反映了模型的整体性能。精确率(Precision)精确率表示被预测为正类的样本中实际为正类的比例,反映了模型预测正类的准确性。召回率(Recall)召回率表示实际为正类的样本中被预测为正类的比例,反映了模型对正类的识别能力。F1分数F1分数是精确率和召回率的调和平均值,综合反映了模型的性能。混淆矩阵:Seaborn热力图混淆矩阵混淆矩阵展示了模型预测结果与实际标签之间的关系,包括真正例、假正例、真负例和假负例。热力图展示使用Seaborn绘制混淆矩阵的热力图,直观展示模型的预测效果。ROC&AUC=0.98曲线图ROC曲线ROC曲线展示了模型在不同阈值下的真正例率和假正例率,反映了模型的分类性能。AUC值AUC值为0.98,表示模型具有较高的分类能力,能够有效区分良性与恶性肿瘤。优点:概率输出、可解释、计算快01概率输出逻辑回归模型输出的是概率值,能够直观地反映样本属于某个类别的可能性。02可解释性强逻辑回归模型的系数具有明确的解释意义,可以直观地解释自变量对因变量的影响。03计算速度快逻辑回归模型的计算复杂度低,能够快速处理大规模数据,适合实时预测和分析。缺点:线性边界、对共线/失衡敏感线性边界逻辑回归模型假设数据具有线性可分性,对于非线性关系的数据拟合效果不佳。对共线性和失衡敏感逻辑回归模型对多重共线性和类别不平衡问题较为敏感,需要进行相应的处理。选择题①-②(单选)选择题1题目1:线性回归模型的残差平方和最小化是为了什么?A.最大化模型复杂度B.最小化预测误差C.最大化数据拟合度D.最小化模型偏差选择题2题目2:逻辑回归模型的输出是什么?A.连续值B.分类标签C.概率值D.二进制值简答③-④-⑤(局限、区别、多重共线)简答题3题目3:简述线性回归模型的局限性。简答题4题目4:线性回归与逻辑回归的主要区别是什么?简答题5题目5:如何处理多重共线性问题?开放⑥:电商购/不购完整方案(数据→特征→模型→评估)开放题6题目6:设计一个完整的电商购/不购预测方案,包括数据收集、特征工程、模型选择和评估。致谢Q&A致谢感谢大家的参与和聆听,如果有任何问题,欢迎提问。THANK
YOU感谢大家观看图像的语言:卷积神经网络CNN目
录CONTENTS01开场与起源02核心原理03实战MNIST04进阶花卉分类05应用与展望开场与起源01图像的语言:卷积神经网络CNN封面页说明封面页承载PPT主题与演讲基调,标题直接点明核心对象——卷积神经网络(CNN),并赋予其“图像的语言”这一比喻,暗示CNN是计算机理解视觉世界的方式。1980s纽约:LeCun想让机器“看见”照片故事背景将时间拉回1980年代的纽约,点出YannLeCun的初心——让机器具备“视觉”。通过“看见”照片这一通俗表达,降低技术门槛:机器如何像人一样识别图像?手工特征vs自动特征:LeCun选后者技术难题当时计算机视觉的核心难题是依赖人工设计的特征提取方法,如SIFT、HOG,步骤繁琐、泛化差。LeCun的选择LeCun毅然选择“自动特征”路径,即让网络自己学习特征,这一决策成为CNN诞生的关键分水岭。对比说明对比两种路线的优劣,突出自动特征的历史突破感,为后续LeNet的提出铺垫逻辑动机。人眼视觉→局部→整体,LeNet诞生灵感来源CNN的生物学灵感是人眼通过局部感受野逐步构建整体视觉认知。LeCun受此启发,设计出模仿视觉通路的LeNet,开创局部感知与权值共享的先河。核心原理02LeNet结构速览:2卷积+2池化+3全连接=SOTA架构概括(1*a+2*b+3*c)+
(5*d+6*e+7*f)+
(9*g+10*h+11*i)流程拆解卷积层提取边缘,池化层压缩尺寸,全连接层完成分类,形成“特征提取→降维→决策”的端到端范式。数字图像本质:像素矩阵×RGB三通道数据原点回归数据原点,指出计算机眼中的图像不过是三维数组(高×宽×通道),为后续卷积操作奠定数学基础。维度差异黑白图与彩色图的维度差异,强调“格子数据”这一形象概念,建立直观认知。认知消除消除对图像处理的神秘感,自然过渡到“如何用数学运算提取意义”的下一议题。传统方法回顾:SIFT/HOG人工设计特征传统方法回顾对照CNN出现前的主流方案——SIFT与HOG,指出其依赖专家经验、流程冗长的痛点。关键步骤:突出“人工设计”带来的瓶颈。CNN三件套:卷积层·池化层·全连接层核心模块用“三件套”这一口语化比喻,将CNN核心模块打包成易记概念,降低记忆负担。认知锚点为后续深度讲解预留认知锚点,提升信息吸收效率。卷积层=特征侦探:滑动窗口做点积卷积层比喻把卷积层比喻成“侦探”,在图像上滑动窗口搜索线索(点积运算),输出特征图。局部感知:每个神经元只看一小块参数优势解释CNN为何参数远少于全连接网络:每个神经元仅连接局部区域。对比全连接“人山人海”的参数爆炸,突出局部感知带来的计算与存储优势。权值共享:同一滤波器扫全图,平移鲁棒01省参数利器揭示第二个省参数利器——权值共享,即一个卷积核横扫整张图像,天然具备平移不变性。02鲁棒性说明举例:无论猫在左上角还是右下角,同一边缘检测核都能激活,说明CNN对位置变化具有鲁棒性。03认知递进理解“共享”不仅是效率策略,更是提升泛化能力的核心机制。池化层=压缩大师:Max/Average下采样池化层比喻把池化层比作“压缩大师”,在保留关键特征的同时缩小尺寸,降低后续计算负担。池化方式对比对比Max与Average池化的差异:前者保留最强响应,后者平滑特征,说明选择池化方式即是选择“保留锐度还是平滑”。全连接层=分类器:把特征拉直→softmax概率全连接层作用指出全连接层的作用是将三维特征图展平后映射到类别概率,完成最终决策。简述softmax归一化原理,强调“特征→置信度”的转换是端到端学习的终点。激活&填充:ReLU给非线性,padding控尺寸激活函数补充激活函数ReLU,解决线性不可分问题。填充操作填充操作padding控制输出尺寸。工程影响说明无ReLU则多层卷积等效于单层,无padding则特征图逐层缩水,从而让观众体会到“看似微小”的工程选择对网络表达能力与结构稳定性的关键影响。代码极简卷积:4×4图×3×3核=2×2特征图代码演示用NumPy五行代码演示手算卷积,把抽象公式落到可执行代码心理门槛“侦探”如何生成“指纹”,从而打破黑盒恐惧,建立“我也能写CNN”的成就感,为后续框架实战铺垫心理门槛。实战MNIST03LeNet-5逐层图:32×32→6@28×28→…→10尺寸链通过LeNet-5每一层的张量变化,可以看出“图像如何被逐层压缩并升维到类别向量”。MNIST预处理:28×28灰度→归一0-1→加通道维数据准备数据准备三件套:resize、归一化、扩维,“模型再强也需干净输入”。维度差异灰度图单通道与RGB三通道的维度差异,以及归一化对梯度稳定的意义。工程思维工程化细节决定训练成败,树立“数据即代码”的MLOps思维。TensorFlow搭模型:Sequential七行复现LeNet代码解释Conv2D:用于特征提取,适合图像、视频等网格数据MaxPooling:用于降低维度,防止过拟合Dense:用于分类或回归,通常在网络末端训练现场:5epoch,batch=64,98.7%testacc超参与结果给出关键超参与结果,用“5轮近99%”这一冲击力数字展示CNN威力。副标题留白,演讲者可对比传统算法需手工调特征才能达到的92%,突出自动特征+端到端训练的降维打击。曲线解读:acc↑loss↓无过拟合,早停省心01曲线意义通过训练曲线验证模型健康度,强调“曲线会说话”。02模型诊断指出训练与验证曲线同步下降且未分叉,说明模型容量适中、数据充分,从而教会观众用肉眼诊断过拟合。03实验观察培养基本的实验观察力,为后续花卉任务的高复杂度对比埋下伏笔。实验小结:CNN自动提特征+抗噪,调参>换模型实验启示总结MNIST实战的三大启示:自动特征省去工程门槛、卷积结构天然抗噪、超参调优收益高于换架构。方法论“好模型是调出来的”进阶花卉分类04进阶任务:17种牛津花,比数字难多啦任务切换从干净手写数字跃迁到自然场景花卉,突出类别增多、背景复杂、尺寸不一带来的挑战。Oxford17Flowers速览:1360张,50-25-25分割数据集规模给出数据集规模与官方划分,强调小样本场景下泛化能力的重要性。数据稀缺性每类仅约80张图的稀缺数据策略数据增强的必要性:为后续技术方案提供量化依据,强化“先理解数据再选择模型”的理性流程。数据增强:旋转·缩放·裁剪→泛化利器增强策略AutoAugment/RandAugment:自动搜索最优增强策略组合风格迁移增强:改变图像风格而不改内容GAN生成增强:用生成对抗网络创造更真实的增强样本增强效果增强不仅增加样本量,更迫使网络学习invariant特征。更深网络:2套卷积-池化-归一化,dropout防过拟合网络升级给出面向细粒度分类的网络升级方案:加深层数、加入BN加速收敛、用dropout抑制过拟合。LeNet时代:模型简单,结构本身就是正则化,与数据规模匹配。现代深度学习:复杂模型是“强大的野兽”小数据如同脆弱的笼子正则化是必须的驯兽工具:约束模型能力,使其与有限数据适配实践铁律:模型复杂度↑→所需数据量↑若数据量有限→必须正则化强度↑TFLearn代码:输入224×224×3→17类softmax,一行一层高层封装展示高层封装框架TFLearn的极简语法,进一步降低实现门槛。敏捷开发感受“描述即模型”的敏捷开发,强化“工具演进使创意更快落地”的时代脉搏。训练结果:100epoch→95%testacc,花卉细粒度搞定最终成绩给出最终成绩:95%准确率,相较传统方法大幅跃升,验证CNN在真实复杂场景下的威力。结果对比对比MNIST的98%,说明难度提升但绝对值仍高,为后续横向对比传统方法奠定数据底气。应用与展望05行业落地:人脸、自动驾驶、医疗影像、工业检测…落地场景用四个高价值场景展示CNN的商业生命力,说明“实验室高分”已转化为“产业真金白银”。故事分享医疗影像辅助诊断提升早期癌症检出率,让观众看到技术与社会价值的直接挂钩。未来趋势:更深、更轻、自监督、VisionTransformer融合技术演进给出技术演进的四大方向:更深模型追求极限精度,更轻模型落地边缘设备,自监督减少标注成本,Transformer带来全局建模新思路。技术融合CNN与Transformer并非替代而是融合,技术浪潮此起彼伏、永不止息。开放心态从而保持持续学习的开放心态,为终身成长埋下种子。回顾:LeCun一念→视觉革命技术回顾收束技术叙事,回到人的因素:LeCun在1980s选择自动特征的那一刻,开启了此后三十年的视觉革命。核心金句:滑动窗口共享权,层叠抽象见山川金句浓缩用对仗押韵的八字句浓缩CNN三大法宝:滑动窗口对应局部感知,共享权对应参数效率,层叠抽象对应深度特征。情感铺垫让技术概念以诗意方式烙印脑海,为后续takeaway做情感铺垫。takeaway:局部+共享+层级=CNN三大法宝核心要点用数学公式般的简洁表达,应带走的三个关键词,强化记忆锚点。THANK
YOU感谢大家观看反向传播:点亮深度学习的火种目录CONTENTS1.冬夜灵感:反向传播的诞生2.网络骨架:多层前馈与误差回传3.损失函数:模型好坏的标尺4.参数优化:梯度下降全景5.链式倒灌:反向传播算法详解6.正则化:打败过拟合的利器7.梯度消失与爆炸:深度拦路虎8.总结:章节回眸一瞥冬夜灵感:反向传播的诞生011982MIT冬夜:两位科学家的火花01背景介绍1982年,麻省理工学院的一个寒冷冬夜,两位科学家鲁梅尔哈特与辛顿在实验室中进行了讨论。大卫设想了一个三层神经网络,但是苦恼于隐藏层的权重无法调整,在闲聊中杰夫灵光乍现,可以从输出端逆向推导错误来源。02讨论内容他们探讨的核心问题是隐藏层权重如何调整。这就像给一架从未调过音的钢琴校准音,我们既听不到基准音,又看不到内部琴键的气流变化。两位科学家试图寻找一种方法,让网络能够自动调整权重。03突破意义这个冬夜,反向传播算法在数字世界悄然苏醒,等待着十年后CNN在LeNet中初绽锋芒,开启深度学习的黎明序章。如今,BP神经网络已成为机器学习领域的重要基石,广泛应用于模式识别、数据分类、函数逼近等诸多领域,为AI的发展奠定了坚实基础核心难题:隐藏层权重谁调教单层感知器局限单层感知器只能处理线性可分问题,对于复杂的非线性任务无能为力。这是因为其结构简单,缺乏隐藏层,无法对输入数据进行深层次的特征提取和组合。多层网络困境当增加隐藏层后,多层网络虽然理论上可以解决更复杂的问题,但隐藏层权重的调整却成了一个难题。没有有效的学习算法,网络无法从数据中自动学习权重,导致训练过程无法进行。
逆向追错:误差反向传播问世核心思想反向传播算法的核心思想是从输出端开始,先计算总误差,然后利用链式法则将误差逆向分配给各层神经元。这样,每一层的神经元都能根据分配到的误差来更新自己的权重。突破意义这一思想的提出,成功打破了隐藏层的“黑箱”困境,使权重更新有了可计算的方向和幅度。反向传播算法的出现,为多层神经网络的训练提供了有效的解决方案。数据流对比正向传播负责将输入数据传递到输出层,生成预测结果;而反向传播则负责将误差从输出层逆向传递回输入层,更新权重。两者相互配合,形成了完整的训练过程。课前任务在探索反向传播神经网络的神奇世界之前,请先回顾深度学习发展中的关键里程碑。请在互联网或学术资料中查找与反向传播算法及多层神经网络相关的重要事件或研究,并列出至少5个标志性突破,描述每个突破是如何推动神经网络从理论走向实践的,以及对现代AI的影响。网络骨架:多层前馈与误差回传02定义:多层前馈网络加误差逆传网络定义反向传播神经网络是一种通过反向传播算法进行训练的多层。它的基本原理是通过前向传播算法计算网络的输出误差,然后通过反向传播算法将这个误差从输出层反向传播到输入层,逐层调整网络的权重和偏置,以最小化输出误差。误差逆传在训练过程中,误差从输出层逆向传播到输入层,通过链式法则计算每一层的梯度,并根据梯度更新权重。这种误差逆传机制使得网络能够自动学习数据中的特征。数据流向:输入隐藏输出的接力输入层输入层接收原始数据,将其转化为网络可以处理的格式。输入数据的维度决定了输入层的神经元数量。隐藏层隐藏层是网络的核心部分,负责对输入数据进行特征提取和转换。通过多个隐藏层的组合,网络能够学习到数据中的复杂特征。输出层输出层根据隐藏层的特征提取结果,生成最终的预测结果。输出层的神经元数量取决于任务的类型,例如分类任务的类别数量。代码示例右边的代码将演示用反向传播神经网络来进行二分类问题的学习。假设有一个数据集,只包含两个类别的数据点,可以使用反向传播神经网络来学习这些数据点的分类边界。importnumpyasnpdefsigmoid(x):return1/(1+np.exp(-x))defsigmoid_derivative(x):returnx*(1-x)#输入数据inputs=np.array([[0,0],[0,1],[1,0],[1,1]])#期望的输出数据expected_output=np.array([[0],[1],[1],[0]])epochs=10000lr=0.1inputLayerNeurons,hiddenLayerNeurons,outputLayerNeurons=2,2,1#随机初始化权重和偏置hidden_weights=np.random.uniform(size=(inputLayerNeurons,hiddenLayerNeurons))hidden_bias=np.random.uniform(size=(1,hiddenLayerNeurons))output_weights=np.random.uniform(size=(hiddenLayerNeurons,outputLayerNeurons))output_bias=np.random.uniform(size=(1,outputLayerNeurons))#训练神经网络for_inrange(epochs):#前向传播hidden_layer_activation=np.dot(inputs,hidden_weights)hidden_layer_activation+=hidden_biashidden_layer_output=sigmoid(hidden_layer_activation)output_layer_activation=np.dot(hidden_layer_output,output_weights)output_layer_activation+=output_biaspredicted_output=sigmoid(output_layer_activation)#反向传播error=expected_output-predicted_outputd_predicted_output=error*sigmoid_derivative(predicted_output)error_hidden_layer=d_predicted_output.dot(output_weights.T)d_hidden_layer=error_hidden_layer*sigmoid_derivative(hidden_layer_output)#更新权重和偏置output_weights+=hidden_layer_output.T.dot(d_predicted_output)*lroutput_bias+=np.sum(d_predicted_output,axis=0,keepdims=True)*lrhidden_weights+=inputs.T.dot(d_hidden_layer)*lrhidden_bias+=np.sum(d_hidden_layer,axis=0,keepdims=True)*lr非线性建模与自适应优势非线性建模反向传播网络通过可组合的非线性激活函数,能够实现任意复杂的决策边界。它通过多层神经元的连接和激活函数的叠加,能够对复杂的数据关系进行逐层抽象,尤其擅长处理图像识别、语音处理、金融预测等高度非线性的任务。自适应学习反向传播神经网络通过反向传播算法实现自我优化,模型在训练过程中会根据输出误差自动调整神经元之间的连接权重,类似于“从错误中总结规律”的学习过程。这种特性使得它不需要预先设定严苛的数学规则,特别适合处理那些难以用明确公式描述的复杂问题。在工业控制领域,这种特性让它可以应对设备运行中多变的环境参数,实现动态调整控制策略。局部最优与梯度消失等局限局部最优反向传播算法在非凸优化问题中容易陷入局部最优,导致网络无法找到全局最优解。这是反向传播算法的一个重要局限性。如同在山坡上寻找最低点时被困在局部低谷,导致模型难以达到全局最优性能。特别是在高维数据场景下,损失函数的高维表面变得复杂,充满局部极小点和鞍点,显著增加优化难度。梯度消失在深层网络中,梯度可能会随着层数的增加而逐渐消失,导致网络无法有效更新权重。这是反向传播算法在深层网络训练中面临的一个挑战。其他局限反向传播算法还存在对数据质量和参数设置敏感、过拟合风险等问题。这些问题都需要我们在实际应用中加以注意和解决。损失函数:模型好坏的标尺03损失函数:预测与真值的距离尺损失函数定义损失函数是衡量模型预测值与真实值之间差异的重要指标。它将这种差异量化为一个标量值,用于指导模型的训练过程。选型原则选择损失函数时,需要遵循可导和可解释两大原则。不同的任务类型需要选择不同的损失函数,以确保模型能够有效地学习数据中的特征。均方误差:回归任务经典标尺01均方误差公式02数学意图平方项的作用是放大误差,使模型更加关注较大的误差;均值项的作用是保证损失函数的可导性和光滑性。03应用示例在房价预测任务中,均方误差能够有效衡量模型预测的准确性,并指导模型的训练过程。交叉熵:分类任务首选放大器交叉熵定义交叉熵损失函数源自信息论,用于衡量两个概率分布之间的差异。它是分类任务中的首选损失函数。优势交叉熵特别适合分类任务,它放大高置信度错误(如把猫预测成10%猫+90%狗时,损失值会暴增到2.3),如同老师重点批评原则性错误。因此,交叉熵损失函数能够对自信错误给予较大的梯度惩罚,加速模型的收敛速度。参数优化:梯度下降全景04权重即旋钮:知识图谱的调节器权重比喻参数优化是神经网络实现智能决策的核心环节,如同给复杂机械系统增加上万个精密旋钮。权重向量w
和偏置b等参数,本质上定义了神经元之间的连接强度和数据响应方式。以图像识别为例,权重向量控制着不同像素特征的影响力大小,偏置则像校准器调节神经元的激活门槛,它们的组合构成了模型认知世界的“知识图谱”
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 行政人事副总责任制度
- 消防中控室安全责任制度
- 幼儿园安稳工作责任制度
- 环保局目标管理责任制度
- 危险废物管理员责任制度
- 服装公司管理责任制度
- 日本医院医生责任制度
- 光伏项目部岗位责任制度
- 安顺市消防安全责任制度
- 乡镇禁种铲毒责任制度
- (新教材)2026年人音版二年级下册音乐全册教案
- 2025-2026学年冀人版(新教材) 小学科学二年级下学期教学计划及进度表
- 中远海运集团招聘笔试题库2026
- 2025-2026学年沪教版(新教材)初中化学九年级下册教学计划及进度表
- 2026年乌海职业技术学院单招职业技能考试题库及1套完整答案详解
- 2026年春青岛版(新教材)小学科学三年级下册(全册)教学设计(附目录P199)
- 智能船舶科普讲解
- 托班居家安全课件
- 治疗室的消毒隔离制度
- PR2018培训课件教学课件
- JJG(交通) 030-2020 超声波流速仪
评论
0/150
提交评论