大学计算机-计算思维与人工智能(第2版)课件 第7章 人工智能基础_第1页
大学计算机-计算思维与人工智能(第2版)课件 第7章 人工智能基础_第2页
大学计算机-计算思维与人工智能(第2版)课件 第7章 人工智能基础_第3页
大学计算机-计算思维与人工智能(第2版)课件 第7章 人工智能基础_第4页
大学计算机-计算思维与人工智能(第2版)课件 第7章 人工智能基础_第5页
已阅读5页,还剩70页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

第7章人工智能基础Contents目录7.1人工智能概述7.2人工智能的起源和发展7.3人工智能的关键技术7.4人工智能的算法7.5智能时代的人才发展与应对content内容本次课内容重点:1.人工智能的三要素2.人工智能的关键技术3.人工智能的算法难点:1.人工智能的关键技术2.人工智能的算法7.1人工智能概述7.1.1人工智能的定义早期定义约翰·麦卡锡定义约翰·麦卡锡在1956年达特茅斯会议上提出,人工智能是“能模拟人类智能行为的计算机系统”,强调机器模拟人类智能行为,为早期研究指引方向。IBM定义IBM认为人工智能是使计算机和机器能够模拟人类学习、理解、问题解决等能力的技术,突出其在模拟人类认知功能方面的广泛应用。现代定义维基百科定义维基百科将人工智能定义为机器或软件所展现的智能,与人类或其他动物的智能相对,超越具体技术,强调其作为智能形式的普遍性。拉塞尔与诺维格定义斯图尔特·拉塞尔和彼得·诺维格在《人工智能:现代方法》中提出,人工智能是研究与设计智能主体的学科,智能主体能感知环境并采取行动实现目标,其定义涵盖理论基础与实践导向。综合定义人工智能是计算机科学的重要分支,融合多学科理论与方法,研究通过计算机技术模拟人类思维过程和智能行为,开发智能系统,范围超越传统计算机科学边界。学科属性人工智能与思维科学密切联系,作为思维科学的技术应用分支,依托对人类思维机制的理解,致力于将理论转化为智能系统,需融入多元思维视角推动进展。与思维科学关系7.1.2人工智能的分类人工智能的分类弱人工智能ArtifcialNarrowIntelligence(ANI):弱人工智能是擅长于单个方面的人工智能。比如有能战胜象棋世界冠军的人工智能,但是它只会下象棋,你要问它怎样更好地在硬盘上储存数据,它就不知道怎么回答你了。强人工智能ArtificialGeneralIntelligence(AGI):人类级别的人工智能。强人工智能是指在各方面都能和人类比肩的人工智能,人类能干的脑力活它都能干。创造强人工智能比创造弱人工智能难得多,我们现在还做不到。LindaGottfredson教授把智能定义为“一种宽泛的心理能力,能够进行思考、计划、解决问题、抽象思维、理解复杂理念、快速学习和从经验中学习等操作。”强人工智能在进行这些操作时应该和人类一样得心应手。超人工智能ArtifcialSuperintelligence(ASI):牛津哲学家,知名人工智能思想家NickBostrom把超级智能定义为“在几乎所有领域都比最聪明的人类大脑都聪明很多,包括科学创新、通识和社交技能。”超人工智能可以是各方面都比人类强一一点,也可以是各方面都比人类强万亿倍的。超人工智能也正是为什么人工智能这个话题这么火热的缘故,同样也是为什么永生和灭绝这两个词会在本文中多次出现。7.1.3人工智能的研究内容智能感知研究如何让机器通过视觉系统识别图像和物体,如识别照片中的人脸,使机器能够观察世界并解释所见内容。机器视觉01研究如何让机器通过听觉系统理解语音和声音,如听懂简单的语音指令,实现与人类的自然交互。机器听觉02知识表示与学习研究如何将信息转化为机器可理解的形式,通过规则、数据结构等方式组织信息,为AI提供理解和利用知识的基础。知识表示研究如何让机器从数据中提取规律,模拟人类的记忆与适应能力,不断提升智能水平,如机器学习中的监督学习、无监督学习和强化学习。学习智能推理研究如何让机器基于感知到的信息和存储的知识,通过逻辑分析和算法推导解决问题,如自动驾驶系统根据道路状况推断最佳行驶路径。逻辑分析目标是让机器在复杂环境中模拟人类的思维过程,得出合理结论,实现类似人类的推理和决策能力。模拟人类思维智能行动自主执行研究如何将感知、学习和推理的结果转化为具体的操作,使AI系统能够根据环境变化自主制定任务并执行,如机器人完成搬运工作或智能家居调节温度。实现便利其目的是实现自动化和智能化,为人类生活提供便利,推动人工智能从理论走向实践。7.1.4人工智能的三要素基石作用数据是人工智能的基石,其数量、质量和多样性直接决定AI模型的预测准确性和泛化能力,为深度学习算法提供训练基础,驱动技术进步。数据思维人工智能专家吴恩达强调数据是原料,其“数据中心AI”理念表明数据工程成为AI系统的关键瓶颈,培养数据思维至关重要。数据算法是人工智能的核心,负责将原始数据转化为有价值的信息与决策,通过定义规则和流程,从数据中提取模式、进行推理,并在未知数据上实现精准预测。核心地位机器学习算法包括监督学习、无监督学习和强化学习,深度学习领域的代表性算法包括CNN、RNN、FNN和GAN,算法框架如TensorFlow、PyTorch提升了AI开发效率。突破与应用算法算力是指支持AI计算的硬件资源,涵盖CPU、GPU、FPGA及专用AI芯片,为数据处理和算法执行提供高效支持,现代AI的突破得益于计算能力的飞跃。硬件支持海量数据与先进算法的结合需依赖强大算力以实现高性能模型的训练,算力的优化与扩展是技术进步的保障,也是推动AI应用落地的关键。重要性算力7.2人工智能的起源和发展7.2.1人工智能的起源人物介绍艾伦·麦席森·图灵AlanMathisonTuring(1912年6月23日-1954年6月7日)英国数学家、逻辑学家,被称为计算机科学之父,人工智能之父。主要荣誉

:1926年,图灵考入英国著名的谢伯恩公学,在中学时就获得了国王爱德华六世数学金盾奖章。1932年,荣获英国著名的史密斯数学奖。1946年,由于他在二战中为破译德军密码做出的巨大贡献,获得“不列颠帝国勋章”,这是英国皇室授予为国家和人民做出巨大贡献者的最高荣誉勋章。

电影《模仿游戏》其中有描述图灵在二战期间破解德国著名的密码Enigma的故事图灵测试1950年,图灵发表了划时代的论文《计算机器与智能》,首次提出了对人工智能的评价准则,这便是历史中大名鼎鼎的“图灵测试”。在测试者与被测试者(一个人和一台机器)隔开的情况下,由测试者通过一些装置向被测试者随意提问。经过5分钟的交流后,如果有超过30%的测试者不能区分出哪个是人、哪个是机器的回答,那么这台机器就通过了测试,并被认为具有人类水准的智能。首次通过

俄罗斯的一个团队,开发了名为“EugeneGoostman”的人工智能聊天软件,它模仿的是一个来自乌克兰的13岁男孩(男孩名字也是“尤金古特曼”)。2014年6月,英国雷丁大学对这一软件进行了测试,在伦敦皇家学会进行的测试中,33%的对话参与者认为,聊天的对方是一个人类,而不是计算机。1956年达特茅斯(DARTMOUTH)会议

1956年8月,美国汉诺斯小镇宁静的达特茅斯学院,约翰·麦卡锡(JohnMcCarthy,人工智能之父、Lisp语言发明者)、马文·明斯基(MarvinMinsky,人工智能与认知学专家)克劳德·香农(ClaudeShannon,信息论的创始人)、艾伦·纽厄尔(AllenNewell,计算机科学家)赫伯特·西蒙(HerbertSimon,诺贝尔经济学奖得主)讨论着一个完全不食人间烟火的主题:用机器来模仿人类学习以及其他方面的智能。会议足足开了两个月的时间,虽然大家没有达成普遍的共识,但是却为会议讨论的内容起了一个名字:人工智能。7.2.2人工智能的发展历程7.2.3人工智能在中国的发展相关政策

2015年《中国制造2025》全面推进实施制造强国战略,“智能制造”被定位为中国制造的主攻方向。2016年国务院印发《“十三五”国家科技创新规划》智能制造和机器人被列为“科技创新2030项目”重大工程2017年国务院《新一代人工智能发展规划》“三步走”举全国之力在2030年抢占人工智能全球制高点7.2.4人工智能的应用领域智能医疗,从辅诊到精准医疗智能制造,自动化的下一站智能零售,实体店加速升级智能服务,“懂你”的服务入口智能教育,面向未来“自适应”教育智慧城市,为城市安装智慧中枢7.3人工智能的关键技术7.3.1机器学习机器学习机器学习的英文名称MachineLearning(简称ML)这个名字使用了拟人的手法,说明了这门技术是让机器“学习”的技术。机器学习机器学习的过程首先,需要在计算机中存储历史的数据。接着,将这些数据通过机器学习算法进行处理,这个过程在机器学习中叫做“训练”,处理的结果可以被用来对新的数据进行预测,这个结果一般称之为“模型”。对新数据的预测过程在机器学习中叫做“预测”。“训练”与“预测”是机器学习的两个过程,“模型”则是过程的中间输出结果,“训练”产生“模型”,“模型”指导“预测”。人类思维过程与机器学习过程机器学习中的“训练”与“预测”过程可以对应到人类的“归纳”和“推测”过程。机器学习方法是计算机利用已有的数据(经验),得出了某种模型(规律),并利用此模型预测未来的一种方法。机器学习与人类思考的经验过程是类似的。7.3.2自然语言处理自然语言处理自然语言处理(NaturalLanguageProcessing,NLP)是人工智能领域的核心研究方向。其目的是通过算法让计算机具备理解、处理和生成人类语言的能力,使机器不仅能识别语言的表面形式,还能深入理解语义并生成自然回应。NLP的核心任务包含自然语言理解(NLU)和自然语言生成(NLG)。7.3.3语音处理语音处理语音处理主要研究的对象就是语音信号,要让机器像人类一样听和说。涵盖了语音识别、语音合成以及语音理解等一系列技术。最主要的两项任务:语音识别语音合成7.3.4知识图谱知识图谱知识图谱就像是一幅用数据绘制的“智慧地图”,它采用基于图的数据结构,由节点和边构成。知识图谱把各类信息巧妙地整合起来,清晰直观地呈现知识以及知识之间的关联。它让计算机能更好地理解和处理人类语言,进而实现智能搜索、问答系统、推荐系统等实用功能。7.3.5计算机视觉计算机视觉计算机视觉(ComputerVision)又称机器视觉(MachineVision),是一门让机器学会如何去“看”的学科,让机器去识别摄像机拍摄的图片或视频中的物体,检测出物体所在的位置,并对目标物体进行跟踪,从而理解并描述出图片或视频里的场景和故事,以此来模拟人脑视觉系统。7.4人工智能的算法7.4.1算法分类算法分类机器学习包含多种经典算法,例如回归算法、神经网络(neutralnetwork)、支持向量机(SVM)、聚类算法、降维算法和推荐算法等。这些算法各有特色,广泛应用于数据分析与预测。按学习方式分类监督学习通过分析带标签数据训练模型,依赖大量标注数据集,学习输入与输出的映射关系,目标是提升泛化能力,广泛应用于医疗诊断、金融风险评估等领域。监督学习无监督学习使用未标记数据,通过挖掘潜在模式进行学习,适用于海量未标注数据的探索性分析,在市场细分、社交网络分析等领域展现强大能力。无监督学习强化学习通过智能体与环境交互,以最大化累积奖励为目标,适用于复杂环境中的决策优化,在机器人控制、游戏AI等领域展现巨大潜力。强化学习按任务类型分类

分类分类任务是将输入数据分配到预定义的类别中,常见算法包括逻辑回归、随机森林、支持向量机等,通过分析数据特征实现归类。降维降维任务是简化数据集,去除冗余特征,提高算法性能和效率,常见算法包括主成分分析(PCA)、线性判别分析(LDA)等。聚类聚类任务是将数据集划分为不同组或簇,常见算法包括K均值、DBSCAN、层次聚类等,通过分析数据的相似性和差异性进行划分。回归回归任务是预测连续变量的值,常见算法包括线性回归、岭回归、LASSO回归等,通过建立数学模型预测目标变量。按应用领域分类图像处理图像处理领域常用卷积神经网络(CNNs)和生成对抗网络(GANs)等算法,能够处理和分析图像数据,实现图像识别、分类以及生成等任务。自然语言处理自然语言处理领域常用循环神经网络(RNNs)、长短期记忆网络(LSTM)以及Transformer模型等算法,能够处理和理解自然语言文本,实现文本分类、情感分析、机器翻译等任务。推荐系统推荐系统领域常用协同过滤和矩阵分解等算法,通过分析用户行为和偏好,为用户推荐符合其兴趣的内容或产品。0102037.4.2神经网络神经网络简介神经网络概念源于1943年,受生物神经元启发,通过模拟人脑神经元连接方式处理复杂数据,是分布式并行处理的数学模型,广泛应用于图像识别、语音处理等领域。神经网络起源01神经网络简介神经网络由输入层、隐藏层和输出层组成,输入层接收原始数据,隐藏层进行特征提取,输出层产生最终结果,通过训练学习输入与输出的关系。神经网络结构02神经网络算法的应用神经网络在图像识别中表现出色,如LeNet用于手写数字识别,通过多层结构提取图像特征,实现高精度识别。01神经网络能够高效处理语音信号,如智能语音助手通过神经网络实现语音识别与交互。02神经网络整合多维度数据,预测商品销售趋势,助力企业优化库存与营销策略。03图像识别语音处理销售预测基于用户特征,神经网络实现消费人群的精准划分并预测行为模式,为个性化营销提供支持。04神经网络应用于股票价格预测、汇率分析等,提升金融决策的效率与准确性。05用户画像金融领域7.4.3深度学习深度学习起源深度学习发展深度学习是神经网络的自然延伸,通过多层隐藏层挖掘更深层次特征,解决复杂问题,是机器学习领域的革命性进展。关键突破2006年,GeoffreyHinton提出深度学习算法,引入深层网络的训练方法,推动深度学习在学术界和工业界的广泛应用。深度学习模型卷积神经网络(CNN)CNN由卷积层和池化层组成,能够自动学习图像中的局部特征,广泛应用于计算机视觉任务,如图像分类、物体检测等。RNN具有循环结构,能够处理序列数据,适用于自然语言处理、语音识别等任务,具有记忆能力。循环神经网络(RNN)TransformerTransformer基于自注意力机制,能够处理长序列数据,广泛应用于自然语言处理、机器翻译、文本生成等领域。BERTBERT是基于Transformer的预训练语言模型,通过双向Transformer编码器提升语言理解能力,广泛应用于文本分类、情感分析等任务。GPTGPT是基于Transformer的预训练语言模型,通过单向Transformer编码器生成连贯文本,广泛应用于文本生成、摘要提取等任务。7.4.4基于Python的机器学习案例Python机器学习基础NumPy库NumPy库用于处理数字和数学计算,支持数组操作、数学函数运算和矩阵运算,为机器学习中的数据处理提供便利。pandas库pandas库专注于表格数据的整理与分析,支持数据清洗、转换、合并等操作,为机器学习中的数据预处理提供支持。Scikit-learn库Scikit-learn库提供丰富的机器学习算法和工具,支持分类、回归、聚类、降维等任务,方便学习者构建和训练机器学习模型。Python机器学习实践构建模型使用Python和机器学习库构建模型,通过训练数据优化模型,实现精准的数据预测。案例应用以一个简单的预测任务为例,展示如何使用Python和机器学习模型完成从数据准备到模型训练和预测的全过程。0102基于Python的机器学习案例实验题目:分析用户的电影喜好,预测他会不会喜欢《哪吒2》。收集用户看过的电影数据,依据用户过去对电影的评分,预测他会不会喜欢这部新电影(时长144分钟,特效9.5分)。基于Python的机器学习案例实验题目:预测社交媒体点赞数。7.5智能时代的人才发展与应对7.5.1核心能力构建智能时代的人才发展与应对在人工智能(AI)时代,我们正处在一个技术飞速变革的时期,深度学习等技术的突破不仅改变了科技格局,也深刻影响着我们的生活、工作和社会结构。面对这样的时代,我们既是见证者,也是参与者。复合型、跨界思维,多元化知识结构是基本要求人工智能是一门融合了数学、物理、软件、计算机、脑科学、心理学、哲学、语言学等多种学科的新兴学科。为适应人工智能发展需求,我们需要具备扎实的科学常识来总结事物发展的规律,运用规律来研发新的技术,依靠深厚的数学功底将问题转化为算法模型,并且通过工程设计形成新的产品。例如,在机器人行业,精通AI、互联网和硬件的人才备受青睐。建议通过跨学科课程或项目培养这种能力。数字化新技能是重要条件自动化和工业机器人的普及解放了繁重劳动,但要求我们掌握软件操作、机器编程(如Python)、大数据分析等数字化技能,以管理复杂流程。这要求我们

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论