计算机科学导论 课件 第10章 人工智能_第1页
计算机科学导论 课件 第10章 人工智能_第2页
计算机科学导论 课件 第10章 人工智能_第3页
计算机科学导论 课件 第10章 人工智能_第4页
计算机科学导论 课件 第10章 人工智能_第5页
已阅读5页,还剩106页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

第十章

人工智能目录10.2人工智能核心技术10.3大语言模型10.4国产人工智能与自主创新之路10.1初识人工智能10.5小结10.1初识人工智能

第十章

人工智能10.1.1初识人工智能人工智能这个名词好像听起来都非常熟悉的而且觉得好像也很容易理解的,但实际上要给它一个准确的定义还是非常困难的,至今为止也没有一个很统一的定义。人的智能伴随着人的生活处处存在的,我们进行一些计算题、猜谜、讨论、编制程序等等,无论我们做任何一件事情,都是有所谓的那种智能的体现的。那么人工智能是什么意思呢?

第十章

人工智能10.1.1初始人工智能从狭义上来讲,它是计算机科学的一个分支,是一个具有智能的计算机系统;从广义上来讲,人工智能的研究实际上就是人类智能行为的规律,人类智能的理论方面的研究。

那么实际上,人工智能到现在正式提出这个名称进行研究已经进行了近半个世纪了,在狭义的角度上讲,取得了一定的进步和进展,有一些结果性的成果。但从广义角度上来讲,实际上还没有做出任何令人兴奋的结果,还是在一个很粗浅的探索过程中。人工智能的本质问题就是研究如何人工制造智能机器或智能系统,用来模拟智力活动和延伸智力。

第十章

人工智能10.1.1初识人工智能1950年,“计算机之父”和“人工智能之父”艾伦·图灵(AlanM.Turing)发表了论文《计算机器与智能》,这篇论文被誉为人工智能科学的开山之作。在论文的开篇,图灵提出了一个引人深思的问题:“机器能思考吗?”。这个问题激发了人们无尽的想象,同时也奠定了人工智能的基本概念和雏形。图灵提出的测试机器智能实验,参加者是计算机、测试者以及测试主持人。由主持人提出问题,计算机和测试者来回答,测试者在回答问题时尽可能地向主持人表示他是“真正的”人,计算机也尽可能逼真地模仿人的思维。如果主持人通过听取对问题的回答分辨不出哪个是人的回答时,便可认为被试验的计算机是有智能的了。但是有人对这样设计的实验提出了疑义:认为这种实验只反映了结果的比较而没有涉及思维的过程,而且也没明确此人是个孩子还是有良好素质的成年人参加了实验。

第十章

人工智能10.1.1初识人工智能人工智能是研究使用计算机来模拟人的某些思维过程和智能行为(如学习、推理、思考、规划等)的学科,主要包括计算机实现智能的原理、制造类似于人脑智能的计算机,使计算机能实现更高层次的应用。人工智能的三大核心要素是‌算法‌、‌数据‌和‌算力‌。这三个要素相互依赖,共同推动了人工智能技术的发展和应用。人工智能将涉及到计算机科学、心理学、哲学和语言学等学科。可以说几乎是自然科学和社会科学的所有学科,其范围已远远超出了计算机科学的范畴,人工智能与思维科学的关系是实践和理论的关系,人工智能是处于思维科学的技术应用层次。

第十章

人工智能10.1.2人工智能的产生和发展阶段人工智能的诞生可以追溯到20世纪50年代。当时,计算机科学刚刚起步,人们开始尝试通过计算机程序来模拟人类的思维和行为。在这个背景下,一些杰出的科学家和工程师们开始研究如何使计算机具备更高级的功能1956年8月,在美国达特茅斯学院举办的人工智能夏季研讨会,是人工智能领域具有里程碑意义的一次重要会议。这次会议的召开标志着人工智能作为一个独立学科的正式诞生,因此,达特茅斯会议被称为“人工智能的开端”,1956年也被称为“人工智能元年”,人工智能是新一轮科技革命和产业革命的重要工具。新一轮科技革命和产业革命

第十章

人工智能10.1.2人工智能的产生和发展阶段从1956年人工智能元年至今,人工智能的发展经历了漫长的岁月大致可以分为六个阶段:人工智能六个发展阶段

第十章

人工智能10.1.2人工智能的产生和发展阶段启蒙发展阶段(20世纪50年代)人工智能的概念起源于1950年,当时英国数学家艾伦·图灵提出了著名的“图灵测试”,为评估机器智能提供了依据。探索发展阶段(20世纪50-60年代)在AI的早期发展阶段,研究主要集中在符号逻辑和规则系统上。专家系统是这一时期的代表性成果,它通过编码专家知识来为特定领域提供建议和决策支持。反思发展阶段(20世纪60-70年代)随着人工智能的应用规模不断扩大,专家系统存在的问题逐渐暴露出来,人工智能发展进入低迷期。123654蓬勃发展阶段(21世纪初至今)进入21世纪以来,随着深度学习技术的崛起,AI的发展迎来了新的高潮。步发展阶段(20世纪90年代-21世纪初)由于网络技术的发展,特别是互联网技术的发展,加速了人工智能的创新研究,促使其进一步走向实用化。低谷发展阶段(20世纪70-90年代)AI的早期研究过于理想化而实际应用效果不佳,导致投资和兴趣的减少,这一时期被称为“AI冬天”。

第十章

人工智能10.1.3人工智能应用领域人工智能正深刻影响多个行业,提升效率与便利性。在智慧城市中,AI助力交通管理、环境监测和城市治理;智慧医疗应用于疾病诊断、药物研发和健康管理;智慧零售利用智能推荐和供应链优化提升用户体验;智慧安防依靠人脸识别与视频分析加强安全监控;智能家居通过智能助手和自动化设备提升生活品质;智能驾驶推动自动驾驶与辅助驾驶技术的发展,这些领域展现了人工智能广阔的应用前景。1.智慧城市智慧城市利用人工智能、大数据、物联网等技术提升城市管理效率和居民生活质量。智能交通管理是智慧城市的重要组成部分,AI可以通过计算机视觉和大数据分析优化交通信号控制,减少拥堵,提高通行效率。在城市环境监测方面,AI结合传感器网络,可实时监测空气质量、水污染等关键环境指标,并提供数据分析和预警,帮助政府制定环保措施。此外,智慧城市的公共安全也依赖于AI技术,如人脸识别和行为分析,可以提升城市安防能力,实现智能监控和犯罪预防。智慧城市如图所示。10.1.3人工智能应用领域智慧医疗人工智能正在彻底改变医疗行业,提高诊疗精度、降低医疗成本,并提升患者体验。在疾病诊断方面,AI可以通过医学影像分析(如CT、MRI)辅助医生诊断,提高早期疾病发现率,减少误诊。此外,基于深度学习的AI模型可分智慧零售AI技术正在推动零售行业智能化升级,提高消费者体验,同时优化供应链管理。智能推荐系统是AI在零售领域的典型应用之一,基于用户行为分析,AI能够提供个性化商品推荐,提高销售转化率。此外,无人零售技术正在崛起,结合计算机视觉和传感技术,实现无人超市、自助结算等创新商业模式。智能安防人工智能技术在安防领域的应用,极大提升了公共安全水平和企业安全防护能力。在身份验证方面,AI驱动的人脸识别技术可以高精度地识别人脸,提高出入管理的安全性。与此同时,行为分析技术也在提升公共安全方面发挥重要作用,AI通过计算机视觉分析人群行为,可检测异常情况,如盗窃、暴力事件等,提高安全预警能力。智慧家居智能家居融合AI、物联网等技术,为用户提供便捷、智能、安全的居住环境。智能语音助手,如Alexa、GoogleAssistant,可以通过语音指令控制家电、灯光、温控等,极大提升家居的智能化水平。此外,智能安防系统利用AI摄像头、智能门锁等设备,实现家庭安全监控和远程控制,为用户提供更高的安全保障。智能驾驶智能交通系统也是AI应用的重要领域,AI可以优化红绿灯调度,减少交通拥堵,提高通行效率。此外,车联网技术实现了车辆与道路基础设施、其他车辆的信息互联,提高驾驶体验。共享出行平台利用AI优化网约车调度,提高乘客匹配效率,减少空驶率,推动出行服务向更加智能化的方向发展。

第十章

人工智能10.1.4

第十章

人工智能人工智能未来挑战人工智能正以前所未有的速度改变着世界,从医疗、交通到教育、制造业,它在多个领域展现出了巨大的潜力。然而,随着AI技术的深入发展,我们也面临着一系列严峻的挑战。技术瓶颈与算法限制人工智能虽然取得了长足进步,但仍面临许多技术瓶颈。当前的AI系统在处理特定任务时表现优异,但缺乏通用智能,即跨领域学习和自主推理的能力。现有的深度学习算法需要大量数据进行训练,而数据的质量和数量直接影响AI的性能。此外,AI的可解释性问题也是一大挑战,许多复杂的神经网络模型难以解释其决策过程,使得AI的透明度和可靠性受到质疑。在计算资源方面,AI的训练和运行需要强大的计算能力,导致高昂的能耗问题。大规模的AI模型,如GPT和DALL·E,需要消耗巨大的能源,增加了碳排放,不利于可持续发展。因此,如何优化算法,提高计算效率,减少资源消耗,成为人工智能领域亟待解决的问题。10.1.4

第十章

人工智能人工智能未来挑战2.数据安全与隐私保护人工智能的发展高度依赖数据,而数据安全和隐私保护成为关键问题。随着AI广泛应用于金融、医疗、安防等领域,用户数据的大规模采集和处理增加了信息泄露的风险。黑客攻击、数据滥用、身份盗窃等问题日益严重,给个人隐私和社会安全带来了巨大挑战。此外,AI算法可能存在数据偏见(Bias),导致决策的不公平。例如,在招聘、信用评估等场景中,AI可能基于历史数据中的偏见做出歧视性决策。如何确保AI系统的公平性、透明性,以及如何制定合理的隐私保护机制,是未来需要解决的重要问题。人工智能带来的数据安全与隐私问题10.1.4

第十章

人工智能人工智能未来挑战3.人工智能伦理与法律监管人工智能的快速发展也引发了伦理和法律层面的争议。例如,AI在自动驾驶、医疗诊断、军事武器等领域的应用,涉及安全性、责任归属等复杂问题。如果自动驾驶汽车发生事故,应由驾驶员、制造商还是算法开发者负责?如果AI医生误诊,责任该如何划分?这些问题仍然缺乏明确定义。此外,人工智能的滥用可能引发伦理风险,如深度伪造(Deepfake)技术可以生成虚假信息,影响社会舆论,甚至被用于犯罪活动。如何在推动AI发展的同时,加强法律监管,确保技术的合理应用,是未来人工智能发展的关键挑战之一。4.对就业市场的影响AI的自动化能力提高了生产效率,但也引发了对就业市场的担忧。越来越多的重复性工作被AI替代,如制造业的自动化生产线、金融行业的智能投顾、客服机器人的普及等,这导致部分传统职业的减少。同时,AI的发展催生了新兴职业,如数据科学家、AI工程师等,但这些岗位需要更高的技术门槛,部分劳动力可能难以适应转型。从2022年12月到2023年9月,全球AI相关职位的浏览量增长12%,申请量增长11%,其中美国增长尤为显著,分别达到21%和19%,反映出AI领域的求职热度持续上升。

第十章

人工智能人工智能未来挑战未来,如何平衡AI技术进步与就业市场的变化,如何通过教育和技能培训提升劳动力适应AI时代的能力,将成为社会面临的重要课题。10.2人工智能核心技术

第十章

人工智能10.2人工智能核心技术核心技术机器学习深度学习自然语言处理计算机视觉知识图谱

第十章

人工智能10.2人工智能核心技术——机器学习机器学习的定义Mitchell的经典定义:“利用经验来改善计算机系统自身的性能”机器学习的发展历史

第十章

人工智能10.2人工智能核心技术——机器学习机器学习的流程1数据就像是机器学习模型的“原材料”,数据可以来自各种渠道数据收集收集到的数据通常是原始且杂乱的,存在各种问题,这一步是对原材料进行清洗和初步加工数据预处理评估模型通常使用一些专门的指标,不同类型的任务有不同的评估指标模型评估如果评估结果显示模型性能未达到预期,就需要对模型进行调优和优化模型调优与优化选择合适的机器学习模型,并使用处理好的数据对模型进行训练模型选择与训练当模型性能达到满意的程度后,就可以将模型部署到实际应用中,让其发挥作用模型部署与应用23456

第十章

人工智能10.2人工智能核心技术——机器学习机器学习算法——监督学习线性回归通过构建线性方程来建模自变量与连续因变量之间的关系,以预测未知因变量值的监督学习方法逻辑回归通过Sigmoid函数将线性组合结果映射到[0,1]区间,用于建模二分类问题中类别概率与自变量关系的监督学习方法决策树通过构建树形结构,依据特征对数据逐步划分以实现分类或预测的直观可解释的监督学习模型

支持向量机(SVM)通过寻找最优分类超平面,最大化不同类别数据间隔以实现分类(或回归)的监督学习模型朴素贝叶斯基于贝叶斯定理和特征条件独立假设,通过计算后验概率实现分类的概率型监督学习模型

第十章

人工智能10.2人工智能核心技术——机器学习机器学习算法——无监督学习聚类聚类是无监督学习中最常见的任务之一,其目标是将数据划分为若干个簇(或类别),使得同一簇内的数据点尽可能相似,而不同簇之间的数据点尽可能不同。降维是无监督学习中的另一个重要任务,其目的是将高维数据映射到低维空间,同时尽可能保留数据的原始信息。概率模型估计概率模型估计通过假设数据服从某种概率分布,并利用数据来估计该分布的参数,核心在于构建一个能够描述数据生成过程的模型,并通过最大似然估计等方法来确定模型参数。无监督学习降维

第十章

人工智能10.2人工智能核心技术——机器学习机器学习算法——半(弱)监督学习和强化学习将大量的无类标签的样例加入到有限的有类标签的样本中一起训练来进行学习,期望能对学习性能起到改进的作用半监督学习的产生致力于解决智能体在复杂环境中如何做出最优决策以最大化累积奖励的问题,核心在于智能体与环境之间的动态交互过程强化学习

第十章

人工智能10.2人工智能核心技术——深度学习深度学习的定义深度学习模仿人脑的工作方式,通过构建类似神经网络的结构处理和分析数据深度学习的发展历程第一代神经网络第二代神经网络第三代神经网络

第十章

人工智能10.2人工智能核心技术——深度学习认识神经网络——人工神经网络网络结构神经网络组成结构:输⼊层:接收原始数据隐藏层:多层⾮线性变换输出层:⽣成预测结果权重:连接神经元之间的参数激活函数:引入非线性因素,使网络能够学习复杂的函数关系单层神经网络多层神经网络例:巴士票价预测前向传播:输入层:出发站、目的地站、出发日期和巴士公司输出层:预测的巴士票价出发日期对票价的影响显著,因此其对应的连接权重较大每个神经元均配备一个激活函数,用于将输入信号转换为输出信号

第十章

人工智能10.2人工智能核心技术——深度学习卷积神经网络(CNN)CNN是一种模拟生物视觉系统工作机制的深度学习架构,专门用于处理图像数据核心层结构卷积层:5x5卷积核提取局部特征池化层:降维保持特征不变性全连接层:整合特征进行分类特征提取过程卷积核在图像上滑动计算:边缘检测→纹理识别→物体部件→完整物体深层网络学习抽象语义特征

第十章

人工智能10.2人工智能核心技术——深度学习循环神经网络(RNN)和长短期记忆网络(LSTM)循环神经网络(RNN)

RNN是一种专门用于处理序列数据的神经网络模型。其核心特点是通过隐藏层的循环连接,能够捕获序列中的时间依赖关系。RNN的输入不仅依赖当前时间步的数据,还会结合前一时间步的隐藏状态,从而实现对序列信息的记忆和处理。RNN在许多领域有广泛应用,包括:自然语言处理、语音识别、时间序列预测、视频分析等。长短期记忆网络(LSTM)LSTM是一种特殊的循环神经网络(RNN),专门设计用于解决RNN中存在的长期依赖问题。LSTM通过其独特的“门”结构(输入门、遗忘门和输出门)来控制信息的流动,从而能够记住长期的信息。LSTM的应用非常广泛,例如在自然语言处理、语音识别和手写识别等领域。其变体包括双向LSTM和门控循环单元(GRU),这些变体在不同的应用场景中也表现出色。

第十章

人工智能10.2人工智能核心技术——深度学习循环神经网络(RNN)与长短期记忆网络(LSTM)对比对比维度RNNLSTM结构复杂度简单(单隐藏状态)复杂(三重⻔控系统)训练难度梯度消失严重,难收敛训练稳定,计算成本⾼适用场景短序列任务(<30步)长序列任务(文档/语音)序列任务性能短序列准确率85%长序列准确率提升>40%RNN(上)与STM(下)结构对比示意图

第十章

人工智能10.2人工智能核心技术——深度学习计算机视觉图像识别:ResNet在ImageNet上达到95%准确率目标检测:YOLO实现实时物体检测自动驾驶:特斯拉视觉系统处理多传感器数据多模态交互深度学习应用场景图文生成:DALL-E根据文本生成高质量图像视频理解:CLIP模型实现视频内容理解GPT4V:多模态模型处理图文混合输入自然语言处理语音助手:Siri/Alexa使用RNN处理语音指令机器翻译:Google翻译采用Transformer架构情感分析:LSTM分析社交媒体评论情感倾向行业案例医疗影像:CNN诊断糖尿病视网膜病变智能推荐:深度学习个性化推荐提升点击率30%工业质检:视觉检测系统降低缺陷漏检率

第十章

人工智能10.2人工智能核心技术——自然语言处理自然语言处理的定义让计算机理解、分析、生成人类语言,实现人与机器语言交互自然语言处理的框架

第十章

人工智能10.2人工智能核心技术——自然语言处理自然语言处理的四个基本任务——分词、词性标注、依存句法分析、命名实体识别负责将输入汉字序列切分成单词序列,在该例子中对应的输出是“我/爱/自然语言处理”。分词模块负责为分词结果中的每个单词标注一个词性,如名词、动词和形容词等。在该例子中对应的输出是“PN/VV/NR”。词性标注模块负责预测句子中单词与单词间的依存关系,并用树状结构来表示整句的句法结构。依存句法分析负责从文本中识别出具有特定意义的实体,如人名、地名、机构名、专有名词等。在该例子中对应的输出是“O/O/B”。命名实体识别

第十章

人工智能10.2人工智能核心技术——自然语言处理自然语言处理的层次理解—转化—生成起点第二层次第三层次第四层次最高层次专注于语音特征,目标是将语音信号转化为文本符号序列。它通过音位规则区分音素,识别音节及其对应的词素或词主要研究词语的切分和词性标注等词法特性。它旨在找出词汇的各个词素,从中获取语言学信息主要研究语句的语法结构和短语关系等句法特性。它通过对句子和短语的结构进行分析,找出词、短语等的相互关系以及各自在句中的作用。是理解句子或文本深层含义的过程。其目标是找出词义、结构意义及其结合意义,从而确定语言所表达的真正含义或概念。主要研究语言的使用、语境言外之意等语用特性。它的目标是理解语句在特定语境中的含义和作用,以及说话者的意图和态度。每个层次都有其特定的应用场景和价值在实际的自然语言处理任务中,需要根据具体需求选择合适的层次进行分析和处理

第十章

人工智能10.2人工智能核心技术——自然语言处理自然语言处理的流程自然语言处理(NLP)技术的核心在于将自然语言转化为计算机可读的形式并利用各种算法和模型进行语义理解、信息提取以及文本生成等工作

第十章

人工智能10.2人工智能核心技术——自然语言处理自然语言处理的流程020304050601分词英文通过空格或者标点符号,中文的分词会涉及例如未登录词问题、分词歧义问题、分词不一致,因此有各种不同分词的算法清洗对文本中无用的或者对理解文本没意义的字符进行清洗,如无用的标签、特殊符号、停用词、大写转小写等标准化在英文中进行标准化处理,将多个单词统一为同一个单词特征提取将标准化之后的词,表示为向量的形式。评估让模型对语料具备较好的泛化能力。常见的评估指标有:错误率、精度、准确率、精确度、召回率、F1衡量等建模使用传统机器学习模型(如KNN、SVM、NaiveBayes、决策树、GBDT、K-means等)或深度学习模型(如CNN、RNN、LSTM、Seq2Seq、FastText、TextCNN等)进行建模

第十章

人工智能10.2人工智能核心技术——计算机视觉计算机视觉的定义使计算机能够像人类一样通过视觉图像来感知、理解和解释外部世界请思考:若为盲人设计一套最基础的导盲系统,盲人过马路时系统摄像机拍摄了,导盲系统需要完成哪些视觉任务?

第十章

人工智能10.2人工智能核心技术——计算机视觉010203040506距离估计:计算输入图像中的每个点距离摄像机的物理距离目标检测和定位:发现感兴趣的目标并给出其位置和区域前背景分割和物体分割:将图像视频中前景物体所占据的区域或轮廓勾勒出来目标分类和识别:为图像视频中出现的目标分配其所属类别的标签场景分类和识别:根据图像视频内容对拍摄环境进行分类场景文字检测与识别:场景中的各种文字对导盲是非常重要的07事件检测与识别:对视频中的人、物和场景等进行分析,识别人的行为或正在发生的事件(特别是异常事件)

第十章

人工智能10.2人工智能核心技术——计算机视觉计算机视觉的五大技术图像分类目标检测图像处理总流程目标跟踪语义分析实例分割

第十章

人工智能10.2人工智能核心技术——计算机视觉计算机视觉的五大技术——图像分类未被分类的图像数据集①数据准备:收集一个包含N个图像的训练集,这些图像被标记为K个类别中的某一个。②模型训练:使用该训练集训练一个分类器,使其能够学习每个类别的特征。③性能评估:通过将分类器预测的类别标签与测试图像的真实标签进行比较,评估分类器的性能。分类步骤卷积神经网络(CNN)输入层:输入图像被送入网络,网络通过滑动窗口的方式逐步处理图像数据卷积层:每个节点只处理其邻近节点,随着卷积操作的进行,特征图逐渐收缩池化层:采用最大池化技术,用于降低特征图的空间维度,同时保留重要特征全连接层:在经过多层卷积和池化后,特征图被展平并输入到全连接层,最终输出类别概率

第十章

人工智能10.2人工智能核心技术——计算机视觉计算机视觉的五大技术——目标检测基于区域的卷积神经网络(R-CNN)缺点:训练速度慢、磁盘空间需求大和推理速度慢等改进(Fast-RCNN)改进(Faster-RCNN)在整幅图像上只运行一次CNN来提取特征,然后对区域建议进行分类和边界框回归,使用softmax层代替SVM,从而显著提高了检测速度通过引入区域提议网络(RPN)来替代选择性搜索算法。RPN能够快速地扫描图像,并输出可能包含目标对象的边界框建议及其置信度YOLO演进、SSD、R-FCN...

第十章

人工智能10.2人工智能核心技术——计算机视觉计算机视觉的五大技术——目标跟踪在特定场景中对一个或多个感兴趣对象进行连续跟踪的过程12生成算法通过生成模型描述目标的表观特征,并通过最小化重建误差来搜索目标,例如主成分分析(PCA)算法判别算法用于区分目标和背景,性能更稳健,已成为目标跟踪的主要手段,深度学习方法也属于这一范畴

第十章

人工智能10.2人工智能核心技术——计算机视觉计算机视觉的五大技术——语义分析与图像分类不同,语义分割不仅需要识别图像中的对象,还需要精确地确定每个对象的边界,因此需要对密集的像素进行预测eg:全卷积网络(FCN)FCN在网络内部采用了下采样和上采样技术下采样层被称为条纹卷积上采样层被称为反卷积eg:空洞卷积通过扩大卷积核的感受野,能够在不增加计算量的情况下捕获更大范围的上下文信息eg:DeepLab利用空洞卷积和多尺度特征融合,显著提高了分割的精度eg:RefineNet通过级联的细化模块,进一步改善分割结果的细节和边界精度

第十章

人工智能10.2人工智能核心技术——计算机视觉计算机视觉的五大技术——实例分割eg:MaskR-cnn不仅需要识别图像中的对象类别,还需要为每个对象实例生成精确的像素级掩码与语义分割不同,实例分割需要区分同一类别中的不同实例,这一任务的复杂性在于需要处理多个重叠物体、复杂背景,并且要准确确定对象的边界和彼此之间的关系通过增加一个分支来完成像素级分割此分支输出一个二进制掩码,表示给定像素是否属于目标对象的一部分该分支基于卷积神经网络特征映射的全卷积网络(FCN)引入了感兴趣区域对齐(RoIAlign)方法

第十章

人工智能10.2人工智能核心技术——知识图谱知识图谱的定义又称科学知识图谱,用各种不同的图形等可视化技术描述知识资源及其载体,挖掘、分析、构建、绘制和显示知识及它们之间的相互联系知识图谱示例知识图谱组成实体:概念:内容:属性:关系:具有可区别性且独立存在的某种事物具有同种特性的实体构成的集合通常作为实体和语义类的名字、描述、解释等描述资源之间的关系,即知识图谱中的关系把k个图节点(实体、语义类、属性值)映射到布尔值的函数

第十章

人工智能10.2人工智能核心技术——知识图谱知识图谱的技术架构

获取知识的资源对象大体可分为结构化、半结构化和非结构化三类:结构化数据是指知识定义和表示都比较完备的数据(DBpedia和Freebase等已有知识图谱、特定领域内的数据库资源等)半结构化数据是指部分数据是结构化的,但存在大量结构化程度较低的数据(百科类网站、一些领域的介绍和描述类页面)非结构化数据则是指没有定义和规范约束的“自由”数据(自然语言文本、音视频等)虚线框内的部分为知识图谱的构建过程,也包含知识图谱的更新过程数据抽取知识抽取知识融合知识加工

第十章

人工智能10.2人工智能核心技术——知识图谱知识图谱的构建自顶向下→自底向上自

下自

上借助百科类网站等结构化数据源,从高质量数据中提取本体和模式信息,加入到知识库里。借助技术手段,从公开采集的数据中提取出资源模式,选择其中置信度较高的信息,加入到知识库中。如:Google-KnowedgeVault,微软-Satori如:Freebase

第十章

人工智能10.2人工智能核心技术——知识图谱知识图谱的构建——知识抽取从各种类型的数据源中提取出实体、属性以及实体间的相互关系,在此基础上形成本体化的知识表达实体抽取实体抽取,也称为命名实体识别(NER),是指从文本数据集中自动识别出命名实体

第十章

人工智能10.2人工智能核心技术——知识图谱知识图谱的构建——知识抽取从各种类型的数据源中提取出实体、属性以及实体间的相互关系,在此基础上形成本体化的知识表达文本语料经过实体抽取之后,得到的是一系列离散的命名实体。为了得到语义信息,还需要从相关语料中提取出实体之间的关联关系,通过关系将实体联系起来,才能够形成网状的知识结构。这就是关系抽取需要做的事关系抽取

第十章

人工智能10.2人工智能核心技术——知识图谱知识图谱的构建——知识抽取从各种类型的数据源中提取出实体、属性以及实体间的相互关系,在此基础上形成本体化的知识表达属性抽取属性抽取的目标是从不同信息源中采集特定实体的属性信息,如针对某个公众人物,可以从网络公开信息中得到其昵称、生日、国籍、教育背景等信息

第十章

人工智能10.2人工智能核心技术——知识图谱知识图谱的构建——知识融合在获得新知识之后,需要对其进行整合,以消除矛盾和歧义实体链接知识融合是指对于从文本中抽取得到的实体对象,将其链接到知识库中对应的正确实体对象的操作。其基本思想是首先根据给定的实体指称项,从知识库中选出一组候选实体对象,然后通过相似度计算将指称项链接到正确的实体对象。实体链接知识融合主要分为两种:合并外部知识库,主要处理数据层和模式层的冲突;合并关系数据库,有RDB2RDF等方法。知识融合

第十章

人工智能10.2人工智能核心技术——知识图谱知识图谱的构建——知识加工经过融合的新知识,经过质量评估,合格的部分才能加入到知识库中本体抽取:实体并列关系相似度计算

实体上下位关系抽取

本体的生成本体(ontology)是指工人的概念集合、概念框架,如“人”、“事”、“物”等本体可以采用人工编辑的方式手动构建(借助本体编辑软件),也可以以数据驱动的自动化方式构建本体

第十章

人工智能10.2人工智能核心技术——知识图谱知识图谱的构建——知识加工经过融合的新知识,经过质量评估,合格的部分才能加入到知识库中知识推理进一步完善知识图谱3类主要算法

第十章

人工智能10.2人工智能核心技术——知识图谱知识图谱的应用10.3大语言模型第十章人工智能10.3.1生成式人工智能的定义

生成式人工智能(GenerativeAI)是一种能够自主创造新内容的人工智能技术。它通过学习大量现有数据的模式和规律,生成全新的、类似人类创作的文本、图像、音频、视频、代码等内容。与传统的“判别式AI”(如分类、识别)不同,生成式AI的核心目标是模仿创造力,而不仅仅是分析或决策。第十章人工智能10.3.1生成式人工智能的核心技术扩散模型(DiffusionModel)通过模拟“噪声逐步扩散与逆扩散”的过程生成高质量数据(如图像、音频等)。其核心思想是先对数据逐步加噪破坏,再学习如何逆向去噪重建,最终实现从随机噪声中生成逼真内容。是一种基于海量文本数据训练的深度学习模型,能够理解、生成和推理自然语言。它通过捕捉语言中的统计规律和语义关系,实现对话、创作、翻译等多种任务。通过编码器将输入数据映射到潜在空间,再通过解码器从潜在空间重构数据。VAE通过学习数据的概率分布,能够生成多样化的数据样本。大语言模型(LargeLanguageModel,LLM)变分自编码器(VAE)生成对抗网络(GANs)由生成器(Generator)和判别(Discriminator)组成,通过对抗训练生成高质量的数据样本。生成器试图生成逼真的数据,而判别器则试图区分生成数据和真实数据。第十章人工智能10.3.1生成式人工智能的核心技术

技术原理典型应用生成对抗网络生成器和判别器互相博弈生成数据人脸生成、图像修复扩散模型利用逐步去噪,从随机噪声生成高质量内容图像修复、跨模态生成大语言模型训练海量文本,利用概率预测生成连贯文本智能助手、机器人变分自编码器数据压缩为潜在空间,再解码生成新样本数据增强、3D模型生成第十章人工智能10.3.1生成式人工智能的应用图像生成01能够基于复杂的算法模型,以及对海量图像数据的学习与分析,生成逼真的图像、艺术作品或设计草图。文本生成凭借其强大的语言处理能力与独特的算法逻辑,广泛且深入地渗透到多个行业场景之中,能精准、高效地生成自然语言文本,如新闻文章、诗歌、代码等。02音频生成03能依据指令创造出风格多样的音乐、生动的语音以及极具沉浸感的音效。视频生成04借助深度学习和复杂算法,它能够按照用户多样化的需求,高效生成各类短视频或动画内容,极大地改变了视频内容的生产模式与传播生态。第十章人工智能10.3.1生成式人工智能的应用跨模态生成05能够打破不同数据模态间的壁垒,依据一种模态的数据描述智能化地生成另一种模态的内容,如:根据文本描述生成图像,或根据图像生成文本。第十章人工智能10.3.1生成式人工智能的优势创造性:能够生成全新的内容,为艺术、设计、娱乐等领域提供创新工具。生成式人工智能能够创造全新的内容,而不仅仅是分析或分类现有数据。高效性:自动化生成内容,减少人工成本和时间成本。生成式人工智能可以自动化生成内容,显著提高效率并降低成本。多样性:能够生成多样化的数据样本,满足不同场景的需求。生成式人工智能能够生成多样化的数据样本,满足不同场景的需求。跨模态能力:生成式人工智能能够实现跨模态的内容生成,即将一种类型的数据转换为另一种类型。例如:文本到图像、图像到文本,音频到文本、文本到代码。第十章人工智能10.3.1生成式人工智能的优势数据增强与补全:数据增强:生成多样化的图像、文本或音频数据,提高机器学习模型的泛化能力。数据补全:修复缺失或不完整的数据,如修复图像中的缺失部分或补全文本中的缺失段落。个性化与定制化:个性化推荐,生成符合用户兴趣的推荐内容。定制化设计,生成符合用户需求的设计方案或产品原型。第十章人工智能10.3.1生成式人工智能面临的挑战数据依赖性数据稀缺,某些领域(如医学、法律)的数据难以获取或标注成本高。数据偏差,训练数据可能存在偏差,导致生成内容带有偏见或不公平性。数据隐私,使用敏感数据(如个人隐私信息)可能引发隐私泄露问题。第十章人工智能10.3.1生成式人工智能面临的挑战计算资源需求硬件成本,高性能GPU、TPU等硬件设备价格昂贵。能源消耗,训练大规模生成式模型需要消耗大量电力,对环境造成负担。实时性,某些应用场景(如实时视频生成)对计算效率要求极高。第十章人工智能10.3.1生成式人工智能面临的挑战伦理与道德问题虚假信息,生成虚假文本、图像或视频,用于传播谣言或误导公众。伪造内容,生成伪造的音频、视频,用于欺骗或诽谤。

知识产权,生成内容可能侵犯他人的知识产权或版权。第十章人工智能10.3.2大模型的发展历程

大模型发展历经三个阶段,分别是萌芽期、沉淀期和爆发期。

萌芽期(1950-2005年):这一时期以CNN为代表的传统神经网络模型发展,1956年“人工智能”概念提出,AI发展从基于小规模专家知识逐步发展为基于机器学习。1980年,卷积神经网络的雏形CNN诞生,1998年现代卷积神经网络的基本结构LeNet-5诞生,机器学习方法由浅层机器学习模型向深度学习模型转变,为自然语言生成、计算机视觉等领域奠定基础。特点是处于人工智能发展的早期探索阶段,传统神经网络模型为后续大模型发展提供了一定的技术积累,但模型规模和性能相对有限。第十章人工智能10.3.2大模型的发展历程

沉淀期(2006-2019年):以Transformer为代表的全新神经网络模型兴起。2013年Word2Vec诞生,提出“词向量模型”。2014年GAN诞生,标志着深度学习进入生成模型研究新阶段。2017年Google提出Transformer架构,成为大模型预训练算法架构基础。2018年OpenAI发布GPT-1,Google推出BERT,预训练大模型成为自然语言处理领域主流。此阶段特点是Transformer架构的出现奠定了大模型的算法基础,预训练大模型开始受到关注,模型性能得到显著提升,为大模型的爆发式发展做好了技术准备。第十章人工智能10.3.2大模型的发展历程

爆发期(2020年-至今):以GPT为代表的预训练大模型迅速发展。2020年OpenAI推出GPT-3,参数规模达1750亿,在零样本学习任务上性能大幅提升。2022年ChatGPT搭载GPT3.5问世,凭借强大的自然语言交互与多场景内容生成能力引爆互联网。2023年GPT-4发布,具备多模态理解与多类型内容生成能力。同时,国内外众多科技企业和科研机构纷纷发布自研大模型,如百度文心一言、豆包、DeepSeek等。这一时期的特点是大数据、大算力和大算法完美结合,广泛应用于各个领域,推动人工智能进入新的发展阶段。第十章人工智能10.3.2大模型的发展历程第十章人工智能10.3.2大模型的发展历程

大模型的发展经历了多个关键节点,逐步推动了人工智能技术的突破与应用。从早期的神经网络探索到如今的千亿级参数模型,这一演进过程不仅显著提升了机器理解、生成和推理的能力,更深刻改变了人机交互的方式,重塑了多个行业的智能化进程。第十章人工智能10.3.2大语言模型概述

大语言模型(LargeLanguageModels,LLMs)是一种基于深度学习的人工智能模型,专门用于处理和理解自然语言。它们通过在大规模文本数据上进行训练,学习语言的统计规律、语义关系和上下文信息,从而能够完成各种自然语言处理(NLP)任务,如文本生成、翻译、问答、摘要等。例如,给定句子“今天天气很___”,大语言模型可以预测下一个词可能是“好”或“热”。第十章人工智能10.3.2大语言模型概述上下文理解能力:大模型具有更强的上下文理解能力,能够理解更复杂的语意和语境。这使得它们能够产生更准确、更连贯的回答。语言生成能力:大模型可以生成更自然、更流利的语言,减少了生成输出时呈现的错误或令人困惑的问题。学习能力强:大模型可以从大量的数据中学习,并利用学到的知识和模式来提供更精准的答案和预测。这使得它们在解决复杂问题和应对新的场景时表现更加出色可迁移性高:学习到的知识和能力可以在不同的任务和领域中迁移和应用。这意味着一次训练就可以将模型应用于多种任务,无需重新训练。

大模型具有更强的泛化能力和表达能力。第十章人工智能10.3.2大语言模型的训练过程

大语言模型的训练分为预训练和微调两个阶段。在预训练阶段,模型通过海量无标注文本(如网页内容、书籍、学术论文等)进行自监督学习,掌握语言的基本规律与知识表达。在微调(Fine-tuning)阶段,模型基于预训练获得的知识,通过特定领域或任务的有标注数据进一步优化。两阶段协同实现了模型从“通用知识库”到“任务专家”的跨越。第十章人工智能10.3.2大语言模型的训练过程

以一家电商公司希望利用大语言模型自动生成商品描述为例。他们选择基于DeepSeek模型开发应用,开发过程分为预训练和微调两个阶段。

在预训练阶段,DeepSeek团队使用海量的通用文本数据对模型进行训练。这些数据来源广泛,涵盖新闻资讯、文学作品、网络论坛等内容。通过自监督学习,模型学习到通用的语言知识,掌握语言的语法、语义和表达模式,拥有强大的语言理解和生成能力,成为一个通用的大语言模型。

电商公司接入该模型后,进入微调阶段。公司收集自家平台上各类商品的详细信息,如名称、特点、功能、使用方法等,将其整理成训练数据集。借助LlamaFactory这一低代码大语言模型训练平台,电商公司把商品数据集输入模型,对模型进行微调。训练过程中,模型在原有通用语言能力的基础上,学习商品描述的特定表达方式和专业术语,从而能生成贴合电商场景的商品描述。

经过微调的DeepSeek模型,生成的商品描述既能突出商品特色,又符合电商平台的语言风格,显著提升了电商公司商品描述的生成效率与质量。第十章人工智能10.3.3生成式人工智能基本原理

生成式人工智能(GenerativeAI)的基本原理是通过学习数据分布,构建能够生成与训练数据相似的新内容的模型。其核心目标是让模型从输入数据中捕捉潜在的模式、结构和关系,并利用这些知识创造新的、合理的输出。第十章人工智能10.3.3生成式人工智能的流程

以一家自媒体公司借助生成式AI创作短视频文案为例:自媒体公司明确任务是文本生成,要创作适合短视频的文案,抓住观众注意力。

首先进行任务规划与模型准备,明确文案创作需求并选用Transformer架构的大语言模型;其次完成数据工程,收集爆款文案数据进行清洗、分词等预处理;然后开展模型训练与优化,通过参数调整让模型掌握优质文案特征,经评估达标后部署至创作平台;最后实现人机协同创作,使用时输入主题、风格等提示词,模型实时生成初稿文案,经人工润色优化后交付视频团队制作。第十章人工智能10.3.3如何解决生成式人工智能面临的问题现实世界的数据质量参差不齐借助数据清洗技术去除噪声与错误数据,并对数据去重标注数据,耗时费力采用主动学习等策略挑选最具价值的数据标注以提升标注效率收集和使用数据时还可能涉及个人隐私信息运用联邦学习等技术,在确保数据隐私不泄露的情况下开展模型训练,或者对数据进行加密、匿名化处理。第十章人工智能10.3.3如何解决生成式人工智能面临的问题在模型训练中,训练时间延长且对硬件设备要求颇高可采用分布式训练、模型并行等技术,并借助云计算强大计算资源加速训练进程面临过拟合问题通过L1和L2正则化、Dropout等正则化方法以及增加训练数据多样性来防止过拟合陷入局部最优解运用Adagrad、Adadelta、RMSProp等先进优化算法,或采用预热、学习率调整等策略,助力模型更好地收敛,优化训练过程第十章人工智能10.3.4提示词工程原理及技巧

提示词工程是通过设计和优化输入提示(Prompt),以引导大语言模型(LLM)生成更准确、相关或符合特定需求的输出的技术。提示词工程的核心原理是利用模型的上下文理解能力,通过精心设计的提示词激发模型的潜力。第十章人工智能10.3.4提示词工程的核心原理上下文学习(In-ContextLearning)01大语言模型能够根据输入提示词理解任务需求,并生成相应的输出。模型通过分析提示词中的上下文信息,推断任务目标并生成符合预期的结果。少样本学习(Few-shotLearning)通过提供少量示例,模型可以快速适应新任务。模型从示例中学习任务模式,并应用于新输入。02第十章人工智能10.3.4提示词工程的核心原理零样本学习(Zero-shotLearning):03在没有示例的情况下,仅通过任务描述即可生成结果。模型根据任务描述推断任务目标,并生成相应输出。任务引导04通过提示词明确任务目标,引导模型生成特定内容。提示词中的指令和约束条件帮助模型理解任务需求。第十章人工智能10.3.4提示词工程的核心原理角色扮演05让模型扮演特定角色,生成符合角色特点的内容。提示词中的角色描述帮助模型调整生成风格。第十章人工智能10.3.4提示词工程的技巧

明确指令:在提示词中明确任务要求,避免模糊描述。第十章人工智能10.3.4提示词工程的技巧

结构化提示词:使用清晰的格式组织提示词,如列表、步骤、问题-答案对等。第十章人工智能10.3.4提示词工程的技巧

约束条件:在提示词中加入约束条件,限制生成内容的范围或格式。第十章人工智能10.3.4提示词工程的技巧

多轮对话:通过多轮对话逐步引导模型生成更精确的结果。第十章人工智能10.3.4提示词工程面临的挑战提示词设计精确性至关重要;需重视上下文信息的平衡;在少样本学习中,选择合适示例。模型理解模型难以通过单一提示词理解全部需求;在处理长文本时,可能无法有效捕捉长距离依赖关系,致使生成内容不连贯;在处理多模态任务(如文本与图像结合)时,也可能无法准确理解提示词。生成结果存在不确定性,相同提示词可能产生不同输出,使结果难以预测,且生成内容质量参差不齐,难以保证每次输出都符合要求。伦理与安全提示词存在被恶意利用的风险,可能生成虚假信息、仇恨言论等有害内容,同时提示词中若包含敏感信息,还可能导致隐私泄露。第十章人工智能10.3.5生成式人工智能应用领域

生成式人工智能的应用领域非常广泛,涵盖了自然语言处理、计算机视觉、语音识别、推荐系统、自动驾驶、金融风控、工业制造等多个领域。第十章人工智能10.3.5自然语言处理可以用于文本生成文章、小说、新闻等的创作。在短时间内处理大量的文本,实现文本的大批量自动化即时翻译,大大缩短翻译周期。企业将其集成到客服系统中,当客户提出问题时,能够及时给予回应,提高客户满意度。生成式人工智能可以分析社交媒体上的用户言论,如微博、推特等平台上的文本内容,理解用户对特定话题、产品、品牌或事件的情感倾向。作为聊天机器人与用户进行对话,提供娱乐、陪伴或信息查询等服务。文本生成翻译系统问答系统情感分析语言生成第十章人工智能10.3.5计算机视觉识别图像中的物体和场景。生成式人工智能模型可以学习到图像的丰富特征,这些特征可以作为图像分类的重要依据。能够定位并识别图像中的特定物体,生成式模型可以根据图像的内容生成可能包含目标的建议框,为目标检测算法提供初始的检测区域。风格迁移、图像超分辨率增强。能学习并模仿各种艺术流派的风格,还可将不同风格元素融合进行创新。进行安全验证和身份识别。对于受损、模糊或部分缺失的人脸图像,生成式人工智能可以尝试进行重建和修复。辅助医生诊断疾病。学习正常医学影像的特征分布,通过对比输入的影像与正常模型的差异,检测出可能存在的病变区域,并进行定位。图像分类目标检测图像生成人脸识别医学影像分析第十章人工智能10.3.5语音识别通过学习大量的语音数据,可以实现高质量的跨语言翻译和语音识别。对于一些资源较少的小语种或方言,生成式人工智能可以通过学习已有的相关数据和语言模型,生成更多的语音样本和文本数据,用于训练语音识别模型,提高对这些语言和方言的识别能力。生成式人工智能能够根据输入的文本信息,合成自然流畅的语音。除了基本的语音合成,生成式人工智能还可以根据文本的情感内容和用户的需求,合成具有不同情感色彩的语音。语音识别语音合成第十章人工智能10.3.5推荐系统

生成式人工智能可以用于个性化推荐、广告推荐等任务。通过分析用户的历史行为和兴趣偏好,可以为用户提供个性化的推荐服务。

还能够实时监测用户的行为变化,并相应地调整推荐策略。当用户的兴趣发生转移或出现新的行为模式时,模型会迅速学习并更新用户画像,从而及时为用户提供符合其当前兴趣的推荐内容。第十章人工智能10.3.5自动驾驶

生成式人工智能可以用于自动驾驶中的感知、决策等任务。通过学习大量的驾驶数据,大模型可以实现对车辆周围环境的感知和识别,以及进行决策和控制,提高自动驾驶的安全性和效率。在遇到异常情况时,生成式人工智能可以根据具体情况生成相应的应急策略。第十章人工智能10.3.5金融风控

生成式人工智能可以用于信用评估通过分析大量的金融数据,大模型可以评估用户的信用等级和风险水平。生成式人工智能可以整合多源数据,包括客户的基本信息、交易记录、消费行为、社交媒体数据等,构建全面且细致的客户画像。

还能够学习正常交易行为的模式和特征,通过对比实时交易数据与学习到的模式,及时发现异常交易行为,这些异常可能暗示着欺诈行为的发生。第十章人工智能10.3.5工业制造

生成式人工智能可以用于质量控制,分析大量的生产历史数据,包括工艺参数、设备状态、产品质量等信息,建立起工艺参数与产品质量之间的复杂关系模型。

可以用于故障诊断,学习设备在正常运行和不同故障状态下的各种特征信号,如振动、温度、电流等,建立故障诊断模型。当设备出现异常时,系统能够根据实时监测到的数据,快速准确地判断出设备的故障类型和位置。第十章人工智能10.3.6国产大模型

近年来,随着数字经济的蓬勃发展以及国家对人工智能技术的大力支持,AI领域取得了突破性进展,国产大模型如雨后春笋般不断涌现。大模型图标访问地址关键突破点Manushttps://manus.im/自主任务执行DeepSeek/多领域创新豆包/多模态突破文心一言/welcome多能力提升通义千问/product/beebot大规模训练Kimi/搜索推理优第十章人工智能10.3.6国产大模型

(1)Manus基于多智能体系统(Multi-Agent),调用Claude3.5、DeepSeek等大模型,通过虚拟机隔离环境执行任务。覆盖办公、教育、金融、电商等领域,Manus不仅能提供建议,还能独立完成从规划到落地的全流程,支持旅行规划、保险政策对比、代码编写、市场调研等。

(2)DeepSeek是深度求索公司推出的多模态大语言模型,基于大规模预训练和微调技术,在自然语言处理和多模态理解生成方面表现卓越。DeepSeek就像人脑,从问题到结果,深度思考后,逐步分析出答案。当你提出旅游攻略问题时,他给出的回答甚至会基于你的航班时间,考虑路上的精力是否充足,从而给出车上补觉等计划。是一款面向多场景的通用大语言模型,支持文本生成、理解、翻译、问答等多种任务。第十章人工智能10.3.6国产大模型

(3)豆包是字节跳动推出的新一代大语言模型产品,专注于中文场景的深度优化与高效落地应用。作为字节AI生态的核心组成部分,豆包基于混合专家(MOE)架构,通过动态激活机制显著降低计算成本,同时采用INT4量化技术实现模型的高效压缩,使其能够在移动端流畅运行。该模型在针对电商、法律、医疗等垂直领域进行专项优化,在专业术语处理和本土化表达上具有明显优势。

(4)文心一言(ERNIEBot)在中文理解和生成方面表现出色。ERNIE(EnhancedRepresentationthroughKnowledgeIntegration)是一种结合知识图谱的预训练语言模型,旨在增强语义理解能力。文心一言支持文本生成、理解、翻译等多种任务。在中文任务上表现优异,能够更好地理解中文语言和文化背景。第十章人工智能10.3.6国产大模型

(5)阿里巴巴-通义千问是阿里巴巴达摩院在自然语言处理领域的重要成果,基于其在大数据和人工智能领域的技术积累。该模型旨在通过大规模预训练和微调,提供高效、智能的语言理解和生成能力。通义千问是一款面向多场景的通用大语言模型,支持文本生成、理解、翻译、问答等多种任务。

(6)Kimi以其卓越的超长上下文处理能力和高效推理架构在AI领域崭露头角。该模型通过创新的动态NTK感知缩放技术和层次化注意力机制,可稳定处理长达200Ktokens的上下文,在长文档理解、代码分析等任务中保持高精度,关键信息召回率超过90%。采用混合专家模型(MOE)设计,在保持千亿级参数规模的同时,通过稀疏激活显著降低推理成本,并支持INT4量化实现移动端部署。应用于专业文献分析、复杂逻辑推理等场景,展现了AI技术在长文本理解和知识密集型任务中的突破性进展。第十章人工智能10.3.6国产大模型技术层面原生创新不足:部分国产模型采用国外开源架构训练,自主创新基础不牢。应用层面行业专业知识理解有限:对工业等复杂行业的专业知识理解不够深入。工业场景应用门槛高:工业场景多样且复杂,增加了人工智能赋能的难度,需要解决模型与实际生产环境的适配问题。商业层面盈利模式不清晰:许多企业尚未找到可盈利的商业模式,面临较大生存压力。市场竞争激烈:“百模大战”使得市场竞争白热化,真正有竞争力的模型相对较少。数据层面数据质量和多样性:需要大量高质量、多样化的数据来训练模型。数据隐私和安全:在数据收集、存储和使用过程中,防止数据泄露和滥用。10.4国产人工智能与自主复兴之路

第十章

人工智能10.4国产人工智能与自主创新之路

我国人工智能产业历经六十余年从学术萌芽到全球引领的跨越式发展,现已形成“政策驱动、企业创新、学术引领、生态共建”的协同格局。在政策层面,从“三步走”战略到“人工智能+”行动,国家战略持续赋能;在技术层面,从专家系统到生成式AI,大模型、硬件协同与行业落地齐头并进;在应用层面,从实验室走向千行百业,智能终端与行业大模型重塑生产生活范式。以下我国人工智能的五个发展阶段:

第十章

人工智能10.4国产人工智能与自主创新之路

1956年,达特茅斯会议首次提出“人工智能”(ArtificialIntelligence)概念,标志着AI作为独立学科的诞生。然而,受中苏关系恶化及苏联批判“控制论”为“伪科学”的影响,我国AI研究几乎陷入停滞。直至1978年全国科学大会提出“科学技术现代化”,AI研究才逐步解禁,开启本土化探索。这一阶段,国内学者通过国际期刊和会议接触前沿理论,尽管受限于技术封锁,但为后续发展奠定了基础。

第十章

人工智能10.4国产人工智能与自主创新之路

探索阶段是中国人工智能发展的起步期,主要特点是引进国外技术与理论,通过留学交流、学术出版和高校研究积累初步经验。在政策尚未系统支持的背景下,学术界凭借有限资源逐步构建人工智能研究的基础框架,为后续的发展奠定了理论和人才储备。1981年中国人工智能学会成立,推动学术交流。这一阶段,我国人工智能研究处于学术萌芽期,受国际政治环境影响较大,但国内学者仍通过国际期刊和会议接触前沿理论,为后续发展奠定基础。1987年,清华大学出版社出版国内首部人工智能专著《人工智能及其应用》,系统总结国外研究成果。此时,我国人工智能研究从理论引进转向技术积累,逐步形成学术共同体。

第十章

人工智能10.4国产人工智能与自主创新之路

突破阶段标志着我国人工智能从初步积累走向实质性进展。技术上,神经网络等方法得到推广;政策上,国家层面开始关注并推动人工智能发展。

2006年863计划将智能机器人等列为重点推动技术攻关,2014年习近平总书记提出相关要求后政策支持加大,我国人工智能研究从学术探索转向国家战略,高校与科研机构在机器学习等领域取得突破,为产业应用奠基,如清华大学在计算机视觉等领域有国际领先成果。​

第十章

人工智能10.4国产人工智能与自主创新之路

崛起阶段是我国人工智能由科研突破走向全面产业化的重要时期。国家政策高频出台,产业规模快速扩张,技术与应用深度融合。政策与产业双轮驱动:2017年国务院提出“三步走”AI战略,2023年核心产业规模1751亿元、长三角京津粤港澳协同发展,2025年AI服务器出货量预计再增28%。企业成果显著:华为推出NPU芯片至昇腾910B(1024TFLOPS),支撑全场景智慧;百度IDL十年深耕,文心4.5/X1带动智能云收入增26%,Apollo自动驾驶累计测试1亿公里;字节豆包、DeepSeek-V3、商汤安防医疗影像、讯飞星火翻译等多领域突破,共同加速中国AI生态繁荣。​

第十章

人工智能10.4国产人工智能与自主创新之路

创新阶段以大模型与硬件协同创新为核心,推动AI技术从实验室迈向产业应用,构建“技术突破-行业落地-生态构建”的闭环发展模式。在技术创新层面,清华大学提出的“光谱卷积神经网络(SCNN)”芯片架构,通过光电子计算结合实现无相干自然光的片上边缘计算,使数据吞吐量降低96%;华为发布的昇腾920芯片支持万亿参数大模型训练,算力密度较上一代提升40%。行业应用方面,广东省已发布8个行业大模型,其中广东知业的精益人工智能平台将半导体封装行业产能提升4%,博依特制浆造纸工艺大模型帮助降低4%的制造成本。此外,DeepSeek推出的DeepSeek-R2大模型

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论