人工智能通识教程 课件 -第1章 绪论_第1页
人工智能通识教程 课件 -第1章 绪论_第2页
人工智能通识教程 课件 -第1章 绪论_第3页
人工智能通识教程 课件 -第1章 绪论_第4页
人工智能通识教程 课件 -第1章 绪论_第5页
已阅读5页,还剩126页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

人工智能导论

第1章

绪论IntroductiontoArtificialIntelligenceCONTENTS目录01

初识人工智能02

人工智能中的计算思维03

人工智能硬件基础04

人工智能网络基础05

AI伦理概述本章内容导图初识人工智能01初识人工智能

人工智能定义多学科交叉,模拟人类智能,涵盖感知、学习、推理与决策。发展历程经历三次浪潮,形成三大学派,广泛应用于医疗、金融等多领域。标志事件开启机器战胜人类先河01国际象棋世界棋王加里·卡斯帕罗夫与IBM的“深蓝”计算机于1996年和1997年进行的两场比赛。总比分4:2,人胜利战胜李世石,完虐柯洁022016年3月,AlphaGoPK李世石,最终比分:4:1。2017年5月,AlphaGoPK柯洁,最终比分:3:0。大语言模型爆发03大语言模型(LLM)是AI爆发的核心标志,通过千亿级参数实现跨任务通用智能,推动AI从感知迈向认知智能催生智能客服、代码生成等千亿级新业态,同时开源生态加速技术普惠与产业重构人类与AI机器人会代替人类吗?今天,人类害怕的是被机器人所取代——10年后,人工智能将取代80%的翻译、记者、助理......早期,人类害怕的是机器人起兵造反,将人类杀个片甲不留。——1976年上译《未来世界》电影低成本、高性能、开源的Deepseek人工智能概述:人工智能的基本概念

人工智能的定义人工智能是计算机科学分支,模拟、延伸和扩展人类智能行为,使机器具备感知、学习、推理等能力,高效完成需人类智能的任务。人工智能概述:人工智能的基本概念人工智能技术体系

人工智能概述AI模拟、延伸人类智能,使机器具感知、理解、学习、决策能力,核心技术包括知识表示、机器学习、感知、行为控制。

知识表示与推理构建智能系统知识底座,将现实世界知识转换为计算机可识别、存储、处理形式,需兼顾表示能力、理解性、访问性、扩展性。

机器学习AI智能关键路径,利用数据驱动的深度学习、强化学习算法,让机器自主学习规律,支撑视觉、语言处理、推荐系统应用。

机器感知通过计算机视觉、语音识别技术模拟人类感知,实现图像、视频、文本、语音理解,为机器与外界交互提供基础。

行为控制与交互通过算法将决策转化为具体行动,如自动驾驶、多智能体协作,实现机器与环境动态适配与任务执行。人工智能的特征1)感知与交互能力能力

感知与交互AI通过视觉、听觉等感知世界,理解自然语言,实现人机高效沟通,视觉与听觉占主导,分别获取80%和10%的外界信息。

人工智能特征感知是获取知识前提,智能活动基础,机器感知研究聚焦机器视觉与听觉,模拟人类信息获取方式。人工智能概述:人工智能的特征

2)记忆与思维能力记忆存储外部信息和思维产生的知识,思维处理记忆信息,是获取和运用知识求解问题的根本途径,可分为逻辑、形象及顿悟思维。

3)学习与适应能力学习与适应能力是人工智能核心驱动力,AI从数据提取规律,优化算法并自适应调节演化;学习是人的本能,通过与环境作用积累知识适应变化,方式多样。

4)行为能力决策与推理能力决策与推理能力是人工智能智能行为的体现,AI基于逻辑规则和概率推理分析复杂信息并自主决策。制造智能机器实现机器智能人工智能概述:人工智能的产生与发展人工智能的诞生

人工智能诞生1956年达特茅斯会议,首次提出"人工智能",标志领域诞生,成独立学科,被视为"AI元年".人工智能定义用人工方法使机器实现智能,目标是让机器具备人类认知、思考与学习能力.约翰·麦卡锡(JohnMcCarthy)——符号主义的代表人,1971年图灵奖获得者马文·明斯基(MarvinLeeMinsky)——1969年图灵奖获得者诺伯特·维纳(NorbertWiener)——第一代通用计算机701主设计师克劳德·香农(ClaudeElwoodShannon)——信息论之父人工智能的产生与发展发展的三次浪潮

人工智能概述历经三次浪潮,从知识编码至自主学习,跨越人工规则至数据驱动,终达特征自提,展现智能跃迁。

第一次浪潮1956-1980年,知识驱动期,专家系统模拟决策,如MYCIN,依赖静态知识库,受限于人工规则,场景适应性差。

第二次浪潮1980-2010年,数据驱动期,转向机器学习,统计学习优化参数,处理结构化数据,受限算法、数据、算力,认知能力待突破。

第三次浪潮2010年至今,深度学习主导,多层网络自动学习,处理非结构化数据,实现语义理解,但仍存解释性、数据依赖、通用性瓶颈。人工智能的产生与发展博弈领域的突破

01人工智能发展历程标志性事件为深蓝胜卡斯帕罗夫,AlphaGo胜李世石,展现AI从规则执行到智能决策进化。

02博弈领域突破AI在国际象棋、围棋、德州扑克中胜人类,如AlphaGo、DeepStack,体现计算能力与算法优化进步。人工智能的产生与发展各国发展战略

人工智能战略各国视AI为战略重心,竞逐主导权,欧盟投450亿,美设专委,中国2024年入政报,2025年强AI+行动。中国AI布局中国构建全链体系,领航大模型、专利、生成AI服务,国务院规划三阶段目标,六大行动,八基支撑。人工智能的三大学派

人工智能三大学派符号主义、连接主义、行为主义,各自独立又互补,共同促进AI理论和技术进步。人工智能的三大学派

符号主义学派符号主义认为AI起源于数理逻辑,人类认知的基本元素是符号,认知过程是符号表示上的一种运算。智能本质是符号操作与逻辑推理。符号主义学派擅长结构化问题,弱于非结构化数据和常识推理,代表有专家系统和自动定理证明。

连接主义学派连接主义源于仿生学,人类认知的基本元素是神经元。认知过程是神经元的连接和计算过程。连接主义学派擅长处理非结构化数据,依赖大量训练数据,存在“黑箱”问题,典型技术有深度学习。人工智能的三大学派:行为主义学派行为主义核心观点行为主义定义认为智能起源于控制论,源于对外界复杂环境的适应,而不是表示和推理。强调智能通过环境交互进化,感知-动作循环为核心。行为主义应用适用于动态环境如机器人控制、游戏,利用强化学习,但初期训练成本高,复杂任务学习效率低。人工智能的三大学派:行为主义学派AI发展主流趋势AI发展主流是学派综合,现代AI系统常融合连接主义、行为主义、符号主义等多学派优势,支撑复杂智能任务实现。人工智能与其他学科

人工智能目的机器替代或增强人类智能,执行语音识别、图像分类,自主学习优化策略。

人工智能技术本质多学科交叉产物,以计算机科学、数学为基础,融合心理学、神经科学,形成类人智能技术体系。人工智能与其他学科:计算机科学-基础支撑与核心分支计算机科学与人工智能的关系

计算机科学与AI关系计算机科学为AI提供算法、数据结构基础,如Python编程、数组、图存储,支撑AI发展。

AI算法实现通过优化算法复杂度,如将指数问题转为多项式,使用搜索、排序算法解决智能问题,提升AI效率。人工智能与其他学科:计算机科学-基础支撑与核心分支人工智能的定位与特点

人工智能定位人工智能是计算机科学分支,专注模拟、延伸和扩展人类智能,通过算法如深度学习拓展智能边界。

计算机科学角色计算机科学提供AI所需计算工具与平台,关注系统通用功能,支撑AI发展,实现复杂智能任务。人工智能与其他学科:数学-理论基石与工具支撑

数学是AI的理论基础数学是AI不可或缺的理论基础,为算法设计与模型构建提供逻辑框架与计算工具。

AI并非数学的简单应用AI非数学简单应用,侧重数学工具实际应用,需设计模型结构、数据驱动学习,涉及算法实现与系统部署。人工智能与其他学科:心理学-认知启发与机制差异心理学对AI的启发

心理学对AI的贡献研究人类心理过程,为AI提供认知启发,如注意力机制和试错学习。

具体应用实例Transformer模型受注意力研究启发,强化学习受试错学习理论推动,优化智能体策略。人工智能与其他学科:心理学-认知启发与机制差异AI与人类心理的区别

心理模拟差异AI依赖显式数据与目标,难共情,无法掌握内隐知识,与人类真实心理本质不同。

认知过程对比人类认知融合主观意识、情感与社会文化,AI则基于数据统计,缺乏情感体验与内隐学习。人工智能与其他学科:神经科学-生物启发与模型简化神经科学对AI的启发神经科学研究大脑生理结构与智能机制,为AI神经网络模型提供生物原型启发,如人工神经元借鉴生物神经元功能,卷积神经网络分层结构模拟视觉皮层信息感知过程。神经网络对比AI网络为数学模型,节点与连接有限,依赖预设规则训练,缺乏生物动态性与自我意识。大脑复杂性大脑有860亿神经元,通过复杂突触形成动态网络,具神经可塑性,能涌现意识与情感。人工智能与其他学科

控制科学机制控制科学与人工智能在目标导向决策有交集,前者聚焦确定性系统控制,后者侧重不确定性环境自适应学习。人工智能与其他学科:数据科学-数据价值挖掘与智能应用

数据科学的定义与基础数据科学是从海量数据提取价值信息、支持决策的学科,涵盖数据采集等技术,高质量标注数据是训练智能模型的基础,其技术能为人工智能提供初步数据洞察。

数据科学与AI的目标差异数据科学侧重发现规律辅助决策,如预测需求;AI基于数据实现自主决策与智能行为,如个性化推荐,还需结合算法、资源与知识。人工智能与其他学科:数据科学-数据价值挖掘与智能应用数据科学与AI的应用对比

数据科学特点侧重数据分析,发现规律,支持决策,如预测市场、优化产品设计。

人工智能特性基于数据实现自主决策,智能行为,如个性化推荐、辅助医疗诊断。

人工智能要素需数据、算法设计、计算资源与领域知识,完成复杂任务。

智能应用实例分析用户浏览记录,实时生成定制化推荐,动态调整策略。人工智能的标志性人物:图灵与图灵测试

图灵测试流程是,一名测试者写下自己的问题,随后将问题以纯文本的形式(如计算机屏幕和键盘)发送给另一个房间中的一个人与一台机器。测试者根据他们的回答来判断哪一个是真人,哪一个是机器。现在的图灵测试测试时长为5分钟,如果电脑能回答由人类测试者提出的一系列问题,且其超过30%的回答让测试者误认为是人类所答,则电脑通过测试。人工智能的标志性人物:中国AI贡献人物吴文俊的机器证明贡献在机器证明方面具有杰出贡献提出“计算机证明几何定理方法”国际上称为“吴方法”姚期智的多领域贡献随机数生成、密码学与通信复杂度方面具有杰出贡献最先提出“量子通信复杂性”2000年获图灵奖,唯一获奖的华人学者(清华“姚班”——AI班)人工智能的应用领域医疗领域应用智能影像辅助诊断,语音随访优化流程,赋能基层医疗,推动精准医疗。教育领域变革图像识别自动批改,语音识别纠正发音,人机交互在线答疑,助力个性化教育。家庭场景智能化智能家居远程控制,智能语音革新交互,支持内容创作,让生活更便捷。产业层面赋能金融风险评估优化,农业无人机监测施药,制造业AI优化流程,提升整体效率。公共领域安全高效交通自动驾驶管理,安防人脸识别监控,推动监控智能化,满足市场增长需求。人工智能的应用领域:AI+ 医疗AI医疗应用价值

AI医疗应用于全流程,可提升效率、弥补资源缺口,辅助影像诊断、语音随访、基层医疗及手术与药物研发。医疗AI具体应用

智能影像辅助诊断提升阅片效率准确率;智能语音与随访缩短诊疗决策时间;AI赋能基层医疗提升诊疗能力;AI辅助手术与研发推动精准医疗缩短周期。人工智能的应用领域AI+ 金融AI在金融领域应用具颠覆性,提高信息处理和决策效率,用于风险评估、算法交易、反欺诈检测,改变运营方式,提供便捷服务。AI+ 教育AI在教育领域应用广泛,可批改试卷、纠正发音、在线答疑,提高效率,缓解教师分布不均和成本问题,促进个性化、公平和终身教育。AI+ 交通AI深度赋能交通领域,核心技术体系为自动驾驶与智能交通管理,协同推动交通向安全高效升级,支撑智慧出行。AI+ 农业AI在农业监测与装备智能运维应用广泛,优化水肥方案提升产量品质,机器人替代人工降低成本,推动农业数字化升级。人工智能的应用领域

AI+ 制造AI助力智能制造,优化生产、质控、物流,提升效率,缩短研发周转与迭代,优化流程配置,降低成本浪费,赋能售后提升体验。

AI+ 安防智能安防依托算法等技术推动监控转型,核心应用含人脸识别等,产品种类丰富,市场需求快速增长。

AI+ 家庭智能家居整合软硬件及云平台,实现远程控制等提升安全性等,AI融入生活场景服务大众需求。人工智能中的计算思维02计算思维与人工智能核心思维方式计算思维是人工智能从理论走向实践的核心思维方式。关键逻辑框架计算思维是AI系统设计、开发与应用的关键逻辑框架。计算的概念计算的定义计算是对输入数据进行处理得到输出结果的过程,也是从一个状态转移变换到另一个状态的过程。计算的概念狭义计算的阶段初级:四则运算中级:公式推导和证明高级:计算机的计算,输入-算法输出

计算概念狭义计算涉及数的状态改变,分初级、中级、高级阶段,涵盖直接运算、推导计算及依托复杂算法的状态转换。

计算阶段初级依赖计算工具直观数运算,中级重在公式推导,高级应用如AlphaGo对弈,基于算法实现实时状态转换与决策。计算的概念

广义计算的内涵广义计算是大自然中存在的一切具有状态转换的过程,是从一个状态转移到另一个状态的过程。石子与湖水间的计算普适计算普适计算概念提出

普适计算概念1991年,马克•维瑟提出,计算机将深度融入生活,变得无所不在,人类将习以为常,感知其为日常一部分。

普适计算起源源于施乐帕克研究中心,通过ScientificAmerican杂志正式提出,预示计算机未来发展方向。马克·维瑟施乐帕克研究中心普适计算普适计算核心内涵

01普适计算特征体现为5A原则:任何人、事物、地点、时间、设备,强调计算融入生活,无缝访问,集中于任务。

02计算机会消失长远看,计算机将无处不在,融入生活至被忽视,非物理消失,乃心理作用,因技术普及致感知淡化。计算思维的定义

周以真教授提出计算思维2006年3月,周以真教授提出计算思维,指运用计算机科学基础概念进行问题求解等思维活动,可通过约简、嵌入等方法将难题转化为可解决问题。计算思维核心要素

抽象抽象是将现实问题转化为计算机可处理的形式。

分解分解是将大问题拆解为小模块。

算法算法是设计解决问题的步骤序列。

自动化自动化是通过计算机执行重复任务。

调试调试是优化与修正系统行为。计算思维的特征

1)计算思维是人的思维,而非机器的思维计算思维是人类求解问题的途径,是人的思维,重点是用计算机解决问题,而非让人像计算机思考。

2)计算思维是能力,而非技能计算思维是每个人应具备的基础能力,用于理解复杂系统和处理大规模数据,是分析和解决问题的能力,重点是培养分析和解决问题的能力。

3)计算思维是概念化,而非程序化计算思维重点是算法设计,关注问题抽象为概念模型,不涉及具体编程,需在抽象多个层次上思维。

4)计算思维是一种思想,而非人造品计算思维是与计算有关的思想,用于解决问题、管理生活、交流互动,非软硬件等人造物。计算思维的概念:计算思维的本质

计算思维本质抽象与自动化为核心,探索有效自动计算,强调符号化、有穷性,模型化高级抽象,实现类计算,数字化问题表示,机械化求解过程。

抽象概念解析属性符号化描述,追求有穷形式化,模型化构建高阶抽象,系统描述事务,保证计算有效性,推进类计算,基于数字化表示与机械化求解。计算思维的本质抽象:算法思维角度合理抽象,高效算法自动:工程思维角度合理建模,高效实施自动抽象计算思维的本质-抽象七桥问题:哥尼斯堡城地处东普鲁士,位于普雷格尔河的两岸及河中心的两个岛上,城市各部分由七座桥与两岸连结起来。多年来,当地居民总有一个愿望:从家里出去散步,能否通过每座桥恰好一次,再返回家中?但是任何人也没有找到这样一条理想的路径。计算思维的本质-抽象几何图是封闭联通的几何图中的奇点(与奇数条边相连的点)个数为0或2计算思维的本质-自动自动化在工业质检中体现为:将重复性质检任务转化为可计算模型,以机器自动执行替代人工操作。计算思维与人工智能01计算思维作用桥梁作用,转化问题解决逻辑,支撑AI落地。02方法论支撑提供系统化路径,从理论到实践,解锁AI奥秘。计算思维与人工智能

计算思维支撑AI计算思维是人工智能系统设计开发应用的底层逻辑框架,是将人类问题求解策略转化为机器可执行算法的思维过程,是其区别于传统程序设计的关键特征和核心方法论基础。计算思维与人工智能是双向赋能的动态共生​​计算思维与AI的关系计算思维是人工智能的底层逻辑框架,二者是方法论指导技术发展、技术创新反哺思维深化的动态共生关系。计算思维驱动AI发展计算思维是AI技术进步核心驱动力,引领专家系统规则设计、传统机器学习算法优化及深度学习神经网络架构创新。AI拓展计算思维边界AI技术拓展计算思维应用边界,推动其向可解释性分析、自适应策略设计、跨领域知识抽象与多模态推理延伸。计算思维是人工智能开发的全流程映射

计算思维与人工智能计算思维贯穿人工智能系统开发全生命周期,涵盖问题定义、数据准备、模型构建及系统部署阶段。问题定义阶段:抽象数据准备阶段:数据特征工程模型构建阶段:算法系统部署阶段:架构设计、优化计算思维是人工智能时代的核心能力​​

计算思维的重要性人工智能背景下,计算思维是理解、评估与合理使用AI的关键素养,未来人才需具备协同计算思维。

计算思维的能力要求既要教会机器思考,更要智慧借助机器思考,用逻辑思维辨析AI决策合理性、系统思维权衡伦理风险、创新思维探索人机协作模式。

培养计算思维的意义通过培养计算思维素养,可以在人工智能时代成为技术的驾驭者与智能的协作者,推动技术向善发展。人工智能硬件基础03人工智能硬件基础

01人工智能硬件基础通用计算机硬件为AI提供算力与存储,是模型训练、推理计算及数据处理的基石,支撑AI技术全流程,尤其在初期与轻量级场景不可或缺。02AI硬件角色非专为AI设计的通用硬件,构成AI应用实现的底层能力,扮演不可替代的角色,在算法开发初期与轻量级计算中尤为关键。通用计算机系统架构:计算机系统构成计算机系统层次结构计算机系统由相互独立又作用的要素按层次结构组成,下层是上层支撑环境,上层依赖下层。计算机系统构成计算机系统组成部分

计算机系统构成硬件含CPU、主板、存储器及外围设备,软件含操作系统、应用软件等,共同构成完整系统。

硬件与软件关系硬件为软件运行提供物理支撑,软件赋予硬件运算与处理能力,二者相辅相成。冯诺依曼体系结构冯诺依曼体系结构二进制五大部件存储程序01第一台通用计算机:ENIAC,1946年2月14日研制成功,标志着电子计算机时代的到来。每秒只能做5000次加减运算;重达30吨,占地170m2;启动功耗150千瓦;18000个电子管;没有存储器,采用十进制ElectronicNumericalIntegratorAndCalculator计算机之父:约翰·冯·诺依曼1949,EDVAC,ENIAC的1/3,二进制计算机系统构成

通用计算机系统架构:冯·诺依曼计算机的主要组成部件1)运算器运算器是进行算术运算和逻辑运算的部件,由算术逻辑单元和寄存器构成,在控制器控制下对数据运算并送结果。2)控制器控制器是计算机指挥中心,控制各部件工作以自动执行程序,由指令寄存器等组成,与运算器封装为CPU。3)存储器存储器存放程序和数据,分内存和外存。内存供CPU直接访问,临时存程序数据及运算结果;外存长期保存信息,断电数据不丢失。4)输入设备输入设备是连接用户与计算机的“桥梁”,将文字、图像、声音等原始信息转换为计算机可识别的二进制数字信号传入内存,常见的有键盘、鼠标、麦克风、扫描仪等。5)输出设备

输出设备是计算机反馈结果的"窗口",将内存二进制数据转换为声音、文字或图像,如显示器、打印机、扬声器等。计算机基本工作原理

计算机执行按程序要求自动执行复杂计算或数据处理,工作过程即执行程序过程,程序由指令序列构成。

指令作用复杂操作需转化为具体指令,计算机逐一执行,实现功能转化。计算机基本工作原理指令能被计算机识别并执行的的二进制代码,完成某种操作。指令系统一台计算机的所有的指令集合。要完成的操作类型或性质,如取数、加法、减法。操作码的位数决定了指令的条数。操作码操作数操作的内容,或所在的地址。操作数多数情况下是地址,也称为地址码。数据传送指令数据处理指令程序控制指令MOV、XCHG、PUSH、POP、LEA、…ADD、SUB、MUL、DIV、…IF、LOOP、CMP、…输入输出指令INPUT、OUTPUT、…其他指令对硬件的管理、…主要指令请求信号输出设备存储器输入设备运算器控制器数据线控制线指令响应信号响应信号请求信号地址指令取数存数运算信号反馈信号入出计算机基本工作原理CPU是由什么构成的?运算器+控制器④控制器①程序计数器1②指令寄存器2③指令译码器3时序控制电路4⑤微操作控制电路5控制器是由什么构成的?控制器的作用从内存中取出指令读写内存步骤控制计算机各部件有序工作,对内存的读写操作由控制器控制分析指令执行指令①②③指令执行过程:分取指令、分析指令、执行指令、读取下一条指令

计算机基本工作原理微信计算机衡量指标

主要性能指标概述微型计算机主要性能指标有运算速度、字长、主频、内存容量和存取周期。主频、运算速度、存取周期衡量计算机速度。

核心性能指标详解主频是CPU时钟频率,越高执行指令速度越快;字长是并行处理二进制数据位数,越长处理能力越强;内存容量是CPU可直接访问存储器大小,越大处理效率越高。

运算速度及综合指标运算速度指每秒执行指令数,以MIPS为单位,受CPU主频等因素影响;综合指标含性价比、可靠性等。A什么是CPU?CPU能干什么?CPU由什么构成的?ALU又是什么的?中央处理器(CPU)是一块超大规模的集成电路,是一台计算机的运算核心和控制核心。它的功能主要是解释计算机指令以及处理计算机软件中的数据。BALU,执行算术运算和逻辑运算算术逻辑部件算术运算:+,-,*,/

逻辑运算:and,or,not,compareto数据来自内存,运算结果又送回内存CPU是由什么构成的?控制器又是干什么的?C控制器的概念从内存中取出指令读写内存步骤控制计算机各部件有序工作分析指令执行指令①对内存的读写操作由控制器控制②③中央处理器中央处理器CPU的核心构成

01中央处理器CPU计算机系统核心,超大规模集成电路,含运算器、控制器、寄存器,执行算术逻辑运算,管理指令流程。

02CPU内部结构分控制、运算、存储单元与时序电路,ALU负责数据处理,寄存器暂存中间结果,控制器分析指令、协调操作。中央处理器CPU的性能指标核心数量指CPU集成的物理核心数,可独立执行指令;线程数是同时运行程序的个数,能虚拟核心。CPU的制造工艺制造工艺是CPU重要指标,单位为纳米,指晶体管门电路尺寸,趋势向更高密集度发展,当前可达3nm。微型计算机组成:存储器存储器是计算机系统中用来存储程序和数据的设备。存储器分为内存和外存存储器1)内存

内存类型与特性内存分ROM和RAM,ROM数据永久,适存BIOS;RAM存运行数据,断电即失,含SRAM和DRAM,前者速快适缓存,后者需定期刷新,SDRAM为一例,演进至DDR6,提效降耗。

高速缓冲存储器作用Cache介CPU与主存间,小而速,同存CPU频访指令与数据,提升读写效率,层级分L1、L2、L3,先Cache后内存,未命中再访主存。存储器2)外存

外存类型包括移动硬盘、光盘、闪存盘等,用于长期存储数据,容量大,速度较慢,稳定性高。

硬盘分类分为机械硬盘(HDD)、固态硬盘(SSD)、固态混合硬盘(SSHD),各有特点,适应不同需求。

硬盘结构磁盘面按0、1、2编号,磁道构成同心圆,扇区存储512B数据,柱面由同半径磁道组成,着陆区保护磁头。

硬盘接口SCSI、SATA、SAS、NVMe、光纤通道,各具优势,适用于不同场景,如消费级、企业级、特定行业。存储器

01硬盘性能指标关注容量、寻道时间、等待时间、访问时间、转速、传输速率、数据缓存,影响整体性能。

02固态硬盘特性基于闪存或DRAM,抗振性强,工作温度宽,适用于特殊环境,如军事、工业、医疗领域。

03固态混合硬盘结合机械硬盘与闪存,提升读取性能,减少能耗,延长电池续航,适合笔记本电脑。

04光盘存储由光盘、光驱和控制器组成,分CD、DVD、蓝光,有只读与可擦写类型,但使用率逐渐下降。输入输出设备

输入设备输入设备将外部数据传入计算机,常见有键盘、鼠标和扫描仪,各有功能特点和主流类型。

输出设备输出设备用于呈现结果,核心为显示器,主流有LCD、LED,新型有OLED,参数含尺寸、比例、分辨率等,性能涉及亮度、对比度、刷新率,交互形态在拓展。计算机软件系统软件系统定义计算机软件系统由程序、数据与文档构成,控制管理硬件资源,为应用提供运行环境,是用户与硬件接口,与硬件组成计算机系统。软件系统组成软件系统组成分三层:系统软件(资源管理与基础服务)、支撑软件(提供通用能力)、应用软件(解决特定领域问题)。操作系统功能操作系统是基础软件,管理调度隔离硬件资源,提供进程内存等核心能力,为人机交互与系统调用提供接口。面向人工智能的计算机系统

面向AI的计算机系统设计用于高效处理AI任务,集成异构加速硬件,高带宽存储,优化软件栈,提升并行计算、低延迟推理与能效比,满足AI时代极致需求。人工智能对计算机系统的特殊需求

人工智能计算需求挑战人工智能发展对计算机系统提出新计算需求与性能挑战,深度学习算法需在体系结构、资源管理及计算模式等方面专门优化。

并行性与硬件架构需求人工智能计算具高度并行性,传统CPU难高效应对,需大规模并行计算硬件架构,优化低精度计算提升效率。人工智能对计算机系统的特殊需求数据与存储能力要求

数据吞吐能力AI任务需极高的数据处理速度,对内存容量与存储访问速度要求严苛,确保数据高效流动。

存储带宽需求深度学习模型参数量大,训练过程频繁读写,传统存储难满足,需高带宽内存与高速互联保障性能。人工智能对计算机系统的特殊需求实时响应与能效需求

实时响应能力自动驾驶、智能监控等需极短时间完成推理,系统须优化计算路径与资源调度,确保模型快速响应。

系统能效比大规模模型训练耗时长,电力消耗大,需创新架构与硬件设计,平衡高性能与低功耗,提升能量利用效率。人工智能对计算机系统的特殊需求

计算系统发展方向计算机系统向专门化、异构化与智能化发展,推动硬件架构等全面革新,构建支撑人工智能算法的新型计算基础设施。面向AI的硬件架构革新AI硬件架构核心需求AI任务有大规模并行矩阵运算与海量数据处理需求,要求硬件突破传统通用架构限制,通过差异化组件设计与系统级优化,构建适配AI计算特性的专用硬件体系。面向AI的硬件架构革新计算单元革新

AI硬件架构革新AI系统集成GPU、NPU、TPU等加速器,GPU/NPU处理卷积、全连接层运算,TPU优化矩阵乘法,FPGA提供可重构计算单元,平衡灵活性与能效比。

CPU在AI系统角色CPU负责任务调度、轻量级逻辑处理及控制流管理,虽单核性能与并行计算效率不足,但在边缘设备与轻量级应用中仍为核心组件。面向AI的硬件架构革新存储与带宽设计

存储与带宽设计AI计算瓶颈关键,采用HBM内存,堆叠DRAM芯片,带宽达TB/s,分层存储策略,热数据用NVMeSSD,冷数据低成本对象存储,智能管理成本。

硬件架构革新革新AI硬件,高带宽内存提升数据传输,分层存储高效利用资源,热数据保障高并发访问,冷数据低成本存储,平衡效率与成本,支撑大规模数据处理。面向AI的硬件架构革新系统级集成优化

01系统级集成优化提升整体效能,采用多加速器+多路CPU+大容量内存+高速存储组合,满足大规模模型训练需求。

02边缘与终端AI一体机集成GPU/NPU、内存、存储及AI软件栈,预配置与优化,简化部署,提升能效比,如华为Atlas900、联想AIPC。AI软件栈与开发生态的适配软硬件适配的重要性人工智能计算任务要求软硬件深度适配,通过系统优化、工具链设计及生态创新,将硬件潜力转化为AI能力,形成技术闭环。AI软件栈与开发生态的适配系统软件层面适配

AI计算机系统需支持GPU、NPU等硬件,通过专用驱动如CUDA、CANN实现高效协同,封装硬件细节,提供统一算力接口。

AI场景优化优化文件系统与内存管理,采用高带宽存储和低延迟内存分配,减少大模型训练中的I/O瓶颈,提升计算效率。AI软件栈与开发生态的适配开发工具链适配

开发工具链作用连接硬件与开发者,主流AI框架优化不同硬件,提升计算密集型任务效率数倍至数十倍。

全流程支持涵盖模型设计到部署,提供可视化建模、自动化调参、分布式训练和模型压缩,适配边缘设备低功耗需求。AI软件栈与开发生态的适配生态协同开放创新

01AI软件栈统一系统软件栈通过硬件抽象层屏蔽芯片差异,提供标准化算力接口与通用算子库,实现一次开发、多芯部署。

02开发生态适配开放创新模式推动跨厂商、跨架构技术协同,形成统一适配标准,降低开发者门槛,充分释放硬件算力,支持AI技术规模化落地。人工智能网络基础04AI网络需求

数据传输需求大模型训练、多模态推理需海量数据高频传输与分布式协同。实时场景要求实时场景对网络延迟、可靠性有高要求,依赖底层支持。网络优化价值

突破算力瓶颈优化通用网络带宽、协议、设备,助力AI突破算力瓶颈。

适配多元场景】计算机网络定义与组成

计算机网络定义计算机及外部设备通过通信线路连接,由软件和协议管理,实现资源共享和信息传递。

计算机网络功能主要功能包括资源共享和信息传递,通过网络软件及通信协议协调实现。

资源共享共享(硬件(如计算能力、存储、打印机)、、软件及数据资源(如数据库、文件)、。

信息交换支持节点通信,实现邮件收发、新闻浏览、电话会议;分布式处理任务提升效率与负载均衡;网络异地数据备份保障系统安全可靠。计算机网络概念

计算机网络组成计算机网络由计算机系统、传输介质、网络软件及应用软件四部分组成,协同实现资源共享与信息传递。ColdWar1945-1990苏联美国华约北约计算机网络的发展USC犹他州立大学,1888年创建,公立研究性大学,下设8个学院,提供176个学士、143个硕士、38个博士学位,以及130多个研究项目欢迎访问>>UCLA加州大学洛杉矶分校。1919年创建,公立综合性大学。奥运奖项:金牌123(全美第三)、54银、56铜。欢迎访问>>ARPANetwork阿帕网,AdvancedResearchProjectsAgencyNetwork,ARPANET,美国国防高级研究计划局组建的计算机网。欢迎访问>>Stanford

University斯坦福大学,1891年创立,私立综合性大学。60个诺贝尔获奖者,20位图灵奖获得者,7位菲尔兹奖获得者。17名太空员,亿万富翁28位。欢迎访问>>UCSB加州大学圣塔芭芭拉分校。1909年创建,公立研究性大学。6位诺贝尔获得者,27位国家工程院院士,23位人文科学院院士。欢迎访问>>默默默默默计算机网络发展计算机网络发展

第一代面向终端网络20世纪50年代第一代面向终端网络,以单台主机为核心,通过通信线路连接多个终端,数据处理集中于主机。

第二代计算机互联网络20世纪60至70年代第二代计算机互联网络,以1969年美国ARPANET为里程碑,采用存储转发和分组交换技术,缺乏统一标准。

第三代开放式标准化网络20世纪70至90年代的第三代开放式标准化网络,ISO颁布OSI参考模型,TCP/IP协议广泛应用,推动网络互联互通,计算机网络飞速发展。

第四代高速互联网络20世纪90年代至今的第四代高速互联网络,以综合化、高速化、智能化和全球化为特征,渗透至社会生活各领域。局域网几百米到十几公里,一栋或几栋大楼内。局域网内传输速率较高,误码率低,结构简单容易实现。城域网在一个特定的范围内(社区或城市)将不同的局域网连接起来。通常使用高速光纤,传输速率比局域网高。广域网不同城市之间的LAN或MAN互联,几百公里到几千公里。数据传输率比局域网慢、误码率较高按地理范围分类星型结构总线结构环型结构树型结构混合结构拓扑结构:将网络中的计算机等设备抽象为点,将通信媒体抽象为线,形成由点和线组成的网络结构的几何图形。按拓扑结构分类NetworkC/S模式PToP模式B/S模式B/S模式服务器安装数据库系统客户机上只需要安装浏览器C/S模式服务器通常采用高性能的PC、工作站或小型机,并采用大型数据库系统客户端需要安装客户端软件PeerToPeer模式P2P是让所有客户端都能提供资源(带宽,存储空间和计算能力)当有节点加入且请求增多,整个系统的容量也增大,传输更慢。按传输介质分类(1)有线网络有线网络指采用双绞线、同轴电缆、光纤等物理介质传输的数据网络。(2)无线网络无线网络是指采用无线电(如微波)、红外线等无线介质传输数据的网络。按网络的传输速率分类根据网络的传输速率大小,可将网络划分为10Mbit/s、100Mbit/s和1000Mbit/s、10Gbit/s等网络类型。按信息处理方式分类(1)以太网以太网使用CSMA/CD(带有冲突检测的载波侦听多路访问)的访问控制技术,是应用最为广泛的局域网。(2)ATM交换网络ATM(AsynchronousTransferMode,异步传输模式)采用信元交换交换技术。它没有共享介质或包传递带来的延时,非常适合音频和视频数据的传输。(3)FDDI网络FDDI网络是采用光纤分布式数据接口(FiberDistributedDataInterface,FDDI)协议的网络I以光纤作为传输介质,支持长距离传输,数据传输速率可达到100Mbit/s。按传输带宽分类(1)基带传输基带信号是指发送端发出的没有经过调制的原始电信号。在数字通信信道上,直接传送基带信号的方法称为基带传输。基带传输直接传送数字信号,传输的速率高,距离短。(2)宽带传输宽带传输是将信道分成多个子信道,分别传送音频、视频和数字信号等。宽带传输系统多是模拟信号传输系统。宽带传输信道的容量大,传输距离远。双向箭头线表示概念上的通信线路,空心箭头表示实际通信线路。互连物理传输媒体通信子网资源子网应用层表示层会话层传输层网络层链路层物理层应用层表示层会话层传输层网络层链路层物理层计算机网络协议:OSI模型及分层功能​​OSI模型及分层功能​​各层功能说明

物理层功能定义物理介质属性,如电缆、接头,提供比特流传输物理通路,确保信号传输。

数据链路层作用通过帧封装实现介质访问控制、编址与差错检测,确保数据帧正确到达目标,维护数据完整性。

网络层职责负责数据包转发、路由选择与逻辑寻址,解决多路径传输,保证数据准确送达目的地。OSI模型及分层功能​​

传输层任务提供端到端可靠传输,包括流量控制、分段/重组与差错控制,确保数据段无误传输。

会话层管理管理会话进程通信,通过检验点实现断点续传,提高数据传输效率和可靠性。

表示层处理处理数据格式转换,如编码、加密,确保跨系统数据内容一致性,支持系统间通信。

应用层服务为用户提供直接服务,如文件传输、邮件收发,实现应用进程间通信,满足用户需求。TCP/IP四层模型TCP/IP协议概述TCP/IP协议是协议集,约定互联网主机寻址、命名、信息传输及服务功能,含TCP和IP协议,分网络接口、网际、传输、应用四层。网络接口层功能网络接口层:定义物理网络传输协议与硬件电气特性,实现数据链路层功能。网际层功能网际层负责分组转发、路由选择、逻辑寻址(如IP协议),控制网络拥塞,核心协议包括IP、ICMP等。传输层与应用层功能传输层:提供端到端通信(TCP可靠、UDP高效),解决应用进程识别。应用层:面向用户,提供常用服务(HTTP、FTP等),定义应用功能。网络地址和域名

计算机网络中,网络地址用于定位设备,域名用于简化访问标识网络地址1)物理地址

物理地址定义MAC地址,固化网卡,48位长,前24位区分厂商,后24位厂商分配,常用十六进制表示。MAC地址作用对应数据链路层,交换机用其转发数据帧,维护连接设备MAC地址表。网络地址2)IP地址

示例

每个字节为0~255的十进制,字节之间用点号分隔示例69DC:8864:FFf:FFFF:0:1280:8c0A:FFFFf每组表示16位,用4位十六进制表示,每组之间冒号分隔,前导0可不写IPv44个字节,32位点分十进制IPv616个字节,128位冒分十六进制表示方法域名作用IP地址难以记忆和理解,因此引入字符来表示主机地址,用字符表示的主机地址称为域名。中国教育机构北京建筑大学教务处域名举例域名系统,DNSDNS是一个分布在因特网上的主机信息数据库系统,规定了域名的命名规则,实现域名和IP地址的相互映射,使人可以方便地使用域名访问互联网。域名结构域名系统采用层次结构。即:结点名.三级域名.二级域名.顶级域名域名系统域名系统

根域名服务器介绍根域名服务器是DNS最高层级服务器,提供顶级域名服务器地址指引。IPv4有13组根,全球部署实例;“雪人计划”部署25台IPv6根,中国有4台。网络设备分类与功能主要的网络设备有如下几类

物理层设备​​中继器:接收放大电信号,延长传输距离,工作在物理层。集线器:连接多台设备至同一广播域,通过物理端口转发信号。

数据链路层设备​​网桥:基于MAC地址过滤数据帧,分割冲突域。交换机:多端口智能网桥,定向转发数据帧,支持VLAN划分。

网络层设备​​路由器:基于IP地址选择传输路径,连接异构网络。例如,家庭路由器实现连局域网与互联网的互联。

高层互联设备​​网关可转换不同协议数据格式,实现跨系统通信,如物联网网关将传感器数据转换为HTTP协议上传云端。人工智能时代的网络:网络核心功能变化

网络核心功能变化人工智能时代网络需支持数据密集型处理,实现计算并行化,保障实时交互性,超越传统数据传输,提供智能服务支撑。

网络架构变革面对AI需求,网络架构向更灵活、高效方向演进,协议优化以适应高带宽、低延迟特性,功能增强满足实时分析与决策。人工智能时代的网络:网络核心功能变化1)超高带宽与低延迟

网络核心功能变化大模型训练需TB级数据同步,网络带宽不足致GPU资源闲置,自动驾驶场景要求网络传输延迟低于10毫秒以避免指令卡顿。人工智能时代的网络:网络核心功能变化2)高可靠性与确定性

01网络核心功能变化为满足AI场景需求,网络需优化架构与升级协议,实现零丢包、低抖动,保障长周期训练与关键任务可信执行。

02保障措施优化网络架构和升级传输协议,确保数据完整性,避免因网络问题导致的人工智能训练和实时决策服务中断。人工智能时代的网络:网络核心功能变化

3)动态弹性与全局协同人工智能计算网络需适配分布式计算与多场景负载,支持动态带宽调整及多节点资源协同调度。人工智能时代的网络:架构演进:面向AI的网络重构1)高速骨干网络

骨干网要求需支持超高速率(最高1.6Tbit/s)、超低延迟(<1ms)及超高可靠性(99.999%可用性),保障AI任务全局连接。

“东数西算”工程构建国家级AI算力网络,覆盖八大枢纽,利用400G全光互联与波分复用,实现跨区数据传输延迟<5ms,支撑大模型训练。

数据中心内部互联依赖NVIDIANVLin

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论