人工智能通识教程 课件 万珊珊-第1-4章 绪论、人工智能计算基础- 知识推理_第1页
人工智能通识教程 课件 万珊珊-第1-4章 绪论、人工智能计算基础- 知识推理_第2页
人工智能通识教程 课件 万珊珊-第1-4章 绪论、人工智能计算基础- 知识推理_第3页
人工智能通识教程 课件 万珊珊-第1-4章 绪论、人工智能计算基础- 知识推理_第4页
人工智能通识教程 课件 万珊珊-第1-4章 绪论、人工智能计算基础- 知识推理_第5页
已阅读5页,还剩391页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

人工智能导论

第1章

绪论IntroductiontoArtificialIntelligenceCONTENTS目录01

初识人工智能02

人工智能中的计算思维03

人工智能硬件基础04

人工智能网络基础05

AI伦理概述本章内容导图初识人工智能01初识人工智能

人工智能定义多学科交叉,模拟人类智能,涵盖感知、学习、推理与决策。发展历程经历三次浪潮,形成三大学派,广泛应用于医疗、金融等多领域。标志事件开启机器战胜人类先河01国际象棋世界棋王加里·卡斯帕罗夫与IBM的“深蓝”计算机于1996年和1997年进行的两场比赛。总比分4:2,人胜利战胜李世石,完虐柯洁022016年3月,AlphaGoPK李世石,最终比分:4:1。2017年5月,AlphaGoPK柯洁,最终比分:3:0。大语言模型爆发03大语言模型(LLM)是AI爆发的核心标志,通过千亿级参数实现跨任务通用智能,推动AI从感知迈向认知智能催生智能客服、代码生成等千亿级新业态,同时开源生态加速技术普惠与产业重构人类与AI机器人会代替人类吗?今天,人类害怕的是被机器人所取代——10年后,人工智能将取代80%的翻译、记者、助理......早期,人类害怕的是机器人起兵造反,将人类杀个片甲不留。——1976年上译《未来世界》电影低成本、高性能、开源的Deepseek人工智能概述:人工智能的基本概念

人工智能的定义人工智能是计算机科学分支,模拟、延伸和扩展人类智能行为,使机器具备感知、学习、推理等能力,高效完成需人类智能的任务。人工智能概述:人工智能的基本概念人工智能技术体系

人工智能概述AI模拟、延伸人类智能,使机器具感知、理解、学习、决策能力,核心技术包括知识表示、机器学习、感知、行为控制。

知识表示与推理构建智能系统知识底座,将现实世界知识转换为计算机可识别、存储、处理形式,需兼顾表示能力、理解性、访问性、扩展性。

机器学习AI智能关键路径,利用数据驱动的深度学习、强化学习算法,让机器自主学习规律,支撑视觉、语言处理、推荐系统应用。

机器感知通过计算机视觉、语音识别技术模拟人类感知,实现图像、视频、文本、语音理解,为机器与外界交互提供基础。

行为控制与交互通过算法将决策转化为具体行动,如自动驾驶、多智能体协作,实现机器与环境动态适配与任务执行。人工智能的特征1)感知与交互能力能力

感知与交互AI通过视觉、听觉等感知世界,理解自然语言,实现人机高效沟通,视觉与听觉占主导,分别获取80%和10%的外界信息。

人工智能特征感知是获取知识前提,智能活动基础,机器感知研究聚焦机器视觉与听觉,模拟人类信息获取方式。人工智能概述:人工智能的特征

2)记忆与思维能力记忆存储外部信息和思维产生的知识,思维处理记忆信息,是获取和运用知识求解问题的根本途径,可分为逻辑、形象及顿悟思维。

3)学习与适应能力学习与适应能力是人工智能核心驱动力,AI从数据提取规律,优化算法并自适应调节演化;学习是人的本能,通过与环境作用积累知识适应变化,方式多样。

4)行为能力决策与推理能力决策与推理能力是人工智能智能行为的体现,AI基于逻辑规则和概率推理分析复杂信息并自主决策。制造智能机器实现机器智能人工智能概述:人工智能的产生与发展人工智能的诞生

人工智能诞生1956年达特茅斯会议,首次提出"人工智能",标志领域诞生,成独立学科,被视为"AI元年".人工智能定义用人工方法使机器实现智能,目标是让机器具备人类认知、思考与学习能力.约翰·麦卡锡(JohnMcCarthy)——符号主义的代表人,1971年图灵奖获得者马文·明斯基(MarvinLeeMinsky)——1969年图灵奖获得者诺伯特·维纳(NorbertWiener)——第一代通用计算机701主设计师克劳德·香农(ClaudeElwoodShannon)——信息论之父人工智能的产生与发展发展的三次浪潮

人工智能概述历经三次浪潮,从知识编码至自主学习,跨越人工规则至数据驱动,终达特征自提,展现智能跃迁。

第一次浪潮1956-1980年,知识驱动期,专家系统模拟决策,如MYCIN,依赖静态知识库,受限于人工规则,场景适应性差。

第二次浪潮1980-2010年,数据驱动期,转向机器学习,统计学习优化参数,处理结构化数据,受限算法、数据、算力,认知能力待突破。

第三次浪潮2010年至今,深度学习主导,多层网络自动学习,处理非结构化数据,实现语义理解,但仍存解释性、数据依赖、通用性瓶颈。人工智能的产生与发展博弈领域的突破

01人工智能发展历程标志性事件为深蓝胜卡斯帕罗夫,AlphaGo胜李世石,展现AI从规则执行到智能决策进化。

02博弈领域突破AI在国际象棋、围棋、德州扑克中胜人类,如AlphaGo、DeepStack,体现计算能力与算法优化进步。人工智能的产生与发展各国发展战略

人工智能战略各国视AI为战略重心,竞逐主导权,欧盟投450亿,美设专委,中国2024年入政报,2025年强AI+行动。中国AI布局中国构建全链体系,领航大模型、专利、生成AI服务,国务院规划三阶段目标,六大行动,八基支撑。人工智能的三大学派

人工智能三大学派符号主义、连接主义、行为主义,各自独立又互补,共同促进AI理论和技术进步。人工智能的三大学派

符号主义学派符号主义认为AI起源于数理逻辑,人类认知的基本元素是符号,认知过程是符号表示上的一种运算。智能本质是符号操作与逻辑推理。符号主义学派擅长结构化问题,弱于非结构化数据和常识推理,代表有专家系统和自动定理证明。

连接主义学派连接主义源于仿生学,人类认知的基本元素是神经元。认知过程是神经元的连接和计算过程。连接主义学派擅长处理非结构化数据,依赖大量训练数据,存在“黑箱”问题,典型技术有深度学习。人工智能的三大学派:行为主义学派行为主义核心观点行为主义定义认为智能起源于控制论,源于对外界复杂环境的适应,而不是表示和推理。强调智能通过环境交互进化,感知-动作循环为核心。行为主义应用适用于动态环境如机器人控制、游戏,利用强化学习,但初期训练成本高,复杂任务学习效率低。人工智能的三大学派:行为主义学派AI发展主流趋势AI发展主流是学派综合,现代AI系统常融合连接主义、行为主义、符号主义等多学派优势,支撑复杂智能任务实现。人工智能与其他学科

人工智能目的机器替代或增强人类智能,执行语音识别、图像分类,自主学习优化策略。

人工智能技术本质多学科交叉产物,以计算机科学、数学为基础,融合心理学、神经科学,形成类人智能技术体系。人工智能与其他学科:计算机科学-基础支撑与核心分支计算机科学与人工智能的关系

计算机科学与AI关系计算机科学为AI提供算法、数据结构基础,如Python编程、数组、图存储,支撑AI发展。

AI算法实现通过优化算法复杂度,如将指数问题转为多项式,使用搜索、排序算法解决智能问题,提升AI效率。人工智能与其他学科:计算机科学-基础支撑与核心分支人工智能的定位与特点

人工智能定位人工智能是计算机科学分支,专注模拟、延伸和扩展人类智能,通过算法如深度学习拓展智能边界。

计算机科学角色计算机科学提供AI所需计算工具与平台,关注系统通用功能,支撑AI发展,实现复杂智能任务。人工智能与其他学科:数学-理论基石与工具支撑

数学是AI的理论基础数学是AI不可或缺的理论基础,为算法设计与模型构建提供逻辑框架与计算工具。

AI并非数学的简单应用AI非数学简单应用,侧重数学工具实际应用,需设计模型结构、数据驱动学习,涉及算法实现与系统部署。人工智能与其他学科:心理学-认知启发与机制差异心理学对AI的启发

心理学对AI的贡献研究人类心理过程,为AI提供认知启发,如注意力机制和试错学习。

具体应用实例Transformer模型受注意力研究启发,强化学习受试错学习理论推动,优化智能体策略。人工智能与其他学科:心理学-认知启发与机制差异AI与人类心理的区别

心理模拟差异AI依赖显式数据与目标,难共情,无法掌握内隐知识,与人类真实心理本质不同。

认知过程对比人类认知融合主观意识、情感与社会文化,AI则基于数据统计,缺乏情感体验与内隐学习。人工智能与其他学科:神经科学-生物启发与模型简化神经科学对AI的启发神经科学研究大脑生理结构与智能机制,为AI神经网络模型提供生物原型启发,如人工神经元借鉴生物神经元功能,卷积神经网络分层结构模拟视觉皮层信息感知过程。神经网络对比AI网络为数学模型,节点与连接有限,依赖预设规则训练,缺乏生物动态性与自我意识。大脑复杂性大脑有860亿神经元,通过复杂突触形成动态网络,具神经可塑性,能涌现意识与情感。人工智能与其他学科

控制科学机制控制科学与人工智能在目标导向决策有交集,前者聚焦确定性系统控制,后者侧重不确定性环境自适应学习。人工智能与其他学科:数据科学-数据价值挖掘与智能应用

数据科学的定义与基础数据科学是从海量数据提取价值信息、支持决策的学科,涵盖数据采集等技术,高质量标注数据是训练智能模型的基础,其技术能为人工智能提供初步数据洞察。

数据科学与AI的目标差异数据科学侧重发现规律辅助决策,如预测需求;AI基于数据实现自主决策与智能行为,如个性化推荐,还需结合算法、资源与知识。人工智能与其他学科:数据科学-数据价值挖掘与智能应用数据科学与AI的应用对比

数据科学特点侧重数据分析,发现规律,支持决策,如预测市场、优化产品设计。

人工智能特性基于数据实现自主决策,智能行为,如个性化推荐、辅助医疗诊断。

人工智能要素需数据、算法设计、计算资源与领域知识,完成复杂任务。

智能应用实例分析用户浏览记录,实时生成定制化推荐,动态调整策略。人工智能的标志性人物:图灵与图灵测试

图灵测试流程是,一名测试者写下自己的问题,随后将问题以纯文本的形式(如计算机屏幕和键盘)发送给另一个房间中的一个人与一台机器。测试者根据他们的回答来判断哪一个是真人,哪一个是机器。现在的图灵测试测试时长为5分钟,如果电脑能回答由人类测试者提出的一系列问题,且其超过30%的回答让测试者误认为是人类所答,则电脑通过测试。人工智能的标志性人物:中国AI贡献人物吴文俊的机器证明贡献在机器证明方面具有杰出贡献提出“计算机证明几何定理方法”国际上称为“吴方法”姚期智的多领域贡献随机数生成、密码学与通信复杂度方面具有杰出贡献最先提出“量子通信复杂性”2000年获图灵奖,唯一获奖的华人学者(清华“姚班”——AI班)人工智能的应用领域医疗领域应用智能影像辅助诊断,语音随访优化流程,赋能基层医疗,推动精准医疗。教育领域变革图像识别自动批改,语音识别纠正发音,人机交互在线答疑,助力个性化教育。家庭场景智能化智能家居远程控制,智能语音革新交互,支持内容创作,让生活更便捷。产业层面赋能金融风险评估优化,农业无人机监测施药,制造业AI优化流程,提升整体效率。公共领域安全高效交通自动驾驶管理,安防人脸识别监控,推动监控智能化,满足市场增长需求。人工智能的应用领域:AI+ 医疗AI医疗应用价值

AI医疗应用于全流程,可提升效率、弥补资源缺口,辅助影像诊断、语音随访、基层医疗及手术与药物研发。医疗AI具体应用

智能影像辅助诊断提升阅片效率准确率;智能语音与随访缩短诊疗决策时间;AI赋能基层医疗提升诊疗能力;AI辅助手术与研发推动精准医疗缩短周期。人工智能的应用领域AI+ 金融AI在金融领域应用具颠覆性,提高信息处理和决策效率,用于风险评估、算法交易、反欺诈检测,改变运营方式,提供便捷服务。AI+ 教育AI在教育领域应用广泛,可批改试卷、纠正发音、在线答疑,提高效率,缓解教师分布不均和成本问题,促进个性化、公平和终身教育。AI+ 交通AI深度赋能交通领域,核心技术体系为自动驾驶与智能交通管理,协同推动交通向安全高效升级,支撑智慧出行。AI+ 农业AI在农业监测与装备智能运维应用广泛,优化水肥方案提升产量品质,机器人替代人工降低成本,推动农业数字化升级。人工智能的应用领域

AI+ 制造AI助力智能制造,优化生产、质控、物流,提升效率,缩短研发周转与迭代,优化流程配置,降低成本浪费,赋能售后提升体验。

AI+ 安防智能安防依托算法等技术推动监控转型,核心应用含人脸识别等,产品种类丰富,市场需求快速增长。

AI+ 家庭智能家居整合软硬件及云平台,实现远程控制等提升安全性等,AI融入生活场景服务大众需求。人工智能中的计算思维02计算思维与人工智能核心思维方式计算思维是人工智能从理论走向实践的核心思维方式。关键逻辑框架计算思维是AI系统设计、开发与应用的关键逻辑框架。计算的概念计算的定义计算是对输入数据进行处理得到输出结果的过程,也是从一个状态转移变换到另一个状态的过程。计算的概念狭义计算的阶段初级:四则运算中级:公式推导和证明高级:计算机的计算,输入-算法输出

计算概念狭义计算涉及数的状态改变,分初级、中级、高级阶段,涵盖直接运算、推导计算及依托复杂算法的状态转换。

计算阶段初级依赖计算工具直观数运算,中级重在公式推导,高级应用如AlphaGo对弈,基于算法实现实时状态转换与决策。计算的概念

广义计算的内涵广义计算是大自然中存在的一切具有状态转换的过程,是从一个状态转移到另一个状态的过程。石子与湖水间的计算普适计算普适计算概念提出

普适计算概念1991年,马克•维瑟提出,计算机将深度融入生活,变得无所不在,人类将习以为常,感知其为日常一部分。

普适计算起源源于施乐帕克研究中心,通过ScientificAmerican杂志正式提出,预示计算机未来发展方向。马克·维瑟施乐帕克研究中心普适计算普适计算核心内涵

01普适计算特征体现为5A原则:任何人、事物、地点、时间、设备,强调计算融入生活,无缝访问,集中于任务。

02计算机会消失长远看,计算机将无处不在,融入生活至被忽视,非物理消失,乃心理作用,因技术普及致感知淡化。计算思维的定义

周以真教授提出计算思维2006年3月,周以真教授提出计算思维,指运用计算机科学基础概念进行问题求解等思维活动,可通过约简、嵌入等方法将难题转化为可解决问题。计算思维核心要素

抽象抽象是将现实问题转化为计算机可处理的形式。

分解分解是将大问题拆解为小模块。

算法算法是设计解决问题的步骤序列。

自动化自动化是通过计算机执行重复任务。

调试调试是优化与修正系统行为。计算思维的特征

1)计算思维是人的思维,而非机器的思维计算思维是人类求解问题的途径,是人的思维,重点是用计算机解决问题,而非让人像计算机思考。

2)计算思维是能力,而非技能计算思维是每个人应具备的基础能力,用于理解复杂系统和处理大规模数据,是分析和解决问题的能力,重点是培养分析和解决问题的能力。

3)计算思维是概念化,而非程序化计算思维重点是算法设计,关注问题抽象为概念模型,不涉及具体编程,需在抽象多个层次上思维。

4)计算思维是一种思想,而非人造品计算思维是与计算有关的思想,用于解决问题、管理生活、交流互动,非软硬件等人造物。计算思维的概念:计算思维的本质

计算思维本质抽象与自动化为核心,探索有效自动计算,强调符号化、有穷性,模型化高级抽象,实现类计算,数字化问题表示,机械化求解过程。

抽象概念解析属性符号化描述,追求有穷形式化,模型化构建高阶抽象,系统描述事务,保证计算有效性,推进类计算,基于数字化表示与机械化求解。计算思维的本质抽象:算法思维角度合理抽象,高效算法自动:工程思维角度合理建模,高效实施自动抽象计算思维的本质-抽象七桥问题:哥尼斯堡城地处东普鲁士,位于普雷格尔河的两岸及河中心的两个岛上,城市各部分由七座桥与两岸连结起来。多年来,当地居民总有一个愿望:从家里出去散步,能否通过每座桥恰好一次,再返回家中?但是任何人也没有找到这样一条理想的路径。计算思维的本质-抽象几何图是封闭联通的几何图中的奇点(与奇数条边相连的点)个数为0或2计算思维的本质-自动自动化在工业质检中体现为:将重复性质检任务转化为可计算模型,以机器自动执行替代人工操作。计算思维与人工智能01计算思维作用桥梁作用,转化问题解决逻辑,支撑AI落地。02方法论支撑提供系统化路径,从理论到实践,解锁AI奥秘。计算思维与人工智能

计算思维支撑AI计算思维是人工智能系统设计开发应用的底层逻辑框架,是将人类问题求解策略转化为机器可执行算法的思维过程,是其区别于传统程序设计的关键特征和核心方法论基础。计算思维与人工智能是双向赋能的动态共生​​计算思维与AI的关系计算思维是人工智能的底层逻辑框架,二者是方法论指导技术发展、技术创新反哺思维深化的动态共生关系。计算思维驱动AI发展计算思维是AI技术进步核心驱动力,引领专家系统规则设计、传统机器学习算法优化及深度学习神经网络架构创新。AI拓展计算思维边界AI技术拓展计算思维应用边界,推动其向可解释性分析、自适应策略设计、跨领域知识抽象与多模态推理延伸。计算思维是人工智能开发的全流程映射

计算思维与人工智能计算思维贯穿人工智能系统开发全生命周期,涵盖问题定义、数据准备、模型构建及系统部署阶段。问题定义阶段:抽象数据准备阶段:数据特征工程模型构建阶段:算法系统部署阶段:架构设计、优化计算思维是人工智能时代的核心能力​​

计算思维的重要性人工智能背景下,计算思维是理解、评估与合理使用AI的关键素养,未来人才需具备协同计算思维。

计算思维的能力要求既要教会机器思考,更要智慧借助机器思考,用逻辑思维辨析AI决策合理性、系统思维权衡伦理风险、创新思维探索人机协作模式。

培养计算思维的意义通过培养计算思维素养,可以在人工智能时代成为技术的驾驭者与智能的协作者,推动技术向善发展。人工智能硬件基础03人工智能硬件基础

01人工智能硬件基础通用计算机硬件为AI提供算力与存储,是模型训练、推理计算及数据处理的基石,支撑AI技术全流程,尤其在初期与轻量级场景不可或缺。02AI硬件角色非专为AI设计的通用硬件,构成AI应用实现的底层能力,扮演不可替代的角色,在算法开发初期与轻量级计算中尤为关键。通用计算机系统架构:计算机系统构成计算机系统层次结构计算机系统由相互独立又作用的要素按层次结构组成,下层是上层支撑环境,上层依赖下层。计算机系统构成计算机系统组成部分

计算机系统构成硬件含CPU、主板、存储器及外围设备,软件含操作系统、应用软件等,共同构成完整系统。

硬件与软件关系硬件为软件运行提供物理支撑,软件赋予硬件运算与处理能力,二者相辅相成。冯诺依曼体系结构冯诺依曼体系结构二进制五大部件存储程序01第一台通用计算机:ENIAC,1946年2月14日研制成功,标志着电子计算机时代的到来。每秒只能做5000次加减运算;重达30吨,占地170m2;启动功耗150千瓦;18000个电子管;没有存储器,采用十进制ElectronicNumericalIntegratorAndCalculator计算机之父:约翰·冯·诺依曼1949,EDVAC,ENIAC的1/3,二进制计算机系统构成

通用计算机系统架构:冯·诺依曼计算机的主要组成部件1)运算器运算器是进行算术运算和逻辑运算的部件,由算术逻辑单元和寄存器构成,在控制器控制下对数据运算并送结果。2)控制器控制器是计算机指挥中心,控制各部件工作以自动执行程序,由指令寄存器等组成,与运算器封装为CPU。3)存储器存储器存放程序和数据,分内存和外存。内存供CPU直接访问,临时存程序数据及运算结果;外存长期保存信息,断电数据不丢失。4)输入设备输入设备是连接用户与计算机的“桥梁”,将文字、图像、声音等原始信息转换为计算机可识别的二进制数字信号传入内存,常见的有键盘、鼠标、麦克风、扫描仪等。5)输出设备

输出设备是计算机反馈结果的"窗口",将内存二进制数据转换为声音、文字或图像,如显示器、打印机、扬声器等。计算机基本工作原理

计算机执行按程序要求自动执行复杂计算或数据处理,工作过程即执行程序过程,程序由指令序列构成。

指令作用复杂操作需转化为具体指令,计算机逐一执行,实现功能转化。计算机基本工作原理指令能被计算机识别并执行的的二进制代码,完成某种操作。指令系统一台计算机的所有的指令集合。要完成的操作类型或性质,如取数、加法、减法。操作码的位数决定了指令的条数。操作码操作数操作的内容,或所在的地址。操作数多数情况下是地址,也称为地址码。数据传送指令数据处理指令程序控制指令MOV、XCHG、PUSH、POP、LEA、…ADD、SUB、MUL、DIV、…IF、LOOP、CMP、…输入输出指令INPUT、OUTPUT、…其他指令对硬件的管理、…主要指令请求信号输出设备存储器输入设备运算器控制器数据线控制线指令响应信号响应信号请求信号地址指令取数存数运算信号反馈信号入出计算机基本工作原理CPU是由什么构成的?运算器+控制器④控制器①程序计数器1②指令寄存器2③指令译码器3时序控制电路4⑤微操作控制电路5控制器是由什么构成的?控制器的作用从内存中取出指令读写内存步骤控制计算机各部件有序工作,对内存的读写操作由控制器控制分析指令执行指令①②③指令执行过程:分取指令、分析指令、执行指令、读取下一条指令

计算机基本工作原理微信计算机衡量指标

主要性能指标概述微型计算机主要性能指标有运算速度、字长、主频、内存容量和存取周期。主频、运算速度、存取周期衡量计算机速度。

核心性能指标详解主频是CPU时钟频率,越高执行指令速度越快;字长是并行处理二进制数据位数,越长处理能力越强;内存容量是CPU可直接访问存储器大小,越大处理效率越高。

运算速度及综合指标运算速度指每秒执行指令数,以MIPS为单位,受CPU主频等因素影响;综合指标含性价比、可靠性等。A什么是CPU?CPU能干什么?CPU由什么构成的?ALU又是什么的?中央处理器(CPU)是一块超大规模的集成电路,是一台计算机的运算核心和控制核心。它的功能主要是解释计算机指令以及处理计算机软件中的数据。BALU,执行算术运算和逻辑运算算术逻辑部件算术运算:+,-,*,/

逻辑运算:and,or,not,compareto数据来自内存,运算结果又送回内存CPU是由什么构成的?控制器又是干什么的?C控制器的概念从内存中取出指令读写内存步骤控制计算机各部件有序工作分析指令执行指令①对内存的读写操作由控制器控制②③中央处理器中央处理器CPU的核心构成

01中央处理器CPU计算机系统核心,超大规模集成电路,含运算器、控制器、寄存器,执行算术逻辑运算,管理指令流程。

02CPU内部结构分控制、运算、存储单元与时序电路,ALU负责数据处理,寄存器暂存中间结果,控制器分析指令、协调操作。中央处理器CPU的性能指标核心数量指CPU集成的物理核心数,可独立执行指令;线程数是同时运行程序的个数,能虚拟核心。CPU的制造工艺制造工艺是CPU重要指标,单位为纳米,指晶体管门电路尺寸,趋势向更高密集度发展,当前可达3nm。微型计算机组成:存储器存储器是计算机系统中用来存储程序和数据的设备。存储器分为内存和外存存储器1)内存

内存类型与特性内存分ROM和RAM,ROM数据永久,适存BIOS;RAM存运行数据,断电即失,含SRAM和DRAM,前者速快适缓存,后者需定期刷新,SDRAM为一例,演进至DDR6,提效降耗。

高速缓冲存储器作用Cache介CPU与主存间,小而速,同存CPU频访指令与数据,提升读写效率,层级分L1、L2、L3,先Cache后内存,未命中再访主存。存储器2)外存

外存类型包括移动硬盘、光盘、闪存盘等,用于长期存储数据,容量大,速度较慢,稳定性高。

硬盘分类分为机械硬盘(HDD)、固态硬盘(SSD)、固态混合硬盘(SSHD),各有特点,适应不同需求。

硬盘结构磁盘面按0、1、2编号,磁道构成同心圆,扇区存储512B数据,柱面由同半径磁道组成,着陆区保护磁头。

硬盘接口SCSI、SATA、SAS、NVMe、光纤通道,各具优势,适用于不同场景,如消费级、企业级、特定行业。存储器

01硬盘性能指标关注容量、寻道时间、等待时间、访问时间、转速、传输速率、数据缓存,影响整体性能。

02固态硬盘特性基于闪存或DRAM,抗振性强,工作温度宽,适用于特殊环境,如军事、工业、医疗领域。

03固态混合硬盘结合机械硬盘与闪存,提升读取性能,减少能耗,延长电池续航,适合笔记本电脑。

04光盘存储由光盘、光驱和控制器组成,分CD、DVD、蓝光,有只读与可擦写类型,但使用率逐渐下降。输入输出设备

输入设备输入设备将外部数据传入计算机,常见有键盘、鼠标和扫描仪,各有功能特点和主流类型。

输出设备输出设备用于呈现结果,核心为显示器,主流有LCD、LED,新型有OLED,参数含尺寸、比例、分辨率等,性能涉及亮度、对比度、刷新率,交互形态在拓展。计算机软件系统软件系统定义计算机软件系统由程序、数据与文档构成,控制管理硬件资源,为应用提供运行环境,是用户与硬件接口,与硬件组成计算机系统。软件系统组成软件系统组成分三层:系统软件(资源管理与基础服务)、支撑软件(提供通用能力)、应用软件(解决特定领域问题)。操作系统功能操作系统是基础软件,管理调度隔离硬件资源,提供进程内存等核心能力,为人机交互与系统调用提供接口。面向人工智能的计算机系统

面向AI的计算机系统设计用于高效处理AI任务,集成异构加速硬件,高带宽存储,优化软件栈,提升并行计算、低延迟推理与能效比,满足AI时代极致需求。人工智能对计算机系统的特殊需求

人工智能计算需求挑战人工智能发展对计算机系统提出新计算需求与性能挑战,深度学习算法需在体系结构、资源管理及计算模式等方面专门优化。

并行性与硬件架构需求人工智能计算具高度并行性,传统CPU难高效应对,需大规模并行计算硬件架构,优化低精度计算提升效率。人工智能对计算机系统的特殊需求数据与存储能力要求

数据吞吐能力AI任务需极高的数据处理速度,对内存容量与存储访问速度要求严苛,确保数据高效流动。

存储带宽需求深度学习模型参数量大,训练过程频繁读写,传统存储难满足,需高带宽内存与高速互联保障性能。人工智能对计算机系统的特殊需求实时响应与能效需求

实时响应能力自动驾驶、智能监控等需极短时间完成推理,系统须优化计算路径与资源调度,确保模型快速响应。

系统能效比大规模模型训练耗时长,电力消耗大,需创新架构与硬件设计,平衡高性能与低功耗,提升能量利用效率。人工智能对计算机系统的特殊需求

计算系统发展方向计算机系统向专门化、异构化与智能化发展,推动硬件架构等全面革新,构建支撑人工智能算法的新型计算基础设施。面向AI的硬件架构革新AI硬件架构核心需求AI任务有大规模并行矩阵运算与海量数据处理需求,要求硬件突破传统通用架构限制,通过差异化组件设计与系统级优化,构建适配AI计算特性的专用硬件体系。面向AI的硬件架构革新计算单元革新

AI硬件架构革新AI系统集成GPU、NPU、TPU等加速器,GPU/NPU处理卷积、全连接层运算,TPU优化矩阵乘法,FPGA提供可重构计算单元,平衡灵活性与能效比。

CPU在AI系统角色CPU负责任务调度、轻量级逻辑处理及控制流管理,虽单核性能与并行计算效率不足,但在边缘设备与轻量级应用中仍为核心组件。面向AI的硬件架构革新存储与带宽设计

存储与带宽设计AI计算瓶颈关键,采用HBM内存,堆叠DRAM芯片,带宽达TB/s,分层存储策略,热数据用NVMeSSD,冷数据低成本对象存储,智能管理成本。

硬件架构革新革新AI硬件,高带宽内存提升数据传输,分层存储高效利用资源,热数据保障高并发访问,冷数据低成本存储,平衡效率与成本,支撑大规模数据处理。面向AI的硬件架构革新系统级集成优化

01系统级集成优化提升整体效能,采用多加速器+多路CPU+大容量内存+高速存储组合,满足大规模模型训练需求。

02边缘与终端AI一体机集成GPU/NPU、内存、存储及AI软件栈,预配置与优化,简化部署,提升能效比,如华为Atlas900、联想AIPC。AI软件栈与开发生态的适配软硬件适配的重要性人工智能计算任务要求软硬件深度适配,通过系统优化、工具链设计及生态创新,将硬件潜力转化为AI能力,形成技术闭环。AI软件栈与开发生态的适配系统软件层面适配

AI计算机系统需支持GPU、NPU等硬件,通过专用驱动如CUDA、CANN实现高效协同,封装硬件细节,提供统一算力接口。

AI场景优化优化文件系统与内存管理,采用高带宽存储和低延迟内存分配,减少大模型训练中的I/O瓶颈,提升计算效率。AI软件栈与开发生态的适配开发工具链适配

开发工具链作用连接硬件与开发者,主流AI框架优化不同硬件,提升计算密集型任务效率数倍至数十倍。

全流程支持涵盖模型设计到部署,提供可视化建模、自动化调参、分布式训练和模型压缩,适配边缘设备低功耗需求。AI软件栈与开发生态的适配生态协同开放创新

01AI软件栈统一系统软件栈通过硬件抽象层屏蔽芯片差异,提供标准化算力接口与通用算子库,实现一次开发、多芯部署。

02开发生态适配开放创新模式推动跨厂商、跨架构技术协同,形成统一适配标准,降低开发者门槛,充分释放硬件算力,支持AI技术规模化落地。人工智能网络基础04AI网络需求

数据传输需求大模型训练、多模态推理需海量数据高频传输与分布式协同。实时场景要求实时场景对网络延迟、可靠性有高要求,依赖底层支持。网络优化价值

突破算力瓶颈优化通用网络带宽、协议、设备,助力AI突破算力瓶颈。

适配多元场景】计算机网络定义与组成

计算机网络定义计算机及外部设备通过通信线路连接,由软件和协议管理,实现资源共享和信息传递。

计算机网络功能主要功能包括资源共享和信息传递,通过网络软件及通信协议协调实现。

资源共享共享(硬件(如计算能力、存储、打印机)、、软件及数据资源(如数据库、文件)、。

信息交换支持节点通信,实现邮件收发、新闻浏览、电话会议;分布式处理任务提升效率与负载均衡;网络异地数据备份保障系统安全可靠。计算机网络概念

计算机网络组成计算机网络由计算机系统、传输介质、网络软件及应用软件四部分组成,协同实现资源共享与信息传递。ColdWar1945-1990苏联美国华约北约计算机网络的发展USC犹他州立大学,1888年创建,公立研究性大学,下设8个学院,提供176个学士、143个硕士、38个博士学位,以及130多个研究项目欢迎访问>>UCLA加州大学洛杉矶分校。1919年创建,公立综合性大学。奥运奖项:金牌123(全美第三)、54银、56铜。欢迎访问>>ARPANetwork阿帕网,AdvancedResearchProjectsAgencyNetwork,ARPANET,美国国防高级研究计划局组建的计算机网。欢迎访问>>Stanford

University斯坦福大学,1891年创立,私立综合性大学。60个诺贝尔获奖者,20位图灵奖获得者,7位菲尔兹奖获得者。17名太空员,亿万富翁28位。欢迎访问>>UCSB加州大学圣塔芭芭拉分校。1909年创建,公立研究性大学。6位诺贝尔获得者,27位国家工程院院士,23位人文科学院院士。欢迎访问>>默默默默默计算机网络发展计算机网络发展

第一代面向终端网络20世纪50年代第一代面向终端网络,以单台主机为核心,通过通信线路连接多个终端,数据处理集中于主机。

第二代计算机互联网络20世纪60至70年代第二代计算机互联网络,以1969年美国ARPANET为里程碑,采用存储转发和分组交换技术,缺乏统一标准。

第三代开放式标准化网络20世纪70至90年代的第三代开放式标准化网络,ISO颁布OSI参考模型,TCP/IP协议广泛应用,推动网络互联互通,计算机网络飞速发展。

第四代高速互联网络20世纪90年代至今的第四代高速互联网络,以综合化、高速化、智能化和全球化为特征,渗透至社会生活各领域。局域网几百米到十几公里,一栋或几栋大楼内。局域网内传输速率较高,误码率低,结构简单容易实现。城域网在一个特定的范围内(社区或城市)将不同的局域网连接起来。通常使用高速光纤,传输速率比局域网高。广域网不同城市之间的LAN或MAN互联,几百公里到几千公里。数据传输率比局域网慢、误码率较高按地理范围分类星型结构总线结构环型结构树型结构混合结构拓扑结构:将网络中的计算机等设备抽象为点,将通信媒体抽象为线,形成由点和线组成的网络结构的几何图形。按拓扑结构分类NetworkC/S模式PToP模式B/S模式B/S模式服务器安装数据库系统客户机上只需要安装浏览器C/S模式服务器通常采用高性能的PC、工作站或小型机,并采用大型数据库系统客户端需要安装客户端软件PeerToPeer模式P2P是让所有客户端都能提供资源(带宽,存储空间和计算能力)当有节点加入且请求增多,整个系统的容量也增大,传输更慢。按传输介质分类(1)有线网络有线网络指采用双绞线、同轴电缆、光纤等物理介质传输的数据网络。(2)无线网络无线网络是指采用无线电(如微波)、红外线等无线介质传输数据的网络。按网络的传输速率分类根据网络的传输速率大小,可将网络划分为10Mbit/s、100Mbit/s和1000Mbit/s、10Gbit/s等网络类型。按信息处理方式分类(1)以太网以太网使用CSMA/CD(带有冲突检测的载波侦听多路访问)的访问控制技术,是应用最为广泛的局域网。(2)ATM交换网络ATM(AsynchronousTransferMode,异步传输模式)采用信元交换交换技术。它没有共享介质或包传递带来的延时,非常适合音频和视频数据的传输。(3)FDDI网络FDDI网络是采用光纤分布式数据接口(FiberDistributedDataInterface,FDDI)协议的网络I以光纤作为传输介质,支持长距离传输,数据传输速率可达到100Mbit/s。按传输带宽分类(1)基带传输基带信号是指发送端发出的没有经过调制的原始电信号。在数字通信信道上,直接传送基带信号的方法称为基带传输。基带传输直接传送数字信号,传输的速率高,距离短。(2)宽带传输宽带传输是将信道分成多个子信道,分别传送音频、视频和数字信号等。宽带传输系统多是模拟信号传输系统。宽带传输信道的容量大,传输距离远。双向箭头线表示概念上的通信线路,空心箭头表示实际通信线路。互连物理传输媒体通信子网资源子网应用层表示层会话层传输层网络层链路层物理层应用层表示层会话层传输层网络层链路层物理层计算机网络协议:OSI模型及分层功能​​OSI模型及分层功能​​各层功能说明

物理层功能定义物理介质属性,如电缆、接头,提供比特流传输物理通路,确保信号传输。

数据链路层作用通过帧封装实现介质访问控制、编址与差错检测,确保数据帧正确到达目标,维护数据完整性。

网络层职责负责数据包转发、路由选择与逻辑寻址,解决多路径传输,保证数据准确送达目的地。OSI模型及分层功能​​

传输层任务提供端到端可靠传输,包括流量控制、分段/重组与差错控制,确保数据段无误传输。

会话层管理管理会话进程通信,通过检验点实现断点续传,提高数据传输效率和可靠性。

表示层处理处理数据格式转换,如编码、加密,确保跨系统数据内容一致性,支持系统间通信。

应用层服务为用户提供直接服务,如文件传输、邮件收发,实现应用进程间通信,满足用户需求。TCP/IP四层模型TCP/IP协议概述TCP/IP协议是协议集,约定互联网主机寻址、命名、信息传输及服务功能,含TCP和IP协议,分网络接口、网际、传输、应用四层。网络接口层功能网络接口层:定义物理网络传输协议与硬件电气特性,实现数据链路层功能。网际层功能网际层负责分组转发、路由选择、逻辑寻址(如IP协议),控制网络拥塞,核心协议包括IP、ICMP等。传输层与应用层功能传输层:提供端到端通信(TCP可靠、UDP高效),解决应用进程识别。应用层:面向用户,提供常用服务(HTTP、FTP等),定义应用功能。网络地址和域名

计算机网络中,网络地址用于定位设备,域名用于简化访问标识网络地址1)物理地址

物理地址定义MAC地址,固化网卡,48位长,前24位区分厂商,后24位厂商分配,常用十六进制表示。MAC地址作用对应数据链路层,交换机用其转发数据帧,维护连接设备MAC地址表。网络地址2)IP地址

示例

每个字节为0~255的十进制,字节之间用点号分隔示例69DC:8864:FFf:FFFF:0:1280:8c0A:FFFFf每组表示16位,用4位十六进制表示,每组之间冒号分隔,前导0可不写IPv44个字节,32位点分十进制IPv616个字节,128位冒分十六进制表示方法域名作用IP地址难以记忆和理解,因此引入字符来表示主机地址,用字符表示的主机地址称为域名。中国教育机构北京建筑大学教务处域名举例域名系统,DNSDNS是一个分布在因特网上的主机信息数据库系统,规定了域名的命名规则,实现域名和IP地址的相互映射,使人可以方便地使用域名访问互联网。域名结构域名系统采用层次结构。即:结点名.三级域名.二级域名.顶级域名域名系统域名系统

根域名服务器介绍根域名服务器是DNS最高层级服务器,提供顶级域名服务器地址指引。IPv4有13组根,全球部署实例;“雪人计划”部署25台IPv6根,中国有4台。网络设备分类与功能主要的网络设备有如下几类

物理层设备​​中继器:接收放大电信号,延长传输距离,工作在物理层。集线器:连接多台设备至同一广播域,通过物理端口转发信号。

数据链路层设备​​网桥:基于MAC地址过滤数据帧,分割冲突域。交换机:多端口智能网桥,定向转发数据帧,支持VLAN划分。

网络层设备​​路由器:基于IP地址选择传输路径,连接异构网络。例如,家庭路由器实现连局域网与互联网的互联。

高层互联设备​​网关可转换不同协议数据格式,实现跨系统通信,如物联网网关将传感器数据转换为HTTP协议上传云端。人工智能时代的网络:网络核心功能变化

网络核心功能变化人工智能时代网络需支持数据密集型处理,实现计算并行化,保障实时交互性,超越传统数据传输,提供智能服务支撑。

网络架构变革面对AI需求,网络架构向更灵活、高效方向演进,协议优化以适应高带宽、低延迟特性,功能增强满足实时分析与决策。人工智能时代的网络:网络核心功能变化1)超高带宽与低延迟

网络核心功能变化大模型训练需TB级数据同步,网络带宽不足致GPU资源闲置,自动驾驶场景要求网络传输延迟低于10毫秒以避免指令卡顿。人工智能时代的网络:网络核心功能变化2)高可靠性与确定性

01网络核心功能变化为满足AI场景需求,网络需优化架构与升级协议,实现零丢包、低抖动,保障长周期训练与关键任务可信执行。

02保障措施优化网络架构和升级传输协议,确保数据完整性,避免因网络问题导致的人工智能训练和实时决策服务中断。人工智能时代的网络:网络核心功能变化

3)动态弹性与全局协同人工智能计算网络需适配分布式计算与多场景负载,支持动态带宽调整及多节点资源协同调度。人工智能时代的网络:架构演进:面向AI的网络重构1)高速骨干网络

骨干网要求需支持超高速率(最高1.6Tbit/s)、超低延迟(<1ms)及超高可靠性(99.999%可用性),保障AI任务全局连接。

“东数西算”工程构建国家级AI算力网络,覆盖八大枢纽,利用400G全光互联与波分复用,实现跨区数据传输延迟<5ms,支撑大模型训练。

数据中心内部互联依赖NVIDIANVLink、TPU互联协议及CXL技术,实现GPU/TPU间低延迟、高吞吐通信,支持数千加速器协同训练。人工智能时代的网络:架构演进:面向AI的网络重构2)智能调度网络​​

AI时代网络架构软件定义网络结合AI,实时采集网络状态,预测并调整资源,实现最优分配。

网络资源管理“感知-决策-执行”闭环,主动服务,提高资源利用率,提升任务执行效率。人工智能时代的网络:架构演进:面向AI的网络重构3)边缘-云协同网络

云-边-端架构构建三级架构,云端提供大规模算力,边缘侧快速响应,终端设备实时交互,优化AI应用性能。

智能驾驶场景车载传感器数据经边缘服务器实时分析后,关键决策信息回传云端,实现毫秒级响应,减轻核心网络负担。人工智能时代的网络:架构演进:面向AI的网络重构4)确定性网络​​

网络确定性要求TSN与DetNet技术,实现固定时延传输,如远程手术机器人端到端延迟<1ms,保障操作精准安全。

网络架构演进从连接工具升级为融合超高速带宽、智能调度、边缘协同与确定性保障的AI基础设施核心。AI伦理概述05AI伦理概述AI伦理挑战

隐私泄露、算法歧视成焦点,需引导AI向善,构建负责智能系统。人类角色定位

作为AI共存者,人类应引领技术发展,确保社会进步与伦理并重。AI伦理的核心原则​​

AI伦理遵循道德规范,确保技术使用合理、安全、负责任,核心包括公平、透明、隐私保护及人类监督。

伦理原则应用应用于AI设计、开发、应用全过程,防止偏见,保障用户权益,促进社会公正与技术和谐共存。

安全可控原则AI系统设计开发部署需遵循严格安全标准,确保稳定可靠,具备可解释性和可预测性,敏感信息应用采取加密、匿名化等技术保护数据安全。

平等获取技术能力原则AI技术发展应消除数字鸿沟,保障不同地区、收入群体平等获取使用。政府企业加大AI教育投入,研发推广考虑群体需求,注重多样性包容性。

AI存在的价值原则AI作为辅助工具,助人类提高工作效率和创造力,不取代人类;教育领域用于个性化教学、智能评估提升质量,还用于职业培训、技能提升以适应工作环境变化。

增进人类自由和可能性原则AI发展应尊重保护人类自由和权利,避免技术滥用及侵犯隐私,可拓宽视野、丰富精神生活,助力解决社会问题,创造未来可能性。AI伦理的实践与应用:自动驾驶行车安全优先级自动驾驶系统遵循行人保护优于财产损失伦理准则,需覆盖极端场景,车企公开安全测试报告,确保传感器故障时安全停车。责任归属明晰化事故责任涉及车企、软件供应商、用户等多方,各国探索立法明确过错推定规则,车辆需强制安装黑匣子记录数据。数据隐私保护驾驶数据收集遵循最小必要原则,加密传输匿名化处理,明确告知用途获取授权,建立全生命周期安全管理机制。AI伦理的实践与应用:智能医疗

患者隐私保护医疗AI须加密处理敏感信息,遵循最小必要原则,运用联邦学习技术,确保数据安全。

诊断准确性与公平性AI模型需多中心数据验证,避免训练偏差,明确标注辅助建议,由医生终审,定期审查算法歧视。AI伦理的未来展望完善立法与规范:筑牢技术发展的伦理底线​​

细化法律框架专项立法管理高风险AI应用,如自动驾驶、医疗诊断,明确禁止与强制性要求,确保技术发展遵守道德法律边界。

完善标准体系建立全面伦理规范,覆盖数据全生命周期,强调隐私保护、算法公平与透明性,保障AI在关键领域合规应用。

推动全球协同参与国际平台AI伦理标准制定,推动跨国界伦理共识,避免技术割裂与伦理冲突,促进全球AI健康发展。AI伦理的未来展望提供研发主体的AI伦理素养教育与人才:培育负责任的研发主体​​

01强化伦理意识培养AI伦理成必修,案例教学引争议,培养技术向善,明确社会责任。

02跨学科能力提升学习人文社科,复合思维“技术+伦理”,联合工作坊,提升伦理敏感性。

03健全激励约束机制伦理表现入评审,政策倾斜公平算法,惩处数据滥用,算法黑箱违规。AI伦理的未来展望构建动态风险评估网络监管与共治:构建动态风险评估网络​​

科学评估先行开发伦理风险评估工具,量化分析医疗、金融AI关键指标,提供技术落地风险预警。

全程透明监管建立全链条监管机制,公开高风险AI系统信息,通过监管沙盒验证新技术,平衡创新与安全。

多元主体参与鼓励公众、行业协会等共同制定自律公约,形成政府、企业、社会共治格局,确保AI服务人类福祉。

未来治理展望转向主动引领,融合法律、人才、监管,构建灵活前瞻治理体系,使技术进步与人性价值共振。THEEND谢谢第2章

人工智能计算基础IntroductiontoArtificialIntelligenceCONTENTS目录01

数的基础表示02

数的多维表达03

微积分04

损失函数曲面与正则化05

概率基础本章内容导图数的基础表示01数据的基础表示:数据、信息和知识

数据数据是客观事物的符号化记录且本身无意义,分数字和模拟数据,在计算机科学中是可输入并被处理的符号总称。

信息信息是数据经解释后的含义与内涵,香农定义其为消除随机不确定性的东西,具有时效性、共享性、真伪性和载体依附性等特征。

知识知识是系统化提炼的信息,用于解决问题,需验证、正确、被相信,有价值、可共享,依赖载体存在。数据的基础表示:数制数制的概念

数制定义数制是用固定符号和规则表示数值的方法,含基数和位权两大要素。数制组成数制由数位、数码和位权构成,数位指位置,数码是可用符号,位权由位置决定实际值。数制分类常见数制包括十进制、二进制、八进制和十六进制,各有不同基数、数码和运算规则,尾符区分。数位:在数字中所占的位置叫数位基数:数制所包含的数码的个数位权:每一位所表示的值除其本身的数

值外,还与它所处的位置有关,

由位置决定的值就叫权。数码:表示每一位数字可能使用的符号二进制二进制的表示二进制由0和1组成,是计算机存储和处理数据的基础,简化电路设计,增强稳定性,简化运算,具有强逻辑性,与逻辑代数对应。二进制的存储单位基本单位是位(bit),8位组成一个字节(Byte),存储单位体系以1024为倍率递增,包括KB、MB、GB、TB、PB、EB,体现数据量级增长。可靠性逻辑性可行性简易性物理上易实现运算法则简单逻辑线路做模型抗干扰无二义性进位制二进制八进制十进制十六进制规则逢二进一逢八进一逢十进一逢十六进一基数281016数学符号0,10~70~90~9,A~F位权2i8i10i16i表示形式BODH数码位权基数计算机相关进制Arithmetic加add0+0=01+0=0+1=11+1=10减subtract0-0=01-0=11-1=00-1=1乘multiply0*0=00*1=1*0=01*1=1除divide0/1=01/1=1二进制算术运算CPU=控制器+运算器(ALU)

1101+11101101111011-111011011101×1010000011010000+1101100000101011011111011101111111011100算术运算二进制算术运算举例Logic与and0∧0=00∧1=01∧0=01∧1=1或or0∨0=00∨1=11∨0=11∨1=1非notCPU=控制器+运算器(ALU)二进制逻辑运算与AND或OR非NOTVBLAALRVLBVA二进制逻辑运算一位全加器构成示意图或门与门异或门二进制逻辑运算应用举例进制转换

数制转换基础十进制转十进制、十进制转非十进制、二八十六进制互转,遵循按权展开、除取余与乘取整、三四位分组原则。数制转换意义掌握进制转换,是为了在不同数制间自由换算,理解计算机底层原理,并为编程、调试及硬件设计打下基础。DOBH十进制,Decimal,以D或10表示二进制,Binary,以B或2表示进制符号八进制,Octal,以O或8表示十六进制,Hexadecimal,以H或16表示进制表示2021222324252627位权:数码:数位:该二进制表示的十进制为:即:(10110010)2=1781*27+0*26+1*25+1*24+0*23+0*22+1*21+0*21:(10110010)2=()10R进制

到10进制DOBH(1232.25)10=1×103+2×102+3×101+2×100+2×10-1+5×10-2(10110.101)2=1×24+0×23+1×22+1×21+0×20+1×2-1+0×2-2+1×2-3

=22.625按权展开(127.21)8=1×82+2×81+7×80+2×8-1+1×8-2

=87.265625(1AF.C)16=1×162+A×161+F×160+C×16-1

=431.75R进制

到10进制除R取余法乘R取整法整数Integer小数Decimal10进制TOR进制0201取余取整【例】100.345(D)=110010001011(B).100250225212262321020100110010111.3801.0400.34520.690220.76021.5202×××××10进制TOR进制【例】100(D)=1008128180441144(O)1001660461664(H)【例】

100(D)=10To810To16思考:683(D)=()(H)10进制TOR进制小数例2转化成八进制三位一组转化成十六进制四位一组小数部分:从左向右进行分组,不足的位必须补00011

0110

1111.1101

0136F.D0014

=36F.D4(H)(B)=36F.D1(H)✘✔11

0110

1111(B)=36F36F00(H)2进制TO8/16进制376.52(O)=011

111

110.101

010(B)

376.52整数部分和小数部分:八进制,一位变成三个0/1位十六进制,一位变成四个0/1位A3B9.D1E(O)=1010

0011

1011

1001.1101

00011110(B)

A3B9.D1E小数例38/16进制TO2进制数据的基础表示:数和文本在计算机中的表示数据基础表示数据分数字、文本等,需转换为二进制编码,计算机处理规定格式,涵盖数值与非数值类型。数据编码数字、文字多样,统一转二进制,规定格式编码,适配计算机处理机制。数据的基础表示:数和文本在计算机中的表示数值型数据

数的符号计算机中用"0"表正,"1"表负,机器数具符号数字化与大小受限于字长特性。

定点数和浮点数计算机处理数值采用定点数(小数点位置固定)与浮点数(小数点位置可变)表示,浮点数通过规格化提高精度与统一表示。

浮点数表示IEEE754标准定义浮点数格式,32位单精度浮点数由1位符号位、8位指数位与23位尾数组成,指数位有127的偏移量。

原码、反码、补码原码直接表示数,反码对负数取反,补码对负数取反后加1,补码用于简化运算,真值0在补码中表示唯一。0数值位1000001010110011514131211109876543210真值+33113D机器数2字节例整数编码-无符号数0符号位1000001010110011514131211109876543210机器数2字节例真值-345D+0-1编码字节越长,数值范围越大整数编码-有符号数fixed-pointnumber浮点数小数点位置浮动、变化的数。float-pointnumber定点数小数点位置固定不变的数。小数编码符号位

隐含小数点153210s…符号位

隐含小数点153210s…00000000011000011101000000000000-0.625D+97D2B为例定点整数定点小数小数编码以指数形式表示十进制的浮点数二进制的浮点数阶符和阶码指数部分称为阶码小数部分称为尾数±尾数×10±阶码-6.375=-0.06375×102

=-637.5×10-2

=-0.6375×10+1=-6.375×10+0±尾数×2±阶码-6.375D=

-110.011(B)=-11.0011×2+1

=-1.10011×2+10=-0.110011×2+11=-1100.11×2-01浮点数浮点数规格化形式:尾数中的小数点在数值的第一个有效位的后面,这样便准确规定了小数点的位置。小数编码浮点数的规格化表示符号位指数位尾数位IEEE754,以32位float为例(37.625)D=(100101.101)B=

1.00101101×25小数编码符号位:为0表示正数,为1表示负数。指数位:用于表示以2位底的指数。指数加上这个偏移量后会变成一个非负整数(此处127)。因此图中8个比特的指数位范围是[0,255],减去偏移量127后,这8个比特能表示[-127,128]范围内的指数。尾数位:使用规范化处理,在存储尾数时可以省略前面的1和小数点,只记录尾数中小数点之后的部分,节约了一位内存。01原码补码03反码02最高位为符号位,数值部分为原数的绝对值。正数的补码和原码相同,负数的补码是在其反码的最后一位上加1。正数的反码和原码相同;负数的反码是对其原码除符号位外的部分求反。机器存储数字的编码方式机器数编码01原码补码03反码02+7,原码00000111+7,反码00000111+7,补码00000111-7,原码10000111-7,反码11111000-7,补码11111001负数补码负数原码取反加一取反加一机器数编码0X1|X|X≥0X≤0+7:00000111+0:00000000-7:10000111-0:10000000[X]原=01原码定义:最高位为符号位,数值部分为原数的绝对值0的表示不唯一不便于进行加减运算1000010100001001+10001110-5的原码结果为-149的原码-5+9=?1B为例机器数编码定义:正数反码和原码相同;负数反码是对原码除符号位以外外按位求反0的表示不唯一不便于进行加减运算1111101000001001+100000011-5的反码结果为+39的反码-5+9=?02反码0X1|X|X≥0X≤0+7:00000111+0:00000000-7:11111000-0:11111111[X]反=1B为例机器数编码定义:正数的补码和原码相同,负数的补码是在其反码的最后一位上加10的表示唯一正确加减运算1111101100001001+100000100-5的补码结果为补码,值+49的补码0X1|X|+1X≥0X≤0+7:00000111+0:00000000-7:11111001-0:00000000[X]补=-5+9=?补码03舍弃1B为例机器数编码数据的基础表示:数和文本在计算机中的表示字符编码

西文字符表示ASCII码是最早的西文字符编码,分7位和8位,7位码最高位为0,共128个字符,包括英文、数字和符号。

中文字符表示汉字编码包括输入码、机内码和字形码,GB/T2312标准定义了6763个汉字和682个符号,区位码、国标码和机内码用于处理和存储。ASCII编码ANSI编码鲍勃〮比默尔信息交换标准码AmericanStandardCodeforInformationInterchange扩展ASCII码西文编码扩展标准ASCII码扩展ASCII码0101100176543210使用低7位来表示大小写字母,数字0到9、标点符号,以及在美式英语中使用的特殊控制字符。最高位可以作为奇偶校验位。1101100176543210每个字符的最高位用于确定附加的128个特殊符号字符、外来语字母和图形符号。西文编码0~9编码利于ASCII码与二进制转换英文字母编码利于大小写转换含有33个无法显示的控制字符,用于输出格式控制、传输控制等ASCII编码大陆、新加坡国标码汉字字形码…………中文编码区位码Phase1国标码Phase2机内码Phase3字形码Phase4中文编码区位码区号(1-94)位号(1-94)按GB2312-18国标规定,汉字编码表有94行,94列,其行号01~94称为区号,列号01~94称为位号,一个汉字所在的区号和位号组合在一起,就构成了这个汉字的区位码。每个汉字占2个字节,第一个字节称为高字节,第二个字节称为低字节区位码表示为:区号(01-94,或01H-5EH)位号(01-94,或01H-5EH)中文编码国标码为避开ASCII码前32个控制码,在区位码的基础上加32(20H),得到国标码。国标码每个字节的编码范围为33(21H)~126(7EH)。国标码=区位码+3232(2020H)中文编码国标码“中”字的区位码5448(3630H),国标码为8680,对应的ASCII字符为“VP”。这到底是一个汉字?还是两个西文字符?高字节和低字节的高位置1,与高位是0的ASCII码区分机内码每个字节的编码范围为:161(A1H)~254(FEH)机内码=国标码+8080H机内码中文编码字形码点阵式矢量式点阵式中文编码数据的基础表示:声、图信息的表示

数据基础表示声、图信息需转二进制,计算机方可存储处理。模拟音频信号话筒录音信号采样信号量化信源编码模拟信号模拟音频信号采样频率(44KHZ)数字化处理声音、图形、视频等信息,需要转换成二进制数后计算机才能存储和处理。将模拟信号转换成二进制数的过程称为数字化处理。采样:在固定时间间隔内,对模拟音频信号截取振幅值。单位时间内采样次数(采样频率)越多,数字信号就越接近原声。量化:将信号连续取值为有限多个离散值。编码:将采集的原始数据,按文件类型(如WAV、MP3等)编码,

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论