高维度缺页数据的降维补全_第1页
高维度缺页数据的降维补全_第2页
高维度缺页数据的降维补全_第3页
高维度缺页数据的降维补全_第4页
高维度缺页数据的降维补全_第5页
已阅读5页,还剩19页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

高维度缺页数据的降维补全

1目录

第一部分高维度特征降维方法概述............................................2

第二部分奇异值分解降维原理................................................4

第三部分主成分分析降维算法................................................7

第四部分线性判别分析降维技巧..............................................9

第五部分稀疏编码降维技术..................................................12

第六部分流形学习降维模型..................................................15

第七部分降维后缺页数据补全方法...........................................18

第八部分降维补全的性能评估指标...........................................21

第一部分高维度特征降维方法概述

关键词关键要点

线性降维方法

1.主成分分析(PCA):浅性变换,保留最大方差的特征,

适用于数据呈线性分布的情况。

2.奇异值分解(SVD):将数据分解为正交矩阵的乘积,可

用于降维和噪声去除C

3.多维缩放(MDS):将高维数据映射到低维空间中,保留

原始数据之间的距离关系。

非线性降维方法

l.t分布随机邻域嵌入(t-SNE):非线性降维方法,可有效

处理高维非线性数据。

2.局部线性嵌入(LLE):基于局部线性关系的非线性降维

方法,适用于流形结构明显的数据。

3.流形学习:基于流形假设的降维方法,旨在揭示数据中

的内在结构。

基于生成模型的降维方液

1.变分自编码器(VAE):生成模型,通过学习潜在变量来

降维,可保留数据中的重要特征。

2.生成对抗网络(GAN):对抗性生成模型,可学习数据分

布并生成低维数据。

3.流模型:基于流流形的生成模型,可高效地从高维数据

中生成低维数据。

基于距离度量学习的降维方

法1.马氏距离矩阵学习(MDML):通过学习马氏距离矩阵来

降维,可处理异方差和非线性关系的数据。

2.局部保持投影(LPP):基于局部邻域关系的降维方法,

可保留局部几何结构。

3.邻接图拉普拉斯特征映射(LLE):基于邻接图特征的降

维方法,可保留拓扑关系。

基于度量学习的降维方法

1.梅特里克学习:基于距离度量学习的降维方法,旨在学

习合适的度量空间,以保留数据中的相似性和差异性。

2.核方法:通过核函数将数据映射到高维空间,然后在高

维空间中进行降维,可外理非线性关系的数据。

3.降维因子分析(DFA):基于度量学习的降维方法,使用

因子模型来建模数据中的潜在结构。

其他降维方法

1.决策树:基于决策树的降维方法,可通过分裂特征和决

策规则生成低维特征。

2.随机投影:随机投影矩阵将高维数据投影到低维空间中,

适用于大规模数据集。

3.哈希函数:哈希函数爵数据映射到低维哈希代码中,可

用于快速搜索和聚类。

高维度特征降维方法概述

高维度特征降维是一种将高维数据转换到低维空间的技术,常用于数

据可视化、模式识别和数据挖掘。降维方法可分为线性降维和非线性

降维两大类。

线性降维方法

*主成分分析(PCA):PCA通过寻找数据协方差矩阵的主特征向量,

将数据投影到主成分空间,最大程度地保留数据的方差。

*奇异值分解(SVD):SVD将数据分解为奇异值、左奇异向量和右奇

异向量的乘积。通过截断奇异值,可以实现降维。

*线性判别分析(LDA):LDA是一种监督降维方法,它通过最大化类

间散度和最小化类内散度,将数据投影到区分度最高的维度上。

非线性降维方法

*非线性主成分分析(NLPCACNLPCA将PCA应用于数据的高维映射,

从而实现非线性降维。

*核主成分分析(KPCA):KPCA利用核函数将数据映射到高维空间,

然后在那里应用PCAo

*局部线性嵌入(LLE):LLE基于局部邻域的线性关系,将数据嵌入

到低维空间中。

*等距映射(ISOMAP):ISOMAP通过计算数据点之间的最短路径距离,

将数据嵌入到低维空间中。

*t分布随机邻域嵌入(t-SNE):t-SNE是一种非参数降维方法,它

通过最小化t分布下的联合概率来将数据嵌入到低维空间中。

降维方法选择

选择合适的降维方法取决于数据的类型、应用和计算资源。以下是一

些一般准则:

*线性数据:PCA和SVD适合于线性数据。

*非线性数据:NLPCA、KPCA、LLE、ISOMAP和t-SNE适用于非线性数

据。

*监督降维:LDA适用于有标记的数据。

*无监督降维:PCA、SVD、NLPCA、KPCA、LLE、ISOMAP和t—SNE适用

于无标记的数据。

*计算复杂度:PCA和SVD的计算成本较低,而NLPCA、KPCA、LLE、

ISOMAP和t-SNE的计算成本更高。

通过理解这些降维方法,研究人员和从业者可以有效地将高维度数据

转换为低维空间,从而简化数据处理、提高计算效率和增强对数据的

见解。

第二部分奇异值分解降维原理

关键词关键要点

【奇异值分解降维原理】:

1.奇异值分解(SVD)将矩阵分解为三个矩阵的乘积:U、

£、VATo

2.U和V是正交矩阵,E是对角矩阵,其对角元素是非负

奇异值。

3.奇异值衡量了矩阵中各奇异向量的重要性,降维时可以

舍弃较小的奇异值及其对应的奇异向量。

【降维过程】:

奇异值分解降维原理

奇异值分解(SVD)是一种线性代数技术,可将矩阵分解为奇异值、

左奇异向量和右奇异向量的乘积。该分解可用于降维,通过保留较大

的奇异值及其相应的奇异向量,从而近似原始矩阵。

奇异值分解的数学公式

设矩阵A为mXn矩阵,则其奇异值分解形式为:

A=U2VF

其中:

*U是mXm正交矩阵,其列称为左奇异句量。

*2是mXn对角矩阵,其对角元称为奇异值。奇异值是矩阵A的

非负实根。

*V是nXn正交矩阵,其列称为右奇异向量。

降维过程

降维过程涉及以下步骤:

1.计算奇异值分解:使用奇异值分解算法对矩阵A进行分解。

2.设定截断阈值:选择一个阈值,用于丢弃较小的奇异值。

3.保留主成分:保留奇异值大于或等于阈值的奇异值及其相应的奇

异向量。

4.构造投影矩阵:使用保留的主成分构造一个mXk投影矩阵P(k

为保留的奇异值个数)。

5.降维:将原始矩阵A乘以投影矩阵P,获得降维后的矩阵B:

B=AxP

降维的原理

奇异值分解降维的原理基于以下观察:

*奇异值顺序表示重要性:奇异值按降序排列,较大的奇异值对应于

矩阵A中更重要的特征。

*奇异向量捕捉方差:左奇异向量捕捉矩阵行的方差,而右奇异向量

捕捉列的方差。

*降维近似:丢弃较小的奇异值及其相应的奇异向量,可以近似原始

矩阵,同时保留其主要特性。

降维的优点

奇异值分解降维具有以下优点:

*优化方差保留:SVF旨在保留尽可能多的原始矩阵方差,同时减少

维度。

*数据可视化:降维后的数据更容易可视化和分析。

*计算效率:SVF计算快速有效,即使对于大矩阵也是如此。

降维的应用

奇异值分解降维广泛应用于各种领域,包括:

*数据压缩:用于压缩图像、视频和文本等各种类型的数据。

*特征提取:用于从高维数据中提取有意义的特征。

*降噪:用于去除数据中的噪声和异常值。

*图像处理:用于图像增强、降噪和分类。

*自然语言处理:用于主题建模、文本分类和信息检索。

第三部分主成分分析降维算法

关键词关键要点

主成分分析降维算法

主题名称:主成分分析的基1.主成分分析是一种线性降维方法,通过正交变换将原始

本原理高维数据投影到低维空间中。

2.该变换基于协方差矩阵的特征值分解,选取具有最大方

差的特征向量作为新的低维空间的基向量。

3.主成分分析可以有效减少数据维度,同时最大程度地保

留原始数据的变异性。

主题名称:主成分分析的降维步骤

主成分分析降维算法

原理

主成分分析(PCA)是一种线性降维算法,旨在将高维数据投影到低

维空间上,同时保留最大方差。它通过以下步骤实现:

1.标准化数据:将数据中的每个特征中心化并归一化到具有零均值

和单位方差。

2.计算协方差矩阵:计算标准化数据的协方差矩阵,该矩阵包含特

征之间的协方差。

3.计算特征值和特征向量:对协方差矩阵进行特征值分解,得到特

征值和相关的特征向量。

4.投影数据:使用特征向量作为投影矩阵,将数据投影到低维空间

中。投影后的数据称为主成分。

优点

*方差最大化:PCA旨在保留原始数据中尽可能多的方差,从而最大

限度地保留信息。

*线性:PCA是一种线性变换,便于解释和理解。

*计算效率高:PCA的计算成本较低,尤其适用于大数据集。

缺点

*线性假设:PCA假设数据服从线性分布,对于非线性数据可能不适

用。

*噪声敏感:PCA对噪声敏感,噪声可能会导致次要主成分中出现虚

假方差。

*可能存在信息丢失:在投影到低维空间时,PCA会不可避免地丢失

一些信息。

步骤

1.确定要降维的维度d:通常选择d小于原始维度的值。

2.标准化数据:将每个特征中心化并归一化为具有零均值和单位方

差。

3.计算协方差矩阵:计算标准化数据的协方差矩阵。

4.特征值分解:对协方差矩阵进行特征值分解,得到特征值X_l,

X_2,...,入_n和对应的特征向量u_l?u_2,...,u_no

5.选择主成分:选择d个具有最大特征值的主成分,可以形成投影

矩阵U=[u_l,u_2,...,u_d]o

6.投影数据:将数据X乘以投影矩阵U,即可得到降维后的数据Y

=XUo

选择主成分个数

确定要保留的主成分个数d非常重要。以下是一些常见的准则:

*方差保留:选择保留95%以上方差的主成分。

*拐点:绘制特征值随主成分索引的图,选择拐点处的主成分。

*经验法:对于图像或文本数据,通常设置d二100-200o对于高维

传感器数据,可能需要更大的d值。

应用

PCA广泛应用于各种领域,包括:

*数据可视化:将高维数据降维到二维或三维空间进行可视化。

*特征提取:从原始数据中提取有用的特征,用于分类或聚类。

*缺失值估计:估计高维数据中的缺失值。

*降噪:去除噪声和异常值,提高数据的质量。

*数据压缩:将高维数据压缩到低维表示中,以便存储和传输。

第四部分线性判别分析降维技巧

关键词关键要点

线性判别分析降维技巧

主题名称:线性判别分析原1.目标:将多维数据投影到低维子空间,最大化类间距离,

理最小化类内距离。

2.数学基础:将数据投影到由Fisher判别准则优化的方向,

最大化类间散布矩阵与其类内散布矩阵的比值。

3.优点:在类分布呈线性时,降维效果较好。

主题名称:线性判别分析优缺点

线性判别分析降维技巧

线性判别分析(LDA)是一种降维技术,旨在将高维度数据投影到较

低维度的子空间中,同时最大化类内方差比类间方差。通过这种方式,

LDA可以有效地分离不同的数据类,并提取具有最大区分度的特征。

LDA原理

LDA的基本原理是寻找投影方向,使得投影后的数据具有以下特性:

*类内方差最小:投影后的同一个类别的样本聚集在一起,方差最小。

*类间方差最大:不同类别的样本投影后距离较远,方差最大。

LDA通过求解广义特征值问题来实现上述目标:

S_bW=XS_wW

其中:

*S_b是类间协方差矩阵

*S_w是类内协方差矩阵

*W是投影矩阵

*X是广义特征值

通过求解该特征值问题,可以得到最优投影方向W,从而将高维度数

据投影到低维度的子空间中。

LDA降维步骤

LDA降维的步骤如下:

1.计算类内协方差矩阵S_w和类间协方差矩阵S_b:

*类内协方差矩阵:S_w=S(n_i-1)*S_i,其中n_i是第

i类样本数,S_i是第i类样本的协方差矩阵。

*类间协方差矩阵:S_b=E(u_i-u)*(u_i-口)丁,其

中n_i是第i类样本的均值向量,u是所有样本的均值向量。

2.求解广义特征值问题:S_bW=XS_wW,得到广义特征值人和投

影矩阵Wo

3.选择特征向量:选择前k个最大的广义特征值对应的特征向量

组成投影矩阵Wo

4.投影数据:将原始数据X投影到低维度的子空间中,得到降维后

的数据X'=X*Wo

LDA降维的应用

LDA降维在众多领域都有广泛的应用,包括:

*数据可视化:将高维度数据降维到低维度,便于可视化和探索。

*特征选择:通过计算特征向量的权重,可以识别出最具区分度的特

征。

*分类:LDA降维后的数据可以作为分类器的输入,提高分类准确率0

LDA降维的优缺点

*优点:

*能有效分离不同类别的数据。

*计算相对简单,实现方便。

*适用于线性可分的数据。

*缺点:

*对异常值敏感,可能导致降维结果偏差。

*仅适用于两类问题,对于多类问题需要进行扩展。

*只能处理线性可分的数据,对于非线性数据需要使用非线性降

维方法。

结论

线性判别分析(LDA)降维是一种有效的降维技术,适用于线性可分

的两类数据。通过最大化类内方差比类间方差,LDA可以将高维度数

据投影到低维度的子空间中,同时保留最具区分度的特征信息。LDA

在数据可视化、特征选择和分类等领域都有广泛的应用。

第五部分稀疏编码降维技术

关键词关键要点

【稀疏编码降维技术】

1.稀疏编码降维是一种无监督降维技术,旨在通过求解一

个稀疏线性组合来将高维数据投影到低维空间。

2.稀疏线性组合的权重向量被强制具有稀疏性,即大部分

元素为零或接近于零。

3.这种稀疏性确保了低维特征仅包含原始高维数据的相关

部分,从而实现有效降维。

稀琉编码算法

1.正则化稀疏编码算法〔例如L1正则化):将L1正则化

项添加到求解线性组合的优化问题中,以惩罚非零权重。

2.贪婪算法(例如正交匹配追踪):迭代地选择最相关的特

征并将其添加到线性组合,直到达到所需的降维。

3.字典学习算法:学习一个稀疏字典,表示原始数据的潜

在低维结构。

低秩稀疏编码

1.低秩稀疏编码将低秩性和稀疏性相结合,提高了降维的

有效性。

2.通过求解一个低秩的爱性组合来捕获数据的全局结构,

同时保持稀疏性的局部细节。

3.这对于处理具有低秩结构的高维数据非常有效。

流形学习稀疏编码

1.流形学习稀疏编码将流形学习技术与稀疏编码结合,揭

示数据的非线性结构。

2.通过在非线性嵌入空间中进行稀疏编码,可以捕获数据

的局部几何关系。

3.这适用于处理具有复杂流形结构的高维数据。

深度稀疏编码

1.深度稀疏编码通过堆叠多个稀疏编码层来构造一个深层

网络。

2.每一层捕获数据在不同粒度上的局部特征,从而实现更

强大的降维和特征提取。

3.这在处理高维数据中日勺复杂非线性关系方面非常有效。

生成式稀疏编码

1.生成式稀疏编码利用生成模型来学习稀疏编码字典,表

示数据的潜在分布。

2.通过从字典中生成新数据,可以进行数据重建和生成。

3.这对于处理不完整或噌杂数据非常有用。

稀疏编码降维技术

稀疏编码降维技术是一种广泛应用于高维度缺页数据补全的降维方

法。其核心思想是将原始高维数据表示为低维线性组合中的稀疏系数。

原理

稀疏编码降维基于以下假设:

*高维度数据通常具有内在的低秩结构,可以通过少量的基向量线性

组合表示。

*缺页数据分布于基向量上稀疏,即缺页项对应的稀疏系数为零。

根据这些假设,稀疏编码降维的目标是寻找一个低维基向量集合,使

得缺页数据对应的系数在基向量上的表示尽可能稀疏。

算法

常用的稀疏编码降维算法包括:

*正则化奇异值分解(RSVD):在奇异值分解的基础上,引入正则化

项以惩罚系数的非零个数。

*字典学习:通过训练一个字典集合,来表示高维数据的稀疏组合,

缺页项可以通过字典中的元素稀疏线性表示。

*非负矩阵分解(NMF):将高维数据分解为两个非负矩阵的乘积,以

强制系数为非负,从而实现稀疏性。

流程

稀疏编码降维过程通常包括以下几个步骤:

1.特征提取:从原始高维数据中提取特征向量或基向量集合。

2.训练稀疏编码器:根据所选的算法,训练一个稀疏编码器,以将

高维数据编码为低维稀疏系数。

3.缺页补全:利用稀疏编码器,通过求解稀疏系数来补全缺页数据。

优点

*有效性:稀疏编码降维能够有效补全高维度缺页数据,并保持数据

固有的结构。

*鲁棒性:对噪声和异常值具有一定的鲁棒性,不会过度拟合缺页项。

*可解释性:稀疏系数在低维基向量上的表示反映了数据的内在结构,

便于后续分析和解释。

局限性

*计算量大:训练稀疏编码器通常需要大量的计算资源。

*参数敏感:需要仔细调整稀疏编码器的参数,以取得最佳的补金效

果O

*不适用于严重缺失:当缺页比例过高时,稀疏编码降维可能无法有

效补全数据。

应用

稀疏编码降维技术在以下领域有着广泛的应用:

*高维数据分析和可视化

*图像和视频处理

*自然语言处理

*生物信息学

*推荐系统

第六部分流形学习降维模型

关键词关键要点

等距映射

1.等距映射是一种试图将所有数据之间的成对距离在原始

空间和降维空间中保持不变的降维技术。

2.其目标函数最小化所有样本对之间的马氏距离和欧氏距

离之差的平方和。

3.等距映射对于保存局部邻域关系和发现潜在流形结构非

常有效。

局部线性嵌入

1.局部线性嵌入是一种基于线性近似的降维技术。

2.它使用线性组合来重建每个数据点的局部邻域,并迫使

这些重建在降维空间中俣持相似。

3.局部线性嵌入擅长保留局部结构和非线性关系,并且对

噪声和异常值具有鲁棒佳。

拉普拉斯特征映射

1.拉普拉斯特征映射基于图论,将数据视为一个图,其中

节点是数据点,边权重是数据点之间的相似性。

2.其目标函数最小化图的拉普拉斯算子的第二最小特征

值,从而寻找能够区分数据点的特征向量。

3.拉普拉斯特征映射对于处理高维度和非线性数据非常有

效,并且可以提取数据的全局结构信息。

1-分布随机邻域嵌入

1J-分布随机邻域嵌入是一种基于局部邻域的降维技术,其

中局部邻域由t分布而不是高斯分布建模。

2.该分布的重尾特性允许捕获更多非线性相互作用,从而

提高数据表示的质量。

3.t-分布随机邻域嵌入适用于处理高维度和稀疏数据,并且

可以有效地识别数据中的局部簇和流形结构。

自编码器

1.自编码器是一种神经网络,由编码器和解码器组成,编

码器将输入数据降维到一个潜在空间,解码器将潜在空间

的数据重构回原始空间。

2.自编码器的训练目标是最小化输入数据和重构数据之间

的重建误差。

3.自编码器可以学习数据的潜在表示,并通过调整潜在空

间的维度实现降维。

生成对抗网络

1.生成对抗网络是一种由生成器网络和判别器网络组成的

无监督降维模型。

2.生成器网络试图生成与真实数据相似的合成数据,而判

别器网络试图区分真实数据和合成数据。

3.通过对抗性训练,生成器网络学习到数据的潜在分布,

并且可以通过从生成器网络中提取特征来进行降维。

流形学习降维模型

流形学习降维模型是一种非线性降维技术,旨在将高维数据投影到低

维子空间中,同时保留数据中的重要结构。这些模型基于流形假设,

即高维数据通常分布在低维流形上,该流形捕获了数据的内在结构。

流形学习降维模型通过构造局部邻域图来识别流形。局部邻域图中的

每个节点表示一个数据点,而边表示节点之间的相似度或距离。然后,

该图用于学习数据流形的局部几何形状。

常见的流形学习降维模型包括:

#局部线性嵌入(LLE)

LLE是一种局部线性模型,假设每个数据点都可以由其局部邻域内的

其他点线性组合得到。通过最小化重构误差,LLE可以在低维子空间

中嵌入数据,同时保留局部线性关系。

#等度映射(Isomap)

Isomap是一种基于测地距离的流形学习模型。它将高维数据点之间

的距离近似为低维流形上的最短路径。通过计算图上的最短路径,

Isomap可以将数据投影到流形上。

#局部切空间对齐(LTSA)

LTSA是一种局部切空间对齐模型,假设每个数据点的局部切空间都

可以与低维子空间对齐。通过最小化切空间之间的差异,LTSA可以

将数据嵌入到低维子空间中。

#t分布随机邻域嵌入(t-SNE)

t-SNE是一种非线性降维模型,将高维数据投影到低维子空间中,同

时保留局部和全局结构。它通过最小化数据点之间的t分布相似度

和低维嵌入之间的欧氏距离来获得嵌入。

#流形学习降维模型的应用

流形学习降维模型广泛应用于各种领域,包括:

*数据可视化:将高维数据可视化到低维空间,以揭示隐藏的结构和

模式。

*特征提取:从高维数据中提取有用的特征,以用于分类、聚类和回

归任务。

*降噪:通过投影数据到流形上,去除高维数据中的噪声和异常值。

*图像处理:用于图像分割、面部识别和对象检测。

*生物信息学:用于基因表达数据分析、蛋白质结构预测和药物发现。

流形学习降维模型的优点:

*保留高维数据中的重要结构。

*可以处理非线性数据。

*可以发现复杂的数据流形。

流形学习降维模型的缺点:

*对参数(如局部邻域大小和子空间维度)的选择很敏感。

*计算成本可能很高,尤其是对于大数据集。

*嵌入结果可能受数据噪声和异常值的影响。

第七部分降维后缺页数据补全方法

关键词关键要点

【缺页数据补全原理】

1.缺页数据补全的目的是通过利用相关变量之间的关系,

推断出缺失值,从而获得完整数据集。

2.降维是通过投影或转演操作将高维度数据映射到低维空

间,从而降低数据复杂度和噪声。

3.降维后的数据更加简洁和可处理,便于缺页值补全。

【降维前特征选择】

高维度缺失数据降维补全方法

引言

在实际应用中,高维度数据往往存在缺失值,这将对数据分析和挖掘

带来挑战。降维补全是一种有效解决高维度缺失数据的方法,它可以

将高维数据投影到低维空间,从而减少缺失数据的数量和影响。以下

对降维后缺失数据补全方法进行详细介绍。

1.主成分分析(PCA)补全

PCA是一种经典的线性降维方法,通过计算数据协方差矩阵的特征值

和特征向量,将高维数据投影到低维特征空间中。在PCA补全中,缺

失值被投影到低维空间后进行估计。

2.奇异值分解(SVD)补全

SVD是一种广义的PCA方法,它将数据矩阵分解为三个矩阵的乘积。

在SVD补全中,缺失值被投影到低维左奇异向量和右奇异向量构戌的

空间后进行估计。

3.局部线性嵌入(LLE)补全

LLE是一种非线性降维方法,它假设数据在局部邻域内具有线性结构。

在LLE补全中,缺失值通过重建其局部邻域的线性组合来估计。

4.局部可保形映射(LPP)补全

LPP是一种非线性降维方法,它保持了数据的局部几何结构。在LPP

补全中,缺失值通过解决一个局部可保形映射问题来估计。

5.非负矩阵分解(NMF)补全

NMF是一种非负降维方法,它将数据矩阵分解为两个非负矩阵。在NMF

补全中,缺失值通过估计分解后的非负矩阵来补全。

6.自编码器(AE)补全

AE是一种深度神经网络,它通过学习输入数据的压缩和重建过程来

进行降维。在AE补全中,缺失值被投影到AE的隐含层后进行估计。

7.变分自编码器(VAE)补全

VAE是一种概率自编码器,它通过引入一个概率分布来对隐含层表示

进行建模。在VAE补全中,缺失值通过对隐含层分布的采样来估计。

8.生成对抗网络(GAN)补全

GAN是一种生成模型,它包含一个生成器和一个判别器。在GAN补全

中,缺失值通过生成器生成,然后由判别器判别是否真实。

9.矩阵补全

矩阵补全是一种直接针对矩阵缺失值进行补全的方法。它利用已知元

素和矩阵的结构(例如低秩性)来估计缺失值。

10.插值法

插值法是一种简单直观的补全方法,它通过已知值的插值来估计缺失

值。常用的插值方法包括线性插值、最近邻插值和k临近插值等。

选择合适的补全方法

选择合适的降维补全方法

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论