典型关联分析(Canonical Correlation Analysis,以下简称CCA)是最常用的挖掘数据关联关系的算法之一。比如我们拿到两组数据,第一组是人身高和体重的数据,第二组是对应的跑步能力和跳远能力的数据。那么我们能不能说这两组数据是相关的呢?CCA可以帮助我们分析这个问题。
在数理统计里面,我们都知道相关系数这个概念。假设有两组一维的数据集X和Y,则相关系数ρ
的定义为:
其中cov(X,Y)是X和Y的协方差,而D(X),D(Y)分别是X和Y的方差。相关系数ρ的取值为[-1,1], ρ的绝对值越接近于1,则X和Y的线性相关性越高。越接近于0,则X和Y的线性相关性越低。
虽然相关系数可以很好的帮我们分析一维数据的相关性,但是对于高维数据就不能直接使用了。拿上面我们提到的,如果X是包括人身高和体重两个维度的数据,而Y是包括跑步能力和跳远能力两个维度的数据,就不能直接使用相关系数的方法。那我们能不能变通一下呢?CCA给了我们变通的方法。
CCA使用的方法是将多维的X和Y都用线性变换为1维的X'和Y',然后再使用相关系数来看X'和Y'的相关性。将数据从多维变到1位,也可以理解为CCA是在进行降维,将高维数据降到1维,然后再用相关系数进行相关性的分析。下面我们看看CCA的算法思想。
上面我们提到CCA是将高维的两组数据分别降维到1维,然后用相关系数分析相关性。但是有一个问题是,降维的标准是如何选择的呢?回想下主成分分析PCA(参考文章 单细胞PCA分析的降维原理 ),降维的原则是投影方差最大;再回想下线性判别分析LDA,降维的原则是同类的投影方差小,异类间的投影方差大。对于我们的CCA,它选择的投影标准是降维到1维后,两组数据的相关系数最大。
现在我们具体来讨论下CCA的算法思想。假设我们的数据集是X和Y,X为n1×m的样本矩阵。Y为n2×m的样本矩阵其中m为样本个数,而n1,n2分别为X和Y的特征维度。
对于X矩阵,我们将其投影到1维,或者说进行线性表示,对应的投影向量或者说线性系数向量为a, 对于Y矩阵,我们将其投影到1维,或者说进行线性表示,对应的投影向量或者说线性系数向量为b, 这样X ,Y投影后得到的一维向量分别为X',Y'。我们有
L2 正则化公式非常简单,直接在原来的损失函数基础上加上权重参数的平方和:
其中,Ein 是未包含正则化项的训练样本误差,λ 是正则化参数,可调。但是正则化项是如何推导的?接下来,我将详细介绍其中的物理意义。
我们知道,正则化的目的是限制参数过多或者过大,避免模型更加复杂。例如,使用多项式模型,如果使用 10 阶多项式,模型可能过于复杂,容易发生过拟合。所以,为了防止过拟合,我们可以将其高阶部分的权重 w 限制为 0,这样,就相当于从高阶的形式转换为低阶。
为了达到这一目的,最直观的方法就是限制 w 的个数,但是这类条件属于 NP-hard 问题,求解非常困难。所以,一般的做法是寻找更宽松的限定条件:
上式是对 w 的平方和做数值上界限定,即所有w 的平方和不超过参数 C。这时候,我们的目标就转换为:最小化训练样本误差 Ein,但是要遵循 w 平方和小于 C 的条件。
下面,我用一张图来说明如何在限定条件下,对 Ein 进行最小化的优化。
如上图所示,蓝色椭圆区域是最小化 Ein 区域,红色圆圈是 w 的限定条件区域。在没有限定条件的情况下,一般使用梯度下降算法,在蓝色椭圆区域内会一直沿着 w 梯度的反方向前进,直到找到全局最优值 wlin。例如空间中有一点 w(图中紫色点),此时 w 会沿着 -∇Ein 的方向移动,如图中蓝色箭头所示。但是,由于存在限定条件,w 不能离开红色圆形区域,最多只能位于圆上边缘位置,沿着切线方向。w 的方向如图中红色箭头所示。
那么问题来了,存在限定条件,w 最终会在什么位置取得最优解呢?也就是说在满足限定条件的基础上,尽量让 Ein 最小。
我们来看,w 是沿着圆的切线方向运动,如上图绿色箭头所示。运动方向与 w 的方向(红色箭头方向)垂直。运动过程中,根据向量知识,只要 -∇Ein 与运行方向有夹角,不垂直,则表明 -∇Ein 仍会在 w 切线方向上产生分量,那么 w 就会继续运动,寻找下一步最优解。只有当 -∇Ein 与 w 的切线方向垂直时,-∇Ein在 w 的切线方向才没有分量,这时候 w 才会停止更新,到达最接近 wlin 的位置,且同时满足限定条件。
-∇Ein 与 w 的切线方向垂直,即 -∇Ein 与 w 的方向平行。如上图所示,蓝色箭头和红色箭头互相平行。这样,根据平行关系得到:
移项,得:
这样,我们就把优化目标和限定条件整合在一个式子中了。也就是说只要在优化 Ein 的过程中满足上式,就能实现正则化目标。
接下来,重点来了!根据最优化算法的思想:梯度为 0 的时候,函数取得最优值。已知 ∇Ein 是 Ein 的梯度,观察上式,λw 是否也能看成是某个表达式的梯度呢?
当然可以!λw 可以看成是 1/2λww 的梯度:
这样,我们根据平行关系求得的公式,构造一个新的损失函数:
之所以这样定义,是因为对 Eaug 求导,正好得到上面所求的平行关系式。上式中等式右边第二项就是 L2 正则化项。
这样, 我们从图像化的角度,分析了 L2 正则化的物理意义,解释了带 L2 正则化项的损失函数是如何推导而来的。
L1 正则化公式也很简单,直接在原来的损失函数基础上加上权重参数的绝对值:
我仍然用一张图来说明如何在 L1 正则化下,对 Ein 进行最小化的优化。
Ein 优化算法不变,L1 正则化限定了 w 的有效区域是一个正方形,且满足 |w| < C。空间中的点 w 沿着 -∇Ein 的方向移动。但是,w 不能离开红色正方形区域,最多只能位于正方形边缘位置。其推导过程与 L2 类似,此处不再赘述。
介绍完 L1 和 L2 正则化的物理解释和数学推导之后,我们再来看看它们解的分布性。
以二维情况讨论,上图左边是 L2 正则化,右边是 L1 正则化。从另一个方面来看,满足正则化条件,实际上是求解蓝色区域与**区域的交点,即同时满足限定条件和 Ein 最小化。对于 L2 来说,限定区域是圆,这样,得到的解 w1 或 w2 为 0 的概率很小,很大概率是非零的。
对于 L1 来说,限定区域是正方形,方形与蓝色区域相交的交点是顶点的概率很大,这从视觉和常识上来看是很容易理解的。也就是说,方形的凸点会更接近 Ein 最优解对应的 wlin 位置,而凸点处必有 w1 或 w2 为 0。这样,得到的解 w1 或 w2 为零的概率就很大了。所以,L1 正则化的解具有稀疏性。
扩展到高维,同样的道理,L2 的限定区域是平滑的,与中心点等距;而 L1 的限定区域是包含凸点的,尖锐的。这些凸点更接近 Ein 的最优解位置,而在这些凸点上,很多 wj 为 0。
关于 L1 更容易得到稀疏解的原因,有一个很棒的解释,请见下面的链接:
https://wwwzhihucom/question/37096933/answer/70507353
正则化是结构风险最小化的一种策略实现,能够有效降低过拟合。损失函数实际上包含了两个方面:一个是训练样本误差。一个是正则化项。其中,参数 λ 起到了权衡的作用。
以 L2 为例,若 λ 很小,对应上文中的 C 值就很大。这时候,圆形区域很大,能够让 w 更接近 Ein 最优解的位置。若 λ 近似为 0,相当于圆形区域覆盖了最优解位置,这时候,正则化失效,容易造成过拟合。相反,若 λ 很大,对应上文中的 C 值就很小。这时候,圆形区域很小,w 离 Ein 最优解的位置较远。w 被限制在一个很小的区域内变化,w 普遍较小且接近 0,起到了正则化的效果。但是,λ 过大容易造成欠拟合。欠拟合和过拟合是两种对立的状态。
数学太难了,真的要吐了
生活很好,有你更好
什么是地理信息系统篇一:地理信息系统的基本概念
(一)数据与信息
数据是一种未经加工的原始资料,是通过数字化或记录下来可以被鉴别的符号。数字、文字、符号、图像都是数据。
信息(Information)是用文字、数字、符号、语言、图像等介质来表示事件、事物、现象等的内容、数量或特征,从而向人们(或系统)提供关于现实世界新的事实和知识,作为生产、建设、经营、管理、分析和决策的依据。信息具有客观性、适用性、可传输性和共享性等特征。信息来源于数据(Data)。
数据是客观对象的表示,而信息则是数据内涵的意义,是数据的内容和解释。例如,从实地或社会调查数据中可获取到各种专门信息;从测量数据中可以抽取出地面目标或物体的形状、大小和位置等信息;从遥感图像数据中可以提取出各种地物的图形大小和专题信息。
(二)地理信息
地理信息是指表征地理圈或地理环境固有要素或物质的数量、质量、分布特征、联系和规律的数字、文字、图象和图形的总和。地理信息是有关地理实体的性质、特征和运动状态的表征和一切有用的知识,它是对表达地理特征与地理现象之间关系的地理数据的解释。而地理数据则是各种地理特征和现象间关系的符号化表示,包括空间位置、属性特征(简称属性)及时域特征三部分。空间位置数据描述地物所在位置。这种位置既可以根据大地参照系定义,如大地经纬度坐标,也可以定义为地物间的相对位置关系,如空间上的相邻、包含等;属性数据有时又称非空间数据,是属于一定地物、描述其特征的定性或定量指标。时域特征是指地理数据采集或地理现象发生的时刻/时段。时间数据对环境模拟分析非常重要,正受到地理信息系统学界越来越多的重视。空间位置、属性及时间是地理空间分析的三大基本要素。
地理信息除了具有信息的一般特性,还具有以下独特特性:
(1)空间分布性。地理信息具有空间定位的特点,先定位后定性,并在区域上表现出分布式特点,其属性表现为多层次,因此地理数据库的分布或更新也应是分布式。
(2)数据量大。地理信息既有空间特征,又有属性特征,另外地理信息还随着时间的变化而变化,具有时间特征,因此其数据量很大。尤其是随着全球对地观测计划不断发展,我们每天都可以获得上万亿兆的关于地球资源、环境特征的数据。这必然对数据处理与分析带来很大压力。
(3)信息载体的多样性。地理信息的第一载体是地理实体的物质和能量本身,除此之外,还有描述地理实体的文字、数字、地图和影像等符号信息载体以及纸质、磁带、光盘等物理介质载体。对于地图来说,它不仅是信息的载体,也是信息的传播媒介。
(三)地理信息系统
地理信息系统(GeographicInformationSystem或Geo-Informationsystem,GIS)有时又称为“地学信息系统”或“资源与环境信息系统”。它是一种特定的十分重要的空间信息系统。它是在计算机硬、软件系统支持下,对整个或部分地球表层(包括大气层)空间中的有关地理分布数据进行采集、储存、管理、运算、分析、显示和描述的技术系统。地理信息系统处理、管理的对象是多种地理空间实体数据及其关系,包括空间定位数据、图形数据、遥感图像数据、属性数据等,用于分析和处理在一定地理区域内分布的各种现象和过程,解决复杂的规划、决策和管理问题。
通过上述的分析和定义可提出GIS的如下基本概念:
1、GIS的物理外壳是计算机化的技术系统,它又由若干个相互关联的子系统构成,如数据采集子系统、数据管理子系统、数据处理和分析子系统、图像处理子系统、数据产品输出子系统等,这些子系统的优劣、结构直接影响着GIS的硬件平台、功能、效率、数据处
理的方式和产品输出的类型。
2、GIS的操作对象是空间数据,即点、线、面、体这类有三维要素的地理实体。空间数据的最根本特点是每一个数据都按统一的地理坐标进行编码,实现对其定位、定性和定量的描述、这是GIS区别于其它类型信息系统的根本标志,也是其技术难点之所在。
3、GIS的技术优势在于它的数据综合、模拟与分析评价能力,可以得到常规方法或普通信息系统难以得到的重要信息,实现地理空间过程演化的模拟和预测。
4、GIS与测绘学和地理学有着密切的关系。大地测量、工程测量、矿山测量、地籍测量、航空摄影测量和遥感技术为GIS中的空间实体提供各种不同比例尺和精度的定位数;电子速测仪、GPS全球定位技术、解析或数字摄影测量工作站、遥感图像处理系统等现代测绘技术的使用,可直接、快速和自动地获取空间目标的数字信息产品,为GIS提供丰富和更为实时的信息源,并促使GIS向更高层次发展。地理学是GIS的理论依托。有的学者断言,“地理信息系统和信息地理学是地理科学第二次革命的主要工具和手段。如果说GIS的兴起和发展是地理科学信息革命的一把钥匙,那么,信息地理学的兴起和发展将是打开地理科学信息革命的一扇大门,必将为地理科学的发展和提高开辟一个崭新的天地”。GIS被誉为地学的第三代语言——用数字形式来描述空间实体。
GIS按研究的范围大小可分为全球性的、区域性的和局部性的;按研究内容的不同可分为综合性的与专题性的。同级的各种专业应用系统集中起来,可以构成相应地域同级的区域综合系统。在规划、建立应用系统时应统一规划这两种系统的发展,以减小重复很费,提高数据共享程度和实用性。
什么是地理信息系统篇二:地理信息系统名词解释大全(整理版本)
地理信息系统GeographicInformationSystemGIS作为信息技术的一种,是在计算机硬、软件的支持下,以地理空间数据库(GeospatialDatabase)为基础,以具有空间内涵的地理数据为处理对象,运用系统工程和信息科学的理论,采集、存储、显示、处理、分析、输出地理信息的计算机系统,为规划、管理和决策提供信息来源和技术支持。简单地说,GIS就是研究如何利用计算机技术来管理和应用地球表面的空间信息,它是由计算机硬件、软件、地理数据和人员组成的有机体,采用地理模型分析方法,适时提供多种空间的和动态的地理信息,为地理研究和地理决策服务的计算机技术系统。地理信息系统属于空间型信息系统。
地理信息是指表征地理圈或地理环境固有要素或物质的数量、质量、分布特征、联系和规律等的数字、文字、图像和图形等的总称;它属于空间信息,具有空间定位特征、多维结构特征和动态变化特征。
地理信息科学与地理信息系统相比,它更加侧重于将地理信息视作为一门科学,而不仅仅是一个技术实现,主要研究在应用计算机技术对地理信息进行处理、存储、提取以及管理和分析过程中提出的一系列基本问题。地理信息科学在对于地理信息技术研究的同时,还指出了支撑地理信息技术发展的基础理论研究的重要性。
地理数据是以地球表面空间位置为参照,描述自然、社会和人文景观的数据,主要包括数字、文字、图形、图像和表格等。
地理信息流即地理信息从现实世界到概念世界,再到数字世界(GIS),最后到应用领域。
数据是通过数字化或记录下来可以被鉴别的符号,是客观对象的表示,是信息的表达,只有当数据对实体行为产生影响时才成为信息。
信息系统是具有数据采集、管理、分析和表达数据能力的系统,它能够为单一的或有组织的决策过程提供有用的信息。包括计算机硬件、软件、数据和用户四大要素。
四叉树数据结构是将空间区域按照四个象限进行递归分割(2n×2n,且n≥1),直到子象限的数值单调为止。凡数值(特征码或类型值)呈单调的单元,不论单元大小,均作为最后的存储单元。这样,对同一种空间要素,其区域网格的大小,随该要素分布特征而不同。
不规则三角网模型简称TIN,它根据区域有限个点集将区域划分为相连的三角面网络,区域中任意点落在三角面的顶点、边上或三角形内。如果点不在顶点上,该点的高程值通常通过线性插值的方法得到(在边上用边的两个顶点的高程,在三角形内则用三个顶点的高程)。
拓扑关系拓扑关系是指网结构元素结点、弧段、面域之间的空间关系,主要表现为拓扑邻接、拓扑关联、拓扑包含。根据拓扑关系,不需要利用坐标或距离,可以确定一种地理实体相对于另一种地理实体的位置关系,拓扑数据也有利于空间要素的查询。
拓扑结构为在点、线和多边形之间建立关联,以及彻底解决邻域和岛状信息处理问题而必须建立的数据结构。这种结构应包括以下内容:唯一标识,多边形标识,外包多边形指针,邻接多边形指针,边界链接,范围(最大和最小x、y坐标值)。
游程编码是逐行将相邻同值的网格合并,并记录合并后网格的值及合并网格的长度,其目的是压缩栅格数据量,消除数据间的冗余。
空间数据结构是指适合于计算机系统存储、管理和处理的地学图形的逻辑结构,是地理实体的空间排列方式和相互关系的抽象描述。
矢量数据结构是利用欧几里得几何学中的点、线、面及其组合体来表示地理实体空间分布的一种数据组织方式。这种数据组织方式能最好地逼近地理实体的空间分布特征,数据精度高,数据存储的冗余度低,便于进行地理实体的网络分析,但对于多层空间数据的叠合分析比较困难。
栅格数据结构基于栅格模型的数据结构简称为栅格数据结构,指将空间分割成有规则的网格,在各个网格上给出相应的属性值来表示地理实体的一种数据组织形式。
空间索引是指依据空间对象的位置和形状或空间对象之间的某种空间关系按一定的顺序排列的一种数据结构,其中包含空间对象的概要信息。作为一种辅助性的空间数据结构,空间索引介于空间操作算法和空间对象之间,它通过筛选作用,大量与特定空间操作无关的空间对象被排除,从而提高空间操作的速度和效率。
空间数据编码是指将数据分类的结果,用一种易于被计算机和人识别的符号系统表示出来的过程。编码的目的是用来提供空间数据的地理分类和特征描述,同时为了便于地理要素的输入、存储、管理,以及系统之间数据交换和共享的需要。
Delaunay三角网即由狄洛尼三角形组成的三角网,它是在地形拟合方面表现最出色的三角网,因此常被用于TIN的生成。狄洛尼三角形有三个最邻近的点连接而成,这三个相邻点对应的Voronoi多边形有一个公共的顶点,此顶点同时也是狄洛尼三角形外接圆的圆心。
Voronoi多边形即泰森多边形,它采用了一种极端的边界内插方法,只用最近的单个点进行区域插值。泰森多边形按数据点位置将区域分割成子区域,每个子区域包含一个数据点,各子区域到其内数据点的距离小于任何到其它数据点的距离,并用其内数据点进行赋值。
栅格数据压缩编码有键码、游程长度编码、块码和四叉树编码等。其目的,就是用尽可能少的数据量记录尽可能多的信息,其类型又有信息无损编码和信息有损编码之分。
边界代数算法边界代数多边形填充算法是一种基于积分思想的矢量格式向栅格格式转换算法,它适合于记录拓扑关系的多边形矢量数据转换为栅格结构。它不是逐点判断与边界的关系完成转换,而是根据边界的拓扑信息,通过简单的加减代数运算将边界位置信息动态地赋给各栅格点,实现了矢量格式到栅格格式的高速转换,而不需要考虑边界与搜索轨迹之间的关系,因此算法简单、可靠性好,各边界弧段只被搜索一次,避免了重复计算。
DIME文件美国人口普查局在1980年的人口普查中提出了双重独立地图编码文件。它含有调查获得的地理统计数据代码及大城市地区的界线的坐标值,提供了关于城市街道,住址范围以及与人口普查局的列表统计数据相关的地理统计代码的纲要图。在1990年的人口普查中,TIGER取代了DIME文件。
空间数据内插即通过已知点或分区的数据,推求任意点或分区数据的方法。空间数据压缩即从所取得的数据集合S中抽出一个子集A,这个自己作为一个新的信息源,在规定的精度范围内最好地逼近原集合,而又取得尽可能大的压缩比。
坐标变换实质是建立两个平面点之间的一一对应关系,包括几何纠正和投影转换,他们是空间数据处理的基本内容之一。
仿射变换是GIS数据处理中使用最多的一种几何纠正方法。它的主要特性为:同时考虑到因地突变形而引起的实际比例尺在x和y方向上的变形,因此纠正后的坐标数据在不同方向上的长度比将发生变化。
数据精度是考察数据质量的一个方面,即对现象描述的详细程度。精度低的数据并不一定准确度也低。
空间数据引擎是一种空间数据库管理系统的实现方法,即在常规数据库管理系统之上添加一层空间数据库引擎,以获得常规数据库管理系统功能之外的空间数据存储和管理的能力。代表性的是ESRI的SDE。
空间数据引擎在用户和异种空间数据库的数据之间提供了一个开放的接口,它是一种处于应用程序和数据库管理系统之间的中间件技术。使用不同厂商GIS的客户可以通过空间数据引擎将自身的数据提交给大型关系型DBMS,由DBMS统一管理;同样,客户也可以通过空间数据引擎从关系型DBMS中获取其他类型GIS的数据,并转化成客户可以使用的方式。
数据库管理系统是操作和管理数据库的软件系统,提供可被多个应用程序和用户调用的软件系统,支持可被多个应用程序和用户调用的数据库的建立、更新、查询和维护功能。
空间数据库是地理信息系统在计算机物理存储介质上存储的`与应用相关的地理空间数据的总和,一般是以一系列特定结构的文件的形式组织在存储介质之上的。
空间数据模型是关于现实世界中空间实体及其相互间联系的概念,为描述空间数据组织和设计空间数据库模式提供了基本的方法。一般而言,GIS空间数据模型由概念数据模型、逻辑数据模型和物理数据模型三个有机联系的层次所组成。
分布式数据库是一组数据的集合,这些数据在物理上分布于计算机网络的不同结点上,而逻辑上属于同一个系统。它具有分布性,同时在逻辑上互相关联。
对象-关系管理模式/型是指在关系型数据库中扩展,通过定义一系列操作空间对象(如点、线、面)的API函数,来直接存储和管理非结构化的空间数据的空间数据库管理模式。
缓冲区分析是根据分析对象的点、线、面实体,自动建立他们周围一定距离的带状区,用以识别这些实体或主体对邻近对象的辐射范围或影响度,以便为某项分析或决策提供依据。
叠合分析是指在统一空间参照系统条件下,每次将同一地区两个地理对象的图层进行叠合,以产生空间区域的多重属性特征,或建立地理对象之间的空间对应关系。
空间分析是基于空间数据的分析技术,它以地学原理为依托,通过分析算法,从空间数据中获取有关地理对象的空间位置、空间分布、空间形态、空间形成、空间演变等信息。
网络分析是运筹学模型中的一个基本模型,即对地理网络和城市基础设施网络进行地理分析和模型化。它的根本目的是研究、筹划一项网络工程如何安排,并使其运行效果最好。
透视图从数字高程模型绘制透视立体图是DEM的一个极其重要的应用。透视立体图能更好地反映地形的立体形态,非常直观。与采用等高线表示地形形态
相比有其自身独特的优点,更接近人们的直观视觉。调整视点、视角等各个参数值,就可从不同方位、不同距离绘制形态各不相同的透视图制作动画。
网络是一个由点、线的二元关系构成的系统,通常用来描述某种资源或物质在空间上的运动。
变量筛选分析是通过寻找一组相互独立的变量,使相互关联的复杂的多变量数据得到简化的空间统计分析方法。常用的有主成分分析法、主因子分析法、关键变量分析法等。
变量聚类分析是将一组数据点或变量,按照其在性质上亲疏远近的程度进行分类的空间统计分析方法。两个数据点在m为空间的相似性可以用这些点在变量空间的距离来度量。
数字地面模型简称DTM,是定义于二维区域上的一个有限项的向量序列,它以离散分布的平面点来模拟连续分布的地形。
数字高程模型当数字地面模型的地面属性为海拔高程时,则该模型即为数字高程模型。简称DEM。
GIS应用模型是根据具体的应用目标和问题,借助于GIS自身的技术优势,使观念世界中形成的概念模型,具体化为信息世界中可操作的机理和过程。
OGC即OpenGIS协会(OpenGISConsortium)其目的是使用户可以开放地操纵异质的地理数据,促进采用新的技术和商业方式来提高地理信息处理的互操作性(Interoperablity),OGC会员主要包括GIS相关的计算机硬件和软件制造商,数据生产商以及一些高等院校,政府部门等,其技术委员会负责具体标准的制定工作。
开放式地理信息系统(OpenGIS)OpenGIS(OpenGeodataInteroperationSpecification,OGIS-开放的地理数据互操作规范)由美国OGC(开放地理信息系统协会)提出。其目标是,制定一个规范,使得应用系统开发者可以在单一的环境和单一的工作流中,使用分布于网上的任何地理数据和地理处理。它致力于消除地理信息应用之间以及地理应用与其它信息技术应用之间的藩篱,建立一个无“边界”的、分布的、基于构件的地理数据互操作环境,与传统的地理信息处理技术相比,基于该规范的GIS软件将具有很好的可扩展性、可升级性、可移植性、开放性、互操作性和易用性。
数据结构是地理实体的数据组织形式及其相互关系的抽象描述。
空间数据质量是对空间数据在表达空间位置、空间关系、专题特征以及时间等要素时,所能达到的准确性、一致性、完整性以及它们之间统一性的度量,一般描述为空间数据的可靠性和精度,用误差来表示。
数字地球是把浩瀚复杂的地球数据加以数字化、网络化,变成一个地球信息模型计划。是一种可以嵌入海量地理数据、多种分辨率、三维的地球表达,是对真实地球及其相关现象的统一性的数字化重现和认识。其核心思想有两点:一是用数字化手段统一处理地球问题;二是最大限度地利用信息资源。
虚拟现实也称虚拟环境或人工现实,是一种由计算机生成的高级人机交互系统,即构成一个以视觉感受为主,也包括听觉、触觉、嗅觉的可感知环境,演练者通过专门的设备可在这个环境中实现观察、触摸、操作、检测等试验,有身临其境之感。
地图投影是建立平面上的点(用平面直角坐标或极坐标表示)和地球表面上的点(用纬度和精度表示)之间的函数关系。
投影转换是从一种地图投影变换为另一种地图投影。其实质是建立两平面场之间及邻域双向连续点的一一对应的关系。
虚拟地理环境简称VGE,是基于地学分析模型、地学工程等的虚拟现实,它是地学工作者根据观测实验、理论假设等建立起来的表达和描述地理系统的空间分布以及过程现象的虚拟信息地理世界,一个关于地理系统的虚拟实验室,它允许地学工作者按照个人的知识、假设和意愿去设计修改地学空间关系模型、地学分析模型、地学工程模型等,并直接观测交互后的结果,通过多次的循环反馈,最后获取地学规律。
高斯-克吕格投影Gauss-KruegerProjection①是一种横轴等角切椭圆柱投影。它是将一椭圆柱横切于地球椭球体上,该椭圆柱面与椭球体表面的切线为一经线,投影中将其称为中央经线,然后根据一定的约束条件即投影条件,将中央经线两侧规定范围内的点投影到椭圆柱面上从而得到点的高斯投影。
②一种等角横切椭圆柱投影。其投影带中央子午线投影成直线且长度不变,赤道投影也为直线,并与中央子午线正交。
UTM投影全球横轴墨卡托投影的简称。是美国编制世界各地军用地图和地球资源卫星象片所采用的横轴墨卡托投影的一种变型投影。它规定中央经线长度比为09996。
电子地图当纸地图经过计算机图形图像系统光——电转换量化为点阵数字图像,经图像处理和曲线矢量化,或者直接进行手扶跟踪数字化后,生成可以为地理信息系统显示、修改、标注、漫游、计算、管理和打印的矢量地图数据文件,这种与纸地图相对应的计算机数据文件称为矢量化电子地图。
元数据[空间]是指描述空间数据的数据,它描述空间数据集的内容、质量、表示方式、空间参考、管理方式以及数据集的其他特征,是空间数据交换的基础,也是空间数据标准化与规范化的保证,在一定程度上为空间数据的质量提供了保障。
Web地理信息系统(WebGIS)是Web技术和GIS技术相结合,即利用Web技术来扩展和完善地理信息系统的一项新技术。从WWW的任一个节点,Internet用户可以浏览WebGIS站点中的空间数据、制作专题图、进行各种空间检索和空间分析。
GIS互操作互操作是指在异构环境下的两个或多个实体,尽管它们实现的语言、执行的环境和基于的模型不同,但仍然可以相互通信和协作,以完成某一特定任务。这些实体包括应用程序、对象、系统运行环境等。空间数据的互操作针对异构的数据库和平台,实现数据处理的互操作,与数据转换相比,它是“动态”的数据共享,独立于平台,具有高度的抽象性,是空间数据共享的发展方向。
组件式GIS是采用了面向对象技术和组件式软件的GIS系统(包括基础平台和应用系统)。其基本思想是把GIS的各大功能模块划分为几个组件,每个组件完成不同的功能。各个GIS组件之间,以及GIS组件与其它非GIS组件之间,都可以方便地通过可视化的软件开发工具集成起来,形成最终的GIS基础平台以及应用系统。
客户机/服务器结构即C/S结构,是一种分布式系统结构,在该体系中,客户端通常是同最终用户交互的应用软件系统,而服务器由一组协作的过程构成,为客户端提供服务。客户机和服务器通常运行相同的微内核,一个客户机/服务器机制可以有多个客户端,或者多个服务器,或者兼而有之。客户机/服务器模式基于简单的请求/应答协议,即客户端向服务器提出信息处理的请求,服务器端接收到请求并将请求解译后,根据请求的内容执行相应操作,并将操作结果传
本程序定义了主曲线和确定主曲线的实际算法。多边形线算法的基本运算法则是首先确定一条直线段,然后在循环算法中通过不断加入新的顶点来增加线段的数量。在加入一个新的顶点以后,所有的顶点位置在一个内部的环中被更新。由算法所产生的曲线如图1,在这个例子中,PL运算法则和HS运算法则在计算的复杂程度和算法的完善程度上作出了比较。4段和15段,由在半圆上任意两个坐标点加入单独的高斯误差而产生。
PL算法[12]在由NIST19号专有数据库产生的单独数据元构成的图像中得到了测试。我们发现PL算法可以有效的找出没有环和分叉的图像的中间轴。这个在图2中有显示。由于中间轴可能是一些曲线连接而成而不是只有一条曲线,所以在这里我们扩展了PL算法,找出数据元的主曲线。扩展了的算法也包含了实现分段线性骨架的两个原则,一种获取字符图像近似轮廓的初始化方法和一系列用来改善由初始化方法获得的骨架结构质量的更改结构工作。为了避免混淆,我们用术语“骨架”来表示近似性中间轴的二元图像,我们把由PL算法产生出的连接曲线看做模板骨架
应用
主曲线以前被用在图像处理领域。这种图像用来描述在卫星拍摄下的冰川及其轮廓。其主程序用了一个闭合的曲线来估算冰川的轮廓。专家们除去了HS算法[13]中不合适的部分,并且用更完善的粗略估算冰川轮廓的程序来取代HS算法的初始化步骤。此外,采用数据元集合,而不是HS算法所产生的点或线的集合,向中间轴集中的方式来扩展现有的聚合算法。初始化的曲线由SOM算法[12]的一个变量产生,在SOM算法中相互关系被定义为字符图像的一个最小二叉树。HS算法用来使曲线与模板相对应。下一步的要点与SOM算法的更新规则类似。
利用主曲线实现分段线性骨架的方法被Mahmoud、Datta和Parui[14]等人所提出。同样的方法,在SOM算法中用来最优化分段线性骨架的顶点位置。算法在构建骨架方面采用“自顶向下”的策略:近似性地从一个线性拓扑出发,然后逐步加入环和交叉到骨架中,骨架是由基于SOM算法的当前几何样式得出的。SOM算法涉及到一个获取字符图像分段线性骨架的运算法则。这种运算法则以ISODATA算法[12]为基础,ISODATA算法近似于SOM算法。
目的
主曲线算法的目的是找出与字符图像相对应的光滑的分段线性曲线。这些曲线在某个顶点彼此连接,因而在字符图像的中心平面范围内形成一个欧几里德曲线。一个欧几里德曲线G(V,S)在空间中由变量V和S确定,
主曲线算法从一个基于传统稀释方法的初始化工作开始。初始曲线找出字符图像的近似拓扑结构,然而,它不是平滑的,而且它通常包含许多假的分叉和不适合的结构元素。为了解决这两个问题,在前两步中间增加了更改结构的步骤(图3)使得主曲线算法更加有效。在更改结构步骤中,我们运用一些操作手段来调整曲线骨架结构的不完整的地方。\(a)图是在初始化步骤后由主曲线算法生成的曲线骨架;(b)图是经过首次拟合-光滑步骤后生成的曲线骨架;(c)图是经过更改结构后生成的曲线骨架;(d)图是第二次拟合-光滑步骤后产生的曲线骨架(算法输出)。我们重复使用PL算法的扩展版本来构造光滑的骨架曲线,同时保持曲线与字符图像的轮廓的距离近似相等。算法建立在最小能量函数的基础之上
研究动机与意义
自1904年Spearman[13]提出线性主成分分析方法以来,由于这种方法简单且便于使用,至今还是数据统计分析的重要工具之一。线性主成分分析的原理是将数据集合投影到一个矢量,使得投影的均方差最大,由此,将这个矢量称为数据集合的第一主成分。正是这个考虑,在均方差的意义下,这个方法有两个重要的优点:其一,数据集合可以使用一个矢量来描述,从而达到减小信息描述长度的目的,其二,计算第一以及依次主成分,可以变换为求解基于数据自相关矩阵的特征值方程。另外,第一与依次主成分矢量保持正交关系,这意味着,与主成分矢量平行的矢量具有与主成分相同的性质。正是这两个原因,加上在统计上以均方差为保证,主成分分析得到广泛的应用。 由于信息描述长度与信息保持性之间存在矛盾,相对较长的信息描述长度,较短描述长度的信息描述是以损失信息保持性为代价的,而主成分分析的本质是一种在均方差意义下的统计平均。尽管它可以获得较短的信息描述长度,但是,信息保持性的代价相当大,由于信息保持性是对数据分布的规律性认识,因此,对某些问题,这个代价可接受的,但是,另外一些问题,可能就不能接受了。例如,对原始语音信号的分析,单纯的主成分分析就不一定有效。 为了说明信息描述长度与信息保持性之间的关系,下图是一个简单的例子。图5是由300个包含误差的数据点构成的余弦状分布,图5(a)的直线是数据的第一主成分线,其对余弦数据的描述长度显然较图5(b)要短,因为这些数据点将使一个线段描述,因此,只需给出线段起点和终点即可,可以认为图5(a)给出了一个短描述长度的关于数据集合的描述;显然,图5(b)对数据的信息保持性则比图5(a)要好,一方面,它与数据间的距离均方差也要小,另一方面,它勾画出原始信息的轮廓。图5(b)恰恰是本文所讨论的根据主曲线原理所获得的结果。那么,两种描述哪一个更为合理呢?显然,这没有一个一般性的答案,这取决于所需解决问题的需求。
图5 信息描述长度与信息保持之间的关系
图5也说明无监督学习较监督学习困难的原因,问题本身的病态定义导致不得不引入复杂性思想,如统计学习理论中的风险结构最小、贝叶斯学派中的贝叶斯信息准则、Kolmogrov算法[11]复杂度引出的最小描述长度等等,来寻求在信息保持性与数据描述长度之间的折衷。目前,尽管在主曲线的研究中,还存在着大量的数学问题,但是,由于其暗示的广泛应用前景,已引起计算机科学家的关注,现在应用方面已有大量的报道,如线性对撞机中对电子束运行轨迹的控制、图像处理中辨识冰原轮廓、手写体的主曲线模板化、语音识别中对声音数据的约简建模和数据可听化、生态学中寻找种群的有序分布及过程监控。同时,在认知领域Seung[14]提出感知以流形方式存在,并在神经生理学上发现整个神经细胞群的触发率可以由少量的变量组成的函数来描述,如眼的角度和头的方向,这隐含了神经元群体活动性是由其内在的低维结构所控制。主曲线本身是流形的一维形式。
原理、发展脉络以及应用
为了说明主曲线的原理、发展脉络以及应用,首先介绍其原始动机是必要的。Hastie在他关于主曲线的开创性论文中描述了其研究动机,Hastie认为主曲线与非线性回归方法的发展上具有对称性,分别是线性主成分分析与线性回归分析的非线性推广模型,Hastie写到:类似于线性回归方法的非线性推广,使用光滑曲线代替线性主成分总结数据,以求出对称变量之间的曲线,这样的曲线从数据的中部光滑地通过,且不限制于对数据的光滑线性平均,甚至不限制于数据的中部是直线,只希望使得数据点集合到曲线的正交距离最小。这个陈述清晰地指出了他的研究与主成分分析和回归分析的区别,并给出了建模的统计目标。同时,从这个陈述中也可以看出,基于直线的主成分分析只是主曲线的一个特例。因此,主曲线的提出,可以理解为基于线性的主成分分析方法向更精确描述实际世界的非线性分析方法的推广。 应该指出的是,目前,“向非线性”推广是数据统计分析的研究主流,但是,存在着不同的技术路线。
分类
最典型的研究大致可以分为两类:
其一,根据统计学习理论中的核技术,将数据集合映射到特征空间,然后,在特征空间计算数据集合的主成分,称为核主成分分析(KPCA),这个技术路线的本质还是线性主成分分析。
其二,从数据本身的分布出发,希望找到能最好描述数据内在结构的概率分布模型,如生成式拓扑映射(Generative Topographic Mapping,缩写为GTM),矢量量化(VQ)及主曲线,以及流形拟合等。提出“主曲线的研究与回归分析有何区别”是自然的,两者的动机都是企望求出一个函数代替数据集合,但是,两者有本质的差别:其一,一般地说,回归分析是假设数据集合的变量有因果关系,换句话说,数据的变量可以表示为一个因果关系的函数,有些是自变量,有些则是因变量。其二,回归分析一般需要给定一个数学基函数,回归分析是根据数据集合中变量的因果关系,计算这个数学基函数待定的参数。这与主曲线的研究动机完全不同。对于前者,主曲线的研究目标是解决数据变量没有必然因果关系的问题,更重要的是后者,认为事先假定数据服从某种分布(如正态分布)的方法(这与给定数学基函数,根据数据确定参数的方法类似),对某些未知世界的解释是不合理的,因为这个假设可能是错误的,为了保证数据分析不是假设在一个错误结构下,主曲线的研究强调非参数分析。当然,这并不是完全否定了参数法这一经典方法,事实上,参数法在先验知识明确时存在相当大的好处。总之,根据上述讨论的动机,主曲线是寻找一种几何上直观、理论上完备、就解决的问题而言,这个方法与主成分分析一致,但是,主曲线的目标不是仅仅寻找一个数据集合的脊梁骨,而是希望获得数据集合的骨架。数据集合的脊梁骨可以使用线性的方法解决,但骨架就需要借助非线性方法了。应该强调的是,主曲线继承了主成分分析的众多思想,它是主成分分析的非线性推广。另外,尽管这个方法似乎与回归分析的目标类似,都是试图获得对数据集合信息长度更短的表示,但是,这个方法与回归分析完全不同,最大的差别是它不是事先给定一个基函数(或假定一个分布),从而将问题变换为参数估计问题,而是一种非参数的方法
自从Scheffe一九五八年提出单纯形格子设计以来,混料回归设计的理论和它的应用都有很大发展。人们针对各种数学模型、试验区域与各种意义下的“最优性”提出了各种设计方法与分析计算法。混料回归设计在工业、农业和科学试验中都得到广泛的应用。在工业试验方面,如汽油混合物、混凝土、聚合物塑料、合金、陶瓷、油漆、食品、医药、洗涤剂、混纺纤维及烧结矿等产品都会遇到混料回归设计问题。
配方设计是一种特殊的混料试验设计应用,通过对各个试验成分进行定性和定量分析,在得到试验指标后,然后进行混料回归设计。
在组分之和为1 的约束条件下,用通常的方法进行回归分析,会引起方程退化,因此,需要用专门的工具处理该类问题。有几种常用的方法如单纯型混料设计,极端顶点混料设计、对称单纯型混料设计、倒数混料设计,随机混料设计等等,这些方法各有特点,在实验室通常见到,可以精确、客观、科学地计算出配方中的的各个物料的成分比例。
在科学上没有平坦的大道,只有不畏劳苦沿着陡峭山路攀登的人,才有希望达到光辉的顶点。
在病句分析过程中,我们可以调动语感,从感性上察觉语句是否有“毛病”,即按习惯的说法看是否别扭。如别扭则要再做比较,明辨原因,以便加以修改。
例如:“不管气候条件和地理环境都极端不利,登山队员仍然克服了困难,胜利攀登到顶峰。”“不管极端不利”显然不合习惯,此句是病句。
扩展资料对于一个句子,我们可以通过分析句子中的各个成分之间搭配关系,看它们是否符合现代汉语语法规则。
①找主干。先找出句子的主、谓、宾,看是否残缺,看是否搭配得当。如果句子主干没有问题,就应当检查修饰语(定、状、补)是否能恰当地修饰或说明中心语。
②体会语意。如果结构没问题,可体味句子的意思、情趣和表达习惯,看指代是否明确,是否有歧义,用词是否妥贴,是否重复,词序是否正确,修辞得当与否等等。
③看关联词语是否用得恰当。
人脸识别是一个被广泛研究着的热门问题,大量的研究论文层出不穷,在一定程度上有泛滥成“灾”之嫌。
为了更好地对人脸识别研究的历史和现状进行介绍,本文将AFR的研究历史按照研究内容、技术方法等方面的特点大体划分为三个时间阶段,如表1所示。
该表格概括了人脸识别研究的发展简史及其每个历史阶段代表性的研究工作及其技术特点。
下面对三个阶段的研究进展情况作简单介绍:
第一阶段(1964年~1990年)
这一阶段人脸识别通常只是作为一个一般性的模式识别问题来研究,所采用的主要技术方案是基于人脸几何结构特征(Geometricfeature based)的方法。
这集中体现在人们对于剪影(Profile)的研究上,人们对面部剪影曲线的结构特征提取与分析方面进行了大量研究。
人工神经网络也一度曾经被研究人员用于人脸识别问题中。
较早从事AFR研究的研究人员除了布莱索(Bledsoe)外还有戈登斯泰因(Goldstein)、哈蒙(Harmon)以及金出武雄(Kanade Takeo)等。
金出武雄于1973年在京都大学完成了第一篇AFR方面的博士论文,直到现在,作为卡内基-梅隆大学(CMU)机器人研究院的一名教授,仍然是人脸识别领域的活跃人物之一。
他所在的研究组也是人脸识别领域的一支重要力量。
总体而言,这一阶段是人脸识别研究的初级阶段,非常重要的成果不是很多,也基本没有获得实际应用。
第二阶段(1991年~1997年)
这一阶段尽管时间相对短暂,但却是人脸识别研究的 期,可谓硕果累累:不但诞生了若干代表性的人脸识别算法,美国军方还组织了著名的FERET人脸识别算法测试,并出现了若干商业化运作的人脸识别系统,比如最为著名的Visionics(现为Identix)的FaceIt系统。
美国麻省理工学院(MIT)媒体实验室的特克(Turk)和潘特兰德(Pentland)提出的“特征脸”方法无疑是这一时期内最负盛名的人脸识别方法。
其后的很多人脸识别技术都或多或少与特征脸有关系,现在特征脸已经与归一化的协相关量(NormalizedCorrelation)方法一道成为人脸识别的性能测试基准算法。
这一时期的另一个重要工作是麻省理工学院人工智能实验室的布鲁内里(Brunelli)和波基奥(Poggio)于1992年左右做的一个对比实验,他们对比了基于结构特征的方法与基于模板匹配的方法的识别性能,并给出了一个比较确定的结论:模板匹配的方法优于基于特征的方法。
这一导向性的结论与特征脸共同作用,基本中止了纯粹的基于结构特征的人脸识别方法研究,并在很大程度上促进了基于表观(Appearance-based)的线性子空间建模和基于统计模式识别技术的人脸识别方法的发展,使其逐渐成为主流的人脸识别技术。
贝尔胡米尔(Belhumeur)等提出的Fisherface人脸识别方法是这一时期的另一重要成果。
该方法首先采用主成分分析(Principalponent Analysis,PCA,亦即特征脸)对图像表观特征进行降维。
在此基础上,采用线性判别分析(LinearDiscriminant Analysis, LDA)的方法变换降维后的主成分以期获得“尽量大的类间散度和尽量小的类内散度”。
该方法目前仍然是主流的人脸识别方法之一,产生了很多不同的变种,比如零空间法、子空间判别模型、增强判别模型、直接的LDA判别方法以及近期的一些基于核学习的改进策略。
麻省理工学院的马哈丹(Moghaddam)则在特征脸的基础上,提出了基于双子空间进行贝叶斯概率估计的人脸识别方法。
该方法通过“作差法”,将两幅人脸图像对的相似度计算问题转换为一个两类(类内差和类间差)分类问题,类内差和类间差数据都要首先通过主成分分析(PCA)技术进行降维,计算两个类别的类条件概率密度,最后通过贝叶斯决策(最大似然或者最大后验概率)的方法来进行人脸识别。
人脸识别中的另一种重要方法——弹性图匹配技术(Elastic GraphMatching,EGM) 也是在这一阶段提出的。
其基本思想是用一个属性图来描述人脸:属性图的顶点代表面部关键特征点,其属性为相应特征点处的多分辨率、多方向局部特征——Gabor变换[12]特征,称为Jet;边的属性则为不同特征点之间的几何关系。
对任意输入人脸图像,弹性图匹配通过一种优化搜索策略来定位预先定义的若干面部关键特征点,同时提取它们的Jet特征,得到输入图像的属性图。
最后通过计算其与已知人脸属性图的相似度来完成识别过程。
该方法的优点是既保留了面部的全局结构特征,也对人脸的关键局部特征进行了建模。
近来还出现了一些对该方法的扩展。
局部特征分析技术是由洛克菲勒大学(RockefellerUniversity)的艾提克(Atick)等人提出的。
LFA在本质上是一种基于统计的低维对象描述方法,与只能提取全局特征而且不能保留局部拓扑结构的PCA相比,LFA在全局PCA描述的基础上提取的特征是局部的,并能够同时保留全局拓扑信息,从而具有更佳的描述和判别能力。
LFA技术已商业化为著名的FaceIt系统,因此后期没有发表新的学术进展。
由美国国防部反毒品技术发展计划办公室资助的FERET项目无疑是该阶段内的一个至关重要的事件。
FERET项目的目标是要开发能够为安全、情报和执法部门使用的AFR技术。
该项目包括三部分内容:资助若干项人脸识别研究、创建FERET人脸图像数据库、组织FERET人脸识别性能评测。
该项目分别于1994年,1995年和1996年组织了3次人脸识别评测,几种最知名的人脸识别算法都参加了测试,极大地促进了这些算法的改进和实用化。
该测试的另一个重要贡献是给出了人脸识别的进一步发展方向:光照、姿态等非理想采集条件下的人脸识别问题逐渐成为热点的研究方向。
柔性模型(Flexible Models)——包括主动形状模型(ASM)和主动表观模型(AAM)是这一时期内在人脸建模方面的一个重要贡献。
ASM/AAM将人脸描述为2D形状和纹理两个分离的部分,分别用统计的方法进行建模(PCA),然后再进一步通过PCA将二者融合起来对人脸进行统计建模。
柔性模型具有良好的人脸合成能力,可以采用基于合成的图像分析技术来对人脸图像进行特征提取与建模。
柔性模型目前已被广泛用于人脸特征对准(FaceAlignment)和识别中,并出现了很多的改进模型。
总体而言,这一阶段的人脸识别技术发展非常迅速,所提出的算法在较理想图像采集条件、对象配合、中小规模正面人脸数据库上达到了非常好的性能,也因此出现了若干知名的人脸识别商业公司。
从技术方案上看, 2D人脸图像线性子空间判别分析、统计表观模型、统计模式识别方法是这一阶段内的主流技术。
第三阶段(1998年~现在)
FERET’96人脸识别算法评估表明:主流的人脸识别技术对光照、姿态等由于非理想采集条件或者对象不配合造成的变化鲁棒性比较差。
因此,光照、姿态问题逐渐成为研究热点。
与此同时,人脸识别的商业系统进一步发展。
为此,美国军方在FERET测试的基础上分别于2000年和2002年组织了两次商业系统评测。
基奥盖蒂斯(Gehiades)等人提出的基于光照锥 (Illumination Cones) 模型的多姿态、多光照条件人脸识别方法是这一时期的重要成果之一,他们证明了一个重要结论:同一人脸在同一视角、不同光照条件下的所有图像在图像空间中形成一个凸锥——即光照锥。
为了能够从少量未知光照条件的人脸图像中计算光照锥,他们还对传统的光度立体视觉方法进行了扩展,能够在朗博模型、凸表面和远点光源假设条件下,根据未知光照条件的7幅同一视点图像恢复物体的3D形状和表面点的表面反射系数(传统光度立体视觉能够根据给定的3幅已知光照条件的图像恢复物体表面的法向量方向),从而可以容易地合成该视角下任意光照条件的图像,完成光照锥的计算。
识别则通过计算输入图像到每个光照锥的距离来完成。
以支持向量机为代表的统计学习理论也在这一时期内被应用到了人脸识别与确认中来。
支持向量机是一个两类分类器,而人脸识别则是一个多类问题。
通常有三种策略解决这个问题,即:类内差/类间差法、一对多法(one-to-rest)和一对一法(one-to-one)。
布兰兹(Blanz)和维特(Vetter)等提出的基于3D变形(3D Morphable Model)模型的多姿态、多光照条件人脸图像分析与识别方法是这一阶段内一项开创性的工作。
该方法在本质上属于基于合成的分析技术,其主要贡献在于它在3D形状和纹理统计变形模型(类似于2D时候的AAM)的基础上,同时还采用图形学模拟的方法对图像采集过程的透视投影和光照模型参数进行建模,从而可以使得人脸形状和纹理等人脸内部属性与摄像机配置、光照情况等外部参数完全分开,更加有利于人脸图像的分析与识别。
Blanz的实验表明,该方法在CMU-PIE(多姿态、光照和表情)人脸库和FERET多姿态人脸库上都达到了相当高的识别率,证明了该方法的有效性。
2001年的国际计算机视觉大会(ICCV)上,康柏研究院的研究员维奥拉(Viola)和琼斯(Jones)展示了他们的一个基于简单矩形特征和AdaBoost的实时人脸检测系统,在CIF格式上检测准正面人脸的速度达到了每秒15帧以上。
该方法的主要贡献包括:1)用可以快速计算的简单矩形特征作为人脸图像特征;2)基于AdaBoost将大量弱分类器进行组合形成强分类器的学习方法;3)采用了级联(Cascade)技术提高检测速度。
目前,基于这种人脸/非人脸学习的策略已经能够实现准实时的多姿态人脸检测与跟踪。
这为后端的人脸识别提供了良好的基础。
沙苏哈(Shashua)等于2001年提出了一种基于商图像[13]的人脸图像识别与绘制技术。
该技术是一种基于特定对象类图像集合学习的绘制技术,能够根据训练集合中的少量不同光照的图像,合成任意输入人脸图像在各种光照条件下的合成图像。
基于此,沙苏哈等还给出了对各种光照条件不变的人脸签名(Signature)图像的定义,可以用于光照不变的人脸识别,实验表明了其有效性。
巴斯里(Basri)和雅各布(Jacobs)则利用球面谐波(Spherical Harmonics)表示光照、用卷积过程描述朗博反射的方法解析地证明了一个重要的结论:由任意远点光源获得的所有朗博反射函数的集合形成一个线性子空间。
这意味着一个凸的朗博表面物体在各种光照条件下的图像集合可以用一个低维的线性子空间来近似。
这不仅与先前的光照统计建模方法的经验实验结果相吻合,更进一步从理论上促进了线性子空间对象识别方法的发展。
而且,这使得用凸优化方法来强制光照函数非负成为可能,为光照问题的解决提供了重要思路。
FERET项目之后,涌现了若干人脸识别商业系统。
美国国防部有关部门进一步组织了针对人脸识别商业系统的评测FRVT,至今已经举办了两次:FRVT2000和FRVT2002。
这两次测试一方面对知名的人脸识别系统进行了性能比较,例如FRVT2002测试就表明Cognitec, Identix和Eyematic三个商业产品遥遥领先于其他系统,而它们之间的差别不大。
另一方面则全面总结了人脸识别技术发展的现状:较理想条件下(正面签证照),针对37437人121,589 幅图像的人脸识别(Identification)最高首选识别率为73%,人脸验证(Verification)的等错误率(EER[14])大约为6%。
FRVT测试的另一个重要贡献是还进一步指出了目前的人脸识别算法亟待解决的若干问题。
例如,FRVT2002测试就表明:目前的人脸识别商业系统的性能仍然对于室内外光照变化、姿态、时间跨度等变化条件非常敏感,大规模人脸库上的有效识别问题也很严重,这些问题都仍然需要进一步的努力。
总体而言,目前非理想成像条件下(尤其是光照和姿态)、对象不配合、大规模人脸数据库上的人脸识别问题逐渐成为研究的热点问题。
而非线性建模方法、统计学习理论、基于Boosting[15]的学习技术、基于3D模型的人脸建模与识别方法等逐渐成为备受重视的技术发展趋势。
总而言之, 人脸识别是一项既有科学研究价值,又有广泛应用前景的研究课题。
国际上大量研究人员几十年的研究取得了丰硕的研究成果,自动人脸识别技术已经在某些限定条件下得到了成功应用。
这些成果更加深了我们对于自动人脸识别这个问题的理解,尤其是对其挑战性的认识。
尽管在海量人脸数据比对速度甚至精度方面,现有的自动人脸识别系统可能已经超过了人类,但对于复杂变化条件下的一般人脸识别问题,自动人脸识别系统的鲁棒性和准确度还远不及人类。
这种差距产生的本质原因现在还不得而知,毕竟我们对于人类自身的视觉系统的认识还十分肤浅。
但从模式识别和计算机视觉等学科的角度判断,这既可能意味着我们尚未找到对面部信息进行合理采样的有效传感器(考虑单目摄像机与人类双眼系统的差别),更可能意味着我们采用了不合适的人脸建模方法(人脸的内部表示问题),还有可能意味着我们并没有认识到自动人脸识别技术所能够达到的极限精度。
但无论如何,赋予计算设备与人类似的人脸识别能力是众多该领域研究人员的梦想。
相信随着研究的继续深入,我们的认识应该能够更加准确地逼近这些问题的正确答案。
请至少举出一个生活中的例项说明极限思想?大神们帮帮忙
我给你举五例: 例1 已知0<x<y<a<1,则有( ) (A) (B) (C) (D) (02年高考) 分析 当时,由题意 ,此时 ,故可排除(A)、(B),当时,由题意 ,此时 ,则 ,排除(C),故选(D) 例2 给出下列图象 其中可能为函式 的图象是 。 分析 这道模拟试题得分率很低,许多学生做这道题时感到无从下手,通过与部分学生访谈知道,大部分学生都是猜想结果,虽然有一些学生想到求函式的导数 ,但仍然不知如何处理。其实,这道题若从极限角度考虑,问题便迎刃而解。当时, 时图象是上升的,排除④,再令a=b=c=0,y’>0不是恒成立的,排除②,选①③。 例3 已知数列{a n }中,a 1 =1,且对于任意正整数n,总有 ,是否存在实数a,b,能使得 对于任意正整数n恒成立?若存在,给出证明;若不存在,说明理由。 分析 极限思想: 如果这样的 ,b存在的话,则 由, 对 两边取极限,得, 解得 若0,则数列{ }应该是以1为首项,以 为公比的等比数列。 可知, 显然, ,不合题意舍去; 若,将 代入 ,可求得b=-3, 此时, 同样验证 亦可得出矛盾。 因此,满足题意的实数 ,b不存在。 例4 正三棱锥相邻两侧面所成的角为 ,则 的取值范围是( ) 分析 如图1所示,正三棱锥S-ABC中, 是过底面正三角形ABC中心且垂直于底面的垂线段。当时,相邻两个侧面的夹角趋近于 ,当时,正三棱锥无限接近一个正三棱柱,显然相邻两个侧面的夹角无限接近 ,故正三棱锥相邻两个侧面所成角的取值范围为( ),故选(D)。 例5 已知长方形的四个顶点A(0,0)、B(2,0)、C(2,1)和D(0,1),一个质点从AB的中点P 0 沿与AB夹角为 的方向射到BC上的点P 1 后,依次反射到CD、DA和AB上的点P 2 、P 3 和P 4 (入射角等于反射角),设点P 4 的座标为(x 4 ,0),若1<x 4 <2,则 的取值范围是( ) 分析 如图2,显然当P 1 为BC中点时,则P 2 、P 3 和P 4 依次是CD、DA和AB的中点,故 是一个极限值,选(C)。
生活中的纳元素大神们帮帮忙钠是一种金属元素,质地软,能使水分解释放出氢。它的化合物很多,如食盐(氯化钠)、智利硝石(硝酸钠)、纯碱(碳酸钠)等。钠也是人体肌肉和神经组织中的主要成分之一。 钠的化学性质很活泼,所以它在自然界里不能以游离态存在,因此,在实验室中通常将钠储存在煤油或石蜡油里。(原因:1、ρ Na>ρ煤油 Na与煤油不发生化学反应) 在烧杯中加一些水,滴入几滴酚酞溶液,然后把一小块钠放入水中。通过此现象:1、ρ Na<ρ H2O 2、Na的性质活泼能与水发生剧烈反应3、反应释放出热量,放出的热使钠熔成小球4、反应后得到的溶液显碱性。 2Na+2H2O=2NaOH+H2↑ 钠由于此反应剧烈,能引起氢气燃烧,所以钠失火不能用水扑救,必须用干燥沙土来灭火。钠具有很强的还原性,可以从一些熔融的金属卤化物中把金属置换出来。由于钠极易与水反应,所以不能用钠把居于金属活动性顺序钠之后的金属从其盐溶液中置换出来。 钠还能与钾、锡、锑等金属生成和金,钠钾合金在常温下是液体。金属钠与汞反应生成汞齐,这种合金是一种活泼的还原剂,在许多时候比纯钠更适用。钠离子能使火焰呈**,可用来灵敏地检测钠的存在。 人体内钠在一般情况下不易缺乏、但在某些情况下,如禁食、少食,膳食钠限制过严而摄入非常低时,或在高温、重体力劳动、过量出汗、肠胃疾病、反复呕吐、腹泻使钠过量排出而丢失时,或某些疾病,如艾迪生病引起肾不能有效保留钠时,胃肠外营养缺钠或低钠时,利尿剂的使用而抑制肾小管重吸收钠时均可引起钠缺乏。 钠的缺乏在早期症状不明显,倦怠、淡漠、无神、甚至起立时昏倒。失钠达05g/kg体重以上时,可出现恶心、呕吐、血压下降、痛性吉尔痉挛,尿中无氯化物检出。 钠过量 正常情况下,钠摄入过多并不蓄积,但某些情况下,如误将食盐当食糖加入婴儿奶粉中喂养,则可引起中毒甚至死亡。急性中毒,可出现水肿、血压上升、血浆胆固醇升高、脂肪清楚率降低、胃黏膜上皮细胞受损等。钠的适宜摄入量(AI)成人为2200mg/d。 钠来源 钠普遍存在于各种食物中,一般动物性食物高于植物性食物,但人体钠来源主要为食盐、以及加工、制备食物过程中加入的钠或含钠的复合物(如谷氨酸、小苏打等),以及酱油、盐渍或腌制肉或烟熏食品、酱咸菜类、发酵豆制品、咸味休闲食品等。……
举例说明平面图形的特点在生活中的应用。大神们帮帮忙就是平形
请至少列举出3种不可再生能源。大神们帮帮忙泥炭、煤、石油、天然气、金属矿产、非金属矿产等。
举例说明方法过载的实现方式大神们帮帮忙C#过载:同一个作用域内发生(比如一个类里面),定义一系列同名方法,但是方法的引数列表不同。这样才能通过传递不同的引数来决定到底呼叫哪一个。而返回值型别不同是不能构成过载的。
麻烦采纳,谢谢!
根据算式“176÷(4×2)”举出一个生活中的例项
(1)改为先加,再除,最后减的算式是(200+40)÷4-2,计算结果为(58)。(2)改为最后算除法的算式是(200+40)÷(4-2),计算结果为(120)。(3)改为得数为220的算式是200+40÷(4-2)=220
生活中的醋有哪些妙用?大神们帮帮忙巧妙用醋健康加分 多吃醋,爱吃醋,是否对人体健康有益呢? 醋酸具有促进新陈代谢和功效,可以帮助休息,恢复疲劳,预防动脉硬化、高血压,日常生活中有技巧的使用醋作为调味料来进行食物的烹调,对健康有所助益。 对于健康的人而言,日常生活中若感疲劳时,血液、体液将会变成酸性,因此在激烈运动或劳动后,吃一些以醋调味的料理,将会有助于恢复疲劳。 引起动脉硬化的原因,主要是来自于体内矽酸过多,造成矽酸硬化所致,食醋是有效防止动脉硬化的方法之一。而动脉硬化、脑溢血病人几乎都有高血压的毛病,如果平时巧妙地吃点醋,再加上有规律的生活,则能降低血压,进而预防罹患动脉硬化、脑溢血等疾病。 醋含有酿造所成的丰富的醋酸,以及会促进燃烧的有机酸类,因此,醋能促进营养素在体内的燃烧及提高热能利用率,进一步提高食物利用率,是在我们身边最易得到、最便宜、效果最大的食物。 同时,喝醋还能增进食欲并促进消化液的分泌,对摄取食物的消化吸收也有帮助。所以说,当餐桌上油腻的食物较多时,一般人都会对带有酸味的食物特别感觉美味,尤其是吃使用醋料理的食物,更是容易帮助下饭,使其他的菜也更好吃。 目前各种调味料中,已知醋具有很强的杀菌力。它能在30分钟内,杀死化脓性葡萄球菌、沙门氏菌、大肠菌、赤痢菌、腐败中毒菌、好盐性菌等。。 此外,大家耳熟能详的是,醋可以治疗香港脚、头蝨等疾病,甚至具有解酒的功效,防止恶醉的作用。李锦枫教授说,由于醋酸具有杀菌效果,当然可以用来治疗由霉菌引起的病症,何况还是很便宜的治疗方法,相当值得一试。 人类的肠道内,因微生物随食物进入,因此有乳酸菌、链球菌、大肠菌、念球菌等存在。多吃醋能够维持肠道的酸性,达到驱除有害细菌的效果。研究发现,在醋及其他营养物存在下,可 生成副肾皮荷尔蒙,这可使身体发挥自然疗效,强化身体原有的自卫机能。 有人说,将蛋与醋一起摄食,对疾病恢复中的病人,特别有效。而醋蛋的效果,在日本曾有腹膜炎病人摄取醋蛋一星期后,身体完全康复;但对糖尿病患而言,则必须在饮食节制下才能发挥功效。 醋是一种“健康食品”,饮用稀释过的醋可防暑而增进健康,但有些人将醋当成治病的“万能药”,是错误的观念。醋不宜大量饮用,尤其是胃溃疡的患者,更是要避免喝醋,以免对身体造成伤害。
你抱怨生活中什么?大神们帮帮忙有报怨过,可是总有那么一件东西代替了不是么?
记得采纳啊
现实生活中你见过明星谁?大神们帮帮忙李小璐
举例生活中的例项说明减少太阳光照射的危害没有太阳光照射 植物不能正常进行光合作用 就不能释放氧气
欢迎分享,转载请注明来源:品搜搜测评网