win2003网站建设,上海人才网官网登录不进去,wordpress还是discuz,如何自己做引流推广本文目录 1. 欧氏距离 2. 曼哈顿距离 3. 切比雪夫距离 4. 闵可夫斯基距离 5. 标准化欧氏距离 6. 马氏距离 7. 汉明距离 8. 杰卡德距离 杰卡德相似系数 9. 相关系数 相关距离 10. 信息熵 1. 欧氏距离(Euclidean Distance) 欧氏距离是最易于理解的一种距离计算方法 杰卡德相似系数 9. 相关系数 相关距离 10. 信息熵 1. 欧氏距离(Euclidean Distance) 欧氏距离是最易于理解的一种距离计算方法源自欧氏空间中两点间的距离公式。 (1)二维平面上两点a(x1,y1)与b(x2,y2)间的欧氏距离 (2)三维空间两点a(x1,y1,z1)与b(x2,y2,z2)间的欧氏距离 (3)两个n维向量a(x11,x12,…,x1n)与 b(x21,x22,…,x2n)间的欧氏距离 也可以用表示成向量运算的形式 2. 曼哈顿距离(Manhattan Distance) 从名字就可以猜出这种距离的计算方法了。想象你在曼哈顿要从一个十字路口开车到另外一个十字路口驾驶距离是两点间的直线距离吗显然不是除非你能穿越大楼。实际驾驶距离就是这个“曼哈顿距离”。而这也是曼哈顿距离名称的来源 曼哈顿距离也称为城市街区距离(City Block distance)。 (1)二维平面两点a(x1,y1)与b(x2,y2)间的曼哈顿距离 (2)两个n维向量a(x11,x12,…,x1n)与 b(x21,x22,…,x2n)间的曼哈顿距离 3. 切比雪夫距离 ( Chebyshev Distance ) 国际象棋玩过么国王走一步能够移动到相邻的8个方格中的任意一个。那么国王从格子(x1,y1)走到格子(x2,y2)最少需要多少步自己走走试试。你会发现最少步数总是max( | x2-x1 | , | y2-y1 | ) 步 。有一种类似的一种距离度量方法叫切比雪夫距离。 (1)二维平面两点a(x1,y1)与b(x2,y2)间的切比雪夫距离 (2)两个n维向量a(x11,x12,…,x1n)与 b(x21,x22,…,x2n)间的切比雪夫距离 这个公式的另一种等价形式是 4. 闵可夫斯基距离(Minkowski Distance) 闵氏距离不是一种距离而是一组距离的定义。 两个n维变量a(x11,x12,…,x1n)与 b(x21,x22,…,x2n)间的闵可夫斯基距离定义为 其中p是一个变参数。 当p1时就是曼哈顿距离 当p2时就是欧氏距离 当p→∞时就是切比雪夫距离 根据变参数的不同闵氏距离可以表示一类的距离。 5. 标准化欧氏距离 (Standardized Euclidean distance ) 标准化欧氏距离是针对简单欧氏距离的缺点而作的一种改进方案。标准欧氏距离的思路既然数据各维分量的分布不一样好吧那我先将各个分量都“标准化”到均值、方差相等吧。均值和方差标准化到多少呢这里先复习点统计学知识吧假设样本集X的均值(mean)为m标准差(standard deviation)为s那么X的“标准化变量”表示为 而且标准化变量的数学期望为0方差为1。因此样本集的标准化过程(standardization)用公式描述就是 标准化后的值 ( 标准化前的值 分量的均值 ) /分量的标准差 经过简单的推导就可以得到两个n维向量a(x11,x12,…,x1n)与 b(x21,x22,…,x2n)间的标准化欧氏距离的公式 如果将方差的倒数看成是一个权重这个公式可以看成是一种加权欧氏距离(Weighted Euclidean distance)。 6. 马氏距离(Mahalanobis Distance) 有M个样本向量X1~Xm协方差矩阵记为S均值记为向量μ则其中样本向量X到u的马氏距离表示为 而其中向量Xi与Xj之间的马氏距离定义为 若协方差矩阵是单位矩阵各个样本向量之间独立同分布,则公式就成了 也就是欧氏距离了。 若协方差矩阵是对角矩阵公式变成了标准化欧氏距离。 7. 汉明距离(Hamming Distance) 两个等长字符串s1与s2之间的汉明距离定义为将其中一个变为另外一个所需要作的最小替换次数。例如字符串“1111”与“1001”之间的汉明距离为2。 应用信息编码为了增强容错性应使得编码间的最小汉明距离尽可能大。 8. 杰卡德相似系数(Jaccard similarity coefficient) (1) 杰卡德相似系数 两个集合A和B的交集元素在AB的并集中所占的比例称为两个集合的杰卡德相似系数用符号J(A,B)表示。 杰卡德相似系数是衡量两个集合的相似度一种指标。 (2) 杰卡德距离 与杰卡德相似系数相反的概念是杰卡德距离(Jaccard distance)。杰卡德距离可用如下公式表示 杰卡德距离用两个集合中不同元素占所有元素的比例来衡量两个集合的区分度。 9. 相关系数 ( Correlation coefficient )与相关距离(Correlation distance) (1) 相关系数的定义 相关系数是衡量随机变量X与Y相关程度的一种方法相关系数的取值范围是[-1,1]。相关系数的绝对值越大则表明X与Y相关度越高。当X与Y线性相关时相关系数取值为1正线性相关或-1负线性相关。 (2)相关距离的定义 10. 信息熵(Information Entropy) 信息熵并不属于一种相似性度量。信息熵是衡量分布的混乱程度或分散程度的一种度量。分布越分散(或者说分布越平均)信息熵就越大。分布越有序或者说分布越集中信息熵就越小。 计算给定的样本集X的信息熵的公式 参数的含义 n样本集X的分类数 piX中第i类元素出现的概率 信息熵越大表明样本集S分类越分散信息熵越小则表明样本集X分类越集中。。当S中n个分类出现的概率一样大时都是1/n信息熵取最大值log2(n)。当X只有一个分类时信息熵取最小值0转载于:https://www.cnblogs.com/belfuture/p/5871452.html