深度学习中常用的几种距离度量算法
· 1 条评论🚩 简单说来,各种"距离"的应用场景简单概括为:
- 空间:欧氏距离用于度量二维或三维空间中的直线距离,非常适合用于几何空间中的距离计算;
路径:
- 曼哈顿距离:网格路径计算,只允许沿着水平和垂直方向移动,而不考虑对角线方向的距离;
- 切比雪夫距离:用于度量国际象棋国王的最短路径距离,适用于只考虑水平、垂直或对角线的移动
闵可夫斯基距离是欧氏距离、曼哈顿距离和切比雪夫距离的统一形式
- 加权:标准化欧氏距离,用于需要考虑各维度不同权重的情况,例如数据分析中不同特征维度具有不同单位或重要性时;
- 排除量纲和依存:马氏距离,用于消除不同变量间的依赖性和量纲影响,适用于多元数据分析和异常检测;
- 向量差距:夹角余弦,适用于文本分析等高维向量空间中,比较角度而非距离;
- 编码差别:汉明距离,用于度量字符串或编码之间的差别,常用于错误检测与纠正(如纠错码)中;
- 集合近似度:杰卡德相似系数与距离,常应用于推荐系统和文本相似性计算中;
- 相关性:相关系数(如皮尔逊相关系数)用于度量两个变量间的线性关系,相关距离作为一种距离度量,用于数据分析中;
- 时间序列:DTW距离用于时间序列的相似性度量,适合变速率或变形的时间序列数据;标准化欧式距离也可以用于等长时间序列的简单相似度比较