京公网安备 11010802034615号
经营许可证编号:京B2-20210330
【机器学习】最小中值平方法
最小中值平方法
最小中值平方法是通过求解下面的非线性最小问题来估计参数的
LMedS记录的是所有样本中,偏差值居中的那个样本的偏差,这种方法对错误匹配和外点有很好的鲁棒性。
不像M-estimator,LMedS问题不能直接化简为带权重的最小二乘问题,对于LMedS估计没有一个具体的公式。
LMedS是从样本中随机抽选出一个样本子集,使用LS对子集计算模型参数,然后计算所有样本与该模型的偏差。
具体方法是根据下面方法进行曲线估计:
假设给定n个点:
1.采用Monte Carlo技术进行抽取包含p个点的m个样本集。对于目前的问题,选择p=5,因为5 个点就可以确定一个二次曲线。
2.用每一个样本集求出二次曲线Pj。
3.对于每一个二次曲线Pj,可求出整个数据集残差平方的中值Mj。
对于第i个点到二次曲线
的残差
有多种选择,根据需要的精度和计算效率,可以选择algebraic
distance、Euclidean distance 、gradient weighted distance。
4.求取使得
最小的
。
现在的问题是:怎样确定m的值??如果一个样本的p个点均是内点,则为一个好的样本。假设一个数据集包含
的外点,则m个样本中至少有一个是好的样本的概率是
一般包含好点的概率P接近于1,给定p和
若包含外点的百分比
=40%,P=0.99,则m=57;可以通过并行算法加快算法的速度,使得对于每个子集的处理均相互独立。
如果数据集存在高斯噪音,LMedS的效率将会非常低。为了弥补这种缺陷,提出了带权重的最小二乘法,标准差的估计由下式给出
为最小的中值。常数1.4826使得在出现高斯噪音的时候,和最小二乘方法的效率一样。5/(n-p)用来补偿数量太少。基于
,我们可以给每一项分配一个权重系数
是第i个点相对于二次曲线P的残差,如果某个点所对应的权重系数为0,则为外点,应剔除掉。二次曲线P则可以由下面带权重的最小二乘问题求解
如前所述,可以通过采用Monte-Carlo技术来提高LMedS方法计算效率。然而,通过这种方法生成的样本中的5个点很有可能非常靠近,这种情况在曲线拟合过程中是应该尽量避免的,因为用这些点进行曲线拟合非常不稳定,而且通常会得到错误的结果。对每一个样本进行有效性检验,将会非常耗时,降低整个算法的计算效率。为了保证算法的鲁棒性和有效性,我们采用一种基于分组的规则的随机抽样法(regularly random selection method based on bucketing techniques),具体实现过程如下:
首先,计算第一幅图像中点坐标的极大极小值,然后将坐标点所在的区域均匀划分成
组(在实验中,b=8)。每一个组将包含一系列的点,同时也包括一些匹配点。最后,剔除没有匹配点的分组。为了生成包含5个点的一个样本,首先随机选择5个相互不同的组,然后在每一个组里随机选取一个匹配点。
现在任然存在的问题是:到底需要多少个样本?如果坏点在空间中均匀分布,且每一组有相同的点数,随机选择是一种均匀分布则33式仍然可用。但是,一般情况下各组所包含的点数可能相差会非常大。由此造成的结果就是,包含点数少的组中的点比包含点数多的组中的点被选择地可能性更大。可以用如下的方法来说明:
假设共有I个组,我们将0到1分成I个区间,则第i个区间的宽度是
是第i组点的个数。在选择组的过程中,由均匀随机数发生器(uniform
random generator)产生一个0到1的随机数,这个随机数落入哪个区间,则选择哪个组。
Figure 6: Interval and bucket mapping
可以用这种方法对两幅非标定的图像进行匹配。对于给定的两幅未标定图像,唯一能用的几何约束是极线约束。先采用传统的方法(correlation and relaxation methods)找到初始的匹配点,然后利用最小中值平方法(LMedS)剔除初始匹配中的错误匹配。图像间的极线几何关系可以由图像中有实际意义的准则精确估计出来。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在数据分析、业务决策、科学研究等领域,统计模型是连接原始数据与业务价值的核心工具——它通过对数据的规律提炼、变量关联分析 ...
2026-02-14在SQL查询实操中,SELECT * 与 SELECT 字段1, 字段2,...(指定个别字段)是最常用的两种查询方式。很多开发者在日常开发中,为了 ...
2026-02-14对CDA(Certified Data Analyst)数据分析师而言,数据分析的核心不是孤立解读单个指标数值,而是构建一套科学、完整、贴合业务 ...
2026-02-14在Power BI实操中,函数是实现数据清洗、建模计算、可视化呈现的核心工具——无论是简单的数据筛选、异常值处理,还是复杂的度量 ...
2026-02-13在互联网运营、产品迭代、用户增长等工作中,“留存率”是衡量产品核心价值、用户粘性的核心指标——而次日留存率,作为留存率体 ...
2026-02-13对CDA(Certified Data Analyst)数据分析师而言,指标是贯穿工作全流程的核心载体,更是连接原始数据与业务洞察的关键桥梁。CDA ...
2026-02-13在机器学习建模实操中,“特征选择”是提升模型性能、简化模型复杂度、解读数据逻辑的核心步骤——而随机森林(Random Forest) ...
2026-02-12在MySQL数据查询实操中,按日期分组统计是高频需求——比如统计每日用户登录量、每日订单量、每日销售额,需要按日期分组展示, ...
2026-02-12对CDA(Certified Data Analyst)数据分析师而言,描述性统计是贯穿实操全流程的核心基础,更是从“原始数据”到“初步洞察”的 ...
2026-02-12备考CDA的小伙伴,专属宠粉福利来啦! 不用拼运气抽奖,不用复杂操作,只要转发CDA真题海报到朋友圈集赞,就能免费抱走实用好礼 ...
2026-02-11在数据科学、机器学习实操中,Anaconda是必备工具——它集成了Python解释器、conda包管理器,能快速搭建独立的虚拟环境,便捷安 ...
2026-02-11在Tableau数据可视化实操中,多表连接是高频操作——无论是将“产品表”与“销量表”连接分析产品销量,还是将“用户表”与“消 ...
2026-02-11在CDA(Certified Data Analyst)数据分析师的实操体系中,统计基本概念是不可或缺的核心根基,更是连接原始数据与业务洞察的关 ...
2026-02-11在数字经济飞速发展的今天,数据已成为核心生产要素,渗透到企业运营、民生服务、科技研发等各个领域。从个人手机里的浏览记录、 ...
2026-02-10在数据分析、实验研究中,我们经常会遇到小样本配对数据的差异检验场景——比如同一组受试者用药前后的指标对比、配对分组的两组 ...
2026-02-10在结构化数据分析领域,透视分析(Pivot Analysis)是CDA(Certified Data Analyst)数据分析师最常用、最高效的核心实操方法之 ...
2026-02-10在SQL数据库实操中,字段类型的合理设置是保证数据运算、统计准确性的基础。日常开发或数据分析时,我们常会遇到这样的问题:数 ...
2026-02-09在日常办公数据分析中,Excel数据透视表是最常用的高效工具之一——它能快速对海量数据进行分类汇总、分组统计,将杂乱无章的数 ...
2026-02-09表结构数据作为结构化数据的核心载体,其“获取-加工-使用”全流程,是CDA(Certified Data Analyst)数据分析师开展专业工作的 ...
2026-02-09在互联网产品运营、用户增长的实战场景中,很多从业者都会陷入一个误区:盲目投入资源做推广、拉新,却忽视了“拉新后的用户激活 ...
2026-02-06