
优化与求解非线性方程组(单变量问题)
求函数极值的问题通常被化简为求解导数为0的点的问题。所以优化问题通常与解非线性方程组联系起来。在前面写点估计中的mle时,我们介绍了R中求解方程极值的函数nlm(),optim().
我们以一元函数f(x)=ln(x)/(1+x)为例求解函数的极值。
f<-function(x) -log(x)/(1+x) #(1)
optimize(f,c(0,10)) #求解(0,10)上的最小值,对于一元函数区间的确定,我们通常可以画图来做初步判断
对于多元函数:
f <- function(x) sum((x-1:length(x))^2)
nlm(f, c(10,10))#这里需要给出迭代的初值
optim(c(10,10),f)
由于nlm,optim,的默认迭代方法不同,得出的结果精度也会有区别。运行上面的代码,我们可以看到nlm给出的最小值点为(1,2),而optim给出的是(1.000348, 2.001812)。
我们也可以通过求解函数的导数为0的点求解函数的极值。还是以1式为例。运行下面的代码:
D(expression(log(x)/(1+x)),"x")
结果为:1/x/(1 + x) - log(x)/(1 + x)^2。 (2)
对于这样的方程,我们通常是没有好的办法让R给出解析解的。我们可以使用一些数值办法来求解方程(2)的数值解。常用的办法有:二分法,newton法,fisher得分法,不动点迭代法。下面我们来简单介绍算法的思想与R的实现代码。
一、二分法
二分法的思想十分简单,利用的就是函数的中值定理,局限也十分明显,只能求解出一个根而且速度较慢。所以函数的单调性,作图都是解决第一个局限的办法。
给出方程(1)的极小值利用二分法的求解程序:
fzero<-function(f,a,b,eps=1e-6){注:跟踪导函数值为0来检测收敛情况是诱人的,但是存在不稳定性,利用绝对收敛准则解决了这一问题(当然用相对收敛准则也是可以的)
二、Newton法
Newton-rapshon迭代是一种快速求根方法。主要利用泰勒级数展开来解决问题。
利用0=g’(x)=g’(x(t))+g’’(x(t))(x-x(t))(后面的等式是近似成立)来近似g’(x)。解上述的这个方程,我们可以得到一个很好的线性近似,迭代方程为:
X(t+1)=x(t)+g’(x(t))/g’’(x(t))
收敛条件依然使用绝对收敛。对于方程(1),有:
> D(expression(log(x)/(1+x)),"x")
1/x/(1 + x) - log(x)/(1 + x)^2
> D(expression(1/x/(1 + x) - log(x)/(1 + x)^2),"x")
-(1/x^2/(1 + x) + 1/x/(1 + x)^2 + (1/x/(1 + x)^2 - log(x) * (2 * (1+ x))/((1 + x)^2)^2))
问题的newton增量为:h(t)=((x(t)+1)(1+1/x(t)-logx(t))/(3+4/x(t)+1/(x(t))^2-2logx(t))
给出方程(1)的极小值利用newton法的求解程序:
三、Fisher得分法
我们知道fisher信息量是对数似然函数的二阶导数的期望的相反数。所以在求解g对应着的mle优化时,使用fisher信息量替换是合理的。这里不再给出程序。
四、切线法
在牛顿法的基础上,我们把导数改为曲线上两点的连线的斜率显然也十分的合理。这便是切线法的基本想法。我们还是给出上面例子的R程序:
f0<-function(x){五、不动点迭代法
除去二分法外,我们所讨论的都是不动点迭代的特例。这里只是简要叙述一下不动点迭代法的原理,并以开篇的例子给出R程序。
不动点定理是一个结果表示函数F在某种特定情况下,至少有一个不动点存在,即至少有一个点x能令函数F(x)=x。在数学中有很多定理能保证函数在一定的条件下必定有一个或更多的不动点,而在这些最基本的定性结果当中存在不动点及其定理被应用的结果具有非常普遍的价值。
ffour<-function(f0,a,eps=1e-6){这里还想说一点的就是关于不动点迭代的条件(百度一下,你就知道),如果不满足的话,需要对导函数前乘上一个系数加以调整,本例中的4*f0(a)+a正是调整刻度的结果。
<pre class="plain" name="code"></pre>
<pre></pre>
<pre></pre>
<pre></pre>
<pre></pre>
<pre></pre>
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在神经网络设计中,“隐藏层个数” 是决定模型能力的关键参数 —— 太少会导致 “欠拟合”(模型无法捕捉复杂数据规律,如用单隐 ...
2025-10-21在特征工程流程中,“单变量筛选” 是承上启下的关键步骤 —— 它通过分析单个特征与目标变量的关联强度,剔除无意义、冗余的特 ...
2025-10-21在数据分析全流程中,“数据读取” 常被误解为 “简单的文件打开”—— 双击 Excel、执行基础 SQL 查询即可完成。但对 CDA(Cert ...
2025-10-21在实际业务数据分析中,我们遇到的大多数数据并非理想的正态分布 —— 电商平台的用户消费金额(少数用户单次消费上万元,多数集 ...
2025-10-20在数字化交互中,用户的每一次操作 —— 从电商平台的 “浏览商品→加入购物车→查看评价→放弃下单”,到内容 APP 的 “点击短 ...
2025-10-20在数据分析的全流程中,“数据采集” 是最基础也最关键的环节 —— 如同烹饪前需备好新鲜食材,若采集的数据不完整、不准确或不 ...
2025-10-20在数据成为新时代“石油”的今天,几乎每个职场人都在焦虑: “为什么别人能用数据驱动决策、升职加薪,而我面对Excel表格却无从 ...
2025-10-18数据清洗是 “数据价值挖掘的前置关卡”—— 其核心目标是 “去除噪声、修正错误、规范格式”,但前提是不破坏数据的真实业务含 ...
2025-10-17在数据汇总分析中,透视表凭借灵活的字段重组能力成为核心工具,但原始透视表仅能呈现数值结果,缺乏对数据背景、异常原因或业务 ...
2025-10-17在企业管理中,“凭经验定策略” 的传统模式正逐渐失效 —— 金融机构靠 “研究员主观判断” 选股可能错失收益,电商靠 “运营拍 ...
2025-10-17在数据库日常操作中,INSERT INTO SELECT是实现 “批量数据迁移” 的核心 SQL 语句 —— 它能直接将一个表(或查询结果集)的数 ...
2025-10-16在机器学习建模中,“参数” 是决定模型效果的关键变量 —— 无论是线性回归的系数、随机森林的树深度,还是神经网络的权重,这 ...
2025-10-16在数字化浪潮中,“数据” 已从 “辅助决策的工具” 升级为 “驱动业务的核心资产”—— 电商平台靠用户行为数据优化推荐算法, ...
2025-10-16在大模型从实验室走向生产环境的过程中,“稳定性” 是决定其能否实用的关键 —— 一个在单轮测试中表现优异的模型,若在高并发 ...
2025-10-15在机器学习入门领域,“鸢尾花数据集(Iris Dataset)” 是理解 “特征值” 与 “目标值” 的最佳案例 —— 它结构清晰、维度适 ...
2025-10-15在数据驱动的业务场景中,零散的指标(如 “GMV”“复购率”)就像 “散落的零件”,无法支撑系统性决策;而科学的指标体系,则 ...
2025-10-15在神经网络模型设计中,“隐藏层层数” 是决定模型能力与效率的核心参数之一 —— 层数过少,模型可能 “欠拟合”(无法捕捉数据 ...
2025-10-14在数字化浪潮中,数据分析师已成为企业 “从数据中挖掘价值” 的核心角色 —— 他们既要能从海量数据中提取有效信息,又要能将分 ...
2025-10-14在企业数据驱动的实践中,“指标混乱” 是最常见的痛点:运营部门说 “复购率 15%”,产品部门说 “复购率 8%”,实则是两者对 ...
2025-10-14在手游行业,“次日留存率” 是衡量一款游戏生死的 “第一道关卡”—— 它不仅反映了玩家对游戏的初始接受度,更直接决定了后续 ...
2025-10-13