函数公式初中的线性化公式中x-x0是指什么

本文主要是对于前半部分的解读论文可谓是短小精悍,个人花了很多时间去学习和理解文章中不乏会有一些理解不到位的情况,欢迎各位大神们拍砖一起学习进步。


基于图优化的SLAM方法已经取得了成功但是图的大小会随着时间的增长而变得很大,从而变得computational costs为了解决这个问题,论文使用分开的边缘囮和稀疏化解决这个问题同时,论文还做了以下两个工作:

  1. 论文验证了在边缘化的时候构建密集因子时使用的线性化点要使用Markov blanket的相对位姿,而不是绝对位姿;
  2. 在稀疏化的时候论文通过在线的方法来确定最相似的稀疏结构,而不是通过离线的结构选择;

Recovery(NFR)但是这两个方法都是将边缘化和稀疏化是耦合的,但是这种方法并不能保证所有的信息都能保存在稠密因子中主要原因是因为边缘化和稀疏化都在同┅时刻的话,稀疏化的线性化点并不是边缘化之后的线性化点也就是说,稀疏化的时候并没有最大程度的利用稠密因子的信息

所以在這个论文中,作者将这两个操作解耦了在边缘化之后进行稀疏化,保证可以利用边缘化留下的信息最后,在稀疏化的过程中主要构建叻一个稀疏正则的凸优化来在线决定如何进行图的稀疏本文的工作主要有:

  • 在局部图上(Markov blanket)进行边缘化和稀疏化。在边缘化的时候在局部地图上找到一个参考点,并求解最大似然问题相比于使用全局的位姿,这样的方法才能保证一致性边缘化之后的分布将以非线性測量的形式为后续的优化提供先验信息;
  • 操作的解耦一方面是为了更好的利用边缘化信息,另一方面是为了更好的分散计算量在稀疏化嘚工程中,首先对稠密分布的内部团(团概念参考图模型的相关文章)因子进行稀疏化(就是与被边缘化帧相关的帧)注意这些约束要茬稀疏化之前被排除出来,这样保证稀疏化之前能对这些测量进行再次的线性化(相当于也没有丢掉只是以另一种形式存在了);然后構建一个L1正则凸优化来决定最终要优化的稀疏结构,这个结构旨在获得一组最好的反应Markov blanket中全部信息的稀疏测量值然后以此来代替稠密因孓;

直译为马尔科夫毯子,也有翻译为马尔科夫覆盖域一个例子如下图1。因为这个概念是全文得以推导的基础因此这里有必要着重说┅下:

  1. 在下图中,可以看到如果我们以节点A来建立一个Markov blanket那么此时A的父节点、兄弟节点以及子节点都是影响A预测的因素,因此他们和A一起構成了一个Markov blanket
  2. 下面的例子其实是一个有向图,SLAM中的节点属于无向图因此构建Markov blanket的时候,不需要考虑兄弟节点

为了解决基于图的SLAM系统的计算量,人们尝试了很多种方法但是边缘化是一种最稳妥的方法,因为这样可以很好的保留之前的信息不被丢失但是边缘化之后会导致圖变得稠密,但是可以通过近似的方法减少这部分填充

GLC 方法在边缘化节点的markov blanket上应用边缘化,但使用了内部团的测量从而产生n元线性约束来近似覆盖域。 但是这些线性因子是在全局状态下被估计的,这可能导致测量的不一致性

NFR方法不同,他的因子并不限制为线性的這些因子的信息矩阵是通过最小化近似边缘分布与原始边缘分布的KL散度来获得的。除了使用全局的状态来进行线性化作者也尝试了局部狀态的估计作为线性化点,但是作者并没有严格的论证

上述两个方法有一个共同的特点,就是他们的近似都是采用预先决定的稀疏结构對边进行加权的方法并不是在线的计算这个稀疏的结构。

文章为了解决上述的问题首先是把边缘化和稀疏化进行了解耦,其次就是在線的计算稀疏结构最后就是论证了使用局部的估计是最好的办法。


这个章节就是简单介绍了一下整个基于图优化的SLAM的方法主要是下面彡个公式:


当Markov blanket建立完成之后,就把边缘化的节点在局部图上边缘化掉概率推导公式如下:

Xb?,Xm?,Zm?构建最大似然估计问题,然后把 X m X_m Xm?边缘囮掉下面就是边缘化的理论推导了:

实际上,对于求解公式(3)的时候我们需要使用贝叶斯公式求解一个最大后验的问题,但是因为並没有 X m X b X_m,X_b Xm?Xb?的先验信息(我个人觉得不管是局部还是全局,都没有这部分的先验)所以最终求解的还是一个最大似然的问题(

Xb?嘚信息矩阵,如下:

得到先验信息之后整个没有边缘化的MLE(最大似然估计)问题(公式1)就可以写作下面带先验的非线性最小二乘问题(这个是一个引理,下面证明):

如果Jacobian和信息矩阵都使用公式(4)所示的局部MLE估计的线性化点那么边缘化的非线性化最小二乘问题可以朂好的近似未边缘化的MLE问题。

  • 原始局部MLE问题的误差形式:

cr?表示非边缘化边的误差项;

  • 求解使得误差最小时的状态变量:

? 可以看到又因為要边缘化掉 X m X_m Xm?状态量因此式子最后只把最小化 X m X_m

    cm?(xm?,xb?)进行近似,有如下形式:

? 其中 g g g表示公式(1)对于状态的求导(其实相当于是增量方程中的 b b b项)即:

? 然后信息矩阵还是也一样,是 e 2 e^2 e2对状态的求导不过推导出来和上面的信息矩阵一样(跟增量方程中的 H H H一 样),即:

  • 随後就是求导等于0然后运行schur补,可以得到最优的 X m X_m Xm?值为:
  • 把上式代入原式中可以得到误差仅与 X b X_b Xb?的关系如下:

gt?Λ \Lambda Λ联合求解出来, 鈈过因为这个值在边缘化之后就固定了,所以可以忽略这个值继续求解增量等值;

  • 进一步如果我们的线性化点是整个局部图的最优值,那么公式(6)中的 g g g就会为0进而公式(7)中的 g t g_t gt?也为0,所以公式(7)也就写作公式(5)但是实际上,我们在使用的时候依旧选择公式(7)的形式因为我们并不能保证当时的线性化点就是最优的,如果是那么 g t g_t gt?为0,也不会影响结果

下面深入一点,来看一下我们得到叻先验之后怎么用这个先验:

当状态 X m X_m Xm?被边缘化掉之后,之后的优化我们求解公式(7)所示的误差函数公式初中就可以了后一项很熟悉,就是BA的误差这里不再多讲;对于先验项,在K时刻我们需要利用这个信息构建增量方程,过程如下:

  1. 其中一阶偏导(后面增量方程中的b)和二阶偏导(后面增量方程中的H)的形式如下:

    可以看到的是,在使用边缘化之后的先验时增量方程中的b是要更新的,但是H部汾不再更新保持边缘化时刻的优化方向;

  2. 最后一点,在LM过程中当我们计算出了新的 x b x_b xb?时,我们需要把这个值带入到公式(8)中指导算法接受更新还是拒绝更新;

这个部分就和Markov blanket息息相关了最重要的原因就是上述的推导都是在一个局部且认为不受其他变量影响的条件下进荇的(就是公式(4)中只能引入 Z m Z_m Zm?,所以得到的先验信息也都是给局部graph的因子的这也是为什么作者说不能使用全局graph进行边缘化(因为铨局边缘化的时候,会有非 Z m Z_m

Xm?,Xb?,Xr?一起在做优化那么此时我们如何用这个先验信息呢?总不能把原本的紧耦合变为分开求解的松耦合吧

作者给出的方法就是将要被边缘化的因子构成的Markov blanket给以某一个节点shift起来,我个人觉得这个操作有如下的优点:

  • 由于shift操作Markov blanket就有一个很稳定嘚参考点,不管这个参考点怎么变化内部都是一致的;

X0?是不变的,仿照公式(3)我们在shift之后的Markov blanket可以建立下面的未边缘化的最大似然問题,如下:

然后同样经过上面的推导我们同样可以得到先验的形式如下:

可以看到,这个先验中我们的线性化点是边缘化时刻,局蔀图中的相对位姿

作者在这个部分也说,很显然我们推断的这个先验信息对于局部的帧而言,是一个线性关系( x b ? x ^ b x_b-\hat{x}_b xb??x^b?)但是放茬全局来看,先验则变为了非线性因为这个先验中不包含非

那么我们可以看到,其实边缘化这个操作需要注意的方面无非两个点:

  1. 在边緣化的时候要形成一个独立的Markov blanket,不要引入非 Z m Z_m Zm?的约束影响;
  2. 在后续优化的时候一定要把局部的先验考虑进来,我个人的感觉像是 X b , X r X_b, X_r Xb?,Xr?囸常构建BA优化但是优化的过程中, X b X_b Xb?一定要转回到局部坐标系中看一下先验(颇有种常回家看看的感觉);

那么这么看来个人看来港科开源的VINS-Mono似乎有问题:主要是在边缘化时,VINS-Mono并非仅考虑了$Z_m $也考虑了其他的约束;然后DSO在这方面做的就比较好了:在边缘化的时候,DSO会仅僅使用那些跟要被边缘化的帧有关的约束其他的约束都不会参与到边缘中过程中。

但是对于第二点我个人并没有很明显的看到现有框架下的shift操作,难道都以坐标原点进行shift了

}

我要回帖

更多关于 函数公式初中 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信