从定义来看,当n趋近于无穷,无穷级数的收敛绝对值应该由于Un的趋近于0,所以是收敛的,可是为什么不对

您所在位置: &
&nbsp&&nbsp&nbsp&&nbsp
分位数回归中若干问题的研究.pdf123页
本文档一共被下载:
次 ,您可全文免费在线阅读后下载本文档。
文档加载中...广告还剩秒
需要金币:150 &&
你可能关注的文档:
··········
··········
摘要 摘要 变量选择在统计分析中是一个很重要的话题,而删失数据在实际生活中也 十分常见。本文的主要研究是为变系数模型提供系统的变量选择方法,也为固 定删失数据的分位数回归给出一种简单、有效的算法。本文主要工作和结论如 下: 1 、基于自适应I。ASSO和基函数逼近,为纵向数据的分位数变系数模型提 供了一种新的变量选择方法。本文研究一类自适应舭SSO惩罚,允许对每组 基函数系数的厶范数进行惩罚,a之1。所构造的方法具有变量选择的相合性, 且变系数函数的估计量达到了相同光滑条件下的最优收敛速度。数值模拟和两 个实际数据分析验证了其有限样本性质。 2 、基于双重自适应LASSO惩罚和基函数逼近,为变系数模型在最小二乘 回归和分位数回归下构造了统一的变量选择方法,同时解决变系数模型的三类
变量选择问题: i 区分系数为变系数函数和常数的协变量; ii 选择系数为非零 函数的协变量; iii 选择系数为非零常数的协变量。惩罚估计量在变量选择和 常、变系数区分上都是相合的。此外,得到的变系数估计量达到了同样光滑条
件下的最优收敛速度,而非零常系数的渐近性质和真实模型下估计量的性质一
样。数值模拟和实际数据分析验证了所构造方法的有限样本性质。 3 、基于LASSO-型惩罚和基函数逼近,为超高维分位数变系数模型构造了
一种两步方法来进行降维和变量选择。即使在不相关变量个数以样本量的接近
指数级增长时,第一步估计量仍是相合的。该方法可以把模型的维数从超高维 降到与真实模型大小接近的阶,且真实模型被包含在所选模型中。第二步对第
一步之后被选出来的模型采用自适灿SSO惩罚,具有变量选择的相合性。数
正在加载中,请稍后...设无穷级数的一般项随项数n趋于无穷大时以零为极限,则该级数必收敛判断题~
错反例:调和级数1+1/2+1/3+1/4+.+1/n+.是发散的.项1/n随项数n趋于无穷大时以零为极限,但此级数不收敛
为您推荐:
其他类似问题
扫描下载二维码数列极限的定义为什么不表示成趋近于0_百度知道任意项级数,绝对收敛_图文_百度文库
两大类热门资源免费畅读
续费一年阅读会员,立省24元!
评价文档:
任意项级数,绝对收敛
上传于||暂无简介
大小:656.00KB
登录百度文库,专享文档复制特权,财富值每天免费拿!
你可能喜欢}

我要回帖

更多关于 无穷级数考研视频 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信