最小二乘法回归回归直线是什么意思

> 问题详情
用最小二乘法拟合回归直线方程,其基本原理是()。
悬赏:0&答案豆
提问人:匿名网友
发布时间:
用最小二乘法拟合回归直线方程,其基本原理是()。请帮忙给出正确答案和分析,谢谢!
论文写作技巧
您可能感兴趣的试题
1用判定系数 r 2 测定回归直线拟合程度,r
2 越接近于 1 拟合程度越好,这是因为 (  )。A.回归平方和占总变差平方和的比重越大B.回归平方和占总变差平方和的比重越小C.残差平方和占总变差平方和的比重越大D.残差平方和占总变差平方和的比重越小2从狭义上讲,统计指数是表明(  )。A.总体数量变动的相对数B.总体数量变动的绝对数C.复杂总体数量变动的相对数D.复杂总体数量变动的绝对数
我有更好的答案
相关考试课程
请先输入下方的验证码查看最佳答案
图形验证:
验证码提交中……苹果/安卓/wp
积分 464, 距离下一级还需 336 积分
权限: 自定义头衔, 签名中使用图片
道具: 彩虹炫, 涂鸦板, 雷达卡, 热点灯, 金钱卡, 显身卡, 匿名卡, 抢沙发下一级可获得
权限: 隐身
购买后可立即获得
权限: 隐身
道具: 金钱卡, 彩虹炫, 雷达卡, 热点灯, 涂鸦板
开心签到天数: 156 天连续签到: 1 天[LV.7]常住居民III
本帖最后由 wanghaidong918 于
12:01 编辑
如题,诚心求教:用eviews得到OLS法的回归方程,想看这个方程的曲线,就是用图表看走势啥的,怎样操作啊?谢谢各位啦!
载入中......
似乎可以的,你试试:回归后,点View—实际、拟合、残差——实际、拟合、残差图(或残差图,标准化残差图),如图:
下面是我估计多项式方程(最高3次)的结果:
你看绿线,似乎不是直线,而是曲线。当然我这个数据不符合三次方程,所以曲线不太明显。你可以换数据试试
鼓励学术交流
总评分:&学术水平 + 1&
本帖被以下文库推荐
& |主题: 8540, 订阅: 47
最小二乘法,用于线性回归,怎么可能出来曲线?应该是直线啊
耕耘使者 发表于
最小二乘法,用于线性回归,怎么可能出来曲线?应该是直线啊啊,比如说,我在Estimate Equation的时候输入命令 y& &x& &x^2& &x^3& &c,这样子回归出来的就是一元三次曲线啊,这样做难道是错滴?
abbylala 发表于
啊,比如说,我在Estimate Equation的时候输入命令 y& &x& &x^2& &x^3& &c,这样子回归出来的就是一元三次 ...这是非线性模型的线性化,即把x2等看成一个变量,从形式上还是线性的,但从变量关系是,已经是非线性模型。
你说得对,OLS可以处理能够线性化的非线性模型。
耕耘使者 发表于
这是非线性模型的线性化,即把x2等看成一个变量,从形式上还是线性的,但从变量关系是,已经是非线性模型 ...哦哦,嗯,是的,一直这么用不过还没仔细想过是怎么回事。
eviews是不是不能画出来最后回归的一元三次曲线啊~~~~%&_&%
abbylala 发表于
哦哦,嗯,是的,一直这么用不过还没仔细想过是怎么回事。
eviews是不是不能画出来最后回归的一元三次曲 ... 似乎可以的,你试试:回归后,点View—实际、拟合、残差——实际、拟合、残差图(或残差图,标准化残差图),如图:
08:22:51 上传
下面是我估计多项式方程(最高3次)的结果:
08:24:10 上传
你看绿线,似乎不是直线,而是曲线。当然我这个数据不符合三次方程,所以曲线不太明显。你可以换数据试试
热心帮助其他会员
总评分:&经验 + 10&
论坛币 + 10&
耕耘使者 发表于
似乎可以的,你试试:回归后,点View—实际、拟合、残差——实际、拟合、残差图(或残差图,标准化残差图 ...thx a lot !我来试试看O(∩_∩)O
直接用matlab最小二乘拟合啊&&三四个单词 就出来了
xiangnideyu 发表于
直接用matlab最小二乘拟合啊&&三四个单词 就出来了原来matlab这么强大,我都木有用过这个软件的说,有空研究下。嘿嘿,谢啦
如果三次多项式是分段函数,又如何用eviews进行拟合呢?请高手们不吝赐教~非常感谢
无限扩大经管职场人脉圈!每天抽选10位免费名额,现在就扫& 论坛VIP& 贵宾会员& 可免费加入
&nbsp&nbsp|
&nbsp&nbsp|
&nbsp&nbsp|
&nbsp&nbsp|
&nbsp&nbsp|
&nbsp&nbsp|
如有投资本站或合作意向,请联系(010-);
邮箱:service@pinggu.org
投诉或不良信息处理:(010-)
京ICP证090565号
论坛法律顾问:王进律师小木虫 --- 500万硕博科研人员喜爱的学术科研平台
&&查看话题
《偏最小二乘回归的线性与非线性方法》 (站内无)
书名:偏最小二乘回归的线性与非线性方法
作者:王惠文,吴载斌,孟洁著
出版日期:2006
简介:本书简介了多元线回归、主成分分析和典型相关分析的基本知识,重点讨论了变量多重性相关性在回归建模中的危害,详细介绍了偏最小二乘回归的线性与非线性方法。
研究生必备与500万研究生在线互动!
扫描下载送金币
浏览器进程
打开微信扫一扫
随时随地聊科研温馨提示!由于新浪微博认证机制调整,您的新浪微博帐号绑定已过期,请重新绑定!&&|&&
LOFTER精选
网易考拉推荐
用微信&&“扫一扫”
将文章分享到朋友圈。
用易信&&“扫一扫”
将文章分享到朋友圈。
设(x 1, y 1 ), (x 2, y 2), …, (x n, y n)是直角平面坐标系下给出的一组数据,若x 1&x 2&…&x n,我们也可以把这组数据看作是一个离散的函数。根据散点图观察,如果这组数据图象能基本集中到一条直线附近(不一定在直线),我们的问题是确定一条直线y = bx +a ,使得它能"最好"的反映出这组数据的变化(也就是拟合最好,距离的和最小)。对个别观察值来说,y尖与y的差可能是正的,也可能是负的。为了不使它们相加彼此抵消,故"最好"改用是        
阅读(2589)|
用微信&&“扫一扫”
将文章分享到朋友圈。
用易信&&“扫一扫”
将文章分享到朋友圈。
历史上的今天
在LOFTER的更多文章
loftPermalink:'',
id:'fks_',
blogTitle:'最小二乘法求回归系数',
blogAbstract:'',
blogTag:'',
blogUrl:'blog/static/4',
isPublished:1,
istop:false,
modifyTime:4,
publishTime:4,
permalink:'blog/static/4',
commentCount:0,
mainCommentCount:0,
recommendCount:0,
bsrk:-100,
publisherId:0,
recomBlogHome:false,
currentRecomBlog:false,
attachmentsFileIds:[],
groupInfo:{},
friendstatus:'none',
followstatus:'unFollow',
pubSucc:'',
visitorProvince:'',
visitorCity:'',
visitorNewUser:false,
postAddInfo:{},
mset:'000',
remindgoodnightblog:false,
isBlackVisitor:false,
isShowYodaoAd:false,
hostIntro:'',
hmcon:'1',
selfRecomBlogCount:'0',
lofter_single:''
{list a as x}
{if x.moveFrom=='wap'}
{elseif x.moveFrom=='iphone'}
{elseif x.moveFrom=='android'}
{elseif x.moveFrom=='mobile'}
${a.selfIntro|escape}{if great260}${suplement}{/if}
{list a as x}
推荐过这篇日志的人:
{list a as x}
{if !!b&&b.length>0}
他们还推荐了:
{list b as y}
转载记录:
{list d as x}
{list a as x}
{list a as x}
{list a as x}
{list a as x}
{if x_index>4}{break}{/if}
${fn2(x.publishTime,'yyyy-MM-dd HH:mm:ss')}
{list a as x}
{if !!(blogDetail.preBlogPermalink)}
{if !!(blogDetail.nextBlogPermalink)}
{list a as x}
{if defined('newslist')&&newslist.length>0}
{list newslist as x}
{if x_index>7}{break}{/if}
{list a as x}
{var first_option =}
{list x.voteDetailList as voteToOption}
{if voteToOption==1}
{if first_option==false},{/if}&&“${b[voteToOption_index]}”&&
{if (x.role!="-1") },“我是${c[x.role]}”&&{/if}
&&&&&&&&${fn1(x.voteTime)}
{if x.userName==''}{/if}
网易公司版权所有&&
{list x.l as y}
{if defined('wl')}
{list wl as x}{/list}线性回归——最小二乘法(二) - 推酷
线性回归——最小二乘法(二)
上篇文章中介绍了 单变量线性回归 ,为什么说时单变量呢,因为它只有单个特征,其实在很多场景中只有单各特征时远远不够的,当存在多个特征时,我们再使用之前的方法来求特征系数时是非常麻烦的,需要一个特征系数一个偏导式,而却最要命的时特性的增长时及其迅猛的,几十、几百、几千……
单变量线性回归:
多变量线性回归:
所以从这里我们开始将介绍线性回归的另一种更方便求解 多变量线性回归 的方式: 最小二乘法矩阵形式 ;
线性回归的标量形式:
这里把上诉式子中的系数m与误差c转换为向量(为了统一从下面开始使用
表示c与m),把式子中c看成是1c,把1与特征x也转换为向量;
损失函数也可以变为:
根据矩阵乘积转置规则损失函数可以进一步化简为:
还是和之前一样求 损失函数 L的极小值,所以求上式L关于W的偏导数;
向量微分常用等式
求L关于W的偏导数:
W则是通过矩阵形式求出来的最小乘法的解;
下面还是先使用上次的那组数据进行线性拟合,然后再使用多变量数据再次进行线性拟合已验证上诉算法:
单变量线性回归示例:
这里使用上面得到的最小二乘法矩阵形式公式对以下数据集进行线性拟合:
x、y的矩阵为:
根据公式求w
以下子求整个式子不好求,我们可以先分解该公式;
所以,也就是c=-0.23092,m=1.53092
线性回归函数可以写成:y = 1.53092x -0.23092
预测y的值:
y = 1.53092
y = 1.5.04
与上偏文章直接求关于m与c的偏导得出来的结果几乎一样(因为小数点不同所以精度有所差异);下篇文章我们将使用本篇文章里的最小二乘法矩阵形式处理 多变量 的情况;
参考资料:
https://zh.wikipedia.org/zh/%E6%9C%80%E5%B0%8F%E4%BA%8C%E4%B9%98%E6%B3%95
a first course in machine learning
已发表评论数()
请填写推刊名
描述不能大于100个字符!
权限设置: 公开
仅自己可见
正文不准确
标题不准确
排版有问题
主题不准确
没有分页内容
图片无法显示
视频无法显示
与原文不一致}

我要回帖

更多关于 spss最小二乘法回归 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信