知道总体方差 期望 和 方差, 要求一个采样值 大于某一个固定值的概率,如何做?

推荐这篇日记的豆列
&&&&&&&&&&&&从实验的样本容量和各事件发生次数反推真实概率的分布的计算、讨论及应用(3-6更新主楼提问) | 死理性派小组 | 果壳网 科技有意思
895245人加入此小组
关注概率事件的测试好几年了=_,= 最近在优化计算的时候发现点像样子、而且和现行的结论不同的结论,和大家分享一下,顺便讨论讨论。首先要确定定义问题,网上有人纠结概率、几率、机率什么的,我来梳理一下:引用刚看的医学统计学的说法:独立地重复做n次试验,某随机事件A在n次试验中出现了m次,则比值m/n称为随机事件A在n次试验中出现的 频率 。在医学科研中,当n充分大时,就以频率作为 概率 的 近似值 ,记做上面确实是“近似值”,因为在实验结果只有两种可能的最简单情况下,概率的期望值应是这我会在下面说明。而几率和概率则是一回事。对于纠结定义的人,很可能你是把频率当做了几率。不过咱们接下来要讨论的不是定义的语义,而是定义指代的东西本身,所以也不太重要……首先说一下最简单的情况,如果一个实验的可能结果只有 [发生/不发生] 两种 (或者[发生a/发生b]两种),而且其真实概率是未知的稳定数值 t。那么,对于0~1之间的某一个t,其实验了N次且只发生X的概率是,每一个不同的概率t,都有可能发生频率X/N的事件,其总和(归一化系数)为我不知道怎么才能手工解出这个式子……但是运气好在这个式子是有一些渊源的:首先,叫做其次,可以直接查公式和,,结果是
,我另外用数值计算N次的结论也吻合这个结果所以,很巧妙的,于是,真实概率在t周围一个极小的dt的范围内的概率就是而t的期望值则是基于此,再引用医学统计学中的一段描述例如:某时期内,甲部队患感冒者17人,乙部队10人,我们不能因为17人多于10人,而得出甲部队感冒发病率高的结论,如果甲部队有534人,乙部队为313人,那么甲乙部队感冒率分别为:
甲部队:17/534×1000‰=31.8‰
乙部队:10/313×1000‰=31.9‰
根据这两个感冒发病率可以看出,两个部队感冒的发病强度是一样的,即每千人中发病32人。这里的算式就不对,甲部队的感冒率期望值是 18/536×1000‰=33.58‰ 乙部队则为34.92‰两个部队具体的感冒率的概率分布则为基于此P(t),我们就可以进行两个样本的差异性估计例如表示对于样本一的每一个可能的真实概率t,统计样本二的真实概率在(t+0.01,1)之间的概率,如果这个数值的概率大于,比如99%,就可以说明样本二的概率和样本一的概率有显著地差异,其差值为0.01(1%)相比现行的计算X2,计算P,自由度,做假设检验,然后得到一个 是/否的判断结论以及判断犯I型错误的概率不超过5% 这样的结果显示更方便结果叠加和处理---上面的算式有一个假设“其真实概率是未知的稳定数值 t”,实际情况中的概率不是某个固定值,我认为可以做这样的理解:我们难以分辨出所有影响治愈率的因素,所以要随机选择大容量样本(N),这个样本中,可能会包含了情况有别的群体,其容量分别为n1,n2,…… 满足,每一个群体因各种因素的影响,其安慰剂治愈率p1i是不同的,给药治愈率p2i不相同。如果我们能够分辨每一个个体归属的组别,那么取样样本的安慰剂治愈率应满足对于每个分组ni和治愈了的个体xi,可以按照已知的公式计算出pi的概率分布,叠加一下就可以得到P1的概率分布,最后就可以用积分式来检查显著性了。在实际情况中,我们除了观察到的样本一组结果[N1 X1]、样本二结果[N2 X2]之外,没办法分辨什么内在的各个子群体。但正是因为没法分辨各样本中子群体的规模,实验结果的信息才对任意样本组的子群体等效,即于是有混合概率所以,测试的结果直接反应出这个样本总体的概率分布。若要将计算结果推广到总体空间,只需要检查取样是否合理,样本是否能在很大程度上代表总体就可以。----------------讨论和疑问对于实验可能只有两种情况的计算比较简单,结果也很漂亮,但是如果推广到三个甚至更多,似乎就没办法得到很漂亮的结果了。以三种不同的结果[发生a|发生b|发生c]为例,Xa+Xb+Xc=N ,ta+tb+tc=1.如果我们尝试把事件b和事件c的发生次数Xb和Xc加总起来,分离事件a,试图套用上面的计算结论,得到事件a的概率的期望值是
(Xa+1)/(N+2),那么相应的,事件b和c的总和体的概率的期望值就是 (Xb+Xc+1)/(N+2),而在事件总体bc中,b的发生概率是(Xb+1)/(Xb+Xc+2),两者相乘得到(Xb+1)/(N+2)*(Xb+Xc+1)/(Xb+Xc+2),这个数值直接分离事件b得到的(Xb+1)/(N+2)不同。结论不能适用,就从最初的积分式开始计算吧。对比一下就会发现,相对于两种结果的积分式的格式,三个结果的右边是 自然会有差别其归一化系数的计算式为稍微整理一下,可以推广得到公式解实验一共有M种不同的结果时,经过归一化和整理地表达式是对应的期望值是令N'=N+M-2 ,那么得到但这个结果还是不对的。 以M= N=1000 X=996 为例,我们很显然认为不管M等于多少,这个事件的发生概率必须接近0.996,而不是如上述公司计算出来的接近0.如果我们不做积分,那么这个概率密度函数其实是狄利克雷分布(The Dirichlet Distribution),而只是在M维欧拉空间画出分布的图像的话,图像本身是和0.996的感性认识一致的。所以问题只能是出在积分上——我试过换一个角度来做积分,把100%的一端固定,0%的一端扫描过所有的可能,这样得到的积分式不会有M进入(1-t)的指数部分,但仍有其他的问题,如无法同时满足单事件概率积分为一盒所有事件期望概率之和为一的两个条件(我倾向于选择期望作为约束条件,没啥理由……)但无论如何,我认为从实验结果得到的固定的狄利克雷分布本身已经足够表征实验结果,这意味着单一事件的真实概率也应该有一个固定的表达式,只是暂时没有找到正确地方法求出来。那么,这个表达式到底是什么呢?另外,基于M&2时的这种暂时没有调和的矛盾,我对M=2时的Beta分布的信心也受到了影响,因为现在似乎表明我们不能通过统计口径的改变来主观削减M的数量,不能把事件一以外的其他事件统称为事件二并计算事件一……那M=2的适用范围实在是……
+ 加入我的果篮
附医学统计学的链接,嘛,临时找的,我今天上去也就看到第三章主要的目的还是想推广到随机双盲实验的数据处理中,提供更加准确也更加易用的思路,望大家多批评:-)
果壳网主编,科学松鼠会成员
非常之不明觉厉
找了一个特定条件来检查,应该猜测还是有一定靠谱程度的=w=在Xc=0,的情况下 N=Xa+Xb,原归一化式子变为这个结果是 概率均值类似算出来就是
(xa+1)/(n+3)了!=w=···问题是Xc&0的时候呢=_,=
引用 的话:非常之不明觉厉用C=1 C=2 C=3试了一下,虽然谈不上证明,但是找到很明显的规律,然后就写出来三种可能结果的表达式,然后进一步把M中可能结果的表达式也凑出来了=w=!一个实验可能发生M(M&=2)种结果,重复N次这个实验,其中某一种结果发生了X次,那么这个结果对应的概率的分布是:其概率的期望值是怎么办我膨胀了=_,=但是因为是凑出来的,所以还没想明白上面p(t)中M-2部分的数学含义=_,=!
诶,小组啥时候不能编辑了啊=_,=现在在考虑最后一个问题了=w=对于令N'=N+M-2 ,那么得到换句话说,一个实验可能发生M(M&=2)种结果,重复N次这个实验,其中某一种结果发生了X次,那么这个结果对应的概率的分布,数值上完全等同于一个只能发生2种结果的实验,重复N+M-2次,其中目标结果发生了X的概率分布!这种吻合应该是有着深层次的数学含义的吧=w=M是不是类似什么自由度的概念呢?
记录一下……总感觉这个问题已经远超出我的数学储备了……简单的说,上面的积分有问题,可以得出分布公式的矛盾和期望值与范围的变迁矛盾在积分的过程不应该用数轴积分,而应该用旋转积分(无法证明,就当猜测吧……)当M=2和M=3的时候 p(t)满足t 的期望值为当然我看着这种拼凑出来还没做什么证明的公式总觉得很不安。M&3可能也对,但是问题在于我完全不知道M&3要怎么做图来思考或者旋转啊!
不对不对都不对!M&2都不对!不做了找拐杖问大神去……谁来提供一些信息证明M=2的算式没错吧……没信心了。话说这种实际问题为啥连概率论(浙大第四版)上面都只提到M=2的两个情况呢……
语言爱好者
我觉得X/N比(X+1)/(N+2)更常用,在一定意义上更好。下面是统计学科普:从实验结果来推测概率分布参数的真实值,这件事情叫做参数估计。楼主讨论的是只有两种结果的实验,其结果服从二项分布,这个分布的参数就是两种结果各自发生的概率。参数估计有多种方法,最常用的是最大似然估计。这种方法的大致步骤是:写出在给定参数时数据的概率(称为“似然值”),然后求使它达到最大的参数。若使用最大似然估计法,则概率的估计值就是频率。另外有“贝叶斯估计”,它给参数取一个先验的分布,先验分布乘以似然值得到后验分布。这个后验分布包含了很多信息。最大似然估计就是取先验分布为均匀分布,然后在后验分布上取峰值而得。楼主说的(X+1)/(N+2),反倒不太常用(也可能在特定领域内常用,我不知道)。它有两种理解方法:一是取先验分布为均匀分布,然后在后验分布上取期望值(而不是峰值);二是取先验分布为贝塔分布B(2,2),然后在后验分布上取峰值。第二种理解与最大似然估计相比,相当于“幻想”两种结果各多出现了一次。最大似然估计之所以常用,是因为它有很多优点。在本帖讨论的二项分布中,它是无偏的,而且方差达到最小。上面我说的这些东西是统计课好几节的内容,一下子理解不了也没关系,可以慢慢学。
心理学爱好者,统计学达人
只有从贝叶斯的角度才能讨论一个被推断的值(例如你这里讲的“概率”)的概率分布但你的推导又是从极大似然估计的角度出发的根本的矛盾就在于你对概率这个东西的理解不清我不知道你那个“概率有效性运算”的图/网页是哪里来的这个作者可以去重修统计101了
估计方法不同而已实际上严格来说有限个样本点就不可能反推出概率分布,只能做到估计值依概率收敛到真实值。
楼主看的医学统计学教材难道没有告诉你,样本率的比较用卡方检验吗?
[blockquote]引用
的话:我觉得X/N比(X+1)/(N+2)更常用,在一定意义上更好。楼主讨论的是只有两种结果的实验,其结果服从二项分布,这个分布的参数就是两种结果各自发生的概率。参数估计有多种方法,最常用的是最大似然估计。这种方法的大致步骤是:写出在给定参数时数据的概率(称为“似然值”),然后求使它达到最大的参数。若使用最大似然估计法,则概率的估计值就是频率。贝叶斯估计有两种理解方法:一是取先验分布为均匀分布,然后在后验分布上取期望值(而不是峰值);二是取先验分布为贝塔分布B(2,2),然后在后验分布上取峰值。第二种理解与最大似然估计相比,相当于“幻想”两种结果各多出现了一次。最大似然估计之所以常用,是因为它有很多优点。在本帖讨论的二项分布中,它是无偏的,而且方差达到最小。上面我说的这些东西是统计课好几节的内容,一下子理解不了也没关系,可以慢慢学。感谢指教。确实有些新东西(比如贝塔分布(2,2)),在我之前和统计学专业的朋友第一次讨论的时候,确实感觉自己就像民科一样(也许就是民科……?)被教训地服服帖帖。嘛,不过这些观点都挺过来了,而且昨天也还把浙大的概率论教材看到随机过程了……所以你说的这些勉强还能梳理清楚。我是不是能结合你和9楼的朋友说的信息,得出:最大似然估计的方法无法写出结果的概率密度函数(概率分布)的结论来呢?当然我认为即便无法写出,也不能证明这个函数不存在吧。贝叶斯假设的问题确实就是关键点,在M=2时或许还看不出先验均匀分布的问题,但M=3的情况下,三个事件概率的约束条件 ta+tb+tc=1(一个边长根号二的正三角形)确实把假设的问题暴露出来了。按照您的说法,也就是贝叶斯假设下面这个积分式的权重都相等了,而【真正的权重】未必都相等,对吧?换言之,上面这个表达式的完整的写法应该是其中g(t)就是每一个点的分布权重。g(t)可能是任意的数值,在M=2时的g(t)=1,就叫做贝叶斯假设;要取其他值,就会得到其他的假设。这种拆分几乎毫无分析上的意义,因为没有更多的线索可以去推断g(t)。但是,虽然不知道g(t)的具体表达式,但我们可以说最大似然估计的方法也有一个对应的g(t),对吧。而且从上面的推论来说,这个g(t)必然和贝叶斯假设不同。保守的来说,就是我们暂时不知道两个方法的g(t)谁是对的,但这两个g(t)必然至少有一个是错的。然后是关于置信区间,这个也想请教您。上面这个统计学的方法,呃,我也不知道是用的什么方法了,总之是有近似的。那请问存在没有近似的置信区间估计(计算)方法吗?最后……虽然帖子的主要内容不是要求概率的期望值,但我也想了解一下,您说的最大似然估计方法求的概率达到最大的具体含义。这个含义是否是期望值(而非期望值的近似估计?)对于这个提问,我是这么看的:首先我们应该都认同概率密度函数的峰值位于 X/N。然后,如果说概率的期望值也是X/N,那么就表明概率密度函数的峰值两侧对期望值的贡献可以写成X/N+-k。以一个极端条件X=1,N=1000来看……虽然没办法找到什么明确的计算,不过感觉很直观地就可以得出这个k值不相等=_,= 嘛也可以无视……如果说概率的期望值不是X/N,那么概率的期望值是什么呢?-----------哦,公式推导证明什么的挺麻烦的,如果还能得到您继续的说明,能请结合几个简单数值的具体情况来做一个示范分析吗?1.
X=1 N=1[/blockquote]
X=0 N=100唔,看到上面那个说n&50,就加了一个……劳请对这三个数据分别示范期望值,95%置信区间和概率分布的计算=w=?……或者还能算点其他啥都行?另外,也非常感谢大家消耗精力帮我梳理思路,所以做功课补常识还是必须我自己来的。若觉得我需要补啥知识,请不要浪费时间打出来,开个书目和大概章节或页码我自己就圆润的过去:-)
引用 的话:只有从贝叶斯的角度才能讨论一个被推断的值(例如你这里讲的“概率”)的概率分布但你的推导又是从极大似然估计的角度出发的根本的矛盾就在于你对概率这个东西的理解不清我不知道你那个“概率有效性运算”的图/网页是哪里来的这个作者可以去重修统计101了没事……那个作者正在和大家学习。截图和主楼的分析用的是同一套公式……只不过程序的好处就是不需要像教材里那样使用近似,或者回避大计算量……当然前提是公式本身没问题。您说的使用贝叶斯的角度才能得到推断的值的问题确实已经暴露出来……另外,我理解的您的意思是说,从贝叶斯的角度还可以继续从贝叶斯的角度出发算出被推断的值(而不是像我用极大似然估计……),那能劳请您就13楼的数据的运算做一些讲解么。
语言爱好者
我没怎么研究过置信区间,所以只能回答你其它的问题了。引用 的话:我是不是能结合你和9楼的朋友说的信息,得出:最大似然估计的方法无法写出结果的概率密度函数(概率分布)的结论来呢?准确的说不是“无法”,而是在最大似然估计的框架下,根本就不把“结果”(即参数)作为随机变量去考虑,所以就不存在参数的概率分布的概念。只有在贝叶斯估计的框架下才能讨论参数的概率分布。在贝叶斯估计的框架下,最大似然估计就对应着取均匀先验分布,然后取后验分布的峰值。引用 的话:其中g(t)就是每一个点的分布权重.g(t)可能是任意的数值,在M=2时的g(t)=1,就叫做贝叶斯假设;要取其他值,就会得到其他的假设.这种拆分几乎毫无分析上的意义,因为没有更多的线索可以去推断g(t).但是,虽然不知道g(t)的具体表达式,但我们可以说最大似然估计的方法也有一个对应的g(t),对吧.你式中的g(t)就是“先验分布”。g(t)为常数的先验分布叫作均匀分布(我觉得你叫的“贝叶斯假设”可能有问题……)。最大似然估计可以理解为使用了均匀先验分布。引用 的话:而且从上面的推论来说,这个g(t)必然和贝叶斯假设不同.保守的来说,就是我们暂时不知道两个方法的g(t)谁是对的,但这两个g(t)必然至少有一个是错的.先验分布是一个完全主观的东西,只有谁更合理一说,没有对错之分。但正如你所说,如果没有明确的理由使用非均匀的先验分布,常常就使用均匀的先验分布。引用 的话:在M=2时或许还看不出先验均匀分布的问题,但M=3的情况下,三个事件概率的约束条件 ta+tb+tc=1(一个边长根号二的正三角形)确实把假设的问题暴露出来了.无论M等于几,只要在贝叶斯估计的框架下,都有先验分布的问题。在M=2时,通常取贝塔分布B(a1,a2)作先验分布,a1=a2=1时对应着均匀先验分布。在M&2时,贝塔分布推广为Dirichlet分布D(a1,...,aM),a1=...=aM=1时对应着均匀先验分布。之所以取这两种分布,是因为后验分布与先验分布会是相同的形式,使用起来方便。(相关概念:“共轭先验分布”)贝塔分布的峰值为((a1-1)/(S-M), (a2-1)/(S-M)),期望值为(a1/S, a2/S),其中S = a1+a2。使用贝塔先验分布B(a1,a2)时,后验分布为B(a1+X, a2+N-X),其峰值为((a1+X-1)/(S+N-M), (a2+N-X-1)/(S+N-M)),期望值为((a1+X)/(S+N), (a2+N-X)/(S+N))。(这里我写出了两个参数(即两种试验结果的概率)的峰值和期望值,从你的上下文来看,你关心的是第一个参数)Dirichlet分布可以类推。引用 的话:1.
X=0 N=100我们假设使用均匀先验分布B(1,1),则在三种情况下:1. 后验分布为B(2,3),峰值为1/3,期望值为2/4。2. 后验分布为B(2,1),峰值为1,期望值为2/3。3. 后验分布为B(1,101),峰值为0,期望值为1/102。其中的“峰值”就是最大似然估计的结果。=========================================从这里就可以引申出一些好玩的话题。我前面说过,最大似然估计有很多优点(无偏、方差最小)。这也是为什么(至少在我所接触的领域中)往往取后验分布的峰值,而不是期望值。但是它也有一个缺点,就是当待估计的参数非常极端(接近0或1),而样本量又较小时,最大似然估计往往给出0或1的估计值。当然,这里的绝对偏差确实很小,但是相对偏差达到100%,就不可接受了。这时,就需要使用一些其它手段得到一个接近0或1但并非0或1的估计。不取后验分布的峰值而改取期望值是这样的手段之一,并且有一定的合理性。更一般的手段是施加一个先验分布。贝塔先验分布可以这样感性理解:B(a1,a2)相当于人为地幻想了a1+a2-2次实验,其中a1-1次得到了第一种结果,a2-1次得到了第二种结果。在这个框架下,取后验分布的期望值就成了取先验分布B(2,2)的特例,即幻想额外观察到两种实验结果各一次。由于先验分布是纯主观的,这样看起来B(2,2)并不比其它先验分布更合理。事实上,这时应该说“根据这么少的数据,无法可靠地估计出参数的值”。我想起了这样一个问题:某将军打了100次仗,胜利100次,那么他下一次打仗胜利的概率是多少?(参见其实这就是你的问题在X=100, N=100时的情况。我在回答的时候还没有系统地学过统计学,所以回答不如本帖中严谨。这个问题用最大似然估计就会得出下一次打仗胜利的概率是100%。这显得不够合理,于是我就用你“取后验概率期望值”的办法得出了101/102的结论。我在原帖中并没有强调出我使用了贝叶斯估计、均匀先验分布、取后验概率期望值的方法。但在贝叶斯分布的大框架下,我的方法就相当于幻想这个将军额外地打了1次胜仗和1次败仗。这种幻想也是主观的。谨慎的说法就是,“根据这么少的数据,无法可靠地做出将军下一次打仗获胜的概率”(当然我们知道它接近1,但精确值无法可靠估计)。因为他失败的概率实在是太低了,为了可靠地估计他的胜率,我们必须观测足够的数据,等到他失败了足够多次(其实三四次就算“够”了)以后,才能可靠地估计。
的话:我们假设使用均匀先验分布B(1,1),则在三种情况下:1. 后验分布为B(2,3),峰值为1/3,期望值为2/4。2. 后验分布为B(2,1),峰值为1,期望值为2/3。3. 后验分布为B(1,101),峰值为0,期望值为1/102。其中的“峰值”就是最大似然估计的结果。=========================================这不就变成是我的(待商榷的)计算结果了么……我想看的是可能适用性更广泛的理论的计算结果和过程……不然我们一开始的分歧内容就不同了……我承认峰值就是X/N,我指的是期望值(未必正确)不是X/N。而分歧的内容就变成了应该使用峰值还是使用期望值去做预测——例如,主楼的甲乙两个部队的发病强度,应该是发病概率分布的峰值,还是发病概率分布的期望值。引用
的话:但在贝叶斯分布的大框架下,我的方法就相当于幻想这个将军额外地打了1次胜仗和1次败仗。这种幻想也是主观的。=========================================我不认可您这里和上面一次回复里使用的幻想模型。我想指责的逻辑错误名称忘记了……具体描述一下吧。首先我引入毫无用处的g(t)就是想通过包含所有可能的理论拍戏,说明贝叶斯分布/方法和另一种能够对应(X/N)的,诶也不知道到底是哪个名字的方法是“同一级”的,不是其中某个适用性更广、而另一个则是按照一定条件的假设。 换言之,(X+1)/(N+2) 不是经过特殊处理之后的X/N,当然反过来也一样,他们之中最多只可能有一个正确,不可能都正确。而您多次提及幻想模型,包含的意思就是先确认了 X/N的准确性,然后再对(X+1)/(N+2)做数值上的解读,我并没有看到这种解读的依据。反而有点像循环论证。---------------谨慎的说法就是,“根据这么少的数据,无法可靠地做出将军下一次打仗获胜的概率”(当然我们知道它接近1,但精确值无法可靠估计)。假定将军的获胜概率是一个未知的稳定值,这个值当然是无法通过实验得到。实验数据反映的是他的获胜概率的概率分布。反过来说,既然精确值无法可靠估计。那么下面这个“因为他失败的概率实在是太低了,为了可靠地估计他的胜率,我们必须观测足够的数据,等到他失败了足够多次(其实三四次就算“够”了)以后,才能可靠地估计。”是以什么为依据,才能得出失败了足够多次(三四次)之后,就变成了“能够可靠地估计”了?从X=4 N=10的数据 ……好吧,从X=24 N=60的数据里估计出来的将军的胜率,比从X=0 N=10000里得估计出的胜率更可靠吗?或者进一步结合您的模型来说,为什么在X=24 N=60的时候不需要“幻想将军再赢一次、输一次”呢?
说起来我们都关注这个……呃,姑且叫参数估计的概率问题好多年了嘛……我大概是09年还是啥时候开始就注意到这个问题了,因为在玩的游戏中只剩下概率事件还没解析出来。在最早的时候,我也没意识到(X+1)/(N+2),其他人也都是用X/N。当然,分布公式和置信区间什么的都还是主楼的同一套公式。当时是看到在matlab里头有betainc函数,但是我写的程序平台没有啊!于是最早的时候相当朴素,连(N+1)的归一化系数都是直接做数值积分求的。后来想做两个条件下真实概率值的显著性差异,哦,白话说,拿一个盾牌之后命中率相对于空手是不是有显著的变化(这才是根本目标),就写了主楼的那个二次积分,不过二次积分又要数值积分太可怕了……随便分析个数据都是几千米秒。也就是在今年年初,重新修正代码,顺便想提高一下效率,才想到去找上面那些公式,然后顺便也把betainc移植了……以前到底多菜啊。这个的时候才发现,期望值未必就是峰值(至少期望值是有一个明确的定义和计算方法的),然后重新算算,就得到(X+1)/(N+2)这个值了。-------------至于为啥要找传统方法的精确的置信区间的计算,是因为精确的置信区间,如果我们不只采用 0.9 0.95 0.99 这种离散点,而是取在这中间的一套连续值,那么置信区间的变化量不就是概率密度函数的数值了嘛!
语言爱好者
好,现在我们都同意使用贝叶斯估计的框架和均匀先验分布,那尚有争议的问题就是取后验分布的峰值还是期望值了。取峰值的结果X/N就是最大似然估计,而取期望值的结果就是(X+1)/(N+2)。经过计算,我发现两种方法各有优劣。=========================我说过最大似然估计的第一个优点是“无偏”,这就是我比较支持取峰值的原因。我们来详细分析一下这到底是什么意思。我们用1和0表示实验的两种可能结果,用p表示1发生的概率。这也正是我们要估计的参数。X是在N次实验中1发生的次数。注意,X是取决于实验结果的,而实验结果是随机的,所以X是一个随机变量,它有分布、期望和方差。而X/N也好,(X+1)/(N+2)也好,这两个都是p的估计值,其中包含X,所以说,估计值也是随机变量,它们有分布、期望和方差。评价一种估计值的优劣,一个标准就是看它的期望是否等于真实值。满足这个条件的估计值就叫作无偏估计。记=X/N,=(X+1)/(N+2)。这里p上面的帽子代表估计值,不过为了简便,下文我就省略帽子了。我们要研究E(p1)和E(p2)是否等于p。“一次实验结果”这个随机变量x服从伯努力分布,参数为p,即P(x=1) = p,P(x=0) = 1-p。其期望和方差分别为E(x) = p,Var(x) = p(1-p)。“N次实验结果”这个随机变量X是N个独立同分布的x之和,它服从二项分布,参数为N和p,即P(X=k) = C(N,k) p^k (1-p)^(N-k)。其期望和方差分别为E(X) = Np,Var(x) = Np(1-p)。p1和p2都是X的线性函数,易算得:E(p1) = p,Var(p1) = p(1-p)/N;E(p2) = (Np+1)/(N+2),Var(p2)=p(1-p)*N/(N+2)^2。我们发现,E(p1)始终等于p,而E(p2)在一般情况下不等于p。即:p1无偏,p2有偏。这是什么意思呢?就是说,如果我们把“进行N次实验,估计p”这件事重复无穷多次,对得到的估计值取平均,那么p1会趋于我们想要的结果p,而p2会趋于另一个值。这就是无偏估计的优点。=========================上面还分析了p1和p2的方差。方差代表的是把“进行N次实验,估计p”这件事重复无穷多次,得到的各次结果的统一程度。方差越小越好。容易发现,p2的方差比p1小,这可以说是p2的优点。但是,不要忘了p2是有偏的,它的方差小代表着它会很恒定地呈现出偏差。实际应用中,常常把偏差和方差综合考虑,用均方误差来比较两个估计值的优劣。一个估计值的偏差定义为,方差定义为,均方误差定义为。可以证明,计算p1和p2的均方误差,可以发现:当p比较接近0.5时,p2的均方误差更小。这是因为它的偏差不大,而方差的减小比较明显。当p比较接近0或1时,p1的均方误差更小。这是因为p2产生了较大的偏差,而方差与p1相比,减小并不明显。从这里看,也许我们可以说:当p比较接近0.5时,使用p2更好。=========================我之前还提到了“可靠”地估计,这也是你不太同意的地方。“可靠”这个词我并没有严格的数学定义,但是我可以说明我指的是什么。以p1为例,它的表达式是X/N,其中的X是整数,所以估计值只能是0, 1/N, ..., (N-1)/N, 1这些离散的值。如果p并不是这些值之一,而是在某两个值之间,那么p1永远不可能等于p,而是可能略大,可能略小,综合起来看是无偏的,但一次估计中它一定是有偏的。当p并不处在最左或最右两个区间(0, 1/N)或((N-1)/N, 1)中时,有一点偏差是可以接受的,因为相对偏差很小。但当p处在这两个区间中时,相对偏差就变得不可接受了。比如N=100,p=0.0001(将军失败概率为0.0001,但只打过100次仗)时,如果这100次仗都胜了,我们会估计出p1=0,相对偏差为-100%;如果很不幸将军失败了1次,我们会估计出p1=0.01,相对偏差更是达到了+9900%。p2同样存在这个问题,而且由于它可能取得的最小值是1/(N+2),它的偏差会更大。所以我说在p很接近0或1时,无论如何都无法可靠地估计出p的值。唯一的办法就是增大数据量,N大了之后,p1和p2的分辨率都会提高,当p不再落在最左或最右区间时,估计的可靠性就大大提高了。=========================话说回来,当数据足够多(N足够大)时,p1和p2的差别就可以忽略了。所以数据量才是王道,估计方法其实是浮云。
语言爱好者
公式都被吃了= =第1处是p1和p2戴帽子;第2处是偏差Bias、方差Var、均方误差MSE的定义,以及MSE = Bias^2 + Var这个公式。
[blockquote]引用
的话:公式都被吃了= =第1处是p1和p2戴帽子;第2处是偏差Bias、方差Var、均方误差MSE的定义,以及MSE = Bias^2 + Var这个公式。大momo,发帖的时候编辑时间太久就会刷新一次,之前的内容会进入草稿,再重新加载的时候公式就没了,这个可以通过发帖前复制黏贴来避免。因为内容需要讨论,劳您视情况修复一下吧。----(实际上如果认同了贝叶斯估计的方法,那我都不想讨论了……我相信自己比你梳理地更清晰,这些话在贝叶斯估计的框架内,我已经和人说了N次了。说到底,包括
在内的意见应该是:X/N并非贝叶斯的结果,贝叶斯本身待商榷。)你引入了不少指标,但我看来这些不是比原问题更根本的先导概念/适用条件/简化假设,而是可有可无的后续概念。简单说来,目标函数的自变量不是X,而是t。这个表达式的含义是“在[0-1]的每一个概率值都有一定的可能实验N次\发生X次,那么真实概率为t在前述所有可能中的概率就是p(t)”。而后用N*p不是整数的p再反过来估计X到底是啥,或者“相对偏差”什么的,这些引入的指标哪一条推翻了原计算?然后就是说需要看公式的地方了,我不知道你上面推导的Ep和Var的具体表达式,但既然你提到的是“随机变量”的期望……呃,好吧,我还是先不说这个等你修复公式吧。--------------------就是说,如果我们把“进行N次实验,估计p”这件事重复无穷多次,对得到的估计值取平均,那么p1会趋于我们想要的结果p,而p2会趋于另一个值。这就是无偏估计的优点。---顺带一提,咱们最好能统一一下变量……然后这里,基于上面各种框架之后的问题不是“对比另外一个值和我们想要的结果有多少差别”,而是“这两个值中哪一个才是我们想要的结果”……还是等你修公式。--------------------当p比较接近0.5时,p2的均方误差更小。这是因为它的偏差不大,而方差的减小比较明显。当p比较接近0或1时,p1的均方误差更小。这是因为p2产生了较大的偏差,而方差与p1相比,减小并不明显。从这里看,也许我们可以说:当p比较接近0.5时,使用p2更好。---这里就和上面幻想模型一样是很重要的攻击点了……(再次表明我对M=2的贝叶斯估计内的计算很确信……主要想求教的是如何评估贝叶斯估计的问题)首先这里还是有先确定一个值作为结果,把另一个称作偏差的问题。若按照你的解读,我们就拿上面举的三个样本来说好了:X=1 N=1 对于这个情况,p1的均方误差更小,p2产生了较大的偏差,使用p1(对应的期望值?是100%)更好X=4 N=10 对于这个情况,使用p2靠谱的可能要比第一个情况高?X=0 N=10000 对于这个情况,结果和第一个情况一致,是说p1(但是你上面都说了这里用p1有明显的问题,需要修正)比p2更好吧?更准确的p1,在其更准确的范畴(X/N远离0.5)的情况下,需要修正的倾向越来越大,这算什么呢?保留对p1的使用,那么在什么情况下(比如X/N&0.9)的时候就需要对p1做修正才使得它更准确呢?那么为什么在其他情况下不需要做一个修正?如果硬要直接拿p和p2其中一个做预设的“我们想要的结果”,那么上面引用的三句话中部分改成,在X/N接近0.5的时候,p相对p2以及真实情况的偏差不大;在X/N远离0.5的时候,p相对p2以及真实情况的偏差较大。这样不就更好了么。[/blockquote]
谁来预测下双色球来自
从昨晚上开始想着凑公式,憋半天终于憋出来了。结合旋转积分能够保持注这一部分的前提,对期望值做约束条件,要求各事件的期望概率加起来等于1.再结合比对的M=3的样本 (
Xa=1 N=1) 基于旋转积分方法得到的期望值分别是 2/3 1/6 1/6.最终凑出来的表达式是(实在无能为力了,凑出来的也不会去用,只是不想之前用掉的时间沉默……)t 的期望值为这个表达式当然也是能吻合M=2的情况的,恩……
发现可以稍微整理一下……这个表达式比之前一定错误的那个只包含Xa N M的表达式,好就好在表明其他的Xi也会影响最终的结果。
语言爱好者
我先把被吃掉的公式补回来:一个估计值的偏差定义为,方差定义为,均方误差定义为。可以证明,。
语言爱好者
然后,我再定义一下我使用的变量:N -- 样本量,或者说实验次数,它不是随机变量。X -- 第一种结果出现的次数,它是随机变量。p -- 第一种结果出现概率的真实值,它不是随机变量。p1, p2 -- 第一种结果出现概率的两种估计值,严格地写应该戴帽子,我省略了。计算公式为p1 = X/N,p2=(X+1)/(N+2),它们是随机变量。在你最后一次回复中,有两个概念你混淆了,就是p和X/N不是一回事。p是参数的真实值,而X/N是参数的估计值。X/N是p1,准确地讲应该戴帽子。我在比较p1和p2的均方误差的时候,提到当“p接近0.5时”怎样,“p远离0.5时”怎样,这里的p不是X/N。我们来看一下你举的三个例子:引用 的话:X=1 N=1 对于这个情况,p1的均方误差更小,p2产生了较大的偏差,使用p1(对应的期望值?是100%)更好。数据太少,p的后验分布依然太分散,难以说p1和p2谁的均方误差更小。引用 的话:X=4 N=10 对于这个情况,使用p2靠谱的可能要比第一个情况高?此时,p的分布基本集中在0.4左右,p2的均方误差比p1小。但是把均方误差解读为“靠谱的可能”并不准确。(当然,如果要精确讨论的话,你要先定义什么叫“靠谱”)引用 的话:X=0 N=10000 对于这个情况,结果和第一个情况一致,是说p1(但是你上面都说了这里用p1有明显的问题,需要修正)比p2更好吧?此时,p1和p2都有明显的问题,p2的问题更严重。解决办法就是加大样本量,使得X达到3或者4左右。最后,我想指出:引用 的话:然后这里,基于上面各种框架之后的问题不是“对比另外一个值和我们想要的结果有多少差别”,而是“这两个值中哪一个才是我们想要的结果”在参数估计问题中,一般来讲,参数的估计值(注意它是随机变量!)等于真实值的概率为0,即不能期望估计出准确的参数值。换句话说,p1和p2都几乎不可能是“我们想要的结果”(即p),只能评价它们与p有多么接近。这也是为什么我们用偏差、方差、均方误差等等来评价估计值的优劣。其实我算到最后,发现p1和p2在不同情况下均方误差的大小不同,我对p1的优点也有点动摇了……
那个“靠谱”就用你说的“更好”的意思来表达吧。上面没什么想回应的,就有一点概念上的区别“p1, p2 -- 第一种结果出现概率的两种估计值,严格地写应该戴帽子,我省略了。计算公式为p1 = X/N,p2=(X+1)/(N+2),它们是随机变量。”在我看来/在我的这边用法里,p1和p2都不是概率的估计值,而是概率的估计值的期望。呃这么说也不对,我要求的不是概率的估计值,而是概率的估计值的期望,在我看来算出来的东西后一个才是。对于结果的指标,我也可以使用峰值,但在我看来期望值的概念本身(无论具体数值是多少)才能谈得上和预测搭配……另外关于:p1和p2都有明显的问题,p2的问题更严重。解决办法就是加大样本量,使得X达到3或者4左右。劳请你具体展示一下计算过程,如嫌N=10000太麻烦,用任意N也行,然后对比一下X=0和X=4的各项参数,说明什么是问题,什么叫问题更严重,以及X=4是怎么发挥作用的……额,说到这里突然发现你在15楼都已经承认了期望值的公式了……我还吵啥……
的话:然后,我再定义一下我使用的变量:N -- 样本量,或者说实验次数,它。X -- 第一种结果出现的次数,它。p -- 第一种结果出现概率的真实值,它。另外我有一个很严肃的问题想说,当你在自己的模型里使用了一条原理/判断时,我期望这条原理有足够的预测性,而不需要在事后再做调整和解读。正因为你说的是这样一类包含效用不错的信息的话,我们才会基于对方的每一段发言而讨论,而不是在讨论完之后发现“话没说完”、甚至意思完全相反那样,对吧?当p比较接近0.5时,p2的均方误差更小。这是因为它的偏差不大,而方差的减小比较明显。当p比较接近0或1时,p1的均方误差更小。这是因为p2产生了较大的偏差,而方差与p1相比,减小并不明显。
抱歉昨晚(?)06:00才睡觉,打字都稀里糊涂的。订正一下这段不通顺的……在我看来/在我的这边用法里,p1和p2都不是概率的估计值,而是概率的估计值的期望。呃这么说也不对,我要求的不是概率的估计值,而是概率的估计值的期望,在我看来算出来的东西后一个才是。——&在我看来/在我的这边用法里,p1和p2都不是概率的估计值,而是概率的估计值的期望。呃,这么说也不对。在这一分论点里,我需要的不是概率的估计值(当然概率的分布公式本身才是整个问题里最终有用的),而是概率的估计值的期望,在我看来,后者才是期望值的表达式。(而这一点你在15楼也已承认)另外,关于p1和p2都有明显的问题,p2的问题更严重。解决办法就是加大样本量,使得X达到3或者4左右。为什么我希望你能具体说明这一描述中的”问题“,因为有了问题的具体描述,或许我们就可以同时放弃p1和p2(当然还不知道这个p1和p2在不是期望值之后,还是啥),找到更厉害的p3。总之,具体的计算应该会带来很多有用的信息,而不只是一句解读。最后,有一句话共勉,我也一直在努力。如果一种说法/理论除了正确性屹立不倒之外,其他什么都不剩下了(可以不断被事后修正),那么这种正确性要了有什么用呢?
语言爱好者
嗯……我们的讨论已经比最初的问题深入多啦。那就再深入一点。引用 的话:在我看来/在我的这边用法里,p1和p2都不是概率的估计值,而是概率的估计值的期望。呃,这么说也不对。在这一分论点里,我需要的不是概率的估计值(当然概率的分布公式本身才是整个问题里最终有用的),而是概率的估计值的期望,在我看来,后者才是期望值的表达式。从这里看,你的概念依然有不够清晰的地方。“期望”这个词在我们的讨论中用在了两个不同的地方,你把它们混淆了。为了看清它们的不同,我们需要分析我们用过的变量的随机性的来源。p是第一种结果出现的真实概率。在贝叶斯估计的框架下,它被看作随机变量,因而有先验、后验分布一说。这是随机性的第一种来源。X是N次实验中,第一种结果出现的次数。即使把p固定,实验结果也是具有随机性的,这就是为什么我说X是随机变量。这是随机性的第二种来源。你也许要问:实验结果是我已经获得的,它怎么是随机变量呢?原因在于,p1和p2这两个东西既可以看作是对应于某个特定实验结果的估计值(estimate),也可以看作是一种估计方法(estimator)。我们把N次实验看作一次“大实验”,每次“大实验”都会获得一个X,但每次大实验获得的X可能是不同的。评价p1和p2的好坏,是把它们看作估计方法,看它们在不同次的大实验中,结果是否都接近于p(偏差小),是否稳定(方差小)。理解了上面这段话后,我们再来看“期望”这个词。它第一次出现是在p2的推导过程中,p2是p的后验分布的“期望”。这里的“期望”是对p的所有可能值进行积分,消除的是第一种随机性。期望的结果是(X+1)/(N+2),其中依然含有X,第二种随机性并没有消除。第二次出现是在对p1和p2进行评价的时候,我们求了p1和p2的期望。这里的“期望”是对X的所有可能值进行求和,消除了第二种随机性。这个期望,写作E(p1)和E(p2),严格地讲p1和p2也应该是戴帽子的。p1和E(p1)不是一回事。p1 = X/N,它是p的估计值,是一次大实验后你得到的结论。E(p1) = p,它才是“估计值的期望”,它是p1这种估计方法的一个性质,是比较p1和p2优劣的依据之一。p2和E(p2)也是一样。==========================================引用 的话:p1和p2都有明显的问题,p2的问题更严重.解决办法就是加大样本量,使得X达到3或者4左右.为什么我希望你能具体说明这一描述中的”问题“,因为有了问题的具体描述,或许我们就可以同时放弃p1和p2(当然还不知道这个p1和p2在不是期望值之后,还是啥),找到更厉害的p3。我下面具体说一下这个“问题”是什么。设第一种结果(如“打败仗”)出现的概率p极端接近0,比如p = 0.001。在N=100时,可以写出X的分布列如下:P(X = k) = C(N,k) * p^k * (1-p)^(N-k)代入数值,可以算得:P(X = 0) = 0.9048P(X = 1) = 0.0906P(X = 2) = 0.0045下面的值就越来越小了,可以忽略。这是什么意思呢?就是说,我们进行一次“大实验”(即让将军打100仗),有0.9048的概率他百战百胜,有0.0906的概率他输1场,有0.0045的概率他输2场,等等。使用p1这种估计方法,在这三种情况下会分别得到将军战败概率p的估计值为0, 0.01, 0.02。其中得到0的概率是最大的,这个结果的绝对偏差(0 - 0.001 = -0.001)并不大,但如果相对来看,就是有和无的区别。如果得到0.01,结果的绝对偏差(0.01 - 0.001 = 0.09)似乎也不大,但如果相对来看,相对误差是900%,就大了。所以,无论如何,我们无法“可靠”地估计p。这就是我说的p1具有的“问题”。这个问题的原因就是p1的分辨率只到0.01,而这个分辨率就是1/N,所以解决办法就是增大一次“大实验”中的实验次数,也就是观察将军打更多的仗。如果使用p2呢?在X = 0和X = 1时,p2 = (X+1) / (N+2) 分别会等于1/102和2/102。可以看出,它跟p1相比,偏离真实值p更远。我们再来看假如我们观察了将军打10000次仗(N = 10000)时情况有什么不同。根据P(X = k) = C(N,k) * p^k * (1-p)^(N-k),我们可以算得X的分布集中在10附近:P(X=0) = 0.0000P(X=1) = 0.0005P(X=2) = 0.0023P(X=3) = 0.0075P(X=4) = 0.0189P(X=5) = 0.0378P(X=6) = 0.0630P(X=7) = 0.0901P(X=8) = 0.1126P(X=9) = 0.1252P(X=10) = 0.1252P(X=11) = 0.1138P(X=12) = 0.0948P(X=13) = 0.0729P(X=14) = 0.0521P(X=15) = 0.0347P(X=16) = 0.0217P(X=17) = 0.0127P(X=18) = 0.0071P(X=19) = 0.0037P(X=20) = 0.0019如果X = 10,p1 = 10/10000 = 0.001,我们就恰好得到了p的真实值;如果X = 9或11,p1 = 0.1,与p的偏差也减小到了可以接受的程度。对于p2来说,增大N同样能解决这个问题。==========================================引用 的话:另外我有一个很严肃的问题想说,当你在自己的模型里使用了一条原理/判断时,我期望这条原理有足够的预测性,而不需要在事后再做调整和解读.正因为你说的是这样一类包含效用不错的信息的话,我们才会基于对方的每一段发言而讨论,而不是在讨论完之后发现“话没说完”、甚至意思完全相反那样,对吧?你指的是哪一条原理/判断呢?
···对不起,虽然扣帽子无益于讨论,但是槽点太多,实在不能不吐个槽。
那个,晚上评论吧,主题词大概是:多余、不对、没用。我虽是求教,但还是希望交流的立场能对等一点。明明是我一直在输出已经有的内容,怎么就变成了讨论不断深入了?我前面说的那些反驳都变成是我在理解你带来的“已经是正确的”内容了?
语言爱好者
引用 的话:那个,晚上评论吧,主题词大概是:多余、不对、没用。我虽是求教,但还是希望交流的立场能对等一点。明明是我一直在输出已经有的内容,怎么就变成了讨论不断深入了?我前面说的那些反驳都变成是我在理解你带来的“已经是正确的”内容了?不好意思啊,这句我没看明白,你是觉得是你在一直输出给我呢,还是我在一直输出给你呢?
的话:不好意思啊,这句我没看明白,你是觉得是你在一直输出给我呢,还是我在一直输出给你呢?抱歉,没在你回复前打好,在写其他的东西。这是白天说好的回复,看完了之后如果您还有意授教,要不咱们就批评一下贝叶斯吧。首先,就我所知,无论哪种分析都没有反复假设的这种情况。X在实验中是已知数据,就谈不上随机性。否则按此说法,还有第三种随机性:N。算了,没什么好否则的。其次,“使用p1这种估计方法,在这三种情况下会分别得到将军战败概率p的估计值为0, 0.01, 0.02。”唉,我就直说了。按照这套说法,就算是在X=50,N=100的最对称的情况,p的估计值也只能是0.45,0.46,...,0.5,0.51,...,0.55等等。而真实的p则相应地可能是在[0.45,0.55]的实数闭区间中的任意值。这表明什么?表明基于上述逻辑,p1的估计值是真实值的可能就是0。而(X+1)/(N+2)是这些所有的p的期望值。对于X=0,N=100,p的值当然可能是0,也可能是0.000001,也可能是0.。这些每个可能都对应了一个概率。
语言爱好者
引用 的话:首先,就我所知,无论哪种分析都没有反复假设的这种情况。X在实验中是已知数据,就谈不上随机性。否则按此说法,还有第三种随机性:N。算了,没什么好否则的。恰恰相反,任何一本统计书中在计算估计值的期望、方差时,都是把实验结果作为随机变量来处理的。只是并不是所有的书都明确地指出了这一点。其次,“使用p1这种估计方法,在这三种情况下会分别得到将军战败概率p的估计值为0, 0.01, 0.02。”唉,我就直说了。按照这套说法,就算是在X=50,N=100的最对称的情况,p的估计值也只能是0.45,0.46,...,0.5,0.51,...,0.55等等。而真实的p则相应地可能是在[0.45,0.55]的实数闭区间中的任意值。这表明什么?表明基于上述逻辑,p1的估计值是真实值的可能就是0。这一点没错。而(X+1)/(N+2)是这些所有的p的期望值。对于X=0,N=100,p的值当然可能是0,也可能是0.000001,也可能是0.。这些每个可能都对应了一个概率。这个也没错。我发现我似乎从一开始就误解了你的意图,你并不是要估计p,而只是要求p的期望,对不?
的话:恰恰相反,任何一本统计书中在计算估计值的期望、方差时,都是把实验结果作为随机变量来处理的。只是并不是所有的书都明确地指出了这一点。这一点没错。这个也没错。我发现我似乎从一开始就误解了你的意图,你并不是要估计p,而只是要求p的期望,对不?所以,这些书都没有提及试验次数N的随机性么。一次固定的实验的X的取值有随机性,但现在的话题是从一个X,N确定的实验做数据分析。另外…在回答我是不是要估计p之前,请你说明一下:估计p是做什么,有什么用,以至于要估计p?免得又只是定义的区别。
语言爱好者
引用 的话:所以,这些书都没有提及试验次数N的随机性么。理论上也是可以的……但引入这个随机性人为的因素太重,所以不这么做罢了。引用 的话:请你说明一下:估计p是做什么,有什么用,以至于要估计p?。估计p就是从实验结果反推事件发生的真实概率,你求的“期望”就是p的一种估计方法。它的用途么……根据观察到的一部分人的患病情况推测群体患病率之类的,你举的例子都是用途。我可能从开始就误解了你的问题了,你要问的不是这种方法对不对,而是这种方法的结果是怎么算出来的。
空间信息与数字技术专业
引用 的话:只有从贝叶斯的角度才能讨论一个被推断的值(例如你这里讲的“概率”)的概率分布但你的推导又是从极大似然估计的角度出发的根本的矛盾就在于你对概率这个东西的理解不清我不知道你那个“概率有效性运算”的图/网页是哪里来的这个作者可以去重修统计101了
的话:估计p就是从实验结果反推事件发生的真实概率,你求的“期望”就是p的一种估计方法。它的用途么……根据观察到的一部分人的患病情况推测群体患病率之类的那当然要估计p,问题是你写的X/N,作为一个命中真实p的可能性为零的反推,是在估计p吗?顺便我确实蛮希望比喻展示一下完全贝叶斯的方法的结论……
语言爱好者
引用 的话:那当然要估计p,问题是你写的X/N,作为一个命中真实p的可能性为零的反推,是在估计p吗?顺便我确实蛮希望比喻展示一下完全贝叶斯的方法的结论……是的。(X+1)/(N+2)命中真实值的概率同样为0。评价一个估计值的好坏,不是看它命中真实值的概率,而是看偏差、方差等等指标。完全贝叶斯的方法拒绝给出p的一个(点)估计值,p的后验分布就是它的结论。如果p有后续应用,一般人就把p的估计值代进去了,贝叶斯主义者会一直使用p的后验分布,考虑所有情况的可能性。
的话:是的。(X+1)/(N+2)命中真实值的概率同样为0。评价一个估计值的好坏,不是看它命中真实值的概率,而是看偏差、方差等等指标。完全贝叶斯的方法拒绝给出p的一个(点)估计值,p的后验分布就是它的结论。如果p有后续应用,一般人就把p的估计值代进去了,贝叶斯主义者会一直使用p的后验分布,考虑所有情况的可能性。很遗憾,我的(X+1)/(N+2)不是估计值,当然,也许你的(X+1)/(N+2)是个估计值。
语言爱好者
引用 的话:很遗憾,我的(X+1)/(N+2)不是估计值,当然,也许你的(X+1)/(N+2)是个估计值。你说它不是估计值,是哪一种意思?1) 你认为它是“期望值”,也就是说你并没有想要进行估计;2) 你认为它是“真实值”。我现在真的觉得我误解了你的意思了,你只是想算期望,根本就不管什么估计,对不?
的话:你说它不是估计值,是哪一种意思?1) 你认为它是“期望值”,也就是说你并没有想要进行估计;2) 你认为它是“真实值”。我现在真的觉得我误解了你的意思了,你只是想算期望,根本就不管什么估计,对不?···唉,我的“估计值”:也就是真实值的概率密度函数,顶楼有写。期望只是顺带的分论点。
语言爱好者
所以你想问的是在M&2的时候期望值是怎么算出来的?
的话:所以你想问的是在M&2的时候期望值是怎么算出来的?M=2的问题,以及M&2的概率密度函数。期望值只是一个顺带的结果,或者说是用来说明这个方法和传统方法有异(则两者必有一错)的一个简单标志而已。
语言爱好者
引用 的话:M=2的问题,以及M&2的概率密度函数。什么问题?是不是期望值怎么算出来的?引用 的话:M&2的概率密度函数。M&2时的后验概率是。设每个事件发生的概率分别为p1, p2, ..., pM,N次实验得到每个事件发生的次数为X1, X2, ..., XM,则p1, p2, ..., pM的后验分布是Dirichlet分布D(X1+1, X2+1, ..., XM+1),其概率密度函数为:f(p1, p2, ..., pM) = p1^X1 * p2^X2 * ... * pM^XM / Z,常数Z = X1! * X2! * ... * XM! / (N + M - 1)!。你想知道这个分布的期望是怎么算出来的吗?如果是的话,我可以写出计算过程。引用 的话:M=2的问题,以及M&2的概率密度函数。期望值只是一个顺带的结果,或者说是用来说明这个方法和传统方法有异(则两者必有一错)的一个简单标志而已。“这个方法”和“传统方法”分别指什么?是(X+1)/(N+2)和X/N吗?这里的“方法”是解决什么问题的方法?是参数估计问题吗?如果是的话,参数估计问题的答案没有对错之分,只能比较优劣。
的话:什么问题?是不是期望值怎么算出来的?“这个方法”和“传统方法”分别指什么?是(X+1)/(N+2)和X/N吗?这里的“方法”是解决什么问题的方法?是参数估计问题吗?如果是的话,参数估计问题的答案没有对错之分,只能比较优劣。感觉好累上面那么多都白说了。关于问题,劳请移步看8楼和9楼的 同学。你说的D分布……还是见顶楼写出这个不需要什么计算,哦当然那个(N+M-1)!和维基百科说的不一样,劳请写出计算过程另外最重要的一点,如果我们现在有了N、X1-XM,那么请问p1的概率分布是啥?比如,M=1000,现在只做了100次试验,X1=90,X2-X11=1 X12-X1000=0,请问 X1的发生概率p1的概率分布是什么?
不错还是蛮感谢的,没人说的话真不知道狄利克雷分布这种关键词要何年何月才能碰到。(全英语有点苦手、找不到重点)多搜了几篇文章,公式还行都脸熟,但实例很少(如上面的90/1/1/1.../0/0/0...),望分享。
的话:其中有一个组合数,代表你只知道第一种结果发生了X次,但不知道是哪X次,这里有C(N,X)种情况。事实上你不仅知道第一种结果发生了X次,也知道是哪X次,所以这个组合数应该是没有的。哦,这个对!但是我没有统计这个口径时不就不知道了么。另外如果获悉了更多的信息,在分析中能有什么提高呢?另外您这整来整去都是M=2啊···要是只算出个归一化系数,我上面也有啊=_,=M=1000,现在只做了100次试验,X1=90,X2-X11=1 X12-X1000=0贝塔分布B(91, 911)?喂喂这不对吧,怎么就能从M=1000变成M=2了?上面的D分布的表达式呢?至于“问题”是啥,我也不知道,主要是8楼和9楼都在提最大似然估计有一套数据,而这套数据(包含期望、置信区间或者还有概率密度函数)是和贝叶斯的方法不同的,不同就是问题咯。但是后面一直没看到说问题是啥。
语言爱好者
稍等一下,我前面的回复有错误,错误就是你说的M=1000怎么变成M=2了……我正在重新整理。
喂喂老师不对啊,怎么没了,还好我有备份···这些公式,诸如顶楼都有的啊=_,=
(C)2017果壳网&&&&京ICP证100430号&&&&京网文[-239号&&&&新出发京零字东150005号&&&&
违法和不良信息举报邮箱:&&&&举报电话:}

我要回帖

更多关于 总体方差的无偏估计 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信