P的矩估计为(X上方一横),P的极大似然估计为(X上方一横),两种估计都是P的无偏估计。
(1)因为,EX=P=(X上方一横)所以,P的矩估计^p=(X上方一横)。
(2)L=(Σx1/n)(1-P)^(1-x)*(p^x)=(1-P)^(n-Σ(1,n)*xi)*(p^(Σ(1,n)*xi))
lnL=(n-Σ(1,n)*xi)ln(1-P)+(Σ(1,n)*xi)ln(P)
(lnL)’=-(n-Σ(1,n)*xi)/(1-P)+(Σ(1,n)*xi)/P=0
解得EX=P=(X上方一横)
(3)因为E(X上方一横)=EX1=P,所以,两种估计都是P的无偏估计。
性质:
矩估计是利用样本矩来估计总体中相应的参数。首先推导涉及相关参数的总体矩(即所考虑的随机变量的幂的期望值)的方程。然后取出一个样本并从这个样本估计总体矩。接着使用样本矩取代(未知的)总体矩,解出感兴趣的参数。从而得到那些参数的估计。
矩法估计量实际上只集中了总体的部分信息,这样它在体现总体分布特征上往往性质较差,只有在样本容量n较大时,才能保障它的优良性,因而理论上讲,矩法估计是以大样本为应用对象的。
b(1,p)为两点分布,而不能就说成是二项分布,不过b(1,p)的样本x1~xn之和Σxi是这些样本的联合分布的充分完备统计量,记为t,则t服从b(n,p),这才是二项分布,而t则称为样本Σxi诱导的二项分布。
因此样本均值的期望E(Σxi/n)=E(xi)=p
样本均值的方差 var(Σxi/n)=1/n^2*var(Σxi)=1/nVAR(xi)=p(1-p)/n
这才是两点分布样本x1~xn的均值的方差,与上述答案有很大区别的,或者可以这样理解,n个独立样本的均值的方差其实是单个样本的方差的1/n,因为取均值之后会变得更加平滑了,会消除随机偏差,因此方差应变得更小。
扩展资料:
在研究随机变量的性质时,确定和计算它取某个数值或落入某个数值区间内的概率是特别重要的。因此,随机变量取某个数值或落入某个数值区间这样的基本事件的集合,应当属于所考虑的事件域。
根据这样的直观想法,利用概率论公理化的语言,取实数值的随机变量的数学定义可确切地表述如下:概率空间(Ω,F,p)上的随机变量x是定义于Ω上的实值可测函数,即对任意ω∈Ω,X(ω)为实数,且对任意实数x,使X(ω)≤x的一切ω组成的Ω的子集{ω:X(ω)≤x}是事件,也即是F中的元素。事件{ω:X(ω)≤x}常简记作{x≤x},并称函数F(x)=p(x≤x),-∞<x<∞ ,为x的分布函数。
参考资料来源:百度百科-随机变量
解题过程如下:
L=(i从1至n连乘)P(x=xi)= (i从1至n连乘)p^(xi) *(1-p)^(1-xi)=p^(i从1至n连乘)xi *(1-p)^n-(i从1至n连乘)xi
lnL=(i从1至n连乘)xi*lnp+(n-(i从1至n连乘)xi)ln(1-p)
lnL求导=(i从1至n连乘)xi*1/p -(n-(i从1至n连乘)xi)*1/(1-p) =0
随机变量(random variable)表示随机试验各种结果的实值单值函数。随机事件不论与数量是否直接有关,都可以数量化,即都能用数量化的方式表达。
随机事件数量化的好处是可以用数学分析的方法来研究随机现象。例如某一时间内公共汽车站等车乘客人数,电话交换台在一定时间内收到的呼叫次数,灯泡的寿命等等,都是随机变量的实例。