Rachunek prawdopodobieństwa i statystyka - Lista 8.

Zadanie 1.

Wiemy, że S^2=\frac 1 n \sum_{i=1}^n (X_i- \overline{X})^2 i \overline{X}=\frac 1 n \sum_{i=1}^n X_i

Korzystamy ze wskazówki.

S^2=\frac 1 n \sum_{i=1}^n (X_i- \mu)^2-(\overline{X}-\mu)^2, gdzie \mu=EX

E(\overline{X}-\mu)^2=D^2\overline{X}=D^2(\frac 1 n \sum_{i=1}^n X_i)=\frac 1 {n^2} D^2 \sum_{i=1}^n X_i=\frac 1 {n^2}\sum_{i=1}^n D^2 X=\frac {\sigma^2} n

Zatem

E(S^2)=\frac 1 n * n\sigma^2-\frac {\sigma^2} n=\frac {n-1} n \sigma^2

Zadanie 2.

Mamy jakieś obserwacje k_1, \dots, k_n.

Szukamy maksymalnej wartości funkcji

\displaystyle f(\lambda) = \prod_j^n \frac{\lambda^{k_j} e^{-\lambda}}{{k_j}!}.

Możemy się zająć funkcją g(\lambda) = \ln f(\lambda), która ma wartość maksymalną w tym samym punkcie.

\displaystyle g'(\lambda) = (\ln \prod_j^n \frac{\lambda^{k_j} e^{-\lambda}}{{k_j}!})' = \sum_j^n (\ln \frac{\lambda^{k_j} e^{-\lambda}}{{k_j}!})' = \sum_j^n (\ln \lambda^{k_j} -\lambda - \ln {{k_j}!})' = \frac {\sum_j k_j} {\lambda} - n.

Rozwiązując g'(\lambda) = 0 otrzymujemy \displaystyle\lambda_{\mathrm{MLE}} = \frac 1 n \sum_j k_j = {\buildrel\sim\over{k}}

Zadanie 3.

Rozwiązujemy (trochę ubogi) układ równań

\cases{E(X) = \lambda \cr D^2(X) = \lambda}

dla \lambda. Otrzymujemy dwa estymatory:

\lambda = E(X) = \overline{X} = \frac{1}{n} \sum_{i=1}^n X_i

oraz

\lambda = D^2(X) = \frac{1}{n} \sum_{i=1}^n (X_i - \overline{X})^2

Zadanie 4.

Mamy obserwacje X_1, \dots, X_n.

Szukamy maksymalnej wartości funkcji

\displaystyle f(\mu) = \prod_{k} \frac{1}{\sqrt{2\pi\sigma^2}}\, e^{-(X_k-\mu)^2/(2\sigma^2)}

Niech g(\mu) = \ln f(\mu).

\displaystyle g'(\mu) = (\sum_k \frac{-(X_k-\mu)^2}{2\sigma^2})' = \frac {\sum_k X_k - n \mu} {\sigma^2}

Rozwiązując g'(\mu) = 0 otrzymujemy \mu_{\mathrm{MLE}} = \frac 1 n \sum_k X_k = \overline X.

Zadanie 5.

Mamy obserwacje X_1, \dots, X_n.

Niech \upsilon = \sigma^2. Szukamy maksymalnej wartości funkcji

\displaystyle f(\upsilon) = \prod_{k} \frac{1}{\sqrt{2\pi\sigma^2}}\, e^{-(X_k-\mu)^2/(2\sigma^2)}

Niech g(\upsilon) = \ln f(\upsilon).

\displaystyle g'(\upsilon) = \sum_k \left( (\frac{-(X_k-\mu)^2}{2\sigma^2})' - \frac 1 {\sigma} \right) = \frac {\sum_k (X_k - \mu)^2} {\sigma^3} - \frac n {\sigma}

Rozwiązując g'(\upsilon) = 0 otrzymujemy \upsilon_{\mathrm{MLE}} = \frac 1 n \sum_k (X_k - \mu)^2 = S^2.

Zadanie 6.

Rozwiązujemy układ równań

\cases{ E(X) = \mu \cr D^2(X) = \sigma^2 }

dla \mu oraz \sigma^2 otrzymujemy estymatory

\mu = E(X) = \overline X oraz

\sigma^2 = D^2(X) = S^2.

Zadanie 7.

Mamy jakieś obserwacje k_1, \dots, k_n.

Szukamy maksymalnej wartości funkcji

\displaystyle f(p) = \prod_j^n {n\choose k_j}p^{k_j}(1-p)^{n-k_j}.

Możemy się zająć funkcją g(p) = \ln f(p), która ma wartość maksymalną w tym samym punkcie.

\displaystyle g'(p) = (\ln \prod_j^n {n\choose k_j}p^{k_j}(1-p)^{n-k_j})' = \sum_j^n (\ln {n\choose k_j} + \ln p^{k_j} + \ln(1-p)^{n-k_j})' = \sum_j^n (0 + \frac {k_j} p - \frac {n - k_j}{1-p}) = \sum_j^n \frac { k_j - pk_j - pn + pk_j } { p(1-p) } = \frac {\sum_j k_j - pn^2} {p(1-p)}.

Rozwiązując g'(p) = 0 otrzymujemy \displaystyle p_{\mathrm{MLE}} = \frac 1 {n^2} \sum_j k_j.

Zadanie 8.

Zadanie 9.

Zadanie 10.

Zadanie 11.

Zadanie 12.

 
rachunek_prawdopodobienstwa_i_statystyka/lista8.txt · ostatnio zmienione: 2009/12/16 20:35 przez drx
 
Wszystkie treści w tym wiki, którym nie przyporządkowano licencji, podlegają licencji:MIT License
Recent changes RSS feed