Distribució gamma: diferència entre les revisions
Creant l'entrada |
Cap resum de modificació |
||
Línia 115: | Línia 115: | ||
</math> |
</math> |
||
== Estimació dels paràmetres == |
|||
=== Màxima versemblança === |
|||
La funció de versemblança per a ''N'' observacions |
|||
[[variables aleatòries independents i identicament distribuïdes|iid]] |
|||
<math>(x_1,\ldots,x_N)</math> és |
|||
:<math>L(\theta)=\prod_{i=1}^N f(x_i;k,\theta)\,\!</math> |
|||
de la qual podem calcular la log-versemblança |
|||
:<math>\ell(\theta) = (k-1) \sum_{i=1}^N \ln{(x_i)} - \sum x_i/\theta - Nk\ln{(\theta)} - N\ln{\Gamma(k)}.</math> |
|||
L'[[estimador màxim-versemblant]] s'obté maximitzant la log-versemblança, |
|||
és a dir, calculant-ne la derivada i igualant a zero (es pot demostrar |
|||
que la funció és convexa i que per tant té un sol extrem). |
|||
Proceding d'aquesta manera trobem que: |
|||
:<math>\hat{\theta} = \frac{1}{kN}\sum_{i=1}^N x_i. \,\!</math> |
|||
Substituint aquest resultat a l'expressió de la log-versemblança dona |
|||
:<math>\ell=(k-1)\sum_{i=1}^N\ln{(x_i)}-Nk-Nk\ln{\left(\frac{\sum x_i}{kN}\right)}-N\ln{(\Gamma(k))}. \,\!</math> |
|||
Per trobar el màxim respecte de ''k'' cal calcular la derivada i |
|||
igualar-la a zero, amb el qual s'obté: |
|||
:<math>\ln{(k)}-\psi(k)=\ln{\left(\frac{1}{N}\sum_{i=1}^N x_i\right)}-\frac{1}{N}\sum_{i=1}^N\ln{(x_i)} \,\!</math> |
|||
on |
|||
:<math>\psi(k) = \frac{\Gamma'(k)}{\Gamma(k)} \!</math> |
|||
és la funció digamma. |
|||
No existeix cap fòrmula tancada per a ''k'', però la funció es comporta bé |
|||
numericament (és convexe), i per tant és senzill trobar-ne una solució numèrica, |
|||
per exemple amb el [[mètode de Newton]]. |
|||
És possible trobar un valor inicial per a ''k'' |
|||
emprant el [[mètode dels moments (estadística)|mètode dels moments]], |
|||
o emprant l'aproximació |
|||
:<math>\ln(k)-\psi(k) \approx \frac{1}{k}\left(\frac{1}{2} + \frac{1}{12k+2}\right). \,\!</math> |
|||
Si definim |
|||
:<math>s = \ln{\left(\frac{1}{N}\sum_{i=1}^N x_i\right)} - \frac{1}{N}\sum_{i=1}^N\ln{(x_i)},\,\!</math> |
|||
aleshores ''k'' és aproximadament |
|||
:<math>k \approx \frac{3-s+\sqrt{(s-3)^2 + 24s}}{12s}</math> |
|||
que és dins d'un 1.5% del valor correcte. |
|||
=== Estimador Bayesià === |
|||
Si considerem que ''k'' es conegut i <math>\theta</math> és |
|||
desconegut, la funció de densitat a posteriori per a <math>\theta</math> és |
|||
(assumint que la distribució a priori és proporcional a <math>1/\theta</math>) |
|||
:<math> |
|||
P(\theta | k, x_1, ..., x_N) \propto 1/\theta \prod_{i=1}^N f(x_i;k,\theta).\,\! |
|||
</math> |
|||
Definint |
|||
:<math> y \equiv \sum_{i=1}^N x_i , \qquad P(\theta | k, x_1, \dots , x_N) = C(x_i) \theta^{-N k-1} e^{-y / \theta}. \! </math> |
|||
Per tal de calcular l'esperança cal calcular la integral respecte &theta, |
|||
el qual pot dur-se a terme emprant un canvi de variables que |
|||
revela que 1/&theta segueix una distribució gamma amb paràmetres |
|||
<math>\scriptstyle \alpha = N k,\ \ \beta = y</math>. |
|||
:<math> |
|||
\int_0^{\infty} \theta^{-N k-1+m} e^{-y / \theta}\, d\theta = \int_0^{\infty} x^{N k -1 -m} e^{-x y} \, dx = y^{-(N k -m)} \Gamma(N k -m). \! |
|||
</math> |
|||
Els moments podem calcular-se especificant diferents valors per a ''m'' a |
|||
la següent expressió |
|||
:<math> |
|||
E(x^m) = \frac {\Gamma (N k -m)} {\Gamma(N k)} y^m, \! |
|||
</math> |
|||
Per exemple, l'esperança +/- la desviació estàndard de la distribució |
|||
a posteriori de <math>\theta</math> és: |
|||
:<math> \frac {y} {N k -1}</math> +/- <math>\frac {y^2} {(N k-1)^2 (N k-2)}. </math> |
|||
També és possible obtenir estimadors Bayesians sense assumir que ''k'' |
|||
és conegut, però en general no és possible obtenir-ne una expressió senzilla. |
|||
== Referències == |
|||
* {{MathWorld|urlname=GammaDistribution|title=Gamma distribution}} |
|||
* S. C. Choi and R. Wette. (1969) ''Maximum Likelihood Estimation of the Parameters of the Gamma Distribution and Their Bias'', '''Technometrics''', '''11'''(4) 683-69 |
|||
Revisió del 02:53, 13 set 2007
A la teoria de la probabilitat i l'estadística, la distribució gamma és una família de distribucions contínues amb dos paràmetres. Té un paràmetre d'escala θ i un paràmetre de forma k. Si k és un nombre sencer aleshores la distribució representa la suma de k variables aleatòries exponencials, cadascuna de les quals té mitjana θ.
Caracterització
Una variable aleatòria gamma X amb escala θ i forma k es denota
Funció de densitat de probabilitat
La funció de probabilitat de densitat de la distribució gamma pot expressar-se en termes de la funció gamma:
En aquesta parametrització l'esperança és Alternativament, la distribució gamma pot parameteritzar-se en termes d'un paràmetre de forma i un paràmetre d'escala inversa , anomenat un paràmetre de tasa:
En la segona parametrització l'esperança és . Ambdues parametritzacions són comunes perque qualsevol de les dues pot ésser més convenient depenent de la tasca a la que un s'enfronta. És possible una tercera parametrització, on es manté el paràmetre de forma i s'introdueix l'esperança . L'avantatge d'aquesta darrera parametrització és que és més fàcilment interpretable.
Funció de distribució
La funció de distribució pot expressar-se en termes de la funció gamma incomplerta,
Propietats
Moments
Mitjana=
Mediana =no hi ha una expressió simple
Moda= per , 0 altrament
Variància=
Asimetria=
Kurtosis =
Entropia =
Funció generadora de moments = for
Funció característica =
Suma
Si Xi segueix una distribució Γ(αi, β) per a i = 1, 2, ..., N, aleshores
assumint que totes les Xi són independents.
La distribució gamma és infinitament divisible.
Transformació d'escala
Per a qualssevol t > 0 es compleix que tX segueix una distribució Γ(k, tθ), demonstrant que θ és un paràmetre d'escala.
Família exponencial
La distribució gamma pertany a la família exponencial de dos paràmetres i té paràmetres naturals i , i estadístics naturals i .
Entropía
L'entropia ve donada per
on ψ(k) és la funció digamma.
Divergència Kullback-Leibler
La divergència Kullback-Leibler entre una Γ(α0, β0) (la distribució verdadera) i una Γ(α, β) (la distribució que la aproxima) ve donada per
Transformada de Laplace
La transformada de Laplace de la distribució gamma és
Estimació dels paràmetres
Màxima versemblança
La funció de versemblança per a N observacions iid és
de la qual podem calcular la log-versemblança
L'estimador màxim-versemblant s'obté maximitzant la log-versemblança, és a dir, calculant-ne la derivada i igualant a zero (es pot demostrar que la funció és convexa i que per tant té un sol extrem). Proceding d'aquesta manera trobem que:
Substituint aquest resultat a l'expressió de la log-versemblança dona
Per trobar el màxim respecte de k cal calcular la derivada i igualar-la a zero, amb el qual s'obté:
on
és la funció digamma. No existeix cap fòrmula tancada per a k, però la funció es comporta bé numericament (és convexe), i per tant és senzill trobar-ne una solució numèrica, per exemple amb el mètode de Newton. És possible trobar un valor inicial per a k emprant el mètode dels moments, o emprant l'aproximació
Si definim
aleshores k és aproximadament
que és dins d'un 1.5% del valor correcte.
Estimador Bayesià
Si considerem que k es conegut i és desconegut, la funció de densitat a posteriori per a és (assumint que la distribució a priori és proporcional a )
Definint
Per tal de calcular l'esperança cal calcular la integral respecte &theta, el qual pot dur-se a terme emprant un canvi de variables que revela que 1/&theta segueix una distribució gamma amb paràmetres .
Els moments podem calcular-se especificant diferents valors per a m a la següent expressió
Per exemple, l'esperança +/- la desviació estàndard de la distribució a posteriori de és:
- +/-
També és possible obtenir estimadors Bayesians sense assumir que k
és conegut, però en general no és possible obtenir-ne una expressió senzilla.
Referències
- Weisstein, Eric W., «Gamma distribution» a MathWorld (en anglès).
- S. C. Choi and R. Wette. (1969) Maximum Likelihood Estimation of the Parameters of the Gamma Distribution and Their Bias, Technometrics, 11(4) 683-69