Distribució gamma: diferència entre les revisions

De la Viquipèdia, l'enciclopèdia lliure
Contingut suprimit Contingut afegit
Creant l'entrada
 
Cap resum de modificació
Línia 115: Línia 115:
</math>
</math>



== Estimació dels paràmetres ==
=== Màxima versemblança ===

La funció de versemblança per a ''N'' observacions
[[variables aleatòries independents i identicament distribuïdes|iid]]
<math>(x_1,\ldots,x_N)</math> és

:<math>L(\theta)=\prod_{i=1}^N f(x_i;k,\theta)\,\!</math>

de la qual podem calcular la log-versemblança

:<math>\ell(\theta) = (k-1) \sum_{i=1}^N \ln{(x_i)} - \sum x_i/\theta - Nk\ln{(\theta)} - N\ln{\Gamma(k)}.</math>

L'[[estimador màxim-versemblant]] s'obté maximitzant la log-versemblança,
és a dir, calculant-ne la derivada i igualant a zero (es pot demostrar
que la funció és convexa i que per tant té un sol extrem).
Proceding d'aquesta manera trobem que:

:<math>\hat{\theta} = \frac{1}{kN}\sum_{i=1}^N x_i. \,\!</math>

Substituint aquest resultat a l'expressió de la log-versemblança dona

:<math>\ell=(k-1)\sum_{i=1}^N\ln{(x_i)}-Nk-Nk\ln{\left(\frac{\sum x_i}{kN}\right)}-N\ln{(\Gamma(k))}. \,\!</math>

Per trobar el màxim respecte de ''k'' cal calcular la derivada i
igualar-la a zero, amb el qual s'obté:

:<math>\ln{(k)}-\psi(k)=\ln{\left(\frac{1}{N}\sum_{i=1}^N x_i\right)}-\frac{1}{N}\sum_{i=1}^N\ln{(x_i)} \,\!</math>

on

:<math>\psi(k) = \frac{\Gamma'(k)}{\Gamma(k)} \!</math>

és la funció digamma.
No existeix cap fòrmula tancada per a ''k'', però la funció es comporta bé
numericament (és convexe), i per tant és senzill trobar-ne una solució numèrica,
per exemple amb el [[mètode de Newton]].
És possible trobar un valor inicial per a ''k''
emprant el [[mètode dels moments (estadística)|mètode dels moments]],
o emprant l'aproximació

:<math>\ln(k)-\psi(k) \approx \frac{1}{k}\left(\frac{1}{2} + \frac{1}{12k+2}\right). \,\!</math>

Si definim

:<math>s = \ln{\left(\frac{1}{N}\sum_{i=1}^N x_i\right)} - \frac{1}{N}\sum_{i=1}^N\ln{(x_i)},\,\!</math>

aleshores ''k'' és aproximadament

:<math>k \approx \frac{3-s+\sqrt{(s-3)^2 + 24s}}{12s}</math>

que és dins d'un 1.5% del valor correcte.


=== Estimador Bayesià ===

Si considerem que ''k'' es conegut i <math>\theta</math> és
desconegut, la funció de densitat a posteriori per a <math>\theta</math> és
(assumint que la distribució a priori és proporcional a <math>1/\theta</math>)

:<math>
P(\theta | k, x_1, ..., x_N) \propto 1/\theta \prod_{i=1}^N f(x_i;k,\theta).\,\!
</math>

Definint

:<math> y \equiv \sum_{i=1}^N x_i , \qquad P(\theta | k, x_1, \dots , x_N) = C(x_i) \theta^{-N k-1} e^{-y / \theta}. \! </math>

Per tal de calcular l'esperança cal calcular la integral respecte &theta,
el qual pot dur-se a terme emprant un canvi de variables que
revela que 1/&theta segueix una distribució gamma amb paràmetres
<math>\scriptstyle \alpha = N k,\ \ \beta = y</math>.

:<math>
\int_0^{\infty} \theta^{-N k-1+m} e^{-y / \theta}\, d\theta = \int_0^{\infty} x^{N k -1 -m} e^{-x y} \, dx = y^{-(N k -m)} \Gamma(N k -m). \!
</math>

Els moments podem calcular-se especificant diferents valors per a ''m'' a
la següent expressió


:<math>
E(x^m) = \frac {\Gamma (N k -m)} {\Gamma(N k)} y^m, \!
</math>

Per exemple, l'esperança +/- la desviació estàndard de la distribució
a posteriori de <math>\theta</math> és:

:<math> \frac {y} {N k -1}</math> +/- <math>\frac {y^2} {(N k-1)^2 (N k-2)}. </math>


També és possible obtenir estimadors Bayesians sense assumir que ''k''
és conegut, però en general no és possible obtenir-ne una expressió senzilla.



== Referències ==

* {{MathWorld|urlname=GammaDistribution|title=Gamma distribution}}
* S. C. Choi and R. Wette. (1969) ''Maximum Likelihood Estimation of the Parameters of the Gamma Distribution and Their Bias'', '''Technometrics''', '''11'''(4) 683-69





Revisió del 02:53, 13 set 2007

A la teoria de la probabilitat i l'estadística, la distribució gamma és una família de distribucions contínues amb dos paràmetres. Té un paràmetre d'escala θ i un paràmetre de forma k. Si k és un nombre sencer aleshores la distribució representa la suma de k variables aleatòries exponencials, cadascuna de les quals té mitjana θ.

Caracterització

Una variable aleatòria gamma X amb escala θ i forma k es denota

Funció de densitat de probabilitat

La funció de probabilitat de densitat de la distribució gamma pot expressar-se en termes de la funció gamma:

En aquesta parametrització l'esperança és Alternativament, la distribució gamma pot parameteritzar-se en termes d'un paràmetre de forma i un paràmetre d'escala inversa , anomenat un paràmetre de tasa:

En la segona parametrització l'esperança és . Ambdues parametritzacions són comunes perque qualsevol de les dues pot ésser més convenient depenent de la tasca a la que un s'enfronta. És possible una tercera parametrització, on es manté el paràmetre de forma i s'introdueix l'esperança . L'avantatge d'aquesta darrera parametrització és que és més fàcilment interpretable.


Funció de distribució

La funció de distribució pot expressar-se en termes de la funció gamma incomplerta,


Propietats

Moments

Mitjana=

Mediana =no hi ha una expressió simple

Moda= per , 0 altrament

Variància=

Asimetria=

Kurtosis =

Entropia =

Funció generadora de moments = for

Funció característica =

Suma

Si Xi segueix una distribució Γ(αi, β) per a i = 1, 2, ..., N, aleshores

assumint que totes les Xi són independents.

La distribució gamma és infinitament divisible.

Transformació d'escala

Per a qualssevol t > 0 es compleix que tX segueix una distribució Γ(ktθ), demonstrant que θ és un paràmetre d'escala.

Família exponencial

La distribució gamma pertany a la família exponencial de dos paràmetres i té paràmetres naturals i , i estadístics naturals i .

Entropía

L'entropia ve donada per

on ψ(k) és la funció digamma.

Divergència Kullback-Leibler

La divergència Kullback-Leibler entre una Γ(α0, β0) (la distribució verdadera) i una Γ(α, β) (la distribució que la aproxima) ve donada per

Transformada de Laplace

La transformada de Laplace de la distribució gamma és


Estimació dels paràmetres

Màxima versemblança

La funció de versemblança per a N observacions iid és

de la qual podem calcular la log-versemblança

L'estimador màxim-versemblant s'obté maximitzant la log-versemblança, és a dir, calculant-ne la derivada i igualant a zero (es pot demostrar que la funció és convexa i que per tant té un sol extrem). Proceding d'aquesta manera trobem que:

Substituint aquest resultat a l'expressió de la log-versemblança dona

Per trobar el màxim respecte de k cal calcular la derivada i igualar-la a zero, amb el qual s'obté:

on

és la funció digamma. No existeix cap fòrmula tancada per a k, però la funció es comporta bé numericament (és convexe), i per tant és senzill trobar-ne una solució numèrica, per exemple amb el mètode de Newton. És possible trobar un valor inicial per a k emprant el mètode dels moments, o emprant l'aproximació

Si definim

aleshores k és aproximadament

que és dins d'un 1.5% del valor correcte.


Estimador Bayesià

Si considerem que k es conegut i és desconegut, la funció de densitat a posteriori per a és (assumint que la distribució a priori és proporcional a )

Definint

Per tal de calcular l'esperança cal calcular la integral respecte &theta, el qual pot dur-se a terme emprant un canvi de variables que revela que 1/&theta segueix una distribució gamma amb paràmetres .

Els moments podem calcular-se especificant diferents valors per a m a la següent expressió


Per exemple, l'esperança +/- la desviació estàndard de la distribució a posteriori de és:

+/-


També és possible obtenir estimadors Bayesians sense assumir que k és conegut, però en general no és possible obtenir-ne una expressió senzilla.


Referències


Categoría:Estadística