Distribució binomial de Poisson

De Viquipèdia
Salta a la navegació Salta a la cerca
Distribució binomial de Poisson
Paràmetres — probabilitats d'èxit per cadascun dels n assajos
Suport k ∈ { 0, …, n }
FD
Mitjana
Variància
Coeficient de simetria
Curtosi
FGM
FC
Modifica les dades a Wikidata

En teoria de la probabilitat i estadística, la distribució binomial de Poisson és la distribució de probabilitat discreta d'una suma d'assajos de Bernoulli estadísticament independents que no estan distribuïts necessàriament de manera idèntica. El concepte rep el nom del matemàtic i físic francès Siméon Denis Poisson.

En altres paraules, és la distribució de probabilitat del nombre d'èxits en una següència d'n assajos sí/no independents amb probabilitats d'èxit . La distribució binomial és un cas especial de distribució binomial de Poisson, en què totes les probabilitats d'èxit són iguals, és a dir .

Mitjana i variància[modifica]

Com que la variable distribuïda binomial de Poisson és una suma de n variables distribuïdes independents de Bernoulli, la seva mitjana i variància són simplement les sumes de les mitjanes i les variàncies de n distribucions de Bernoulli:

Per valors fixats de la mitjana () i la mida de la mostra (n), la variància és màxima quan totes les probabilitats d'èxit són iguals i es té una distribució binomial. Quan la mitjana està fixada, la variància està fitada per dalt per la variància de la distribució de Poisson amb la mateixa mitjana que s'obté asimptòticament a mesura que n tendeix a infinit.

Funció de massa de probabilitat[modifica]

La probabilita de tenir k assajos exitosos d'un total de n, es pot escriure com la suma: [1]

on és el conjunt de tots els subconjunts de k enters que es poden seleccionar de {1,2,3,...,n}. Per exemple, si n = 3 i k = 2, llavors . és el complement de , és a dir .

contindrà elements, la suma sobre el qual no és factible de calcular a la pràctica llevat que el nombre d'assajos n sigui petit (per exemple si n = 30, conté uns 1020 elements). Tanmateix, hi ha altres maneres més eficients de calcular .

Sempre que cap de les probabilitats d'èxit sigui igual a u, es pot calcular la probabilitat de k assajos exitosos usant la fórmula recursiva:[2] [3]

on:

La fórmula recursiva no és numèricament estable, i s'hauria d'evitar si és més gran que aproximadament 20. Una altra mètode és usant la transformada discreta de Fourier: .[4]

on and .

Altres mètodes que es poden usar estan descrits a: [5]

Entropia[modifica]

No hi ha cap fórmula per l'entropia de la distribució binomial de Poisson, però l'entropia està fitada superiorment per l'entropia d'una distribució binomial amb el mateix paràmetre n i la mateixa mitjana. Per tant, l'entropia també està fitada superiorment per una distribució de Poisson amb la mateixa mitjana.[6]

La conjectura de Shepp–Olkin, proposada per Lawrence Shepp i Ingram Olkin l'any 1981, exposa que l'entropia d'una distribució binomial de Poisson és una funció còncava de les probabilitats d'èxit.[7] This conjecture was proved by Erwan Hillion and Oliver Johnson in 2015.[8]

Vegeu també[modifica]

Referències[modifica]

  1. Wang, Y. H. «On the number of successes in independent trials». Statistica Sinica, 3, 2, 1993, pàg. 295–312.
  2. Shah, B. K. «On the distribution of the sum of independent integer valued random variables». American Statistician, 27, 3, 1994, pàg. 123–124. JSTOR: 2683639.
  3. Chen, X. H.; A. P. Dempster; J. S. Liu «Weighted finite population sampling to maximize entropy». Biometrika, 81, 3, 1994, pàg. 457. DOI: 10.1093/biomet/81.3.457.
  4. Fernandez, M.; S. Williams «Closed-Form Expression for the Poisson-Binomial Probability Density Function». IEEE Transactions on Aerospace Electronic Systems, 46, 2, 2010, pàg. 803–817. Bibcode: 2010ITAES..46..803F. DOI: 10.1109/TAES.2010.5461658.
  5. Chen, S. X.; J. S. Liu «Statistical Applications of the Poisson-Binomial and conditional Bernoulli distributions». Statistica Sinica, 7, 1997, pàg. 875–892.
  6. Harremoës, P. «Binomial and Poisson distributions as maximum entropy distributions». IEEE Transactions on Information Theory, 47, 5, 2001, pàg. 2039–2041. DOI: 10.1109/18.930936.
  7. «Entropy of the sum of independent Bernoulli random variables and of the multinomial distribution». A: Contributions to probability: A collection of papers dedicated to Eugene Lukacs. New York: Academic Press, 1981, p. 201–206. ISBN 0-12-274460-8. 
  8. Hillion, Erwan; Johnson, Oliver «A proof of the Shepp-Olkin entropy concavity conjecture». Bernoulli, 23, 05-03-2015, pàg. 3638-3649. arXiv: 1503.01570. DOI: 10.3150/16-BEJ860.