Algorisme de maximització d'expectativa

De la Viquipèdia, l'enciclopèdia lliure
Agrupació EM de dades d'erupció Old Faithful. El model inicial aleatori (que, a causa de les diferents escales dels eixos, sembla ser dues el·lipses molt planes i amples) s'ajusta a les dades observades. En les primeres iteracions, el model canvia substancialment, però després convergeix als dos modes del guèiser. Visualitzat amb ELKI.

En estadístiques, un algorisme de maximització d'expectativa (EM) és un mètode iteratiu per trobar estimacions de màxima probabilitat (local) o màxim a posteriori (MAP) de paràmetres en models estadístics, on el model depèn de variables latents no observades.[1] La iteració EM alterna entre la realització d'un pas d'expectativa (E), que crea una funció per a l'expectativa de la probabilitat logarítmica avaluada utilitzant l'estimació actual dels paràmetres, i un pas de maximització (M), que calcula els paràmetres maximitzant el logaritme esperat. probabilitat que es troba al pas E. Aquestes estimacions de paràmetres s'utilitzen llavors per determinar la distribució de les variables latents en el següent pas E.

Història[modifica]

L'algoritme EM va ser explicat i donat el seu nom en un article clàssic de 1977 d' Arthur Dempster, Nan Laird i Donald Rubin.[2] Van assenyalar que el mètode havia estat "proposat moltes vegades en circumstàncies especials" per autors anteriors. Un dels primers és el mètode de recompte de gens per estimar les freqüències d'al·lels de Cedric Smith.[3] Un altre va ser proposat per HO Hartley el 1958, i Hartley i Hocking el 1977, d'on es van originar moltes de les idees del document Dempster–Laird–Rubin.[4] Un altre de SK Ng, Thriyambakam Krishnan i GJ McLachlan el 1977. Les idees de Hartley es poden ampliar a qualsevol distribució discreta agrupada. Un tractament molt detallat del mètode EM per a famílies exponencials va ser publicat per Rolf Sundberg en la seva tesi i diversos articles,[5][6] després de la seva col·laboració amb Per Martin-Löf i Anders Martin-Löf.[7] El document Dempster–Laird–Rubin de 1977 va generalitzar el mètode i va esbossar una anàlisi de convergència per a una classe més àmplia de problemes. El document Dempster-Laird-Rubin va establir el mètode EM com una eina important d'anàlisi estadística. Vegeu també Meng i van Dyk (1997).

L'anàlisi de convergència de l'algoritme Dempster–Laird–Rubin va ser errònia i CF Jeff Wu va publicar una anàlisi de convergència correcta el 1983.[8] La prova de Wu va establir la convergència del mètode EM també fora de la família exponencial, tal com afirma Dempster–Laird–Rubin.[8]

Introducció[modifica]

L'algorisme EM s'utilitza per trobar paràmetres de màxima versemblança (local) d'un model estadístic en els casos en què les equacions no es poden resoldre directament. Normalment, aquests models impliquen variables latents, a més de paràmetres desconeguts i observacions de dades conegudes. És a dir, o bé existeixen valors que falten entre les dades, o el model es pot formular de manera més senzilla assumint l'existència de punts de dades addicionals no observats. Per exemple, un model de barreja es pot descriure de manera més senzilla assumint que cada punt de dades observat té un punt de dades no observat corresponent, o variable latent, especificant el component de la barreja al qual pertany cada punt de dades.

Descripció[modifica]

Els símbols[modifica]

Donat el model estadístic que genera un conjunt de dades observades, un conjunt de dades latents no observades o valors que falten , i un vector de paràmetres desconeguts , juntament amb una funció de versemblança , l' estimació de màxima probabilitat (MLE) dels paràmetres desconeguts es determina maximitzant la probabilitat marginal de les dades observades

No obstant això, aquesta quantitat sovint és intractable des de llavors no s'observa i la distribució de es desconeix abans d'aconseguir .

L'algorisme EM[modifica]

L'algorisme EM busca trobar el MLE de la probabilitat marginal aplicant iterativament aquests dos passos:

Pas d'expectativa (pas E): Definir com el valor esperat de la funció de probabilitat logarítmica de , respecte a la distribució condicional actual de donat i les estimacions actuals dels paràmetres :
Pas de maximització (pas M) : Trobeu els paràmetres que maximitzen aquesta quantitat:

Més succintament, podem escriure-ho com una equació:

Applications[modifica]

L'EM s'utilitza freqüentment per a l'estimació de paràmetres de models mixts,[9][10] sobretot en genètica quantitativa.[11]

En psicometria, l'EM és una eina important per estimar els paràmetres d'ítem i les habilitats latents dels models de teoria de resposta a l'ítem.

Amb la capacitat de fer front a les dades que falten i d'observar variables no identificades, EM s'està convertint en una eina útil per valorar i gestionar el risc d'una cartera.

L'algoritme EM (i la seva variant més ràpida de maximització de l'expectativa del subconjunt ordenat) també s'utilitza àmpliament en la reconstrucció d'imatges mèdiques, especialment en la tomografia per emissió de positrons, la tomografia computada per emissió d'un sol fotó i la tomografia computada de raigs X. Vegeu a continuació altres variants més ràpides d'EM.

En enginyeria estructural, l'algoritme d'identificació estructural mitjançant la maximització de les expectatives (STRIDE) és un mètode només de sortida per identificar les propietats de vibració natural d'un sistema estructural mitjançant dades de sensors (vegeu Anàlisi modal operativa).

EM també s'utilitza per agrupar dades. En el processament del llenguatge natural, dos exemples destacats de l'algorisme són l' algorisme de Baum-Welch per als models de Markov ocults i l'algoritme interior-exterior per a la inducció no supervisada de gramàtiques probabilistes sense context.

En l'anàlisi dels temps d'espera entre operacions, és a dir, el temps entre les operacions posteriors d'accions en una borsa de valors, l'algorisme EM ha demostrat ser molt útil.[12]

Referències[modifica]

  1. Meng, X.-L.; van Dyk, D. J. Royal Statist. Soc. B, 59, 3, 1997, pàg. 511–567. DOI: 10.1111/1467-9868.00082 [Consulta: free].
  2. Dempster, A.P.; Laird, N.M.; Rubin, D.B. Journal of the Royal Statistical Society, Series B, 39, 1, 1977, pàg. 1–38. JSTOR: 2984875.
  3. Ceppelini, R.M. Ann. Hum. Genet., 20, 2, 1955, pàg. 97–115. DOI: 10.1111/j.1469-1809.1955.tb01360.x. PMID: 13268982.
  4. Hartley, Herman Otto Biometrics, 14, 2, 1958, pàg. 174–194. DOI: 10.2307/2527783. JSTOR: 2527783.
  5. Sundberg, Rolf Scandinavian Journal of Statistics, 1, 2, 1974, pàg. 49–58. JSTOR: 4615553.
  6. Sundberg, Rolf Communications in Statistics – Simulation and Computation, 5, 1, 1976, pàg. 55–64. DOI: 10.1080/03610917608812007.
  7. Martin-Löf, Per Scand. J. Statist., 1, 1, 1974, pàg. 3–18.
  8. 8,0 8,1 Wu, C. F. Jeff Annals of Statistics, 11, 1, Mar 1983, pàg. 95–103. DOI: 10.1214/aos/1176346060. JSTOR: 2240463 [Consulta: free].
  9. Lindstrom, Mary J; Bates, Douglas M Journal of the American Statistical Association, 83, 404, 1988, pàg. 1014. DOI: 10.1080/01621459.1988.10478693.
  10. Van Dyk, David A Journal of Computational and Graphical Statistics, 9, 1, 2000, pàg. 78–98. DOI: 10.2307/1390614. JSTOR: 1390614.
  11. Diffey, S. M; Smith, A. B; Welsh, A. H; Cullis, B. R Australian & New Zealand Journal of Statistics, 59, 4, 2017, pàg. 433. DOI: 10.1111/anzs.12208 [Consulta: free].
  12. Kreer, Markus; Kizilersu, Ayse; Thomas, Anthony W. Physica A: Statistical Mechanics and Its Applications, 587, 1, 2022, pàg. 126456. Bibcode: 2022PhyA..58726456K. DOI: 10.1016/j.physa.2021.126456. ISSN: 0378-4371.