Hamiltonià de Montecarlo

De la Viquipèdia, l'enciclopèdia lliure

L'algorisme hamiltonià de Montecarlo (originalment conegut com a Montecarlo híbrid) és un mètode de Montecarlo de cadena de Markov per obtenir una seqüència de mostres aleatòries que convergeixen a ser distribuïdes segons una distribució de probabilitat objectiu per a la qual el mostreig directe és difícil. Aquesta seqüència es pot utilitzar per estimar integrals respecte a la distribució objectiu (valors esperats).[1]

Hamiltonià Monte Carlo correspon a una instància de l'algorisme de Metropolis–Hastings, amb una evolució de la dinàmica hamiltoniana simulada utilitzant un integrador numèric reversible en el temps i que preserva el volum (normalment l'integrador de salt) per proposar un moviment a un nou punt de l'espai d'estats. En comparació amb l'ús d'una distribució de proposta de caminada aleatòria gaussiana a l'algorisme de Metropolis-Hastings, l'Hamiltonià Monte Carlo redueix la correlació entre estats mostrejats successius proposant moviments a estats llunyans que mantenen una alta probabilitat d'acceptació a causa de les propietats aproximades de conservació d'energia de l'Hamiltonià simulat. dinàmic quan s'utilitza un integrador simplèctic. La correlació reduïda significa que es necessiten menys mostres de cadena de Markov per aproximar integrals respecte a la distribució de probabilitat objectiu per a un determinat error de Monte Carlo.

L'algoritme va ser proposat originalment per Simon Duane, Anthony Kennedy, Brian Pendleton i Duncan Roweth el 1987 per a càlculs en cromodinàmica quàntica de gelosia.[2] El 1996, Radford M. Neal va mostrar com el mètode es podia utilitzar per a una classe més àmplia de problemes estadístics, en particular les xarxes neuronals artificials.[3] No obstant això, la càrrega d'haver de proporcionar gradients de la xarxa bayesiana va retardar l'adopció més àmplia de l'algoritme en les estadístiques i altres disciplines quantitatives, fins que a mitjans de la dècada de 2010 els desenvolupadors de Stan van implementar HMC en combinació amb la diferenciació automàtica.[4]

Algorisme[modifica]

Suposem que la distribució objectiu a la mostra és per ( ) i una cadena de mostres es requereix.

Les equacions de Hamilton són

on i són els ª component del vector posició i moment respectivament i és l'Hamiltonià. Deixar ser una matriu de masses que és simètrica i definitiva positiva, aleshores l'hammiltonià ho és

on és l'energia potencial. L'energia potencial per a un objectiu es dóna com

que prové del factor de Boltzmann.

L'algorisme requereix un nombre enter positiu per al nombre de passos de granota de salt i un nombre positiu per a la mida del pas . Suposem que la cadena és a . Deixar . Primer, un moment gaussià aleatori s'extreu de . A continuació, la partícula s'executarà sota la dinàmica hamiltoniana durant el temps , això es fa resolent numèricament les equacions de Hamilton utilitzant l'algorisme de granota de salt. Els vectors posició i moment després del temps utilitzant l'algoritme de granota de salt són

Aquestes equacions s'han d'aplicar i vegades per obtenir i .

L'algoritme de granota de salt és una solució aproximada al moviment de partícules clàssiques que no interaccionen. Si és exacta, la solució mai canviarà la distribució inicial d'energia generada aleatòriament, ja que l'energia es conserva per a cada partícula en presència d'un camp d'energia potencial clàssic. Per aconseguir una distribució d'equilibri termodinàmic, les partícules han de tenir algun tipus d'interacció amb, per exemple, un bany de calor circumdant, de manera que tot el sistema pugui prendre diferents energies amb probabilitats segons la distribució de Boltzmann.

Una manera de moure el sistema cap a una distribució d'equilibri termodinàmic és canviar l'estat de les partícules mitjançant l'algorisme de Metropolis-Hastings. Per tant, primer s'aplica el pas de granota de salt, després un pas de Metropolis-Hastings.

La transició de a és

on

Això es repeteix per obtenir .

Referències[modifica]

  1. «Hamiltonian Monte Carlo explained by Alex Rogozhnikov» (en anglès). [Consulta: 21 març 2024].
  2. Duane, Simon; Kennedy, Anthony D.; Pendleton, Brian J.; Roweth, Duncan Physics Letters B, 195, 2, 1987, pàg. 216–222. Bibcode: 1987PhLB..195..216D. DOI: 10.1016/0370-2693(87)91197-X.
  3. Neal, Radford M. «Monte Carlo Implementation». A: Bayesian Learning for Neural Networks (en anglès). 118. Springer, 1996, p. 55–98 (Lecture Notes in Statistics). DOI 10.1007/978-1-4612-0745-0_3. ISBN 0-387-94724-8. 
  4. Gelman, Andrew; Lee, Daniel; Guo, Jiqiang Journal of Educational and Behavioral Statistics, 40, 5, 2015, pàg. 530–543. DOI: 10.3102/1076998615606113.