Mètodes quasi-Newton

De la Viquipèdia, l'enciclopèdia lliure

Els mètodes quasi-Newton són mètodes utilitzats per trobar zeros o màxims i mínims locals de funcions, com a alternativa al mètode de Newton. Es poden utilitzar si el jacobià o el hessià no està disponible o és massa car per calcular-lo en cada iteració. El mètode "complet" de Newton requereix el jacobià per cercar zeros, o el hessià per trobar extrems.[1]

Mètode de Newton per trobar zeros d'una funció de múltiples variables ve donada per , on és la inversa esquerra de la matriu jacobiana de avaluat per .

En sentit estricte, qualsevol mètode que substitueixi el jacobià exacte amb una aproximació és un mètode quasi-Newton.[2] Per exemple, el mètode d'acords (on es substitueix per per a totes les iteracions) és un exemple senzill. Els mètodes que es donen a continuació per a l'optimització fan referència a una subclasse important de mètodes quasi-Newton, mètodes secants.[3]

Utilitzar mètodes desenvolupats per trobar extrems per trobar zeros no sempre és una bona idea, ja que la majoria dels mètodes utilitzats per trobar extrems requereixen que la matriu que s'utilitza sigui simètrica. Tot i que això és vàlid en el context de la recerca d'extrems, poques vegades s'aplica quan es busquen zeros. Els mètodes "bons" i "dolents" de Broyden són dos mètodes que s'utilitzen habitualment per trobar extrems que també es poden aplicar per trobar zeros. Altres mètodes que es poden utilitzar són el mètode d'actualització de columnes, el mètode d'actualització de columnes inversa, el mètode de mínims quadrats de quasi Newton i el mètode de mínims quadrats inversos de quasi Newton.[4]

La cerca d'un mínim o màxim d'una funció de valor escalar no és altra cosa que la cerca dels zeros del gradient d'aquesta funció. Per tant, els mètodes quasi-Newton es poden aplicar fàcilment per trobar extrems d'una funció. En altres paraules, si és el gradient de , després cercant els zeros de la funció de valors vectorials correspon a la cerca dels extrems de la funció escalar ; el jacobi de ara esdevé el Hessian de . La principal diferència és que la matriu hessiana és una matriu simètrica, a diferència de la jacobiana quan es busquen zeros. La majoria dels mètodes quasi-Newton utilitzats en l'optimització exploten aquesta propietat.

En optimització, els mètodes quasi-Newton (un cas especial de mètodes de mètrica variable) són algorismes per trobar màxims i mínims locals de funcions. Els mètodes quasi-Newton es basen en el mètode de Newton per trobar el punt estacionari d'una funció, on el gradient és 0. El mètode de Newton suposa que la funció es pot aproximar localment com a quadràtica a la regió al voltant de l'òptim, i utilitza la primera i segona derivades per trobar el punt estacionari. En dimensions superiors, el mètode de Newton utilitza el gradient i la matriu de Hesse de segones derivades de la funció a minimitzar.

Referències[modifica]

  1. «Quasi-Newton methods - optimization» (en anglès). https://optimization.mccormick.northwestern.edu.+Arxivat de l'original el 2023-01-04. [Consulta: 4 gener 2023].
  2. Broyden, C. G.. «Quasi-Newton Methods». A: Murray. Numerical Methods for Unconstrained Optimization (en anglès). Londres: Academic Press, 1972, p. 87–106. ISBN 0-12-512250-0. 
  3. Haelterman, Rob. «Analytical study of the Least Squares Quasi-Newton method for interaction problems» (en anglès). PhD Thesis, Ghent University, 2009. [Consulta: 14 agost 2014].
  4. «Quasi-Newton methods - Cornell University Computational Optimization Open Textbook - Optimization Wiki» (en anglès). https://optimization.cbe.cornell.edu.+[Consulta: 4 gener 2023].