Vés al contingut

Màquina vectorial de suport de mínims quadrats

De la Viquipèdia, l'enciclopèdia lliure
Les dades de l'espiral: per al punt de dades blau, per al punt de dades vermell

Les màquines de vectors de suport de mínims quadrats (LS-SVM) per a estadístiques i modelització estadística, són versions de mínims quadrats de màquines de vectors de suport (SVM), que són un conjunt de mètodes d'aprenentatge supervisat relacionats que analitzen dades i reconeixen patrons, i que s'utilitzen per a la classificació i l'anàlisi de regressió. En aquesta versió es troba la solució resolent un conjunt d'equacions lineals en lloc d'un problema de programació quadràtica convexa (QP) per als SVM clàssics. Els classificadors SVM de mínims quadrats van ser proposats per Johan Suykens i Joos Vandewalle. Els LS-SVM són una classe de mètodes d'aprenentatge basats en el nucli.[1][2]

De la màquina de vector de suport a la màquina de vector de suport de mínims quadrats

[modifica]

Donat un conjunt d'entrenament amb dades d'entrada i les etiquetes de classe binàries corresponents , el classificador SVM, segons la formulació original de Vapnik, compleix les condicions següents:

que equival a

on és el mapa no lineal de l'espai original a l'espai de dimensions altes o infinites.[3]

Interpretació bayesiana per a LS-SVM

[modifica]

Smola et al ha proposat una interpretació bayesiana de la SVM. Van demostrar que l'ús de diferents nuclis en SVM es pot considerar que defineix diferents distribucions de probabilitats prèvies a l'espai funcional, com . Aquí és una constant i és l'operador de regularització corresponent al nucli seleccionat.[4]

MacKay va desenvolupar un marc general d'evidència bayesiana, i MacKay l'ha utilitzat per al problema de la regressió, la xarxa neuronal directa i la xarxa de classificació. Conjunt de dades proporcionat , un model amb vector paràmetre i l'anomenat hiperparàmetre o paràmetre de regularització , la inferència bayesiana es construeix amb 3 nivells d'inferència:

  • Al nivell 1, per a un valor donat de , el primer nivell d'inferència infereix la distribució posterior de pel domini bayesià
  • El segon nivell d'inferència determina el valor de , maximitzant
  • El tercer nivell d'inferència en el marc d'evidència classifica diferents models examinant les seves probabilitats posteriors

Referències

[modifica]
  1. «Least Squares Support Vector Machines» (en anglès). [Consulta: 12 octubre 2023].
  2. Suykens, J.A.K.; Vandewalle, J. «Least Squares Support Vector Machine Classifiers» (en anglès). Neural Processing Letters, 9, 3, 01-06-1999, pàg. 293–300. DOI: 10.1023/A:1018628609742. ISSN: 1573-773X.
  3. Suykens, J. A. K.; De Brabanter, J.; Lukas, L.; Vandewalle, J. «Weighted least squares support vector machines: robustness and sparse approximation». Neurocomputing, 48, 1, 01-10-2002, pàg. 85–105. DOI: 10.1016/S0925-2312(01)00644-0. ISSN: 0925-2312.
  4. «[https://arxiv.org/pdf/1701.02967v2.pdf A Large Dimensional Analysis of Least Squares Support Vector Machines]» (en anglès). [Consulta: 12 octubre 2023].