Màquina de vector de suport

De Viquipèdia
Dreceres ràpides: navegació, cerca

Una màquina de vector de suport (SVM o Support Vector Machines en anglès) és un concepte al món estadístic i de les ciències de la computació sobre un conjunt d'algorismes que són capaços d'analitzar dades i reconèixer patrons mitjançant l'ús de mètodes d'aprenentatge supervisat. Aquests mètodes són utilitzats principalment en problemes de classificació o d'anàlisi de la regressió. Una màquina de vectors agafa com a entrada un set de dades i prediu, per cadascuna d'aquestes entrades a quina de les dues possibles classes pertany. Mitjançant l'entrenament amb dades d'entrada prèviament classificades, s'estableix un model que separa les dues classes entrants. Aquest model N-dimensional estableix una frontera entre les dues tipologies establertes, aquesta se situa en el punt en el qual la diferència entre classes sigui el més gran possible i el marge d'error sigui zero (dataset separable) o mínim (dataset no separable). S'anomenen vectors de suport als punts que conformen les dues línies paral·leles a l'hiperplà, essent aquesta distància la major possible (marge).

Història[modifica | modifica el codi]

Les màquines de vectors suport representen una extensió de models no lineals de l'algorisme desenvolupat per Vladimir Vapnik i Lerner. L'algorisme SVM es basa en la teoria de l'aprenentatge estadístic i les revisions de Chervonenkis-Vapnik; Comentaris en Química Computacional, Volum 23, editat per B. Kenny Lipkowitz i Thomas R. Cundari. La teoria de l'aprenentatge estadístic, que descriu propietats de les màquines d'aprenentatge que els permetin fer prediccions fiables, va ser examinat per Vapnik. La formulació actual, l'algorisme de SVM va ser desenvolupat a AT&T Bell Laboratories per Vladimir Vapnik, tot i que actualment l'any 1995 Corinna Cortes va estendre la teoria aplicant un procés de marge suau.[1]

Definició formal[modifica | modifica el codi]

Una màquina de vectors de suport consisteix en un hiperplà o un conjunt d'aquests en un conjunt espaial N-dimensional o amb infinites dimensions. Intuïtivament aquest hiperplà estarà situat al punt on la distància als punts d'entrenament més propers d'ambdues classes sigui major. Tot i que, en un principi, el problema ha estat declarat en un espai de dimensions finites, és possible que el conjunt de dades en aquest espai no sigui separable linealment. És per aquesta raó que l'espai es mapa a un de dimensions majors per ajudar a fer que sigui separable en el nou espai. Per mantenir una càrrega computacional raonable els esquemes de mapeig de les màquines SVM són dissenyats per asegurar que els productes vectorials es puguin calcular en els termes de l'espai original, definint-los en termes d'una funció anomenada funció de kernel (nucli del SVM,   K(x,y) ) adaptada per a cada tipus de problema.[2]

Els hiperplans en un espai dimensional major es defineixen com un conjunt de punts el punt dels quals el seu producte amb un vector en aquell espai és constant (espai prehilbertià). Els vectors que defineixen l'hiperplà poden ser escollits perquè siguin combinacions lineals de les imatges dels vectors característics del dataset d'entrada. Aquest hiperplà es defineix amb la següent relació:  \sum_i{ \alpha_i K(x_i,x)} = constant

Tingues en compte que si   K(x,y) esdevé petit mentre  y creix més enllà, lluny de  x , cada terme en la suma mesura el grau de proximitat del punt de prova  x al punt enmagatzemat original corresponent  x_i . D'aquesta manera, la suma de nuclis (kernels, \sum_i{ \alpha_i K(x_i,x)} ) pot fer-se servir per mesurar la mínima distància de cada punt de prova a la dada assenyalada original, dins un o l'altre dels conjunts per ser discriminats. Nota el fet que el conjunt de punts mapejats a qualsevol hiperplà pot generar un resultat complicat, permetent molta més discriminació complexa entre conjunts que no són convexs en absolut en l'espai original.

Motivació[modifica | modifica el codi]

Exemple d'hiperplà
H1 no separa bé les dues classes, per tant no sería un bon hiperplà. H2 les separa, però no és el més indicat, ja que la distància dels punts de les classes al pla és molt petit. La millor opció és H3 (vermell) que està més espaiada de les dues classes.

Classificar dades és una tasca comuna en l'aprenentatge màquina. Suposem que ens donen alguns punts de dades i que cadascuna pertany a una de dues classes, l'objectiu és decidir per a cada nova dada, a quina de les dues classes estarà. En el cas de les màquines de vectors de suport, un punt de dades és vist com a un vector p-dimensional (una llista de p nombres) i volem saber si podem separar aquests punts amb un (p-1) hiperplà tridimensional. Això s'anomena un classificador lineal. Hi ha molts hiperplans que poden classificar les dades. Una elecció raonable és aquell hiperplà que separa millor les dues classes. Per tant triarem l'hiperplà el qual la distància d'ell fins al punt de dades més proper a cada costat es maximitza. Si existeix aquest hiperplà, es coneix com a hiperplà de màxim marge i el classificador lineal que defineix és conegut com a hiperplà de màxim marge o d'estabilitat òptima.[3]

Marge suau[modifica | modifica el codi]

L'any 1995, Corinna Cortes i Vladimir Vapnik suggeriren una nova extensió en la qual s'establia un marge màxim en què els exemples mal etiquetats podien ser corregits. Si no existeix un hiperplà que pugui separar ambdues classes, el mètode del marge suau escollirà un hiperpla que divideixi els exemples amb la claredat més gran possible, intentant maximitzar la distància als punts més clarament separats. Aquest mètode introdueix variables que permeten controlar el sistema (variables d'ajustament) \xi_i i permet ajustar el grau de classificació errònia sobre les dades x_i y_i(\mathbf{w}\cdot\mathbf{x_i} - b) \ge 1 - \xi_i \quad 1 \le i \le n. \quad\quad(2)

La funció objectiu s'incrementa per una funció que penalitza les no-zero \xi_i, l'optimització es converteix en un compromís entre un marge gran i un error de classificació petit. Si la funció de penalització és lineal, el problema d'optimització és:

 \min_{\mathbf{w},\mathbf{\xi}, b } \left\{\frac{1}{2} \|\mathbf{w}\|^2 
+ C \sum_{i=1}^n \xi_i \right\}

subjecte a (per cada  i=1,\dots n)

 y_i(\mathbf{w}\cdot\mathbf{x_i} - b) \ge 1 - \xi_i, 
~~~~\xi_i \ge 0.

Aquesta restricció en (2), juntament amb l'objectiu de minimitzar el \|\mathbf{w}\| es pot resoldre utilitzant multiplicadors de Lagrange, com es va indicar anteriorment. Quedant el següent problema:

\min_{\mathbf{w},\mathbf{\xi}, b } \max_{\boldsymbol{\alpha},\boldsymbol{\beta} } 
\left \{ \frac{1}{2}\|\mathbf{w}\|^2 
+C \sum_{i=1}^n \xi_i
- \sum_{i=1}^{n}{\alpha_i[y_i(\mathbf{w}\cdot \mathbf{x_i} - b) -1 + \xi_i]} 
- \sum_{i=1}^{n} \beta_i \xi_i \right \}

amb  \alpha_i, \beta_i \ge 0.

Forma Dual[modifica | modifica el codi]

 \tilde{L}(\alpha)= \sum_{i=1}^{n} \alpha_i - \frac{1}{2} \sum_{i,j}\alpha_i\alpha_j y_i y_j k(x_i,x_j)  \, per qualsevol  0 \le \alpha_i \le C \,; \, \sum_{i=1}^{n} \alpha_iy_i =0 .

El principal avantatge d'una funció de penalització lineal és que les variables desapareixen del problema, la constant C que apareix només és una restricció addicional sobre els multiplicadors de Lagrange. Per a la formulació anterior i el seu gran impacte en la pràctica, Cortés i Vapnik rebre el premi ACM Paris Kanellakis 2008. Les funcions de penalització no lineals s'utilitzen per reduir l'efecte dels valors extrems en el classificador, però si no es va amb compte, és considerablement més difícil trobar una solució global.

Tipus de funcions de nucli (kernel)[modifica | modifica el codi]

Lineal K_{lin}(x_{i}) = a \cdot x_{k}
Polinòmic K_{poly}(x_1,x_2)=(sx_1^T x_2 + r)^d
RBF K_{RBF}=exp(-\gamma |x_i - x_j| ^2 )
Sigmoid (per completar)

SVM Lineal[modifica | modifica el codi]

Hiperplà de màxim marge
Hiperplà màxim marge i els espais per a un SVM entrenat amb mostres de dues classes. Les mostres al marge s'anomenen els vectors de suport.

Donades unes dades d'entrenament, un conjunt de n punts \mathcal{D}, de la forma:

\mathcal{D} = \left\{ (\mathbf{x}_i, y_i)\mid\mathbf{x}_i \in \mathbb{R}^p,\, y_i \in \{-1,1\}\right\}_{i=1}^n

a on yi pot prendre els valors 1 o −1, indicant la classe a la qual pertany el punt \mathbf{x}_i . Cadascun  \mathbf{x}_i és un vector de p-dimensions real. Volem trobar el hiperplà que divideix els punts a l'espai en dues regions, una amb el conjunt y_i=1 i l'altre amb y_i=-1 en el qual el marge del pla al punt més proper del subconjunt sigui màxim. Qualsevol hiperplà pot esser denotat com un conjunt de punts \mathbf{x} satisfent: \mathbf{w}\cdot\mathbf{x} - b=0,\, on \cdot denota el producte escalar i {\mathbf{w}} el vector normal a l'hiperplà. El paràmetre \tfrac{b}{\|\mathbf{w}\|} determina el desplaçament del mateix hiperplà des de l'origen de coordenades al llarg del vector normal {\mathbf{w}}.

Volem escollir {\mathbf{w}} i b per tal de maximitzar la distància entre els hiperplàns paralels que separen els conjunts de dades. Aquests plànols descriuem com:

\mathbf{w}\cdot\mathbf{x} - b=1\,

i

\mathbf{w}\cdot\mathbf{x} - b=-1.\,

Si les dades d'entrenament són linealment separables, podem seleccionar dos hiperplans en els quals en el marge entre ells no existeixi cap punt del conjunt d'entrenament, i intentar maximitzar la seva distància. Geomètricament, la distància entre aquests dos hiperplans serà \tfrac{2}{\|\mathbf{w}\|} Per tant, volem minimitzar \|\mathbf{w}\|. Perquè els punts del conjunt no estiguin al marge entre els dos hiperplans, afegim la restricció i per cadascins d'ells:

\mathbf{w}\cdot\mathbf{x}_i - b \ge 1\qquad\text{ per }\mathbf{x}_i els punts de la primera classe

o

\mathbf{w}\cdot\mathbf{x}_i - b \le -1\qquad\text{ per }\mathbf{x}_i els punts de la segona classe.

Reescrivim la formulació com:

y_i(\mathbf{w}\cdot\mathbf{x}_i - b) \ge 1, \quad \text{ per a tots } 1 \le i \le n.\qquad\qquad(1)

Agrupem les dades per trobar el nostre problema d'optimització: Minimitzar (en {\mathbf{w},b})

\|\mathbf{w}\|

subjecte a (per qualsevol i = 1, \dots, n)

y_i(\mathbf{w}\cdot\mathbf{x_i} - b) \ge 1. \,

Forma Primària[modifica | modifica el codi]

El problema d'optimització és difícil de resoldre, ja que depèn de \|\mathbf{w}\|, que consisteix en una arrel quadrada. Afortunadament, és possible alterar l'equació substituint \|\mathbf{w}\| per \frac{1}{2}\|\mathbf{w}\|^2 (el factor de 1/2 s'utilitza per conveniència matemàtica) sense canviar la solució. Aquest problema d'optimització s'anomena programació quadràtica.

Més clarament: \arg min_{w,b} \frac{1}{2}\|\mathbf{w}\|^2 per qualsevol i=1,...,n y_i(\mathbf{w}\cdot\mathbf{x_i} - b) \ge 1. \, .

Mitjançant la introducció de multiplicadors de Lagrange  \alpha , el problema restringit anterior es pot expressar com \arg min_{w,b} max_{\alpha \ge 0} \{ \frac{1}{2}\|\mathbf{w}\|^2 - \sum_{i=1}^{n} \alpha_i [y_i(\mathbf{w} \cdot x_i - b) - 1 ] \}. D'aquesta manera tots els punts que es poden separar com y_i(\mathbf{w}\cdot\mathbf{x_i} - b) \ge 1. \, no m'importa hem d'establir el corresponent \alpha a zero.

Actualment aquest problema pot ser resolt mitjançant tècniques de programació quadràtica estàndard i programes. La condició estacionària de Karush-Kuhn-Tucker implica que la solució es pot expressar com una combinació lineal dels vectors d'entrenament  \mathbf{w} = \sum_{i=1}^{n} \alpha_i y_i x_i.

Llavors només algunes \alpha_I seran més grans que zero. X_I són els vectors de suport, que es troben al marge i satisfan y_i(\mathbf{w}\cdot\mathbf{x_i} - b) = 1. \, . D'aquesta manera es deriva que els vectors de suport també satisfan  \mathbf{w} \cdot x_i -b = 1/y_i = y_i \iff b=\mathbf{w} \cdot x_i-y_i que permet definir el desplaçament b. A la pràctica, és més robust calcular b, sobre tots vectors de suport Nsv:

 b= \frac{1}{Nsv} \sum_{i=1}^{Nsv} (\mathbf{w} \cdot x_i-y_i)


Forma Dual[modifica | modifica el codi]

La regla de classificació en la seva forma doble sense restriccions revela el marge màxim de l'hiperplà i per tant la tasca de classificació és només una funció dels vectors de suport, que són el subconjunt de les dades d'entrenament que es troben al marge. Utilitzant que \|\mathbf{w}\|^2 = w \cdot w i subtituint  \mathbf{w} = \sum_{i=1}^{n} \alpha_i y_i x_i \, es pot mostrar que el doble de la SVM es redueix al següent problema d'optimització:


 \tilde{L}(\alpha)= \sum_{i=1}^{n} \alpha_i - \frac{1}{2} \sum_{i,j}\alpha_i\alpha_j y_i y_j x_i^Tx_j = \sum_{i=1}^{n} \alpha_i - \frac{1}{2} \sum_{i,j}\alpha_i\alpha_j y_i y_j k(x_i,x_j)  \, per a  \alpha_i \ge 0 \, i per restricció de la minimització en b  \sum_{i=1}^{n} \alpha_i y_i = 0 \, . Aquí el nucli està definit per  k(x_i.,x_j)=x_i \cdot x_j \, . W es pot calcular gràcies al terme  \alpha :  \mathbf{w} = \sum_{i} \alpha_i y_i x_i.


Hiperplans parcials i imparcials[modifica | modifica el codi]

Per raons de simplicitat, de vegades es requereix que l'hiperplà passi a través de l'origen de coordenades. Tals hiperplans es diuen imparcials, mentre que hiperplans generals no necessàriament passen per l'origen es diuen parcials. Un hiperplà imparcial pot ser executat ficant b = 0 en el problema d'optimització primal.  \mathbf{w} = \sum_{i=1}^{n} \alpha_i y_i = 0.

Classificació No Lineal[modifica | modifica el codi]

L'algoritme d'hiperplà òptim original proposat per Vapnik l'any 1963 va ser un classificador lineal. No obstant això, l'any 1992, en Bernhard E. Boser, la Isabelle M. Guyon i en Vladimir N. Vapnik van suggerir una manera de crear classificadors no-lineals aplicant el kernel trick (originalment proposat per en Mark A. Aizerman)[4] a hiperplans de marge màxim.[5] L'algoritme resultant és similar, excepte que cada producte escalar és reemplaçat per una funció kernel no-lineal. Això permet a l'algoritme adaptar l'hiperplà de marge màxim en un espai de característiques transformat. La transformació pot ser no-lineal i l'espai transformat, d'alta dimensió; encara que el classificador és un hiperplà en l'espai de característiques d'alta dimensió, pot ser no-lineal en l'espai d'entrada original.

Si el kernel usat és una RNA de base radial Gaussiana, el corresponent espai de característiques és un espai Hilbert de dimensions infinites. Els classificadors de marge màxim estan ben regularitzats, pel qual les dimensions infinites no espatllen els resultats. Alguns kernels comuns:

  • Polinomial (homogeni):  k(x_i,x_j) = (x_i \cdot x_j)^d
  • Polinomial (heterogeni):  k(x_i,x_j)= (x_i \cdot x_j + 1)^d
  • RNA de base radial Gaussiana:  k(x_i,x_j) = \exp(-\gamma \|x_i - x_j \|^2) per a  \gamma > 0 . A vegades, parametritzat usant  \gamma = 1/(2\sigma )^2
  • Tangent hiperbòlica: k(x_i,x_j) = \tanh(\kappa x_i \cdot x_j + c)  per a algún (no cada)  \kappa > 0 i  c < 0 .

El kernel està relacionat a la transformació  \phi(x_i a partir de l'equació  k(x_i,x_j) = \phi(x_i ) \cdot \phi(x_j) . El valor w està també en l'espai transformat, amb  w = \sum_i \alpha_i y_i \phi(x_i) . Els productes escalars amb w per classificació poden, un altre cop, ser computats pel kernel trick, per exemple  w \cdot \phi(x) = \sum_i \alpha_i y_i k(x_i,x) . Però, en general, no existeix un valor w' tal que  w \cdot \phi(x) = k(w',x) .

Propietats[modifica | modifica el codi]

Els SVMs pertanyen a una família de classificadors lineals generalitzats i poden ser interpretats com a una extensió del perceptró. Poden ser també considerats un cas especial de Regularització de Tíjonov. Una propietat especial és que simultàniament minimitzen l'error de classificació empíric i maximitzen el marge geomètric; de manera que també són coneguts com a classificadors de marge màxim.

Selecció de paràmetres[modifica | modifica el codi]

L'efectivitat de SVM depèn de la selecció del kernel, els seus paràmetres i el paràmetre de marge suau C.

Una elecció típica és un kernel Gaussià, el qual té un sol paràmetre γ . La millor combinació de C i γ és sovint seleccionada per a una cerca a la xarxa amb seqüències de creixement exponencial de C i γ, per exemple,  C \isin \{2^{-5},2^{-3}, ..., 2^{13},2^{15} \}; \gamma \isin \{2^{-15},2^{-13}, ..., 2^{1},2^{3} \}

Típicament, cada combinació d'opcions de paràmetres es comprova fent servir la validació creuada, i els paràmetres amb la millor precisió són els escollits. El model final, que es fa servir per la prova i classificació de les noves dades, és aleshores entrenada en tot el conjunt d'entrenament fent servir els paràmetres seleccionats.[6]

Desventatges[modifica | modifica el codi]

Possibles desavantatges de SVM:

  • Probabilitat de pertinença de classes sense calibrar.
  • SVM és només directament aplicable a tasques de classe dos. Per tant, s'han d'aplicar els algoritmes que redueixen la tasca de classe-múltiple a diversos problemes binaris.
  • Els paràmetres d'un model resolt són difícils d'interpretar.

Extensions[modifica | modifica el codi]

SVM multiclasse[modifica | modifica el codi]

SVM multiclasse pretén assignar etiquetes a instàncies fent servir màquines de vectors de suport, on les etiquetes s'extreuen d'un conjunt finit de diversos elements.

L'enfocament dominant per fer això és reduir el problema multiclasse únic en varis de classificació binària.[7][8] Mètodes habituals per tal reducció inclouen:

  • Construir classificadors binaris que distingeixin entre una de les etiquetes i la resta (“una contra totes”) o entre cada parell de classes (“una contra una”). La classificació de noves instàncies, pel cas de “una contra totes”, la fa l'estratègia “el guanyador s'ho emporta tot”, en la que el classificador amb la funció de sortida més alta assigna la classe (és important que les funcions de sortida siguin calibrades per produir resultats comparables). Per l'aproximació “una contra una”, la classificació la fa l'estratègia de vots del “màxim de victòries”, en la qual cada classificador assigna la instància a una de les dues classes, aleshores, el vot per la classe assignada s'incrementa en un. Finalment, la classe amb més vots determina la classificació d'instància.
  • Graf Acíclic Dirigit SVM (DAGSVM)[9]
  • Codis de sortida de correcció d'error.[10]

Crammer i Singer van proposar un mètode SVM multiclasse que transforma el problema de classificació multiclasse en un únic problema d'optimització, en lloc de descompondre'l en múltiples problemes de classificació binària.[11]

Màquines transductives de vectors de suport[modifica | modifica el codi]

Les màquines transductives de vectors de suport s'estenen a SVMs en què poden, a més, tractar parcialment les dades etiquetades en un aprenentatge semisupervisat seguint els principis de la transducció. Aquí, a més del conjunt d'entrenament  \mathcal{D} , l'aprenent també és donat a un conjunt d'exemples d'assaig per a ser classificat.  \mathcal{D}^{\star}= \{ x_i^{\star} |x_i^{\star} \isin \mathbb{R}^p \}_{i=1}^k  . Formalment, una màquina transductiva de vectors de suport es defineix pel següent problema d'optimització primari:[12]

Minimitzar (a w, b, y*)  \frac{1}{2} \| w \|^2 subjecte a (per qualsevol  i=1,...1n i qualsevol  j=1,...,k )

 y_i (w \cdot x_i - b) \ge 1, y_j^{\star} (w \cdot x_j^{\star} - b) \ge 1, y_j^{\star} \isin \{ -1,1 \}

Les màquines transductives de vectors de suport van ser introduïdes per en Vladimir N. Vapnik el 1998.

SVM estructurat[modifica | modifica el codi]

Els SVMs han estat generalitzats a SVMs estructurats, on l'espai de l'etiqueta és estructurat i de possible mida infinita.

Regressió[modifica | modifica el codi]

Una versió de SVM per regressió va ser proposada l'any 1996 per en Vladimir N. Vapnik, en Harris Drucker, en Christopher J.C.Burges, la Linda Kaufman i l'Alexander J.Smola. Aquest mètode s'anomena Regressió de vectors de suport (SVR). El model produït per la classificació de vectors de suport depèn únicament d'un subconjunt de dades d'entrenament, perquè la funció de cost per construir el model no es preocupa pels punts d'entrenament que es troben més enllà del marge. Anàlogament, el model produït per SVR depèn només, també, d'un subconjunt de dades d'entrenament, perquè la funció de cost per construir el model ignora qualsevol dada d'entrenament propera al model de predicció (dins d'un llindar ). Una altra versió de SVM coneguda com a màquina de vectors de suport de mínims quadrats (LS-SVM) ha estat proposada per en Suykens i en Vandewalle.

Implementació[modifica | modifica el codi]

Els paràmetres de l'hiperplà de màxim marge es deriven de la resolució de l'optimització. Hi ha diversos algorismes especialitzats per resoldre ràpidament el problema de programació quadràtica que sorgeix de la SVM. Majoritàriament depenen de l'heurística per trencar el problema en segments més petits i manejables. Un mètode comú és l'optimització mínima seqüencial de Platt[13] (SMO algorithm en anglès), que descompon el problema en subproblemes de dues dimensions que es poden resoldre analíticament, eliminant la necessitat d'un algorisme d'optimització numèrica. Un altre enfocament és utilitzar un mètode de punt interior que utilitza iteracions de Newton, com per trobar una solució de les condicions Karush-Kuhn-Tucker dels problemes primal i dual.[14] En lloc de resoldre una seqüència de problemes aquest enfocament directament resol el problema en el seu conjunt, sense necessitat de fer subproblemes.

Aplicacions[modifica | modifica el codi]

SVM es poden utilitzar per resoldre diversos problemes del món real:

  • SVM són útils en la categorització de text i hipertext. La seva aplicació pot reduir significativament la necessitat d'instàncies de formació d'etiquetes en la configuració inductiva i transductiva estàndard.
  • La classificació d'imatges també es pot fer mitjançant SVM. ELs resultats experimentals mostren que els SVM aconsegueixen significativament major precisió de la recerca d'esquemes tradicionals de refinament de consulta després de tan sols trea o quatre rondes de retroalimentació pertinent (Validació Creuada).
  • SVM són útils també en la medicina, per classificar les proteïnes amb un màxim del 90% dels compostos classificats correctament.
  • Els caràcters escrits a mà poden ser reconeguts gràcies als SVM.

Referències[modifica | modifica el codi]

  1. Corinna Cortes and V. Vapnik, "Support-Vector Networks", Machine Learning, 20, 1995. http://www.springerlink.com/content/k238jx04hm87j80g/
  2. Press, WH; Teukolsky, SA; Vetterling, WT [et al]. «Section 16.5. Support Vector Machines». A: Numerical Recipes: The Art of Scientific Computing. 3a ed.. New York: Cambridge University Press, 2007. ISBN 978-0-521-88068-8. 
  3. Support vector machines: The linearly separable case, Cambridge Univerity Press, 2008. http://nlp.stanford.edu/IR-book/html/htmledition/support-vector-machines-the-linearly-separable-case-1.html
  4. Aizerman, Mark A.; Braverman, Emmanuel M.; and Rozonoer, Lev I. (1964). "Theoretical foundations of the potential function method in pattern recognition learning". Automation and Remote Control 25: 821–837.
  5. Boser, Bernhard E.; Guyon, Isabelle M.; and Vapnik, Vladimir N.; A training algorithm for optimal margin classifiers. In Haussler, David (editor); 5th Annual ACM Workshop on COLT, pages 144–152, Pittsburgh, PA, 1992. ACM Press
  6. Hsu, Chih-Wei; Chang, Chih-Chung; and Lin, Chih-Jen (2003).A Practical Guide to Support Vector Classification (Technical report). Department of Computer Science and Information Engineering, National Taiwan University.
  7. Duan, Kai-Bo; and Keerthi, S. Sathiya (2005). "Which Is the Best Multiclass SVM Method? An Empirical Study". Proceedings of the Sixth International Workshop on Multiple Classifier Systems. Lecture Notes in Computer Science 3541: 278. doi:10.1007/11494683_28. ISBN 978-3-540-26306-7.
  8. Hsu, Chih-Wei; and Lin, Chih-Jen (2002). "A Comparison of Methods for Multiclass Support Vector Machines". IEEE Transactions on Neural Networks.
  9. Platt, John; Cristianini, N.; and Shawe-Taylor, J. (2000)."Large margin DAGs for multiclass classification". In Solla, Sara A.; Leen, Todd K.; and Müller, Klaus-Robert; eds. Advances in Neural Information Processing Systems. MIT Press. pp. 547–553.
  10. Dietterich, Thomas G.; and Bakiri, Ghulum; Bakiri (1995). "Solving Multiclass Learning Problems via Error-Correcting Output Codes". Journal of Artificial Intelligence Research, Vol. 2 2: 263–286. arXiv:cs/9501101. Bibcode:1995cs........1101D.
  11. Crammer, Koby; and Singer, Yoram (2001)."On the Algorithmic Implementation of Multiclass Kernel-based Vector Machines". J. of Machine Learning Research 2: 265–292.
  12. Joachims, Thorsten; "Transductive Inference for Text Classification using Support Vector Machines", Proceedings of the 1999 International Conference on Machine Learning (ICML 1999), pp. 200-209.
  13. C. Platt, John. «Using Analytic QP and Sparseness to Speed Training of Support Vector Machines» (en anglès). http://research.microsoft.com/.&#32;[Consulta: 20 novembre 2013].
  14. Ferris, Michael C; Munson, Todd S. «Interior-point methods for massive support vector machines» (en anglès) p. 783–804. 3 Society for Industrial and Applied Mathematics, 2002. [Consulta: 20 novembre 2013].

Enllaços externs[modifica | modifica el codi]

  • www.kernel-machines.org: Informació general i col·lecció de recerca sobre SVM
  • www.support-vector-machines.org: (Literatura, Revisions, Software i Enllaços sobre màquines SVM - Lloc orientat a l'aprenentatge academic)
  • "Vídeo": Animació de SVM amb nucli polinòmic
  • "Document PDF": Un tutorial per iniciar-se a les màquines SVM per Tristan Fletcher.
  • "LIBSVM": "Llibreria per a la implementació de sistemes SVM, escrita en C i fortament acceptada per la comunitat" - Escrita per Chih-Chung Chang i Chih-Jen Lin