Vés al contingut

Funcions de pèrdua per a la classificació

De la Viquipèdia, l'enciclopèdia lliure
(Vermell) estàndard Pèrdua logística () i (Blau) augment del marge Pèrdua logística (

En l'aprenentatge automàtic i l'optimització matemàtica, les funcions de pèrdua per a la classificació són funcions de pèrdua computacionalment factibles que representen el preu pagat per la imprecisió de les prediccions en problemes de classificació (problemes per identificar a quina categoria pertany una observació particular).[1] Donat com l'espai de totes les entrades possibles (normalment ), i com el conjunt d'etiquetes (sortides possibles), un objectiu típic dels algorismes de classificació és trobar una funció que prediu millor una etiqueta per a una entrada determinada .[2] Tanmateix, a causa de la informació incompleta, el soroll en la mesura o els components probabilístics en el procés subjacent, és possible que el mateix per generar diferents .[3] Com a resultat, l'objectiu del problema d'aprenentatge és minimitzar la pèrdua esperada (també coneguda com a risc), definida com:

on és una funció de pèrdua donada, i és la funció de densitat de probabilitat del procés que ha generat les dades, que de manera equivalent es pot escriure com:

Dins de la classificació, diverses funcions de pèrdua d'ús habitual s'escriuen únicament en termes del producte de l'etiqueta veritable i l'etiqueta prevista . Per tant, es poden definir com a funcions d'una sola variable , i que amb una funció adequadament escollida . Aquestes s'anomenen funcions de pèrdua basades en marges. Escollir una funció de pèrdua basada en el marge equival a triar . La selecció d'una funció de pèrdua en aquest marc afecta l'òptima que minimitza el risc esperat.

Exemples: [4]

Nom de la pèrdua
Exponencial
Logística
Quadrat
Salvatge
Tangent

Referències[modifica]

  1. Rosasco, L.; De Vito, E. D.; Caponnetto, A.; Piana, M.; Verri, A. Neural Computation, 16, 5, 2004, pàg. 1063–1076. DOI: 10.1162/089976604773135104. PMID: 15070510.
  2. Shen, Yi (2005), Loss Functions For Binary Classification and Class Probability Estimation, <http://stat.wharton.upenn.edu/~buja/PAPERS/yi-shen-dissertation.pdf>. Consulta: 6 December 2014
  3. Rosasco, Lorenzo & Poggio, Tomaso (2014), A Regularization Tour of Machine Learning, vol. Manuscript
  4. Brownlee, Jason. «How to Choose Loss Functions When Training Deep Learning Neural Networks» (en anglès). https://machinelearningmastery.com,+29-01-2019.+[Consulta: 3 novembre 2022].