Perceptró multicapa

De la Viquipèdia, l'enciclopèdia lliure
Fig. 1 Esquema d'un perceptor multicapa amb 2 capes ocultes

Un perceptró multicapa (amb acrònim MLP) és un tipus de xarxa neuronal artificial de classe directa. Una MLP consisteix, almenys, de tres capes de nodes : una capa d'entrada, una capa oculta i una capa de sortida. Excepte pel mode d'entrada, cada node empra una funció d'activació no lineal, la qual cosa permet de classificar conjunts de dades que no estan separats linealment. Es distingeixen del perceptró que només tenen una capa oculta i funció lineal. MLP utilitza una tècnica d'aprenentatge supervisat anomenada backpropagation (retropropagació).[1][2][3]

Propietats[modifica]

Les capes es poden classificar en tres tipus: [4]

  • Capa d'entrada: Constituida por aquelles neurones que introdueixen els patrons d'entrada a la xarxa. En aquestes neurones no es realitza processament.
  • Capes ocultes: Formada por aquelles neurones les entrades de les quals provenen de capes anteriors i amb sortides que passen a neurones de capes posteriors.
  • Capa de sortida: Neurones les sortides de les quals es corresponen amb les sortides de tota la xarxa.

L'aprenentatge es realitza amb backpropagation (propagació cap endarrere (també conegut amb retropropagació de l'error o regla delta generalitzada), és un algorismo emprat en l'entrenament d'aquestes xarxes.

Funció d'activació : si un perceptró multicapa té una funció d'activació lineal a totes les neurones, llavors la teoria de l'algebra lineal ens demostra que aquesta MLP es pot reduir a una xarxa de 2 capes ocultes. Les funcions d'activació no linelas més típiques són de tipus sigmoide :

La primera és la funció hiperbòlica i la segona és la funció lògica.

Procés d'apenentatge : es realitza tot canviant els valors dels pesos o coeficients de cada node, basats en la quantitat de l'error de la sortida respecte el resultat esperat. El procés es dir backpropagation i és una generalització de l'algorisme LMS :

Si l'error és :

llavors emprant el concepte de gradient descendent (derivada), el canvi que cal aplicar a cada pes o coeficient és : Nota : les funcions d'activació han de ser derivables.

Referències[modifica]

  1. «Perceptrons and Neural Networks» (en anglès). https://www.cs.cmu.edu.+[Consulta: 9 novembre 2018].
  2. «Multilayer Perceptron — DeepLearning 0.1 documentation» (en anglès). http://deeplearning.net.+Arxivat de l'original el 2018-11-27. [Consulta: 9 novembre 2018].
  3. «A Beginner's Guide to Multilayer Perceptrons (MLP)». Skymind, 09-11-2018.
  4. «Crash Course On Multi-Layer Perceptron Neural Networks» (en anglès). Machine Learning Mastery, 16-05-2016.

Vegeu també[modifica]