Adaptació de dominis

De la Viquipèdia, l'enciclopèdia lliure
Distinció entre la configuració habitual d'aprenentatge automàtic i l'aprenentatge de transferència, i el posicionament de l'adaptació del domini

L'adaptació de dominis [1][2][3] és un camp associat amb l'aprenentatge automàtic i l'aprenentatge per transferència. Aquest escenari sorgeix quan pretenem aprendre d'una distribució de dades font un model de bon rendiment en una distribució de dades objectiu diferent (però relacionada). Per exemple, una de les tasques del problema comú del filtratge de correu brossa consisteix a adaptar un model d'un usuari (la distribució d'origen) a un nou usuari que rep correus electrònics significativament diferents (la distribució de destinació). També s'ha demostrat que l'adaptació del domini és beneficiosa per aprendre fonts no relacionades. Tingueu en compte que, quan hi ha més d'una distribució d'origen disponible, el problema s'anomena adaptació de domini multifont.[4]

Visió general[modifica]

L'adaptació de domini és la capacitat d'aplicar un algorisme entrenat en un o més "dominis font" a un "domini objectiu" diferent (però relacionat). L'adaptació de dominis és una subcategoria de l'aprenentatge per transferència. En l'adaptació de dominis, els dominis d'origen i de destinació tenen tots el mateix espai de característiques (però distribucions diferents); en canvi, l'aprenentatge de transferència inclou casos en què l'espai de característiques del domini objectiu és diferent de l'espai o espais de característiques d'origen.[5]

Canvi de domini[modifica]

Un canvi de domini, o canvi de distribució, és un canvi en la distribució de dades entre el conjunt de dades d'entrenament d'un algorisme i un conjunt de dades que troba quan es desplega. Aquests canvis de domini són habituals en aplicacions pràctiques de la intel·ligència artificial. Els algorismes convencionals d'aprenentatge automàtic sovint s'adapten malament als canvis de domini. La comunitat moderna d'aprenentatge automàtic té moltes estratègies diferents per intentar aconseguir una millor adaptació del domini.

Exemples[modifica]

  • És possible que un algorisme entrenat en els cables de notícies s'hagi d'adaptar a un nou conjunt de dades de documents biomèdics.
  • Un filtre de correu brossa, entrenat en un determinat grup d'usuaris de correu electrònic durant la formació, s'ha d'adaptar a un nou usuari objectiu quan es desplega.
  • Aplicació d'algoritmes de diagnòstic d'IA, entrenats amb dades etiquetades associades a malalties anteriors, a noves dades sense etiquetar associades a la pandèmia de la COVID-19.
  • Un canvi social sobtat, com un brot pandèmic, pot constituir un canvi de domini i provocar que els algorismes d'aprenentatge automàtic formats amb dades de consumidors ara obsoletes fallin i requereixin intervenció.

Altres aplicacions inclouen la detecció de localització wifi i molts aspectes de la visió per ordinador.[6]

Quatre principis algorísmics[modifica]

Algorismes de reponderació[modifica]

L'objectiu és tornar a ponderar la mostra etiquetada com a font de manera que "sembli" la mostra objectiu (en termes de la mesura d'error considerada).[7][8]

Algorismes iteratius[modifica]

Un mètode d'adaptació consisteix a "etiquetar automàticament" de manera iterativa els exemples objectiu.[9] El principi és senzill:

  1. un model s'aprèn dels exemples etiquetats;
  2. etiqueta automàticament alguns exemples de destinació;
  3. un nou model s'aprèn dels nous exemples etiquetats.

Cal tenir en compte que existeixen altres enfocaments iteratius, però normalment necessiten exemples etiquetats com a objectiu.[10]

Referències[modifica]

  1. Redko, Ievgen. Advances in Domain Adaptation Theory (en anglès). ISTE Press - Elsevier, 2019, p. 187. ISBN 9781785482366. 
  2. Bridle, John S. «RecNorm: Simultaneous normalisation and classification applied to speech recognition». A: Conference on Neural Information Processing Systems (NIPS) (en anglès), 1990, p. 234–240. 
  3. Ben-David, Shai; Blitzer, John; Crammer, Koby; Kulesza, Alex; Pereira, Fernando Machine Learning, 79, 1–2, 2010, pàg. 151–175. DOI: 10.1007/s10994-009-5152-4 [Consulta: lliure].
  4. Crammer, Koby; Kearns, Michael; Wortman, Jeniifer Journal of Machine Learning Research, 9, 2008, pàg. 1757–1774.
  5. Sun, Shiliang; Shi, Honglei; Wu, Yuanbin Information Fusion, 24, July 2015, pàg. 84–92. DOI: 10.1016/j.inffus.2014.12.003.
  6. Sun, Shiliang; Shi, Honglei; Wu, Yuanbin Information Fusion, 24, July 2015, pàg. 84–92. DOI: 10.1016/j.inffus.2014.12.003.
  7. Huang, Jiayuan. «Correcting Sample Selection Bias by Unlabeled Data». A: Conference on Neural Information Processing Systems (NIPS) (en anglès), 2006, p. 601–608. 
  8. Shimodaira, Hidetoshi Journal of Statistical Planning and Inference, 90, 2, 2000, pàg. 227–244. DOI: 10.1016/S0378-3758(00)00115-4.
  9. Gallego, A.J.; Calvo-Zaragoza, J.; Fisher, R.B. IEEE Transactions on Neural Networks and Learning Systems, PP, 11, 2020, pàg. 4864–4878. DOI: 10.1109/TNNLS.2020.3025954. PMID: 33027004.
  10. Arief-Ang, I.B.; Hamilton, M.; Salim, F.D. ACM Transactions on Sensor Networks, 14, 3–4, 01-12-2018, pàg. 21:1–21:28. DOI: 10.1145/3217214.