DeepFace

De la Viquipèdia, l'enciclopèdia lliure

DeepFace és un sistema de reconeixement facial d'aprenentatge profund o "deep learning" creat per un grup de recerca de Facebook, Inc.. Identifica rostres humans en imatges digitals. El programa utilitza una xarxa neuronal de nou capes amb més de 120 milions de punts de connexió i es va entrenant en quatre milions d'imatges penjades pels usuaris de Facebook.[1][2]

L'equip de recerca de Facebook ha afirmat que el mètode DeepFace aconsegueix una precisió del 97,35% ± 0,25% en el conjunt de dades Labeled Faces in the Wild (LFW) on els éssers humans tenen un 97,53%[3] Això vol dir que DeepFace de vegades té més èxit que els éssers humans. Com a resultat de les creixents preocupacions de la societat, Meta va anunciar[4] que té previst tancar el sistema de reconeixement facial de Facebook, que elimina les dades d'exploració facial de més de mil milions d'usuaris[5] Aquest canvi representarà un dels canvis més grans en l'ús del reconeixement facial en la història de la tecnologia. Facebook tenia previst eliminar el desembre de 2021 més de mil milions de plantilles de reconeixement facial, que són escanejos digitals de trets facials. Tanmateix, no tenia previst eliminar DeepFace, que és el programari que impulsa el sistema de reconeixement facial. L'empresa tampoc ha descartat incorporar la tecnologia de reconeixement facial als futurs productes, segons el portaveu de Meta.[5]

Llançament comercial[modifica]

Origen[modifica]

DeepFace va ser produït per una col·lecció de científics de l'equip de recerca de la intel·ligència artificial de Facebook. L'equip inclou Yainiv Taigman i un científic investigador de Facebook, Ming Yang. També se'ls va unir Lior Wolf, un professor de la Universitat de Tel Aviv. Yaniv Taigman, va arribar a Facebook quan Facebook va adquirir Face.com el 2007.

Facebook va començar a desplegar DeepFace als seus usuaris a principis de 2015 i ha ampliat contínuament l'ús i el programari de DeepFace[6] DeepFace, segons el director de la investigació sobre intel·ligència artificial de Facebook, Inc., no pretén envair la privadesa dels individus. En canvi, DeepFace alerta les persones quan la seva cara apareix a qualsevol foto publicada a Facebook. Quan reben aquesta notificació, tenen l'opció d'eliminar la seva cara de la foto.[6]

Unió Europea[modifica]

Quan la tecnologia DeepFace es va implementar inicialment, els usuaris tenien l'opció de desactivar-la. Tanmateix, no se'ls va notificar que estava activat.[7] Per això, DeepFace no es va llançar a la Unió Europea. Una llei de privadesa de dades a la UE argumentava que el reconeixement facial de Facebook no complia les lleis de protecció de dades de la UE. Com que els usuaris no accepten tots els usos de les seves dades biomètriques, no ho compleix.[8]

Precisió[modifica]

Els sistemes DeepFace poden identificar cares amb un 97% de precisió, gairebé la mateixa precisió que un humà en la mateixa posició. El reconeixement facial de Facebook és més eficaç que la tecnologia de l'FBI, que té un 85% de precisió [9] La tecnologia de Google FaceNet té més èxit que DeepFace utilitzant els mateixos conjunts de dades. FaceNet va establir un rècord de precisió, 99,63%. FaceNet de Google incorpora dades de Google Photos.[10]

Aplicacions[modifica]

Facebook fa servir plantilles de reconeixement facial individuals per trobar les fotos en què es troba una persona perquè pugui revisar, participar o compartir el contingut. DeepFace protegeix les persones de la suplantació d'identitat o el robatori d'identitat. Prenguem, per exemple, un cas en què una persona feia servir la foto de perfil d'algú com a pròpia. Mitjançant DeepFace, Facebook pot identificar i alertar la persona l'informació de la qual s'està fent un ús indegut.[11] Per garantir que les persones tinguin control sobre el seu reconeixement facial, Facebook no comparteix plantilles facials. A més, Facebook eliminarà imatges de les plantilles de reconeixement facial si algú ha suprimit el seu compte o s'ha desmarcat d'una foto. Les persones també tenen la possibilitat de desactivar el seu reconeixement facial a Facebook. Si la funció està desactivada, Facebook deixarà el reconeixement facial d'aquesta persona.

Després del llançament de DeepFace el 2015, els seus usos s'han mantingut força estancats. Com que més persones han penjat imatges a Facebook, l'algoritme s'ha fet més precís. DeepFace de Facebook és el conjunt de dades de reconeixement facial més gran que existeix actualment. Per això, algunes persones argumenten que la base de dades d'identificació facial de Facebook es podria distribuir a les agències governamentals.[12] Aquests usos, però, estarien prohibits per la majoria de les lleis de privadesa de dades. En resposta a les preocupacions de privadesa, Facebook va eliminar la seva funció de reconeixement facial automàtic, permetent que les persones optin per etiquetar a través de DeepFace. Aquest canvi es va implementar el 2019.

Arquitectura[modifica]

El sistema DeepFace consta de quatre mòduls: alineació 2D, alineació 3D, frontalització i xarxa neuronal. Una imatge d'una cara es fa passar per ells en seqüència, donant lloc a un aprenentatge automàtic del vector de les característiques de 4096 dimensions que representa la cara. El vector de característiques es pot processar posteriorment per a moltes tasques diferents. Per exemple, per identificar la cara, es pot comparar amb una llista de vectors de característiques de cares conegudes i identificar la cara amb el vector de característiques més semblant. DeepFace utilitza detectors de punts fiducials basats en bases de dades existents per dirigir l'alineació de les cares. L'alineació facial comença amb una alineació 2D, i després continua amb l'alineació 3D i la frontalització. És a dir, el procés de DeepFace consta de dos passos. Primer, corregeix els angles d'una imatge perquè la cara de la foto miri cap endavant. Per aconseguir-ho, utilitza un model 3D d'una cara.[13]

Alineació 2D[modifica]

El mòdul d'alineació 2D detecta 6 punts fiducials a la cara detectada: el centre dels ulls, la punta del nas i la ubicació de la boca. Aquests punts es tradueixen a una imatge deformada per ajudar a detectar la cara. Tanmateix, la transformació 2D no compensa les rotacions que estan fora de lloc.

Alineació 3D[modifica]

Per alinear les cares, DeepFace empra un model 3D genèric en què les imatges 2D es retallen com a versions 3D. La imatge 3D té 67 punts fiducials. Després de deformar la imatge, hi ha 67 punts d'ancoratge col·locats manualment a la imatge per coincidir amb els 67 punts fiducials. A continuació, s'instal·la una càmera de 3D a 2D que minimitza les pèrdues. Com que els punts detectats en 3D al contorn de la cara poden ser inexactes, aquest pas és important.

Frontalització[modifica]

Com que les projeccions de perspectiva completa no es modelen, la càmera ajustada és només una aproximació de la cara real de l'individu. Per reduir els errors, DeepFace pretén deformar les imatges 2D amb distorsions més petites. A més, la càmera P és capaç de substituir parts de la imatge i combinar-les amb els seus homòlegs simètrics.

Xarxa neuronal[modifica]

La xarxa neuronal és una seqüència de capes, disposades de la següent manera: capa convolucional - agrupació màxima - capa convolucional - 3 capes connectades localment - capa totalment connectada. L'entrada és una imatge RGB de la cara, escalada a la resolució , i la sortida és un vector real de la dimensió 4096, que és el vector característic de la imatge de la cara. Al document de 2014,[13] s'afegeix una capa addicional completament connectada al final per classificar la imatge de la cara en una de les 4030 persones possibles que la xarxa havia vist durant el temps d'entrenament.

Reaccions[modifica]

Indústria[modifica]

L'investigador d'IA Ben Goertzel va dir que Facebook havia "resolut de manera bastant convincent el reconeixement facial" amb el projecte, però va dir que seria incorrecte concloure que l'aprenentatge profund és la solució completa a la IA.

Neeraj Kumar, investigador de la Universitat de Washington, va dir que DeepFace de Facebook mostra com grans conjunts de dades externes poden donar lloc a un model de "més capacitat". A causa de l'ampli accés de Facebook a imatges d'individus, el seu programari de reconeixement facial pot funcionar millor que altres programes amb conjunts de dades molt més petits.[14][15]

Mitjans[modifica]

Un article del Huffington Post qualifica la tecnologia com "esgarrifosa", citant les preocupacions sobre la privadesa de les dades, va assenyalar que alguns governs europeus ja havien exigit a Facebook que esborrés les dades de reconeixement facial.[16] Segons Broadcasting & Cable, tant Facebook com Google havien estat convidats pel Centre per a la Democràcia Digital per assistir a una "reunió de parts interessades" l'any 2014 per ajudar a desenvolupar una Carta de drets de privadesa del consumidor, però tots dos van rebutjar. Broadcasting & Cable també va assenyalar que Facebook no havia publicat cap anunci de premsa sobre DeepFace, tot i que el seu treball de recerca s'havia publicat a principis de mes. Slate va dir que DeepFace no estava sent publicitada per Facebook perquè desconfia que una altra ronda de titulars denunciïn l'ús "esgarrifós" de DeepFace.

Usuaris[modifica]

Moltes persones temen la tecnologia de reconeixement facial.[17][18] La precisió gairebé perfecta de la tecnologia permet a les empreses de xarxes socials crear perfils digitals de milions de nord-americans[19]

Tanmateix, la por d'un individu al reconeixement facial i altres problemes de privadesa no es correspon amb una disminució de l'ús de les xarxes socials. En canvi, les actituds cap a la configuració de privadesa i privadesa no tenen un gran impacte en la intenció d'una persona d'utilitzar les aplicacions de Facebook.[20][21][22] Com que Facebook és un lloc de xarxes socials, les pors individuals sobre la privadesa se superen pel desig de participar en les xarxes socials.[23]

Problemes de privadesa[modifica]

Demanda BIPA[modifica]

Els usuaris de Facebook van presentar una demanda col·lectiva contra Facebook en virtut de la Llei de privadesa de la informació biomètrica d'Illinois (BIPA).[24] Illinois té la legislació de privadesa biomètrica més completa, que regula la recollida d'informació biomètrica per part d'entitats comercials.[25] La BIPA d'Illinois requereix una empresa que aconsegueix la informació biomètrica d'una persona hagi d'obtenir un comunicat escrit, avisar-los que s'està recopilant la seva informació i indicant la durada de la recopilació de la informació. La demanda presentada contra DeepFace al·lega que la recopilació d'informació d'identificació facial de Facebook amb el propòsit de l'eina de suggeriments d'etiquetes viola la BIPA.[26] Com Facebook ho fa i no avisa ni demana consentiment a les persones quan utilitzen aquesta eina, els usuaris de Facebook argumenten que infringeix la BIPA.[27]

El jutjat va negar la moció de Facebook per desestimar el cas i, finalment, va certificar el cas. Facebook va intentar apel·lar a la certificació de la decisió que finalment es va concedir. Facebook afirma que el cas no s'hauria d'haver verificat perquè els demandants no han al·legat cap dany més enllà de la violació de BIPA per part de Facebook. Facebook va eliminar la seva funció d'etiquetatge de reconeixement facial automàtic el 2019, en resposta a les preocupacions plantejades a la demanda.[28] Facebook va proposar un acord de 550 milions de dòlars pel cas, que va ser rebutjat. Quan Facebook va augmentar la liquidació a 650 milions de dòlars, el tribunal ho va acceptar. Facebook va rebre l'ordre de pagar el seu acord de 650 milions de dòlars a principis de març de 2021. 1,6 milions de residents d'Illinois rebran almenys 345 dòlars.[29]

El juliol de 2020, Facebook va anunciar que està creant equips que estudiaran el racisme als seus algorismes.[30] Els equips de Facebook treballaran amb l'equip d'IA responsable de Facebook per estudiar el biaix dels seus sistemes. La implementació d'aquests programes és recent i encara no està clar quines reformes es faran.[31]

Repte dels deu anys[modifica]

L'any 2019, un repte de Facebook es va fer viral demanant als usuaris que publiquessin una foto de fa 10 anys i una de 2019. El repte es va encunyar com el "repte de fa 10 anys". Més de 5 milions de persones van participar en el repte, incloses moltes celebritats. Va sorgir la preocupació perquè el repte de 10 anys de Facebook estava dissenyat per entrenar la base de dades de reconeixement facial de Facebook. Kate O'Neill, escriptora de Wired, va escriure un article d'opinions que es feia ressò d'aquesta possibilitat.[32] Facebook va negar que hagin tingut un paper en la generació del repte.[33] Tanmateix, les persones han argumentat que les preocupacions que subratllen les teories al voltant del repte dels 10 anys es fan ressò per preocupacions més generals sobre Facebook i el dret a la privadesa.[34]

El racisme en la tecnologia d'identificació facial[modifica]

Els algorismes de reconeixement facial no tenen un èxit universal.[35] Mentre que els algorismes tenen una precisió de classificació de cares superior al 90% en alguns casos, la precisió és menor quan els algorismes es demanen a dones, persones negres i joves[36] Els sistemes identifiquen malament cares negres i asiàtiques de 10 a 100 vegades més que quan treballen amb cares blanques.[37] Ja que els homes blancs són la font principal dels algorismes, els sistemes com DeepFace tenen més dificultats per identificar-los.[38] Es preveu que una vegada que s'entrenin les bases de dades de reconeixement facial per identificar persones de color, per exemple posant-los cares més diverses; tindran més èxit en la identificació.[39]

Referències[modifica]

  1. Facebook creates software that matches faces almost as well as you do. Massachusetts Institute of Technology, 17 març 2014. 
  2. Facebook's DeepFace shows serious facial recognition skills, 19 març 2014. 
  3. «DeepFace: Closing the Gap to Human-Level Performance in Face Verification» (en anglès americà).
  4. Rachel Metz. «Facebook is shutting down its facial recognition software».
  5. 5,0 5,1 ; Mac, Ryan «Facebook, Citing Societal Concerns, Plans to Shut Down Facial Recognition System» (en anglès). The New York Times, 02-11-2021.
  6. 6,0 6,1 Chowdhry, Amit. «Facebook's DeepFace Software Can Match Faces With 97.25% Accuracy» (en anglès).
  7. «Facebook settles facial recognition dispute» (en anglès). BBC News, 30-01-2020.
  8. «Vol 23.1 – Winter 2017 | Journal of Science & Technology Law».
  9. «Facial Recognition Technology: Ensuring Transparency in Government Use — FBI» (en anglès americà).
  10. «Facial recognition: top 7 trends (tech, vendors, markets, use cases & latest news)» (en anglès).
  11. «What is the face recognition setting on Facebook and how does it work? | Facebook Help Center».
  12. Glaser, April. «Facebook's Face-ID Database Could Be the Biggest in the World. Yes, It Should Worry Us.» (en anglès), 09-07-2019.
  13. 13,0 13,1 Taigman, Yaniv; Yang, Ming; Ranzato, Marc'Aurelio; Wolf, Lior. DeepFace: Closing the Gap to Human-Level Performance in Face Verification. IEEE, juny 2014, p. 1701–1708. DOI 10.1109/cvpr.2014.220. ISBN 978-1-4799-5118-5. 
  14. «Facebook Creates Software That Matches Faces Almost as Well as You Do» (en anglès).
  15. Rubinstein, Ira; Good, Nathan «Privacy by Design: A Counterfactual Analysis of Google and Facebook Privacy Incidents». SSRN Electronic Journal, 2012. DOI: 10.2139/ssrn.2128146. ISSN: 1556-5068.
  16. «Facebook's New 'DeepFace' Program Is Just As Creepy As It Sounds» (en anglès), 18-03-2014.
  17. Privacy and identity on Facebook. Bloomsbury Academic, 2017. DOI 10.5040/9781474289153.0014. ISBN 978-1-4742-8912-2. 
  18. Barrett, Lindsey. Ban Facial Recognition Technologies for Children—And for Everyone Else (en anglès), 2020-07-24. 
  19. Huang, Michelle Yan. «Facial recognition is almost perfectly accurate — here's why that could be a problem» (en anglès americà).
  20. Van Der Schyff, Karl; Flowerday, Stephen; Lowry, Paul Benjamin «Information privacy behavior in the use of Facebook apps: A personality-based vulnerability assessment» (en anglès). Heliyon, 6, 8, 01-08-2020, pàg. e04714. DOI: 10.1016/j.heliyon.2020.e04714. ISSN: 2405-8440. PMC: 7452521. PMID: 32904276.
  21. Mathiyalakan, Sathasivam; Heilman, George; Ho, Kevin; Law, Wai «An Examination of the Impact of Gender and Culture on Facebook Privacy and Trust in Guam». Journal of International Technology and Information Management, 27, 1, 01-01-2018, pàg. 29–56. ISSN: 1941-6679.
  22. «Facebook face recognition hits privacy protests». Biometric Technology Today, 2011, 7, juliol 2011, pàg. 1. DOI: 10.1016/s0969-4765(11)70120-5. ISSN: 0969-4765.
  23. Rosenthal, Sonny; Wasenden, Ole-Christian; Gronnevet, Gorm-Andreas; Ling, Rich «A tripartite model of trust in Facebook: acceptance of information personalization, privacy concern, and privacy literacy». Media Psychology, 23, 6, 01-11-2020, pàg. 840–864. DOI: 10.1080/15213269.2019.1648218. ISSN: 1521-3269.
  24. «Power, Pervasiveness and Potential: The Brave New World of Facial Recognition Through a Criminal Law Lens (and Beyond)» (en anglès).
  25. «The rise and regulation of thermal facial recognition technology during the COVID-19 pandemic" - Google Search».
  26. Center, Electronic Privacy Information. «EPIC - Patel v. Facebook» (en anglès).
  27. «Social Network or Social Nightmare: How California Courts Can Prevent Facebook's Frightening Foray Into Facial Recognition Technology From Haunting Consumer Privacy Rights Forever.» (en anglès).
  28. «An Update About Face Recognition on Facebook» (en anglès americà), 03-09-2019.
  29. «Facebook will pay $650 million to settle class action suit centered on Illinois privacy law» (en anglès americà).[Enllaç no actiu]
  30. Heilweil, Rebecca. «Facebook is taking a hard look at racial bias in its algorithms» (en anglès), 22-07-2020.
  31. Trautman, Lawrence J. «Governance of the Facebook Privacy Crisis» (en anglès). Pittsburgh Journal of Technology Law & Policy, 20, 1, 27-03-2020. DOI: 10.5195/tlp.2020.234. ISSN: 2164-800X.
  32. «Facebook's '10 Year Challenge' Is Just a Harmless Meme—Right?». Wired (en en-US). ISSN 1059-1028. 
  33. «Facebook's '10 Year Challenge' Is Just a Harmless Meme—Right?» (en anglès).
  34. Slobom, Michael «Consent, Appropriation by Manipulation, and the 10-Year Challenge: How an Internet Meme Complicated Biometric Information Privacy». Mitchell Hamline Law Review, 46, 5, 01-01-2020.
  35. Becerra-Riera, Fabiola; Morales-González, Annette; Méndez-Vázquez, Heydi «A survey on facial soft biometrics for video surveillance and forensic applications». Artificial Intelligence Review, 52, 2, 01-08-2019, pàg. 1155–1187. DOI: 10.1007/s10462-019-09689-5. ISSN: 0269-2821.
  36. Buolamwini, Joy; Gebru, Timnit «Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification» (en anglès). Conference on Fairness, Accountability and Transparency. PMLR, 21-01-2018, pàg. 77–91.
  37. «govinfo» (en anglès).
  38. «Bias in, Bias out: Why Legislation Placing Requirements on the Procurement of Commercialized Facial Recognition Technology Must Be Passed to Protect People of Color» (en anglès).
  39. Kane, Kane; Young, Amber; Majchrzak, Ann; Ransbotham, Sam «Avoiding an Oppressive Future of Machine Learning: A Design Theory for Emancipatory Assistants». Management Information Systems Quarterly, 45, 1, 01-03-2021, pàg. 371–396. DOI: 10.25300/MISQ/2021/1578. ISSN: 0276-7783.

Bibliografia[modifica]