Viquipèdia:Presa de decisions/2023/Política sobre l'ús d'intel·ligència artificial al text dels articles

De la Viquipèdia, l'enciclopèdia lliure

Aquesta presa de decisions té l'objectiu d'establir les bases d'una primera política orientativa sobre els usos recomanats i no permesos de les noves eines d'intel·ligència artificial en l'àmbit escrit. Es proposa un text inicial a Viquipèdia:Generació d'articles amb intel·ligència artificial.

Context[modifica]

La irrupció de ChatGPT, Midjourney, Perplexity, Hugging Face, Jasper, CopyAI I d'altres plataformes al llarg del 2022 han revolucionat en poc temps les capacitats tecnològiques que hi havia quant a la creació de continguts automàtics. Algunes d'elles estan en ple desenvolupament i poden canviar la manera en què s'editi o es llegeixi la Viquipèdia i, per tant, ser partícips en nous continguts massius.

Cal tenir en compte que cada cop més persones, premsa i figures de l'àmbit digital suggereixen i pensen com una plataforma cabdal com la Viquipèdia es pot interrelacionar i nodrir-se d'aquesta tecnologia creixent. En català, encara no ha generat cap debat i fora bo posar-lo sobre la taula amb una política que permeti aconsellar, guiar i establir línies de bones pràctiques i de limitacions sobre l'ús de les IA en la redacció d'entrades.

Hi ha antecedents de traduccions automàtiques massives via el ContentTranslate, des de versions lingüístiques amb poques o sense referències, que han creat conflictes d'edició entre viquipedistes o que han hagut de suposar esforços ingents en projectes com la Gran Quinzena Anual de la Qualitat.

Qualsevol resolució i política definitiva pot veure's sotmesa a ràpids canvis digitals en un futur pròxim, però pot ser rellevant tenir un text consolidat a partir del qual fer esmenes si hi ha avenços significatius en uns anys.

Debat[modifica]

Sobre la conveniència o no de fer millores i d'aprovar l'actual assaig Viquipèdia:Generació d'articles amb intel·ligència artificial per tal de convertir-lo en una política interna de la Viquipèdia en català centrada en el text escrit.

Està inspirada en Wikipedia:Using neural network language models on Wikipedia, un assaig en versió de pluja d'idees a la Viquipèdia en anglès. En català s'ha reconstruït i reescrit des de zero amb un context molt més ampli, menys exemples pràctics que podrien quedar obsolets aviat, i una casuística més propera a la resta de polítiques de la Viquipèdia en català.

Calendari[modifica]

  • Inici de la fase de debat i d'esmenes sobre el text actual: 3 de febrer del 2023
  • Finalització de la fase de debat i d'esmenes sobre el text actual: 18 28 de febrer del 2023
  • Inici de la votació del text final (o diverses opcions, si n'hi ha): 19 de febrer 1r de març del 2023 a les 00:00 CET
  • Finalització de la fase de votació: 1r 15 de març del 2023 a les 23:59 CET
Dilatació dels terminis, especialment de la fase de debat, per continuar més el debat i encaixar postures de consens del text i encoratjar més participació.

Normes de votació per garantir-ne resultats concloents[modifica]

Segons Tema:Xcu8ryhvk3vqmu19:

  1. Només seran vàlids els vots, dintre del termini establert, d'aquells usuaris que compleixin els requisits mínims abans de l'inici de l'obertura de la presa de decisions: registrats amb una antiguitat mínima de 30 dies, i amb 100 col·laboracions en l'espai principal (articles) en els darrers 3 mesos.
  2. Es votaran, de manera separada, el text inicial proposat a l'inici de la presa de decisions (Viquipèdia:Generació d'articles amb intel·ligència artificial) i la resta d'esmenes proposades pels usuaris participants. La finalitat de la votació és convertir la proposta d'assaig en una directriu de la Viquipèdia (vot favorable) o mantenir-la com a assaig no vinculant (vot negatiu).
  3. S'estableix un llindar pel qual el 60% dels vots emesos han de ser favorables (vots de suport+aprovació+assumible) per tal que qualsevol dels textos s'accepti per a ser inclòs com a política. Els vots NS/NC o neutral són considerats en blanc i s'exclouen del llindar.
  4. Aquells usuaris que donin suport només i únicament al text inicial, s'entendrà que s'abstenen de les esmenes suggerides posteriorment. Per tant, si una esmena té prou llindar de vots positius (en percentatge), s'inclourà. Si no supera el llindar, s'exclourà del text final.
  5. Si per qualsevol raó un usuari vota (sigui a favor o en contra) d'una esmena, però no ho fa del text principal, s'interpretarà que aquell vot també aplica a la proposta inicial (és a dir, al fet que el text total es converteixi o no en política del projecte). Es prega de votar totes les opcions per facilitar el recompte i una comprensió més amable del consens.
  6. Si un usuari vota a favor d'esmenes concretes, però vota en contra el text principal, és perquè no admet l'aprovació de la proposta inicial sense aquests canvis. Per tant, si totes les esmenes proposades en què ha votat a favor no passen el llindar de vot i no s'apliquen, el seu vot al text inicial es reflectirà com a oposició (excepte si explicita el contrari; si us plau expresseu-vos el més clarament possible amb el vostre vot).

Fase de debat - Comentaris i esmenes[modifica]

Em sembla molt bona iniciativa, absolutament necessària. Robertgarrigos (disc.) 16:08, 3 feb 2023 (CET)[respon]

Preguntes
  1. En cas que decidim posar algun límit sobre l'ús d'IA, com el controlem? Quins mecanismes de detecció tenim si un usuari diu que un article està fet amb IA i l'autor diu que no?—Leptictidium (digui) 09:10, 5 feb 2023 (CET)[respon]
Crec que com a Viquipèdia no tenim capacitat ni per adaptar les polítiques tan ràpid com el desenvolupament de noves eines que puguin detectar aquests escrits, ni la capacitat de perseguir amb aquests mètodes el desplegament del seu ús. Per tant, només queda que esmentar alguns programes factibles de detectar-lo per al seu ús complementari o discrecional. Així ho reflecteix la darrera secció, però podem matisar-la amb una millora del text. Tens alguna proposta, @Leptictidium:? Xavier Dengra (MISSATGES) 12:59, 13 feb 2023 (CET)[respon]
  1. Els abusos que s'han fet de la traducció automàtica, amb els problemes notoris que han causat, són motiu de preocupació per als articles fets amb IA, o són xurres i merines?—Leptictidium (digui) 09:11, 5 feb 2023 (CET)[respon]
Penso que són temes molt diferents i que la IA actual supera amb escreix la qualitat de la traducció automàtica tradicional (exemple de l'@Amadalvarez: amb chatGPT en aquest canvi de Tema:Xbxwek5ky5x0hyid). De tota manera, insisteixo que els bagatges de fons per a la política i per a limitar-ne l'ús són els seus avantatges de simplificació de la redacció i de millora del text divulgatiu, i els greus problemes de citació bibliogràfica dels textos generats (admissibilitat, verificabilitat i manca de fonts fiables). Xavier Dengra (MISSATGES) 12:59, 13 feb 2023 (CET)[respon]
No tinc del tot clar que un text lingüísticament impecable, però amb errors factuals greus, sigui preferible a una traducció deficient, però factualment correcta. Entre les coses que m'ha dit el GPT en les últimes setmanes, hi ha que «França només ha guanyat una copa del món de futbol», que «els rosegadors del Carib inclouen el capità Jack Sparrow» o que «Constantí el Gran va fundar la ciutat de Bizanci». Si barbaritats com aquestes es colen en articles perquè hi ha usuaris que utilitzen la IA amb la mateixa desídia que altres usuaris utilitzen el TranslationTool, tindrem un problema enorme.—Leptictidium (digui) 20:42, 13 feb 2023 (CET)[respon]
Però d'això tracta el text proposat, no? De no permetre'n la creació de text nou per a nodrir articles (per causa bibliogràfica i com després ha dit l'@Alzinous, també d'infracció de possibles drets), sinó només l'ús discrecional per millorar lingüísticament o discursiva (en termes de llenguatge simplificador o més entenedor) allò que ja existeix. Xavier Dengra (MISSATGES) 21:02, 13 feb 2023 (CET)[respon]
Tot i que l'error pugui ser molt diferent, el problema que pot causar el mal ús de la intel·ligència artificial és el mateix que ha causat de vegades el mal ús dels traductors automàtics: que algú creï articles de baixa qualitat com a xurros. A més, aquestes no són les úniques maneres de crear articles dolents a l'engròs. Una norma sobre què fer amb aquestes sèries seria més útil sense entrar gaire en l'origen dels nyaps en qüestió.--Pere prlpz (disc.) 12:58, 28 feb 2023 (CET)[respon]
Si ara mateix el principal inconvenient de les IA és la capacitat que tenen per colar-nos articles verdaderes amb algunes parts falses, però d'alta qualitat i amb referències fiables, no vull imaginar-me en 3 anys que estic seguir que serà totalment impossible de determinar si ho ha escrit un humà o un robot. KajenCAT (disc.) 13:55, 28 feb 2023 (CET)[respon]
  1. Quins aspectes de l'assaig es convertirien en polítiques? El text és interessant però crec que no faria falta una presa de decisions per tenir ara així un debat entre nosaltres. Salutacions. --Lluis tgn (disc.) 13:51, 13 feb 2023 (CET)[respon]
    La intenció és acumular prou consens i suport per transposar tota la pàgina d'un assaig a una directriu, i es demana comentaris sobre com podria polir-se més algun passatge que no fos prou clar. Hi ha una definició del problema i del nou context, uns usos acceptables i uns altres no permesos perquè conjuntament constitueixen una violació de la suma d'altres polítiques i acaba amb una porta oberta per saber com poder valorar (o no) casos que puguin caure dins d'aquesta casuística. Un assaig és una visió molt particular i recomanatiu, però no té suport comunitari com per esdevenir una guia de caràcter coral i de referència. Xavier Dengra (MISSATGES) 14:01, 13 feb 2023 (CET)[respon]
Comentaris
  • Cal posar certes normes, per evitar abusos de traducció automàtica, com es va fer en el projecte de monuments de Catalunya caldria, almenys en articles nous o en d'actuals si la mida a afegir és gran, només publicació sota revisió manual, i per millorar la qualitat del text i perquè usuaris vagin "massa ràpid", doncs la revisió de dos usuaris i no de només un com abans. Per tan, pàgines noves mogudes a espai temporal apart, categoria, plantilla etc com en els de Monuments però amb revisió de més d'un usuari per la pujada de llistó que no seria lògic que s'apliqués només als AdQ. Igualment s'hauria de fer una sèrie de proves abans d'aplicar tot això. La idea de l'IA ho veig molt bé i pot resoldre en part tan el biaix de contingut/qualitat de wikis amb menys parlants com la informació "minoritzada" entre wikis. Salutacions--Manlleus (disc.) 22:42, 12 feb 2023 (CET)[respon]
@Manlleus: gràcies per participar-hi. Et dono la raó en algunes coses, però la presa de decisions no va sobre traduccions automàtiques, sinó sobre l'ús d'IA (i per tant, continguts generats neuronalment amb molt bon nivell lingüístic però falta de verificabilitat, fonts fiables al cos del text i usos menors que sí que són reaprofitables). Mirem de mantenir el tema de debat i t'animo a fer millores o debatre febleses del text proposat per poder transposar l'assaig com a nova política. Gràcies! Xavier Dengra (MISSATGES) 12:59, 13 feb 2023 (CET)[respon]
Era una comparació que ja ha citat en Lepti, clar que és un tema diferent i cal adaptar-se, només són idees i tampoc és una proposta en ferm si ni tan sols tenim un banc de proves (independentment dels avenços de programari) o un pla per realitzar-les per després fer un consens de procés en "producció". El que facin a enwiki i les seves decisions és tema apart i no em sembla fora del debat lo que vaig comentant si el que es parla ja s'està fent la pluja d'idees i com fer-ho allà. No està clar quina política s'ha proposat encara que sigui un assaig, així que de moment només són comentaris i preguntes. Salutacions Manlleus (disc.) 13:14, 13 feb 2023 (CET)[respon]

Mogut de Tema:Xbx27sk54cvdo5ns, de @Pere prlpz:, per centralitzar el debat: «Diria que aquesta proposta està barrejant problemes diferents, que es poden barrejar en un assaig però no en una política. Diu que el problema dels textos creats per una intel·ligència artificial són la manca de referències, l'admissibilitat i la verificabilitat, però aquests problemes són problemes tant si el text ha estat creat per una intel·ligència artificial com si ha estat escrit a mà. Aleshores, pels textos sense referències i no verificables sobre temes no admissibles no ens cal una política, perquè ja en tenim. Com a molt cal un assaig perquè els que vulguin venir a generar articles amb IA sàpiguen que es trobaran amb aquests problemes. O sigui, una política hauria d'establir mesures concretes contra problemes concrets, i de moment aquí no n'hi veig cap que no estigui cobert per les polítiques existents i que sigui diferent per la intel·ligència artificial.»

Pere, penso que el text ofereix mesures concretes com demanar que no es facin servir textos generats per IA per crear nou contingut a la Viquipèdia atès que infringeix altres polítiques i sí que en circumscriu l'abast a la millora de redacció. De la mateixa manera que Viquipèdia:Citau les fonts o Viquipèdia:No feu treballs inèdits són polítiques de suport a Viquipèdia:Fonts fiables i Viquipèdia:Verificabilitat per donar més context d'ús i de casuística. El tema de les IA serà una casuística i recursivitat de futur, i crec que mereix l'atenció de política i no de només un assaig. Podem debatre si ha de ser un text més assertiu, però valdria la pena tenint en compte que cada cop hi ha més qüestions sobre el tema. Si no, passarà com els 10 anys perduts en tenir milers d'articles amb deficiències molt greus de traducció (àmbit parcialment relacionat amb aquest) que ens han passat pel boc gros per no tenir una política adaptada com per exemple no poder traduir-ne de llengües d'origen sense fonts (sembla obvi a partir de les polítiques de base, però és evident que no ha passat). Som a les beceroles d'una nova tecnologia i anirà molt bé enquadrar-la mínimament d'inici. Xavier Dengra (MISSATGES) 12:59, 13 feb 2023 (CET)[respon]
  • M'ha agradat el comentari del Pere. Hi estic bastant d'acord. Abans de crear una política sobre aquest tema seria bó deixar passar un temps i veure quins problemes sorgeixen. Una altra tema, que he comentat amb algunes persones, és en relació als drets d'autoria dels possibles materials creats amb l'ús d'intel·ligència artificial. --aLZiNous: deixa'm un missatge. 17:34, 13 feb 2023 (CET)[respon]
    Això darrer és un molt bon punt per afegir, moltes gràcies @Alzinous. En cas de textos, transposaré a l’assaig una adaptació de Wikipedia:Large language models and copyright com a motiu ferm per no utilitzar-lo. Copio la proposta de text a sota perquè la valoreu abans d'implementar-la. Però vaja, és que és un motiu de pes més que doneu per no dilatar o xutar cap endavant un tema que ja ens esclata a la cara. Xavier Dengra (MISSATGES) 17:54, 13 feb 2023 (CET)[respon]
  • Igual que tenim categories d'usuaris autoconfirmats, reversors, etc., penso que hauríem de tenir categories d'usuaris amb llicència per usar eines de traducció automàtica o eines de IA. Primer hauries de demostrar que ets capaç de revisar un article a fons abans de publicar-lo, després amb dos o tres articles... per evitar situacions tan desagradables com les que ens hem trobat amb el TranslateTool, en les quals ha calgut esborrar o usuarificar desenes o centenars d'articles perquè els usuaris en qüestió no invertien ni cinc segons a revisar-los. I aquesta «llicència» hauria d'anar vinculada a una temàtica d'articles en concret, ja que un usuari que sàpiga molt sobre mamífers probablement no sabrà detectar els errors que pugui cometre la IA en un article sobre el teatre francès de la Belle Époque. I això últim és crucial, ja que les eines de IA com el ChatGPT poden semblar molt convincents si no coneixes el tema en qüestió. No, a mi tampoc no m'agrada el gatekeeping, però menys m'agradaria repetir la mala experiència del TranslateTool amb el ChatGPT.—Leptictidium (digui) 20:50, 13 feb 2023 (CET)[respon]
    Aquest tema sobre una bandera d'usuari per fer servir el TranslateTool s'ha discutit ja diversos cops a la Taverna i tenim el precedent que la WMF s'hi oposà rotundament en altres versions wiki. Poc hi podem fer, però sí que mereix una presa de decisions, i en @Coet es va avenir a provar de treballar en una llista que permeti avaluar la qualitat d'ús del traductor automàtic des d'altres versions segons cada viquipedista (vegeu aquí). Però menys encara podem fer per limitar que algú utilitzi o no una eina totalment aliena al món Wikimedia: aquestes ferramentes són webs externs i no hi tenim cap jurisdicció o supervisió factible. És totalment inaplicable en aquest debat, dissortadament. Xavier Dengra (MISSATGES) 21:07, 13 feb 2023 (CET)[respon]
    Sense voler desviar en excés el tema d'aquest debat, l'opinió de l'WMF sobre el tema TranslateTool i similars té un valor nul. Fa anys que la cúpula de la Foundation ha estat capturada per un perfil de persones que la veuen com el seu instrument per fer LARP d'enginyer de software o alt executiu de Silicon Valley. Els que som aquí per redactar una enciclopèdia i promoure el coneixement lliure no apreciem de bon grat les intromissions de gent que només veu els projectes com una línia més al seu currículum.—Leptictidium (digui) 10:34, 18 feb 2023 (CET)[respon]
    @Xavier Dengra @Leptictidium. No sé si la fórmula és la que proposa en Lepti de tenir usuaris amb "garantia d'haver revisat la publicació", però per les proves que he fet l'enginy, si alguna cosa fa millor que altres estris és la redacció i la sintaxi, Sigui cert o fals el seu contingut. Per tant, si li limites el camp d'accés a dades i li aportem com a font sobre "de què ha de parlar", ja t'asseguro que redacta millor que molts de nosaltres.
    No he provat encara com resultaria fent de "Content Translation", però m'hi jugo un pèsol que res té a envejar-li.
    En resum: hem d'evitar fer normes radicals que estiguin per sobre del raonament justificat de l'editor sobre els marges que li permeten la "no aplicació". Tenim normes que provoquen accions de persones que, sense aplicar el sentit comú, la interpretació de les normes amb el criteri i la flexibilitat que els éssers humans haurien de tenir, provoquen conflictes per un ús ortodox de la normativa. Hem de ser molt curosos amb aquesta presa de decisió, no sigui cas que siguem més papistes que el papa. Salut ! amador (disc.) 09:57, 26 feb 2023 (CET)[respon]
    De la mateixa manera que sí que entenc la teva opinió sobre no forçar massa una directriu, jo crec que el text és dissuasiu en els aspectes més complicats (crear de zero), però és força laxe i favorable en la secció de "Usos potencials". Jo també he fet servir alguna IA com Quillbot per millorar la sintaxi d'algunes introduccions enrevessades d'articles i va força bé. Ho vaig reflectir amb frases com "És a dir, els hi podeu demanar esbossos, proposar-los com millorar segons quins paràgrafs que puguin semblar-vos enrevessats o, fins i tot, demanar-los crítiques sobre la qualitat del text." Però segur que es pot reescriure millor. Xavier Dengra (MISSATGES) 10:06, 26 feb 2023 (CET)[respon]
  • Estic d'acord amb la resta de comentaris que els principals problemes que ens presentaria l'ús de IA són problemes que ja teníem abans, i dels que ja tenim polítiques corresponents sobre les quals també s'han tingut debats recentment i que pense que aprofitant que pareix que ara hi està havent iniciativa per obrir preses de decisions es podrien revisar pròximament. No crec que estiga fora de lloc decidir si ser més restrictius amb la manca de referències encara que no siga un problema exclusiu de la IA. Al final un article ha de seguir les mateixes polítiques siga fet amb ajuda d'IA o no. Crec que seria interessant centrar-se en la resta d'apartats. D'una banda, està el fet que es puguen crear referències fictícies, si bé és cert que és un problema que ja podríem tindre abans, açò podria fer-ho més habitual i més difícil d'identificar per a nosaltres. També hauríem de parlar dels usos potencials, no he experimentat per veure com poden funcionar en els casos esmentats i no tinc prou coneixements sobre les IA, però estaria bé debatre fins a quin punt poden ser útil en eixos casos i quins altres problemes podrien presentar. Encara no sabem si l'ús de les IA es convertira en un maldecap en un futur, jo personalment no ho crec, però si pense que està bé previndre i tindre una política al respecte, no crec que siga redundant. --Josu PV (disc.) 20:20, 15 feb 2023 (CET)[respon]
    @Josu PV moltes gràcies perquè la valoració és interessant. El text, a la seva subsecció "Problemes bibliogràfics", ja inclou el text: De vegades, la IA us vincularà un autor real però amb un article fictici. O, per altra banda, us llistarà un títol de llibre que podria semblar autèntic, però no ho és. Fins i tot hi ha casos en els quals tant l'autor com el títol són totalment inventats. Atès que esmentes que és un aspecte que amoïna, com refaries aquest fragment de text per donar-li més significativitat? Xavier Dengra (MISSATGES) 11:31, 18 feb 2023 (CET)[respon]
    Crec que seria convenient indicar que en qualsevol cas, caldria tractar tota referència proporcionada per una IA com a sospitosa i evitar emprar aquestes referències. Josu PV (disc.) 20:24, 19 feb 2023 (CET)[respon]
  • Bons comentaris. Cal veure com evoluciona aquest tema. Certament, en l'àmbit de la ciència, m'he trobat amb bones respostes de ChatGPT, juntament amb errors força evidents. Però em fa l'efecte que millorarà. Ja ha sortit dit d'altres formes: i si en lloc de preguntar-nos si cal prohibir-ho, ens preguntessim com podem aprofitar la IA per millorar la Viquipèdia, millorar la qualitat de les dades de Wikidata, etc.? En tot cas, per prevenció, no em sembla pas malament la redacció del text de les bases esmentades.--Quelet (disc.) 17:47, 16 feb 2023 (CET)[respon]
  • No crec que sigui necessari establir una política específica per regular l'ús de la intel·ligència artificial a la Viquipèdia. La intel·ligència artificial està cada vegada més present en la nostra vida i oposar-s'hi seria com oposar-se a la màquina de vapor en el segle XVIII. En un futur gairebé inmediat, és molt probable que la intel·ligència artificial sigui una part integral de la nostra vida quotidiana i, per això, és crucial estar preparats per afrontar aquesta situació. Però abans de prendre mesures, és millor esperar i veure quins problemes poden sorgir. D'aquesta manera, podrem adaptar-nos a aquesta tecnologia i entendre millor les seves implicacions. Com a comunitat, ja tenim eines suficients per fer front als problemes que poden sorgir per un ús inapropiat de la intel·ligència artificial, com ara la manca de referències, l'admissibilitat i la verificabilitat. Aquestes són algunes qüestions bàsiques i molt probablement adequades per assegurar-nos que la informació que es comparteix a la Viquipèdia sigui precisa i fiable. --aLZiNous: deixa'm un missatge. 15:48, 28 feb 2023 (CET)[respon]
    A la pregunta "Creus que els bots d'IA haurien de poder editar la Wikipedia", el ChatGPT ha contestat:
    "Com a model de llenguatge d'IA, jo no tinc opinions o creences personals. No obstant, puc proporcionar algunes consideracions sobre la idea que els bots d'IA com ChatGPT escriguin pàgines de Wikipedia.
    Encara que la tecnologia d'IA ha fet progressos significatius en el processament i la generació de llenguatge natural, encara hi ha limitacions en l'estat actual de l'IA. Per exemple, els bots d'IA poden mancar d'enteniment contextual i sensibilitat cultural que és necessari per crear pàgines de Wikipedia precisos i imparcials. A més, els bots d'IA poden no ser capaços de reconèixer i corregir errors o biaixos en la seva pròpia sortida.
    Per tant, pot ser més apropiat que els bots d'IA com ChatGPT s'utilitzin com a eines per donar suport als editors humans en el procés de creació de Wikipedia. Per exemple, els bots d'IA podrien utilitzar-se per suggerir fonts o proporcionar traduccions de llenguatges, però el contingut final hauria de ser revisat i editat per editors humans.
    En resum, tot i que els bots d'IA tenen el potencial de ser útils en la creació de pàgines de Wikipedia, les seves limitacions suggereixen que haurien de ser utilitzats conjuntament amb editors humans en lloc de ser-ne un substitut." Quelet (disc.) 21:03, 28 feb 2023 (CET)[respon]

Esmena 1: sobre infraccions de drets d'autor[modifica]

La idea, seguint el suggeriment de n'@Alzinous: sobre aquest tema, és el següent (readaptat i contextualitzat de Wikipedia:Large language models and copyright) per afegir com a darrera subsecció de "Limitació bibliogràfica i usos no permesos":

Inici del text proposat → Heu de tenir en compte que els models neuronals poden replicar contingut literal no lliure i, per tant, produir violacions dels drets d'autor a diverses de les vostres consultes. No només això, sinó que en alguns resums pot arribar a generar textos derivats massa similars a les obres originals i per tant caure en vulneracions de parafrasejat similar, que no estan permeses per la Viquipèdia. Les bases de dades que s'han utilitzat per entrenar diferents IAs són sovint privatives i amb alguns algoritmes hermètics, que no permeten de conèixer completament la seva compatibilitat amb les llicències CC BY-SA i GNU que utilitzem en els textos de la Viquipèdia.

L'estat dels drets d'autor del text generat per xarxes neuronals no està definit per estatut, per la qual cosa és difícil fer reclamacions segures, però existeix un precedent per a l'art generat per ordinador i altres obres creades per no-humans. L'Oficina de Drets d'Autor dels EUA, on s'allotgen els servidors dels projectes Wikimedia, explicita que:[1]

L'Oficina no registrarà les obres produïdes per la naturalesa, els animals o les plantes. De la mateixa manera, l'Oficina no pot registrar una obra suposadament creada per éssers divins o sobrenaturals, tot i que l'Oficina pot registrar una obra on la sol·licitud o el dipòsit copia(ies) afirmen que l'obra es va inspirar en un esperit diví. [...] L'Oficina tampoc registrarà les obres produïdes per una màquina o un procés merament mecànic que funcioni a l'atzar o automàticament sense cap aportació creativa o intervenció d'un autor humà.

En qualsevol cas, no existeixen forts precedents legals respecte a la circumstància específica de llicenciar produccions d'IA amb les opcions que ofereixen les llicències Creative Commons o la GNU. A Wikimedia Commons, la plantilla i la categoria de drets d'autor de «PD-algorithm» afirma que totes les obres generades algorítmicament resten en domini públic: «Aquest fitxer és de domini públic perquè, com a treball d'un algoritme d'ordinador o intel·ligència artificial, no té cap autoria humana a la qual se li puguin conferir els drets d'autor».

El que és més evident és que IAs com Bard o ChatGPT poden infringir textualment els drets de propietat intel·lectual amb preguntes com ara «Quina és la lletra de Milionària, de na Rosalia?» Respondrà amb les estrofes literals d'una cançó amb drets d'autor inequívocs, atès que aquesta és la petició específica que un humà li ha demanat que fes. Com és una acció que una persona és capaç d'escriure en un article de Viquipèdia sense cap mena d'ajuda artificial, sol·licitar contingut protegit per drets d'autor a una IA i convertir-lo en article constitueix una violació clara de la propietat intel·lectual i un ús no permès de les IAs.

Però, encara que aquests exemples siguin prou evidents, pot ser que en la pràctica no ho siguin tant. És una bona pràctica que, en aquells casos que produïu una gran quantitat de text, us assegureu de comprovar que no hi ha parafrasejats similars ni infraccions fil per randa; seleccioneu fragments a l'atzar del text final i enganxeu-los al vostre cercador habitual d'internet per constatar que no hi ha duplicacions. → Final del text proposat

Ja direu què us sembla. Xavier Dengra (MISSATGES) 12:04, 18 feb 2023 (CET)[respon]

Certament hi ha pocs precedents, aquest em sembla interessant (U.S. Copyright Office letter). KajenCAT (disc.) 17:06, 28 feb 2023 (CET)[respon]
La podem afegir com a peu al text, si et sembla, @KajenCAT Xavier Dengra (MISSATGES) 17:43, 28 feb 2023 (CET)[respon]

Esmena 2: sobre mesures a prendre per la comunitat[modifica]

Seguint la preocupació exposada a Tema:Xcuan4csql03rbm1 pel @Pere prlpz: proposo aquesta petita esmena pel que fa a les mesures a prendre per la comunitat a l'hora d'esborrar o no aquests articles susceptibles, Aniria com a darrer paràgraf a la secció "Contramesures":

Inici del text proposat → Qualsevol usuari que sospiti (ja sigui per mitjà de les eines anteriors o per criteri propi) que un text ha estat escrit automàticament amb models de xarxa neuronal i no respecta les polítiques del projecte, pot sotmetre'n l'esborrament a debat segons allò establert a la política d'Viquipèdia:Esborrar pàgines. Això aplica a la generació de contingut qüestionable i controvertit sense referències, a possibles encobriments de la manca d'admissibilitat com a resultat d'haver demanat a una IA que escrigui una biografia concreta simulant-ne l'estil viquipèdic, a la detecció de falsedats manifestes o incongruències estructurals al llarg de tot l'article, així com al descobriment de bibliografia falsa o amb errors consecutius d'autoria i enllaços a les fonts. S'hi poden aplicar els criteris de supressió ràpida en aquells casos més greus i evidents, però no sobre la base del seu origen automàtic, sinó a partir de la valoració del contingut resultant. → Final del text proposat

Xavier Dengra (MISSATGES) 10:40, 25 feb 2023 (CET)[respon]

Aquesta esmena dóna moltes voltes però ve a dir que amb un article generat amb AI podem prendre les mateixes mesures que amb qualsevol altre article basant-nos en les seves mancances i no en el fet que estigui fet amb AI. De fet, aquesta esmena és el que més s'assembla de tota la proposta a una política perquè diu que es permet l'ús de la IA. Ara bé, jo crec que s'hauria de redactar d'una manera més explícita: "Es permet l'ús d'eines d'intel·ligència artificial per crear articles. L'esborrat d'articles creats amb IA o la reversió d'edicions fetes amb IA només es podrà fer en base a les seves mancances en relació a d'altres polítiques de la Viquipèdia, no pel fet d'haver estat creades amb IA.
Això diu el mateix que l'esmena però més clar. El dubte és si no és perillós fer aquesta política i que l'únic resultat normatiu que tingui sigui el blindatge de la IA.--Pere prlpz (disc.) 13:10, 28 feb 2023 (CET)[respon]
Per fi ens entenem, doncs. Ara bé, el text simplificat que dius no l'acabo de veure clar perquè és difícil explicitar que permets crear quelcom amb una eina que no ets ni capaç de detectar o de distingir del que no ho és. Si precisament hi dono tantes voltes és per remarcar el valor del contingut, no de l'ús o no de l'eina com a tal (per molt que costi de copsar de primeres). Xavier Dengra (MISSATGES) 14:47, 28 feb 2023 (CET)[respon]
Com que és pràcticament impossible saber si s'ha fet escrivint automàticament amb la IA o no, jo em centraria amb l'enduriment del caràcter punitiu del vandalisme «intel·ligent» contra l'autor en qüestió. KajenCAT (disc.) 16:56, 28 feb 2023 (CET)[respon]
Si voleu que sigui més exactament el que diu l'esmena, podeu canviar "pel fet d'haver estat creades amb IA" per "per la sospita que hagin estat creades amb IA". De tota manera, si l'esmena ve a dir que no es poden esborrar pàgines per haver estat creades amb IA és irrellevant si les podem detectar o no, perquè tampoc té cap efecte si són creades amb IA o no.--Pere prlpz (disc.) 20:31, 28 feb 2023 (CET)[respon]

Votació[modifica]

A partir del 1r de març del 2023.

Text inicial[modifica]

El text que es sotmet apa votació d'assaig a nova política és Viquipèdia:Generació d'articles amb intel·ligència artificial:

  1. En contraneutral Consentible Em sembla un assaig personal interessant que serà útil per aquelles persones que s'aventuren a explorar les diferents possibilitats que ens oferiran les diferents intel·ligències artificials. Tanmateix, aquest tema està molt verd i patirà canvis dràstics en els pròxims mesos com per establir-ho ja com a política de la Viquipèdia. El mateix assaig quedarà obsolet ben aviat. Em sembla més assenyat deixar-ho de moment com els anglesos "This idea is in the brainstorming stage". A més a més, com ja han comentat al debat, les polítiques actuals ja ens cobreixen en l'ús d'aquesta tecnologia, de manera que no hi veig aquesta urgència. Pel que fa a l'assaig, no m'agrada gens el to taxatiu de la secció "Contingut no permès", perquè perd el to més conciliador de l'equivalent anglès. --KRLS, (disc.) 18:05, 1 març 2023 (CET)[respon]
  2. Objecció Objecció És un assaig interessant, però no conté cap mesura que pugui convertir-se en una norma pràctica. O més ben dit, algú podria implantar una política o prendre accions argumentant que estan basades en aquesta política, sense que sigui gens previsible quina mena de mesures seran, per la natura inconcreta del text.--Pere prlpz (disc.) 21:20, 1 març 2023 (CET)[respon]
  3. En contraneutral Consentible Penso el mateix que KRLS, és interessant, però encara ofereix dubtes.Walden69 (disc.) 21:50, 1 març 2023 (CET)[respon]
  4. Objecció Objecció agraeixo molt la iniciativa, el seguiment i que es parli d'un tema que sens dubte anirà a més però coincideixo que no es poden fixar postures encara en un assumpte que canvia tan ràpid, esperem --barcelona (disc.) 22:51, 1 març 2023 (CET)[respon]
  5. Objecció Objecció Ja havia compartit les meves preocupacions sobre l'ús d'eines d'IA per a la traducció o la referenciació, però és que fins i tot per als usos proposats, «Millora de la redacció o del to enciclopèdic» i «Condensació i fragmentació cap a articles principals», com més experimento amb eines com ChatGPT, més veig que encara no tenen la qualitat suficient per a aquestes funcions, si més no en la llengua catalana. En podem tornar a parlar quan aquestes eines funcionin millor, però ara mateix trobo que resten més que no pas sumen.—Leptictidium (digui) 10:01, 5 març 2023 (CET)[respon]
  6. A favorA favor Suport Crec que s'estableix una base sòlida que actualment resulta útil, si en el futur s'han de fer modificacions, serà molt més fàcil amb una política inicial que des de zero. Si seguim esperant per la volatilitat del subjecte, mai aplicarem una política, tindre açò ja preparat ens ajudarà a seguir modificant-ho a mesura que siga necessari. --Josu PV (disc.) 22:45, 5 març 2023 (CET)[respon]
  7. Objecció Objecció Tinc dubtes encara, falta polir.--General Basset (disc.) 23:13, 5 març 2023 (CET)[respon]
  8. A favorA favor Suport com bé diu en Josu, tenir una política de mínims i de bàsics que puguem anar polint i reprenent amb punts menors al llarg del temps és millor que no tenir res i començar d'inici un altre cop. Fer un xut a la pilota i esperar a que "les eines millorin/canvïin/es concretin" només ens durà a que anem un pas enrere d'obsolescència com en molts altres aspectes wiki i vers el paradigma digital. Tenim el mal costum o experiència de no reaprofitar gaire els (pocs) debats anteriors i és una llàstima que aquest es perdi per la por a no entendre perfectament la velocitat de les noves tecnologies que conviuran amb la Viquipèdia (quan aquesta incertesa és del tot normal). Tan de bo m'equivoqui, però no tenim una comunitat tan viva com per reprendre debats de fons i materialitzar-los tan sovint o esquivar ràpid possibles plantofades. Aprofitem l'oportunitat de tenir quelcom ara. Xavier Dengra (MISSATGES) 22:47, 6 març 2023 (CET)[respon]
  9. Objecció Objecció Òbviament no votaré positiu sobre quelcom que encara està molt verd, i tenir un punt de partida és positiu però no suficient per un tema tan important.--Manlleus (disc.) 10:31, 7 març 2023 (CET)[respon]
  10. A favor Aprovació Crec que és millor tenir un text provisional que no tenir res de res. Considero que les bases proposades són bones, sensates i poden servir com a primera aproximació al tema, sense que això impedeixi fer correccions en un futur més o menys proper. --Pau Colominas (t'ajudo?) 19:13, 7 març 2023 (CET)[respon]
  11. A favor Aprovació Em sembla interessant valorar les capacitats de millorar textos amb intel·ligència artificial, però per l'altra tinc molts dubtes sobre si es fa servir per obtenir nova informació. Hauríem d'escoltar experts per tenir una idea més clara de cap on evolucionarà el tema i de si encara és molt prematur aprofitar-se d'aquesta eina. -- Aniol (discussió) 22:28, 7 març 2023 (CET)[respon]
  12. A favor Aprovació No comprenc els que opineu que és "massa aviat": sempre ho serà, sempre hi haurà un motiu nou per esperar una mica més. Crec que a ca.wiki tenim aquest recel a embrutar-nos les mans i a equivocar-nos. Aquest text no és pas precipitat: és un primer pas, reflex de la situació actual, i considero que s'ha d'implementar ara, sabent que l'haurem de readaptar els cops que faci falta. En aquests moments, crec que proposar una normativa més estricta, amb limitacions al que es pot fer amb IA no té gaire sentit comú, donat què, en general, aquestes edicions no són fàcils de detectar i, per tant, de revertir. Per tant, considero que és millor tenir una guia d'impressions generals, una carta oberta sobre la millor manera de gestionar aquestes eines en l'univers WM, com és aquesta proposta d'en Xavier. -- Cataleirxs (disc.) 16:59, 8 març 2023 (CET)[respon]
  13. A favor Aprovació Tenir-ho és millor que no tenir-ho, ja s'anirà adaptant si s'han de fer canvis. No tenir cap política sobre la intel·ligència artificial em sembla molt perillós. Sempre serà provisional, com ho és tot a la Viquipèdia. Per altra banda, penso que la supervisió humana sempre hi hauria de ser, igual que hi ha estat per exemple amb els articles del projecte xucladors o de patrimoni.--Medol (disc.) 19:09, 8 març 2023 (CET)[respon]
  14. A favor Aprovació Malgrat no contenir normativa d'aplicació, almenys estableix els punts a tenir en compte que constitueixen un bon punt de partida de com fer front als articles productes d'enginys d'IA. Jmrebes (discussió) 12:44, 9 març 2023 (CET)[respon]
  15. A favor Aprovació En primer lloc, vull felicitar a la comunitat en general, i a Xavier Dengra en particular, per haver encetat un debat tan madur i fonamentat. En segon lloc, trobo necessari posar les bases de la intervenció de les xarxes neuronals de generació de text a la Viquipèdia abans que els fets consumats marquin les pautes. Tanmateix, l'entrada en funcionament d'aquesta política haurà d'anar acompanyada d'una necessitat de revisió superior a la de la resta de polítiques per l'eclosió del fenomen. Enhorabona per la feina.Jove (disc.) 17:12, 9 març 2023 (CET)[respon]
  16. En contraneutral Consentible Si bé a grans trets estic d'acord amb la política hi ha algunes coses que no m'agraden, especialment l'apartat de «Contingut no permès». KajenCAT (disc.) 23:17, 9 març 2023 (CET)[respon]
  17. Objecció Objecció El tema és força interessant i en un futur pot ser objecte de debats intensos i enriquidors, però no crec que a les alçades que estem la IA estigui prou madura per establir un consens sobre el seu impacte en l'edició de continguts lliures i oberts. Potser és una visió generacional amb la qual no em sento particularment en sintonia amb els temps, per la qual cosa us demano comprensió. Vallue (disc.) 00:27, 10 març 2023 (CET)[respon]
  18. Objecció Objecció Com a recomanació pels envalentits que es llencen a les novetats tecnològiques com si fossin garantia de bondat, certesa i infal·libilitat, em sembla bé. Com a norma utilitzable com a eina (arma?) en mans d'ortodoxos de la normativa que obliden fer servir el sentit comú, em sembla tant o més perillós. La norma és un recordatori de coses que -sense IA- tampoc s'han de fer o, directament, no es poden fer, sigui amb IA o amb blogs apòcrifs.el comentari anterior sense signar és fet per Amadalvarez (disc.contr.) [1]
  19. Objecció Objecció Valoro molt positivament la feina del Xavier Dengra en aquesta qüestió, però estic en contra que aquest text es converteixi en política. De moment, ho deixaria com a assaig i començaria a tenir-lo en compte en els casos que vagi apareixent. D'aquesta manera serà més fàcil valorar que el text funciona com a política o si cal fer-ne retocs. Robertgarrigos (disc.) 08:50, 10 març 2023 (CET)[respon]
  20. Objecció Objecció pels motius esmentats en el debat previ, eines actuals suficients i necessitat d'esperar i veure com evoluciona tot plegat. --aLZiNous: deixa'm un missatge. 09:41, 10 març 2023 (CET)[respon]
  21. A favor Aprovació Reconec que no hi entenc però, havent llegit els diversos arguments, penso que és millor tenir un punt de partida. Tot i això, hem de ser conscients que tot això canviarà molt i molt ràpidament i caldrà estar amatent per actualitzar-ho cada vegada que calgui i prendre noves decisions. Però bé, és un debat que tant sí com no arribarà i ja és bo tindre un punt de partida. --Jordi_G (Parlem-ne) 14:16, 10 març 2023 (CET)[respon]
  22. Objecció Objecció Se del cert que encara som molt lluny del moment en que una AI pugui reemplaçar de manera solvent a un bon periodista o viquipedista. És un tema del meu interès. Però he volgut dedicar un temps llarg a interactuar amb el ChatGPT abans d'opinar. He "parlat" amb el bot en anglès, francès i català ... fins que se li creuen els cables i parla espanyol. En temes molt especialitzats com la física quàntica no ha fet cap error, em sembla que la raó és que les fonts són limitades essencialment a publicacions especialitzades; en botànica, que ha canviat molt els darrers anys, fatal, barreja fonts de diferents èpoques i el resultat és erroni. Un parell d'exemples breus, preguntat per la costa Vermella, R:"La Costa Vermella és una zona costanera situada al nord de Catalunya, a la província de Girona, a la Costa Brava", i preguntat per Cotlliure, R:"Cotlliure és un petit poble costaner situat a la Costa Vermella, a la comarca de l'Alt Empordà, a la província de Girona, Catalunya". Si les traduccions automàtiques ja són lamentables en general, això és encara pitjor perquè falseja la informació i n'utilitza de no fiable, a més de que fa relacions falses. Com aquesta que es veu en l'exemple anterior, Catalunya del nord = Girona/costa Brava i he trobat el mateix preguntat per un poblet de França, ha parlar d'un castell d'un altre poble homònim. És una joguina interessant, però sense saber les fonts, o coneixes molt bé el tema o et colarà qualsevol bajanada. Dit això, agrair la iniciativa i la feina del Xavier Dengra, la tecnologia no pararà d'evolucionar i no ens podem quedar al marge, és el pitjor que podem fer, l'hem d'intentar controlar per tal d'evitar que ens ensarronin els algoritmes que fan uns altres.--LouPeter (discussió) 17:14, 10 març 2023 (CET)[respon]
  23. En contraneutral Consentible D'acord amb el que ha comentat en KRLS, m'agradaria més indicant que és en fase de brainstorming, però és un primer pas en un tema que anirà evolucionant.--Ivan Avz F (disc.) 18:03, 10 març 2023 (CET)[respon]
  24. A favor Aprovació Com ja s'ha dit i després de llegir-ne l'argumentari, crec que és millor prevenir que curar. Veig més avantatges que desavantatges en disposar d'aquesta política a no fer-ho, així que endavant. AlbertRA (disc.) 21:03, 11 març 2023 (CET)[respon]
  25. Objecció Objecció Coincideixo en dir que, al meu parer, és massa aviat per intentar definir una política ferma al respecte. Interessant debatre-ho i estar-ne al cas, però penso que no és el moment encara de plantejar-ho com a política. Només com a tema a debatre. Kippelboy (disc.) 09:05, 13 març 2023 (CET)[respon]
  26. Objecció Objecció Cal estar pendent del futur a curt i mig termini i el debat o actualització ha de ser constant.guastevi (disc.) 12:35, 13 març 2023 (CET)[respon]
  27. En contraneutral Consentible En un tema que no hi entenc i no m'hi he posat, trobo bé tenir un punt de partida per elaborar més endavant una política. Aquest vot ve a ser com una abstenció --Pallares (disc.) 17:52, 13 març 2023 (CET)[respon]
  28. Comentari Comentari No vull que aquest comentari s'entengui com un intent de pervertir els resultats (diria que igualment el peix ja està tot venut), però pot ser que no s'estigui entenent correctament el sentit del vot "a favor"/"en contra". En aquest cas, "a favor" és "a favor de limitar l'ús de les IA" i "en contra" és "en contra de regular les IA, per tant que es puguin fer servir sense cap política que ho impedeixi explícitament". Ho dic perquè alguns comentaris (@Loupeter, Vallue, Pallares:) semblen argumentar en un sentit i votar en el contrari. Disculpeu si soc jo qui us ha interpretat malament. --Pau Colominas (t'ajudo?) 10:20, 15 març 2023 (CET)[respon]
    @Pau Colominas: Independentment que també em sorprenen certs vots, no crec que sigui correcte dir que qui vota en contra està "en contra de regular les IA, per tant que es puguin fer servir sense cap política que ho impedeixi explícitament". Estem votant simplement l'aprovació d'un assaig com a política de la Viquipèdia. Penso que és totalment compatible votar en contra del text i creure que l'ús de les IA està regulat amb els mecanismes ja existents a la Viquipèdia.--KRLS, (disc.) 14:37, 15 març 2023 (CET)[respon]
    D'acord amb en KRLS. Un dels motius per estar en contra de convertir aquest assaig (altrament interessant) en una política és que no regula res, i l'únic que regula és una de les esmenes que impedeix esborrar articles basant-se en que són fets amb IA, de manera que al final no només regula sinó que impedeix regular.--Pere prlpz (disc.) 15:42, 15 març 2023 (CET)[respon]
  29. Objecció Objecció Crec que més aviat del què ens pensem la IA substituirà per complet viquipèdia, que quedarà com una cosa del passat, igual que les enciclopèdies en línia van substituir les de paper, i no és un procés que puguem aturar, però encara falta alguna tongada de millores com per què haguem de prendre contramesures, especialment en la versió catalana, que tanmateix no serviran de res contra el que serà un tsunami quan la IA estigui plenament integrada als motors de cerca. --Amortres (disc.) 17:23, 15 març 2023 (CET)[respon]

Esmena 1[modifica]

  1. Comentari Comentari Pot ser una addició interessant al text, tot i que es podria intentar millorar-ne la concisió, però si el text no s'aprova com a política és millor discutir aquesta addició a la discussió de l'assaig, com qualsevol millora en una pàgina que no sigui una política.--Pere prlpz (disc.) 21:23, 1 març 2023 (CET)[respon]
  2. Comentari Comentari ho veig una addició necessària en cas d'aprovar-se com a política.--Josu PV (disc.) 22:47, 5 març 2023 (CET)[respon]
  3. A favorA favor Suport Necessari per complementar legalment quin és el valor de llicència legal dels textos generats per IA. Xavier Dengra (MISSATGES) 22:47, 6 març 2023 (CET)[respon]
  4. A favor Aprovació --Pau Colominas (t'ajudo?) 19:14, 7 març 2023 (CET)[respon]
  5. A favor Aprovació Si bé optaria per una versió més breu, un recordatori i un enllaç a la normativa vigent sobre copyright. -- Cataleirxs (disc.) 16:59, 8 març 2023 (CET)[respon]
  6. A favorA favor Suport Partidari d'especificar les clàusules legals del contingut.Jove (disc.) 17:14, 9 març 2023 (CET)[respon]

Esmena 2[modifica]

  1. Objecció Objecció Objecció si s'aprova el text general com a política. Si no, l'esmena val més discutir-la a la discussió de l'assaig. Si s'aprova la política, el que ve a dir aquesta esmena és que es pot fer servir la IA i que no es pot esborrar un article per ser fet amb IA. Aquesta norma em sembla com a mínim prematura, si no perillosa, i més quan seria l'única norma que contindria aquesta política, perquè la resta són reflexions que constitueixen de fet un assaig.--Pere prlpz (disc.) 21:26, 1 març 2023 (CET)[respon]
  2. Comentari Comentari A parer meu es dona a entendre sense voler que un text escrit amb IA està subjecte a ser esborrat, potser caldria donar-li una volta a la redacció i en tot cas crec simplement s'hauria de dirigir als criteris d'admissibilitat, cosa que ja es fa abans en el text.--Josu PV (disc.) 22:53, 5 març 2023 (CET)[respon]
  3. NeutralA favor Assumible redirigeix a d'altres polítiques existents per apel·lar al sentit crític viquipedista com en qualsevol altre contingut. És habitual que tinguem polítiques que redireccionen a d'altres. Una proposta d'esborrat normal si no és un text flagrant conviu bé amb la resta de polítiques. Xavier Dengra (MISSATGES) 22:47, 6 març 2023 (CET)[respon]
  4. Objecció Objecció --Pau Colominas (t'ajudo?) 19:16, 7 març 2023 (CET)[respon]
  5. En contraneutral Consentible Tots els articles són susceptibles de ser esborrats per FVA, per tant no trobo necessari recalcar-ho aquí. -- Cataleirxs (disc.) 16:59, 8 març 2023 (CET)[respon]
  6. Comentari Comentari Ho debatria després de veure si s'aprova o no tot plegat, no acabo d'entendre la necessitat de dir que es pot plantejar l'esborrament, quan sempre es pot plantejar de qualsevol article si s'argumenta corresponentment. --Medol (disc.) 19:18, 8 març 2023 (CET)[respon]
  7. Comentari Comentari Em mantinc a l'expectativa de l'aprovació del text per repensar si cal reforçar aquest aspecte.Jove (disc.) 17:17, 9 març 2023 (CET)[respon]

Conclusions[modifica]

Els resultats de la presa de decisions han estat de refusar el text proposat, sobre regulació dels textos generats per intel·ligència artificial, com a nova política i directriu de la Viquipèdia en català. Dels 28 participants que hi han exercit el seu vot, 17 s'hi han oposat i 10 hi han donat suport. Amb un vot consentible comptabilitzat com a abstenció, la proposta queda desestimada amb un 37,1% de vots a favor i un 62,9% en contra.

Tanmateix, la comunitat mostra predisposició general a mantenir Viquipèdia:Generació d'articles amb intel·ligència artificial com un assaig de recomanació i a seguir monitorant la situació de les IA. Pel que fa a les esmenes, l'aprovació general permet que se n'incorpori la primera, relativa a les infraccions de drets d'autor, per dotar de més context legal les recomanacions no vinculants del text inicial.

Transparència comunicativa[modifica]

Aquesta presa de decisió fou comunicada a la Taverna sis cops per encoratjar-ne la participació en ambdues fases de debat i de vot: Tema:Xcj66tns9o5j0oy4, Tema:Xe0dob1bkyaooqpn, Tema:Xbx1fnpdxy5267e0, Tema:Xcj66r95inujfe6f, Tema:Xdgk560l380ai1q8 i Tema:Xczmxw7kq7oswk8e. Les condicions de vot i de participació es van estipular durant la fase de debat a Tema:Xcu8ryhvk3vqmu19.

També fou traslladada a 70 usuaris actius, representatius dels actius entre els 150 primers viquipedistes per nombre d'edicions, per assegurar-ne el coneixement i intervenció. Els podeu consultar aquí.