Efecte ELIZA: diferència entre les revisions

De la Viquipèdia, l'enciclopèdia lliure
Contingut suprimit Contingut afegit
m Gestió de l'entitat nbsp
m reparo referències i retocs d'estandardització
Línia 1: Línia 1:
L'efecte ELIZA, en [[Ciències de la computació|ciències computacionals]], és la tendència a assumir, inconscientment, que els comportaments informàtics són anàlegs als comportaments humans.
L'efecte ELIZA, en [[Ciències de la computació|ciències computacionals]], és la tendència a assumir, inconscientment, que els comportaments informàtics són anàlegs als comportaments humans.


En la seva forma més específica, l'efecte ELIZA es refereix només a "la susceptibilitat de les persones a buscar una major comprensió en cadenes de símbols -especialment les paraules- enfilats per computadores".<ref name="Hofstadter1996">Hofstadter, Douglas R.. [http://books.google.cat/?id=somvbmHCaOEC]{{Enllaç no actiu|bot=InternetArchiveBot |data=2021}}.&#x20; Basic Books. [[Especial:Fonts bibliogràfiques/978-0-465-02475-9|ISBN 978-0-465-02475-9]].<span class="Z3988" title="ctx_ver=Z39.88-2004&rft_val_fmt=info%3Aofi%2Ffmt%3Akev%3Amtx%3Abook&rft.genre=book&rft.btitle=&rft.au=Hofstadter%2C+Douglas+R.&rft.pub=Basic+Books&rft.isbn=978-0-465-02475-9&rft_id=http%3A%2F%2Fbooks.google.cat%2F%3Fid%3DsomvbmHCaOEC" id="cxCITAREFHofstadter.2C_Douglas_R.1996" tabindex="0">&nbsp;</span></ref> Un exemple trivial d'aquesta forma de l'efecte Eliza, donada per [[Douglas Hofstadter]], implica un [[caixer automàtic]] que mostra la paraula "GRÀCIES" al final d'una transacció. Algú poc observador podria pensar que la màquina està en realitat expressant gratitud; no obstant això, la màquina només està imprimint una cadena pre programada de símbols.
En la seva forma més específica, l'efecte ELIZA es refereix només a "la susceptibilitat de les persones a buscar una major comprensió en cadenes de símbols -especialment les paraules- enfilats per computadores".<ref name="Hofstadter1996">Hofstadter, Douglas R. Basic Books. [[Especial:Fonts bibliogràfiques/978-0-465-02475-9|ISBN 978-0-465-02475-9]].<span class="Z3988" title="ctx_ver=Z39.88-2004&rft_val_fmt=info%3Aofi%2Ffmt%3Akev%3Amtx%3Abook&rft.genre=book&rft.btitle=&rft.au=Hofstadter%2C+Douglas+R.&rft.pub=Basic+Books&rft.isbn=978-0-465-02475-9&rft_id=http%3A%2F%2Fbooks.google.cat%2F%3Fid%3DsomvbmHCaOEC" id="cxCITAREFHofstadter.2C_Douglas_R.1996" tabindex="0"> </span></ref> Un exemple trivial d'aquesta forma de l'efecte Eliza, donada per [[Douglas Hofstadter]], implica un [[caixer automàtic]] que mostra la paraula "GRÀCIES" al final d'una transacció. Algú poc observador podria pensar que la màquina està en realitat expressant gratitud; no obstant això, la màquina només està imprimint una cadena pre programada de símbols.


Més general, l'efecte ELIZA descriu qualsevol situació on,<ref name="Fenton-Kerr1999">{{Cite book|chapter=GAIA: An Experimental Pedagogical Agent for Exploring Multimodal Interaction|title=Computation for Metaphors, Analogy, and Agents|last=Fenton-Kerr|first=Tom|series=Lecture Notes in Computer Science|year=1999|volume=1562|publisher=Springer|page=156|doi=10.1007/3-540-48834-0_9|isbn=978-3-540-65959-4|quote=''Although Hofstadter is emphasizing the text mode here, the "Eliza effect" can be seen in almost all modes of human/computer interaction.''}}</ref><ref name="Ekbia20082">{{cite book|title=Artificial Dreams: The Quest for Non-Biological Intelligence|last=Ekbia|first=Hamid R.|publisher=Cambridge University Press|year=2008|isbn=978-0-521-87867-8|page=[https://archive.org/details/artificialdreams0000ekbi/page/n23 8]|url=https://archive.org/details/artificialdreams0000ekbi|url-access=registration}}</ref> basant-se únicament en la sortida del sistema, els usuaris perceben els sistemes informàtics com si tinguessin "qualitats i habilitats intrínseques controlades pel programari que possiblement no podrien aconseguir"<ref name="King19952">{{Cite techreport|title=Anthropomorphic Agents: Friend, Foe, or Folly|first=W.|last=King|id=M-95-1|publisher=University of Washington|year=1995}}</ref> o "assumeixen que les sortides reflecteixen una major causalitat del que realment signifiquen."<ref name="Rouse20052">{{cite book|title=Organizational Simulation|last1=Rouse|first1=William B.|last2=Boff|first2=Kenneth R.|publisher=Wiley-IEEE|year=2005|isbn=978-0-471-73943-2|url=https://books.google.com/books?id=371wV4dI7ckC&pg=PA308|pages=308–309|quote=''This is a particular problem in digital environments where the "Eliza effect" as it is sometimes called causes interactors to assume that the system is more intelligent than it is, to assume that events reflect a greater causality than they actually do.''}}</ref> Tant en la seva forma específica com en la general, l'efecte ELIZA és notable, ja que ocorre fins i tot quan els usuaris del sistema són conscients de la naturalesa [[Propietat (ontologia)|determinada]] de la sortida produïda pel sistema. Des d'un punt de vista psicològic, l'efecte ELIZA és el resultat d'una [[dissonància cognitiva]] subtil entre la consciència de l'usuari davant les limitacions de programació i el seu comportament cap a la sortida del [[Programa informàtic|programa.]]<ref name="Ekbia2008_quote"> [http://books.google.cat/?id=4wEIlNjO0x0C&pg=PA156]. Cambridge University Press. [[Especial:Fonts bibliogràfiques/978-0-521-87867-8|ISBN 978-0-521-87867-8]].<span class="Z3988" title="ctx_ver=Z39.88-2004&rft_val_fmt=info%3Aofi%2Ffmt%3Akev%3Amtx%3Abook&rft.genre=book&rft.btitle=&rft.pub=Cambridge+University+Press&rft.isbn=978-0-521-87867-8&rft_id=http%3A%2F%2Fbooks.google.cat%2F%3Fid%3D4wEIlNjO0x0C%26pg%3DPA156" id="cxmwWg" tabindex="0"> </span></ref> El descobriment de l'efecte ELIZA va ser molt important per al desenvolupament en la [[intel·ligència artificial]], demostrant el principi d'utilitzar l'enginyeria social en lloc de la programació explícita passar la [[Test de Turing|prova de Turing]].<ref name="Trappl20022">{{cite book|title=Emotions in Humans and Artifacts|last1=Trappl|first1=Robert|last2=Petta|first2=Paolo|last3=Payr|first3=Sabine|page=353|year=2002|isbn=978-0-262-20142-1|quote=''The "Eliza effect" — the tendency for people to treat programs that respond to them as if they had more intelligence than they really do (Weizenbaum 1966) is one of the most powerful tools available to the creators of virtual characters.''|url=https://books.google.com/books?id=jTgMIhy6YZMC&pg=PA353|publisher=MIT Press|location=Cambridge, Mass.}}</ref>
Més general, l'efecte ELIZA descriu qualsevol situació on, basant-se únicament en la sortida del sistema, els usuaris perceben els sistemes informàtics com si tinguessin "qualitats i habilitats intrínseques controlades pel programari que possiblement no podrien aconseguir" o "assumeixen que les sortides reflecteixen una major causalitat del que realment signifiquen."<ref name="Fenton-Kerr1999">&#x20;''Falta indicar la publicació
''.&#x20;Springer.</ref><ref name="Ekbia2008"> [http://books.google.cat/?id=4wEIlNjO0x0C&pg=PA8].&#x20; [[Cambridge University Press]]. [[Especial:Fonts bibliogràfiques/978-0-521-87867-8|ISBN 978-0-521-87867-8]].<span class="Z3988" title="ctx_ver=Z39.88-2004&rft_val_fmt=info%3Aofi%2Ffmt%3Akev%3Amtx%3Abook&rft.genre=book&rft.btitle=&rft.pub=%5B%5BCambridge+University+Press%5D%5D&rft.isbn=978-0-521-87867-8&rft_id=http%3A%2F%2Fbooks.google.cat%2F%3Fid%3D4wEIlNjO0x0C%26pg%3DPA8" id="cxCITAREFEkbia2008" tabindex="0">&nbsp;</span></ref><ref name="King1995">&#x20;''Falta indicar la publicació
''.&#x20;University of Washington.</ref><ref name="Rouse2005"> [http://books.google.cat/?id=371wV4dI7ckC&pg=PA308].&#x20; Wiley-IEEE. [[Especial:Fonts bibliogràfiques/978-0-471-73943-2|ISBN 978-0-471-73943-2]].<span class="Z3988" title="ctx_ver=Z39.88-2004&rft_val_fmt=info%3Aofi%2Ffmt%3Akev%3Amtx%3Abook&rft.genre=book&rft.btitle=&rft.pub=Wiley-IEEE&rft.isbn=978-0-471-73943-2&rft_id=http%3A%2F%2Fbooks.google.cat%2F%3Fid%3D371wV4dI7ckC%26pg%3DPA308" id="cxCITAREFRouseBoff2005" tabindex="0">&nbsp;</span></ref> Tant en la seva forma específica com en la general, l'efecte ELIZA és notable, ja que ocorre fins i tot quan els usuaris del sistema són conscients de la naturalesa [[Propietat (ontologia)|determinada]] de la sortida produïda pel sistema. Des d'un punt de vista psicològic, l'efecte ELIZA és el resultat d'una [[dissonància cognitiva]] subtil entre la consciència de l'usuari davant les limitacions de programació i el seu comportament cap a la sortida del [[Programa informàtic|programa.]]<ref name="Ekbia2008_quote"> [http://books.google.cat/?id=4wEIlNjO0x0C&pg=PA156].&#x20; Cambridge University Press. [[Especial:Fonts bibliogràfiques/978-0-521-87867-8|ISBN 978-0-521-87867-8]].<span class="Z3988" title="ctx_ver=Z39.88-2004&rft_val_fmt=info%3Aofi%2Ffmt%3Akev%3Amtx%3Abook&rft.genre=book&rft.btitle=&rft.pub=Cambridge+University+Press&rft.isbn=978-0-521-87867-8&rft_id=http%3A%2F%2Fbooks.google.cat%2F%3Fid%3D4wEIlNjO0x0C%26pg%3DPA156" id="cxmwWg" tabindex="0">&nbsp;</span></ref> El descobriment de l'efecte ELIZA va ser molt important per al desenvolupament en la [[intel·ligència artificial]], demostrant el principi d'utilitzar l'enginyeria social en lloc de la programació explícita passar la [[Test de Turing|prova de Turing]].<ref name="Trappl2002"> [http://books.google.cat/?id=jTgMIhy6YZMC&pg=PA353].&#x20; [[MIT Press]]. [[Especial:Fonts bibliogràfiques/978-0-262-20142-1|ISBN 978-0-262-20142-1]].<span class="Z3988" title="ctx_ver=Z39.88-2004&rft_val_fmt=info%3Aofi%2Ffmt%3Akev%3Amtx%3Abook&rft.genre=book&rft.btitle=&rft.pub=%5B%5BMIT+Press%5D%5D&rft.isbn=978-0-262-20142-1&rft_id=http%3A%2F%2Fbooks.google.cat%2F%3Fid%3DjTgMIhy6YZMC%26pg%3DPA353" id="cxCITAREFTrapplPettaPayr2002" tabindex="0">&nbsp;</span></ref>


== Origen ==
== Origen ==
Línia 15: Línia 13:
: Humà: És cert. Sóc infeliç.
: Humà: És cert. Sóc infeliç.
: ELIZA: Creu vostè que venir aquí li ajudarà a no ser infeliç?<ref name="Güzeldere1">{{ref-web|títol=dialogues with colorful personalities of early ai|cognom=Güzeldere|nom=Güven|autor2=Franchi, Stefano|url=http://www.stanford.edu/group/SHR/4-2/text/dialogues.html|consulta=30 de juliol de 2007|urlarxiu=https://www.webcitation.org/5uQo99jVH?url=http://www.stanford.edu/group/SHR/4-2/text/dialogues.html|dataarxiu=22 de novembre de 2010|deadurl=no|arxiuurl=https://web.archive.org/web/20070711204557/http://www.stanford.edu/group/SHR/4-2/text/dialogues.html|arxiudata=2007-07-11}}</ref>
: ELIZA: Creu vostè que venir aquí li ajudarà a no ser infeliç?<ref name="Güzeldere1">{{ref-web|títol=dialogues with colorful personalities of early ai|cognom=Güzeldere|nom=Güven|autor2=Franchi, Stefano|url=http://www.stanford.edu/group/SHR/4-2/text/dialogues.html|consulta=30 de juliol de 2007|urlarxiu=https://www.webcitation.org/5uQo99jVH?url=http://www.stanford.edu/group/SHR/4-2/text/dialogues.html|dataarxiu=22 de novembre de 2010|deadurl=no|arxiuurl=https://web.archive.org/web/20070711204557/http://www.stanford.edu/group/SHR/4-2/text/dialogues.html|arxiudata=2007-07-11}}</ref>
Encara que va ser dissenyat estrictament com un mecanisme per mantenir "converses en llenguatge natural" amb un ordinador, el script DOCTOR de ELIZA va resultar ser un èxit sorprenent en l'obtenció de respostes emocionals dels usuaris que, en el curs de la interacció amb el programa, van començar a atribuir comprensió i motivació en les sortides del programa.<ref name="Suchman12">{{cite book|first=Lucy A.|last=Suchman|title=Plans and Situated Actions: The problem of human-machine communication|publisher=Cambridge University Press|year=1987|isbn=978-0-521-33739-7|page=24|access-date=2008-06-17|url=https://books.google.com/books?id=AJ_eBJtHxmsC&q=Suchman+Plans+and+Situated+Actions}}</ref> Com Weizenbaum més tard va escriure: "No m'havia adonat... que exposicions extremadament curtes a un programa d'ordinador relativament simple podrien induir un poderós pensament delirant en persones bastant normals." <ref name="Weizenbaum12">{{cite book|first=Joseph|last=Weizenbaum|title=Computer power and human reason: from judgment to calculation|url=https://archive.org/details/computerpowerhum0000weiz|url-access=registration|year=1976|publisher=W. H. Freeman|page=[https://archive.org/details/computerpowerhum0000weiz/page/7 7]}}</ref> De fet, el codi de ELIZA no havia estat dissenyat per evocar aquesta reacció en el primer lloc. A partir d'aquesta observació, els investigadors van descobrir que els usuaris assumien, inconscientment, que les preguntes de ELIZA implicaven interès i involucración emocional en els temes tractats, ''tot i que conscientment sabien que ELIZA no simula emoció''.<ref name="Billings1">Billings, Lee «[http://www.seedmagazine.com/news/2007/07/rise_of_roboethics.php Rise of Roboethics] {{Webarchive|url=https://www.webcitation.org/5uQo9drKF?url=http://www.seedmagazine.com/news/2007/07/rise_of_roboethics.php |date=2010-11-22}}». ''[[Seed (magazine)|Seed]]'', 16-07-2007. «(Joseph) Weizenbaum had unexpectedly discovered that, even if fully aware that they are talking to a simple computer program, people will nonetheless treat it as if it were a real, thinking being that cared about their problems - a phenomenon now known as the "Eliza Effect."»</ref>
Encara que va ser dissenyat estrictament com un mecanisme per mantenir "converses en llenguatge natural" amb un ordinador, el script DOCTOR de ELIZA va resultar ser un èxit sorprenent en l'obtenció de respostes emocionals dels usuaris que, en el curs de la interacció amb el programa, van començar a atribuir comprensió i motivació en les sortides del programa.<ref name="Weizenbaum2">&#x20;''Falta indicar la publicació
''.&#x20;[[Massachusetts Institute of Technology]]. [[DOI]]: [[doi:10.1145/365153.365168|10.1145/365153.365168]].</ref><ref name="Suchman1"> [http://books.google.cat/?id=AJ_eBJtHxmsC&dq=Suchman+Plans+and+Situated+Actions].&#x20; Cambridge University Press. [[Especial:Fonts bibliogràfiques/978-0-521-33739-7|ISBN 978-0-521-33739-7]].<span class="Z3988" title="ctx_ver=Z39.88-2004&rft_val_fmt=info%3Aofi%2Ffmt%3Akev%3Amtx%3Abook&rft.genre=book&rft.btitle=&rft.pub=Cambridge+University+Press&rft.isbn=978-0-521-33739-7&rft_id=http%3A%2F%2Fbooks.google.cat%2F%3Fid%3DAJ_eBJtHxmsC%26dq%3DSuchman%2BPlans%2Band%2BSituated%2BActions" id="cxCITAREFSuchman1987" tabindex="0">&nbsp;</span></ref> Com Weizenbaum més tard va escriure: "No m'havia adonat... que exposicions extremadament curtes a un programa d'ordinador relativament simple podrien induir un poderós pensament delirant en persones bastant normals."<ref name="Weizenbaum1"> ''<nowiki>{{{títol}}}</nowiki>''.&#x20; W. H. Freeman.<span class="Z3988" title="ctx_ver=Z39.88-2004&rft_val_fmt=info%3Aofi%2Ffmt%3Akev%3Amtx%3Abook&rft.genre=book&rft.btitle=&rft.pub=W.+H.+Freeman" id="cxCITAREFWeizenbaum1976" tabindex="0">&nbsp;</span></ref> De fet, el codi de ELIZA no havia estat dissenyat per evocar aquesta reacció en el primer lloc. A partir d'aquesta observació, els investigadors van descobrir que els usuaris assumien, inconscientment, que les preguntes de ELIZA implicaven interès i involucración emocional en els temes tractats, ''tot i que conscientment sabien que ELIZA no simula emoció''.<ref name="Billings1">Billings, Lee&#x20;«[http://www.seedmagazine.com/news/2007/07/rise_of_roboethics.php Rise of Roboethics] {{Webarchive|url=https://www.webcitation.org/5uQo9drKF?url=http://www.seedmagazine.com/news/2007/07/rise_of_roboethics.php |date=2010-11-22}}».&#x20;''[[Seed (magazine)|Seed]]'',&#x20;16-07-2007.&#x20;«(Joseph) Weizenbaum had unexpectedly discovered that, even if fully aware that they are talking to a simple computer program, people will nonetheless treat it as if it were a real, thinking being that cared about their problems - a phenomenon now known as the "Eliza Effect."»</ref>


== Referències ==
{{Referències}}
== Vegeu també ==
== Vegeu també ==
* [[Test de Turing]]
* [[Test de Turing]]
Línia 24: Línia 23:
* [[Vall inquietant]]
* [[Vall inquietant]]


== Referències ==
== Bibliografia ==
{{Referències}}

== Referències ==
* Hofstadter, Douglas. Preface 4: The Ineradicable Eliza Effect and Its Dangers. (from ''Fluïu Concepts and Creative Analogies'': Computer Models of the Fonamental Mechanisms of Thought, Basic Books: New York, 1995)
* Hofstadter, Douglas. Preface 4: The Ineradicable Eliza Effect and Its Dangers. (from ''Fluïu Concepts and Creative Analogies'': Computer Models of the Fonamental Mechanisms of Thought, Basic Books: New York, 1995)
* Turkle, S., Eliza Effect: tendency to accept computer responses as more intelligent than they really are (from ''Life on the screen- Identity in the Age of the Internet'', Phoenix Paperback: London, 1997)
* Turkle, S., Eliza Effect: tendency to accept computer responses as more intelligent than they really are (from ''Life on the screen- Identity in the Age of the Internet'', Phoenix Paperback: London, 1997)

Revisió del 13:14, 18 juny 2022

L'efecte ELIZA, en ciències computacionals, és la tendència a assumir, inconscientment, que els comportaments informàtics són anàlegs als comportaments humans.

En la seva forma més específica, l'efecte ELIZA es refereix només a "la susceptibilitat de les persones a buscar una major comprensió en cadenes de símbols -especialment les paraules- enfilats per computadores".[1] Un exemple trivial d'aquesta forma de l'efecte Eliza, donada per Douglas Hofstadter, implica un caixer automàtic que mostra la paraula "GRÀCIES" al final d'una transacció. Algú poc observador podria pensar que la màquina està en realitat expressant gratitud; no obstant això, la màquina només està imprimint una cadena pre programada de símbols.

Més general, l'efecte ELIZA descriu qualsevol situació on,[2][3] basant-se únicament en la sortida del sistema, els usuaris perceben els sistemes informàtics com si tinguessin "qualitats i habilitats intrínseques controlades pel programari que possiblement no podrien aconseguir"[4] o "assumeixen que les sortides reflecteixen una major causalitat del que realment signifiquen."[5] Tant en la seva forma específica com en la general, l'efecte ELIZA és notable, ja que ocorre fins i tot quan els usuaris del sistema són conscients de la naturalesa determinada de la sortida produïda pel sistema. Des d'un punt de vista psicològic, l'efecte ELIZA és el resultat d'una dissonància cognitiva subtil entre la consciència de l'usuari davant les limitacions de programació i el seu comportament cap a la sortida del programa.[6] El descobriment de l'efecte ELIZA va ser molt important per al desenvolupament en la intel·ligència artificial, demostrant el principi d'utilitzar l'enginyeria social en lloc de la programació explícita passar la prova de Turing.[7]

Origen

L'efecte és nomenat el 1966 a partir del bot conversacional ELIZA, desenvolupat per l'informàtic del MIT Joseph Weizenbaum. En executar el script DOCTOR de Weizenbaum, ELIZA va parodiar a un psicoterapeuta de l'escola de Rogers, en gran part en reformular les respostes del "pacient" com a preguntes:

Humà: Bé, el meu nuvi em m'ha fet venir aquí.
ELIZA: El teu nuvi t'ha fet venir aquí?
Humà: Ell diu que estic deprimida la major part del temps.
ELIZA: Lamento escoltar que estiguis deprimida.
Humà: És cert. Sóc infeliç.
ELIZA: Creu vostè que venir aquí li ajudarà a no ser infeliç?[8]

Encara que va ser dissenyat estrictament com un mecanisme per mantenir "converses en llenguatge natural" amb un ordinador, el script DOCTOR de ELIZA va resultar ser un èxit sorprenent en l'obtenció de respostes emocionals dels usuaris que, en el curs de la interacció amb el programa, van començar a atribuir comprensió i motivació en les sortides del programa.[9] Com Weizenbaum més tard va escriure: "No m'havia adonat... que exposicions extremadament curtes a un programa d'ordinador relativament simple podrien induir un poderós pensament delirant en persones bastant normals." [10] De fet, el codi de ELIZA no havia estat dissenyat per evocar aquesta reacció en el primer lloc. A partir d'aquesta observació, els investigadors van descobrir que els usuaris assumien, inconscientment, que les preguntes de ELIZA implicaven interès i involucración emocional en els temes tractats, tot i que conscientment sabien que ELIZA no simula emoció.[11]

Referències

  1. Hofstadter, Douglas R. Basic Books. ISBN 978-0-465-02475-9.
  2. Fenton-Kerr, Tom. «GAIA: An Experimental Pedagogical Agent for Exploring Multimodal Interaction». A: Computation for Metaphors, Analogy, and Agents. 1562. Springer, 1999, p. 156 (Lecture Notes in Computer Science). DOI 10.1007/3-540-48834-0_9. ISBN 978-3-540-65959-4. «Although Hofstadter is emphasizing the text mode here, the "Eliza effect" can be seen in almost all modes of human/computer interaction.» 
  3. Ekbia, Hamid R. Artificial Dreams: The Quest for Non-Biological Intelligence. Cambridge University Press, 2008, p. 8. ISBN 978-0-521-87867-8. 
  4. King, W. (1995). Anthropomorphic Agents: Friend, Foe, or Folly (Technical report). University of Washington. M-95-1.
  5. Rouse, William B.; Boff, Kenneth R. Organizational Simulation. Wiley-IEEE, 2005, p. 308–309. ISBN 978-0-471-73943-2. «This is a particular problem in digital environments where the "Eliza effect" as it is sometimes called causes interactors to assume that the system is more intelligent than it is, to assume that events reflect a greater causality than they actually do.» 
  6. [1]. Cambridge University Press. ISBN 978-0-521-87867-8.
  7. Trappl, Robert; Petta, Paolo; Payr, Sabine. Emotions in Humans and Artifacts. Cambridge, Mass.: MIT Press, 2002, p. 353. ISBN 978-0-262-20142-1. «The "Eliza effect" — the tendency for people to treat programs that respond to them as if they had more intelligence than they really do (Weizenbaum 1966) is one of the most powerful tools available to the creators of virtual characters.» 
  8. Güzeldere, Güven; Franchi, Stefano. «dialogues with colorful personalities of early ai». Arxivat de l'original el 2007-07-11. [Consulta: 30 juliol 2007].
  9. Suchman, Lucy A. Plans and Situated Actions: The problem of human-machine communication. Cambridge University Press, 1987, p. 24. ISBN 978-0-521-33739-7. 
  10. Weizenbaum, Joseph. Computer power and human reason: from judgment to calculation. W. H. Freeman, 1976, p. 7. 
  11. Billings, Lee «Rise of Roboethics Arxivat 2010-11-22 at WebCite». Seed, 16-07-2007. «(Joseph) Weizenbaum had unexpectedly discovered that, even if fully aware that they are talking to a simple computer program, people will nonetheless treat it as if it were a real, thinking being that cared about their problems - a phenomenon now known as the "Eliza Effect."»

Vegeu també

Bibliografia

  • Hofstadter, Douglas. Preface 4: The Ineradicable Eliza Effect and Its Dangers. (from Fluïu Concepts and Creative Analogies: Computer Models of the Fonamental Mechanisms of Thought, Basic Books: New York, 1995)
  • Turkle, S., Eliza Effect: tendency to accept computer responses as more intelligent than they really are (from Life on the screen- Identity in the Age of the Internet, Phoenix Paperback: London, 1997)
  • ELIZA effect, des de Jargon File, version 4.4.7. Accesado el 8 d'octubre de 2006.