Discussió:Lleis de la robòtica

El contingut de la pàgina no s'admet en altres llengües.
De la Viquipèdia, l'enciclopèdia lliure

Aquesta llei zero " Un robot no pot fer mal a la Humanitat o, per inacció, permetre que la Humanitat prengui cap mal" entraria en conflicte amb la primera llei, no crec que, com fica, sigui una generalització de la primera.

M'explicare: La humanitat són totes les persones. Però, què passaria si un sol home pel fet de viure posses en perill tota la
humanitat? Com actuaria el robot? No pot permetre la humanitat prengui mal, però tampoc pot fer res per acabar amb aquesta vida
per dos motius: la primera que aquest individu forma part de la humanitat, i la segona que entreria en conflicte amb la primera
llei. Però tampoc pot entregar-lo a alguna autoritat humana perquè, per lògica, ja sàbem quina decissió prendriem els humans i
això com ja he dit entreria en conflicte amb la llei zero i u. I ancara diria més, tampoc podria retenir-ho per una ordre d'un
huma perquè entreria en conflicte amb la segona llei.
La conclussió que en trec és que si hi han robots i es fan servir aquestes lleis no podrien treball en el negoci de la seguretat
(policia, guardespatlles, guardes de seguretat..). el comentari anterior sense signar és fet per 83.35.4.9 (disc.contr.) 01:33, 23 set 2010 (CEST)[respon]