Entropia de Shannon

De Viquipèdia
Salta a: navegació, cerca

L'entropia de Shannon, formulada per Claude Shannon, és una funció matemàtica que intuïtivament correspon amb la quantitat d'informació continguda o lliurada per una font d'informació. Aquesta font pot ser un text escrit en una llengua, un senyal elèctric, un fitxer d'ordinador o qualsevol (col·lecció de bytes). Des de la perspectiva d'un receptor, com més informació diferent emet la font més gran és la seva entropia (altrament dit, incertesa sobre el que emet la font), i viceversa.

Enllaços externs[modifica]

A Wikimedia Commons hi ha contingut multimèdia relatiu a: Entropia de Shannon Modifica l'enllaç a Wikidata