Teoria de la informació

De Viquipèdia
Dreceres ràpides: navegació, cerca


La Teoria de la informació és una branca de la teoria matemàtica de la probabilitat i l'estadística que estudia la informació i tot el relacionat amb aquesta, és a dir els canals, la compressió de dades, la criptografia i d'altres temes relacionats.

Aquesta branca fou iniciada per Claude E. Shannon a través de l'article "Una teoria matemàtica de la comunicació" presentat a les Bell System Technical Journal del 1948 i ens permet valorar la capacitat de transmetre informació per un canal de comunicació d'acord amb la seva amplada de banda i la seva relació senyal a soroll.

La informació es tractada doncs com una magnitud física i per a caracteritzar la informació que transmet una seqüència de símbols s'usa un concepte anomenat entropia. Normalment considerem els canals no ideals però és habitual idealitzar les no linealitats per tal de poder estudiar la màxima quantitat d'informació útil que es pot arribar a enviar a través d'un cert canal.

La idea bàsica d'aquesta teoria és que la informació transmesa a través de qualsevol mitjà (telèfon, telègraf, televisió, etc.) ho és amb l'ajuda d'un determinat canal (línia telefònica o telegràfica, ondes hertzianes) i amb un codi particular. Els estudis d'aquesta teoria es divideixen en tres grans sectors:

  • Estudi de la informació o quantitat d'informació
  • Estudi de les propietats dels canals de transmissió
  • Estudi de les relacions entre la informació que es vol transmetre i el canal a partir del qual es vols transmetre

Estudi de la quantitat d'informació[modifica | modifica el codi]

La teoria de la informació es basa en la teoria de probabilitat i estadística. La quantitat d'informació més importants és l'entropia, la informació en una variable aleatòria, i la informació mútua, la quantitat d'informació en comú entre dues variables aleatòries. La quantitat anterior indica la facilitat amb què les dades del missatge pot ser comprimit, mentre que l'últim pot ser utilitzat per trobar el tipus de comunicació a través d'un canal.

L'elecció de la base logarítmica en la següent fórmula determina la unitat de l'entropia d'informació que s'utilitza. La unitat més comuna de la informació és el bit, basat en el logaritme en base. Altres unitats inclouen el NAT, que es basa en el logaritme natural, i el Hartley, que es basa en el logaritme comú.

Aplicacions de la teoria de la informació[modifica | modifica el codi]


Vegeu també[modifica | modifica el codi]

Enllaços externs[modifica | modifica el codi]