Entropía da información: Diferenzas entre revisións

Contido eliminado Contido engadido
Jglamela (conversa | contribucións)
Jglamela (conversa | contribucións)
Liña 40:
=== Exemplos ===
* A entropía dunha mensaxe ''M'' de lonxitude 1 carácter que emprega o conxunto de caracteres [[ASCII]], supondo unha equiprobabilidade nos 256 caracteres ASCII, será:
:<math>H(M)= \log_2(256)=8</math>
 
* Supóñase que o número de estados dunha mensaxe é igual a <sub>3</sub>, ''M''<sub>1</sub>, ''M''<sub>2</sub> e ''M''<sub>3</sub> onde a probabilidade de ''M''<sub>1</sub> é 50 &nbsp;%, a de ''M''<sub>2</sub> 25 &nbsp;% e a de ''M''<sub>3</sub> 25 &nbsp;%. Polo tanto, a entropía da información é:
 
=== Información mutua ===