Teoría da información: Diferenzas entre revisións

Contido eliminado Contido engadido
m r2.7.1) (bot Engadido: nn:Informasjonsteori
m Bot: Substitución automática de texto (-proprio +propio & -propria +propia & -proprios +propios & -proprias +propias)
Liña 22:
A información mutua está relacionada de forma moi próxima con testes estatísticos como o teste de razón logarítmica e mais co teste Chi-cadrado.
 
A teoría da información de Shannon é apropriadaapropiada para medir incertedume sobre un espazo desordenado. Unha medida alternativa de información foi criada por Fisher para medir incertedume sobre un espazo ordenado. Por exemplo, a información de Shannon é usada sobre un espazo de letras do alfabeto, xa que letras non teñen 'distancias' entre elas. Para información sobre valores de parámetros continuos, como as alturas de persoas, úsase a información de Fisher, xa que os tamaños estimados teñen unha distancia ben definida.
 
As diferenzas na información de Shannon corresponden a un caso especial da distancia de Kullback-Leibler da estatística Bayesiana, unha medida de distancia entre distribucións de probabilidade a priori e a posteriori.