Entropía da información: Diferenzas entre revisións
Contido eliminado Contido engadido
→Cociente de entropía: Arranxos |
→Entropía dun proceso estocástico: Arranxos |
||
Liña 127:
== Entropía dun proceso estocástico ==
Un [[proceso estocástico]] <math>\{X_i\}</math> é unha secuencia indexada de variables aleatorias.<ref name="cover">Thomas M. Cover, Joy A. Thomas,"Elements of Information Theory", John Wiley & Sons.
:<math>Pr[(X_1,X_2,...,X_n)=(x_1,x_2,...,x_n)]=p(x_1,x_2,...,x_n)</math>
▲é unha secuencia indexada de variables aleatorias.<ref name="cover">Thomas M. Cover, Joy A. Thomas,"Elements of Information Theory", John Wiley & Sons. </ref> En xeral, pode haber dependencias entre as variables aleatorias. Para estudar a probabilidade de certo conxunto de valores adóitase adoptar o seguinte convenio:
Sexa <math>\{X_i\}_{i=1,..n}</math> un proceso estocástico de ''n'' variables aleatorias, e sexa <math> A^n</math> o conxunto das posibles combinacións de valores de <math>\{X_i\}_{i=1,..n}</math>. Defínese a entropía do proceso estocástico, tamén chamada entropía do ''n''-grama e denotado por <math>H_n</math>, como:
:<math>H_n=H(X_1,...,X_n)= \sum_{s \in A^n} -P((X_1,...,X_n)=s) \log P((X_1,...,X_n)=s)</math>
=== Cociente de entropía ===
|