Diferenzas entre revisións de «Entropía da información»

O concepto de entropía condicional é moi interesante no campo do [[Criptoanalítica|criptoanálise.]] Proporciona unha ferramenta para avaliar o grao de seguridade dos sistemas. Por exemplo, para un sistema de [[Cifrado (criptografía)|cifrado]] hai dúas entropías condicionais interesantes:
Supóñase<ref>"Applied cryptology, cryptographic protocols and computer security models", Richard A. DeMillo et al. </ref>
* Unha mensaxe ''M''<sub>1</sub> é sometido a un proceso de cifrado usando a clave ''K''<sub>1</sub> obtendo E(K1K<sub>1</sub>,M1M<sub>1</sub>)=C1C<sub>1</sub>.
* P C <math>P_C( K ) {\dis<math />laystyle P_{<math />}(<math />)} representan a probabilidade condicional da clave <math />''K'' dado o criptograma recibido ''C''. Ás veces tamén se denota por <math>P ( K|C)</math>.
* <math>P_C(M)</math> representan a probabilidade condicional da mensaxe ''M'' dado o criptograma recibido ''C''. Ás veces tamén se denota por <math>P(M|C)</math>.
 
<math /> C ) {\displaystyle P(K|C)}<math />
* P C ( M ) {\dis<math />laystyle P_{<math />}(<math />)} representan a probabilidade condicional da <math />mensaxe ''M'' dado o criptograma recibido C. Ás veces tamén se denota por P ( M
<math /> C ) {\displaystyle P(M|C)}<math />
Entón:
* Pódese cal<math />ularcalcular a entropía do coñecemento da clave unha vez coñecido o texto cifrado, e polo tanto medir a equivocación da mensaxe (en inglés, ''message equivocation''), <math>H_C(K)</math>, tamén denotada por <math>H(K|C)</math>, mediante a fórmula:
{{ecuación|
::<math>H_C(K)=- \sum_{E,K} P(E,K) \log_{P_E}(K)=- \sum_{E} P(E) \sum_{K} P_E(K) \log_{P_E}(K)</math>
<math /> C ( K ) {<math /> H_{C}(<math />)} , tamén denotada por H ( K
||left}}
: A primeira igualdade é pola definición da entropía condicional e a segunda por aplicación do [[teorema de Bayes]].
<math /> C ) {\displaystyle H(K|C)} , mediante a fórmula:<math />
: Obsérvese que se <math>H_C(K)=0</math> significa que se poderá romper o cifrado pois xa non hai incerteza. Esta anulación introduce o concepto de [[distancia de unicidade]].
: A primeira igualdade é pola definición da entropía condicional e a segunda por aplicación do [[Teorema de Bayes|teorema de Bayes.]]
* Pódese calcular a entropía do coñecemento da mensaxe unha vez coñecido o texto cifrado, e polo tanto medir a equivocación da clave (en inglés, ''key equivocation''), <math>H_C(M)</math>, tamén denotada por <math>H(M|C)</math>, mediante a fórmula:
: Obsérvese que se
{{ecuación|
::<math>H_C(M)=- \sum_{E,M} P(E,M) \log_{P_E}(M)=- \sum_{E} P(E) \sum_{M} P_E(M) \log_{P_E}(M)</math>
<math />
||left}}
: A primeira igualdade é pola definición da entropía condicional e a segunda por aplicación do teorema de Bayes.
<math /> (
 
<math /> ) =
==== Exemplo ====
<math /> {\displaystyle H_{C}(K)=0} significa que se poderá romper o cifrado pois xa non hai incerteza. Esta anulación introduce o concepto de [[Distancia de unicidad|distancia de unicidade]].
Supóñase unha variable ''X'' con catro estados: <math>x_1, x_2, x_3, x_4</math> todos equiprobables e polo tanto <math>p(x_i)=1/4</math>.
* Pódese calc<math />ular a entropía do coñece<math />mento da mensaxe unha vez coñecido o texto cifrado, e polo tanto medir a equivocación da clave (en inglés, ''key equivocation''),
 
Existe ademais outra variable ''Y'' con tres estados; <math>y_1, y_2, y_3 </math> con probabilidades <math>p(y_1)=1/2</math> e <math>p(y_2)=p(y_3)=1/4</math>.
<math /> C ( M ) {<math /> H_{C}(M)} , tamén denotada por H ( M
<math /> C ) {\displaystyle H(M|C)} , mediante a fórmula:<math />
: A primeira igualdade é pola definición da entropía condicional e a segunda por aplicación do [[teorema de Bayes]].
Supóñase unha vari<math />able ''X'' con catro estados:
<math />
1
,
<math />
<math />
,
<math />
<math />
,
<math />
4
{<math /> <math />_{<math />},x_{2},x_{3},x_{<math />}}
todos equiprobables e polo tanto
p
(
x
i
)
=
1
/
4
{\displaystyle p(x_{i})=1/4}
.<math /><math />
Existe<math /> ade<math />mais outra variable<math /> <math /> con tre<math />s estados;
<math />
1
,
e
2
,
e
3
{<math /> e_{<math />},e_{<math />},e_{<math />}}
con p<math />robabilidades
<math />
(
e
<math />
)
=
<math />
/
<math />
{<math /> p(e_{1})=1/2}
e
p (
e
2
)
=
p
(
e
3
)
=
1
/
<math />
{\displaystyle p(e_{2})=p(e_{3})=1/4}
.<math />
Coñécense, ademais, as seguintes dependencias:
: Se <math>Y=y_1</math> entón os posibles valores de ''x'' son <math>x_1,x_2,x_3,x_4</math>
: Se E =
: Se <math>Y=y_2</math> entón os posibles valores de ''x'' son <math>x_2,x_3</math>
: Se <math /> 1 {Y=y_3<math /> E=e_{<math /><nowiki>}} entón os posibles valores de ''x'' son <math>x_3,x_4</nowikimath>
<math /> 1 ,
<math />
<math /> ,
<math />
<math /> ,
<math />
<math /> <nowiki>{\displaystyle x_{1},x_{2},x_{3},x_{4}}</nowiki><math />
: Se E =
<math /> 2 {<math /> E=e_{<math /><nowiki>}} entón os posibles valores de x son </nowiki>
<math /> 2 ,
<math />
<math /> <nowiki>{\displaystyle x_{2},x_{3}}</nowiki><math />
: Se E =
<math /> 3 {<math /> E=e_{<math /><nowiki>}} entón os posibles valores de x son </nowiki>
<math /> 3 ,
<math />
<math /> <nowiki>{\displaystyle x_{3},x_{4}}</nowiki><math />
Aplicando as fórmulas tense:
:<math>H(X)=2</math>
 
:<math>H(Y)=1,5</math>
:<math>H(X/Y)=1,5</math>
Neste caso o coñecemento da dependencia de ''X'' respecto de ''Y'' reduce a entropía de ''X'' de 2 a 1,5.
 
40.010

edicións