Diferenzas entre revisións de «Entropía da información»

Sem resumo de edição
 
== Relación coa entropía termodinámica ==
A entropía da teoría da información está estreitamente relacionada coa [[Entropía|entropía termodinámica.]]. Na termodinámica estúdase un sistema de partículas cuxos estados ''X'' (usualmente posición e velocidade) teñen unha certa [[distribución de probabilidade]], podendo ocupar varios microestados posibles (equivalentes aos símbolos na teoría da información). A entropía termodinámica é igual á entropía da teoría da información desa distribución (medida usando o [[logaritmo neperiano]]) multiplicada pola [[constante de Boltzmann]] ''k'', a cal permite pasar de nats (unidade semellante ao bit) a ''J''/''K''. Cando todos os microestados son igualmente probables, a entropía termodinámica toma a forma ''k'' log(''N''). Nun sistema illado, a interacción entre as partículas tende a aumentar a súa dispersión, afectando as súas posicións e as súas velocidades, o que causa que a entropía da distribución aumente co tempo até chegar a un certo máximo (cando o mesmo sistema é o máis homoxéneo e desorganizado posible); o que se denomina [[Segunda Lei da Termodinámica|segunda lei da termodinámica.]]. A diferenza entre a cantidade de entropía que ten un sistema e o máximo que pode chegar a ter denomínase [[neguentropía]], e representa a cantidade de organización interna que ten o sistema. A partir desta última pódese definir a [[enerxía libre de Gibbs]], que indica a enerxía que pode liberar o sistema ao aumentar a entropía até o seu máximo e pode ser transformada en [[Traballo (física)|traballo]] (enerxía mecánica útil) usando unha [[Ciclo de Carnot|máquina ideal de Carnot.]]. Cando un sistema recibe un fluxo de calor, as velocidades das partículas aumentan, o que dispersa a distribución e fai aumentar así a entropía. Así, o fluxo de calor produce un fluxo de entropía na mesma dirección.
 
== Concepto intuitivo ==
40.334

edicións