Diferenzas entre revisións de «Entropía da información»

sen resumo de edición
(En uso)
Sem resumo de edição
{{enuso}}
Na [[teoría da información]] a '''entropía''', tamén chamada '''entropía da información''' e '''entropía''' de Shannon (en honra a [[Claude Elwood Shannon|Claude E. Shannon]]), mide a incerteza dunha [[Fuente de información|fonte de información]].
 
A entropía tamén se pode considerar como a cantidade de información media que conteñen os símbolos usados. Os símbolos con menor probabilidade son os que achegan maior información; por exemplo, se se considerase como sistema de símbolos as palabras nun texto, palabras frecuentes como «que», «o», «a» achegan pouca información, mentres que palabras menos frecuentes como «corren», «neno», «can» achegan máis información. Se dun texto dado se borra un «que», seguramente non afectará á comprensión e sobreentenderase, non sendo así se se borra a palabra «neno» do mesmo texto orixinal. Cando todos os símbolos son igualmente [[Probabilidade|probables]] ([[distribución de probabilidade]] plana), todos achegan información relevante e a entropía é máxima.
 
O concepto entropía emprégase en [[termodinámica]], [[mecánica estatística]] e [[Teoría da información|teoría da información.]]. En todos os casos a entropía concíbese como unha «medida da desorde» ou a «peculiaridade de certas combinacións». A entropía pode ser considerada como unha medida da incerteza e da información necesaria para, en calquera proceso, poder acoutar, reducir ou eliminar a incerteza. O concepto de información e o de entropía están basicamente relacionados entre si, aínda que se precisaron anos de desenvolvemento da [[mecánica estatística]] e da [[teoría da información]] antes de que isto fose percibido.
 
== Relación coa entropía termodinámica ==
40.129

edicións