40.129
edicións
(En uso) |
Sem resumo de edição |
||
{{enuso}}
Na [[teoría da información]] a '''entropía''', tamén chamada '''entropía da información''' e '''entropía''' de Shannon (en honra a [[Claude Elwood Shannon|Claude E. Shannon]]), mide a incerteza dunha [[
A entropía tamén se pode considerar como a cantidade de información media que conteñen os símbolos usados. Os símbolos con menor probabilidade son os que achegan maior información; por exemplo, se se considerase como sistema de símbolos as palabras nun texto, palabras frecuentes como «que», «o», «a» achegan pouca información, mentres que palabras menos frecuentes como «corren», «neno», «can» achegan máis información. Se dun texto dado se borra un «que», seguramente non afectará á comprensión e sobreentenderase, non sendo así se se borra a palabra «neno» do mesmo texto orixinal. Cando todos os símbolos son igualmente [[Probabilidade|probables]] ([[distribución de probabilidade]] plana), todos achegan información relevante e a entropía é máxima.
O concepto entropía emprégase en [[termodinámica]], [[mecánica estatística]] e [[
== Relación coa entropía termodinámica ==
|
edicións