Diferencia entre revisiones de «entropía de Shannon»

De vctrac
Saltar a: navegación, buscar
 
Línea 1: Línea 1:
 
=entropía de Shannon=
 
=entropía de Shannon=
(''<span style="color: green;">Shannon entropy</span>'') ''Fís[[Category:Física]].'' Medida \(S({p_X})\) que en la teoría clásica de la información se asigna a la incertidumbre sobre el resultado de una variable aleatoria discreta \(X = \left\{ {{x_i},\;\;i = 1,\;2,\;...,} \right\}\), con distribución de probabilidad asociada \({p_X} = \left\{ {{p_i} \ge 0,\;\;i = 1,\;2,\;...,\;\sum\nolimits_i {{p_i} = 1} } \right\}\), y que viene dada, en bits, por \(S\,(X) = \sum\nolimits_i {{p_i}{{\log }_2}p_i^{ - 1}} \), con el convenio \(0{\log _2}{0^{ - 1}} = 0\).
+
(''<span style="color: green;">Shannon entropy</span>'') ''Fís[[Category:Física]].'' Medida \(S({p_X})\) que en la teoría clásica de la información se asigna a la incertidumbre sobre el resultado de una variable aleatoria discreta \(X = \left\{ {{x_i},\;i = 1,2,...} \right\}\), con distribución de probabilidad asociada \({p_X} = \left\{ {{p_i} \ge 0,\;i = 1,2,...,\;\sum\nolimits_i {{p_i} = 1} } \right\}\), y que viene dada, en bits, por \(S(X) = \sum\nolimits_i {{p_i}{{\log }_2}p_i^{ - 1}} \), con el convenio \(0{\log _2}{0^{ - 1}} = 0\).

Revisión actual del 12:21 6 jul 2020

entropía de Shannon

(Shannon entropy) Fís. Medida \(S({p_X})\) que en la teoría clásica de la información se asigna a la incertidumbre sobre el resultado de una variable aleatoria discreta \(X = \left\{ {{x_i},\;i = 1,2,...} \right\}\), con distribución de probabilidad asociada \({p_X} = \left\{ {{p_i} \ge 0,\;i = 1,2,...,\;\sum\nolimits_i {{p_i} = 1} } \right\}\), y que viene dada, en bits, por \(S(X) = \sum\nolimits_i {{p_i}{{\log }_2}p_i^{ - 1}} \), con el convenio \(0{\log _2}{0^{ - 1}} = 0\).