L’entropie et la convergence des probabilités dans Cricket Road
1. L’entropie : fondement de l’incertitude dans les systèmes probabilistes L’entropie, concept clé en théorie des probabilités, mesure l’incertitude d’un système à n états équiprobables par la formule H(X) = log₂(n). Cette mesure, introduite par Claude Shannon, traduit combien d’informations sont nécessaires en moyenne pour décrire une variable aléatoire. Par exemple, un dé à six …
L’entropie et la convergence des probabilités dans Cricket Road Read More »