Next: La quantité d'information selon
Up: Entropie et quantité d'information
Previous: Entropie et quantité d'information
  Contents
  Index
Entropie de Boltzmann ; une espérance qui nous fait
viellir!
La notion d'entropie est une des notions fondamentales de la thermodynamique.
Elle est intimement liée à l'irréversibilité temporelle des évolutions
macroscopiques. En effet, toutes les équations qui régissent les phénomènes
microscopiques sont réversibles dans le temps. Par contre les évolutions macroscopiques
sont irréversibles. Déjà les thermodynamiciens du 19e siècle ont introduit la quantité
phénoménologique d'entropie comme la quantité mesurant le « désordre » du système
et énoncé le premier principe de la thermodynamique qui stipule que l'entropie d'un
système isolé est une fonction croissante du temps. Toute évolution macroscopique s'effectue
donc de l'état le plus ordonné vers le plus désordonné. On doit cependant à Boltzmann
une définition microscopique de l'entropie comme l'espérance d'une certaine quantité. Pour ne pas
avoir à assimiler toute la théorie des gaz, on illustre dans la suite les idées de Boltzmann dans
un modèle très simple.
Soit un « dé polyhédrique » à faces, chacune d'elles ayant une probabilité
d'apparition
. On s'intéresse au nombre des fois
que chaque face apparaît lorsqu'on jette fois le « dé ».
On formalise la situation en introduisant l'ensemble fini
que l'on probabilise à l'aide du vecteur
, avec et
.
L'espace des épreuves est alors qui sera muni de la probabilité
produit.
Soit
la famille de variables aléatoires
qui représentent le nombre des fois où chaque face apparaît.
On s'intéresse à la quantité
Évidemment,
pour tout de sorte
que le vecteur aléatoire avec des composantes
, pour soit une probabilité
sur (probabilité empirique). On obtient une expression approchée de
à grand en se servant de la formule de Stirling2.3
Soit
définie pour avec la convention
. La fonction est concave sur puisque
. Son graphe reste donc au dessous de la tangente
à tout point. On a donc
d'où découle l'inégalité annoncée.
On calcule
.
Soit un autre vecteur arbitraire de probabilité sur . Alors
d'après l'inégalité
de Gibbs. Or le dernier terme de cette expression vaut
.
On peut maintenant introduire un modèle simplifié de gaz. Soit
un espace de probabilité fini et une fonction qui
à chaque configuration associe sa valeur d'énergie, On s'intéresse
à un système isolé tel que
l'énergie moyenne
soit fixée à une valeur , c'est-à-dire
.
On veut résoudre le problème de maximisation d'entropie sous
la contrainte d'energie moyenne fixée.
Analytiquement, on doit donc déterminer le vecteur qui
maximise
sous les contraintes
pour tout , et
.
On commence par calculer
.
Supposons que soit un autre vecteur de probabilité qui
vérifie
. Alors, par l'inégalité de Gibbs,
Cet exercice montre que l'entropie ne peut qu'augmenter.
Next: La quantité d'information selon
Up: Entropie et quantité d'information
Previous: Entropie et quantité d'information
  Contents
  Index
Dimitri Petritis
2003-07-03