next up previous contents index
Next: La quantité d'information selon Up: Entropie et quantité d'information Previous: Entropie et quantité d'information   Contents   Index


Entropie de Boltzmann ; une espérance qui nous fait viellir!

La notion d'entropie est une des notions fondamentales de la thermodynamique. Elle est intimement liée à l'irréversibilité temporelle des évolutions macroscopiques. En effet, toutes les équations qui régissent les phénomènes microscopiques sont réversibles dans le temps. Par contre les évolutions macroscopiques sont irréversibles. Déjà les thermodynamiciens du 19e siècle ont introduit la quantité phénoménologique d'entropie comme la quantité mesurant le « désordre » du système et énoncé le premier principe de la thermodynamique qui stipule que l'entropie d'un système isolé est une fonction croissante du temps. Toute évolution macroscopique s'effectue donc de l'état le plus ordonné vers le plus désordonné. On doit cependant à Boltzmann une définition microscopique de l'entropie comme l'espérance d'une certaine quantité. Pour ne pas avoir à assimiler toute la théorie des gaz, on illustre dans la suite les idées de Boltzmann dans un modèle très simple.

Soit un « dé polyhédrique » à faces, chacune d'elles ayant une probabilité d'apparition . On s'intéresse au nombre des fois que chaque face apparaît lorsqu'on jette fois le « dé ». On formalise la situation en introduisant l'ensemble fini que l'on probabilise à l'aide du vecteur , avec et . L'espace des épreuves est alors qui sera muni de la probabilité produit. Soit la famille de variables aléatoires


qui représentent le nombre des fois où chaque face apparaît. On s'intéresse à la quantité


Évidemment, pour tout de sorte que le vecteur aléatoire avec des composantes , pour soit une probabilité sur (probabilité empirique). On obtient une expression approchée de à grand en se servant de la formule de Stirling2.3




Soit définie pour avec la convention . La fonction est concave sur puisque . Son graphe reste donc au dessous de la tangente à tout point. On a donc


d'où découle l'inégalité annoncée.









On calcule . Soit un autre vecteur arbitraire de probabilité sur . Alors d'après l'inégalité de Gibbs. Or le dernier terme de cette expression vaut .

On peut maintenant introduire un modèle simplifié de gaz. Soit un espace de probabilité fini et une fonction qui à chaque configuration associe sa valeur d'énergie, On s'intéresse à un système isolé tel que l'énergie moyenne soit fixée à une valeur , c'est-à-dire . On veut résoudre le problème de maximisation d'entropie sous la contrainte d'energie moyenne fixée. Analytiquement, on doit donc déterminer le vecteur qui maximise sous les contraintes pour tout , et .



On commence par calculer . Supposons que soit un autre vecteur de probabilité qui vérifie . Alors, par l'inégalité de Gibbs,




Cet exercice montre que l'entropie ne peut qu'augmenter.




next up previous contents index
Next: La quantité d'information selon Up: Entropie et quantité d'information Previous: Entropie et quantité d'information   Contents   Index
Dimitri Petritis 2003-07-03