Entropie
Storyboard 
L'entropie est la partie de l'énergie dans un système qui ne peut pas être utilisée pour effectuer un travail. D'un point de vue microscopique, elle est liée au nombre de configurations possibles que le système peut adopter. Un plus grand nombre de ces configurations est associé à une augmentation du désordre du système et à une diminution de la probabilité que celui-ci retourne à un état antérieur, réduisant ainsi la possibilité de réversibilité du système.
ID:(1471, 0)
Mécanismes
Concept 
L'entropie physique est un concept fondamental en thermodynamique et en mécanique statistique qui représente le degré de désordre ou de hasard dans un système. Elle mesure le nombre de façons spécifiques dont un système thermodynamique peut être organisé, reflétant la quantité d'incertitude ou le nombre de microétats possibles correspondant à un état macroscopique donné. L'entropie quantifie le désordre, une entropie plus élevée indiquant un plus grand désordre. Selon la deuxième loi de la thermodynamique, l'entropie d'un système isolé ne diminue jamais, ce qui signifie que les processus naturels tendent à évoluer vers un état de désordre maximal. L'entropie mesure également l'irréversibilité des processus, les processus spontanés augmentant l'entropie de l'univers. Elle est un facteur clé pour déterminer l'efficacité des machines thermiques et des réfrigérateurs, comprendre le comportement des systèmes biologiques et étudier l'évolution de l'univers. Essentiellement, l'entropie est une mesure de l'imprévisibilité et de la dispersion de l'énergie dans un système, fournissant des informations sur la tendance naturelle au désordre et les limitations de la conversion de l'énergie.
ID:(15246, 0)
Types de variables
Description 
Si nous considérons l'équation de ERROR:5221,0 avec a force mécanique ($F$) et le distance parcourue ($dx$) :
| $ \Delta W = F \Delta s $ |
sous sa forme de a pression ($p$) et le volume ($V$) :
| $ \delta W = p dV $ |
Le travail joue le rôle d'un potentiel, tandis que a pression ($p$) agit comme une 'force généralisée', et le volume ($V$) sert de chemin, une sorte de 'variable indépendante'. Si nous organisons ces concepts dans une matrice pour les paramètres que nous avons discutés jusqu'à présent, nous obtenons :
| Potentiel thermodynamique | Force généralisée | Variable indépendante |
| Extensive | Intensive | Extensive |
| $\delta W$ | $p$ | $dV$ |
| $\delta Q$ | $T$ | $?$ |
Dans ce contexte, nous voyons que pour la ligne a variation de chaleur ($\delta Q$), nous avons la variable a température absolue ($T$), mais nous manquons d'une variable indépendante extensive. Nous appellerons cela entropie et la noterons avec la lettre $S$.
ID:(11183, 0)
Variáveis intensivas e extensivas
Description 
Il existe des variables qui sont associées à des quantités et d'autres qui sont associées à des propriétés.• Les premières sont appelées variables extensives, car elles peuvent être étendues ou augmentées en proportion de la quantité de substance présente. Des exemples de variables extensives incluent le volume, la masse, la charge électrique, la chaleur, etc.• En revanche, les secondes sont appelées variables intensives, qui représentent des propriétés qui ne dépendent pas de la quantité de substance présente. Ces propriétés ne changent pas lorsque la quantité de substance change. Des exemples de variables intensives incluent la densité, la pression, la température, etc.
ID:(11182, 0)
Entropie et changement de phase
Description 
Si l'entropie est estimée en fonction de la température, les observations suivantes peuvent être faites :
• Dans chaque phase (solide, liquide, gazeux), l'entropie a tendance à augmenter légèrement avec la température.
• Lors de chaque transition de phase, il y a un saut significatif dans l\'entropie.
Cela peut être représenté de la manière suivante :
Ainsi, on peut comprendre l\'entropie comme une mesure moyenne des degrés de liberté qu\'un système possède. Alors que dans chaque phase, l\'entropie augmente progressivement car quelques degrés de liberté supplémentaires sont \\"libérés\\", lors des transitions de phase, l\'augmentation de l\'entropie est importante. Dans un solide, de multiples liaisons restreignent le mouvement des atomes, ce qui limite les degrés de liberté. Dans un liquide, de nombreuses liaisons sont rompues, créant de nouvelles libertés qui permettent les mouvements relatifs et entraînent de nombreux nouveaux degrés de liberté. Enfin, lors de la transition vers la phase gazeuse, toutes les liaisons sont perdues et chaque particule a ses trois degrés de liberté. À mesure que la température augmente, les particules peuvent tourner et osciller, introduisant de nouveaux degrés de liberté et des augmentations supplémentaires de l\'entropie.
ID:(11187, 0)
Entropie et irréversibilité
Description 
Si nous considérons deux systèmes identiques, l'un avec une température $T_1$ et l'autre avec une température $T_2$, leurs entropies peuvent être calculées à l'aide de l'équation impliquant a entropie ($S$), a température absolue ($T$), a chaleur spécifique de l'échantillon ($C$), a entropie de base ($S_0$), et a température de base ($T_0$) :
| $ S = S_0 + C \log\left(\displaystyle\frac{ T }{ T_0 }\right)$ |
Par conséquent, les entropies seront :
$S_1 = S_0 + C\log\left(\displaystyle\frac{T_1}{T_0}\right)$
et
$S_2 = S_0 + C\log\left(\displaystyle\frac{T_2}{T_0}\right)$
Si les deux systèmes sont mélangés, leur température sera la température moyenne :
$T_m=\displaystyle\frac{1}{2}(T_1+T_2)$
Par conséquent, l'entropie du nouveau système sera :
$S_{1+2}=2S_0+2C\log\left(\displaystyle\frac{T_m}{T_0}\right)=2S_0+2C\log\left(\displaystyle\frac{T_1+T_2}{2T_0}\right)$
L'entropie du nouveau système est supérieure à la somme des entropies individuelles :
$\Delta S=2C\log\left(\displaystyle\frac{T_1+T_2}{2T_0}\right)-C\log\left(\displaystyle\frac{T_1}{T_0}\right)-C\log\left(\displaystyle\frac{T_2}{T_0}\right)$
Si nous représentons graphiquement $\Delta S/C$ en fonction de $T_1/T_0$ et $T_2/T_0," nous obtenons la figure suivante :
$\Delta S/C$ est presque nul si les températures sont très similaires ($T_1\sim T_2$). Cependant, si les températures sont différentes, l'entropie augmentera toujours. Si nous étudions cela dans d'autres systèmes, nous constaterons que chaque fois qu'un changement irréversible se produit, l'entropie augmente. Le mélange est irréversible, ce qui signifie que le système ne reviendra pas à son état initial sans intervention externe. En d'autres termes, le système ne se séparera pas spontanément en deux sous-systèmes avec des températures complètement différentes.
ID:(11186, 0)
Entropie
Modèle 
L'entropie physique est un concept fondamental en thermodynamique et en mécanique statistique qui représente le degré de désordre ou de hasard dans un système. Elle mesure le nombre de façons spécifiques dont un système thermodynamique peut être organisé, reflétant la quantité d'incertitude ou le nombre de microétats possibles correspondant à un état macroscopique donné. L'entropie quantifie le désordre, une entropie plus élevée indiquant un plus grand désordre. Selon la deuxième loi de la thermodynamique, l'entropie d'un système isolé ne diminue jamais, ce qui signifie que les processus naturels tendent à évoluer vers un état de désordre maximal. L'entropie mesure également l'irréversibilité des processus, les processus spontanés augmentant l'entropie de l'univers. Elle est un facteur clé pour déterminer l'efficacité des machines thermiques et des réfrigérateurs, comprendre le comportement des systèmes biologiques et étudier l'évolution de l'univers. Essentiellement, l'entropie est une mesure de l'imprévisibilité et de la dispersion de l'énergie dans un système, fournissant des informations sur la tendance naturelle au désordre et les limitations de la conversion de l'énergie.
Variables
Calculs
Calculs
Équations
Exemples
Pour mieux comprendre le concept dentropie, on peut imaginer un syst me l tat solide, o les atomes sont dispos s de mani re ordonn e et o lentropie est faible.
En ajoutant de l nergie au syst me, les atomes commencent vibrer avec une plus grande amplitude, et lordre initial commence se d grader. Lorsque la temp rature de fusion est atteinte, certaines particules se lib rent de leurs positions fixes et acqui rent une plus grande libert de mouvement lint rieur de la matrice du mat riau. Ce d sordre accru entra ne une augmentation de lentropie.
En continuant chauffer jusquau point d bullition, les particules commencent s chapper du syst me et passent l tat gazeux. Cet tat pr sente la plus grande libert et le plus grand d sordre mol culaire, ce qui correspond une entropie maximale. Finalement, lorsque le syst me s vapore compl tement, il atteint son niveau dentropie le plus lev pour cette transformation.
(ID 15246)
Si nous consid rons l' quation de ERROR:5221,0 avec a force mécanique ($F$) et le distance parcourue ($dx$) :
| $ \Delta W = F \Delta s $ |
sous sa forme de a pression ($p$) et le volume ($V$) :
| $ \delta W = p dV $ |
Le travail joue le r le d'un potentiel, tandis que a pression ($p$) agit comme une 'force g n ralis e', et le volume ($V$) sert de chemin, une sorte de 'variable ind pendante'. Si nous organisons ces concepts dans une matrice pour les param tres que nous avons discut s jusqu' pr sent, nous obtenons :
| Potentiel thermodynamique | Force g n ralis e | Variable ind pendante |
| Extensive | Intensive | Extensive |
| $\delta W$ | $p$ | $dV$ |
| $\delta Q$ | $T$ | $?$ |
Dans ce contexte, nous voyons que pour la ligne a variation de chaleur ($\delta Q$), nous avons la variable a température absolue ($T$), mais nous manquons d'une variable ind pendante extensive. Nous appellerons cela entropie et la noterons avec la lettre $S$.
(ID 11183)
Il existe des variables qui sont associ es des quantit s et d'autres qui sont associ es des propri t s.• Les premi res sont appel es variables extensives, car elles peuvent tre tendues ou augment es en proportion de la quantit de substance pr sente. Des exemples de variables extensives incluent le volume, la masse, la charge lectrique, la chaleur, etc.• En revanche, les secondes sont appel es variables intensives, qui repr sentent des propri t s qui ne d pendent pas de la quantit de substance pr sente. Ces propri t s ne changent pas lorsque la quantit de substance change. Des exemples de variables intensives incluent la densit , la pression, la temp rature, etc.
(ID 11182)
Si l'entropie est estim e en fonction de la temp rature, les observations suivantes peuvent tre faites :
• Dans chaque phase (solide, liquide, gazeux), l'entropie a tendance augmenter l g rement avec la temp rature.
• Lors de chaque transition de phase, il y a un saut significatif dans l\'entropie.
Cela peut tre repr sent de la mani re suivante :
Ainsi, on peut comprendre l\'entropie comme une mesure moyenne des degr s de libert qu\'un syst me poss de. Alors que dans chaque phase, l\'entropie augmente progressivement car quelques degr s de libert suppl mentaires sont \\"lib r s\\", lors des transitions de phase, l\'augmentation de l\'entropie est importante. Dans un solide, de multiples liaisons restreignent le mouvement des atomes, ce qui limite les degr s de libert . Dans un liquide, de nombreuses liaisons sont rompues, cr ant de nouvelles libert s qui permettent les mouvements relatifs et entra nent de nombreux nouveaux degr s de libert . Enfin, lors de la transition vers la phase gazeuse, toutes les liaisons sont perdues et chaque particule a ses trois degr s de libert . mesure que la temp rature augmente, les particules peuvent tourner et osciller, introduisant de nouveaux degr s de libert et des augmentations suppl mentaires de l\'entropie.
(ID 11187)
Si nous consid rons deux syst mes identiques, l'un avec une temp rature $T_1$ et l'autre avec une temp rature $T_2$, leurs entropies peuvent tre calcul es l'aide de l' quation impliquant a entropie ($S$), a température absolue ($T$), a chaleur spécifique de l'échantillon ($C$), a entropie de base ($S_0$), et a température de base ($T_0$) :
| $ S = S_0 + C \log\left(\displaystyle\frac{ T }{ T_0 }\right)$ |
Par cons quent, les entropies seront :
$S_1 = S_0 + C\log\left(\displaystyle\frac{T_1}{T_0}\right)$
et
$S_2 = S_0 + C\log\left(\displaystyle\frac{T_2}{T_0}\right)$
Si les deux syst mes sont m lang s, leur temp rature sera la temp rature moyenne :
$T_m=\displaystyle\frac{1}{2}(T_1+T_2)$
Par cons quent, l'entropie du nouveau syst me sera :
$S_{1+2}=2S_0+2C\log\left(\displaystyle\frac{T_m}{T_0}\right)=2S_0+2C\log\left(\displaystyle\frac{T_1+T_2}{2T_0}\right)$
L'entropie du nouveau syst me est sup rieure la somme des entropies individuelles :
$\Delta S=2C\log\left(\displaystyle\frac{T_1+T_2}{2T_0}\right)-C\log\left(\displaystyle\frac{T_1}{T_0}\right)-C\log\left(\displaystyle\frac{T_2}{T_0}\right)$
Si nous repr sentons graphiquement $\Delta S/C$ en fonction de $T_1/T_0$ et $T_2/T_0," nous obtenons la figure suivante :
$\Delta S/C$ est presque nul si les temp ratures sont tr s similaires ($T_1\sim T_2$). Cependant, si les temp ratures sont diff rentes, l'entropie augmentera toujours. Si nous tudions cela dans d'autres syst mes, nous constaterons que chaque fois qu'un changement irr versible se produit, l'entropie augmente. Le m lange est irr versible, ce qui signifie que le syst me ne reviendra pas son tat initial sans intervention externe. En d'autres termes, le syst me ne se s parera pas spontan ment en deux sous-syst mes avec des temp ratures compl tement diff rentes.
(ID 11186)
(ID 15305)
ID:(1471, 0)
