La température en physique est elle une notion "relative"
5 participants
Page 1 sur 1
La température en physique est elle une notion "relative"
J'oppose "relative" à "absolue". Autrement dit, je me demande si la température d'un système dépend de la quantité d'information que j'ai sur ce système. Il pourrait dans ce cas exister deux observateurs qui évalueraient la température d'un ce système différemment. Ça semble bizarre comme idée à première vue, car on se dit instinctivement, un truc qui est chaud est chaud, point barre. Mais voilà le raisonnement qui me laisse à penser que ça pourrait être le cas :
En deux mots, l'entropie d'un système est une notion relative (à l'information que je possède) et d'autre part, au zéro absolu (température) un système physique est sensé avoir une entropie nulle (c'est en tout cas ce que j'ai cru comprendre de mes lectures). A partir de là, un esprit tordu comme le miens arrive rapidement à l'idée que peut-être, on peut faire baisser la température d'un système simplement en obtenant de l'information sur ce système (en faisant baisser l'entropie), sans changer quoi que ce soit au degré d'agitation de ces constituants (définition naïve de la température)
Voilà une autre façon de formuler le truc : Je sais (ou crois savoir) que lorsque j'abaisse la température d'un système, j'abaisse également son entropie. L'inverse est-il également vrai ? Lorsque j'abaisse l'entropie d'un système, j'abaisse également sa température ?
En deux mots, l'entropie d'un système est une notion relative (à l'information que je possède) et d'autre part, au zéro absolu (température) un système physique est sensé avoir une entropie nulle (c'est en tout cas ce que j'ai cru comprendre de mes lectures). A partir de là, un esprit tordu comme le miens arrive rapidement à l'idée que peut-être, on peut faire baisser la température d'un système simplement en obtenant de l'information sur ce système (en faisant baisser l'entropie), sans changer quoi que ce soit au degré d'agitation de ces constituants (définition naïve de la température)
Voilà une autre façon de formuler le truc : Je sais (ou crois savoir) que lorsque j'abaisse la température d'un système, j'abaisse également son entropie. L'inverse est-il également vrai ? Lorsque j'abaisse l'entropie d'un système, j'abaisse également sa température ?
stupeflip666- Messages : 106
Date d'inscription : 25/06/2015
Re: La température en physique est elle une notion "relative"
Baisser l'entropie d'un système, c'est réduire l'espace des configurations microscopiques qu'il peut atteindre. On doit pouvoir imaginer des situations où l'entropie baisse mais pas la température (pour un gaz dont on arriverait à garder d'importantes fluctuations de vitesse), mais en général oui, c'est ce qui se passe. Le problème majeur en fait, c'est d'enlever de l'entropie. Ça nécessite un transfert d'énergie et/ou de matière.
Ce qui cloche dans ton raisonnement, c'est la définition de l'entropie. L'entropie n'est pas une quantité d'information disponible pour un observateur donné, c'est une quantité statistique intrinsèque au système que tu considères. Si on prend la célèbre formule de Boltzmann, S = k log W où S est l'entropie, k la constante de Boltzmann et W le nombre d'états accessibles au système considéré, pour une énergie et un nombre de particules fixé, on voit que l'entropie est une quantité d'information certes (plus il y a d'états accessibles, plus l'entropie sera grande, i.e. moins on aura d'information sur l'état du système), mais qu'elle est liée à tous les états possibles du système (notons que le principe d'ergodicité stipule que si on laisse le système évoluer assez longtemps, il passera par tous ces états). Obtenir de l'information sur un état particulier de notre système (en gros, prendre 2 "photos" très proches, et en déduire les positions et les vitesses, par exemple), ne modifiera en aucun cas l'ensemble des configurations dans lesquelles il peut être.
Si on tient compte de la physique quantique, on pourrait dire qu'obtenir de l'information (i.e. faire une mesure) modifie le système. Mais même dans ce cas-là, dès que l'on a des observables qui ne commutent pas (i.e. pour lesquels on ne peut pas obtenir la valeur simultanément, par exemple la position et la quantité de mouvement), on a des relations type Heisenberg qui nous disent que la variance statistique de l'observable que l'on a pas mesurée augmente si l'on fait diminuer (si on mesure) la variance de l'autre ; donc on a certes interagi avec le système, mais on n'a pas pour autant baissé son entropie.
Ce qui cloche dans ton raisonnement, c'est la définition de l'entropie. L'entropie n'est pas une quantité d'information disponible pour un observateur donné, c'est une quantité statistique intrinsèque au système que tu considères. Si on prend la célèbre formule de Boltzmann, S = k log W où S est l'entropie, k la constante de Boltzmann et W le nombre d'états accessibles au système considéré, pour une énergie et un nombre de particules fixé, on voit que l'entropie est une quantité d'information certes (plus il y a d'états accessibles, plus l'entropie sera grande, i.e. moins on aura d'information sur l'état du système), mais qu'elle est liée à tous les états possibles du système (notons que le principe d'ergodicité stipule que si on laisse le système évoluer assez longtemps, il passera par tous ces états). Obtenir de l'information sur un état particulier de notre système (en gros, prendre 2 "photos" très proches, et en déduire les positions et les vitesses, par exemple), ne modifiera en aucun cas l'ensemble des configurations dans lesquelles il peut être.
Si on tient compte de la physique quantique, on pourrait dire qu'obtenir de l'information (i.e. faire une mesure) modifie le système. Mais même dans ce cas-là, dès que l'on a des observables qui ne commutent pas (i.e. pour lesquels on ne peut pas obtenir la valeur simultanément, par exemple la position et la quantité de mouvement), on a des relations type Heisenberg qui nous disent que la variance statistique de l'observable que l'on a pas mesurée augmente si l'on fait diminuer (si on mesure) la variance de l'autre ; donc on a certes interagi avec le système, mais on n'a pas pour autant baissé son entropie.
Prince Zeta- Messages : 246
Date d'inscription : 22/11/2014
Age : 35
Localisation : Lecture.
Re: La température en physique est elle une notion "relative"
Mais il y a quelque chose qui ne me semble pas coller dans ta définition de l'entropie. Bien sur je sais que c'est la définition standard qu'on trouve dans les livres, due à Boltzmann, etc... mais voilà mon problème :
Tu connais sans doute l'expérience de pensée connue sous le nom de "démon de Maxwell". J'imagine une version légèrement modifiée qui me semble mener à une contradiction. Imagine donc une boite contenant un gaz, deux compartiment avec entre les deux une minuscule porte qui peut s'ouvrir et se fermer et reliée à un ordinateur contenu dans la boite. Il y a également un système de mesure très perfectionné qui est sensé faire une "photo" donnant la position et la vitesse de toutes les particules de gaz et enregistrer tout ça dans la mémoire de l'ordinateur qui commande la porte. La résolution du paradoxe du démon de Maxwell consiste à dire que la réalisation de cette "photo" augmente nécessairement l'entropie du système (du moins c'est ce que j'ai cru comprendre). Mais dans mon expérience, on commence par faire cette photo et ensuite on s'intéresse à l'évolution de l'entropie de la boite, qui contient l'ordinateur et sa mémoire. Dans la mesure ou la photo a déjà été faite, il n'y a pas de raison que le fonctionnement de cet ordinateur augmente l'entropie du système. L'ordinateur lance donc sa procédure d'ouverture/fermeture de la porte de manière à diminuer l'entropie du gaz, et on a une réelle baisse de l'entropie de la boite (qui contient le gaz plus l'ordinateur qui commande la porte).
Qu'en penses tu ?
Tu connais sans doute l'expérience de pensée connue sous le nom de "démon de Maxwell". J'imagine une version légèrement modifiée qui me semble mener à une contradiction. Imagine donc une boite contenant un gaz, deux compartiment avec entre les deux une minuscule porte qui peut s'ouvrir et se fermer et reliée à un ordinateur contenu dans la boite. Il y a également un système de mesure très perfectionné qui est sensé faire une "photo" donnant la position et la vitesse de toutes les particules de gaz et enregistrer tout ça dans la mémoire de l'ordinateur qui commande la porte. La résolution du paradoxe du démon de Maxwell consiste à dire que la réalisation de cette "photo" augmente nécessairement l'entropie du système (du moins c'est ce que j'ai cru comprendre). Mais dans mon expérience, on commence par faire cette photo et ensuite on s'intéresse à l'évolution de l'entropie de la boite, qui contient l'ordinateur et sa mémoire. Dans la mesure ou la photo a déjà été faite, il n'y a pas de raison que le fonctionnement de cet ordinateur augmente l'entropie du système. L'ordinateur lance donc sa procédure d'ouverture/fermeture de la porte de manière à diminuer l'entropie du gaz, et on a une réelle baisse de l'entropie de la boite (qui contient le gaz plus l'ordinateur qui commande la porte).
Qu'en penses tu ?
stupeflip666- Messages : 106
Date d'inscription : 25/06/2015
Re: La température en physique est elle une notion "relative"
Ce n'est pas le fait de prendre une "photo", aussi précise soit-elle, qui changera l'entropie du système. Comme dit, l'entropie est une notion statistique. Pour faire un parallèle, ce n'est pas parce que tu recenses toute une population que tu changes le nombre d'individus (le vrai j'entends, pas celui que tu comptes).
Prince Zeta- Messages : 246
Date d'inscription : 22/11/2014
Age : 35
Localisation : Lecture.
Re: La température en physique est elle une notion "relative"
Mais alors dans ce cas, l'entropie d'un système isolé peut parfaitement baisser (et de beaucoup), comme expliqué dans mon post précédent. Je croyais que l'entropie était sensée ne pouvoir qu'augmenter. (seconde loi de la thermodynamique)
stupeflip666- Messages : 106
Date d'inscription : 25/06/2015
Re: La température en physique est elle une notion "relative"
Je ne vois pas comment. Quelle que soit la façon dont tu ouvres ou fermes la "porte", il te faut fournir de l'énergie pour ça.
Prince Zeta- Messages : 246
Date d'inscription : 22/11/2014
Age : 35
Localisation : Lecture.
Re: La température en physique est elle une notion "relative"
La question que je dois te poser, c'est est-ce que tu es familier du concept de démon de Maxwell ?https://en.wikipedia.org/wiki/Maxwell%27s_demon
L'ouverture et la fermeture de la porte peuvent se faire sans consommation d'énergie il me semble.
L'ouverture et la fermeture de la porte peuvent se faire sans consommation d'énergie il me semble.
stupeflip666- Messages : 106
Date d'inscription : 25/06/2015
Re: La température en physique est elle une notion "relative"
Oui je suis familier du concept, j'ai suivi un cours de physique statistique. Justement, l'idée c'est que non, ce n'est pas possible. Peu importe le système qui contrôle l'ouverture et la fermeture de la "porte", il faut de l'énergie, que ce soit pour choisir d'ouvrir ou de fermer (ça nécessite de faire une mesure) ou que ce soit pour ouvrir et fermer vraiment (il faut pouvoir encaisser la force de pression engendrée). Du coup, oui, l'entropie du système ouvert constitué par le gaz diminue. Mais si tu considères le système fermé, l'entropie est au mieux constante.
Prince Zeta- Messages : 246
Date d'inscription : 22/11/2014
Age : 35
Localisation : Lecture.
Re: La température en physique est elle une notion "relative"
Prince Zeta a écrit:Ce n'est pas le fait de prendre une "photo", aussi précise soit-elle, qui changera l'entropie du système. Comme dit, l'entropie est une notion statistique. Pour faire un parallèle, ce n'est pas parce que tu recenses toute une population que tu changes le nombre d'individus (le vrai j'entends, pas celui que tu comptes).
Question d'un profane : le vrai nombre d'individus existe-t-il ?
JCVD- Messages : 6627
Date d'inscription : 03/03/2013
Age : 106
Re: La température en physique est elle une notion "relative"
Du point de vue purement mathématique, si on fait l'hypothèse que le nombre d'être humains est fini, tout groupe d'humains est fini. On peut donc définir le nombre d'individus dans un groupe. Le problème pratique réside dans le fait de savoir comment tu détermines qui est dans le groupe. Supposant qu'un critère bien défini est utilisé, le nombre d'individus vérifiant le critère existe.
Prince Zeta- Messages : 246
Date d'inscription : 22/11/2014
Age : 35
Localisation : Lecture.
Re: La température en physique est elle une notion "relative"
Prince Zeta a écrit:Oui je suis familier du concept, j'ai suivi un cours de physique statistique. Justement, l'idée c'est que non, ce n'est pas possible. Peu importe le système qui contrôle l'ouverture et la fermeture de la "porte", il faut de l'énergie, que ce soit pour choisir d'ouvrir ou de fermer (ça nécessite de faire une mesure) ou que ce soit pour ouvrir et fermer vraiment (il faut pouvoir encaisser la force de pression engendrée). Du coup, oui, l'entropie du système ouvert constitué par le gaz diminue. Mais si tu considères le système fermé, l'entropie est au mieux constante.
Donc pour toi, deux choses consomment de l'énergie :
1/ Le fait de faire une mesure pour savoir si une particule de vitesse supérieure à la moyenne "arrive"
2/ Le fait d'ouvrir/fermer physiquement la porte
Si tu relis mon deuxième message, tu vois que je propose d'éviter la dépense d'énergie du cas 1/ en faisant d'abord une mesure globale de toutes les particules du gaz, et seulement ensuite d'étudier la variation d'entropie du système complet isolé (gaz+ordinateur+porte). Puisque j'ai réussi à faire cette économie d'énergie qui n'est pas nulle, je dois logiquement avoir violé la deuxième loi de la thermodynamique.
Je précise que mon propos n'est pas de montrer qu'il est possible de violer la seconde loi de la thermodynamique, mais que la définition de l'entropie initialement proposée par Maxwell ne saurait être l'histoire complète : Une définition plus moderne, basée sur l'information est requise si l'on veut sauver la deuxième loi de la thermodynamique.
En passant, nulle part dans wikipédia il n'est question de dépense d'énergie pour ouvrir/fermer physiquement la porte, mais uniquement pour la mesure. Je cite Maxwell : "He will thus, without expenditure of work, raise the temperature of B and lower that of A, in contradiction to the second law of thermodynamics"
stupeflip666- Messages : 106
Date d'inscription : 25/06/2015
Re: La température en physique est elle une notion "relative"
Dans ce cas, je te laisse relire le paragraphe "Criticism and development"... https://en.wikipedia.org/wiki/Maxwell%27s_demon#Criticism_and_development
Ton exemple est détaillé, ainsi que les contre-arguments.
Ton exemple est détaillé, ainsi que les contre-arguments.
Prince Zeta- Messages : 246
Date d'inscription : 22/11/2014
Age : 35
Localisation : Lecture.
Re: La température en physique est elle une notion "relative"
En fait, c'est peut être plus simple de formuler ce que je veux dire ainsi :
La définition de Boltzmann , que tu as rappelée dans ton premier post (S = k log W) s'applique aux gaz, je ne crois pas qu'elle s'applique aux solides ? Mais dans l'expérience du démon de Maxwell, il faut étudier le système physique concret qui va jouer le rôle du démon, et ce système ne sera pas un gaz. Il faut donc une définition plus générale de l'entropie qui ne s'applique pas seulement aux gaz mais à n'importe quel système physique. Es-tu d'accord avec ce point ?
La définition de Boltzmann , que tu as rappelée dans ton premier post (S = k log W) s'applique aux gaz, je ne crois pas qu'elle s'applique aux solides ? Mais dans l'expérience du démon de Maxwell, il faut étudier le système physique concret qui va jouer le rôle du démon, et ce système ne sera pas un gaz. Il faut donc une définition plus générale de l'entropie qui ne s'applique pas seulement aux gaz mais à n'importe quel système physique. Es-tu d'accord avec ce point ?
stupeflip666- Messages : 106
Date d'inscription : 25/06/2015
Re: La température en physique est elle une notion "relative"
L'entropie s'applique à n'importe système physique formé de corpuscules. Elle est bien définie en physique statistique, classique ou quantique, et ça ne me choquerait pas de pouvoir la définir dans le cadre de la théorie quantique des champs, mais je n'en connais pas assez pour juger. Un solide, ça reste une assemblée d'atomes.
Éventuellement on peut ajouter à l'entropie de Boltzmann définie pour des systèmes physiques celle de Shannon définie pour de l'"information" (toujours au sens statistique du terme).
Éventuellement on peut ajouter à l'entropie de Boltzmann définie pour des systèmes physiques celle de Shannon définie pour de l'"information" (toujours au sens statistique du terme).
Prince Zeta- Messages : 246
Date d'inscription : 22/11/2014
Age : 35
Localisation : Lecture.
Re: La température en physique est elle une notion "relative"
Prince Zeta a écrit:L'entropie s'applique à n'importe système physique formé de corpuscules. Elle est bien définie en physique statistique, classique ou quantique, et ça ne me choquerait pas de pouvoir la définir dans le cadre de la théorie quantique des champs, mais je n'en connais pas assez pour juger. Un solide, ça reste une assemblée d'atomes.
Éventuellement on peut ajouter à l'entropie de Boltzmann définie pour des systèmes physiques celle de Shannon définie pour de l'"information" (toujours au sens statistique du terme).
En fait, je n'arrive pas à comprendre comment la définition de l'entropie de Boltzmann peut s'appliquer à des systèmes non quantiques. Comment définit on le nombre d'états accessibles dans un système classique ? Pour moi la position d'une particule et sa vitesse sont des nombres réels, donc il y a une infinité de possibilités pour chaque particule et je ne parle même pas du système complet de milliards de particules. J'avoue que ce truc n'est vraiment pas clair pour moi.
stupeflip666- Messages : 106
Date d'inscription : 25/06/2015
Re: La température en physique est elle une notion "relative"
Tu marques un point sur l'aspect non quantique. Comme dit, la définition de l'entropie de Boltzmann se fait dans l'ensemble microcanonique, où l'on fixe le nombre de particules et l'énergie totale. Ce qu'on m'a toujours dit, en cours, c'est qu'on considère que le volume élémentaire de l'espace des phases (position, impulsion) vaut la constante de Planck, pour être cohérent avec la physique statistique quantique. Je ne me suis jamais vraiment attardé sur la question, surtout vu qu'en quantique les états d'énergie sont discrets. Donc en gros, tu peux définir le nombre de configurations accessibles en mécanique classique par le volume accessible dans l'espace des phases, divisé par la constante de Planck. Si on veut être cohérent avec la mécanique quantique, ce nombre est entier. En pratique, il est tellement grand qu'une éventuelle partie décimale est totalement négligeable.
Par curiosité, je jetterai un oeil à ce qu'ils en disent dans mon bouquin de physique statistique.
Par curiosité, je jetterai un oeil à ce qu'ils en disent dans mon bouquin de physique statistique.
Prince Zeta- Messages : 246
Date d'inscription : 22/11/2014
Age : 35
Localisation : Lecture.
Re: La température en physique est elle une notion "relative"
J'étais paumé au début, mais finalement je crois que je comprends ta définition et ça me semble logique. Cependant, toutes mes lectures sur internet et les vidéos que j'ai regardées semblent faire référence à une autre définition de l'entropie plus centrée sur l'information. Cette définition semble être quelque chose de ce style : l'entropie d'un système est égal au logarithme du nombre de configuration possible d'un système, étant donné l'information que je possède sur ce système. Par exemple je t'invite à regarder cette vidéo https://www.youtube.com/watch?v=0WIBVIRUjJc
La définition de l'entropie est donnée entre 0:50 et 1:40 mais tu peux regarder la vidéo en entier, elle est très intéressante et parle du principe holographique.
Une autre argument pour "ma définition" de l'entropie" peut être trouvé dans cet article https://en.wikipedia.org/wiki/Von_Neumann_entropy
Il est dit clairement qu'un système quantique se trouvant dans un état pure "pure state" a une entropie nulle. Il me semble qu'un état pure en mécanique quantique est essentiellement une manière de dire que l'on connait exactement l'état du système. Ainsi s'il était possible de faire une mesure quantique complète de l'état d'un gaz dans une boite, celui se trouverait par définition dans un "pure state". Mais peut-être je délire, à toi de me dire
La définition de l'entropie est donnée entre 0:50 et 1:40 mais tu peux regarder la vidéo en entier, elle est très intéressante et parle du principe holographique.
Une autre argument pour "ma définition" de l'entropie" peut être trouvé dans cet article https://en.wikipedia.org/wiki/Von_Neumann_entropy
Il est dit clairement qu'un système quantique se trouvant dans un état pure "pure state" a une entropie nulle. Il me semble qu'un état pure en mécanique quantique est essentiellement une manière de dire que l'on connait exactement l'état du système. Ainsi s'il était possible de faire une mesure quantique complète de l'état d'un gaz dans une boite, celui se trouverait par définition dans un "pure state". Mais peut-être je délire, à toi de me dire
stupeflip666- Messages : 106
Date d'inscription : 25/06/2015
Re: La température en physique est elle une notion "relative"
C'est l'entropie de Shanon (https://fr.wikipedia.org/wiki/Entropie_de_Shannon)
Attention à la polysémie des mots :
En thermodynamique, l'entropie est une grandeur associée à un système de particules.
En astrophysique, a été introduite l'entropie des trous noirs.
En théorie de l'information, l'entropie quantifie le manque d'information :
l'entropie de Shannon, exprimée sous une autre forme par Ludwig Boltzmann en thermodynamique.
l'entropie de Rényi,
l'entropie conditionnelle.
En mathématiques, l'entropie recouvre deux notions différentes :
l'entropie topologique, quantité réelle associée à tout système dynamique topologique compact,
l'entropie métrique, quantité réelle associée à tout système dynamique mesuré.
En écologie l'entropie de Shannon est utilisée comme mesure de la biodiversité à travers l'indice de Shannon.
Attention à la polysémie des mots :
En thermodynamique, l'entropie est une grandeur associée à un système de particules.
En astrophysique, a été introduite l'entropie des trous noirs.
En théorie de l'information, l'entropie quantifie le manque d'information :
l'entropie de Shannon, exprimée sous une autre forme par Ludwig Boltzmann en thermodynamique.
l'entropie de Rényi,
l'entropie conditionnelle.
En mathématiques, l'entropie recouvre deux notions différentes :
l'entropie topologique, quantité réelle associée à tout système dynamique topologique compact,
l'entropie métrique, quantité réelle associée à tout système dynamique mesuré.
En écologie l'entropie de Shannon est utilisée comme mesure de la biodiversité à travers l'indice de Shannon.
Invité- Invité
Re: La température en physique est elle une notion "relative"
Et tu sembles avoir oublié l'entropie de Von Neumann à laquelle je faisais référence. Mais ce qui m'intéresse, c'est une notion d'entropie qui s'applique à un système physique et qui est telle que la deuxième loi de la thermodynamique soit respectée en toute circonstance. Tu parles de l'entropie des trous noirs comme ci il s'agissait d'une autre définition de l'entropie qui n'aurait rien à voir avec les autres définitions, mais il me semble que ce n'est jamais qu'un cas particulier d'entropie, car si l'entropie des trous noirs n'était pas prise en compte, il serait possible de violer la seconde loi de la thermodynamique. Si tu n'es pas convaincu, voici une expérience de pensée très simple : Considère le système constitué d'un trou noir entouré d'un nuage d'hydrogène, le tout totalement isolé du reste de l'univers. L'entropie du système est la somme de l'entropie du gaz d'hydrogène et du trou noir. Si on ne prenait pas en compte l'entropie du trou noir, l'hydrogène ayant tendance à disparaître à l'intérieur du trou noir, la quantité totale d'entropie du système aurait tendance à tendre vers zéro, en violation claire du second principe de la thermodynamique. J'en conclus donc qu'il doit exister une définition générale de l'entropie qui intègre toutes ces subtilités. Je ne crois pas qu'il s'agisse de l'entropie de Shanon car celle ci s'applique à de l'information pure (il me semble) alors que moi je parle de l'entropie physique, qui s'applique à des systèmes physiques. Quelle est donc la "vrai" définition de l'entropie ? Enfin celle qui m'intéresse ?
stupeflip666- Messages : 106
Date d'inscription : 25/06/2015
Re: La température en physique est elle une notion "relative"
Switch71 a écrit:C'est l'entropie de Shanon (https://fr.wikipedia.org/wiki/Entropie_de_Shannon)
En fait mon précédent post n'est pas très clair. Ma question est simplement celle ci : Si l'entropie a laquelle Raphael Bousso fait référence dans la vidéo est l'entropie de Shanon, alors comment calcule t'on l'entropie de Shanon d'un gaz d'un certain volume V et d'une certaine température T ?
stupeflip666- Messages : 106
Date d'inscription : 25/06/2015
Re: La température en physique est elle une notion "relative"
stupeflip666 a écrit:J'étais paumé au début, mais finalement je crois que je comprends ta définition et ça me semble logique. Cependant, toutes mes lectures sur internet et les vidéos que j'ai regardées semblent faire référence à une autre définition de l'entropie plus centrée sur l'information. Cette définition semble être quelque chose de ce style : l'entropie d'un système est égal au logarithme du nombre de configuration possible d'un système, étant donné l'information que je possède sur ce système. Par exemple je t'invite à regarder cette vidéo https://www.youtube.com/watch?v=0WIBVIRUjJc
La définition de l'entropie est donnée entre 0:50 et 1:40 mais tu peux regarder la vidéo en entier, elle est très intéressante et parle du principe holographique.
C'est exactement la définition de l'entropie de Boltzmann. En l'occurrence, la définition initiale de Boltzmann part du principe que les deux seules information que l'on a sont l'énergie du système et le nombre de particules. C'est aussi la définition donnée dans la vidéo.
stupeflip666 a écrit:Une autre argument pour "ma définition" de l'entropie" peut être trouvé dans cet article https://en.wikipedia.org/wiki/Von_Neumann_entropy
Il est dit clairement qu'un système quantique se trouvant dans un état pure "pure state" a une entropie nulle. Il me semble qu'un état pure en mécanique quantique est essentiellement une manière de dire que l'on connait exactement l'état du système. Ainsi s'il était possible de faire une mesure quantique complète de l'état d'un gaz dans une boite, celui se trouverait par définition dans un "pure state". Mais peut-être je délire, à toi de me dire
La notion d'état pur est statistique. Un état pur, c'est une variable aléatoire avec une seule issue possible. Donc effectivement, si ton système est dans un état pur, tu sais exactement dans quel état il est. L'opérateur densité correspondant à un état pur |φ〉, c'est ρ = |φ〉〈φ|. Donc l'entropie de Von Neumann associée est effectivement nulle. Au passage, en formalisme classique, un état pur, c'est simplement un système qui ne peut être que dans une seule configuration. Donc l'entropie de Boltzmann est nulle aussi. Encore une fois, un état pur, c'est quelque chose de purement statistique. Ça n'a pas de sens de dire qu'après mesure, le système est dans un état pur.
L'entropie de Von Neumann est une généralisation de l'entropie de Gibbs, qui est elle-même une généralisation de l'entropie de Boltzmann :
Supposons un système purement classique formé de N états, l'état i étant représenté par une probabilité p_i et un état quantique |i〉. L'opérateur densité ρ associé est alors la somme pour i allant de 1 à N de p_i |i〉〈i|. L'opérateur densité étant purement diagonal, ρ ln ρ = somme pour i allant de 1 à N de p_i ln p_i |i〉〈i|, donc sa trace (la somme des coefficients diagonaux) est simplement l'opposé de la somme des p_i ln p_i, ce qui est exactement l'entropie de Gibbs, à un facteur multiplicatif (la constante de Boltzmann) près.
L'entropie de Boltzmann est un cas particulier : l'énergie totale du système est supposée connue. Dans ce cas, tous les états sont équiprobables, soit p_i = 1/N pour tout i. L'entropie de Gibbs vaut alors - k N 1/N ln(1/N) = k ln N, ce qui est exactement la définition de l'entropie de Boltzmann.
Tu remarqueras, au passage, que l'entropie de Gibbs divisée par la constante de Boltzmann, c'est exactement l'entropie de Shannon.
Prince Zeta- Messages : 246
Date d'inscription : 22/11/2014
Age : 35
Localisation : Lecture.
Re: La température en physique est elle une notion "relative"
Prince Zeta a écrit:
C'est exactement la définition de l'entropie de Boltzmann. En l'occurrence, la définition initiale de Boltzmann part du principe que les deux seules information que l'on a sont l'énergie du système et le nombre de particules. C'est aussi la définition donnée dans la vidéo.
J'ai l'impression qu'il y a une légère différence, et en fait c'est ce qui me chiffonne avec l'entropie de Boltzmann. Si j'ai bien compris, dans la définition de Boltzmann, on considère l'ensemble des états dans lequel le système est susceptible d'évoluer au cours du temps. Supposons que l'on "discrétise" le temps en t0,t1,t2,etc... et que l'on note E(t) l'état du système à la date t. Alors l'ensemble de ces états c'est {E(t0),E(t1),...} et l'entropie de Boltzmann serait S = Kb ln Card({E(t0),E(t1)...}) Bien sur tout ça modulo notre discussion tout à l'heure sur le fait que les états sont définis par des nombres réels, mais apparemment il y a moyen de contourner le problème. Donc si c'est interprétation est fausse arrête moi tout de suite. Je vais partir du principe qu'elle est essentiellement correcte.
Dans ce cas on pourrait tout à fait imaginer que je connaisse la position exacte et la vitesse exacte de chaque particule à t0, et je pourrais en déduire la position et vitesse à t1,t2 etc... Il n'y aurait donc en fait aucune incertitude sur l'état du système à chaque instant. Moi j'aurais tendance à dire que dans ce cas l'entropie du système serait nulle, mais toi tu sembles défendre l'idée que ma connaissance du système n'a aucune importance, l'entropie de Boltzmann serait toujours égale à Kb ln Card({E(t0),E(t1)...})
Un concept qui me semble intéressant, c'est l'ensemble des états possibles d'un gaz à une certaine température T et une certaine pression V. Et là je crois que ça vient de faire click dans mon cerveau. Si j'ai bien compris les deux notions sont équivalente parce que les états E(t0),E(t1),...etc parcourent exactement tous les états possibles du système : c'est l'ergodicité dont tu parlais.
Donc pour résumer, si je notes X(e,v) = {E1,E2,...En } = ensemble des états compatibles avec les contraintes énergie = e et pression = V et que je pars d'un état quelconque de X(e,v) , cet état va évoluer au cours du temps pour parcourir tous les états contenus dans X(e,v) et ensuite revenir à son point de départ, d'ou l'équivalence entre les deux notions Card(X(e,v)) et Card(E(t0),E(t1),...) où E(t0) appartient à X(e,v)
Est-ce que j'ai bon ou bien est-ce que c'est juste un gros délire ?
Prince Zeta a écrit:
La notion d'état pur est statistique. Un état pur, c'est une variable aléatoire avec une seule issue possible. Donc effectivement, si ton système est dans un état pur, tu sais exactement dans quel état il est. L'opérateur densité correspondant à un état pur |φ〉, c'est ρ = |φ〉〈φ|. Donc l'entropie de Von Neumann associée est effectivement nulle. Au passage, en formalisme classique, un état pur, c'est simplement un système qui ne peut être que dans une seule configuration. Donc l'entropie de Boltzmann est nulle aussi. Encore une fois, un état pur, c'est quelque chose de purement statistique. Ça n'a pas de sens de dire qu'après mesure, le système est dans un état pur.
L'entropie de Von Neumann est une généralisation de l'entropie de Gibbs, qui est elle-même une généralisation de l'entropie de Boltzmann :
Supposons un système purement classique formé de N états, l'état i étant représenté par une probabilité p_i et un état quantique |i〉. L'opérateur densité ρ associé est alors la somme pour i allant de 1 à N de p_i |i〉〈i|. L'opérateur densité étant purement diagonal, ρ ln ρ = somme pour i allant de 1 à N de p_i ln p_i |i〉〈i|, donc sa trace (la somme des coefficients diagonaux) est simplement l'opposé de la somme des p_i ln p_i, ce qui est exactement l'entropie de Gibbs, à un facteur multiplicatif (la constante de Boltzmann) près.
L'entropie de Boltzmann est un cas particulier : l'énergie totale du système est supposée connue. Dans ce cas, tous les états sont équiprobables, soit p_i = 1/N pour tout i. L'entropie de Gibbs vaut alors - k N 1/N ln(1/N) = k ln N, ce qui est exactement la définition de l'entropie de Boltzmann.
Tu remarqueras, au passage, que l'entropie de Gibbs divisée par la constante de Boltzmann, c'est exactement l'entropie de Shannon.
Cette partie là je n'ai à peu près rien compris, et il y a des carrés 〉 un peu partout je suppose que ce n'est pas normal.
stupeflip666- Messages : 106
Date d'inscription : 25/06/2015
Re: La température en physique est elle une notion "relative"
Prince Zeta a écrit:La notion d'état pur est statistique. Un état pur, c'est une variable aléatoire avec une seule issue possible. Donc effectivement, si ton système est dans un état pur, tu sais exactement dans quel état il est. L'opérateur densité correspondant à un état pur |φ〉, c'est ρ = |φ〉〈φ|. Donc l'entropie de Von Neumann associée est effectivement nulle. Au passage, en formalisme classique, un état pur, c'est simplement un système qui ne peut être que dans une seule configuration. Donc l'entropie de Boltzmann est nulle aussi. Encore une fois, un état pur, c'est quelque chose de purement statistique. Ça n'a pas de sens de dire qu'après mesure, le système est dans un état pur.
En fait j'ai un peu compris cette partie là quand même, mais je suis dubitatif.
Comment s'y prend on concrètement pour préparer un système se trouvant dans un état pure ?
Peut-on préparer un système constitué par exemple de gaz d'hydrogène enfermé dans une boite qui serait dans un état pure ?
stupeflip666- Messages : 106
Date d'inscription : 25/06/2015
Re: La température en physique est elle une notion "relative"
stupeflip666 a écrit:J'ai l'impression qu'il y a une légère différence, et en fait c'est ce qui me chiffonne avec l'entropie de Boltzmann. Si j'ai bien compris, dans la définition de Boltzmann, on considère l'ensemble des états dans lequel le système est susceptible d'évoluer au cours du temps. Supposons que l'on "discrétise" le temps en t0,t1,t2,etc... et que l'on note E(t) l'état du système à la date t. Alors l'ensemble de ces états c'est {E(t0),E(t1),...} et l'entropie de Boltzmann serait S = Kb ln Card({E(t0),E(t1)...})
Si l'on admet le principe ergodique, oui. En tout rigueur, l'ensemble qu'on considère est un ensemble, purement abstrait, de tous les états possibles et imaginables du système qui donnent les mêmes valeurs des observables macroscopiques (le nombre de particules et l'énergie totale, dans le cas de Boltzmann).
stupeflip666 a écrit:Bien sur tout ça modulo notre discussion tout à l'heure sur le fait que les états sont définis par des nombres réels, mais apparemment il y a moyen de contourner le problème. Donc si c'est interprétation est fausse arrête moi tout de suite. Je vais partir du principe qu'elle est essentiellement correcte.
Dans ce cas on pourrait tout à fait imaginer que je connaisse la position exacte et la vitesse exacte de chaque particule à t0, et je pourrais en déduire la position et vitesse à t1,t2 etc... Il n'y aurait donc en fait aucune incertitude sur l'état du système à chaque instant. Moi j'aurais tendance à dire que dans ce cas l'entropie du système serait nulle, mais toi tu sembles défendre l'idée que ma connaissance du système n'a aucune importance, l'entropie de Boltzmann serait toujours égale à Kb ln Card({E(t0),E(t1)...})
Cf. ce que j'ai écrit juste au-dessus. En plus de ça, oui les lois de la dynamique classique sont totalement déterministes, mais en pratique, dès que tu as plus de 2 particules c'est chaotique, ce qui implique que tu dois connaître l'état initial avec une précision infinie (la définition d'un système chaotique étant justement qu'une variation arbitrairement petite des conditions initiales permet d'obtenir des variations arbitrairement grandes si on le laisse évoluer), ce qui est impossible à cause du principe d'incertitude de Heisenberg.
stupeflip666 a écrit:Un concept qui me semble intéressant, c'est l'ensemble des états possibles d'un gaz à une certaine température T et une certaine pression V. Et là je crois que ça vient de faire click dans mon cerveau. Si j'ai bien compris les deux notions sont équivalente parce que les états E(t0),E(t1),...etc parcourent exactement tous les états possibles du système : c'est l'ergodicité dont tu parlais.
Ce n'est plus le même système. Juste pour être sûr : Pression P ou volume V ?
L'idée de la physique statistique est que tu choisis des paramètres "fondamentaux", que tu supposes décrire totalement ton état macroscopique.
La formule de Boltzmann se place dans le cas où 2 paramètres sont choisis : le nombre de particules et l'énergie totale. On postule (et ça se vérifie bien en pratique) que tous les états microscopiques d'un système possédant la même énergie sont équiprobables (si tu prends N systèmes dans le même état macroscopique, tu auras en moyenne autant de système dans chacun des états microscopiques possibles).
On peut imaginer plein d'autres ensembles, notamment l'ensemble canonique où l'on fixe le nombre de particules et la température, l'ensemble grand-canonique où l'on fixe le nombre de particules et un potentiel chimique (qui décrit les échanges de particules entre le système et l'extérieur), l'ensemble T-P que tu mentionnes, etc.. Dans ce cas, l'entropie se calcule avec la formule de Gibbs, qui est une généralisation de celle de Boltzmann à des états d'énergie quelconque (donc pas nécessairement équiprobables).
stupeflip666 a écrit:Donc pour résumer, si je notes X(e,v) = {E1,E2,...En } = ensemble des états compatibles avec les contraintes énergie = e et pression = V et que je pars d'un état quelconque de X(e,v) , cet état va évoluer au cours du temps pour parcourir tous les états contenus dans X(e,v) et ensuite revenir à son point de départ, d'ou l'équivalence entre les deux notions Card(X(e,v)) et Card(E(t0),E(t1),...) où E(t0) appartient à X(e,v)
Est-ce que j'ai bon ou bien est-ce que c'est juste un gros délire ?
Ça, c'est ce que te dit le principe ergodique. La moyenne statistique (sur tous les systèmes possibles) coïncide avec la moyenne temporelle (sur les états pris par un système donné au cours du temps) dans un système ergodique.
stupeflip666 a écrit:Cette partie là je n'ai à peu près rien compris, et il y a des carrés 〉 un peu partout je suppose que ce n'est pas normal.
Woups. J'ai mis des caractères pas standard, je supposais qu'ils seraient visibles. Je vais essayer de rédiger ça proprement. Ce qu'il faut retenir du bout de texte que tu as cité, c'est que pour un système purement classique, l'entropie de Von Neumann et celle de Gibbs coïncident (à une constante multiplicative près), et que si on choisit l'énergie et le nombre de particules pour caractériser un état macroscopique, alors l'entropie de Gibbs est exactement l'entropie de Boltzmann. Et la remarque subsidiaire était que l'entropie de Shannon et l'entropie de Gibbs coïncident, à une constante multiplicative près.
stupeflip666 a écrit:Prince Zeta a écrit:La notion d'état pur est statistique. Un état pur, c'est une variable aléatoire avec une seule issue possible. Donc effectivement, si ton système est dans un état pur, tu sais exactement dans quel état il est. L'opérateur densité correspondant à un état pur |φ〉, c'est ρ = |φ〉〈φ|. Donc l'entropie de Von Neumann associée est effectivement nulle. Au passage, en formalisme classique, un état pur, c'est simplement un système qui ne peut être que dans une seule configuration. Donc l'entropie de Boltzmann est nulle aussi. Encore une fois, un état pur, c'est quelque chose de purement statistique. Ça n'a pas de sens de dire qu'après mesure, le système est dans un état pur.
En fait j'ai un peu compris cette partie là quand même, mais je suis dubitatif.
Comment s'y prend on concrètement pour préparer un système se trouvant dans un état pure ?
Peut-on préparer un système constitué par exemple de gaz d'hydrogène enfermé dans une boite qui serait dans un état pure ?
Ce n'est pas vraiment mon domaine, mais je vais essayer de répondre quand même. Pour changer l'état d'un système, il faut interagir avec. On doit donc pouvoir s'approcher d'un état pur, par exemple en piégeant une particule. Un gaz d'hydrogène, c'est probablement trop complexe pour ça. Le problème étant que même un cristal parfait à température nulle (un réseau de particules le plus régulier possible, avec l'énergie la plus faible possible) possède une énergie thermique non nulle. Mais c'est à mon avis ce qui se rapproche le plus d'un état pur à plus d'une particule. L'autre problème ardu est l'indiscernabilité des particules quantiques. Si tu as deux particules identiques, la mécanique quantique te dit que tu ne peux pas donner une étiquette A à l'une et une étiquette B à l'autre. Du coup, tu te retrouves très vite avec des mélanges statistiques d'états où A et B sont simplement échangées.
Prince Zeta- Messages : 246
Date d'inscription : 22/11/2014
Age : 35
Localisation : Lecture.
Re: La température en physique est elle une notion "relative"
stupeflip666 a écrit:Prince Zeta a écrit:Oui je suis familier du concept, j'ai suivi un cours de physique statistique. Justement, l'idée c'est que non, ce n'est pas possible. Peu importe le système qui contrôle l'ouverture et la fermeture de la "porte", il faut de l'énergie, que ce soit pour choisir d'ouvrir ou de fermer (ça nécessite de faire une mesure) ou que ce soit pour ouvrir et fermer vraiment (il faut pouvoir encaisser la force de pression engendrée). Du coup, oui, l'entropie du système ouvert constitué par le gaz diminue. Mais si tu considères le système fermé, l'entropie est au mieux constante.
Donc pour toi, deux choses consomment de l'énergie :
1/ Le fait de faire une mesure pour savoir si une particule de vitesse supérieure à la moyenne "arrive"
2/ Le fait d'ouvrir/fermer physiquement la porte
Si tu relis mon deuxième message, tu vois que je propose d'éviter la dépense d'énergie du cas 1/ en faisant d'abord une mesure globale de toutes les particules du gaz, et seulement ensuite d'étudier la variation d'entropie du système complet isolé (gaz+ordinateur+porte). Puisque j'ai réussi à faire cette économie d'énergie qui n'est pas nulle, je dois logiquement avoir violé la deuxième loi de la thermodynamique.
Je ne comprends pas grande chose au reste de la discussion, mais je ne suis pas convaincu que tu ais réussi à éviter la dépense d'énergie liée à la détection ... En effet, supposons que le système soit déterministe, et supposons que ta mesure permette d'identifier tous les paramètres du système de façon exacte, et supposons enfin qu'il existe un procédé permettant de simuler les instants futurs,
Rien ne prouve que ce calcul (des positions futures) ne demandera aucune dépense d'énergie, en particulier si tu veux le réaliser suffisamment vite pour pouvoir envoyer une commande à une porte ...
fragmentation- Messages : 146
Date d'inscription : 05/09/2015
Re: La température en physique est elle une notion "relative"
fragmentation a écrit:
Je ne comprends pas grande chose au reste de la discussion, mais je ne suis pas convaincu que tu ais réussi à éviter la dépense d'énergie liée à la détection ... En effet, supposons que le système soit déterministe, et supposons que ta mesure permette d'identifier tous les paramètres du système de façon exacte, et supposons enfin qu'il existe un procédé permettant de simuler les instants futurs,
Rien ne prouve que ce calcul (des positions futures) ne demandera aucune dépense d'énergie, en particulier si tu veux le réaliser suffisamment vite pour pouvoir envoyer une commande à une porte ...
Mais la séquence des ouvertures/fermetures à effectuer pourrait être pré-calculée, de la même manière que l' on a "pré-calculée" la photo. A ce stade on pourrait imaginer que le système n'est pas encore isolé : les calculs produisent de l'entropie mais qui est dirigée vers l'extérieur de la boite. Une fois que tout est calculé, on "isole" le système, qui contient maintenant toutes les informations nécessaires pour faire baisser tout seul son entropie. La conclusion que je tire est que l'on ne peut pas faire abstraction du concept d'information lorsqu'on définit l'entropie d'un système, si on veut préserver l'idée fondamentale que l'entropie ne doit pas pouvoir décroître.
stupeflip666- Messages : 106
Date d'inscription : 25/06/2015
Re: La température en physique est elle une notion "relative"
fragmentation a écrit:
Je ne comprends pas grande chose au reste de la discussion, mais je ne suis pas convaincu que tu ais réussi à éviter la dépense d'énergie liée à la détection ... En effet, supposons que le système soit déterministe, et supposons que ta mesure permette d'identifier tous les paramètres du système de façon exacte, et supposons enfin qu'il existe un procédé permettant de simuler les instants futurs,
Rien ne prouve que ce calcul (des positions futures) ne demandera aucune dépense d'énergie, en particulier si tu veux le réaliser suffisamment vite pour pouvoir envoyer une commande à une porte ...
Et en fait je viens de réaliser que mon argument est essentiellement équivalent à un truc beaucoup plus simple :
Imagine que je prépare initialement une "boite" contenant deux liquides de couleur différentes situés l'un complètement à gauche l'autre complètement à droite. Rapidement les deux liquides vont se mélanger. Mais je pense qu'il n'y a rien en théorie qui m'interdise, à l'aide d'une machine théorique ultra perfectionnée (qui produirait beaucoup d'entropie, mais dirigée vers l'extérieur, pas vers la boite) d'inverser la vitesse de chaque particule de liquide de manière à qu'ils retrouvent leur configuration initiale.
Encore plus simplement, il n'y a rien qui interdise en théorie de préparer un système qui semble très chaotique, mais dont les constituants sont en réalité très précisément positionnés et configurés de manière à arriver "magiquement" quelques minutes plus tard à un état beaucoup plus ordonné.
stupeflip666- Messages : 106
Date d'inscription : 25/06/2015
Re: La température en physique est elle une notion "relative"
stupeflip666 a écrit:
Encore plus simplement, il n'y a rien qui interdise en théorie de préparer un système qui semble très chaotique, mais dont les constituants sont en réalité très précisément positionnés et configurés de manière à arriver "magiquement" quelques minutes plus tard à un état beaucoup plus ordonné.
C'est pas nouveau, cf le démon de Maxwell. C'est le genre de phénomène que l'on utilise dans les tubes de Ranque-Hilsch.
Invité- Invité
Re: La température en physique est elle une notion "relative"
stupeflip666 a écrit:fragmentation a écrit:
Je ne comprends pas grande chose au reste de la discussion, mais je ne suis pas convaincu que tu ais réussi à éviter la dépense d'énergie liée à la détection ... En effet, supposons que le système soit déterministe, et supposons que ta mesure permette d'identifier tous les paramètres du système de façon exacte, et supposons enfin qu'il existe un procédé permettant de simuler les instants futurs,
Rien ne prouve que ce calcul (des positions futures) ne demandera aucune dépense d'énergie, en particulier si tu veux le réaliser suffisamment vite pour pouvoir envoyer une commande à une porte ...
Et en fait je viens de réaliser que mon argument est essentiellement équivalent à un truc beaucoup plus simple :
Imagine que je prépare initialement une "boite" contenant deux liquides de couleur différentes situés l'un complètement à gauche l'autre complètement à droite. Rapidement les deux liquides vont se mélanger. Mais je pense qu'il n'y a rien en théorie qui m'interdise, à l'aide d'une machine théorique ultra perfectionnée (qui produirait beaucoup d'entropie, mais dirigée vers l'extérieur, pas vers la boite) d'inverser la vitesse de chaque particule de liquide de manière à qu'ils retrouvent leur configuration initiale.
Encore plus simplement, il n'y a rien qui interdise en théorie de préparer un système qui semble très chaotique, mais dont les constituants sont en réalité très précisément positionnés et configurés de manière à arriver "magiquement" quelques minutes plus tard à un état beaucoup plus ordonné.
L'état "ordonné" ne sera que transitoire. Un instant d'ordre, dans une mer de chaos. Et si tu tentes d'en extraire de l'énergie avant qu'il atteigne la fameux point magique, ça perturbera la système. De toute façon, ça ne fonctionnerait que dans un monde pleinement déterministe, ce qui n'est pas le cas à priori de notre réalité. Néanmoins je présume que l'approximation déterministe ne supprime pas la notion d'entropie ni ne la rend contradictoire ...
Eventuellement tu peux faire encore plus simple. Secouer la boite, et la photographier pendant 8 milliards d'années, et extraire le moment ou tout est "magiquement" ordonné. Même pas besoin de calculs, ni d'un démon ex-nihilo (so to speak). Ou peut être ça ne fonctionne pas aussi bien que ça ... mmm, je vais tenter l'expérience dans mon salon. Est ce que le liquide parcours vraiment tous les états au fil du temps ? Est ce que si on observe du vide suffisament longtemps, une étoile fini par apparaître spontanément ? (ou un big-bang/ univers)
Je me suis toujours demandé comment des paires particules/anti-particules peuvent apparaître dans le vide, sans que le bilan gravitationnel ne soit déséquilibré. Il parait que la charge reste nulle, mais la gravité est de même signe pour les particules et les anti-particules.
fragmentation- Messages : 146
Date d'inscription : 05/09/2015
Re: La température en physique est elle une notion "relative"
Je dis peut-être une bêtise; mais, puisque la matière n'est qu'une forme d'énergie, c'est la conservation de l'énergie globale qui importe. Le fait qu'il y ait davantage de matière modifie sans doute la répartition des forces gravitationnelles. Mais en quoi cela poserait-il un problème ?
Par ailleurs, il y a aussi une interaction gravitationnelle entre l'énergie et la matière. Je pense notamment à l'énergie sombre, qui agirait comme une force gravitationnelle répulsive.
Par ailleurs, il y a aussi une interaction gravitationnelle entre l'énergie et la matière. Je pense notamment à l'énergie sombre, qui agirait comme une force gravitationnelle répulsive.
Pieyre- Messages : 20908
Date d'inscription : 17/03/2012
Localisation : Quartier Latin
Re: La température en physique est elle une notion "relative"
C'est la conservation de l'énergie totale qui importe, incluant la notion d'entropie de l'information (donc de la position et de l'état d'un système au sens large) : https://fr.wikipedia.org/wiki/Th%C3%A9orie_de_l'information#Le_statut_physique_de_la_th.C3.A9orie_de_l.E2.80.99information
Et j'irai meme encore plus loin, en fait ce qui est conservé c'est la densité d'énergie (pour inclure la dilatation de l'espace temps, ce qui explique le Redshift par exemple).
Et j'irai meme encore plus loin, en fait ce qui est conservé c'est la densité d'énergie (pour inclure la dilatation de l'espace temps, ce qui explique le Redshift par exemple).
Invité- Invité
Re: La température en physique est elle une notion "relative"
J'en reviens toujours à des questions philosophiques, ou tout au moins à des questions générales touchant la physique et la réalité. Mais je ne voudrais pas perturber le cours de la discussion.
Alors, peut-on distinguer parmi les grandeurs physiques, ou plutôt les notions qu'on utilise en physique pour décrire la réalité, celles qui seraient absolues et celles qui seraient relatives ?
Que la température soit relative, en un sens oui, comme la plupart des grandeurs qui se réduisent à une mesure. N'y aurait-il pas d'absolu que l'énergie (ou la densité d'énergie – je ne suis pas en mesure d'en juger), le temps et l'information ?
Ainsi on pourrait dire que les autres grandeurs (y compris l'espace) ne sont appréhendées par nous que selon l'évolution dans le temps de l'information que nous pouvons obtenir concernant la répartition de l'énergie.
Alors, peut-on distinguer parmi les grandeurs physiques, ou plutôt les notions qu'on utilise en physique pour décrire la réalité, celles qui seraient absolues et celles qui seraient relatives ?
Que la température soit relative, en un sens oui, comme la plupart des grandeurs qui se réduisent à une mesure. N'y aurait-il pas d'absolu que l'énergie (ou la densité d'énergie – je ne suis pas en mesure d'en juger), le temps et l'information ?
Ainsi on pourrait dire que les autres grandeurs (y compris l'espace) ne sont appréhendées par nous que selon l'évolution dans le temps de l'information que nous pouvons obtenir concernant la répartition de l'énergie.
Pieyre- Messages : 20908
Date d'inscription : 17/03/2012
Localisation : Quartier Latin
Re: La température en physique est elle une notion "relative"
Dans ce cas il faut définir "relative". Dépendant de l'observateur, d'accord, mais de quels paramètres de l'observateur ? "c'est chaud" ou "c'est froid" c'est une mesure relative de la température, alors qu'on sait très bien la définir de manière absolue...
A partir du moment où quelque chose est composé de quantas, en ce sens tu la définirais comme relative ou absolue ?
A partir du moment où quelque chose est composé de quantas, en ce sens tu la définirais comme relative ou absolue ?
Invité- Invité
Re: La température en physique est elle une notion "relative"
En tant que logicien, je serais assez tenté de réduire la question à celle de l'axiomatisation de la physique.
En logique, il y a un petit nombre d'axiomes et de règles de déduction qui, en principe, permettent de démontrer l'ensemble des résultats mathématiques.
En physique, il y a le système international d'unités, composés de sept unités de base (la masse, le temps, la longueur, la température, l'intensité électrique, la quantité de matière et l'intensité lumineuse) à partir desquelles on exprime les unités dérivées.
Je remarque que la température est une grandeur de base. Mais, si elle correspond à une dynamique de particules, elle ne me paraît pas primitive. C'est en ce sens que je parlerais d'une grandeur relative.
La question, c'est : ce système, au regard des développements de la physique ultérieurs à son élaboration, est-il minimal ? S'il ne l'était pas, quel serait-il ? En particulier, est-ce que l'hypothèse de tout réduire à l'énergie, à l'information et au temps pourrait être envisageable ?
Si je privilégie ces trois notions, ce n'est pas une lubie de ma part. Ce sont celles que des physiciens m'ont dit indéfinissables. Et puis ce sont celles que je rapporte, contrairement aux axiomes de la logique qui peuvent paraître conventionnels, à des réalités humaines fondamentales; en gros : la sensation pour l'énergie, le raisonnement pour l'information et, plus difficile à admettre certes, le libre arbitre pour le temps.
Ce qui veut dire que ce qui serait appréhendé directement par l'observateur, à l'extérieur et à l'intérieur de lui, serait primitif. En tant que c'est dépendant de l'observateur, le terme d'absolu est peut-être mal choisi. Et pourtant, si l'on part de soi, c'est parce que c'est premier et irréductible dans l'ordre de la conscience, tandis que ce qui est construit par la raison est forcément second. Les relations mathématiques qui définissent des grandeurs sont absolues en un certain sens, certes, dans la mesure où elles sont posées de façon formelle, indépendamment d'une observation. Mais une relation entre des grandeurs, c'est secondaire relativement à la perception brute d'une grandeur.
C'est l'ordre que je considère : la sensation d'abord, la raison ensuite. Cela peut être difficile à admettre pour un physicien qui tente de poser un modèle du monde, de façon extérieure à lui, comme premier. Mais je ne vois pas comment ne pas partir de soi, un soi qui est dit subjectif, certes; mais, si l'objectivité n'est que mathématique, ce n'est pas la réalité.
En logique, il y a un petit nombre d'axiomes et de règles de déduction qui, en principe, permettent de démontrer l'ensemble des résultats mathématiques.
En physique, il y a le système international d'unités, composés de sept unités de base (la masse, le temps, la longueur, la température, l'intensité électrique, la quantité de matière et l'intensité lumineuse) à partir desquelles on exprime les unités dérivées.
Je remarque que la température est une grandeur de base. Mais, si elle correspond à une dynamique de particules, elle ne me paraît pas primitive. C'est en ce sens que je parlerais d'une grandeur relative.
La question, c'est : ce système, au regard des développements de la physique ultérieurs à son élaboration, est-il minimal ? S'il ne l'était pas, quel serait-il ? En particulier, est-ce que l'hypothèse de tout réduire à l'énergie, à l'information et au temps pourrait être envisageable ?
Si je privilégie ces trois notions, ce n'est pas une lubie de ma part. Ce sont celles que des physiciens m'ont dit indéfinissables. Et puis ce sont celles que je rapporte, contrairement aux axiomes de la logique qui peuvent paraître conventionnels, à des réalités humaines fondamentales; en gros : la sensation pour l'énergie, le raisonnement pour l'information et, plus difficile à admettre certes, le libre arbitre pour le temps.
Ce qui veut dire que ce qui serait appréhendé directement par l'observateur, à l'extérieur et à l'intérieur de lui, serait primitif. En tant que c'est dépendant de l'observateur, le terme d'absolu est peut-être mal choisi. Et pourtant, si l'on part de soi, c'est parce que c'est premier et irréductible dans l'ordre de la conscience, tandis que ce qui est construit par la raison est forcément second. Les relations mathématiques qui définissent des grandeurs sont absolues en un certain sens, certes, dans la mesure où elles sont posées de façon formelle, indépendamment d'une observation. Mais une relation entre des grandeurs, c'est secondaire relativement à la perception brute d'une grandeur.
C'est l'ordre que je considère : la sensation d'abord, la raison ensuite. Cela peut être difficile à admettre pour un physicien qui tente de poser un modèle du monde, de façon extérieure à lui, comme premier. Mais je ne vois pas comment ne pas partir de soi, un soi qui est dit subjectif, certes; mais, si l'objectivité n'est que mathématique, ce n'est pas la réalité.
Pieyre- Messages : 20908
Date d'inscription : 17/03/2012
Localisation : Quartier Latin
Re: La température en physique est elle une notion "relative"
Re-,
sur les unités du SI, je ne suis pas d'accord. La température est DIRECTEMENT liée à une vitesse, la quantité de matière via le nombre d'Avogadro n'est qu'une constante, et l'intensité lumineuse en puissance surfacique. pour moi les 4 de base sont la charge, le mètre, la seconde et le kg. Les autres unités ne sont que des compositions de celles-ci.
Donc non, il n'est pas minimal pour ces raisons.
Après on peut faire des unités "batardes", pourquoi pas (tant que chaque unité n'est pas une composition des autres). On a une infinité de possibilités. on peut effectivement créer un système d'unités avec le Joule (kg m2 s-2), le Newton, (km m s-1), l'ampère (N.C.s-1) et je te laisse trouver le dernier. Il y a une infinité de solutions de toutes façons.
On a prit ces 4 unités de bases parce qu'il est plus difficile de faire un étalon de longueurs composées (physiquement j'entends). On pourrait très bien baser un système d'unité en parlant de vitesse (et de 3 autres complémentaires), où on baserait la vitesse sur celle de la lumière, pourquoi pas...
Ce choix a été fait à titre pratique, c'est tout.
Mais comme il existe une infinité de systèmes d'unités équivalents au notre, je ne vois pas en quoi ça viendrait infirmer ou pas le fait que toute mesure est relative ou absolue...
PS : l'information me parait difficilement une base, puisque difficilement rigoureusement définissable.
sur les unités du SI, je ne suis pas d'accord. La température est DIRECTEMENT liée à une vitesse, la quantité de matière via le nombre d'Avogadro n'est qu'une constante, et l'intensité lumineuse en puissance surfacique. pour moi les 4 de base sont la charge, le mètre, la seconde et le kg. Les autres unités ne sont que des compositions de celles-ci.
Donc non, il n'est pas minimal pour ces raisons.
Après on peut faire des unités "batardes", pourquoi pas (tant que chaque unité n'est pas une composition des autres). On a une infinité de possibilités. on peut effectivement créer un système d'unités avec le Joule (kg m2 s-2), le Newton, (km m s-1), l'ampère (N.C.s-1) et je te laisse trouver le dernier. Il y a une infinité de solutions de toutes façons.
On a prit ces 4 unités de bases parce qu'il est plus difficile de faire un étalon de longueurs composées (physiquement j'entends). On pourrait très bien baser un système d'unité en parlant de vitesse (et de 3 autres complémentaires), où on baserait la vitesse sur celle de la lumière, pourquoi pas...
Ce choix a été fait à titre pratique, c'est tout.
Mais comme il existe une infinité de systèmes d'unités équivalents au notre, je ne vois pas en quoi ça viendrait infirmer ou pas le fait que toute mesure est relative ou absolue...
PS : l'information me parait difficilement une base, puisque difficilement rigoureusement définissable.
Invité- Invité
Re: La température en physique est elle une notion "relative"
Je connaissais le système MKSA (même si je ne suis pas vieux au point d'avoir effectué mes études avant l'adoption du SI) qui permettait d'exprimer l'unité de tout un ensemble de grandeurs dans les tables des formulaires de physique. Je dois dire que déjà cela me fascinait que l'on puisse ramener des grandeurs qui pouvaient donner lieu à des sensations (comme l'accélération) à d'autres grandeurs (ici la longueur et le temps), même si j'avais connaissance des équations qui liaient ces grandeurs (v = dl/dt et a = dv/dt), d'où l'on tirait des équations aux dimensions ([a] = m.s-2). Cela pose le problème de la nature des qualia.
Je savais que le kelvin avait été ajouté, mais j'ignorais avant ma précédente intervention que (selon Système international d'unités) : « Le Système international compte sept unités de base, censées quantifier des grandeurs physiques indépendantes ».
Alors j'ai appris (voir Unités de mesure) que certaines grandeurs nécessitaient effectivement qu'on précise plus de quatre unités, comme la capacité thermique molaire, exprimée en kg.m2.mol-1.K-1.s-2.
Mais cela ne me satisfait pas.
Ainsi on utilise en physique le radian et le bel, qui sont sans unité, prétendument parce qu'il sont obtenus selon le rapport de deux grandeurs de même unité... Oui, enfin on peut dire aussi qu'il s'agit d'informations qui peuvent être utilisées en mathématique (notamment le radian) indépendamment de considérations physiques.
Tu indiques que la température est directement liée à la vitesse – sans doute, mais est-ce que tu n'ajoutes pas une information pour déterminer cela ?
La quantité de matière correspond à N molécules, où N est le nombre d'Avogadro – sans doute, mais c'est une information qui n'est pas suffisante pour déterminer la masse du corps considéré, puisqu'il faut disposer en plus de la répartition des atomes de la molécule et de la masse de chaque atome, ce qui consiste aussi en des informations.
Et, pour l'intensité lumineuse, je passe, parce que je n'ai pas de connaissance en la matière (si je puis dire), mais j'imagine qu'il est question aussi d'information.
Quant au fait qu'on puisse considérer différents systèmes d'unités, certes. C'est un peu comme, en mathématique, quand on considère un espace vectoriel de dimension n. Toutes les bases ont n vecteurs à partir desquels on peut repérer tout vecteur de l'espace. Mais on peut aussi les repérer à partir d'un ensemble de p > n vecteurs qui est générateur mais pas libre (les vecteurs ne sont pas indépendants les uns des autres).
Bien sûr je ne remets pas en question le SI, c'est-à-dire le fait que, si l'on veut lier les grandeurs uniquement par des équations, on est bien obligé d'en définir sept. Mais je me demande si l'information, sans être une grandeur physique (ainsi je suis dubitatif quant à la référence au statut physique de l'information que tu as indiquée), ne doit pas être introduite de façon méta-équationnelle de sorte qu'on puisse réduire le nombre de grandeurs ou de notions de base.
Je savais que le kelvin avait été ajouté, mais j'ignorais avant ma précédente intervention que (selon Système international d'unités) : « Le Système international compte sept unités de base, censées quantifier des grandeurs physiques indépendantes ».
Alors j'ai appris (voir Unités de mesure) que certaines grandeurs nécessitaient effectivement qu'on précise plus de quatre unités, comme la capacité thermique molaire, exprimée en kg.m2.mol-1.K-1.s-2.
Mais cela ne me satisfait pas.
Ainsi on utilise en physique le radian et le bel, qui sont sans unité, prétendument parce qu'il sont obtenus selon le rapport de deux grandeurs de même unité... Oui, enfin on peut dire aussi qu'il s'agit d'informations qui peuvent être utilisées en mathématique (notamment le radian) indépendamment de considérations physiques.
Tu indiques que la température est directement liée à la vitesse – sans doute, mais est-ce que tu n'ajoutes pas une information pour déterminer cela ?
La quantité de matière correspond à N molécules, où N est le nombre d'Avogadro – sans doute, mais c'est une information qui n'est pas suffisante pour déterminer la masse du corps considéré, puisqu'il faut disposer en plus de la répartition des atomes de la molécule et de la masse de chaque atome, ce qui consiste aussi en des informations.
Et, pour l'intensité lumineuse, je passe, parce que je n'ai pas de connaissance en la matière (si je puis dire), mais j'imagine qu'il est question aussi d'information.
Quant au fait qu'on puisse considérer différents systèmes d'unités, certes. C'est un peu comme, en mathématique, quand on considère un espace vectoriel de dimension n. Toutes les bases ont n vecteurs à partir desquels on peut repérer tout vecteur de l'espace. Mais on peut aussi les repérer à partir d'un ensemble de p > n vecteurs qui est générateur mais pas libre (les vecteurs ne sont pas indépendants les uns des autres).
Bien sûr je ne remets pas en question le SI, c'est-à-dire le fait que, si l'on veut lier les grandeurs uniquement par des équations, on est bien obligé d'en définir sept. Mais je me demande si l'information, sans être une grandeur physique (ainsi je suis dubitatif quant à la référence au statut physique de l'information que tu as indiquée), ne doit pas être introduite de façon méta-équationnelle de sorte qu'on puisse réduire le nombre de grandeurs ou de notions de base.
Pieyre- Messages : 20908
Date d'inscription : 17/03/2012
Localisation : Quartier Latin
Re: La température en physique est elle une notion "relative"
Re-,
non, le kelvin se définit à partir d'un écart tpe de vitesse (fois la constante de Boltzmann, en MKSA), donc peut etre exprimé en MKSA aussi.
Pour la quantité de matière, on a défini le nombre d'Avogadro comme une constante pratique. Elle est complètement arbitraire et sert juste à manipuler des nombres avec des exposants un peu plus pratiques, tout comme on utilise les eV en physique nucléaire...
Pour le flux lumineux, tu prends l'énergie de chaque photon (en Joules), tu regarde combien il en passe par seconde à travers une surface, : ce sont des W/m², donc exprimable dans le MKSA. C'est tout, pas besoin d'information ou autre. Un laser aura un flux lumineux identique à celui du soleil s'il est de 1200W/m² au zénith etc, nul besoin de faire intervenir une information quelconque là dedans.
Pour les différents systèmes c'est exactement ce à quoi je pensais : si le déterminant de ton système n'est pas nul, alors il constitue une base de mesure de tous les phénomènes qui existent. C'est tout.
Pour le statut de l'information, il n'y en a pas (à ma connaissance). Je disais juste qu'en trifouillant un peu la thermo on pouvait associer une énergie à une information (un genre de quanta), mais c'est tout. Je ne prétend pas lui donner un statut (et tant qu'elle n'en n'a pas, ça reste de la métaphysique).
non, le kelvin se définit à partir d'un écart tpe de vitesse (fois la constante de Boltzmann, en MKSA), donc peut etre exprimé en MKSA aussi.
Pour la quantité de matière, on a défini le nombre d'Avogadro comme une constante pratique. Elle est complètement arbitraire et sert juste à manipuler des nombres avec des exposants un peu plus pratiques, tout comme on utilise les eV en physique nucléaire...
Pour le flux lumineux, tu prends l'énergie de chaque photon (en Joules), tu regarde combien il en passe par seconde à travers une surface, : ce sont des W/m², donc exprimable dans le MKSA. C'est tout, pas besoin d'information ou autre. Un laser aura un flux lumineux identique à celui du soleil s'il est de 1200W/m² au zénith etc, nul besoin de faire intervenir une information quelconque là dedans.
Pour les différents systèmes c'est exactement ce à quoi je pensais : si le déterminant de ton système n'est pas nul, alors il constitue une base de mesure de tous les phénomènes qui existent. C'est tout.
Pour le statut de l'information, il n'y en a pas (à ma connaissance). Je disais juste qu'en trifouillant un peu la thermo on pouvait associer une énergie à une information (un genre de quanta), mais c'est tout. Je ne prétend pas lui donner un statut (et tant qu'elle n'en n'a pas, ça reste de la métaphysique).
Invité- Invité
Sujets similaires
» L'échelle de qi est-elle relative ou absolue?
» la notion de passoire est indépendante de la notion de trou.
» Je voulais elle l'aimer, elle n'a pas voulue
» Rencontres IRL sur Nantes : prendre la température
» [Biologie de l'évolution] La notion de hasard en évolution
» la notion de passoire est indépendante de la notion de trou.
» Je voulais elle l'aimer, elle n'a pas voulue
» Rencontres IRL sur Nantes : prendre la température
» [Biologie de l'évolution] La notion de hasard en évolution
Page 1 sur 1
Permission de ce forum:
Vous ne pouvez pas répondre aux sujets dans ce forum