New Immissions/Updates:
boundless - educate - edutalab - empatico - es-ebooks - es16 - fr16 - fsfiles - hesperian - solidaria - wikipediaforschools
- wikipediaforschoolses - wikipediaforschoolsfr - wikipediaforschoolspt - worldmap -

See also: Liber Liber - Libro Parlato - Liber Musica  - Manuzio -  Liber Liber ISO Files - Alphabetical Order - Multivolume ZIP Complete Archive - PDF Files - OGG Music Files -

PROJECT GUTENBERG HTML: Volume I - Volume II - Volume III - Volume IV - Volume V - Volume VI - Volume VII - Volume VIII - Volume IX

Ascolta ""Volevo solo fare un audiolibro"" su Spreaker.
CLASSICISTRANIERI HOME PAGE - YOUTUBE CHANNEL
Privacy Policy Cookie Policy Terms and Conditions
Discuter:Entropie - Wikipédia

Discuter:Entropie

Un article de Wikipédia, l'encyclopédie libre.


Aucun onglet n'existant actuellement pour les sources, la première section de la page de discussion leur est ici consacrée.

Sommaire

[modifier] Sources

[modifier] Zeilinger

Ouvrage "Information : the new language of science" de Hans Christian von Baeyer, phoeniw/orionboobs, 2003, 2004 195.132.57.12 12 déc 2004 à 00:49 (CET)


Au fait, est-ce que les remarques de cet Anton Zeilinger font aujourd'hui autorité parmi les scientifiques de son domaine ? Je dis ça, parce que des découvertes si récentes (2001 !), dans des domaines si pointus trouvent en général difficlement leur place dans une encyclopédie (qui n'est pas là pour suivre l'actualité de la recherche scientifique). Qu'est-ce qui nous assure que d'ici ne serait-ce qu'un mois un autre chercheur se rende compte que les travaux de Zeilinger ne sont après tout pas si pertinents que ça ? Il serait mieux de se contenter d'exposer ici du savoir déjà bien éprouvé et qui a résisté aux attaques pendant un peu plus que seulement trois ans. Je ne crois pas que ce Zeilinger ait déjà sa place aux côtés de Shannon (du moins pas pour ses travaux les plus récents). Mais peut-être que je me trompe. Des avis ?
--[[Utilisateur:Aldoo|Aldoo]] 12 déc 2004 à 01:43 (CET)
Nous sommes assez loin des trois ans, me semble-t-il (cela dit, en effet, il manque sans doute à la Wikipédia : l'équivalent de l'organum (ou du symposium, je ne sais plus) de l'Universalis). Toutefois, comme ses travaux sont cités au conditionnel, il est clair qu'ils sont cités pour complétude de l'article, afin que personne ne parte sur une idée incomplète de la façon dont est vue l'entropie par les physiciens. Une encyclopédie de l'électricité datée de 1895 que j'ai ici parle de la "théorie de l'électron". 195.132.57.12 12 déc 2004 à 02:11 (CET)
1975    Prize of the City of Vienna for the Encouragement of Young Scientists
1979    Prize for Junior Scientists, Kardinal Innitzer Foundation, Vienna
1980    Prize of the Theodor Körner Foundation, Vienna
1984    Sir Thomas Lyle Fellow, University of Melbourne
1994    Corresponding Member, Austrian Academy of Sciences
1995    Prix "Vinci d' Excellence", Fondation LVHM, Paris
1996    Kardinal Innitzer Würdigungspreis, Vienna
1996    Austrian Scientist of the Year
1996    European Lecturer, European Physical Society
1997    Welsh Lecturer, University of Toronto
1997    European Optics Prize, European Optical Society
1998    Honorary Professor, University of Science and Technology of China
1998    Full Member, Austrian Academy of Sciences
1999    Fellow, American Physical Society
2000    Member, Academia Scientiarum et Artium Europaea
2000    Senior Humboldt Fellow Prize, Alexander von Humboldt-Stiftung
2000    Science Prize of the City of Vienna
2001    Ehrenzeichen for the Sciences and Arts of the Republic of Austria
2001    Member, Order "Orden pour le mérite für Wissenschaften und Künste"
2001    Prize "Visionär 2001", ORF and "Der Standard" Austria
2001    "World Future Award 2001", Men´s World Day
2001    "Erwin Wenzl Preis 2001", Upper Austria
2002    Chemerda Lecturer, Pennsylvania State University
2002    Member, Berlin-Brandenburgische Akademie der Wissenschaften
2002    Johannes Kepler-Prize, Upper Austria


L'article qui est cité ici est celui de 2001 qui aurait donné naissance au principe de Zeilinger (et c'était bien il y a trois ans, j'insiste !). Un principe vieux de trois ans, me semble un peu jeune pour être un principe éprouvé. Mais je ne dis pas que c'est le cas de toute l'œuvre de Zeilinger (je suppose que ses publications des années 70 ont déjà été largement débattues, par exemple). Néanmoins, si le principe de Zeilinger est représentatif des questions que la communauté se pose aujourd'hui, il est à ce moment justifié de le citer en exemple (mais il faut clarifier le passage concerné dans l'article). Je ne suis pas théoricien de l'information, et encore moins physicien, et je ne me permets pas juger Zeilinger. En revanche, je voulais juste m'assurer que vous compreniez bien ce que l'on souhaite faire figurer dans cette encyclopédie. Cordialement, --[[Utilisateur:Aldoo|Aldoo]] 12 déc 2004 à 02:22 (CET)
OK, je vais rechercher la date de premier énoncé de ce principe et remanier le passage de l'article en conséquence ;-) 195.132.57.12 12 déc 2004 à 02:34 (CET)
Merci :-), les choses sont mieux posées ainsi. Maintenant, si le paragraphe n'est pas pertinent, il ne manquera pas de choquer assez vite un spécialiste du domaine, qui le corrigera assez tôt. Donc je considère avoir joué mon rôle ;-). Bonne continuation ! --[[Utilisateur:Aldoo|Aldoo]] 12 déc 2004 à 14:20 (CET)

[modifier] Critiques

  • Le "degré de désordre" n'est pas une définition de l'entropie, seulement une aide pour l'intuition. L'entropie est une grandeur thermodynamique, pas une vague idée sur le désordre.
  • Il y a beaucoup de choses justes dans cet article mais elles sont toutes dans le désordre.
  • L'ensemble est assez confus. Les auteurs connaissent mal l'histoire et les raisons des concepts qu'ils présentent. Ni Rudolf Clausius, ni Ludwig Boltzmann (sauf par sa constante) ne sont cités.
  • La façon classique de définir l'entropie comme une fonction d'état n'est pas présentée, alors qu'avec la définition de Boltzmann, elles devraient être les points essentiels de cet exposé.
  • L'argument final me semble faux. Pourquoi des concentrations de matière ne pouraient-elles pas se disperser ?

--TD 17 mar 2005 à 10:53 (CET)

[modifier] suppressions ?

J'ai supprimé les passages suivants parce que selon moi, il n' ont pas leur place ici (mais je sais que Zeilinger est un très grand physicien).--TD 17 mar 2005 à 13:30 (CET)

La « flèche du temps », posée pour rendre compte de faits d'expériences, s'articule difficilement avec des équations physiques macroscopiques, qui pour leur part sont réversibles. Encore aujourd'hui, cette question est l'objet d'intenses recherches, de par son lien avec la nature profonde de l'univers (relativité, mécanique quantique). Il est à noter qu'en mécanique quantique, des expériences comme celles dérivées des fentes d'Young ou l'expérience de Marlan Scully ne font plus apparaître de véritable notion de « temps ». Le sujet de savoir si l'on peut considérer le temps comme une propriété émergente fait l'objet de discussions actuellement (2004).

  • Enfin, la notion d'entropie de Shannon est actuellement examinée de plus près à la suite de critiques de Tim Palmer sur la notion d'information émises en 1995 et concernant deux implicites de la théorie que l'on ne peut considérer comme allant de soi en mécanique quantique :
    • Le fait qu'un état à observer (par exemple la face d'un dé) existe préalablement à la démarche d'observation
    • La considération que les événements qu'on observera ne dépendent pas de l'ordre dans lequel ils seront examinés
L'article Conceptual inadequacy of the Shannon information in quantum measurement, publié en 2001 par Anton Zeilinger et Caslav Brukner, a synthétisé et développé ces remarques. On nomme pour cette raison principe de Zeilinger l'idée que la quantification observée en mécanique quantique serait liée à des questions de quantification de l'information (on ne peut obtenir moins d'information qu'un bit, et ce qui n'est pas observé est par définition aléatoire) qu'à la nature du monde physique. En 2004 on n'a toujours pas trouvé de contre-exemple à ce principe. Ce dernier, comme tous les autres principes en physique, devra être abandonné dès lors que l'on en constaterait un seul.
  • Ce passage me semble incorrect :--TD 17 mar 2005 à 13:30 (CET)

L'organisation d'un chaos apparent de corps interstellaire en disques d'accrétion donne l'impression d'un contre-exemple, mais la notion d'irréversibilité du temps lève celle-ci : on peut en effet imaginer un tel chaos se transformer au cours du temps en disque d'accrétion, mais non l'inverse. C'est donc bien l'état de disque (anneaux planétaires, plan de l'écliptique, forme des galaxies) qui doit être considéré comme « dégradé ».

[modifier] Réponse à Lucronde

Je suis sûr que le texte que j'ai proposé est à revoir mais les modifications apportées par Lucronde aussi.

  • Y a-t-il des phénomènes qui ne subissent pas l'influence du temps ? Tous les phénomènes se produisent dans le temps et ils ne sont pas toujours irréversibles.
  • Un article sur l'entropie doit commencer par donner une définition, même incomplète,* de l'entropie et non par énoncer le principe de la conservation de l'énergie, qui est déjà exposé ailleurs.
  • La chaleur ne se dégrade pas en travail, c'est le contraire.
  • Que veut- dire conjuguer des définitions ?
  • Avant de parler des philosophes sur un ton dédaigneux ("soi-disant ordre naturel"), il faudrait se donner la peine de les connaître et de dire précisément ce qu'ils disent.
  • Il est peu judicieux d'illustrer le second principe avec un exemple emprunté à la matière granulaire, alors que l'application de la thermodynamique à ces questions pose beaucoup de difficultés de principe.

--TD 17 mar 2005 à 15:31 (CET)

J'ai répondu à ces réponses :

  • 1/ Je suis surement moins qualifié que les contributeurs actuels
  • 2/par contre je trouve que l'article dans sa forme actuelle ne délivre pas de définition claire, alors que certaines lectures m'avaient laissé penser que j'avais compris certaines choses et que j'ai voulu les faire partager (ce qui après tout est le but de wikipedia)
  • 3/ Je ne suis pas dédaigneux quand je dis que les philosophes du XVIII° siècles ce sont appuyés à tort sur un "soit-disant ordre naturel". Je constate que l'évolution des idées en physique nous fait plutôt penser que l'ordre naturel n'existe pas. Maintenant il est inutile de citer Voltaire ou Rousseau pour comprendre de quoi il en retourne, même si ces deux grands philosophes ont fait beaucoup pour la philosophie, ils n'ont utilisés que des concepts de leur époque. Ce qui me semble intéressant c'est de constater qu'il y a une évolution des idées en physique ( cf à ce sujet un très intéressant ouvrage de Einstein paru chez Payot), et une création de concepts : mon domaine de prédilection, la musique, s'appuie souvent sur des nouveaux concepts de la physique pour certaines créations de matériau compositionnels. Il me semble que Le son devrait être soumis aux lois de la conservation de l’énergie et de l'équilibre thermodynamique et qu'il y a une auto-organisation qui exige l’incorporation à une structure, corps ou instrument pour permettre la transformation de l’énergie en information. Me trompe-je ?
  • 4/ Quant à l'illustration de l'ordre et du désordre, je laisse les spécialistes à leurs problématiques ; mais je suis fasciné par cette (comment dites vous ? "équivalence d'échelle" ?) transposition possible du microscopique au macroscopique. En gros, la musique contemporaine essaie souvent, elle aussi de reproduire au niveau de la forme musicale, c'est-à-dire de la macroforme, ce qu'elle à pu découvrir au niveau de la décomposition du son, c'est-à-dire de la microforme. Et je pense que cette vision de la physique entre le microscopique et le macroscopique entre la dimension de l'atome et celle de l'univers a quelquechose de fascinant. Vision d'artiste ?

Cordialement --LR 21 mar 2005 à 17:49 (CET)

Oui, l'article tel qu'il est n'est pas satisfaisant. Il doit être complété et toutes les bonnes volontés y sont conviées, et toi aussi bien sûr - je devrais m'en rappeler plus souvent - pourvu que tu fasses un peu attention - souvent il suffit d'ajouter un peut-être pour transformer une erreur en une vérité.
L'article dit ce qu'est l'entropie parce qu'il donne deux de ses définitions (une quantité conservée lors des transformations réversibles que l'on mesure avec la formule dS = dQ / T , cette équation est vraie par définition, ou bien S = k ln oméga , ...) mais cela ne suffit pas pour comprendre ce qu'est l'entropie.
Est-ce qu'une définition simple, du genre "l'entropie est la mesure du désordre", pourrait commencer l'article, avant de manipuler des concepts où "il faut étudier davantage de physique.
Ex. le dégré d'entropie de mon tiroir dépend du nombre de paires de chaussettes, et de la distribution des "unités" chaussette par rapport à la "paire de chaussette". C'est-y-complètement idiot ? --LR 23 mar 2005 à 08:14 (CET)
Ce n'est pas complètement idiot. Mais quand même y a un problème. L'entropie n'est pas la mesure du désordre. Elle est une façon de mesurer un certain type de désordre, difficile à définir.
Oui il faut commencer par les idées les plus accessibles. La partie "vulgarisation" (qui est aussi en un sens la partie la plus noble de la science) devrait se trouver au début. Ce n'est pas le cas parce que je la trouve peu satisfaisante (voir la fin de l'article) et qu'elle nuit à mes yeux à l'image de l'encyclopédie. J'ai préféré provisoirement des définitions précises, (pour m'imposer comme scientifique), mais pour le lecteur ce n'est peut-être pas mieux.
On pourrait prendre l'exemple du tiroir et des chaussettes. Il suffirait de préciser le caractère pédagogique d'une telle approche. Le concept d'entropie est avant tout destiné à l'étude des équilibres thermodynamiques (mais aussi il est vrai dans la théorie de l'information).
A suivre. Merci de tes réponses.--TD 23 mar 2005 à 11:48 (CET)

Pour cela il faut étudier davantage de physique et voir sur des exemples le sens des concepts mis en oeuvre. C'est une théorie difficile, et pour ma part, j'ai commencé à la comprendre plusieurs années après avoir passé des examens sur ce sujet (et avoir lu quelques milliers de pages là-dessus).

Ce que tu dis sur le son est tout à fait juste (sauf sur l'auto-organisation, je ne vois pas bien ce que tu veux dire). La dynamique des fluides donne une des bases de la physique du son et on peut la voir comme une extension de la thermodynamique (une partie de la physique des flux proches de l'équilibre).
Je suis d'accord avec toi sur le caractère fascinant de cette question. De façon générale de nombreuses questions de physique sont fascinantes, il est heureux qu'elles intéressent des personnes de tous horizons. Cordialement. --TD 21 mar 2005 à 19:49 (CET)

Àṭ


Pour ma part, je ne comprends l'entropie après avoir lu cet article. Pour moi une mesure doit avoir des unités, est-ce le cas pour l'entropie ? Ce n'est pas inscrit dans l'article. Je croyais que l'entropie est une mesure de l'énergie dispersée qu'on ne peut pas récupérer pour faire un travail. A la lecture de l'article dans sa forme actuelle, je n'en suis plus si sur. Laurent


Be simple, not too simple. 20 novembre 2005 à 19:34 (CET) Dans la partie physique stat, c'est bien vu de parlait de l'audace de Boltzmann, mais cependant historiquement les propriétés quantiques sont à des années lumieres de la thermodynamique. Il faudrait plutot mettre l'accent sur le fait qu'a l'époque la théorie atomique n'était pas trés bien considéré par la communauté des physiciens (alors que les chimistes l'avait déja adopté depuis bien longtemps). C'est d'ailleurs une des causes du suicide du pauvre Ludwig!!



[modifier] Ma propre contribution :

Cet article, c'est un vrai BORDEL. Comme illustrer la notion de désordre... dans l'article entropie, ça fait pas sérieux. Alors fixons quelques trucs, hein.

-L'entropie est une grandeur ad hoc que l'on définit en réalité comme une sorte de super potentiel : en gros, c'est le truc qui augmente quand le temps passe, puisqu'on a constaté que l'évolution macroscopique était irréversible.

-Le désordre dont on parle est essentiellement un désordre ENERGETIQUE : l'équipartition de l'énergie, sous forme de chaleur, donc d'énergie cinétique macroscopique. Quand un système s'effondre sur lui-même sous l'effet de la gravité, son énergie potentielle se transforme en chaleur, il y a augmentation du désordre énergétique. Et comme c'est une évolution irréversible, il y a bien augmentation de l'entropie, par définition de l'entropie en fait.

-Il y a l'entropie statistique, celle de la théorie de l'information, ou plutôt celle des probabilités. Cette entropie donne une mesure de notre ignorance. Quand on aborde un système, et qu'on doit supposer des probabilités a priori, il faut choisir les probabilités pour qu'elles maximisent cette entropie la. Par exemple, si on prend des particules dans une boite, on a une chance sur deux pour chaque particule pour qu'elle se trouve dans une moitié donnée de la boite. Si on ne fait pas ça, on doit avoir une raison. Il doit y avoir quelque chose que l'on sait pour dire ça. Donc l'entropie statistique n'est pas maximale.

-Quand on maximise pour un système donné cette entropie, c'est à dire qu'on suppose que les probabilités de chacun de ses états possibles est choisie de manière à maximiser l'entropie statistique, on obtient l'entropie de Boltzman. Et cette quantité peut être reliée à l'entropie classique. On peut identifier les deux. L'idée c'est que l'évolution irréversible macroscopique est en fait dûe au fait qu'avec un grand nombre de particules, les évènements les plus probables ont en général lieu. En gros, si vous avez une assemblée de particules groupées dans une moitié de boite, c'est sur qu'elles vont se répartir. Disons que c'est infiniment plus probable. Voilà pour l'origine statistique de l'entropie et la raison pour laquelle on peut identifier l'entropie maximisée et l'entropie classique.

Voilà. Il faudrait vraiment tout refaire.

Renard 8 décembre 2005 à 10:51 (CET)

Tout à fait d'accord. Tu pourrais peut-être faire des suggestions en créant un article Wikipédia:Projet/Physique/entropie qui reprenne certains des éléments actuels mais en les intégrant dans un plan plus rigoureux. Qu'en penses-tu ? Si d'autres contributeurs pouvaient aussi s'exprimer ? --Lucronde 9 décembre 2005 à 14:10 (CET)

[modifier] Entropie de Shannon

Bonjour,

Je trouve bizarre de ne pas retrouver de lien vers cet article (http://fr.wikipedia.org/wiki/Entropie_de_Shannon) dans celui parlant d'entopie.

Je ne sais pas comment en ajouter un donc j'en reste à une "suggestion"...

    • Et bien voilà qui est fait. Pour rajouter un lien tu sélectionnes le mot et tu cliques sur le troisième bouton Ab, ce qui te le met entre crochet [[ ]] --Lucronde 12 janvier 2006 à 16:41 (CET)


Au diable l'entropie !

Le second principe est violé dans la plupart des réactions chimiques qui dégagent de la chaleur, loin de l'équilibre il est vrai, mais les réactfs tendent vers un état d'équilibre. Quand les réactifs sont parvenus infiniment près de cet état, le second pricipe devrait être valable puisue dQ est positive: les réactifs devraient absorber de la chaleur. Comment, au cours d'un processus continu, le sens de la transmission d'énergie peut-il s'inverser? L'entropie est une notion mal définie. Le raisonnement de Clausius est incorrect: Il ne pet exister de chemin réversible pour une réaction spontanée puisque l'état initiale est hors équilibre. Les raisonnement de Boltzmann et de Gibbs ne sont valable que pour les gaz parfaits et seulement pour une détente isotherme infinitésimale au voisinage de l'équilibre. Voir le site <<j.tonnelat.free.fr>>.

[modifier] L'entropie est une fonction d'état ...

Ok, mais alors le titre de l'article devrais être entropie (thermodynamique), ce qui semble mieux convenir à l'ensemble de l'article.

Je pense que celui qui viens pour comprendre ce terme, utilisé dans un langage courant (souvent abusif), risque fort de partir bredouille. A vot' bon coeur m'sieurs dames. ;-) 18 septembre 2006 à 16:13 (CEST)

[modifier] Nouvelle version entropie

Bonjour G.Gonczi

J’ai lu avec intérêt ta contribution sur l’entropie. Je suis plus ou moins d’accord avec la façon dont tu présentes l’entropie et je pense que certaines explications au niveau microscopique sont très intéressantes . Néanmoins il n’est pas dans la déontologie de wikipédia de rayer d’un trait, une réflexion qui dure depuis plusieurs mois voire plusieurs années et qui concerne des dizaines d’intervenants. Il existait un article que tu aurais pu améliorer sans pour autant tomber dans le travers d’un cours magistral destiné à des étudiants physiciens. Il y a aussi la possibilité de laisser des messages, des propositions dans la rubrique « discussion ». Pour ma part je regrette surtout que soit disparu le cas des systèmes fermés pour lesquels la création d’entropie correspond à la somme des variations d’entropie du système et du milieu extérieur. L’exemple de la solidification de l’eau est pédagogique pour comprendre à la fois que l’entropie d’un système peut diminuer et toucher du doigt que la création d’entropie est quasi-nulle si on se rapproche de la réversibilité. Ton exposé est essentiellement basé sur les systèmes isolés. De plus, tu alourdis le thème en ne renvoyant pas nombre de définitions par des liens internes, à ce qui existe déjà : il y a déjà beaucoup de choses d’écrites sur la thermo.

Je ne suis pas persuadé que ton article soit globalement plus clair et plus accessible à des internautes ayant certes des connaissances scientifiques mais n’étant pas physiciens. Je propose de revenir à la version antérieure en essayant d’intégrer les descriptions à l’échelle microscopiques.

Maghémite 7 février 2007 à 16:51 (CET)


Réponse de G.Gonczi:

Bon d'accord, je reconnais que j'y suis allé un peu fort en remplaçant le texte entier par un autre. Mais il faut dire que la présentation que l'on peut appeler "historique" (d'abord macroscopique puis microscopique) contribue à rendre la thermo (qui n'est déjà pas très simple) particulièrement obscure. En effet elle ne répond pas aux questions simples comme:

  • qu'est-ce que c'est concrètement que l'entropie ?
  • pourquoi est-ce une fonction d'état ?
  • pourquoi ΔS = Q / T seulement pour une transformation réversible ?
  • etc ...

Il faut rappeler ici que dans le programme officiel des classes prépa il est dit l'interprétation statistique de l'entropie est hors programme. Il s'en suit que le microscopique est généralement présenté presque comme une curiosité de laboratoire et que le lien avec le macro est rarement établi. De plus l'entropie est souvent définie de la façon suivante: tout système est caractérisé par une fonction d'état S ayant les propriétés suivantes etc... Mais ce n'est pas concret ça, ce n'est pas de la Physique! Quoi de plus concret que de rappeler que la matière est formée de particules en mouvement aléatoire ?

Certes mon texte nécessite un peu plus de math que l'exposé classique (je ne sais pas le présenter autrement) et est peut-être plus utile au lecteur ayant une formation suffisante. Je propose donc de faire un texte en deux parties. La première, avec la version précédente, pourrait s'appeler (par exemple) présentation courante de l'entropie et la seconde définition et propriétés de l'entropie déduites de la structure de la matière en particules (c'est peut être un peu long). Qu'en penses-tu ? Je pourrais m'en occuper mais il faudrait me laisser quelques jours ....

Très cordialement --G.Gonczi 9 février 2007 à 17:26 (CET)


Bonjour

J'ai intégré la partie développée par G.Gonczi sur le niveau microscopique dans l'ancienne version ce qui permet à mon sens de l'améliorer. Je pense malgré tout que l'entropie définie à l'échelle macroscopique est plus fructueuse pour l'étude des machines thermiques et des équilibres chimiques. Ses variations sont plus aisément calculables que dans le cas de la définition statistique dont le calcul se limite, à ma connaissance, pratiquement au gaz parfait. De plus l'ordre de la définition de l'entropie à l'échelle microscopique ou macroscopique n'apporte à mon sens aucune facilité pour la compréhension de l'entropie.

Il resterait à exposer le calcul différentiel et le calcul des variations d'entropie d'un corps pur mais je pense qu'il ne faudrait pas alourdir l'exposé de l'entropie et qu'il faudrait créer un nouvel article.

Maghémite 10 février 2007 à 18:28 (CET)

[modifier] Conflit d'intéret

Rappel : pour des raisons de déontologie évidente, toute forme d'auto-promotion est interdite dans les articles de la Wikipedia, notamment la publicité pour ses publications.


Bonjour, je ne suis pas physicien et je ne comprends décidément pas l'intérêt de wikipédia vu la confusion une fois de plus de cet article. Une simple remarque de bon sens : "Il est courant de dire que l'entropie est une mesure du désordre. En effet, considérons par exemple un jeu de 52 cartes et posons-les toutes du même côté (ordre parfait); cet état macroscopique ne peut être réalisé que d'une seule façon: Ω = 1." À mon avis, dèjà là il y a erreur, car il y 2 possibilités pour réaliser cet état, face et dos. Alors j'ai un peu de mal à donner un quelconque crédit aux autres calculs savants. encore un effort…

Mmm.. Je ne pense pas qu'il y aie erreur. Les 52 cartes côté face et côté dos sont un seul et même état qui est l'état "les 52 cartes montrent le même côté". D'ailleurs, il suffit de renverser la tête pour transformer les "52 cartes côté dos" en "52 cartes côté face". Il est clair que renverser la tête ne change rien à l'état des cartes. --Jean-Christophe BENOIST 5 avril 2007 à 13:07 (CEST)

Static Wikipedia (no images)

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - en - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu -

Static Wikipedia 2007 (no images)

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - en - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu -

Static Wikipedia 2006 (no images)

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu

Static Wikipedia February 2008 (no images)

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - en - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu