LA CLOCHE

Il y a ceux qui ont lu cette nouvelle avant vous.
Abonnez-vous pour recevoir de nouveaux articles.
E-mail
Nom
Nom de famille
Comment voulez-vous lire La Cloche ?
Pas de spam

L'héroïne de Which Works de Woody Allen définit l'entropie comme ce qui rend difficile la remise du dentifrice dans le tube. Elle explique également le principe d'incertitude de Heisenberg d'une manière intéressante, une autre raison de regarder le film.

L'entropie est une mesure du désordre, du chaos. Vous avez invité vos amis à une fête du Nouvel An, nettoyé, lavé le sol, disposé des collations sur la table, préparé des boissons. En bref, ils ont tout mis en ordre et ont éliminé autant de chaos que possible. C'est un système à faible entropie

Qu'est-ce que l'entropie en mots simples: Définir dans quels domaines le terme est utilisé. Exemples clairs d'entropie dans la vie.

Vous pouvez probablement tous imaginer ce qui arrive à l’appartement si la fête est un succès : un chaos total. Mais le matin, vous disposez d’un système à haute entropie.

Pour mettre de l'ordre dans l'appartement, il faut faire du rangement, ce qui implique d'y consacrer beaucoup d'énergie. L'entropie du système a diminué, mais il n'y a aucune contradiction avec la deuxième loi de la thermodynamique : vous avez ajouté de l'énergie de l'extérieur et ce système n'est plus isolé.

L’une des options pour la fin du monde est la mort thermique de l’univers due à la deuxième loi de la thermodynamique. L'entropie de l'univers atteindra son maximum et rien d'autre ne s'y passera.

En général, tout semble plutôt déprimant : dans la nature, tout ce qui est ordonné tend à la destruction, au chaos. Mais alors, d’où vient la vie sur Terre ? Tous les organismes vivants sont incroyablement complexes et ordonnés, et passent d’une manière ou d’une autre leur vie entière à lutter contre l’entropie (même si elle finit toujours par gagner).

C'est très simple. Les organismes vivants en cours de vie redistribuent l'entropie autour d'eux-mêmes, c'est-à-dire qu'ils donnent leur entropie à tout ce qu'ils peuvent. Par exemple, lorsque nous mangeons un sandwich, nous transformons du beau pain et du beurre commandés en quelque chose de connu. Il s'avère que nous avons donné notre entropie au sandwich, et en système commun l'entropie n'a pas diminué.

Et si nous prenons la Terre dans son ensemble, alors ce n’est pas du tout un système fermé : le soleil nous fournit l’énergie nécessaire pour lutter contre l’entropie.

Psychologie de l'entropie.

Entropie - la manière dont un individu interagit avec l'environnement social est déterminée par le fait que l'environnement social, d'une part, et l'individu, d'autre part, peuvent inclure des tendances entropiques et néguentropiques, et leur certain rapport forme des modes de combinaison combinatoirement possibles. interaction; leur large éventail permet de dépasser la définition limitée de la personnalité comme un système stable opérant dans des conditions environnementales changeantes.

Si l'on prend l'axe « personnalité – environnement social », invariant dans notre appareil conceptuel, et imaginons sa rotation mutuelle avec l'axe « entropie-négentropie », qui contient la réponse à la question « comment se déroule l'interaction ? », alors nous disposons de quatre options initiales :

1) tendances néguentropiques de l'environnement social ;
2) les tendances de l'entropie dans l'environnement social ;
3) tendances de personnalité néguentropiques ;
4) tendances entropiques de la personnalité.

Il est nécessaire de décrire brièvement chacun d'eux.

1. Tendances néguentropiques de l'environnement social. Bacon a également posé la question de savoir comment une personne peut exister dans un ordre social et, en général, de quoi est constitué cet ordre social. La plupart des théories sociologiques modernes s’attachent à clarifier sa nature. Par rapport à notre tâche, ils décrivent les paramètres possibles du système « personnalité - environnement social », il suffit de noter : une personne peut être incluse dans des relations formelles et informelles dont la principale qualité est la répétition, la clarté et l'organisation, ritualisme et stéréotypes conditions sociales– des situations de comportement individuel. On sait que la société ne peut influencer efficacement un individu inclus dans un groupe si la stratégie d'influence sociale n'est pas cohérente, unanime et cohérente.

2. Tendances de l'entropie dans l'environnement social. Éléments de chaos et de désordre, déstabilisation sociale et désorganisation de la structure à certains stades de son développement, E. Durkheim considérait même comme une condition nécessaire au développement de la société, la présence en elle de certains éléments de désorganisation. Comme on le sait, il a souligné ce point à propos de l'étude de la nature de l'anomie sociale et de la criminalité. Sans entrer dans les détails d'une analyse critique des vues d'E. Durkheim, nous tenons à souligner que les tendances entropiques sont particulièrement clairement observées dans le fonctionnement de petits groupes sociaux dans le climat microsocial de certaines associations humaines formelles et informelles. Un exemple serait une entreprise ivre, une foule excitée lors d'un spectacle sportif, une situation dans une équipe de travail avec une répartition peu claire des fonctions et des rôles, un rassemblement aléatoire de personnes qui ne sont pas unies par un fil conducteur, etc.

3. Tendances de personnalité néguentropiques. Cela fait référence à la cohérence des opinions et des attitudes de l'individu ; sa cohérence et son organisation dans les actions. Il semble inutile d’examiner en détail les mécanismes permettant d’assurer et d’atteindre la stabilité et la cohérence de l’organisation de la vie d’une personne, puisque cette question est largement abordée dans la littérature psychologique et que de nombreux ouvrages sont consacrés à son étude. Nous ne pouvons que souligner que les étudiants et les adeptes de D. N. Uznadze associent le mécanisme de stabilité du comportement individuel et des traits caractéristiques, de la vision du monde et des croyances à la fixation des attitudes, à une certaine organisation des attitudes fixes, leur structure systémique et leur tendance interne à la consolidation et compatibilité.

4. Tendances entropiques de la personnalité. Les dissociations comportementales, la désorganisation, l'incohérence dans les actions et les croyances, l'instabilité émotionnelle sont des manifestations du chaos interne et des tendances entropiques de l'individu. Il ne fait aucun doute que l’état limite de croissance de l’entropie est caractéristique de la pathologie, mais ce serait une erreur de simplifier la question de cette façon, comme si la croissance de l’entropie était associée à la pathologie, et la croissance de la néguentropie à la santé mentale. De plus, dans de nombreux troubles névrotiques, on note une surorganisation, amenée à des formes pathologiques de ritualisation et, à l'inverse, chez des individus pratiquement en bonne santé, dans certaines conditions, on peut observer une augmentation des tendances entropiques. Ceci est bien démontré dans expériences connues L. Festinger, T. Newcombe et A. Pepitone, F. G. Zimbardo à propos de l'étude du phénomène de désindividuation, déjà partiellement évoqué. Le fait est que l'un des indicateurs de désindividuation, selon ces congestions, est l'impulsivité et le caractère destructeur du comportement, une diminution de la maîtrise de soi, un comportement chaotique et une désorganisation des états intrapersonnels. F. G. Zimbardo a formulé de manière succincte et claire la lutte entre deux moments - le chaos et l'ordre - dans l'existence humaine : « Dans la lutte éternelle de l'ordre et du chaos, nous espérons le triomphe de l'individuation, mais mystérieusement nous sommes en conspiration avec des forces internes émanant du profondeurs incontrôlables de désindividuation.

Philosophie de l'entropie.

L'ENTROPIE (du grec entropia - rotation, transformation) fait partie de l'énergie interne d'un système fermé ou du complexe énergétique de l'Univers, qui ne peut être utilisée, en particulier ne peut être convertie ou convertie en travail mécanique. La détermination exacte de l'entropie est effectuée à l'aide de calculs mathématiques. L’effet de l’entropie est plus clairement visible dans l’exemple des processus thermodynamiques. Ainsi, la chaleur ne se transforme jamais complètement en travail mécanique, mais en d’autres types d’énergie. Il est à noter qu'au cours des processus réversibles, la valeur de l'entropie reste inchangée ; au contraire, au cours des processus irréversibles, elle augmente régulièrement, et cette augmentation est due à une diminution. énergie mécanique. Par conséquent, tous les nombreux processus irréversibles qui se produisent dans la nature s'accompagnent d'une diminution de l'énergie mécanique, ce qui devrait finalement conduire à une paralysie générale ou, en d'autres termes, à une « mort thermique ». Mais une telle conclusion n’est valable que dans le cas où l’on postule le totalitarisme de l’Univers comme réalité empirique fermée. Christ. les théologiens, basés sur l'entropie, parlaient de la finitude du monde, l'utilisant comme preuve de l'existence de Dieu.

L'entropie augmente. L'entropie augmente-t-elle dans les systèmes isolés ?

Cinq mythes sur le développement et l'entropie. Troisième mythe.
Nous gardons l’argent sous clé et nous cachons la nourriture dans la glace à l’abri de la chaleur.
Mais il est totalement insupportable pour une personne de vivre seule et enfermée.
La deuxième loi de la thermodynamique stipule que l'entropie dans un système isolé ne diminue pas, c'est-à-dire qu'elle reste la même ou augmente. Peut-il se développer en dehors d’un système isolé ?
Notons d'emblée que le terme « système » dans la formulation du deuxième principe n'est utilisé que par souci de concision. Il s'agit de tout ensemble d'éléments, tandis que le système inclut des connexions entre eux et assume une certaine intégrité. Les connexions et l'intégrité ne peuvent que ralentir la croissance de l'entropie, excluant certains états (peut-être indésirables pour le système). À aucun autre égard, la systématicité n’est importante pour le deuxième principe.
L’exigence d’isolement découle du fait qu’à partir d’un système ouvert, l’entropie peut être exportée et dissipée dans l’environnement. Mais une fois que l’ensemble isolé d’éléments s’est équilibré et est arrivé au macroétat le plus probable, l’entropie, ayant atteint un maximum, ne peut plus croître.
Une augmentation de l'entropie n'est possible qu'en présence d'une sorte de déséquilibre, qui n'apparaîtra que lorsque l'afflux d'énergie de l'extérieur ou sa sortie vers l'extérieur reprendront. Ce n'est pas pour rien que nous plaçons les choses dans des installations de stockage isolées - cela empêche les influences extérieures qui contribuent à l'émergence d'un déséquilibre et à la croissance ultérieure de l'entropie. Ainsi, l’isolement, comme la systématicité, ne contribue pas à la croissance de l’entropie, mais garantit seulement sa non-diminution. C’est en dehors du système isolé, dans l’environnement ouvert, que se produit principalement la croissance de l’entropie.
Bien que la formulation classique de la deuxième loi ne précise pas comment l’entropie change dans les systèmes et environnements ouverts, cela ne constitue pas un gros problème. Il suffit de séparer mentalement une partie de l'environnement ou un groupe de systèmes ouverts participant au processus et ne subissant pas d'influences extérieures et de les considérer comme un seul système isolé. Leur entropie totale ne devrait alors pas diminuer. C'est ainsi que raisonnait par exemple W. Ashby lorsqu'il évaluait l'impact d'un système sur un autre, et I. Prigogine lorsqu'il envisageait des structures dissipatives.
Ce qui est pire, c’est qu’une grande classe de processus dans lesquels l’entropie se développe, à savoir les processus d’accumulation de perturbations dans des systèmes sous l’influence de forces extérieures, semblent échapper à l’influence du deuxième principe – après tout, ils ne peuvent pas se produire dans des systèmes isolés !
Il vaudrait donc mieux formuler la loi comme suit : tout processus spontané de transformation d'énergie, de masse, d'information ne réduit pas l'entropie totale de tous les systèmes et parties de l'environnement qui lui sont associés. Dans cette formulation, l'exigence excessive de systématicité est supprimée, l'isolement est assuré par la prise en compte de tous les éléments participant au processus et la validité de la loi pour tous les processus spontanés est affirmée.

L'entropie en mots simples. Qu'est-ce que l'entropie en termes simples

Le plus souvent, le mot « entropie » se retrouve bien entendu dans la physique classique. C'est l'un des concepts les plus complexes de cette science, c'est pourquoi même les étudiants des universités de physique rencontrent souvent des problèmes lorsqu'ils perçoivent ce terme. Il s'agit bien sûr d'un indicateur physique, mais il est important de comprendre un fait : l'entropie n'est pas similaire aux concepts habituels de volume, de masse ou de pression, car l'entropie est précisément une propriété du sujet spécifique que nous considérons.

En termes simples, l’entropie est une mesure de la quantité d’informations que nous ignorons sur un sujet donné. Eh bien, par exemple, lorsqu'on me demande où j'habite, je vous répondrai - à Moscou. Il s'agit d'une coordonnée très spécifique - la capitale Fédération de Russie– cependant, Moscou est une ville assez grande, donc vous ne connaissez toujours pas les informations exactes sur ma localisation. Mais quand je vous donne mon code postal, par exemple, alors l'entropie de moi en tant qu'objet diminuera.

Ce n’est pas une analogie tout à fait exacte, donnons donc un autre exemple pour clarifier. Disons que vous et moi prenons dix dés à six faces. Lançons-les tous tour à tour, puis je vous dirai la somme des indicateurs abandonnés - trente. Sur la base de la somme de tous les résultats, vous ne pourrez pas dire exactement quel numéro est sorti sur quel dé - vous n'avez tout simplement pas suffisamment de données pour cela. Dans notre cas, chaque nombre déposé dans le langage des physiciens sera appelé un microétat, et la somme égale à trente, dans le même dialecte physique, sera appelée un macroétat. Si nous comptons combien de micro-états possibles un total de trois douzaines peuvent nous donner, nous arriverons à la conclusion que leur nombre atteint près de trois millions de valeurs. À l'aide d'une formule spéciale, nous pouvons calculer l'indice d'entropie dans cette expérience probabiliste - six et demi. D’où vient la moitié, pourriez-vous demander ? Cette partie fractionnaire apparaît du fait que lors de la numérotation au septième ordre, nous pouvons opérer avec seulement trois nombres - 0, 1 et 2.

Entropie en biologie. Entropie (valeurs)

Entropie :

  • L'entropie est une mesure de dissipation d'énergie irréversible, une mesure de l'écart d'un processus réel par rapport à un processus idéal.
  • L'entropie thermodynamique est fonction de l'état d'un système thermodynamique
  • Entropie (biologie) - en écologie biologique, unité de mesure de la variabilité biologique.
  • L'entropie de l'information est une mesure du chaos de l'information, de l'incertitude quant à l'apparition de tout symbole de l'alphabet primaire.
  • Entropy est un réseau de communication informatique peer-to-peer décentralisé conçu pour résister à la censure du réseau.
  • Entropie topologique
  • Entropie métrique
  • Entropie d'un système dynamique
  • Entropie différentielle
  • L'entropie d'une langue est une fonction statistique du texte dans une certaine langue, ou de la langue elle-même, qui détermine la quantité d'informations par unité de texte.
  • Entropy (journal) - revue interdisciplinaire internationale sur Anglais sur l'étude de l'entropie et de l'information.
  • "Entropie" est un long métrage de 2012 de Maria Sahakyan.
  • Entropie ( jeu de société) (eng. Entropy) est un jeu de société de 1977 d'Eric Solomon et de 1994 d'Augustin Carreno.

Vidéo sur l'entropie

Exemples d'entropie. Introduction

Entropie

La définition suivante de l'entropie se trouve dans le dictionnaire des mots étrangers : entropie - 1) en physique - une des grandeurs caractérisant l'état thermique d'un corps ou d'un système de corps ; une mesure du désordre interne du système ; pour tous les processus se produisant dans un système fermé, l'entropie augmente (processus irréversibles) ou reste constante (processus réversibles) ; 2) en théorie de l'information - une mesure de l'incertitude de la situation ( variable aléatoire) avec un nombre fini ou pair de résultats, par exemple une expérience dont le résultat n'est pas exactement connu.

Le concept d’entropie a été introduit pour la première fois dans la science par Clausius en 1865. développement logique Thermodynamique de Carnot.

Mais je caractérise ce concept comme une mesure du chaos. À mon avis, c’est le sujet le plus optimal du moment car il est entièrement lié à la vie. L'entropie est dans tout. Dans la nature, chez l'homme, dans diverses sciences. Même la naissance d’une personne dans l’utérus commence par le chaos. L'entropie peut aussi être associée à la formation d'une planète, puisqu'avant l'apparition de Dieu sur Terre, tout phénomènes naturels et tout ce qui se trouvait sur la planète était dans un degré élevé d'entropie. Mais après sept jours, la planète a acquis une apparence ordonnée, c'est-à-dire que tout s'est mis en place.

Sur la base de mes découvertes, j'aimerais analyser ce phénomène plus en détail et, pour ainsi dire, réduire l'entropie nécessaire à la compréhension de ce phénomène.

AmpleurFormule de calculSignification
Entropie totale de la partie visible S(\displaystyle S)4π3sγlH03(\displaystyle (\frac (4\pi )(3))s_(\gamma )l_(H_(0))^(3))∼1088(\displaystyle \sim 10^(88))
Entropie spécifique du gaz photonique sγ(\displaystyle s_(\gamma ))8π290T03(\displaystyle (\frac (8\pi ^(2))(90))T_(0)^(3))≈1,5103(\displaystyle \environ 1,510^(3)) cm-3

L'entropie de l'Univers est une grandeur caractérisant le degré de désordre et l'état thermique de l'Univers. La définition classique de l'entropie et la méthode de calcul ne conviennent pas à l'Univers, car les forces gravitationnelles y agissent et la matière elle-même ne forme pas un système fermé. Cependant, il peut être prouvé que dans le volume qui l'accompagne, l'entropie totale est conservée.

Dans un Univers en expansion relativement lente, l'entropie dans le volume qui l'accompagne est conservée et l'ordre de grandeur de l'entropie est égal au nombre de photons.

Loi de conservation de l'entropie dans l'Univers

En général, l’augmentation de l’énergie interne a la forme :

Prenons en compte que le potentiel chimique des particules est égal en valeur et opposé en signe :

Si nous considérons l'expansion comme un processus d'équilibre, alors cette dernière expression peut être appliquée au volume qui l'accompagne (V∝a3(\displaystyle V\propto a^(3)), où a(\displaystyle a) est le « rayon » de l'Univers). Cependant, dans le volume ci-joint, la différence entre particules et antiparticules demeure. En tenant compte de ce fait, nous avons :

Mais la raison du changement de volume est l’expansion. Si maintenant, compte tenu de cette circonstance, nous différencions la dernière expression dans le temps :

Maintenant, si nous substituons l'équation de continuité incluse dans le système :

Ce dernier signifie que l'entropie dans le volume qui l'accompagne est conservée.

Couronnement de Frédéric dans l'église du château de Königsberg

Frédéric, fils de l'électeur de Brandebourg Friedrich Wilhelm, surnommé le Grand Électeur, est né à Königsberg le 11 juillet 1657 de la première épouse de son père, Louise Henrietta. La mort de son frère aîné, Charles-Émile, en 1674, lui ouvre la voie à la couronne.

De santé faible, veule, influençable, il était enclin au faste et à la splendeur. La différence frappante entre lui et son père a été notée par tous les historiens : la différence de caractère, de points de vue et d'aspirations. Lavis appelle à juste titre Frederick le fils prodigue d'une famille d'avares. À la passion du luxe s’ajoutait le culte de Frédéric III pour tout ce qui était français. Le Deutsch-französische Modegeist de 1689 déclare : « Désormais, tout doit être français : Français, vêtements français, cuisine française, vaisselle, danse française, musique française et maladie française. L’esprit français fier, trompeur et dépravé a complètement endormi les Allemands. Jusqu'à 820 000 thalers par an étaient dépensés pour l'entretien du tribunal, soit seulement 10 000 thalers de moins que pour l'entretien de l'ensemble de l'administration civile de l'État. Frédéric II caractérisait son grand-père par ces mots : « Grand dans les petites choses et petit dans les grandes ».

Le cycle du moteur thermique le plus efficace est le cycle thermique de Carnot. Il se compose de deux processus isothermes et de deux processus adiabatiques. La deuxième loi de la thermodynamique stipule que toute la chaleur fournie à un moteur thermique ne peut pas être utilisée pour effectuer un travail. L'efficacité d'un tel moteur mettant en œuvre le cycle de Carnot donne la valeur limite de la partie de celui-ci pouvant être utilisée à ces fins.

Quelques mots sur la réversibilité des processus physiques

Un processus physique (et au sens étroit thermodynamique) dans un certain système de corps (y compris solides, liquides, gaz) est réversible si, après son exécution, il est possible de restaurer l'état dans lequel se trouvait le système avant lui. a commencé. S’il ne peut pas revenir à son état d’origine à la fin du processus, alors il est irréversible.

Les processus réversibles ne se produisent pas dans la nature. Il s'agit d'un modèle idéalisé de la réalité, une sorte d'outil pour son étude en physique. Un exemple d’un tel processus est le cycle de Carnot. Un moteur thermique idéal est un modèle d'un système réel qui met en œuvre un processus nommé d'après le physicien français Sadi Carnot, qui l'a décrit pour la première fois.

Qu’est-ce qui cause l’irréversibilité des processus ?

Les facteurs qui y conduisent comprennent :

  • la chaleur circule de la source de chaleur vers le consommateur avec une différence de température finie entre eux ;
  • expansion illimitée du gaz ;
  • mélanger deux gaz ;
  • friction;
  • passage du courant électrique à travers une résistance ;
  • déformation inélastique ;
  • réactions chimiques.

Le processus est irréversible si l’un de ces facteurs est présent. Le cycle Carnot idéal est un processus réversible.

Processus réversibles en interne et en externe

Lorsqu'un processus est réalisé, les facteurs de son irréversibilité peuvent être localisés à l'intérieur du système de corps lui-même, ainsi que dans son environnement. On dit qu’il est intérieurement réversible si le système peut être restauré au même état d’équilibre dans lequel il se trouvait au départ. De plus, il ne peut y avoir de facteurs d’irréversibilité en son sein tant que dure le processus en question.

S'il n'y a pas de facteurs d'irréversibilité en dehors des limites du système dans un processus, celui-ci est alors appelé extérieurement réversible.

Un processus est dit complètement réversible s’il est réversible à la fois intérieurement et extérieurement.

Qu'est-ce qu'un cycle de Carnot ?

Dans ce processus, mis en œuvre par un moteur thermique idéal, le fluide de travail - le gaz chauffé - effectue un travail mécanique grâce à la chaleur reçue du réservoir thermique à haute température (réchauffeur), et dégage également de la chaleur au réservoir thermique à basse température ( réfrigérateur).

Le cycle de Carnot est l'un des cycles réversibles les plus connus. Il se compose de quatre processus réversibles. Bien que de telles boucles soient irréalisables en pratique, elles fixent des limites supérieures aux performances des boucles réelles. La théorie montre que ce cycle direct convertit l'énergie thermique (chaleur) en travail mécanique avec l'efficacité maximale possible.

Comment un gaz parfait complète-t-il le cycle de Carnot ?

Considérons un moteur thermique idéal contenant une bouteille de gaz et un piston. Les quatre processus réversibles dans le cycle de fonctionnement d'une telle machine sont :

1. Expansion isotherme réversible. Au début du processus, le gaz dans la bouteille a une température T H. À travers les parois de la bouteille, il entre en contact avec un réchauffeur qui présente une différence de température infinitésimale avec le gaz. Par conséquent, le facteur d'irréversibilité correspondant sous la forme d'une différence de température finie est absent et un processus réversible de transfert de chaleur du réchauffeur au fluide de travail - le gaz - a lieu. Son énergie interne augmente, elle se dilate lentement, tout en effectuant un travail de déplacement du piston et en restant à une température T H constante. La quantité totale de chaleur transférée au gaz par le réchauffeur au cours de ce processus est égale à Q H, mais seule une partie de celle-ci est ensuite convertie en travail.

2. Expansion adiabatique réversible. Le réchauffeur est retiré et le gaz soumis au cycle de Carnot se dilate lentement de manière adiabatique (avec une entropie constante) sans échange de chaleur à travers les parois du cylindre ou le piston. Son travail pour déplacer le piston entraîne une diminution de l'énergie interne, qui se traduit par une diminution de la température de T H à T L . Si l’on suppose que le piston se déplace sans friction, alors le processus est réversible.

3. Compression isotherme réversible. Le cylindre est mis en contact avec un réfrigérateur ayant une température T L . Le piston commence à être repoussé par une force externe qui effectue le travail de compression du gaz. Dans le même temps, sa température reste égale à T L et le processus, y compris le transfert de chaleur du gaz vers le réfrigérateur et la compression, reste réversible. La quantité totale de chaleur évacuée du gaz vers le réfrigérateur est Q L .

4. Compression adiabatique réversible. Le condenseur est retiré et le gaz est lentement comprimé davantage de manière adiabatique (à entropie constante). Sa température monte de T L à T H. Le gaz revient à son état initial, ce qui boucle le cycle.

Les principes de Carnot

Si les processus qui composent le cycle Carnot d’un moteur thermique sont réversibles, on parle alors de moteur thermique réversible. Sinon, nous avons sa version irréversible. En pratique, tous les moteurs thermiques le sont, puisque les processus réversibles n’existent pas dans la nature.

Carnot a formulé des principes qui découlent de la deuxième loi de la thermodynamique. Ils s'expriment ainsi :

1. Le rendement d'un moteur thermique irréversible est toujours inférieur à celui d'un moteur thermique réversible fonctionnant à partir des deux mêmes réservoirs de chaleur.

2. Le rendement de tous les moteurs thermiques réversibles fonctionnant à partir des deux mêmes réservoirs de chaleur est le même.

C'est-à-dire que le rendement d'un moteur thermique réversible ne dépend pas du fluide de travail utilisé, de ses propriétés, de la durée du cycle de fonctionnement et du type de moteur thermique. Cela dépend uniquement de la température du réservoir :

où Q L est la chaleur transférée au réservoir basse température, qui a une température T L ; Q H est la chaleur transférée depuis le réservoir haute température, qui a une température T H ; g, F - toutes les fonctions.

Moteur thermique Carnot

C'est le nom donné à un moteur thermique fonctionnant selon un cycle de Carnot réversible. Le rendement thermique de tout moteur thermique, réversible ou non, est donné par

η th = 1 - Q L /Q H,

où Q L et Q H sont les quantités de chaleur transférées dans le cycle vers le réservoir basse température à la température T L et depuis le réservoir haute température à la température T H, respectivement. Pour les moteurs thermiques réversibles, le rendement thermique peut s'exprimer en fonction des températures absolues des deux réservoirs :

η th = 1 - T L /T H.

Le rendement d'un moteur thermique Carnot est le rendement le plus élevé qu'un moteur thermique peut atteindre lorsqu'il fonctionne entre un réservoir haute température à la température T H et un réservoir basse température à la température T L . Tous les moteurs thermiques irréversibles fonctionnant entre les deux mêmes réservoirs ont un rendement moindre.

Processus inverse

Le cycle considéré est complètement réversible. Sa version réfrigérée peut être réalisée en inversant tous les processus qui y sont inclus. Dans ce cas, le travail du cycle de Carnot est utilisé pour créer une différence de température, c'est-à-dire l'énergie thermique. Pendant le cycle inverse, le gaz reçoit la quantité de chaleur Q L du réservoir basse température, et la quantité de chaleur Q H est transférée au réservoir thermique haute température. L’énergie W net,in est nécessaire pour terminer le cycle. Elle est égale à l'aire de la figure délimitée par deux isothermes et deux adiabatiques. Les diagrammes PV des cycles de Carnot aller et retour sont présentés dans la figure ci-dessous.

Réfrigérateur et thermopompe

Un réfrigérateur ou une pompe à chaleur qui met en œuvre un cycle de Carnot inversé est appelé réfrigérateur Carnot ou pompe à chaleur Carnot.

L’efficacité d’un réfrigérateur (η R) ou d’une pompe à chaleur (η HP) réversible ou irréversible se définit comme :

où QH est la quantité de chaleur évacuée dans le réservoir à haute température ;
Q L est la quantité de chaleur reçue du réservoir basse température.

Pour réfrigérateurs réversibles ou pompes à chaleur type réfrigérateurs Carnot ou pompes à chaleur Carnot, l’efficacité peut s’exprimer en termes de températures absolues :

où T H = température absolue dans le réservoir haute température ;
T L = température absolue dans le réservoir basse température.

η R (ou η HP) sont les rendements les plus élevés qu'un réfrigérateur (ou une pompe à chaleur) peut atteindre lorsqu'il fonctionne entre un réservoir haute température à température T H et un réservoir basse température à température T L . Tous les réfrigérateurs ou pompes à chaleur irréversibles fonctionnant entre les deux mêmes réservoirs ont des rendements inférieurs.

Réfrigérateur domestique

L'idée de base d'un réfrigérateur domestique est simple : il utilise l'évaporation du réfrigérant pour absorber la chaleur de l'espace refroidi dans le réfrigérateur. Il y a quatre parties principales dans tout réfrigérateur :

  • Compresseur.
  • Radiateur tubulaire à l'extérieur du réfrigérateur.
  • Détendeur.
  • Tuyaux d'échange thermique à l'intérieur du réfrigérateur.

Le cycle Carnot inverse pendant le fonctionnement du réfrigérateur s'effectue dans l'ordre suivant :

  • Compression adiabatique. Le compresseur comprime la vapeur du réfrigérant, augmentant sa température et sa pression.
  • Compression isotherme. La vapeur de réfrigérant à haute température comprimée par le compresseur dissipe la chaleur dans environnement(réservoir haute température) lors d'une fuite à travers un radiateur à l'extérieur du réfrigérateur. La vapeur du réfrigérant se condense (se comprime) en phase liquide.
  • Expansion adiabatique. Le réfrigérant liquide circule à travers le détendeur pour réduire sa pression.
  • Expansion isotherme. Le réfrigérant liquide froid s’évapore lorsqu’il traverse les tubes d’échange thermique à l’intérieur du réfrigérateur. Au cours du processus d'évaporation, son énergie interne augmente, et cette croissance est assurée par la sélection de chaleur de l'espace interne du réfrigérateur (réservoir basse température), ce qui permet de le refroidir. Le gaz entre ensuite dans le compresseur pour être à nouveau comprimé. Le cycle de Carnot inverse se répète.

Singularité. Commentaires

"Théories et Pratiques" est un site sur connaissances modernes. L'utilisation du matériel T&P n'est autorisée qu'avec le consentement préalable des détenteurs des droits d'auteur. Tous les droits sur les images et les textes appartiennent à leurs auteurs. Le Site peut contenir du contenu qui n'est pas destiné aux personnes de moins de 16 ans.

  • À propos du projet
  • Plan du site
  • Contacts
  • Poser une question
  • Conditions d'utilisation
  • Confidentialité
  • Projets spéciaux
    • Facebook
    • VKontakte
    • Gazouillement
    • Télégramme

    Abonnez-vous à T&P

    Nous vous enverrons les contenus et les sélections T&P les plus importants. Court et sans spam.

    En cliquant sur le bouton, vous consentez au traitement des données personnelles et acceptez la politique de confidentialité.

Toute l'énergie issue de la combustion de l'essence dans toutes les voitures du monde pour l'année dernière, finalement transformé en chauffage de l’air et de la terre. C’est ce qu’est l’entropie, et ce phénomène est présent dans tout processus, dans tout système.

Cette transition vers la chaleur à basse température entraîne une augmentation du désordre dans le mouvement des molécules. Même lorsque la chaleur est conservée, comme lorsque l'air chaud et l'air froid se mélangent, le désordre augmente encore : (un groupe de molécules rapides dans une zone) + (un groupe de molécules lentes dans une autre) devient (un mélange de molécules avec un mouvement chaotique entre les deux). ). La considération à la fois du simple mélange de gaz chaud et froid et de l'étude théorique générale des moteurs thermiques (thermodynamique) nous amène à la conclusion que la tendance naturelle est un changement d'entropie - une augmentation du désordre au fil du temps.

Ça donne du temps propriété importante- la directionnalité dans le cas de processus statistiques. Dans la mécanique simple, exprimée dans les lois de Newton, le temps peut s'écouler dans les deux sens. Un film sur la collision de deux molécules semblera tout aussi plausible, quelle que soit la façon dont nous commençons le film - depuis le début ou depuis la fin. Mais le film, dans lequel des molécules de gaz chaudes se mélangent à des molécules froides, a l'air sauvage si on le commence par la fin. Ainsi, les collisions d’une myriade de molécules indiquent la direction du temps qui s’écoule dans notre monde. Une mesure physique du « désordre » appelée « principe d’entropie » a été inventée.

Ils disent : « selon la loi de l’entropie, le désordre dans l’Univers a tendance à augmenter ». C’est de là qu’est née l’idée de la « mort thermique » de l’Univers, lorsque tout serait à la même basse température et au désordre maximum de la matière et du rayonnement.

Le concept d'entropie peut être défini comme le rapport entre la quantité de chaleur et la température absolue, ou comme la probabilité d'une certaine configuration dans le monde des molécules. De plus amples détails sur cette définition et son utilisation nous entraîneraient trop loin du cadre de ce cours, mais il vaut la peine d'observer ce concept dans le contexte du développement. science moderne. "L'avenir appartient à ceux", a déclaré Frederick Keffer, "qui peuvent contrôler l'entropie... Révolutions industrielles du passé ne concernait que la consommation d’énergie, mais les usines automatiques du futur sont une révolution de l’entropie.

Lors de collisions, les molécules de gaz pourraient, en principe, être réparties en molécules rapides (chaudes) dans une partie du récipient et en molécules lentes (froides) dans l'autre. Cela signifierait une diminution du désordre, contrairement à ce que prédit la loi de l’entropie croissante. Mais un tel événement aléatoire est presque improbable – pas impossible, mais tout simplement extrêmement improbable. Le désordre le plus probable est la disposition et la vitesse des molécules, de sorte qu'une disposition ordonnée après plusieurs collisions risque de redevenir chaotique.

L’émergence de l’ordre est très peu probable, même à très long terme. L'émergence de l'ordre est extrêmement improbable..., le désordre est très probable, c'est pourquoi les propriétés de l'entropie peuvent être définies de trois manières équivalentes : 1) comme mesure du désordre ; 2) par la chaleur et la température ; 3) à travers les probabilités des configurations moléculaires (dans quelle mesure elles sont statistiquement probables).

La deuxième loi de la thermodynamique dit essentiellement : l’entropie a tendance à augmenter. En raison de processus inévitables tels que les pertes de chaleur, les frottements, les collisions inélastiques..., elle augmente. Le mieux que l’on puisse espérer dans le cas d’un moteur thermique parfait fonctionnant en continu est de maintenir l’entropie constante.

La variation d'entropie est très importante pour calculer le fonctionnement des moteurs thermiques, où l'on s'efforce de consommer toute l'énergie thermique disponible. C'est apparemment très important pour les objets biologiques pour lesquels une direction du temps domine.

À propos, l'idée du principe d'entropie est également utilisée dans la « théorie de l'information », qui sous-tend la conception des systèmes de communication, etc. Supposons que vous parveniez à observer le mouvement d'une molécule de gaz individuelle et que vous puissiez enregistrer le mouvement de chacun d’eux. Derrière ces informations détaillées, vous ne verrez pas le gaz comme un système homogène dans un état de chaos maximum, mais vous verrez seulement que le mouvement est extrêmement irrégulier.

En recevant des informations, vous réduisez l’entropie. Ainsi, l'information transmise par téléphone sous la forme d'un message du thermomètre au thermostat s'apparente à une entropie négative. Cette analogie est efficace pour coder plusieurs conversations téléphoniques simultanées, créer des amplificateurs, améliorer la qualité des appareils d'enregistrement sonore, concevoir des machines automatiques et étudier nos propres système nerveux, le langage, la mémoire et peut-être l'esprit.

À propos du complexe - Qu'est-ce que l'entropie, les changements dans l'entropie des processus et des systèmes, le concept d'entropie, les propriétés et les lois de l'entropie

  • Galerie d'images, photos, photographies.
  • Qu'est-ce que l'entropie - bases, possibilités, perspectives, développement.
  • Faits intéressants, informations utiles.
  • Green News – Qu’est-ce que l’entropie.
  • Liens vers les matériaux et les sources - Qu'est-ce que l'entropie, les changements dans l'entropie des processus et des systèmes, le concept d'entropie, les propriétés et les lois de l'entropie.
    Articles connexes

L'entropie est une mesure de la complexité d'un système. Pas de désordre, mais de complication et de développement. Plus l'entropie est grande, plus il est difficile de comprendre la logique de ce système, de cette situation ou de ce phénomène particulier. Il est généralement admis que plus le temps passe, moins l’Univers devient ordonné. La raison en est le rythme inégal de développement de l’Univers dans son ensemble et de nous-mêmes, en tant qu’observateurs de l’entropie. En tant qu’observateurs, nous sommes bien plus simples que l’Univers. Il nous semble donc excessivement redondant ; nous ne parvenons pas à comprendre la plupart des relations de cause à effet qui le composent. Important et aspect psychologique- les gens ont du mal à s'habituer au fait qu'ils ne sont pas uniques. Comprenez que la thèse selon laquelle les humains sont le couronnement de l’évolution n’est pas très éloignée de la conviction antérieure selon laquelle la Terre est le centre de l’univers. Il est agréable pour une personne de croire en son exclusivité et il n’est pas surprenant que nous ayons tendance à considérer des structures plus complexes que nous comme désordonnées et chaotiques.

Il existe de très bonnes réponses ci-dessus qui expliquent l'entropie sur la base du paradigme scientifique moderne. Les répondants utilisent des exemples simples pour expliquer ce phénomène. Chaussettes éparpillées dans la pièce, lunettes cassées, singes jouant aux échecs, etc. Mais si vous regardez bien, vous comprenez que l'ordre s'exprime ici dans un concept véritablement humain. Le mot « mieux » s’applique à une bonne moitié de ces exemples. Mieux vaut des chaussettes pliées dans le placard que des chaussettes éparpillées sur le sol. Un verre entier vaut mieux qu’un verre brisé. Un cahier écrit avec une belle écriture vaut mieux qu’un cahier avec des taches. Dans la logique humaine, on ne sait pas exactement quoi faire de l’entropie. La fumée qui sort du tuyau n'est pas utilitaire. Un livre déchiré en petits morceaux ne sert à rien. Il est difficile d’extraire au moins un minimum d’informations des bavardages et bruits polyphoniques du métro. En ce sens, il sera très intéressant de revenir à la définition de l'entropie introduite par le physicien et mathématicien Rudolf Clausius, qui voyait dans ce phénomène une mesure de la dissipation irréversible de l'énergie. De qui vient cette énergie ? Qui a le plus de mal à l’utiliser ? Oui à l'homme ! Il est très difficile (voire impossible) de récupérer chaque goutte d’eau déversée dans un verre. Pour réparer de vieux vêtements, il faut utiliser du nouveau matériel (tissu, fil, etc.). Cela ne prend pas en compte le sens que cette entropie peut ne pas avoir pour les humains. Je vais donner un exemple où la dissipation d'énergie pour nous aura exactement le sens opposé pour un autre système :

Vous savez que chaque seconde, une énorme quantité d'informations provenant de notre planète vole dans l'espace. Par exemple, sous forme d’ondes radio. Pour nous, cette information semble complètement perdue. Mais si une civilisation extraterrestre suffisamment développée apparaît sur le chemin des ondes radio, ses représentants pourront recevoir et déchiffrer une partie de cette énergie perdue pour nous. Écoutez et comprenez nos voix, regardez nos programmes de télévision et de radio, connectez-vous à notre trafic Internet))). Dans ce cas, notre entropie peut être régulée par d'autres êtres intelligents. Et plus nous dissipons d’énergie, plus ils peuvent collecter d’énergie.

Entropie(du grec ancien. ἐντροπία - rotation, transformation) est un terme largement utilisé en sciences naturelles et exactes. Elle a été introduite pour la première fois dans le cadre de la thermodynamique en fonction de l'état du système thermodynamique, qui détermine la mesure de la dissipation irréversible de l'énergie. En physique statistique, l'entropie est une mesure de la probabilité qu'un état macroscopique se produise. Outre la physique, le terme est largement utilisé en mathématiques : théorie de l’information et statistiques mathématiques. L'entropie peut être interprétée comme une mesure de l'incertitude (désordre) d'un système (par exemple, une expérience (test), qui peut avoir des résultats différents, et donc la quantité d'informations). Une autre interprétation de ce concept est la capacité d'information du système. Cette interprétation est liée au fait que le créateur du concept d'entropie en théorie de l'information, Claude Shannon, a d'abord voulu appeler cette quantité information. Au sens large où le mot est souvent utilisé dans la vie quotidienne, l'entropie désigne la mesure du désordre d'un système ; Moins les éléments du système sont soumis à un quelconque ordre, plus l’entropie est élevée.

La quantité opposée à l’entropie s’appelle néguentropie ou, plus rarement, extrapie.

Utilisation dans diverses disciplines

  • L'entropie thermodynamique est une fonction thermodynamique qui caractérise la mesure de la dissipation irréversible de l'énergie.
  • L'entropie de l'information est une mesure de l'incertitude de la source des messages, déterminée par les probabilités d'apparition de certains symboles lors de leur transmission.
  • Entropie différentielle - entropie pour les distributions continues.
  • L'entropie d'un système dynamique est une mesure du chaos dans le comportement des trajectoires du système dans la théorie des systèmes dynamiques.
  • L'entropie de réflexion fait partie des informations sur un système discret qui n'est pas reproduite lorsque le système est réfléchi à travers la totalité de ses parties.
  • L'entropie dans la théorie du contrôle est une mesure de l'incertitude de l'état ou du comportement d'un système dans des conditions données.

En thermodynamique

Le concept d'entropie a été introduit pour la première fois par Clausius en thermodynamique en 1865 pour définir la mesure de la dissipation irréversible de l'énergie, une mesure de l'écart d'un processus réel par rapport à un processus idéal. Défini comme la somme des chaleurs réduites, il est fonction de l'état et reste constant dans les processus fermés réversibles, tandis que dans les processus irréversibles, sa variation est toujours positive.

Mathématiquement, l'entropie est définie comme une fonction de l'état du système, égale dans un processus d'équilibre à la quantité de chaleur transmise au système ou évacuée du système, liée à la température thermodynamique du système :

dS = \frac(\delta Q)(T),

DS- incrément d'entropie ; \deltaQ- chaleur minimale fournie au système ; (T)- température absolue du procédé.

L'entropie établit une connexion entre les macro et micro-états. La particularité de cette caractéristique est qu’elle est la seule fonction en physique qui montre la direction des processus. Puisque l'entropie est fonction de l'état, elle ne dépend pas de la manière dont s'effectue la transition d'un état du système à un autre, mais est déterminée uniquement par les états initial et final du système.

Voir aussi

Donnez votre avis sur l'article "Entropie"

Remarques

  1. D. N. Zubarev, V. G. Morozov.// Encyclopédie physique / D. M. Alekseev, A. M. Baldin, A. M. Bonch-Bruevich, A. S. Borovik-Romanov, B. K. Vainshtein, S. V. Vonsovsky, A. V. Gaponov -Grekhov, S. S. Gershtein, I. I. Gurevich, A. A. Gusev, M. A. Elyashevich, M. E. Zhabotinsky, D. N. Zubar. ev, B.B. Kadomtsev, I.S. Shapiro, D.V. Shirkov ; sous général éd. A.M. Prokhorova. - M. : Encyclopédie soviétique, 1988-1999.
  2. Entropie // Grande Encyclopédie Soviétique : [en 30 volumes] / ch. éd. A.M. Prokhorov. - 3e éd. -M. : Encyclopédie soviétique, 1969-1978.

Littérature

  • Shambadal P. Développement et application du concept d'entropie. - M. : Nauka, 1967. - 280 p.
  • Martin N., Angleterre J. Théorie mathématique de l'entropie. - M. : Mir, 1988. - 350 p.
  • Khinchin A. Ya.// Avancées des sciences mathématiques. - 1953. - T. 8, numéro. 3(55). - P. 3-20.
  • Glensdorf P., Prigojine I. Théorie thermodynamique de la structure, de la stabilité et des fluctuations. - M., 1973.
  • Prigojine I., Stengers I. Commandez du chaos. Un nouveau dialogue entre l'homme et la nature. - M., 1986.
  • Brullouin L. Théorie des sciences et de l'information. - M., 1960.
  • Viner N. Cybernétique et société. - M., 1958.
  • Viner N. Cybernétique ou contrôle et communication chez les animaux et les machines. - M., 1968.
  • De Groot S., Mazur P. Thermodynamique hors équilibre. - M., 1964.
  • Sommerfeld A. Thermodynamique et physique statistique. - M., 1955.
  • Petrushenko L.A. L'auto-mouvement de la matière à la lumière de la cybernétique. - M., 1974.
  • Ashby W.R. Introduction à la cybernétique. - M., 1965.
  • Yaglom A.M., Yaglom I.M. Probabilité et information. - M., 1973.
  • Volkenshtein M.V. Entropie et information. - M. : Nauka, 1986. - 192 p.

Extrait caractérisant l'Entropie

- Oh, nies braves, oh, mes bons, mes bons amis ! Voilà pour les hommes ! oh, mes braves, mes bons amis ! [Oh bien joué ! Oh mes bons, bons amis! Voici les gens ! Ô mes bons amis !] - et, comme un enfant, il appuya sa tête sur l'épaule d'un soldat.
Pendant ce temps, Morel restait assis meilleur endroit entouré de soldats.
Morel, un petit Français trapu, aux yeux injectés de sang et larmoyants, attaché avec un foulard de femme sur sa casquette, était vêtu d'un manteau de fourrure de femme. Lui, apparemment ivre, a passé son bras autour du soldat assis à côté de lui et a chanté une chanson française d'une voix rauque et intermittente. Les soldats se tenaient à leurs côtés et le regardaient.
- Allez, allez, apprends-moi comment ? Je prends le relais rapidement. Comment?.. - a dit l'auteur-compositeur farceur, que Morel a serré dans ses bras.
Vive Henri Quatre,
Vive ce roi vaillanti –
[Vive Henri IV !
Vive ce brave roi !
etc. (chanson française)]
chantait Morel en clignant de l'œil.
Se diable à quatre…
- Vivarika ! Vif Seruvaru ! s'asseoir... - répéta le soldat en agitant la main et en comprenant vraiment la mélodie.
- Écoute, intelligent ! Allez, allez, allez !.. - des rires bruts et joyeux s'élevaient de différents côtés. Morel, grimaçant, rit aussi.
- Eh bien, vas-y, vas-y !
Qui a eu le triple talent,
De boire, de battre,
Et d'être un vert galant...
[Ayant un triple talent,
boire, se battre
et sois gentil...]
– Mais c’est aussi compliqué. Eh bien, Zaletaev !..
"Kyu..." dit Zaletaev avec effort. "Kyu yu yu..." dit-il d'une voix traînante, faisant soigneusement ressortir ses lèvres, "letriptala, de bu de ba et detravagala", chanta-t-il.
- Hé, c'est important ! Ça y est, gardien ! oh... vas-y, vas-y ! - Eh bien, tu veux manger plus ?
- Donnez-lui du porridge ; Après tout, il ne faudra pas longtemps avant qu’il en ait assez de la faim.
Ils lui donnèrent encore du porridge ; et Morel, en riant, se mit à travailler sur le troisième pot. Des sourires joyeux étaient sur tous les visages des jeunes soldats qui regardaient Morel. Les vieux soldats, qui trouvaient indécent de se livrer à de pareilles bagatelles, gisaient de l'autre côté du feu, mais de temps en temps, se soulevant sur leurs coudes, ils regardaient Morel en souriant.
"Les gens aussi", dit l'un d'eux en enfilant son pardessus. - Et l'absinthe pousse sur sa racine.
- Ouh ! Seigneur, Seigneur ! Comme c'est magnifique, la passion ! Vers le gel... - Et tout se tut.
Les étoiles, comme si elles savaient que désormais personne ne les verrait, jouaient dans le ciel noir. Tantôt s'enflammant, tantôt s'éteignant, tantôt frémissant, ils chuchotaient activement entre eux à propos de quelque chose de joyeux, mais de mystérieux.

X
Les troupes françaises fondirent progressivement selon une progression mathématiquement correcte. Et cette traversée de la Bérézina, sur laquelle on a tant écrit, ne fut qu'une des étapes intermédiaires dans la destruction de l'armée française, et nullement un épisode décisif de la campagne. Si tant de choses ont été et sont écrites sur la Bérézina, alors de la part des Français, cela s'est produit uniquement parce que sur le pont brisé de la Bérézina, les désastres que l'armée française avait auparavant subis ici de manière égale se sont soudainement regroupés à un moment donné et en un seul. spectacle tragique qui est resté dans toutes les mémoires. Du côté russe, on a tant parlé et écrit sur la Bérézina uniquement parce que, loin du théâtre de la guerre, à Saint-Pétersbourg, un plan a été élaboré (par Pfuel) pour capturer Napoléon dans un piège stratégique sur la rivière Bérézina. Tout le monde était convaincu que tout se passerait exactement comme prévu et insistait donc sur le fait que c'était le passage de la Bérézina qui avait détruit les Français. En substance, les résultats du passage de Berezinsky ont été beaucoup moins désastreux pour les Français en termes de pertes d'armes et de prisonniers que ceux de Krasnoe, comme le montrent les chiffres.
La seule signification du passage de la Bérézina est que ce passage a prouvé de manière évidente et sans aucun doute la fausseté de tous les plans de coupure et la justesse de la seule ligne d'action possible exigée à la fois par Koutouzov et par toutes les troupes (en masse) - uniquement suivre l'ennemi. La foule des Français s'enfuit avec une vitesse toujours croissante, avec toute son énergie dirigée vers l'atteinte de son objectif. Elle courait comme un animal blessé et ne pouvait pas gêner. Cela a été prouvé non pas tant par la construction du passage à niveau que par la circulation sur les ponts. Lorsque les ponts ont été brisés, des soldats non armés, des habitants de Moscou, des femmes et des enfants qui se trouvaient dans le convoi français, tous, sous l'influence de la force d'inertie, n'ont pas abandonné, mais ont couru vers les bateaux, dans l'eau gelée.
Cette aspiration était raisonnable. La situation de ceux qui fuyaient et de ceux qui poursuivaient était tout aussi mauvaise. Resté avec les siens, chacun en détresse espérait le secours d'un camarade, une certaine place qu'il occupait parmi les siens. S'étant livré aux Russes, il se trouvait dans la même situation de détresse, mais il se retrouva à un niveau inférieur dans le domaine de la satisfaction des besoins de la vie. Les Français n’avaient pas besoin d’informations exactes selon lesquelles la moitié des prisonniers, dont ils ne savaient que faire, malgré tout le désir des Russes de les sauver, mouraient de froid et de faim ; ils pensaient qu’il ne pouvait en être autrement. Commandants russes et chasseurs de Français les plus compatissants, les Français au service de la Russie ne pouvaient rien faire pour les prisonniers. Les Français ont été détruits par le désastre dans lequel ils ont été armée russe. Il était impossible de retirer du pain et des vêtements aux soldats affamés et nécessaires pour les donner aux Français qui n'étaient ni nuisibles, ni haïs, ni coupables, mais simplement inutiles. Certains l’ont fait ; mais ce n'était qu'une exception.
Derrière, il y avait une mort certaine ; il y avait de l'espoir devant nous. Les navires furent incendiés ; il n'y avait d'autre salut qu'une fuite collective, et toutes les forces des Français étaient dirigées vers cette fuite collective.
Plus les Français s'enfuyaient, plus leurs restes étaient pitoyables, surtout après la Bérézina, sur laquelle, à la suite du plan de Saint-Pétersbourg, des espoirs particuliers reposaient, plus les passions des commandants russes s'enflammaient, se rejetant la faute. et surtout Koutouzov. Estimant que l'échec du plan Berezinsky-Pétersbourg lui serait attribué, le mécontentement à son égard, le mépris et le ridicule à son égard s'exprimèrent de plus en plus fortement. Les taquineries et le mépris, bien sûr, ont été exprimés sous une forme respectueuse, sous une forme dans laquelle Kutuzov ne pouvait même pas demander de quoi et de quoi il était accusé. Ils ne lui parlaient pas sérieusement ; lui faisant rapport et lui demandant la permission, ils firent semblant d'accomplir un triste rituel, et derrière son dos ils lui clignèrent de l'œil et essayèrent de le tromper à chaque pas.

L'entropie est une mesure de la complexité d'un système. Pas de désordre, mais de complication et de développement. Plus l'entropie est grande, plus il est difficile de comprendre la logique de ce système, de cette situation ou de ce phénomène particulier. Il est généralement admis que plus le temps passe, moins l’Univers devient ordonné. La raison en est le rythme inégal de développement de l’Univers dans son ensemble et de nous-mêmes, en tant qu’observateurs de l’entropie. En tant qu’observateurs, nous sommes bien plus simples que l’Univers. Il nous semble donc excessivement redondant ; nous ne parvenons pas à comprendre la plupart des relations de cause à effet qui le composent. L'aspect psychologique est également important : il est difficile pour les gens de s'habituer au fait qu'ils ne sont pas uniques. Comprenez que la thèse selon laquelle les humains sont le couronnement de l’évolution n’est pas très éloignée de la conviction antérieure selon laquelle la Terre est le centre de l’univers. Il est agréable pour une personne de croire en son exclusivité et il n’est pas surprenant que nous ayons tendance à considérer des structures plus complexes que nous comme désordonnées et chaotiques.

Il existe de très bonnes réponses ci-dessus qui expliquent l'entropie sur la base du paradigme scientifique moderne. Les répondants utilisent des exemples simples pour expliquer ce phénomène. Chaussettes éparpillées dans la pièce, lunettes cassées, singes jouant aux échecs, etc. Mais si vous regardez bien, vous comprenez que l'ordre s'exprime ici dans un concept véritablement humain. Le mot « mieux » s’applique à une bonne moitié de ces exemples. Mieux vaut des chaussettes pliées dans le placard que des chaussettes éparpillées sur le sol. Un verre entier vaut mieux qu’un verre brisé. Un cahier écrit avec une belle écriture vaut mieux qu’un cahier avec des taches. Dans la logique humaine, on ne sait pas exactement quoi faire de l’entropie. La fumée qui sort du tuyau n'est pas utilitaire. Un livre déchiré en petits morceaux ne sert à rien. Il est difficile d’extraire au moins un minimum d’informations des bavardages et bruits polyphoniques du métro. En ce sens, il sera très intéressant de revenir à la définition de l'entropie introduite par le physicien et mathématicien Rudolf Clausius, qui voyait dans ce phénomène une mesure de la dissipation irréversible de l'énergie. De qui vient cette énergie ? Qui a le plus de mal à l’utiliser ? Oui à l'homme ! Il est très difficile (voire impossible) de récupérer chaque goutte d’eau déversée dans un verre. Pour réparer de vieux vêtements, il faut utiliser du nouveau matériel (tissu, fil, etc.). Cela ne prend pas en compte le sens que cette entropie peut ne pas avoir pour les humains. Je vais donner un exemple où la dissipation d'énergie pour nous aura exactement le sens opposé pour un autre système :

Vous savez que chaque seconde, une énorme quantité d'informations provenant de notre planète vole dans l'espace. Par exemple, sous forme d’ondes radio. Pour nous, cette information semble complètement perdue. Mais si une civilisation extraterrestre suffisamment développée apparaît sur le chemin des ondes radio, ses représentants pourront recevoir et déchiffrer une partie de cette énergie perdue pour nous. Écoutez et comprenez nos voix, regardez nos programmes de télévision et de radio, connectez-vous à notre trafic Internet))). Dans ce cas, notre entropie peut être régulée par d'autres êtres intelligents. Et plus nous dissipons d’énergie, plus ils peuvent collecter d’énergie.



LA CLOCHE

Il y a ceux qui ont lu cette nouvelle avant vous.
Abonnez-vous pour recevoir de nouveaux articles.
E-mail
Nom
Nom de famille
Comment voulez-vous lire La Cloche ?
Pas de spam