Entropie: Was ist das und welche Arten gibt es?

  • Aug 10, 2021
click fraud protection

Es gibt verschiedene Wissenschaften, die, obwohl sie sich in ihrem Zweck unterscheiden, konvergieren, um den Ursprung, das Muster und die Wahrscheinlichkeit der Veränderung ihres Untersuchungsgegenstandes zu finden. Diese Wissenschaften umfassen Physik, Chemie, Informatik, Thermodynamik und Wirtschaftswissenschaften.

Die Änderungswahrscheinlichkeit hängt mit einer bestimmten Störung in einem System zusammen; Um diese Störung zu erklären, wird die Entropie verwendet, ein Begriff aus dem Pi.

Anzeige

was ist entropie

Obwohl es sich um eine etwas komplizierte Theorie handelt, sind ihre Anwendungen in der Informationswissenschaft, Physik und Chemie populär geworden. Daher ist es nützlich zu wissen, was es ist und welche Typen es gibt.

Anzeige

In diesem Artikel finden Sie:

Was ist Entropie?

Entropie kann als physikalische Größe definiert werden, dh eine messbare Größe innerhalb eines physikalischen Systems; Diese physikalische Größe wird verwendet, um die Neigung zur Störung zu messen, die ein System in einer bestimmten Situation hat.

Mit diesem Maß an Unordnung lässt sich auch feststellen, wie viel Energie nicht kontrollierbar und daher für die Arbeit nicht brauchbar ist; Darüber hinaus ermöglicht es uns, Nutzenergie zu unterscheiden, dh diejenige, die vollständig in Arbeit umgewandelt wird.

Anzeige

Die Entropietheorie stellt fest, dass die Systeme im Laufe der Zeit zu mehr Unordnung neigen, in anderen für Arbeit, ihre Entropieniveaus steigen. Daher kann man sagen, dass es ein Maß für den Grad der Unordnung innerhalb eines Systems oder für seine fortschreitende Verschlechterung ist.

In der Mathematik wird Entropie durch den Buchstaben S dargestellt und basiert auf Wahrscheinlichkeiten; Diese Basis ermöglicht die Anwendung dieser Theorie in Wissenschaften wie Informatik und Wirtschaftswissenschaften.

Anzeige

Wie ist es möglich? In diesen Wissenschaften bezieht sich Entropie auf die Wahrscheinlichkeit, zufällige Informationen in einem Informationssystem zu erhalten oder nicht zu erhalten. Es war aus dem Jahr 1948, als der Ingenieur Claude E. Shannon hebt die Informationsentropie als Methode zur Messung der Zufälligkeit.

Arten von Entropie

Abhängig vom Grad der Unordnung innerhalb eines Systems kann man von zwei Arten von Entropie sprechen. Diese sind:

Anzeige

Negative Entropie

Negative Entropie oder Syntropie, hat eine der Entropie entgegengesetzte Funktion. Daher kann es als eine Kraft oder ein Verfahren definiert werden, das ein System ins Gleichgewicht bringt, indem es Unordnung reduziert oder beseitigt.

Dieser Begriff wurde zunächst von Erwin Schrödinger, einem deutschen Physiker, aufgeworfen, der erklärte, dass verschiedene Lebewesen als Ausgleichsmittel für einige Systeme fungieren. Zu diesen Lebewesen gehören Menschen, deren Überleben teilweise von der Ordnung abhängt.

Positive Entropie

Positive Entropie, oft einfach als Entropie bekannt, bezieht sich auf ein System mit einem hohen Grad an molekularer Unordnung. Das heißt, sein Entropieniveau ist höher.

Was sind die Anwendungen der Entropie

Da die Entropietheorie in verschiedenen Wissenschaften verwendet werden kann, kann sie auf verschiedene Bereiche des täglichen Lebens angewendet werden. Einige Beispiele sind:

  • Entropie in Computersicherheitssystemen: In diesem Bereich wird sie verwendet, um Verschlüsselungsschlüssel zu erstellen, die ein System schützen. Darüber hinaus ermöglicht es, in einigen Fällen Cyberangriffe zu erkennen und zu stoppen.
  • Entropie in der Automobilindustrie: Die Entropieformel kann in jedem Energiemodell verwendet werden; Daher kann es auf die Brennkammern von Fahrzeugen angewendet werden.
  • Entropie in der Psychologie: In diesem Fall kann sie auf die sozialen Systeme angewendet werden, in denen sich der Mensch entwickelt. Alle Individuen haben gleichzeitig Ähnlichkeiten und Unterschiede, und die Erhaltung hängt davon ab.
  • Entropie in der Linguistik: In diesem Bereich bezeichnet sie die Art und Weise, wie Informationen in einer Dissertation organisiert und verbreitet werden. Auf diese Weise können diese Informationen im Kommunikationsprozess analysiert werden.

Beispiele für Entropie im Alltag

  • Im Inneren einer Küche kann ein Glasgerät als System in völliger Ordnung und Ausgewogenheit betrachtet werden. Wenn es herunterfiel und in viele Stücke zerbrach, hätte es ein entropisches Ereignis durchlaufen, das heißt, es würde eine Veränderung eintreten, die Unordnung verursacht. Aber es wäre unmöglich, dass sich das Ereignis in umgekehrter Richtung abspielt, aus den Teilen ein Glasgerät zu formen.
  • Thermischer Tod, wie sie in der zeitgenössischen Physik das Ende des Universums nennen, ist auch ein Beispiel für Entropie. Diese Theorie besagt, dass das Universum irgendwann ein Gleichgewicht erreichen wird, einen Punkt maximaler Entropie, daher wird es aufhören, sich zu entwickeln.

Quellen und Referenzen:

  • Knochen L. (2021, Januar) Entropiekonzepte und Grundlagen.
  • Centro Estudios Cervantinos (ENTROPY: ALLES, WAS SIE WISSEN MÜSSEN)
instagram viewer