Diskussion:Entropie (Begriffsklärung)
Physik (2011)
[Quelltext bearbeiten]Physik
- Entropie (Thermodynamik), die physikalische Zustandsgröße in der Thermodynamik und der statistischen Mechanik
- Entropiebilanz, Summe der in dem System produzierten, in das System importierten und der aus dem System exportierten Entropie
- Entropie-Elastizität, eine Form der Elastizität bei Elastomeren; siehe: Elastomer#Entropie-Elastizität
- Entropiekraft in der physikalischen Chemie
aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche
Der Begriff Entropie (griechisches Kunstwort εντροπία [entropía], von εν~ [en~] – ein~, in~ und τροπή [tropē] – Wendung, Umwandlung) steht für:
Mathematik
- Entropieschätzung, verschiedene Methoden zur statistischen Schätzung der Shannon-Entropie auf der Basis von endlichen Stichproben.
- Entropiezahl in der Funktionalanalysis
- bedingte Entropie einer Zufallsvariablen in der Stochastik
Physik
- Entropie (Thermodynamik), die physikalische Zustandsgröße in der Thermodynamik und der statistischen Mechanik
- Entropiebilanz, Summe der in dem System produzierten, in das System importierten und der aus dem System exportierten Entropie
- Entropie-Elastizität, eine Form der Elastizität bei Elastomeren; siehe: Elastomer#Entropie-Elastizität
- Entropiekraft in der physikalischen Chemie
Informationstheorie
- Entropie (Informationstheorie), die Shannon-Entropie als Maß der Informationsdichte
- den speziellen Fall der Rényi-Entropie
- relative Entropie als Synonym für Transinformation oder die Kullback-Leibler-Divergenz, die auch eine der in der Mathematik behandelten Entropien ist
- Entropierate, unabhängig von der Länge einer Nachricht eine Messung der Entropie bezogen auf ein Zeichen
- Entropiekodierung, eine Methode zur verlustfreien Datenkompression
Sozialwissenschaften
- Entropie (Sozialwissenschaften), Informationsmangel (übernommen aus der Informationstheorie)
- den Theil-Index in den Sozialwissenschaften und der Ökonometrie, der auch unter dem irreführenden Begriff Theil-Entropie bekannt ist.
Siehe auch
Wiktionary Wiktionary: Entropie – Bedeutungserklärungen, Wortherkunft, Synonyme, Übersetzungen
- Negentropie als Kurzbezeichnung für negative Entropie
- Redundanz (Informationstheorie) als die Differenz zwischen maximaler und tatsächlicher Entropie
Diese Seite ist eine Begriffsklärung zur Unterscheidung mehrerer mit demselben Wort bezeichneter Begriffe.
Von „Entropie“
Kategorie:Begriffsklärung
(nicht signierter Beitrag von --84.163.46.210 (Diskussion) 10:22, 20. Apr. 2011 (CEST))
Adiabatische Zustandsübergänge nur theoretisch (2013)
[Quelltext bearbeiten]Adiabatische Zustandsübergänge sind eher reine Gedankenexperimente, da sie unendlich langsam laufen würden. Es gibt in der Realität nur nahezu adiabatiche Änderungen.
Es sollte dargelegt werden, dass reale Zustandsänderungen mit einer Zunahme an Entropie einhergehen, dass die Entropie-Zunahme wesentlich für die Geschwindigkeit der Änderungen ist.
--Estimatax (Diskussion) 16:31, 11. Feb. 2013 (CET)
- Gehört das wirklich hier her oder nicht eher in die Disk zu dem Artikel, der jetzt nur "Entropie" genannt ist (und den ich eher "Entropie (Thermo-Dynamik)" nennen würde)?
- Ping willkommen, Steue (Diskussion) 06:06, 7. Jan. 2023 (CET)
Hauptbedeutung (2013)
[Quelltext bearbeiten]In der ganz überwiegenden Mehrzahl wird Entropie im Sinn der Thermodynamik verwendet, diese BKL hier ist sehr ärgerlich. Auch die Entropie in der Informationstheorie ist nur ein Ableger dieser thermodynamischen Entropie. Üblicherweise wird in solchen Fällen Entropie in der Thermodynmik unter Entropie geführt und ein Entropie (Begriffserklärung) für sekundäre Bedeurungen eingeführt.
--Claude J (Diskussion) 07:41, 2. Okt. 2013 (CEST)
- Erledigt: Ich habe deinen Hinweis als Anlass genommen, die BKS gründlich aufzuräumen und bloß assoziative Einträge zu entfernen (s.u.). Gruß --Chiananda (Diskussion) 14:52, 6. Nov. 2014 (CET)
Überarbeitung 11/2014
[Quelltext bearbeiten]Ich habe diese Begriffs-Klärungsseite überarbeitet und gekürzt. Mehrere nicht zielgerichtet verlinkte Einträge habe ich entfernt: BKS liefern keine lexikalischen Bedeutungserklärungen wie ein Wörterbuch (siehe das Wiktionary), sondern sind kleine, schnelle Wegweis-Schilder zu vorhandenen Wikipedia-Artikeln, die verschiedene Bedeutungsinhalte des Stichworts behandeln. Folgende Einträge habe ich entfernt, weil sie nicht mit dem einzelnen Stichwort "Entropie" angesprochen werden, sondern nur zusammengesetzte Zusammenhänge aufgreifen (da gäbe es weitaus mehr, gehören aber nicht auf eine BKS):
- Entropieschätzung, verschiedene Methoden zur statistischen Schätzung der Shannon-Entropie auf der Basis von endlichen Stichproben = zusammengesetzt: "schätzung"
- Entropiezahl in der Funktionalanalysis = zusammengesetzt: "zahl"
- bedingte Entropie einer Zufallsvariablen in der Stochastik = zusammengesetzt: "bedingte"
- Kolmogorow-Sinai-Entropie, eng damit zusammenhängend Metrische Entropie und Topologische Entropie = Sonderfall, zusammengesetzt, außerdem mehrere Verlinkungen in 1 Eintrag: regelwidrig.
- Volumenentropie = Sonderfall, außerdem: Beleg, Relevanz?
- Entropiebilanz, Summe der in dem System produzierten, in das System importierten und der aus dem System exportierten Entropie = zusammengesetzt: "bilanz"
- Entropie-Elastizität, eine Form der Elastizität bei Elastomeren; siehe: Elastomer#Entropie-Elastizität = nur Einzelfall von "Entropie (Thermodynamik)"
- Entropiekraft in der physikalischen Chemie = zusammengesetzt = zusammengesetzt: "kraft"
- den speziellen Fall der Rényi-Entropie = Sonderfall, zusammengesetzt
- in der statistischen Physik ein Maß für fehlende Information (Physik) = Informationsentropie, bereits enthalten: "Entropie (Informationstheorie)"
- relative Entropie als Synonym für Transinformation oder die Kullback-Leibler-Divergenz, die auch eine der in der Mathematik behandelten Entropien ist = Sonderfall
- Entropierate, unabhängig von der Länge einer Nachricht eine Messung der Entropie bezogen auf ein Zeichen = zusammengesetzt
- Entropiekodierung, eine Methode zur verlustfreien Datenkompression = Sonderfall
- den Theil-Index in den Sozialwissenschaften und der Ökonometrie, der auch unter dem irreführenden Begriff Theil-Entropie bekannt ist = Sonderfall
- Redundanz (Informationstheorie) als die Differenz zwischen maximaler und tatsächlicher Entropie = bereits enthalten: "Entropie (Informationstheorie)"
Fazit: Hier wurde zuvor ausschweifend gesammelt, wo Entropie überall beteiligt ist – das ist aber nicht Sinn von BKS, siehe Wikipedia:Begriffsklärung. Als "Trost" habe ich die Indexliste unter Siehe auch eingefügt, dort finden sich 18 Artikel. Sollte einer der entfernten Einträge doch als "Entropie" bezeichnet werden, bitte einfügen in der Form: "im Bereich X die Eigenschaft Y (von Z), siehe Lemma".
Gruß --Chiananda (Diskussion) 14:50, 6. Nov. 2014 (CET)
Entropie (Kryptologie) leitet weiter zu Entropie (Informationstheorie)
[Quelltext bearbeiten]Ich finde, das sollte in der BKS sichtbar sein, damit sich die Leser das Klicken auf einen der beiden sparen.
Im Prinzip bin ich aber durchaus dafür, dass beide Begriffe in der BKS stehen bleiben.
Ich habe aber noch keine Lösung dafür.
Ping willkommen, Steue (Diskussion) 06:10, 7. Jan. 2023 (CET)