Entropie (Sozialwissenschaften)
Dieser Artikel wurde auf der Qualitätssicherungsseite des Portals Soziologie eingetragen. Dies geschieht, um die Qualität der Artikel aus dem Themengebiet Soziologie auf ein akzeptables Niveau zu bringen. Hilf mit, die inhaltlichen Mängel dieses Artikels zu beseitigen, und beteilige dich an der Diskussion. (Artikel eintragen)
Begründung: Bitte um Übernahme, Pflege und Ausbau des LD-Restes. --Emergency doc (Disk) 15:42, 14. Apr. 2014 (CEST)
Der Begriff der Entropie bzw. der sozialen Entropie fand in die Sozialwissenschaften, insbesondere in das Gebiet der Soziologischen Systemtheorie innerhalb der Soziologie, Eingang als ein ursprünglich aus der Physik übernommenes Maß für Ungleichheit oder Unordnung. Sie wird zumeist als ein Maß für den Grad der Ordnung bzw. Unordnung innerhalb eines sozialen Systems verstanden, beispielsweise zur Beschreibung der sozialen Ungleichheit. Teils wird als soziale Entropie auch anstelle eines skalierbaren Maßes die Tendenz zur Veränderung sozialer Strukturen verstanden.[1]
Begriff der Entropie
[Bearbeiten | Quelltext bearbeiten]Eine der menschlichen Intuition entgegenkommende Weise, die Bedeutung von Entropie verständlich darzustellen, besteht darin, nicht die Entropie selbst, sondern die Veränderung von Entropie zu betrachten, also die Zunahme oder die Verringerung von Entropie.
- Entropiezunahme ist Informationsverlust:
- Gilbert Newton Lewis schrieb im Jahr 1930: „Eine Zunahme der Entropie bedeutet Informationsverlust und nichts Anderes.“[2]
- Die kurze Zusammenfassung einer Erklärung der Entropie von Murray Gell-Mann im Jahr 1994 lautet: „Entropie ist Informationsmangel, dessen Größe an dem Aufwand gemessen wird, der zur Behebung dieses Informationsmangels erforderlich wäre.“ (Einzelheiten s. u.)
- Zur Entropieverringerung benötigt ein System seine Umwelt:
- Ein System kann seine Entropie nur durch die Belastung seiner Umwelt verringern. Dazu muss es offen sein. Verringert eines seiner Subsysteme seine Entropie, so muss entweder die Summe der Entropien der übrigen Subsysteme im Gesamtsystem ansteigen oder das Gesamtsystem muss seine Umwelt mit Entropie belasten.
- Entropiezunahme verringert die Veränderungsfähigkeit eines Systems:
- Ein System mit niedriger Entropie kann sich leichter ohne Belastung seiner Umwelt verändern als ein System mit hoher Entropie. Verändert sich ein System unabhängig von seiner Umwelt, dann nimmt seine Entropie zu. Ein System mit maximaler Entropie kann sich aus eigener Kraft überhaupt nicht mehr verändern. Diese beiden Tatsachen treffen auf die Subsysteme eines Systems gleichermaßen zu.
Kritik des Begriffes der Entropie
[Bearbeiten | Quelltext bearbeiten]Wortwahl
[Bearbeiten | Quelltext bearbeiten]Der Physiker Leon Cooper führt Schwierigkeiten, den Begriff der Entropie zu verstehen, im Wesentlichen auf die Wahl des falschen Begriffes durch Rudolf Clausius zurück: „...anstelle den Namen dem Körper der zeitgenössischen Sprachen zu entnehmen, gelang es ihm, ein Wort zu prägen, das für Alle dieselbe Sache bedeutete: Nichts.“[3] Clausius begründete seine Wortwahl damit, dass er alte Sprachen für wichtige wissenschaftliche Größen bevorzuge, weil sie in alten Sprachen für alle dasselbe bedeuteten. Und Claude Shannon wählte anstatt des von ihm ursprünglich angedachten Begriffs der Ungewissheit (uncertainty) den Begriff der Entropie für die Informationstheorie, weil er eine wohl etwas ironisch gemeinte Idee von John von Neumann übernahm: „… niemand weiß, was Entropie wirklich ist, also wird man in der Debatte immer einen Vorteil haben.“ Darum leitet der israelische Thermodynamiker Arieh Ben-Naim (* 1934) ein Lehrbuch über statistische Thermodynamik mit einer Begründung ein, warum er den Begriff der Entropie durch den Begriff „fehlende Information“ (MI, Missing Information) ersetzt.[4]
Das Verhältnis von Entropie und „Unordnung“
[Bearbeiten | Quelltext bearbeiten]Durch die häufige und populäre Gleichsetzung von Entropie mit „Unordnung“ bietet sich die Verwendung des Begriffs der Entropie jeder Wissenschaft an, die ordnende Prozesse und die Ordnung sozialer Systeme erforscht. Oft wird Entropie als Synonym für Unordnung auch in populären Darstellungen sozialwissenschaftlicher Themen verwendet. Ein Beispiel ist „Soziale Entropie“[5], ein Begriff der Makrosoziologie, mit dem in der öffentlichen Diskussion oft wertend „Soziale Unordnung“ gemeint ist. Die Gleichsetzung von Entropie mit Unordnung ist jedoch umstritten. Sie ist zwar nicht prinzipiell unzulässig, aber die Zulässigkeit der Gleichsetzung ist abhängig von vielen Zusatzbedingungen, darunter subjektive Sichtweisen und normative Wertungen. Der Gebrauch der Entropie als Synonym für Unordnung führt daher leicht zu Aussagen, die verwirrend, unklar und anfechtbar sind. Arieh Ben-Naim zeigt in Entropy Demystified (2007), dass das Konzept von Ordnung und Unordnung bei der Erklärung der Entropie nicht hilfreich ist und dass eine Erklärung der Wirkmechanismen auch der thermodynamischen Entropie exakt nur über die Informationstheorie und Wahrscheinlichkeitstheorie möglich ist. Der Begriff der Entropie sei zwar zunächst in der Physik entwickelt worden, ihm läge aber die Informations- und Wahrscheinlichkeitstheorie zugrunde.[6]
Man kann Ordnung (im Sinn von „geordnet sein“) auffassen als die gemeinsame Eigenschaft mehrerer Teile, zusammen ein funktionsfähiges System zu bilden. Das kann ein Arbeitsplatz sein, bei dem alle Dinge dort sind, wo sie gebraucht werden. Ein Auto, bei dem alles, was zusammen gehört, richtig montiert ist, das ist „in Ordnung“. Meist gibt es nur wenige Anordnungen der einzelnen Teile, die ein funktionsfähiges System ergeben, aber ungleich mehr, die dieses Kriterium nicht erfüllen und deshalb als „Unordnung“ empfunden werden. Hier bietet sich eine Analogie mit dem Entropiebegriff an, der ursprünglich im Zusammenhang mit der Verteilung von Molekülen geprägt wurde, aber genauso für die Verteilung von Fröschen in einem Teich gilt: Es gibt nur wenige Anordnungen, bei dem die Frösche (oder die Moleküle) ein geometrisches Muster bilden, aber viel mehr Anordnungen, bei denen sie beliebig verteilt sind. Dieser Zustand ist viel wahrscheinlicher. Die Anzahl der Verteilungsmöglichkeiten ist das Maß für die Wahrscheinlichkeit, dass man beim zufälligen Hingucken ein geordnetes oder ein ungeordnetes Bild sieht. Der natürliche Logarithmus dieser Anzahl ist – nach Ludwig Boltzmann – die Entropie.[7] Die wenigen Anordnungen, die ein sinnvolles Ganzes ergeben und als geordneter Zustand gelten, sind durch einen kleinen Entropiebetrag charakterisiert.
Ein Zustand der Unordnung ist von hoher Wahrscheinlichkeit, da es viele Möglichkeiten gibt, ihn zu realisieren. Entsprechend hoch ist seine Entropie. Da nichts Funktionierendes damit verbunden ist, werden Unordnung und hohe Entropie als negativ empfunden.
Umgang des Menschen mit Entropie
[Bearbeiten | Quelltext bearbeiten]Im Umgang mit Entropie kann der Mensch nur eingeschränkt auf Intuition zurückgreifen[8], weswegen seine Sorge vorwiegend der Suche nach sogenannten Energiequellen gilt, ohne die mit jeder Energieumwandlung verbundene Entropieproduktion und die Notwendigkeit von Entropiesenken (zum Beispiel Lagerstätten für Abfallstoffe) gleichermaßen zu berücksichtigen. Zunehmend werden jedoch die Prozesse, mit denen Entropie in die Umwelt exportiert wird, wegen ihrer belastenden Effekte wahrgenommen. Dazu gehört insbesondere die Produktion von Abfallstoffen. In der Wirtschaft und Politik ist Entropieproduktion eine Belastung der von der Gesellschaft geteilten Umwelt, die in vielen Ländern bereits besteuert wird. Solche Entropiesteuern[9], mit denen nach dem Verursacherprinzip Umweltbelastung besteuert[10] wird, werden heute in der Regel als Ökosteuern implementiert. Die Verringerung von Entropieproduktion kann auch subventioniert werden, beispielsweise durch die Förderung effizienter Antriebe, Heizungen usw. Mit dem Emissionsrechtehandel wurde das Recht zum Export von Entropie in die gemeinschaftlich genutzte Biosphäre zu einem Handelsgut.[11]
Intuition und implizites Wissen um Entropie
[Bearbeiten | Quelltext bearbeiten]Siddhartha Gautama: „Woher könnte […] erlangt werden, dass was geboren, geworden, zusammengesetzt, dem Verfall unterworfen ist, da doch nicht verfallen sollte: das gibt es nicht.“[12]
Menschen verfügen über ein implizites Wissen um die Grenzen der Umkehrbarkeit der Zerstörung von Strukturen (zum Beispiel Dinge und Lebewesen). In der Auseinandersetzung mit Entropie und den mit ihr verbundenen Gesetzmäßigkeiten erkennt der Mensch intuitiv Vorgänge, die als unmöglich empfunden werden und in denen gegen den zweiten Hauptsatz der Thermodynamik, gegen die Wahrscheinlichkeitstheorie usw. verstoßen wird. Sieht der Mensch in einem Film, wie ein Haus sich aus Schutt und Asche wieder selbstständig aufbaut, weiß er intuitiv, dass der Film rückwärts abgespielt wird. Der Mensch hat also ein implizites Wissen um die Gesetze von Unumkehrbarkeit und Umkehrbarkeit. Er fühlt, oft ohne den Grund dafür beschreiben zu können, dass sich die Entropie eines Systems ohne Hilfe der Umwelt des Systems nicht verringern kann.
Die Intuition des Menschen basiert auf lebenswichtigem impliziten Wissen. Im Gegensatz dazu ist Wissen um die Folgen eigenen Handelns zum Teil auch eine Hemmung der eigenen Entfaltungsmöglichkeiten. Hier warnt den Menschen nicht das Wissen um die Beeinflussung der Umwelt durch eigenes Handeln, sondern das Wissen um gesellschaftliche Sanktionen und persönliche Verluste. Soweit Warnungen vor wahrscheinlichen schädlichen Folgen für den Handelnden nicht erforderlich sind, kann Verdrängung und Wissensvermeidung helfen, die höherprioritäre eigene Entfaltung nicht durch störendes Wissen zu beeinträchtigen. Struktur findet diese in Glaubenssystemen, in denen Wunder zugelassen sind und so den handelnden Menschen von seiner Verantwortung befreien. Das sind die Ursachen für die Schwierigkeiten des Menschen mit seinen heutigen Energieumwandlungsmöglichkeiten, die in entwicklungsgeschichtlich derart kurzer Zeit um Größenordnungen anwuchsen, dass der Mensch hierzu noch kein angemessenes implizites und kollektives Wissen aufbauen konnte.[8]
Informationstheoretische Entropie
[Bearbeiten | Quelltext bearbeiten]Als ein Maß der Informationstheorie hielt die Shannon-Entropie Einzug in die Sozialwissenschaften bei der Entwicklung von Konzentrationsmaßen und Kennzahlen für die Ungleichverteilung beispielsweise der Einkommensverteilung und Vermögensverteilung. Hieraus entstanden die Entropiemaße von Henri Theil[13][14], Anthony Atkinson[13][15] und Serge-Christophe Kolm[15]. Der Theil-Index und das Atkinson-Maß werden jedoch nicht nur bei der Untersuchung von Einkommens- und Vermögensverteilungen verwendet, sondern beispielsweise in der Soziologie auch bei der Beobachtung der Segregation von Bevölkerungsgruppen.
Beispiel: der Theil-Index
[Bearbeiten | Quelltext bearbeiten]Die Bezeichnung „Entropiemaß“ bereitet selbst hervorragenden Wissenschaftlern Schwierigkeiten. In On Economic Inequality (Kapitel 2.11)[16] meinte Amartya Sen, dass der Begriff Entropie nicht gerade intuitiv sei. Zwar sei die von seinem Mitautor (James Foster) verwendete Theil-Entropie „interessant“, aber es wunderte ihn, dass eine hohe Ungleichverteilung beispielsweise von Einkommen eine hohe Entropie und damit eine hohe Unordnung ergäbe. Sen geht sogar so weit, Theils Formel als „willkürlich“ zu bewerten.
Redundanz ist die Differenz zweier Entropien
[Bearbeiten | Quelltext bearbeiten]Verfügt ein System in einer seiner Kategorien über Redundanz, so bedeutet das, dass sich das System in dieser Kategorie mit eigenen Mitteln verändern kann. Wie die Redundanz eines Systems sich (für die Kategorie der internen Ressourcenverteilung) aus der Differenz zweier Entropien des Systems ermitteln lässt, zeigt die Berechnung des Theil-Index, der ein in der Soziometrie und der Ökonometrie benutztes Ungleichverteilungsmaß ist, das Henri Theil aus der Informationstheorie ableitete.
Im Hinblick auf Allgemeinverständlichkeit soll dieser Artikel ohne Formeln auskommen; nur im Folgenden wird einmal eine Ausnahme gemacht und Theils Index stellvertretend für alle als Entropiemaß gestaltete Ungleichverteilungsmaße herangezogen. Die Einzelheiten sind im Hauptartikel Theil-Index erklärt. Mit der hier angegebenen Variante der Formel können Ungleichverteilungen berechnet werden, bei denen N mit Quantilen abgegrenzte Bereiche (in diesem Beispiel sind das Gruppen von Einkommensbeziehern) eine unterschiedliche Breite haben: sei das Einkommen im i-ten Bereich und sei die Anzahl (oder der prozentuale Anteil) der Einkommensbezieher im i-ten Bereich.[17] sei die Summe der Einkommen aller N Bereiche und sei die Summe der Einkommensbezieher aller N Bereiche (oder 100 %).
Sens Verwunderung ist in diesem Fall nicht der Problematik (s. o.) der Gleichsetzung von Entropie und Unordnung zuzuschreiben, sondern die Auflösung von Sens Problem ergibt sich, wenn man Theils Formeln[18] in zwei Teile aufteilt und wie folgt darstellt:
- Die in einen linken und einen rechten Teil aufgeteilte Formel für Bevölkerungsanteile, die sich auf Einkommen verteilen, arbeitet mit auf Einkommen bezogenen Summanden:
- Die in einen linken und einen rechten Teil aufgeteilte Formel für Einkommen, die sich auf Bevölkerungsanteile verteilen, hat auf Bevölkerungsanteile bezogenen Summanden[19]:
Tatsächlich enthält jede der beiden Formeln zwei Entropien. Der Teil links vom Minuszeichen ist die maximale Entropie (bei Gleichverteilung). Der Teil rechts vom Minuszeichen ist die tatsächliche Entropie (für eine tatsächlich gegebene Verteilung). Eine solche Differenz ist in Anlehnung an die Informationstheorie[20] keine Entropie, sondern eine Redundanz.
Amartya Sen wunderte sich zu Recht: Der Theil-Index ist keine Theil-Entropie, sondern eine Theil-Redundanz. Als Differenz zweier Entropien bleibt jedoch auch die Redundanz in der Entropiedomäne. Obwohl Theils, Atkinsons und Kolms Ungleichverteilungsmaße Redundanzen sind, kann man sie deswegen weiterhin als Entropiemaße bezeichnen. Sie als „Entropien“ zu bezeichnen, kann dagegen zu Verwirrungen führen.
Mit normalisierten Daten und werden die Formeln noch einfacher:
Die maximale Entropie wird hierbei auf null verschoben. Die tatsächliche gegebene Verteilung stellt sich dann als eine negative Entropie dar. Das ist die Redundanz.
Der Mittelwert beider Redundanzen ist ein symmetrisierter Theil-Index:
Des Einen Ordnung ist des Anderen Unordnung
[Bearbeiten | Quelltext bearbeiten]Das Beispiel verdeutlicht auch die Problematik der Gleichsetzung von Entropie mit Unordnung. Bei Erreichen einer völligen Gleichverteilung nimmt der Theil-Index den Wert „null“ an. Das ist maximale Entropie beziehungsweise minimale Redundanz. Aber bedeutet das auch „maximale Unordnung“? Ist maximale Konzentration „maximale Ordnung“? Wenn leichte Auffindbarkeit ein Kriterium für Ordnung wäre, dann bestünde maximale Ordnung tatsächlich bei maximaler Ungleichverteilung, denn diese Verteilung ergibt sich, wenn zum Beispiel das gesamte Vermögen einer Gesellschaft bei einer einzigen Person untergebracht ist. Das Kriterium der leichten Auffindbarkeit stünde mit der informationstheoretischen Definition von Entropie als Maß des Informationsmangels im Einklang. Um das bei einem Einzigen untergebrachte Vermögen Aller zu finden, muss nur eine einzige Adresse erfragt und mitgeteilt werden. Dieser kleine Informationsmangel ist einfach zu beheben. In einer realen Gesellschaft gäbe es bei dieser maximalen Ordnung jedoch auch maximalen Unfrieden, verursacht durch als maximal empfundene Ungerechtigkeit. Für Egalitaristen ist maximale Ordnung jedoch die Gleichverteilung des Vermögens. Empirische Untersuchungen[21] zeigen jedoch, dass viele Menschen eine Ungleichverteilung in einem unscharfen Bereich zwischen totaler Gleichverteilung und totaler Ungleichverteilung für optimal halten.
Übereinstimmung von Formel und Entropie-Erklärung
[Bearbeiten | Quelltext bearbeiten]Theils Formel steht auch im Einklang mit Gell-Manns Erklärung der Entropie, in der von einem „Aufwand“ die Rede ist. Links vom Minuszeichen ist beispielsweise das gleichverteilte Vermögen pro Besitzer. Wie wird nun der Informationsaufwand berechnet, der erforderlich ist, um den sich aus diesem Bruch ergebenden Quotienten darzustellen? Das geschieht mit einer skalierenden Funktion, die Logarithmus genannt wird: Der Logarithmus einer Zahl ist proportional zu dem Aufwand, der gebraucht wird, um diese Zahl aufzuschreiben. Das ist der Informationsaufwand, der erforderlich ist, das gleichverteilte Pro-Kopf-Vermögen mitzuteilen. Rechts vom Minuszeichen ist das tatsächliche Vermögen pro Besitzergruppe. Auch hier beschreibt wieder der Logarithmus dieser Zahl den Platz, der gebraucht wird, um diese Zahl aufzuschreiben. Da die Gruppe aber weniger Gewicht hat, als das Ganze, müssen die einzelnen Aufwände noch mit gewichtet werden.
Entropie als Maß des „Unwissens“
[Bearbeiten | Quelltext bearbeiten]Murray Gell-Mans Erklärung der Entropie als zur Minderung des „Unwissens“ nötiger Aufwand wurde am Anfang dieses Artikels nur verkürzt wiedergegeben. Seine Erklärung wurde von Ilya Prigogine kritisiert[22], weil er meinte, man könne so durch Wissensänderung in einem geschlossenen System die Entropie verringern. Darum ist es wichtig, bei Gell-Manns Definition zu beachten, dass sie nicht festlegt, dass die Behebung des Informationsmangels tatsächlich erfolgen muss. Es geht um den potenziellen Aufwand zur Behebung von Informationsmangel. Würde der Aufwand im geschlossenen System realisiert und dadurch eine Entropieminderung bewirkt, so würde diese Minderung durch eine vom Aufwand bewirkte Entropiesteigerung mindestens kompensiert werden. Hier schließt sich schon wieder der Kreis zu Leó Szilárd (s. o.), der basierend auf diesem Zusammenhang zeigte, dass intelligente Wesen (einschließlich Maxwells Dämon) in einem geschlossenen System die Entropie nicht verringern können.
Statistische Physik
[Bearbeiten | Quelltext bearbeiten]Entropie wurde zuerst als physikalische Größe in der Thermodynamik verwendet und phänomenologisch verstanden. Erklärbar sind die ihr zugrunde liegenden Vorgänge und Zusammenhänge mit den Erkenntnissen aus der von Ludwig Boltzmann begründeten Statistischen Physik (auch Statistische Mechanik genannt). Systematisch bietet sich darum Boltzmanns Entropie als gemeinsame Basis für die Erklärung sowohl der thermodynamischen (nach Clausius) als auch der informationstheoretischen Entropie (nach Shannon) an[23].
Makrozustand und seine Mikrozustände
[Bearbeiten | Quelltext bearbeiten]Sozialwissenschaftler beschreiben mit Mitteln der Statistik beispielsweise die Makrozustände einer Gesellschaft, die sich aus den vielen Mikrozuständen der in ihrer Umwelt handelnden Menschen ergeben. Gegebenenfalls sind diese Mikrozustände für sich auch wieder Makrozustände, die sich auf noch kleinere Mikrozustände herunterbrechen lassen. Das führt zu komplexen Systemen, die nur auf der Makroebene geführt[24] werden können. Das Wissen um das Zusammenwirken der Mikrozustände hilft, die möglichen Makrozustände abzuschätzen, aber die Mikrozustände selbst entziehen sich der praktischen Handhabbarkeit.
Auch in der statistischen Physik werden die Makrozustände eines Systems als eine statistische Beschreibung der Mikrozustände behandelt, die zu den Makrozuständen führen. Beispielsweise ist die Temperatur eine statistische Größe im Makrobereich, die im Mikrobereich (örtlich und zeitlich) fluktuiert und sich aus dem einzelnen Verhalten der vielen Partikel des Körpers ergibt, für den diese Temperatur gemessen wird. Selbst wenn das Verhalten eines einzelnen Partikels beobachtbar wäre, könnte eine Beobachtung aller Partikel in den in unserer Alltagswelt für uns mit bloßem Auge sichtbaren Körpern nicht realisiert werden. Dieses Beispiel dient nun dazu, die Begriffe Makro- und Mikrozustand einzuführen, bevor eine der Möglichkeiten folgt, Entropie zu erklären:
„Die Entropie und Information haben einen engen Zusammenhang. Tatsächlich kann Entropie als ein Maß des Unwissens verstanden werden. Wenn nur bekannt ist, dass sich ein System in einem gegebenen Makrozustand befindet, dann beschreibt die Entropie eines Makrozustandes den Grad des Unwissens über den Mikrostatus. Dieser Grad ist die Anzahl der Bits der zusätzlichen Information, die noch benötigt wird, um den Mikrostatus vollständig zu spezifizieren. Dabei werden alle Mikrozustände als gleichermaßen wahrscheinlich behandelt.“[25]
In einer Systemtheorie für Psychologen beschreibt Norbert Bischof Entropie in ähnlicher Weise als „das Maß für das Quantum an unvorhersehbarer Aktualität, also an ‚Information‘, das im Durchschnitt durch jeden Auswahlakt der Signalquelle erzeugt wird“.[26]
Nach Richard Becker ist Entropie nicht Unwissen, sondern eine Funktion des Unwissens: S = k ln(Unkenntnis).[27] Damit bleibt die Entropie auch hier ein Maß des Unwissens.
Fluktuationen
[Bearbeiten | Quelltext bearbeiten]Fluktuationen sind denkbare kurzzeitige, lokale Konzentrationsunterschiede und damit lokale Entropieverminderungen. Bei einem großen Makrosystem kann das Auftreten lokaler Fluktuationen beobachtbar werden: Viele für sich betrachtet niedrige Auftrittswahrscheinlichkeiten können zu einer ausreichend hohen Wahrscheinlichkeit führen, dass irgendwo doch ein unerwartetes Ereignis beobachtbar wird.
Die Möglichkeit von Fluktuationen bedeutet, dass bei der Systemanalyse sorgfältig verstanden werden muss, ob bei Systemen mit wenigen Makrozuständen Schwankungen durch kurze Fluktuationen zu berücksichtigen sind, derentwegen aufeinanderfolgende Zustände nicht mehr durch einen Anstieg der Entropie zu identifizieren sind. Außerdem kann hinsichtlich der Unendlichkeit und auch der Länge der Menschheitsgeschichte „kurz“ auch für viele Jahre stehen. Für die Sozialwissenschaften bedeutet das, dass nicht immer sicher ist, ob ein Zustand (zum Beispiel Wirtschaftswachstum) von signifikanter Dauer ist, oder nur eine Fluktuation vorliegt.
Zusammenführung der verschiedenen Entropie-Konzepte
[Bearbeiten | Quelltext bearbeiten]Die strukturelle Kopplung zwischen Wirtschaft und Gesellschaft sowie zwischen Gesellschaft und materieller Umwelt erlaubt verschiedenste Arten von Entropietransfer, also auch eine Wechselwirkung von Informationsentropien und thermodynamischen Entropien. Wie weit die physische Entropie mit der metaphysischen Entropie zusammengeführt werden kann, ist jedoch in der Diskussion.[28] Zwei Wege, die dort hinführen, wurden bereits angesprochen:
- Die Entropie der Informationstheorie wird in die Thermodynamik überführt.[29]
- Die thermodynamische Entropie wird informations- und wahrscheinlichkeitstheoretisch erklärt.[4][6]
Tatsächlich ist eine Erklärung der Wirkmechanismen der thermodynamischen Entropie exakt über die Wahrscheinlichkeitstheorie möglich.
Die quantitative Angabe der Entropie und die quantitative Beschreibung von Entropie-Änderungen in komplexen[30] Systemen bleibt schwierig bis unmöglich, was mit der Entropie der beschreibenden Systeme (Menschen und ihre Hilfsmittel) zu erklären ist. Trotzdem ist ein Verständnis für die Wirkung von Entropie von Systemen (siehe Einleitung dieses Artikels) hilfreich, um die Wechselwirkung zwischen Systemen und ihrer Umwelt zu verstehen.[31] Dazu gehört die prinzipielle Unmöglichkeit autarken Handelns. Öffnet sich ein System, dann ist der Verzicht auf Unabhängigkeit das Ziel dieser Öffnung.
Literatur
[Bearbeiten | Quelltext bearbeiten]- Kenneth D. Bailey: Social entropy theory. State University of New York Press, New York 1990, ISBN 978-0-7914-0056-2 (englisch, 310 S.).
- Karl-Michael Brunner: Soziale Entropie: Die Natur-Gesellschaft-Differenz am Beispiel thermodynamischer Gesellschaftsmodelle. In: Karl-Siegbert Rehberg (Hrsg.): Differenz und Integration. Band 2. Westdt. Verlag, Opladen 1997, ISBN 3-531-12878-7 (online – Konferenzbeitrag).
- Jakl, Thomas, Sietz, Manfred, Hrsg.: Nachhaltigkeit fassbar machen – Entropiezunahme als Maß für Nachhaltigkeit. Tagungsband zum Symposium am 27. April 2012, Diplomatische Akademie, Wien 2012.
- Welf A. Kreiner: Entropie – was ist das? Überblick für Studierende und Lehrer.
Weblinks
[Bearbeiten | Quelltext bearbeiten]- Nachhaltigkeit fassbar machen Umweltbundesamt 2012, Wien.
Einzelnachweise
[Bearbeiten | Quelltext bearbeiten]- ↑ Ditmar Brock u. a.: Soziologische Paradigmen nach Talcott Parsons: Eine Einführung. 1. Auflage. VS Verlag für Sozialwissenschaften, Wiesbaden 2009, ISBN 978-3-531-16216-4, S. 388 (eingeschränkte Vorschau in der Google-Buchsuche).
- ↑ Lewis, Gilbert Newton (1930): The Symmetry of Time in Physics, Science, 71, 0569
- ↑ Leon Neil Cooper (1968): An Introduction to the Meaning and the Structure of Physics
- ↑ a b Ben-Naim, Arieh (2008): A Farewell to Entropy: Statistical Thermodynamics Based on Information
- ↑ Wöhlcke, Manfred (2003): Das Ende der Zivilisation. Über soziale Entropie und kollektive Selbstzerstörung.
- ↑ a b Ben-Naim, Arieh (2007): Entropy Demystified, Kapitel 8.2: The Association of Entropy with „Disorder“
- ↑ Ludwig Boltzmann (2008). Entropie und Wahrscheinlichkeit. Ostwalds Klassiker der Exakten Wissenschaften, Bd. 286. Verlag Harry Deutsch.
- ↑ a b Verbeeck, Bernhard (1998): Anthropologie der Umweltzerstörung
- ↑ Scheer, Hermann (1998): Sonnen-Strategie, darin Die Entropiesteuer (Kapitel 8)
- ↑ Peter Kafka (1998), Zeit zum Aufstehen ( des vom 22. Oktober 2007 im Internet Archive) Info: Der Archivlink wurde automatisch eingesetzt und noch nicht geprüft. Bitte prüfe Original- und Archivlink gemäß Anleitung und entferne dann diesen Hinweis. : „Man könnte diese Steuer aufs ‚Durcheinanderwerfen der Biosphäre‘ auch als ‚Entropiesteuer‘ bezeichnen.“
- ↑ Luhmann, Niklas (1988): Die Wirtschaft der Gesellschaft. In dem Buch zeigt Luhmann, dass in der Wirtschaft ausschließlich Geld das Kommunikationsmedium ist; eine physikalische Größe wie „Entropie“ kann im operativ geschlossenen Wirtschaftssystem nicht kommuniziert werden. Die Wirtschaft ist jedoch soweit mit ihrer Umwelt strukturell gekoppelt, dass die Umwelt Kommunikation im Wirtschaftssystem bewirkt. Diese erfolgt allerdings immer über das Kommunikationsmittel Geld. Deswegen wird in dieser Kommunikation des Handels keine direkt wahrnehmbare Beziehung zwischen Umweltbelastung und Kosten vermittelt.
- ↑ Vermutlich aus dem Jahr 483 v. Chr. überliefert: Maháparinibbána Sutta, Dígha Nikáya 16.3.6
- ↑ a b Cowell, Frank A. (2002, 2003): Theil, Inequality and the Structure of Income Distribution (PDF; 320 kB), London School of Economics and Political Sciences (mit Bezugnahmen zu der „Klasse der Kolm-Indizes“, das sind Maßzahlen für Ungleichverteilungen wie zum Beispiel der Theil-Index)
- ↑ Theil, Henri (1971): Principles of Econometrics
- ↑ a b Tsui, Kai-Yuen (1995): Multidimensional Generalizations of the Relative and Absolute Inequality Indices: The Atkinson-Kolm-Sen Approach. Journal of Economic Theory 67, 251-265.
- ↑ Sen, Amartya (1997): On Economic Inequality, Enlarged Edition with a substantial annexe after a Quarter Century with James Foster, Oxford
- ↑ Die Notation mit E und A folgt der Notation einer kleinen Formelsammlung von Lionnel Maugis: Inequality Measures in Mathematical Programming for the Air Traffic Flow Management Problem with En-Route Capacities (für IFORS 96), 1996
- ↑ Cuong Nguyen Viet (2007): Do Foreign Remittances Matter to Poverty and Inequality? Evidence from Vietnam ( des vom 25. März 2009 im Internet Archive) Info: Der Archivlink wurde automatisch eingesetzt und noch nicht geprüft. Bitte prüfe Original- und Archivlink gemäß Anleitung und entferne dann diesen Hinweis. (Die Formeln gelten für Bereiche mit gleicher Breite (Quantile mit gleichem Abstand). Die hier im Artikel angegebenen Formeln kann man auch auf Bereiche mit unterschiedlicher Breite anwenden.)
- ↑ Helpman, Elhanan (2004): The Mystery of Economic Growth (Die beiden Formeln entsprechen den beiden vom Autor auf S. 150 erwähnten Berechnungsweisen des Theil-Index: In der ersten Formel erfolgt die Gewichtung durch den Einkommensanteil, in der zweiten durch den Bevölkerungsanteil. Der Mittelwert beider Formeln führt zu dem im Artikel Theil-Index für den Vergleich mit der Hoover-Ungleichverteilung benutzten symmetrierten Theil-Index.)
- ↑ ISO/IEC DIS 2382-16:1996 definiert die Redundanz in der Informationstheorie
- ↑ Amiel / Cowell, F.A. (1999): Thinking about inequality, 1999
- ↑ Prigogine, Ilya (1997): The End of Certainty, Time, Chaos and the New Laws of Nature
- ↑ Ben-Naim, Arieh (2007): Entropy Demystified (populärwissenschaftlich); Ben-Naim, Arieh (2008): Statistical Thermodynamics Based on Information: A Farewell to Entropy (Lehrbuch)
- ↑ Malik, Fredmund (1984/2006): Strategie des Managements komplexer Systeme
- ↑ Gell-Mann, Murray (1994): The Quark and the Jaguar (Zitat zur besseren Verständlichkeit syntaktisch und grammatisch leicht verändert. „Ignorance“ wurde mit „Unwissen“ übersetzt.)
- ↑ Norbert Bischof (1998): Struktur und Bedeutung (Im Original „Quelle“ anstelle von „Signalquelle“ im Zitat.)
- ↑ Richard Becker (1955): Theorie der Wärme
- ↑ Vojta, Günter / Vojta, Matthias (2000): Taschenbuch der statistischen Physik, Kapitel 7 Statistische Physik und Informationstheorie
- ↑ Lange, Franz H. (1966): Signale und Systeme, Band 3, S. 64.
- ↑ Ebeling, W. / Freund, J., Schweitzer, F. (1998): Komplexe Strukturen: Entropie und Information
- ↑ Vojta, Günter / Vojta, Matthias (2000): Taschenbuch der statistischen Physik, Kapitel 13.2.2 Stochastische Theorien des Verhaltens: „Immerhin eröffnen sich durch Anwendung der Methoden der statistischen Physik neue Wege zur Erforschung und zum Verständnis des Verhaltens sehr komplexer Systeme der Soziologie, Ökologie und Ökonomie.“