Sortierverfahren
Unter einem Sortierverfahren versteht man in der Informatik einen Algorithmus, der dazu dient, ein Tupel (i. Allg. ein Array) zu sortieren. Voraussetzung ist, dass auf der Menge der Elemente eine strenge schwache Ordnung definiert ist („kleiner-gleich“), z. B. die lexikographische Ordnung von Zeichenketten oder die numerische Ordnung von Zahlen.
Es gibt verschiedene Sortierverfahren, die unterschiedlich effizient arbeiten bezüglich der Zeitkomplexität (Anzahl der nötigen Operationen) sowie der Platzkomplexität (zusätzlich zum Eingabe-Array benötigter weiterer Speicherplatz). Die Komplexität eines Algorithmus wird üblicherweise in der Landau-Notation dargestellt (s. u. Ausdrücke wie (Theta) oder stilisiertes "Oh", Omega groß, Omega klein). Die Zeitkomplexität hängt bei einigen Sortierverfahren von der anfänglichen Anordnung der Werte im Array ab, man unterscheidet dann zwischen Best Case (bei günstigster „Vorsortierung“), Average Case (Normalfall) und Worst Case (schlechtester Fall ~ die Werte sind „maximal ungünstig “). Häufig sind zusätzliche Faktoren zu beachten, die Einfluss auf Zeit- oder Platzkomplexität haben, zum Beispiel langsamer Zugriff auf extern liegende Daten, begrenzte Größe des Arbeitsspeichers oder ähnliches.
Man unterscheidet zudem zwischen stabilen und instabilen Sortierverfahren. Stabile Sortierverfahren sind solche, die die relative Reihenfolge von Elementen, die bezüglich der Ordnung äquivalent sind, nicht verändern, während instabile Sortierverfahren dies nicht garantieren. Ist beispielsweise die Mitarbeiterliste einer Firma nach Nachname geordnet und wird anschließend nach Alter (in Jahren) sortiert, so bleibt die (Nachnamen-)Reihenfolge unter gleichaltrigen Mitarbeitern bei einem stabilen Sortierverfahren bestehen.
Zudem unterscheidet man zwischen Sortierverfahren, die in-place (auch in situ) arbeiten, d. h. der zusätzliche Speicherbedarf ist unabhängig von der Anzahl der zu sortierenden Elemente (also konstant und meist gering), und solchen, bei denen er abhängig ist (out-of-place oder ex situ).
Und man unterscheidet auch zwischen natürlichen Sortierverfahren, die bei vorsortierten Daten schneller arbeiten als bei unsortierten Daten, und solchen, die es nicht tun. Algorithmen, bei denen der Kontrollfluss von den Daten abhängt, nennt man adaptiv und dementsprechend Sortierverfahren, die nicht von den Eingabedaten abhängen, nicht-adaptiv. Nicht-adaptive Algorithmen sind demnach besonders interessant für Hardware-Implementierungen.
Manuelles Sortieren (etwa von Karteikarten) sowie elektro-mechanische Sortierverfahren (z. B. für Lochkarten) entsprechen meist einem der hier beschriebenen softwarebasierten Sortierverfahren, oder Mischtypen.
Vergleichsbasiertes Sortieren
[Bearbeiten | Quelltext bearbeiten]Allgemeine Verfahren basieren auf dem paarweisen Vergleich der zu sortierenden Elemente, ob das eine Element „kleiner“ als, „größer“ als oder „gleich(groß)“ wie das andere Element ist. Bei der Komplexitätsanalyse wird davon ausgegangen, dass der Aufwand zum Vergleich zweier Elemente konstant ist.
Die Tabelle zeigt den Aufwand für unterschiedliche Sortierverfahren.
Sortierverfahren | Günstigster Fall („Best-Case“) | Mittlerer Fall („Average-Case“) | Ungünstigster Fall („Worst-Case“) | Stabil | Zusätzlicher Speicherbedarf |
---|---|---|---|---|---|
Binary Tree Sort (höhen-balanciert) |
ja[1] | ||||
Binary Tree Sort | ja[1] | ||||
Bubblesort | ja | – | |||
Combsort | nein | – | |||
Gnomesort | ja | – | |||
Heapsort | nein | – | |||
Insertionsort | ja | – | |||
Introsort | nein | – | |||
Merge Insertion | [2] | ja | – | ||
Mergesort | ja | Implementierung auf verketteter Liste: in-place übliche Implementierungen (auf Array): Es gibt in-place auf Array, jedoch dann Zeitkomplex. = n * (log n) * (log n) . | |||
Natural Mergesort | ja | – | |||
Quicksort | nein | , übliche Implementierungen benötigen meist mehr | |||
Samplesort | nein | ||||
Selectionsort | nein | – | |||
Shakersort (Cocktailsort) | ja | – | |||
Shellsort | [3] | [3] | [3] | nein | – |
Smoothsort | nein | – | |||
Stoogesort | nein | – | |||
Swap-Sort | – | – | |||
Timsort | ja | – | |||
Bogosort | [4] | [4] | nein | – | |
Slowsort | [5] | [5] | [5] | nein | – |
- ↑ a b Für die stabile Version s. die Bemerkung im Artikel Binary Tree Sort.
- ↑ Florian Stober, Armin Weiß: On the Average Case of MergeInsertion. Abgerufen am 20. Januar 2022.
- ↑ a b c Für die (im Worst Case) beste bekannte Distanzfolge.
- ↑ a b Erwartete Laufzeit.
- ↑ a b c Für ein beliebiges , siehe Slowsort.
Nicht-vergleichsbasiertes Sortieren
[Bearbeiten | Quelltext bearbeiten]Bei Sortierverfahren, die nicht auf Vergleichen beruhen, bei denen die zu sortierenden Objekte also nicht untereinander auf „kleiner“, „größer“ oder „gleich“ verglichen werden, kann bei entsprechend konditionierter Eingabe erreicht werden, dass die benötigte Zeit nur linear mit der Anzahl der zu sortierenden Elemente ansteigt. Bei großen Anzahlen zu sortierender Datensätze sind diese Algorithmen den vergleichsbasierten Verfahren überlegen, sofern sie (wegen des zusätzlichen Speicherbedarfs) angewendet werden können. Sie können allerdings nur für numerische Datentypen verwendet werden (oder unter der Bedingung, dass der Datentyp in annehmbarem Aufwand auf Zahlenwerte gleicher Anordnung abgebildet werden kann). Dabei wird implizit angenommen, dass die Länge des Schlüssels beschränkt ist, so dass seine Verwertung in konstanter Zeit möglich ist. Das Senken der Zeitkomplexität von der Elementanzahl wird erkauft durch eine zusätzliche zeitliche Abhängigkeitsgröße (meist der Schlüssellänge oder der Anzahl möglicher Schlüsselwerte), oft auch durch erheblichen zusätzlichen Speicherbedarf.
Sortierverfahren | Zeit | Stabil | Zusätzlicher Speicherbedarf |
---|---|---|---|
Bucketsort | ja | ||
Countingsort | ja | ||
Radixsort | ja | ||
MSD Radixsort | nein | , in-place | |
Flashsort | nein |
Dabei stellt die Anzahl der Elemente dar, die Anzahl der möglichen Werte und die Anzahl der Stellen des längsten Schlüssels.
Sortierung nach Beziehungen
[Bearbeiten | Quelltext bearbeiten]Wenn nicht mehr nach Eigenschaften, sondern nur noch nach paarweisen Beziehungen sortiert werden kann, so spricht man von einer topologischen Sortierung. Dies ist beispielsweise der Fall, wenn Aufgaben erledigt werden müssen, manche Aufgaben aber unbedingt vor anderen durchzuführen sind, bei anderen jedoch die Reihenfolge keine Rolle spielt.
Für das topologische Sortieren gibt es Algorithmen, deren Laufzeit von der Anzahl der Beziehungen abhängt. Topologisches Sortieren ist nicht möglich, wenn gegenseitige (zyklische) Abhängigkeiten bestehen. Eine topologische Sortierung muss nicht eindeutig sein.
Wenn die Beziehungen vollständig sind, also für je zwei Objekte eine Abhängigkeit vorgegeben ist, so geht die topologische Sortierung in eine gewöhnliche Sortierung über.
Indirektes Sortieren
[Bearbeiten | Quelltext bearbeiten]In den Fällen, bei denen das Umstellen der Daten mit hohem Aufwand verbunden ist, kann man auch indirektes Sortieren anwenden. Man benötigt dazu zusätzlichen Speicher proportional zur Anzahl der Elemente (bspw. einen Zeiger auf das jeweilige Element, oder dessen Indexnummer im Basis-Array). Dann wird dieses Array sortiert und stellt somit einen (gemäß dem Vergleichskriterium) sortierten Index dar. Sollen die eigentlichen Daten anschließend ebenfalls in die richtige Reihenfolge gebracht werden, ist ein zusätzlicher Aufwand von erforderlich.
Ist auch der (wahlfreie) Zugriff auf die Elemente „teuer“, so werden mitunter auch diejenigen Datenkomponenten in den Index übernommen, die in den Sortierschlüssel einfließen/der Sortierschlüssel sind. Dies benötigt dann weiteren zusätzlichen Speicherplatz.
Beweis der unteren Schranke für vergleichsbasiertes Sortieren
[Bearbeiten | Quelltext bearbeiten]Es lässt sich beweisen, dass ein vergleichsbasiertes Sortierverfahren nicht schneller als sein kann:
Sei der Entscheidungsbaum für die Zahlenfolge . Da alle Permutationen von das Ergebnis des Sortieralgorithmus sein könnten, muss der Entscheidungsbaum mindestens Blätter haben. Da eine Mindestanzahl von Schritten gesucht ist, treten im Entscheidungsbaum keine unnötigen Vergleiche auf.
In einem Entscheidungsbaum mit Blättern beträgt die maximale und die mittlere Tiefe eines Blattes mindestens . Da eine untere Schranke gesucht ist, kann mittels nach unten hin abgeschätzt werden. Damit gilt .
Es bleibt noch zu zeigen, dass in einem Binärbaum mit Blättern die maximale und die mittlere Tiefe eines Blattes mindestens beträgt. Angenommen sei ein Binärbaum, für welchen die obige Aussage nicht gilt. Seien und Teilbäume eines Binärbaumes mit Blättern. Für die Anzahl der Blätter in bzw. in gilt nun offensichtlich , und . Für die Tiefe jedes Blattes, bezogen auf die Wurzel von , gilt:
Das Minimum dieser Funktion liegt nun bei und . Eingesetzt in obige Formel ergibt das:
- .
Dies ergibt einen Widerspruch zur Annahme, womit obige Aussage bewiesen ist.
Literatur
[Bearbeiten | Quelltext bearbeiten]- Donald E. Knuth: Sorting and Searching. In: The Art of Computer Programming. 2. Auflage. Band 3. Addison-Wesley, Boston 2003, ISBN 0-201-89685-0.
- Niklaus Wirth: Algorithmen und Datenstrukturen. 5. Auflage. Teubner Verlag, Stuttgart/Leipzig 1999, ISBN 3-519-22250-7.
- Robert Sedgewick: Algorithms in Java, Part 1–4. 3. Auflage. Addison-Wesley, Boston 2002, ISBN 0-201-36120-5.
- Thomas H. Cormen, Charles Leiserson, Ronald L. Rivest, Clifford Stein: Algorithmen – Eine Einführung. 3. Auflage. Oldenbourg Verlag, München 2010, ISBN 978-3-486-59002-9 (amerikanisches Englisch: Introduction to Algorithms. Übersetzt von Paul Molitor).
- Thomas H. Cormen, Charles Leiserson, Ronald L. Rivest, Clifford Stein: Introduction to Algorithms. 3. Auflage. The MIT Press, Cambridge MA / London 2009, ISBN 978-0-262-03384-8.
- Thomas Ottmann, Peter Widmayer: Algorithmen und Datenstrukturen. 3. Auflage. Spektrum Verlag, Heidelberg/Berlin/Oxford 1996, ISBN 3-8274-0110-0.
- Anany Levitin: Introduction to The Design and Analysis of Algorithms. 2. Auflage. Pearson Addison-Wesley, Boston 2007, ISBN 978-0-321-36413-5.