Prozess-Scheduler

aus Wikipedia, der freien Enzyklopädie
(Weitergeleitet von Scheduling (Informatik))
Zur Navigation springen Zur Suche springen

Ein Prozess-Scheduler (Scheduler = Steuerprogramm; vom englischen schedule für „Zeitplan“) ist eine Arbitrationslogik, die die zeitliche Ausführung mehrerer Prozesse in Betriebssystemen und der Anwendungsvirtualisierung regelt.

Prozess-Scheduler lassen sich grob aufteilen in:

  • unterbrechende (präemptive) Scheduler: sie teilen die CPU von vornherein nur für eine bestimmte Zeitspanne zu und entziehen sie dem Prozess daraufhin wieder.
  • nicht unterbrechende Scheduler (non preemptive, auch kooperative genannt): sie lassen einen Prozess, nachdem ihm die CPU einmal zugeteilt wurde, solange laufen, bis er die CPU von sich aus wieder freigibt oder bis er blockiert.

Eine weitere mögliche Unterscheidung ist diejenige in:

  • work-conserving-Strategien: das Umschalten zwischen Prozessen nimmt nur eine vernachlässigbar geringe Zeit in Anspruch.[1]
  • non work-conserving-Strategien.

Man kann verschiedene Systeme unterscheiden, in welchen jeweils verschiedene Anforderungen an den Scheduler gestellt werden:

  1. Stapelverarbeitungssysteme: hier sieht der Scheduler denkbar einfach aus: ankommende Aufträge werden in eine Warteschlange eingereiht und jedes Mal, wenn ein Job abgearbeitet ist, kommt der nächste aus der Schlange dran (Queue-Manager).
  2. interaktive Systeme: der Benutzer legt Wert auf kurze Antwortzeit. Wenn er beispielsweise in einem Texteditor eine Tastatureingabe tätigt, sollte der Text sofort erscheinen.
  3. Echtzeitsysteme: sie müssen garantieren, dass ein Prozess eine Aufgabe innerhalb einer vorgegebenen Zeitspanne abgearbeitet haben muss. Bei harten Echtzeitanforderungen wird das in 100 % aller Fälle garantiert, während bei weichen Anforderungen das Zeitlimit in einigen wenigen Fällen überschritten werden darf.

Typische Desktop-PCs sind interaktive Systeme, auf denen gelegentlich auch Prozesse als Hintergrundprozesse mit niedrigerer Priorität ablaufen können.

Die Zuteilung der CPU an die Prozesse sollte bestmöglich erfolgen, wobei (abhängig vom ausführenden System) unterschiedliche Ziele verfolgt werden können:

  • Fairness: Kein Prozess sollte unverhältnismäßig lange warten müssen, während ein anderer bevorzugt wird.
  • Balance: Die Prozesse sollten der CPU auf eine Weise zugeteilt werden, dass auch andere Ressourcen wie Massenspeicher, Netzwerk-Schnittstelle u. a. ausgelastet sind.
  • Einhaltung der Systemregeln.

Stapelverarbeitungssysteme

[Bearbeiten | Quelltext bearbeiten]
  • CPU-Auslastung: Die CPU sollte zu jeder Zeit ausgelastet sein. Es soll nicht vorkommen, dass die CPU sich im Leerlauf befindet, nur weil ein Prozess auf Daten von der Festplatte wartet.
  • Durchsatz: Die Anzahl beendeter Aufgaben pro Zeitspanne sollte maximiert werden. Dies ergibt eine ähnliche Strategie wie die Auslastung, betrachtet aber mehr das tatsächliche Ergebnis.
  • kurze Turnaroundzeit (Durchlaufzeit): Die Zeit, die von der Ankunft eines Prozesses bis zu seiner vollständigen Beendigung vergeht, sollte minimiert werden.

Interaktive Systeme (Dialogsysteme)

[Bearbeiten | Quelltext bearbeiten]
  • Niedrige Antwortzeiten: Die Wartezeiten des Benutzers (oder anderer Systeme) sollten minimiert werden. Prozesse, die eine Interaktion mit dem Benutzer erfordern, sollten also bevorzugt werden vor solchen, die im Hintergrund stattfinden können.
  • Proportionalität: Die Antwortzeiten verschiedener Prozesse sollten den Erwartungen des Benutzers entsprechen. Werden Prozesse (wie z. B. das Schließen einer Anwendung) vom Benutzer als simpel betrachtet, sollten diese auch schnell ausgeführt werden.

Echtzeitsysteme

[Bearbeiten | Quelltext bearbeiten]

Das größte Problem des Schedulers ist die Tatsache, dass die benötigten Betriebsmittel für die einzelnen Prozesse nicht im Vorfeld bekannt sind. Es lässt sich also im Allgemeinen keine optimale Planung erstellen, sondern der Scheduler muss dynamisch auf geänderte Anforderungen reagieren. Dabei können (abhängig vom Scheduler) verschiedene Zuteilungsstrategien zum Einsatz kommen, u. a.:

  • First In – First Out (FIFO), First-Come First-Served (FCFS): Hierbei werden alle Prozesse in der Reihenfolge ihres Eingangs bearbeitet. Eine Neuzuteilung der Prozesse findet erst statt, wenn der laufende Prozess zu warten beginnt oder seine Ausführung beendet ist, das Verfahren ist daher nonpräemptive. Diese Strategie erzielt eine gute Auslastung bezüglich der CPU, allerdings nicht bezüglich Ressourcen, die längere Zeit für eine Anforderung benötigen können, wie z. B. Ein-/Ausgabe oder Massenspeicher. Für Mehrbenutzersysteme ist die Strategie darüber hinaus wenig geeignet, da einzelne Benutzer so ggf. für längere Zeit (nämlich bei aufwendigen Prozessen anderer Benutzer) ausgeschlossen werden.
  • Shortest-Job-Next (SJN), Shortest Job First (SJF), Shortest Processing Time (SPT): ein weiteres Verfahren, das nicht für Mehrbenutzersysteme geeignet ist. Es lässt sich in Fällen einsetzen, in denen die benötigte Rechenzeit für einzelne Aufgaben aus Erfahrungswerten gut vorhergesagt werden kann. Ein Nachteil ist, dass große Prozesse u. U. niemals die CPU zugeteilt bekommen, wenn sich immer kürzere Jobs vordrängeln. Können Prozesse unterbrochen werden, so dass ein Prozesswechsel durchgeführt wird, wenn ein neu ankommender Prozess eine kürzere Ausführungszeit aufweist als der aktuell laufende Prozess, so spricht man von Shortest-Remaining-Time (SRT) oder Shortest-Remaining-Processing-Time (SRPT):
  • Random Job Next (RJN): Hierbei wird einem Prozess eine bestimmte Anzahl an Lotterie-Tickets zugewiesen. Der Scheduler lost ein Ticket, wonach der Prozess, welcher die Auslosung gewonnen hat, die vorgesehene Bearbeitungszeit übergeben bekommt. Der Overhead hiervon liegt bei O(2n) von der Implementation, welche nach David Petrou als Pseudocode repräsentiert wird.[2]
  • Earliest Due Date (EDD): Bei dieser Strategie werden diejenigen Prozesse zuerst ausgeführt, welche die geringste Deadline haben. Voraussetzung dafür sind statische Deadlines und gleichzeitiges Eintreffen voneinander unabhängiger Tasks. Dieses nichtunterbrechende Verfahren ist ideal, um die maximale Verspätung zu minimieren. Wenn Prozesse unterbrochen werden können spricht man von einer Terminabhängigen Ablaufplanung, Planen nach Fristen oder Earliest Deadline First (EDF). Diese Strategie kommt hauptsächlich in Echtzeitsystemen vor, da es damit möglich ist, eine definierte Antwortzeit für bestimmte Prozesse zu garantieren.
  • Prioritätsscheduling: Bei dieser Strategie wird jedem Prozess eine Priorität zugeordnet. Die Abarbeitung erfolgt dann in der Reihenfolge der Prioritäten.
    • Rate Monotonic Scheduling (RMS): Die Priorität wird aus der Periodenlänge berechnet (Prozesse mit kürzeren Perioden haben höhere Priorität).
    • Deadline Monotonic Scheduling (DMS): Die Priorität wird aus der relativen Deadline berechnet (Prozesse mit kürzeren relativen Deadlines haben höhere Priorität).
    • Man kann auch mehreren Prozessen die gleiche Priorität geben, sie werden dann in Eingangsreihenfolge ausgeführt, oder mit einem untergeordneten Zeitscheibenverfahren innerhalb der gleichen Priorität abgewechselt (zum Beispiel Multilevel Feedback Queue Scheduling oder Shortest-Elapsed-Time (SET) )
    • Die Prioritäten können auch dynamisch sein, wobei sich die Priorität eines Prozesses mit der Zeit erhöht, damit auch niedrig priorisierte Prozesse irgendwann bearbeitet werden und nicht ständig von höher priorisierten Prozessen verdrängt werden.
  • Round Robin, Zeitscheibenverfahren: Einem Prozess wird die CPU für eine bestimmte (kurze) Zeitspanne zugeteilt. Danach wird der Prozess wieder hinten in die Warteschlange eingereiht. Sind die einzelnen Zeitspannen unterschiedlich groß, so spricht man von Weighted Round Robin (WRR)

Scheduling-Verfahren

[Bearbeiten | Quelltext bearbeiten]

Einzelnachweise

[Bearbeiten | Quelltext bearbeiten]
  1. Otto Spaniol: Systemprogrammierung : Skript zur Vorlesung an der RWTH Aachen. 1996, ISBN 3-86073-470-9
  2. David Petrou, John W. Milford, Garth A. Gibson: Implementing Lottery Scheduling: Matching the Specializations in Traditional Schedulers. (PDF) In: USENIX. USENIX Annual Technical Conference, 6. Juni 1999, abgerufen am 8. November 2021 (englisch).
  3. Credit Scheduler im Xen-Wiki
  4. Credit2 Scheduler im Xen-Wiki