logo

Zeitkomplexitäten aller Sortieralgorithmen

Die Effizienz eines Algorithmus hängt von zwei Parametern ab:

wie viele null für eine million
  1. Zeitkomplexität
  2. Weltraumkomplexität

Zeitkomplexität:

Zeitkomplexität ist definiert als die Häufigkeit, mit der ein bestimmter Befehlssatz ausgeführt wird, und nicht als die insgesamt benötigte Zeit. Dies liegt daran, dass die benötigte Gesamtzeit auch von einigen externen Faktoren wie dem verwendeten Compiler, der Geschwindigkeit des Prozessors usw. abhängt.



Raumkomplexität:

Die Speicherplatzkomplexität ist der Gesamtspeicherplatz, den das Programm für seine Ausführung benötigt.

jQuery auf Klick

Beide werden als Funktion der Eingabegröße (n) berechnet. Wichtig hierbei ist, dass die Effizienz eines Algorithmus trotz dieser Parameter auch von der abhängt Natur Und Größe von Die Eingang.

Arten der Zeitkomplexität:

  1. Beste Zeitkomplexität: Definieren Sie die Eingabe, für die der Algorithmus weniger Zeit oder Mindestzeit benötigt. Berechnen Sie im besten Fall die Untergrenze eines Algorithmus. Beispiel: Wenn bei der linearen Suche Suchdaten an der ersten Stelle großer Datenmengen vorhanden sind, tritt der beste Fall ein.
  2. Durchschnittliche Zeitkomplexität: Nehmen Sie im Durchschnitt alle zufälligen Eingaben und berechnen Sie die Rechenzeit für alle Eingaben.
    Und dann dividieren wir es durch die Gesamtzahl der Eingaben.
  3. Schlimmste Zeitkomplexität: Definieren Sie die Eingabe, für die der Algorithmus lange oder maximale Zeit benötigt. Im schlimmsten Fall berechnen Sie die Obergrenze eines Algorithmus. Beispiel: Wenn bei der linearen Suche Suchdaten an der letzten Stelle großer Datenmengen vorhanden sind, tritt der schlimmste Fall ein.

Im Folgenden finden Sie ein kurzes Überarbeitungsblatt, auf das Sie in letzter Minute zurückgreifen können:



Algorithmus Zeitkomplexität Weltraumkomplexität
Am besten Durchschnitt Am schlimmsten Am schlimmsten
Auswahlsortierung An2) An2) An2) O(1)
Blasensortierung An) An2) An2) O(1)
Sortieren durch Einfügen An) An2) An2) O(1)
Heap-Sortierung O(n log(n)) O(n log(n)) O(n log(n)) O(1)
Schnelle Sorte O(n log(n)) O(n log(n)) An2) An)
Zusammenführen, sortieren O(n log(n)) O(n log(n)) O(n log(n)) An)
Eimersortierung O(n +k) O(n +k) An2) An)
Radix sortieren O(nk) O(nk) O(nk) O(n + k)
Zählen Sortieren O(n +k) O(n +k) O(n +k) Pfeil)
Muschelsortierung O(n log(n)) O(n log(n)) An2) O(1)
Tim Sort An) O(n log(n)) O(nlog(n)) An)
Baumsortierung O(n log(n)) O(n log(n)) An2) An)
Würfelsortierung An) O(n log(n)) O(n log(n)) An)

Siehe auch:

  • Artikel suchen und sortieren
  • GATE-Fragen des Vorjahres zum Sortieren
  • Zeitliche und räumliche Komplexität der Einfügungssortierung
  • Zeitliche und räumliche Komplexität der Auswahlsortierung
  • Zeitliche und räumliche Komplexität der Blasensortierung
  • Zeit- und Raumkomplexität der Schnellsortierung
  • Zeitliche und räumliche Komplexität der Zusammenführungssortierung
  • Zeit- und Raumkomplexität des Radix-Sortieralgorithmus