logo

Lineare Regression vs. logistische Regression

Lineare Regression und logistische Regression sind die beiden berühmten Algorithmen für maschinelles Lernen, die unter die Technik des überwachten Lernens fallen. Da beide Algorithmen überwachter Natur sind, verwenden diese Algorithmen beschriftete Datensätze, um die Vorhersagen zu treffen. Der Hauptunterschied zwischen ihnen besteht jedoch darin, wie sie verwendet werden. Die lineare Regression wird zur Lösung von Regressionsproblemen verwendet, während die logistische Regression zur Lösung der Klassifizierungsprobleme verwendet wird. Nachfolgend finden Sie eine Beschreibung beider Algorithmen sowie eine Differenztabelle.

Inear-Regression vs. logistische Regression

Lineare Regression:

  • Die lineare Regression ist einer der einfachsten Algorithmen für maschinelles Lernen, der zur Technik des überwachten Lernens gehört und zur Lösung von Regressionsproblemen verwendet wird.
  • Es wird zur Vorhersage der kontinuierlichen abhängigen Variablen mithilfe unabhängiger Variablen verwendet.
  • Das Ziel der linearen Regression besteht darin, die beste Anpassungslinie zu finden, die die Ausgabe für die kontinuierliche abhängige Variable genau vorhersagen kann.
  • Wenn eine einzelne unabhängige Variable für die Vorhersage verwendet wird, spricht man von einfacher linearer Regression. Wenn es mehr als zwei unabhängige Variablen gibt, wird diese Regression als multiple lineare Regression bezeichnet.
  • Indem der Algorithmus die beste Anpassungslinie findet, stellt er die Beziehung zwischen der abhängigen Variablen und der unabhängigen Variablen her. Und die Beziehung sollte linearer Natur sein.
  • Die Ausgabe für die lineare Regression sollte nur kontinuierliche Werte wie Preis, Alter, Gehalt usw. sein. Die Beziehung zwischen der abhängigen Variablen und der unabhängigen Variablen kann im folgenden Bild dargestellt werden:
Inear-Regression vs. logistische Regression

Im obigen Bild befindet sich die abhängige Variable auf der Y-Achse (Gehalt) und die unabhängige Variable auf der X-Achse (Erfahrung). Die Regressionsgerade kann wie folgt geschrieben werden:

 y= a<sub>0</sub>+a<sub>1</sub>x+ &#x3B5; 

Wo ein0und ein1sind die Koeffizienten und ε ist der Fehlerterm.

Logistische Regression:

  • Die logistische Regression ist einer der beliebtesten Algorithmen für maschinelles Lernen, der zu den Techniken des überwachten Lernens gehört.
  • Es kann sowohl für Klassifikations- als auch für Regressionsprobleme verwendet werden, wird jedoch hauptsächlich für Klassifikationsprobleme verwendet.
  • Die logistische Regression wird verwendet, um die kategoriale abhängige Variable mithilfe unabhängiger Variablen vorherzusagen.
  • Die Ausgabe des logistischen Regressionsproblems kann nur zwischen 0 und 1 liegen.
  • Die logistische Regression kann verwendet werden, wenn die Wahrscheinlichkeiten zwischen zwei Klassen erforderlich sind. Zum Beispiel ob es heute regnen wird oder nicht, entweder 0 oder 1, wahr oder falsch usw.
  • Die logistische Regression basiert auf dem Konzept der Maximum-Likelihood-Schätzung. Nach dieser Schätzung sollten die beobachteten Daten am wahrscheinlichsten sein.
  • Bei der logistischen Regression übergeben wir die gewichtete Summe der Eingaben durch eine Aktivierungsfunktion, die Werte zwischen 0 und 1 abbilden kann. Eine solche Aktivierungsfunktion heißt Sigmoidfunktion und die erhaltene Kurve wird als Sigmoidkurve oder S-Kurve bezeichnet. Betrachten Sie das folgende Bild:
Inear-Regression vs. logistische Regression
  • Die Gleichung für die logistische Regression lautet:
Inear-Regression vs. logistische Regression

Unterschied zwischen linearer Regression und logistischer Regression:

Lineare Regression Logistische Regression
Die lineare Regression wird verwendet, um die kontinuierliche abhängige Variable anhand eines bestimmten Satzes unabhängiger Variablen vorherzusagen. Die logistische Regression wird verwendet, um die kategoriale abhängige Variable anhand eines bestimmten Satzes unabhängiger Variablen vorherzusagen.
Die lineare Regression wird zur Lösung des Regressionsproblems verwendet. Die logistische Regression wird zur Lösung von Klassifizierungsproblemen verwendet.
Bei der linearen Regression sagen wir den Wert kontinuierlicher Variablen voraus. Bei der logistischen Regression sagen wir die Werte kategorialer Variablen voraus.
Bei der linearen Regression finden wir die beste Anpassungslinie, anhand derer wir die Ausgabe leicht vorhersagen können. In der logistischen Regression finden wir die S-Kurve, anhand derer wir die Stichproben klassifizieren können.
Zur Schätzung der Genauigkeit wird die Methode der kleinsten Quadrate verwendet. Zur Schätzung der Genauigkeit wird die Methode der Maximum-Likelihood-Schätzung verwendet.
Die Ausgabe für die lineare Regression muss ein kontinuierlicher Wert sein, z. B. Preis, Alter usw. Die Ausgabe der logistischen Regression muss ein kategorischer Wert sein, z. B. 0 oder 1, Ja oder Nein usw.
Bei der linearen Regression ist es erforderlich, dass die Beziehung zwischen abhängiger Variable und unabhängiger Variable linear sein muss. Bei der logistischen Regression ist keine lineare Beziehung zwischen der abhängigen und der unabhängigen Variablen erforderlich.
Bei der linearen Regression kann es zu Kollinearität zwischen den unabhängigen Variablen kommen. Bei der logistischen Regression sollte es keine Kollinearität zwischen den unabhängigen Variablen geben.