„Wir leben in einer Zeit, in der wir von Datenwissenschaften, größeren Datensätzen, Computern mit hoher Rechenleistung und künstlichen Intelligenz umgeben sind. Data Science und künstliche Intelligenz haben ihren Weg zur autonomen Fahrzeugnavigation gefunden. Die Bilder werden von ihnen anerkannt, wobei die Entscheidung über den Energie- und Finanzsektor, die Börsensektoren und unsere sozialen Kreise auch durch maschinelles Lernen und dann durch den Fortschritt in den biomedizinischen Wissenschaften revolutioniert wurden. Lineare Regression ist eine der wichtigsten Techniken für maschinelles Lernen, mit der wir statistische Datenanalysen oder wissenschaftliche Berechnungen durchführen können. Wir entscheiden für jeden Bereich, an dem wir künstlich intelligent werden möchten. Wir werden lineare Regressionen begegnen.
Die lineare Regression ist eine Methode im maschinellen Lernen, mit der die Beziehung zwischen einer abhängigen Variablen gelernt wird. Sagen wir „y“ und die verschiedenen unabhängigen Variablen „x“. Basierend auf dieser Beziehung zwischen den Variablen prognostiziert die lineare Regression die zukünftigen Ereignisse für das „y“. Die Variablen in der linearen Regression sind die Merkmale, die die Beobachtungsattribute darstellen, und die Beobachtung ist der einzige Datenpunkt im Datensatz. Der vorhergesagte Ausgang hängt von diesen Beobachtungen und den Merkmalen ab. Zu den Anträgen der linearen Regression gehören die Vorhersage der Immobilienpreise abhängig von den Merkmalen (wie der Fläche des Hauses, den Schlafzimmern, das Innere des Hauses), Wettervorhersage, Vorhersage von Börsenmärkten usw.”
Verfahren
Der Artikel zeigt die Implementierungsmethode für die linearen Regressionsmodelle. Wir werden dieses Modell auf einen Datensatz anwenden und dieses Modell implementieren, werden wir einige Schritte ausführen, um das Modell zuerst zu trainieren, um vorherzusagen, und dann testen wir das Modell, um zu überprüfen, wie nahe die Vorhersage des Modells ist die tatsächliche Ausgabe.
Syntax
Die Syntax für das Regressionsmodell lautet wie folgt:
$ model = lineare Regression ()
Wir werden die oben genannte Funktion verwenden, um das Regressionsmodell zu implementieren, indem wir den Datensatz an dieses Modell anpassen. Wir werden die Daten auf dem linearen Regressionsmodell trainieren, um den Wert für die Ausgabe mithilfe der Hypothese und der Verlustfunktion als:
Y_Predict (h (x) = b0 + b1*x), was der vorhergesagte Wert für die Ausgangsantwort „y“ aus dem Modell ist.
Verlustfunktion = echt_y - y_Predicted
Rückgabewert
Der Rückgabewert für das Regressionsmodell ist kontinuierlich, da die Regression eine kontinuierliche abhängige Variable als Ausgabe, „Y“ und mehrere Variablen „x“ hat, die entweder diskret oder kontinuierlich sein können.
Beispiel # 01
Lassen Sie uns das lineare Regressionsmodell implementieren. Für die Implementierung dieser Funktion werden wir den Interpreter „Spyder“ von Python verwenden. Um das Modell zu implementieren, müssten wir bestimmte Funktionen und Klassen aus den verschiedenen Bibliothekspaketen anwenden. Die erste und führende Bibliothek für diese Implementierung wäre der „Numpy“. Wir sind alle mit dieser Numpy-Bibliothek vertraut, da dies die Operationen und die Implementierung der mehrdimensionalen Arrays und der Matrizen ermöglicht, und es ist ein Open-Source-Paket. Dies wird im Programm verwendet, um das Array mit unterschiedlichen Abmessungen zu implementieren.
Ein weiteres wichtiges Paket ist das „Scikit-Learn“. Dieses Paket basiert auf dem Numpy und ermöglicht die Verringerung der Daten vor Verarbeitung und Dimensionalität und implementiert die Regressionsmodelle, Klassifizierungen und Clustering. Wir werden dieses Paket für die Implementierung des linearen Regressionsmodells in Python verwenden. Um dieses Paket zu importieren, werden wir den Befehl "importieren" Numpy mit dem Präfix mit dem Namen "NP" verwenden und dann aus dem Paket des Scikit -Lernens das lineare Regressionsmodell als „aus sklearn.linear_model import linearegression ”.
Nach dem Importieren dieser Pakete ist jetzt die Zeit, die Daten zu erstellen, mit denen wir arbeiten möchten, und um dies zu tun, werden wir die abhängige Variable (Ausgabe) als „Y“ und die unabhängige Variable (Regressor) als „x“ definieren. In diesem Beispiel werden wir diese Variablen als 1-D-Array-Objekt einfach behalten, und dies markiert die einfachsten Daten für die Regression. Wir werden das "X" als "NP" deklarieren. Array ([2, 12, 22, 32, 42, 52]). Umformung (-1, 1) und das „Y“ als „NP“. Array ([2, 10, 14, 20, 32, 36]) ”. Das y ist eindimensional, und wir haben das X um (-1, 1) umgestaltet, da wir möchten, dass das X nur eine Säule und mehrere Zeilen hat, sodass es zwei Dimensionen als Form des x ist (6, 1).
Jetzt werden wir diese Variablen in das lineare Regressionsmodell einfügen, und um dies zu tun, nennen wir die Methode „Lineare Regression (). Fit (x, y) ”und dem Variablen„ Modell “zuweisen. Sobald wir das Modell jetzt angepasst haben, überprüfen wir, ob das Modell funktioniert oder nicht, indem wir das anrufen und anwenden “.Score ”auf dem Modell als„ Modell. Punktzahl (x, y) ”. Der .Die Punktzahl nimmt den Prädiktor auch als „x“ und die Antwort als „y“ an, und er gibt den R^2, der den Koeffizienten der Bestimmung ist, was bedeutet, dass es zeigt, wie gut das Modell Vorhersagen machen kann.
Um nun die Werte für die Attribute der „Hypothese = B0 +B1*x“ zu überprüfen, verwenden wir das „Modell. Intercept ”, der„ B0 “und„ Modell “gibt. CoEF_ ”, der den Wert für„ B1 “zurückgibt, die die geschätzten Werte aus dem Modell für das„ y “sind. Nachdem wir diese Werte erhalten haben, werden wir nun vorhersagen, dass das Modell das Modell „Modell aufruft. Vorhersage (x) “und speichern Sie es im y_predidierten. Die Antwort wird vom Modell vorhergesagt, und daher haben wir unser Modell geschult; Um zu testen, wie das Modell im Testdatensatz funktioniert, werden wir die neuen Werte von X an die Parameter des „Modells“ übergeben. Predict (x_New) ”. Das Modell gibt die vorhergesagten Werte als Antwort auf die Ausgabe für das neu definierte „x“ an. Der Code für das Training und dann das Testen des linearen Regressionsmodells ist unten in der Abbildung angegeben.
Abschluss
Wir haben ein Modell, das „lineare Regression“ ist, aus dem Lern von Numpy und Scikit in einem Datensatz geschult, um die Antwort für den Datensatz vorherzusagen, und dann haben wir dieses Modell getestet, um die Antwort für den neuen Datensatz vorherzusagen.