So installieren und verwenden Sie MOA unter Linux

So installieren und verwenden Sie MOA unter Linux

Massive Online Analytics (MOA) ist ein kostenlos für das Open-Source-Software-Tool, mit dem die Benutzer mit Datenströmen arbeiten können. Datenströme sind kontinuierliche Datenpakete. Was MOA besonders macht, ist, dass es in der Lage ist, Datenströme als Eingabe zu empfangen und die Ausführung eines zugrunde liegenden Algorithmus zu skalieren, um den Anforderungen der eingehenden Daten zu entsprechen.

MOA wird von der Data Science Community häufig verwendet, um Einblicke in Daten zu generieren, die kontinuierlicher Natur sind. Es enthält Clustering, Klassifizierung, Regression, Ausreißererkennung, Konzeptdrift und aktive Lernalgorithmen, die die eingehenden Datenströme verwenden können, um wertvolle Schlussfolgerungen zu generieren. Diese Schlussfolgerungen können dann mit den integrierten Bewertungsalgorithmen bewertet werden.

Tools wie MOA, die mit intuitiven grafischen Benutzeroberflächen ausgestattet sind. Mit MOA ermöglicht es Menschen mit nicht programmierenden Hintergründen mit komplexen Modellen für maschinelles Lernen und ermöglicht es ihnen, wertvolle Ergebnisse als Ausgaben in verschiedenen Formen einschließlich Diagramme, Tabellen und Diagrammen zu erzielen.

Installation

Um MOA auf einem beliebigen Linux -Computer zu installieren, beginnen wir zuerst mit dem Herunterladen der MOA -Datei.

1. Laden Sie die Datei von der MOA -Webseite herunter.

2. Nachdem die Datei heruntergeladen wurde, extrahierten wir die heruntergeladene Datei und platzieren sie dort, wo wir sie brauchen.


3. Wir öffnen jetzt den extrahierten Ordner und bewegen uns in das Wurzelverzeichnis für MOA.

4. Nach dem Umzug in das Stammverzeichnis öffnen wir hier eine Terminalinstanz, indem wir mit der rechten Maustaste klicken und die auswählen Im Terminal offen Möglichkeit.

5. Wir führen jetzt den folgenden Befehl aus, um MOA auf einer beliebigen Linux -Maschine auszuführen:

$ bin/moa.Sch

Sie sollten eine terminale Ausgabe erhalten, die dem ähnlich ist:

Damit sollte eine Instanz von MOA eine Ausführung auf Ihrer Linux -Maschine starten.

Es sieht etwas ähnlich aus:

Benutzerhandbuch

Mit MOA Jetzt installiert und bereit, auf Ihrem Linux -Computer zu verwenden, können Sie mit dem Erstellen Ihres Datenanalyse -Workflows beginnen.

Zunächst müssen Sie auf die klicken Konfigurieren Option oben in der grafischen Benutzeroberfläche MOA. Dies bietet Ihnen unterschiedliche Kategorien und Optionen, aus denen Sie auswählen können und auswählen können, basierend auf der Art von Data Mining -Modell, die Ihre spezifische Anwendung benötigt.

Für dieses Experiment erstellen wir a Einstufung Modell durch Auswahl der Klassifizierungsoption auf der linken Seite.

Die drei Hauptkategorien, die Sie ändern oder besser wählen können Lerner, Strom, Und Bewerter.


Lerner

Dies gibt an, welche Art von Modell Ihr Workflow für das Training auf Ihren Daten verwenden soll. Es stehen mehrere Optionen zur Auswahl, von denen einige sind:

    1. Naivebayes
    2. Multinomialnaivebayes
    3. Mehrheitsklasse
    4. DriftDectionMethodClassifier

Für dieses Experiment verwenden wir die Multinomialnaivebayes Modell.


Strom

Dies gibt an, welche Art von Dateninstanzen unser Modell generieren soll. Es stehen mehrere Optionen zur Auswahl, aus denen sich befinden:

    1. RandomTeGenerator
    2. Staggenerator
    3. Seagener
    4. Wellenformgenerator

Diese Option hängt speziell von der Art der generierten Instanzen ab, die für Ihr Anwendungsfall erforderlich ist.

Wir gebrauchen Wellenformgenerator für diesen Leitfaden.


Bewerter

Dies gibt die Art von Bewertung an, die wir von den generierten Ausgaben durchführen sollen. In dieser Kategorie können drei Hauptoptionen ausgewählt werden, darunter:

    1. BasicClassificationPerformanceValuator
    2. FadingFactorClassificationPerformanceValuator
    3. FensterklassifizierungsperformanceValuator

Wir benutzen das Fensterklassifizierung Evaluator mit Präzision, Rückruf, Präzision pro Klasse, Rückruf pro Klasse und F1 -Score pro Klasse, die alle als Ergebnis ausgegeben werden. Diese Leistungsmetriken helfen uns, die klassenbezogenen Verteilung und Leistungswerte für unsere Daten besser zu verstehen.


Nach den drei Hauptmodell -Optionen gibt es andere Optionen, die wir auch optimieren können. Dazu gehören Dinge wie die Begrenzung der Anzahl der Instanzen auf das Modell und Informationen darüber, wo die vom Modell generierten Vorhersageergebnisse ausgegeben werden sollen. Wir werden sie ihren Standardvoreinstellungen überlassen, da sie für die Zwecke dieses Experiments nicht erforderlich sind.

Nachdem wir fertig sind, das Modell so konfiguriert zu haben, dass wir unseren genauen Anforderungen entsprechen, klicken wir auf die Laufen Option, die das Modell im Wesentlichen so ausführt, wie es ist. Wenn kontinuierliche Daten über Datenströme mitgenommen werden, werden die Iterationen des Modells weiter ausgeführt, da es die Daten weiterhin als Eingabe empfängt. Mit jeder Iteration, die ausgeführt wird, werden die von ihnen generierten Ergebnisse auf den Bildschirm ausgegeben.

Das folgende Bild zeigt die verschiedenen Ergebnisse, die das Modell generiert hat. Dazu gehören Kategorien wie die Anzahl der Fälle, über die das Modell trainiert hat.


Wenn wir weiter scrollen, können wir sehen. Diese Leistungsmetriken sagen uns die klassenweise Präzisions-, Rückruf- und F1 -Ergebnisse. Alle sind während des Konfigurationsschritts in der Modellerstellung aktiviert.

Abschluss

Die Welt der Datenanalysen verfügt über viele Tools, mit denen die Data Mining Work Flows erreicht werden können. Einige von ihnen sind mit grafischen Benutzeroberflächen ausgestattet, während andere streng programmierbasiert sind. Massive Online -Analysen sind ein solches Tool, das eine intuitive GUI verwendet. Dies hilft Menschen mit wenig bis gar keiner Programmierungserfahrung, um komplexe intelligente Modelle zu erstellen und auszuführen, die ihnen helfen, Ergebnisse auf ihren Datenströmen zu generieren.

Der Hauptvorteil der Verwendung von MOA besteht darin, dass die Benutzer mit Datenströmen arbeiten können. Dies bedeutet, dass Algorithmen zur Echtzeitdatenanalyse für bestimmte Anwendungsfälle erstellt und verwendet werden können. Infolgedessen ist dieses Tool zur Lösung für die meisten Anwendungen für die Echtzeit-Inferenzgenerierung geworden.