Python Tensorflow Tutorial

Python Tensorflow Tutorial

Eine Programmiersoftware namens TensorFlow ist so konzipiert. Tensoren haben die Funktionalität mehrdimensionaler Strukturen, die Daten enthalten. Die Tensorflow -Bibliotheken unterstützen JavaScript und Python. TensorFlow, der von Google erstellt wurde, ist derzeit ein Open-Source-Ansatz für ML- und KI-Probleme in Bezug auf Big Data. Es ist ein flexibles System, insbesondere angesichts seiner Fähigkeit, gleichzeitig auf mobilen Geräten, GPUs und CPUs zu funktionieren.

Die Zukunft veranstaltet ein enormes Wachstum für die Tensorflow -Technologie. Es gilt vollständig als die Richtung der tiefen Lernmodellierung. Es wird von mehreren renommierten Unternehmen für wissenschaftliche Zwecke verwendet. Sie sind am besten für die Teilnahme an großen Unternehmen, Forschung und insbesondere für Google Products bekannt. Sogar sie haben angefangen, mobile Geräte und die Cloud für ihre Aufgaben zu verwenden.

Die wesentlichen Teile des Tensorflows sind Tensoren. Die grundlegenden Datenstrukturen der Tensorflow -Sprache werden als mehrdimensionale Sammlung oder Liste dargestellt. Die Verbindungskanten des Flow -Diagramms sind Tensoren, die als Datenflussdiagramm bezeichnet werden. Tensor. Multilineare Karten können alles sein, einschließlich Vektorräume und realen Zahlen.

Ein Tensor kann daher ein Skalar, Vektor oder Matrix sein. TensorFlow -Anwendungen werden häufig in zwei Phasen unterteilt: Erstellen eines Diagramms und der Ausführung mit einer Sitzung. Diese Sitzung ist für Menschen, die über Python besorgt sind, von Vorteil und konzentrieren sich auf die Entwicklung und Forschung anhand einer Vielzahl von Algorithmen für maschinelles Lernen und Datenlernen. Python ist die einzige Sprache, die TensorFlow verwendet. Daher ist ein starkes Verständnis von Python erforderlich. TensorFlow kann leicht verstanden werden, wenn wir ein grundlegendes Verständnis der grundlegenden Mathematik- und KI -Konzepte haben.

Anwendungen des Tensorflows

  • Zur Videoerkennung wird die Deep -Learning -Methode angewendet. Bewegungserkennung, Echtzeit-Gefahrenerkennung, Flughafensicherheit und UI/UX-Felder verwenden sie.
  • Die bekanntesten Tiefanwendungen beinhalten Sprach- und Klangerkennung. Die Fähigkeit neuronaler Netze, Audiosignale zu erkennen.
  • Die Bilderkennung ist auch eine beliebte Anwendung von Tensorflow. Die Bilderkennung wird verwendet, um Einzelpersonen und Dinge aus Fotografien zu erkennen und zu identifizieren. Der Kontext und der Inhalt eines Bildes können durch Bilderkennung verstanden werden.
  • Ein weiterer beliebter Ansatz für tiefes Lernen verwendet Text als Eingabe. Zu den textbasierten Anwendungen gehören zum Beispiel Textanalyse, Social-Networking-Websites, Bedrohungsidentifizierung und Betrugserkennung.

Struktur des Tensorflows

Mehrere APIs, die in die Kategorien auf niedriger und hochrangiger Ebene fallen.

Tensorflow-API mit niedriger Ebene: Das wesentliche Element des Tensorflows ist seine Kern -API. Um effektive Anwendungen für maschinelles Lernen aufzubauen, kombinierten Entwickler die Python- oder JavaScript -Programme, indem sie den Tensorflow -Kern einbeziehen. Effektiv, aber Tensorflow Core hat eine hohe Lernkurve. Jede Person, die mit dem Kern arbeitet.

Tensorflow-API auf hoher Ebene: Dazu gehören eine Reihe fortschrittlicher Softwareprogramme und Bibliotheken, die TensorFlow verwenden. Einige helfen bei der Erstellung von Modellen, die als Kernprinzip einer Grafik dienen können. Andere geben eine skalierbare Schicht, die eine Anpassung ermöglicht, ohne mit Tensorflow vollständig trainiert zu werden. Die Lernkurve für die meisten dieser APIs ist weitaus zuvorkommender und sie sind häufig kleiner und zuverlässiger als die Kern -API.

Merkmale des Tensorflows

TensorFlow bietet im Gegensatz zu anderen tiefen Lernplattformen, die derzeit verfügbar sind. Wir haben einen bekannten Aspekt in Bezug auf TensorFlow, einschließlich:

  • Wir können jeden Aspekt des Diagramms anzeigen, den Frameworks wie Numpy oder Scikit nicht bieten. Um tiefgreifende Software zu entwerfen, müssen Sie zunächst einige Komponenten und eine Programmiersprache haben.
  • Es ermöglicht Ihnen, jeden Knoten oder Betrieb in Bezug auf seine Analyse unabhängig zu untersuchen. Tensor Board verwendet sein Dashboard, um zu sehen, wie es über ein Diagramm funktioniert. Es bietet statistische Grafikansätze, die ein einfaches Paradigma unterstützen.
  • Das primäre Merkmal der Bibliothek der maschinellen Lernbibliothek ist, dass jeder mit einer Internetverbindung sie verwenden kann, da sie Open-Source ist. Durch die Änderung der Bibliothek können Benutzer eine breite Palette wertvoller Dienste erstellen.
  • Modellentwicklung und -schulung werden sowohl für CPU als auch für GPU von TensorFlow angeboten. Sowohl die CPU als auch die GPU sind in der Lage, Berechnungen durchzuführen, und sie können auch kontrastiert werden.
  • Kurz.
  • TensorFlow bietet ein bestimmtes Abstraktionsniveau, indem die Implementierung verkürzt und die Entwicklung beschleunigt wird. Der Benutzer muss eher auf Logik als auf die richtige Weise achten, um Daten in Funktionen einzugeben. Der Benutzer kann das Modell festlegen, das die Anforderungen des Systems perfekt repräsentiert.

Tensorflow -Architektur

Die Architektur des Tensorflows wird durch mehrere zusätzliche interne Teile abgeschlossen.

Dienste: Die abstrakte Einheit, die von TensorFlow zur Unterstützung bei der Bereitstellung von Aufgaben verwendet wird, wird als Servable bezeichnet. Dies sind die Kernkomponenten, die die Berechnung erleichtern. Es liefert ein hohes Maß an Größen- und Auflösungsanpassung. Die Komponenten eines Tensorflow -Servierbaren können von einem Satz von Tabellen bis zu einem unterschiedlichen Tupel mit API -Modellen reichen. Die Services können über jede Form der Schnittstelle verfügen, die Flexibilität und zukünftige Fortschritte ermöglichen.

  • Verbindungen der experimentellen API
  • Streaming -Ergebnisse
  • Verarbeitung asynchroner Methoden

Servables Versionen: Dies ermöglicht es, neue Algorithmus -Setups, Raten und andere Daten schrittweise zu laden. Darüber hinaus ermöglichen sie die synchrone Belastung vieler Versionen eines Servables, das Experimentieren und eine schrittweise Einführung ermöglichen.

TensorFlow Manager: Der Manager verfolgt alle Versionen, während er die Quellen beibehält. Trotz der Versuche des Managers wird eine gewünschte Version möglicherweise nicht immer geladen. Eine weitere Option für Manager besteht darin, einen „Entladen zu verzögern.”TensorFlow -Manager steuern den gesamten Lebenszyklus eines Servables, das das Laden, Entladen und Servierdienste umfasst.

Tensorflow -Kern: Tensorflow Core enthält Lebenszyklusmetriken, und der Servierkern von TensorFlow akzeptiert Servables und Lader als Objekte.

Tensorflow -Lebenszyklus: Der Manager lädt und führt die Lader aus, die die Quellen für Servierversionen entwickelt haben. Danach werden sie als Client -Anfragen als angehobene Versionen an die Kunden geliefert. Um den Servier zu laden, verfügt der Lader über alle erforderlichen Metadaten. Die Quelle sendet die Quelle über einen Rückruf an den Manager der angestellten Version. Der Manager implementiert die aktuelle Versionsrichtlinie, damit die nächste Aktion ergriffen werden soll. Der Manager weist den Lader an, die aktuelle Version zu erwerben.

Clients können die neueste Version des Servierbaren anfordern oder eine Version angeben, wenn sie sie vom Management beantragt. Der Manager gibt dem Griff des Servierbaren zurück. Dann wird der dynamische Manager genügend Speichernachricht zum Loader informiert. Der dynamische Manager reagiert mit einem Handle auf die aktuellste Version von Servier, wenn ein Kunde einen Handle für das neueste Modell fordert.

Servables Streams: Es umfasst mehrere Services in verschiedenen Typen. Es wird in einer eskalierenden Reihenfolge von Iterationen beibehalten.

Tensorflow -Lader: Die Wartung des gesamten Lebenszyklus des TensorFlow Servable erfolgt über die TensorFlow -Lader -API. Es bietet eine gemeinsame Infrastruktur für bestimmte Algorithmen.

Tensorflow Batcher: Wenn GPU- und Hardware -Beschleuniger zugänglich sind, kann die Reaktionen des Tensorflows in eine einheitliche Anwendung die Kosten für den laufenden Inferenz erheblich senken. Ein Batch -Widget ist im TensorFlow Servable erhältlich, sodass Kunden ihre verschiedenen individuellen Inferenzfragen mühelos in eine Abfrage -Stapel stapeln können, um diesen Vorgang effektiv auszuführen.

Tensorflow -Modelle: Eine Portion ist eine Darstellung eines Paradigmas in einem oder sogar mehr Diensten. Ein Servable erfolgt auch als Komponente eines Modells, so dass eine große durchsuchbare Tabelle als mehrere Instanzen verwendet werden kann.

Tensorflow -Vorteile

Open Source: Es ist für alle Benutzer zugänglich und für die Erstellung eines Systems aufgrund seiner Open-Source-Plattform vorbereitet.

Parallelität: TensorFlow verwendet sowohl GPU- als auch CPU -Geräte, um zu arbeiten. Der Benutzer kann die Layouts nach seinen Bedürfnissen verwenden. Wenn nicht speziell angegeben, verwendet ein System GPU. Der Speichergebrauch wird durch diese Technik etwas verringert. TensorFlow wird aufgrund ihrer Fähigkeiten als Hardware -Geschwindigkeitsbibliothek angesehen.

Architekturunterstützung: Im Vergleich zu CPU und GPU umfasst die TensorFlow -Architektur TPU, um den Betrieb zu beschleunigen. Im Gegensatz zu den anderen beiden können entwickelte Modelle mit TPU mit Leichtigkeit über Wolken eingesetzt werden.

Debuggen: Wir können diskrete Daten erwerben und erhalten.

Skalierbar: Diese Plattform ermöglicht die Ausführung fast aller Vorgänge. Mit TensorFlow können seine Benutzer ein System erstellen, da auf jeder Maschine und seiner grafischen Modelldarstellung installiert werden kann.

Grafische Unterstützung: TensorFlow wird zur tiefgreifenden Entwicklung verwendet, da er die Konstruktion neuronaler Netzwerke mithilfe von Graphen mit Knoten für Operationen ermöglicht. TensorFlow -Funktionen in verschiedenen Domänen, einschließlich Zeitreihen, Bewegungserkennung, Sprachidentifizierung und Bilderkennung, kann daher verwendet werden, um die Bedürfnisse eines Benutzers zu erfüllen.

Tensorflow -Nachteile

Keine Fensterunterstützung: Trotz der vielen Vorteile von TensorFlow können Windows -Benutzer nur eine begrenzte Anzahl seiner Funktionen erreichen. Linux -Benutzer haben Zugriff auf eine umfangreiche Palette von Funktionen.

Abhängigkeit: TensorFlow reduziert die Menge des Skripts und erleichtert die Benutzer zugänglich, aber es wird auch mit dem Code komplexer. Jeder Code muss auf einer vielfältigen Plattform durchgeführt werden, um die Abhängigkeiten der Ausführung zu erhöhen.

Inkonsistenz: Homonyme werden in den Titeln der Module von TensorFlow verwendet, wodurch Benutzer es den Benutzern schwierig machen, beizubehalten und zu verwenden. Das Problem ergibt sich aus der Übernahme eines einzelnen Namens für mehrere verschiedene Kontexte.

Geschwindigkeit: Tensorflow bewegt sich im Vergleich zu seinen Gegnern langsam in Tempo. Vergleichbar mit anderen Frameworks ist es weniger nutzbar.

Symbolische Schleife: Die Funktion ist bei der Diskussion von Sequenzen variabler Länge wesentlicher. TensorFlow beinhaltet keine Funktionalität. Eine endliche Schichtung ist jedoch die geeignete Lösung.

So installieren Sie Python Tensorflow in Ubuntu 20.04

Die Tensorflow-Bibliothek ist Open-Source-Software für maschinelles Lernen und die Entwicklung von tiefen neuronalen Netzwerken. Die Tensorflow -Bibliothek kann in der virtuellen Umgebung von Python installiert werden. In diesem Artikel installieren wir die Tensorflow -Bibliothek und alle Installationsanweisungen für Ubuntu 20 gelten.04. Alle Linux -Varianten verwenden jedoch dieselbe Methodik zur Installation der TensorFlow -Bibliothek. Wir haben jeden Schritt mit ausgeführten Befehlen demonstriert, um das TensorFlow -Paket erfolgreich zu installieren.

Schritt 1: Der erste Schritt besteht darin, sicherzustellen, dass Python in Ubuntu 20 installiert werden sollte.04. Wir können die Python -Version überprüfen, indem wir den Befehl „Python3 -v“ geben. Da wir Python3 bereits installiert haben, wird die Version im folgenden Bild angezeigt:

Schritt 2: Jetzt werden wir bestätigt, dass Python in unserem System installiert ist. Dann mit dem nächsten Schritt voranschreiten. Wir haben das Venv-Paket aus dem Python3-Venv-Paket implementiert, das die bevorzugte Methode zum Aufbau einer virtuellen Umgebung ist. Geben Sie den folgenden Befehl ein, um das Venv -Modul zu erhalten:

Schritt 3: Wir haben das Venv -Paket in unserem System erfolgreich installiert. Jetzt können wir problemlos eine virtuelle Umgebung für das TensorFlow -Projekt erstellen. Dafür haben wir das Verzeichnis erstellt, in dem wir unsere virtuelle Umgebung von Python3 befinden sollen. Der erstellte Direktor sollte Berechtigungen für die Benutzer gelesen und schreiben, die Sie zulassen möchten. Wir haben das Verzeichnis „Py_tensorflow“ erstellt und mit dem Befehl „CD“ haben wir dieses bestimmte Verzeichnis eingegeben.

Um die virtuelle Umgebung aus dem Venv -Modul zu erstellen, haben wir den folgenden Befehl im Verzeichnis py_tensorflow verwendet. Hier haben wir den Namen „Venv“ für unsere virtuelle Umgebung ausgewählt, aber es kann ein anderer Name sein. Dieser Befehl generierte das Venv -Verzeichnis, das Python -Standardmodule, PIP -Paketmanager, Kopien von Python -Binärdateien und andere unterstützende Dateien enthält.

Wir haben unsere virtuelle Umgebung eingegeben, indem wir das aktivierte Skript aus dem folgenden Befehlsformat aktivieren. Das Bin -Verzeichnis wird der $ -Path -Variablen des Systems für die virtuelle Umgebung nach dem Aktivieren hinzugefügt. Der Name der virtuellen Umgebung wird jetzt in der Terminalaufforderung angezeigt, die sich ebenfalls ändert. Wie wir für unsere virtuelle Umgebung „Venv“ ausgewählt haben, wird dies wie folgt gezeigt:

Jetzt befinden wir uns an der Phase, an der wir das Tensorflow -Modul installieren können. Wir müssen die PIP -Version mit der neuesten Version aktualisieren, mit der die TensorFlow -Bibliothek in unserer virtuellen Umgebung installiert werden muss. Das PIP -Modul in unserer aktuellen virtuellen Umgebung wird mit dem folgenden Befehl aktualisiert:

Wir haben die PIP -Version erfolgreich aktualisiert, wie die Eingabeaufforderung dies in dem von uns genommenen Snap zeigt. Durch den Befehl deaktivieren können wir die virtuelle Umgebung verlassen, wann immer wir wollen. Die Quelle aktiviert einen Befehl, mit dem er zu einem späteren Zeitpunkt revitalisiert werden kann. Während der Verwendung von Tensorflow empfehlen wir, in der virtuellen Umgebung zu bleiben. Die TensorFlow -Modulinstallation ist jetzt bereit zu gehen. Mit dem PIP -Befehl haben wir die Bibliothek „TensorFlow“ installiert. Der folgende Befehl holt die neueste stabile Version und die Abhängigkeiten des TensorFlow -Pakets jedes Tensorflow -Pakets:

Wenn der Tensorflow zu installieren beginnt, wird eine Anweisung angezeigt, die angibt, dass die Installation von TensorFlow und die erforderlichen abhängigen Pakete erfolgreich waren.

Python -Tensorflow -Datentypen

TensorFlow unterstützt eindeutige Datentypen. Wir werden die Verwendung von Datentypen im Tensorflow durchlaufen. TensorFlow akzeptiert native Python -Datentypen wie Zeichenfolgen, Booleschen und Zahlen (int, float). Numpy versteht sich gut mit Tensorflow 2.X auch. Der Datentyp zwischen Numpy und Tensor wird ordnungsgemäß unterstützt. Sowohl 32-Bit- als auch 64-Bit-Zahlen sowie andere Datentypen sind in Python TensorFlow verfügbar. Wir haben Datentypen von Beispielen eines Tensors gezeigt, zu dem gehören:

Im Allgemeinen haben wir "DTYPE" verwendet, um den Datentyp des angegebenen Wertes zu erwerben. Der Tensorflow „DTYPE“ wird verwendet, um den Datentyp des vorliegenden Tensors zu überprüfen oder die Datentypausgabe für Berechnungen bereitzustellen, die ihn benötigen.

Beispiel

Zuerst haben wir den Ganzzahl -Datentyp abgerufen. Ein "int" -Datentyp funktioniert ähnlich wie andere Module. Es beschreibt eine bestimmte Auswahl an Ganzzahlen in der Mathematik. Für integrale Datentypen gelten unterschiedliche Größenbeschränkungen, und negative Werte können zulässig sein oder nicht. Dafür haben wir den Tensorflow als "TF" bereitgestellt und die Konstante aufgerufen, die den numerischen Wert "3" nimmt. Damit haben wir den "DTYPE" bezeichnet. Wenn wir die Eingabetaste für die ReP -Anweisung drücken, wird der Datentyp „INT32“ ausgeführt. So drucken wir den Datentyp eines bestimmten Werts.

Beispiel

In der nächsten Instanz haben wir den Datentyp der Dezimalzahl überprüft. An die Konstante () haben wir die Dezimalzahl „1 übergeben.5 ”und nannte den DTYPE. Wenn wir dies ausführen, das TF.Float32 wird von der Python TensorFlow Repl angezeigt.

Beispiel

Als nächstes haben wir den Datentyp angezeigt, indem wir die imaginäre Zahl „2+2J“ übergeben haben, und TensorFlow DTYPE hat den Datentyp Complex128 zurückgegeben. Der Datentyp Complex128 repräsentiert die beiden 64bit -Float -Datentypen.

Beispiel

Eine Zeichenfolge ist ein häufiger und nützlicher Datentyp, der von jeder Python -Bibliothek unterstützt wird. Ein String -Datentyp besteht aus einer Sammlung von Zeichen. In ähnlicher Weise hat Python TensorFlow auch den String -Datentyp, den wir im folgenden Beispiel gezeigt haben. Wir haben die String „Hello World“ und bei der Ausführung das „TF.String ”wird in der Ausgabe angezeigt.

Beispiel

Der boolesche Datentyp, der häufig in BOOL abgekürzt wird, repräsentiert die wahren und falschen logischen Werte. Hier haben wir den logischen Wert „TRUE“ für den Datentypoperation übergeben, und es gab den TF zurück.BOOL -Wert als Datentypwert. Dies bedeutet, dass dieser bekannte BOOL-Datentyp auch in Python TensorFlow unterstützt wird.

Python -Tensorflow -Variablen

Der beste Ansatz zur Darstellung des gemeinsamen, konstanten Zustands, mit dem das Programm arbeitet, ist die Verwendung einer Tensorflow -Variablen. Tensor-haltige In-Memory-Puffer dienen als Variablen. Sie können während und nach dem Training auf Disc gerettet werden, müssen jedoch manuell initialisiert werden. Durch die „tf“.Variable ”Klasse, Variablen werden generiert und verfolgt. Es ist möglich, einen Tensorwert zu ändern, indem Operationen implementiert werden, die durch die Klasse „TF.Variable". Wir können die Werte dieses Tensors mit bestimmten Vorgängen lesen und überarbeiten.

Sobald sie gebaut wurden, können die Variablen und Formen nicht aktualisiert werden. Schauen wir uns einige Beispiele für die variable Bildung unter Verwendung von TensorFlow an.

Beispiel

Wir haben unten ein Beispiel, in dem wir eine Python -Tensorflow -Variable erstellt haben. Zunächst haben wir das Tensorflow -Modul mit dem Alias ​​"TF" importiert. Dann setzen wir den Variablennamen als „Tensor“ und deklarierten ihn mit dem Variablen () -Konstruktor.

An den Variable () -Konstruktor haben wir die beiden numerischen Werte übergeben. Dann druckten wir die Form der Tensorflow -Variablen, indem wir den „TF) aufgerufen haben.Formenobjekt. Danach druckten wir die „Dimension“ der Variablen, indem wir den „Tensor“ an den „TF“ übergeben haben.Rang ”-Methode und auch die Funktion numpy () aufgerufen. Als Nächst.

Beispiel

Durch die Verwendung des Variablenkonstruktors verstehen wir, wie eine Variable festgelegt werden kann. Jetzt müssen wir die Form der Variablen ändern, indem wir die neue Python -Tensorflow -Methode namens Reshape () Methode verwenden. Diese reshape () -Methode nimmt den Parameter „Form“ und den variablen Namen an. Jetzt haben wir das Beispiel der Umgestaltungsmethode implementiert. Wir haben den Variablen „Tensor“ deklariert und den Wert dafür mit dem Konstruktor Variable () festgelegt.

Danach haben wir das „TF angestellt.reshape () ”-Methode und bestanden die Variable„ Tensor “und die Formmethode, die mit dem Wert festgelegt wurde, der für die angegebenen Werte im Variable () -Konstruktor geformt werden soll. Anschließend haben wir das vorherige Programm ausgeführt, das die variable Form verformte. Der Code und die Ausgabe wurden auf das nachfolgende Bild befestigt:

Beispiel

Jetzt haben wir die Übertragung von Tensorflow -Variablen durchgeführt. Die kleineren Variablen können sich sofort ausbreiten, um die größeren Variablen anzupassen, wenn wir versuchen, gepaarte Operationen mit mehreren variablen Objekten auszuführen, ähnlich wie wir mit Tensorobjekten können. Dies ist sehr vergleichbar mit der Funktionsweise von Numpy -Arrays. Eine skalare Variable ist skaliert, um jedes Mitglied der Variablen zu multiplizieren, wenn Sie sie mit einer anderen Variablen multiplizieren möchten.

Wir müssen das TensorFlow -Modul importieren, da wir nicht auf die Tensorflow -Variable zugreifen können. Danach deklarierten wir den Konstruktor "Variable ()" innerhalb der Variablen "T1" und "T2". An die Variable „T1“ haben wir die beiden numerischen Werte übergeben, die mit dem numerischen Wert der Variablen „T1“ multipliziert werden sollen, die multipliziert werden sollen. Dann multiplizierten wir innerhalb des „Ergebnis“ -Objekts die beiden Variablen und zeigten die resultierenden Werte mit der Druckanweisung. Der Code und die Ausgabe wurden im nachfolgenden Bild befestigt.

Beispiel

Wir könnten es verwenden, um die Form von Hardware (einer CPU) zu identifizieren, die zur Ausführung unserer Variablen verwendet wird. Dafür die “.Geräteattribut wird verwendet. In der folgenden Implementierung haben wir den variablen Namen „TF1“ definiert und den variablen Konstruktor darin zugeordnet, der zwei Werte als Eingabe übergab. Danach verwenden wir die Druckanweisung, bei der die “.Geräte -Attribute werden mit der Variablen "TF1" aufgerufen. Der Hardware -variable Typ wird am Terminal angezeigt.

Python Tensorflow -Platzhalter

Die Tensorflow -Variablen, die zu einem späteren Zeitpunkt Daten erwerben. Wir sind in der Lage, Verfahren zu erstellen, ohne dass Daten erforderlich sind. Wenn die Sitzung beginnt und funktioniert, werden Daten in den Platzhalter eingefügt. Durch die Verwendung von Platzhaltern können wir TensorFlow -Diagramme Daten hinzufügen.

Beispiel

Wir haben das TensorFlow -Modul anders importiert, da das Platzhalterattribut nicht gefunden wird, und ein Fehler ist aufgetreten. Dann haben wir die Variable „P“ und setzen die Placeholder () -Methode darin ein. Der Platzhalter nimmt die Parameter "Float" und "keine". Wir haben die Werte für den Platzhalter initialisiert. Wir haben jedoch den Betrieb der Multiplikation als „p*2“ innerhalb der Variablen „Q“ festgelegt.

Jetzt haben wir das Sitzungsobjekt aus der TensorFlow -Sitzung () implementiert (). Auch wenn ein viel größeres Operationsdiagramm erzeugt wurde, konnte nur ein kleiner Teil des Grundstücks ausgeführt werden. Diese Subgraph -Bewertung ist einer der Hauptvorteile von TensorFlow, da nur wenige andere Bibliotheken, die verwandte Aufgaben ausführen, diese anbieten. Anschließend haben wir die Variable "q" übergeben und den Feed_Dict festgelegt, indem wir den Wert für die Variable "P" im Sitzungslauf zuweisen (). Hier liefert die Ausgabe die erwarteten Ergebnisse nach der Ausführung. Der Code und die Ausgabe wurden im nachfolgenden Bild befestigt:

Beispiel

Darüber hinaus können Platzhalter mit verschiedenen Abmessungen Arrays speichern. Der folgende Fall enthält die Platzierung mehrerer Ganzzahlen in einer Matrix. Wenn wir dann die gleiche Technik wie zuvor anwenden, multiplizieren wir das Ganzzahlelement mit zwei. Im folgenden Programm haben wir den Platzhalter innerhalb der Variablen „v1“ bezeichnet,. Der Platzhalter definiert die Dimension als "keine" und die zweite Dimension als "3". Dies bedeutet, dass die Spalte drei für die Matrix sein sollte.

Danach multiplizierten wir die Variable "V1" mit "3" und erstellt die Sitzung. Wir haben die "v2" und "feed_dict" als Argument im Sitzungslauf übergeben, und die Werte für die Variable "V1" werden ebenfalls in die Eingabe feed_dict gesetzt. Wir haben die Matrix von 3 mal 2 im folgenden Bild zusammen mit dem Code gedruckt:

Python Tensorflow Spärmer Tensor

Die schnelle Verarbeitung und das Zwischenspeichern von Tensors in Tensorflow wird durch spärliche Tensoren ermöglicht und in Anwendungen für die Verarbeitung natürlicher Sprache und das Computervision sowie für die Vorverarbeitung von Fotografien mit dunklen Pixeln eingesetzt. Wir werden das „TF verwenden.spärlich.Sparsetensor () ”Funktion zur Darstellung eines spärlichen Tensors, der verwendet wird, um diese spezifische Aufgabe auszuführen.

Beispiel

Hier haben wir die Werte für die spärlichen Parameter festgelegt. Das „Ind“ repräsentiert die Indizes, die alle Werte ungleich Null haben. Das „Val“ ist der Wert, den die Form des Tensors für jede frühere Indizes angegeben hat. Dann haben wir einen dichten Formparameter als „DS“, der auch mit der Liste initialisiert wird. Dann haben wir alle diese Parameter innerhalb des TF übergeben.spärlich.Sparsetensor () fungieren als Argument. Der folgende Snap zeigt auch das Ergebnis der Funktion. Der Code und die Ausgabe wurden im nachfolgenden Bild befestigt:

Beispiel

Jetzt werden wir die Umwandlung von Tensorflow in den Numpty -Wert sehen. Um dies zu erreichen, werden wir die eifrige Ausführungsfunktion verwenden, um die Sitzung zu betreiben. Der tf.KOMPAT.v1. Die Session () -Funktion wird verwendet, um die Sitzung nach dem Importieren des TensorFlow -Moduls und des TF zu konstruieren.Danach wird eine spärliche Tensor () -Funktion verwendet. Danach haben wir die Variable "new_result" definiert und den Ganzzahlwert in Form einer Liste der TF zugewiesen.Sparsetensor -Funktion. Nach dem Drucken des Funktionsbetriebs können wir die Ausgabe sehen.

Beispiel

Wir haben die spärliche Bekehrung in Numpy gesehen. Jetzt haben wir die Spärdung in dichten umgewandelt. Dafür haben wir das folgende Programm implementiert. Wir haben der TF die dichte Form zugewiesen.Sparsetensor -Funktion, Wert und Indizesparameter und initialisierte sie auch. Danach haben wir die Tensorflow "to_dense" -Funktion aufgerufen, die die "TF" übernimmt.Sparsetensor -Funktion ”und zeigt die Ergebnisse an. Der Code und die Ausgabe wurden im nachfolgenden Bild befestigt:

TensorFlow -Transponierungsfunktion

Die TensorFlow -Transponierungsfunktion ist ein Merkmal des TensorFlow -Pakets der Python Deep Learning Domain. Diese Funktion ermöglicht es uns, die Übertragung der angegebenen Daten zu bestimmen, wenn wir sie an das Tensorflow -Paradigma weitergeben. Die Eingangsmatrix des Tensors wird durch die Transponierungsfunktion umgekehrt, was zu einem diagonalen Umdrehen der Zeilen und Säulen führt.

Beispiel

Wir haben ein TensorFlow -Paket in unserem Skript, dem ein symbolischer Name "TF" zugewiesen wird. Dann haben wir die Variable „A“ deklariert, in der wir die Liste der numerischen Werte erstellt haben. Nachdem wir die beiden Listen innerhalb der konstanten Methode erstellt hatten, verwendeten wir das „TF.Transponieren Sie die Methode und bestanden die Eingabevariable „A“ darin. Die Transponierungsfunktion hat die Position der horizontalen Liste in die vertikale Liste geändert, wie in dem folgenden Screenshot gezeigt:

Beispiel

Das angegebene Array als Eingabe wird durch die angegebene Größe transponiert, wenn das Perm -Argument angegeben ist. Betrachten Sie den PERM -Parameter der Transponierungsfunktion im folgenden Beispiel. Nach dem Einsetzen des Paket TensorFlow haben wir die beiden Zahlenlisten in der TensorFlow Constant -Methode in der Variablen „trans“ angegeben. Dann haben wir die TensorFlow -Methode bezeichnet, wobei der „trans“ als Eingabe zugewiesen ist, und der Perm -Parameter wird auch mit Abmessungen für 3 × 3 -Metrik eingestellt. Die Transponierungsfunktion erzeugt die neue transformierte Metrik.

Beispiel

Der neue Parameter „Konjugat“ wird in diesem Beispiel eingeführt. Wir können einen Tensor übertragen, wenn er im Eingang konjugiert ist. Wir müssen das „TF“ geben.transponieren () ”Argument konjugiert gleich treu, um dies zu erreichen. Im Rahmen des Programms haben wir die Variable „IMG“ für das Erstellen der Liste mit Hilfe des „TF“ festgelegt.konstante “Methode. Wir haben der Liste eine komplexe Nummer zugewiesen. Danach haben wir die Transponierungsfunktion verwendet, bei der das konjugierte Argument aufgerufen und mit dem BOOL -Wert "wahr" festgelegt und festgelegt wird. Wenn die Anweisung der Transponierungsfunktion ausgeführt wird, zeigt der Ausgang wie folgt die konjugierte Transponierungsmetrik an:

TensorFlow Argmax -Funktion

Die TensorFlow Argmax -Funktion wird verwendet, um den größten Wert zwischen den Werten der Achsen zu bestimmen, und ist Teil des Mathematikpakets der Tensorflow -Bibliothek. Das als Tensorflow -Keras definierte Technologiefeld ist derzeit eine der am häufigsten verwendeten und sich schnell entwickelten, da es den Technologieweg verändern kann.

Beispiel

Wir haben das TensorFlow -Modul verwendet, um die Argmax -Funktion zu verwenden. Dann haben wir den Wert mit der konstanten Methode innerhalb der Variablen „x“ festgelegt. Wir haben die Argmax -Funktion aus der Python -Mathematikbibliothek in der Variablen „Y“ aufgerufen. Die TensorFlow Argmax -Funktion nimmt den Eingabeparameter „x“ an, und dann haben wir den Tensor mit der Druckmethode angezeigt. Danach haben wir den Wert des erhaltenen Tensors über den TF berechnet.Keras.Backend.eval () Methode, wie wir die Variable „Y“ an sie übergeben haben. Es hat den Maximalwert -Index in der Ausgabe, da der letzte Indexwert den maximalen Wert hat. Daher wird der Maximalwert des Index generiert.

Beispiel

Hier haben wir mit der Formmethode des Tensorflows die Argmax -Funktion implementiert. Der erste Schritt, den Tensorflow einzuschließen, erfolgt. Dann haben wir die Variable „U“ definiert, wobei die konstante Funktion den Parameter „Wert“ nimmt und die Liste der Ganzzahlen darin festlegt. Außerdem haben wir das Argument „Form“ in die konstante Funktion und die Form „3x3“ gesetzt. Wir haben die Form der angegebenen Liste in 3 × 3 -Abmessungen gedruckt. Als nächstes konstruierten wir eine andere Variable, "V", in der die Argmax -Funktion bereitgestellt wurde, indem wir das Argument "Eingabe" als "x" zugewiesen haben. Wenn der Tensor gedruckt wird, gibt er den Wert der Indizes aus und haben mit dem Keras -Modul den Wert bewertet, der die maximalen Indizes aufwies.

Tensorflow Argmin -Funktion

Zuvor haben wir die TensorFlow Argmax -Funktion besprochen. Die TensorFlow Argmin -Funktion wird genauso wie die Argmax -Funktion implementiert. Die Ausgangswerte sind das einzige, was sich unterscheidet. Das Mathematikmodul der TensorFlow Library enthält die TensorFlow Argmax -Methode, die den Wert mit dem Mindestwert zwischen den Werten der Achsen bestimmt.

Beispiel

Das TensorFlow -Modul wurde im folgenden Beispiel bezeichnet. Dann haben wir einige numerische Werte in der Form des Arrays initialisiert, die in der Variablen „A1“ vorhanden sind. Mit Hilfe des Mathematikpakets haben wir die Argmin -Funktion verwendet und das Argument „Eingabe“ mit der Variablen des Tensors „X“ festgelegt. Danach zeigten wir den bewerteten Tensor aus der Argmin -Funktion. Schließlich haben wir den Wert des Tensors aus den Keras bestimmt.Backend.Bewerten Sie die Methode als Zahl “1.9 ”ist eine Mindestzahl. In der Ausgabe haben wir also den Indexwert "3" gegen diese Zahl.

Beispiel

Jetzt haben wir die Formmethode des Tensorflows verwendet. Dies erzeugt den geformten Indizeswert der Mindestwerte. Wir haben die Variable „I“ festgelegt und sie mit der konstanten Funktion deklariert. Die konstante Funktion nimmt den Wert und die Form als Argument an. Diese angegebenen Argumente werden mit ihrem Wert festgelegt. Dann haben wir den Tensor und die Indizes der Zahl mit minimalen Werten gezeigt.

Abschluss

Eine weit verbreitete tiefgreifende Bibliothek ist Tensorflow. Es wird hauptsächlich für den Bau neuronaler Netze verwendet, und sowohl kleine als auch große Unternehmen nutzen es. TensorFlow wird auch in den meisten Produkten von Google verwendet, einschließlich Google Mail und der Suchmaschine, wie oben zu sehen. Google verwendet es auch für interne Zwecke. In diesem Handbuch wurde eine Einführung in den TensorFlow bereitgestellt.

Hier haben wir TensorFlows Einführung seiner Schlüsselelemente, Merkmale, Vorteile und Nachteile besprochen. Wir haben jeden Aspekt von Python TensorFlow und die Implementierung des TensorFlow -Codes mit dem Linux -Server angesprochen. Wir haben gezeigt, wie man TensorFlow auf Ubuntu 20 aufstellt.04 in einer virtuellen Umgebung. Dann sehen wir den TensorFlow -Datentyp. Wir haben den Datentyp mit dem DTYPE -Funktionsaufruf in TensorFlow abgerufen.

Als nächstes haben wir die Erklärung und Initialisierung des Variablen () -Konstruktors untersucht. Tensor-basierte In-Memory-Puffer, die als Tensorflow-Variablen bezeichnet werden, bleiben nach einer Diagrammausführung aktiv und werden wiederholt verwendet. Als nächstes haben wir einen TensorFlow -Platzhaltererklärung. Sie ermöglichen es uns, Einschränkungen der Wertegröße und der Datentypen zu definieren, die in übergeben werden. Dann haben wir eine andere TensorFlow -Funktion, die als spärliche Tensorfunktion bezeichnet wird. Wir haben das „tf benutzt.spärlich.Sparsetensor -Funktion zum Anzeigen der spärlichen Tensorwerte. Wir haben auch die TensorFlow -Transponierungsmethode verwendet.

Die Transponierungsfunktion von TensorFlow hilft beim Umdrehen des Eingangs -Tensors, wodurch sich die Zeilen und Spalten der Matrix abwechseln lassen. Darüber hinaus erklärt dieses Tutorial zwei weitere Funktionen, Argmax und Argmin, unterstützt vom TensorFlow -Modul. Diese Methoden helfen bei der Lokalisierung des höchsten und niedrigsten Werts innerhalb des Tensor. TensorFlow macht es unglaublich einfach, diese Methoden zu implementieren, da dieses Thema sehr groß ist, aber wir haben versucht, alle wichtigen Themen so zu behandeln, wie wir können.