KUBECTL SCALE -Bereitstellung

KUBECTL SCALE -Bereitstellung

Die Praxis der Akklimatisierung Ihrer Infrastruktur an ihren ursprünglichen Zustand wird als Skalierung bezeichnet. Wenn Sie zu viel Ladung haben, skalieren Sie, damit die Umgebung schnell reagieren und sich den Knoten-Crash schnell entziehen lässt. Wenn sich die Dinge beruhigen und es nicht zu viel Last gibt, können Sie skalieren, um Ihre Kosten zu optimieren. Sie können auf zwei Arten Skalierung durchführen: vertikale Skalierung und horizontale Skalierung.

Bei vertikaler Skalierung maximieren Sie Ihre Ressourcen. Zum Beispiel zusätzlichen Speicher, zusätzliche CPU -Kerne, Scheibengeschwindigkeit usw. Eine horizontale Skalierung kann durchgeführt werden, wenn Sie viele Vorkommen mit derselben Hardwarespezifikation hinzufügen. Eine Webanwendung enthält zwei Ereignisse zu den üblichen Zeiten und 4, wenn sie beschäftigt ist. Denken Sie abhängig von Ihrem Fall vor. Sie können entweder vertikale/horizontale oder beide Methoden verwenden.

Das Problem ist jedoch, wann zu skaliert ist. Zuvor war die Anzahl der Ressourcen, die der Cluster haben sollte, oder die Gesamtzahl der gelegten Knoten waren Entwurfszeitentscheidungen. Die Entscheidungen waren eine Folge vieler Tests und Fehler. Sobald die App erfolgreich veröffentlicht wurde, beobachtet ein menschenzentrierter Ansatz sie aus verschiedenen Blickwinkeln. Die wichtigste Metrik ist die CPU. Nach der Untersuchung der CPU entscheiden sie, ob Skalierung durchgeführt wird oder nicht. Nach der Ankunft von Cloud Computing wurde die Skalierung ziemlich einfacher und praktisch. Trotzdem können Sie es auch manuell ausführen. Kubernetes kann automatisch nach dem CPU -Verbrauch und vielen anderen maßgeschneiderten Anwendungsmetriken skalieren, die Sie skizzieren können. In diesem Tutorial erfahren Sie also, was die Bereitstellung von Kubectl Scale ist und wie sie mit Hilfe von Befehlen implementiert werden sollen.

Einfacher ist die Bereitstellung ein Objekt von Kubernetes, das die Produktion des POD über Replikate mitwirkt. Wenn Sie also einen Satz ähnlicher Nginx -Pods in Ihrem Cluster organisieren möchten. Mit Hilfe des Einsatzes können Sie diese Pods sofort skalieren, um die Anforderungen zu erfüllen.

Die Skalierung kann durchgeführt werden, indem die Anzahl der Identischen in einem Einsatz minimiert oder maximiert wird, das auch als Skalierung und Skalierung bezeichnet wird. Ein Einsatz -Skalieren stellt sicher, dass Pods gebildet und an Knoten mit vorhandenen Ressourcen angeordnet werden. Durch die Skalierung der Pods in den angegebenen Zustand minimiert.

Voraussetzungen

Wenn Sie diese Arbeit machen möchten, möchten Sie einen ausführenden Kubernetes -Cluster. Für die Bereitstellung von Kubectl Scale müssen Sie Minikube installieren. Sobald der Cluster abgelaufen ist und ausgeführt wird, müssen Sie alle weiter fortsetzen, um weiter fortzufahren.

Minikube Start

Drücken Sie einfach die Tastenkombinationen „Strg+Alt+T“ gleichzeitig, um das Terminal zu starten. Hier im Terminal schreiben Sie einfach den Befehl „Minikube Start“ und warten Sie, bis Minikube erfolgreich beginnt.

Bereitstellungsdatei erstellen:

Um die Bereitstellung zu skalieren, ist das allererste, was eine Bereitstellung in Kubernetes erstellt. Der folgende Befehl mit dem Schlüsselwort "Touch" zeigt die Erstellung einer Datei in Ubuntu 20.04.

Führen Sie nun den Berührungsbefehl aus und gehen Sie zur Startseite, auf der Sie die Datei mit dem Namen „Deployment2) anzeigen.yaml ”erfolgreich erstellt.

Der aufgelistete Screenshot ist eine Darstellung einer Bereitstellung.

Im folgenden Screenshot heißt es::

  • Der ".Spezifikation.Replikate ”spezifizierte, dass die Nginx-Ablagerung 3 ähnliche Pods erzeugt.
  • Wenn eine Bereitstellung nicht weiß, welche Pods zu verwalten sind, dann ist die “.Spezifikation.Selector -Feld wird für diesen Zweck verwendet.
  • Die POD-Vorlage enthält die angehängten Unterfelder:
  • Die gekennzeichneten Anwendungen sind Pods: Nginx mit dem .Metadaten.Beschriftungen Feld.
  • Das Feld ".Vorlage.Spec ”zeigt, dass Pods einen Container ausführen, der die 1 ausführt.14.2 Version.
  • Mit der Hilfe von ".Spezifikation.Vorlage.Spezifikation.Container [0].Namensfeld.Es bildet einen Container und skizziert seinen Namen

Bereitstellung erstellen

Jetzt ist unsere nächste Aufgabe, die Bereitstellung für die Bereitstellung von Kubectl Scale zu erstellen. Geben Sie also den folgenden Befehl aus.

Überprüfen Sie die Verfügbarkeit von Schoten

Wenn Sie die Zugänglichkeit von Ready Pods überprüfen möchten, geben Sie den angehängten Befehl aus. Die Ausgabe zeigt, dass die Nginx-Ablagerung mit 3/3 Ready Pods aufgeführt ist. Außerdem können Sie den Namen, bereit, aktuell, verfügbar und Altersparameter anzeigen.

Scale -up -Pods - Skalieren Sie die Bereitstellung

Da wir die Bereitstellung bereits erstellt haben, ist es jetzt an der Zeit, sie zu skalieren. Zum Beispiel, wenn Sie die Nginx -Schoten von 3 bis 5 skalieren möchten. Es gibt zwei Methoden, um dies zu tun. Sie können entweder Änderungen in der YAML -Datei vornehmen und die Zeile von Replik 3 bis Replik 5 ändern, oder Sie können dies über CLI tun. In unserem Fall bevorzugen wir den CLI -Ansatz. In diesem Ansatz müssen Sie die YAML -Datei nicht ändern, sondern den Befehl kubectl scasten genau wie im Screenshot unten getan.

Scaledown Pods

Wenn Sie die Pods skalieren möchten, können Sie dies auch genauso tun wie früher. Gerade Änderungen im ausgestellten Kubectl -Befehl von 11 bis 3 vorgenommen:

Abschluss

In diesem Artikel dreht sich alles um das grundlegende Konzept der Skalierung von Kubernetes -Bereitstellungen.e., Skalieren und skalieren. Die oben genannten Beispiele sind jedoch sehr leicht verständlich und sehr praktisch zu implementieren. Sie können dies auch für komplexere Bereitstellungen verwenden und diese nach oben oder unten skalieren, um Ihre Anforderungen an den Aufwärtsbehälter zu erfüllen.