Pytorch - Vstack

Pytorch - Vstack
Wir werden über das Vstack () in diesem Pytorch -Tutorial diskutieren.

Pytorch ist ein Open-Source-Framework mit einer Python-Programmiersprache. Tensor ist ein mehrdimensionales Array, mit dem die Daten gespeichert werden. Um einen Tensor zu verwenden, müssen wir das Fackelmodul importieren. Um einen Tensor zu erstellen, ist die verwendete Methode Tensor ().

Syntax:

Fackel.Tensor (Daten)

Wobei die Daten ein mehrdimensionales Array sind.

Fackel.vstack ()

Fackel.vstack () schließt sich zwei oder mehr Tensoren vertikal an.

Syntax:

Fackel.vstack (Tensor_Object1, Tensor_Object2,…)

Parameter:

Es dauert zwei oder mehr Tensoren.

Beispiel 1:

In diesem Beispiel werden wir zwei eindimensionale Tensoren erstellen und sie mit der Taschenlampe vertikal verbinden.vstack () Funktion.

#import Fackelmodul
Taschenlampe importieren
#Create 2 Tensoren
Data1 = Fackel.Tensor ([10,20,40,50])
Data2 = Taschenlampe.Tensor ([2,3,4,5])
#Anzeige
print ("tatsächliche Tensoren:")
Druck (Daten1)
Druck (Daten2)
#join zwei Tensoren
Druck ("gemeinsam Tensor:", Torch.vstack ((data1, data2)))

Ausgang:

Tatsächliche Tensoren:
Tensor ([10, 20, 40, 50])
Tensor ([2, 3, 4, 5])
Tensor beigetragen: Tensor ([[10, 20, 40, 50],
[2, 3, 4, 5]]))

Zwei Tensoren werden vertikal verbunden.

Beispiel 2:

In diesem Beispiel werden wir fünf eindimensionale Tensoren erstellen und sie mit der Taschenlampe vertikal verbinden.vstack () Funktion.

#import Fackelmodul
Taschenlampe importieren
#Create 5 Tensoren
Data1 = Fackel.Tensor ([10,20,40,50])
Data2 = Taschenlampe.Tensor ([2,3,4,5])
Data3 = Torch.Tensor ([12,45,67,89])
Data4 = Taschenlampe.Tensor ([100,32,45,67])
Data5 = Fackel.Tensor ([120.456,1,1])
#Anzeige
print ("tatsächliche Tensoren:")
Druck (Daten1)
Druck (Daten2)
drucken (Daten3)
Druck (Daten4)
Druck (Daten5)
#join fünf Tensoren
Druck ("gemeinsam Tensor:", Torch.VStack ((Data1, Data2, Data3, Data4, Data5)))

Ausgang:

Tatsächliche Tensoren:
Tensor ([10, 20, 40, 50])
Tensor ([2, 3, 4, 5])
Tensor ([12, 45, 67, 89])
Tensor ([100, 32, 45, 67])
Tensor ([120, 456, 1, 1])
Tensor beigetragen: Tensor ([[10, 20, 40, 50],
[2, 3, 4, 5],
[12, 45, 67, 89],
[100, 32, 45, 67],
[120, 456, 1, 1]])

Fünf Tensoren werden vertikal verbunden.

Beispiel 3:

In diesem Beispiel werden wir fünf zweidimensionale Tensoren erstellen und sie mit der Taschenlampe vertikal verbinden.vstack () Funktion.

#import Fackelmodul
Taschenlampe importieren
#create 5 Tensoren mit jeweils 2 Dimensionen
Data1 = Fackel.Tensor ([[10,20,40,50], [1,2,3,4]])
Data2 = Taschenlampe.Tensor ([[2,3,4,5], [20,70,89,0]])
Data3 = Torch.Tensor ([[12,4,5,6], [56,34,56,787]])
Data4 = Taschenlampe.Tensor ([[100,1,2,3], [67,87,6,78]])
Data5 = Fackel.Tensor ([[120,33,56,78], [45,56,78,6]])
#Anzeige
print ("tatsächliche Tensoren:")
Druck (Daten1)
Druck (Daten2)
drucken (Daten3)
Druck (Daten4)
Druck (Daten5)
#join fünf Tensoren
Druck ("gemeinsam Tensor:", Torch.VStack ((Data1, Data2, Data3, Data4, Data5)))

Ausgang:

Tatsächliche Tensoren:
Tensor ([[10, 20, 40, 50],
[1, 2, 3, 4]])
Tensor ([[2, 3, 4, 5],
[20, 70, 89, 0]])
Tensor ([[12, 4, 5, 6],
[56, 34, 56, 787]])
Tensor ([[100, 1, 2, 3],
[67, 87, 6, 78]])
Tensor ([[120, 33, 56, 78],
[45, 56, 78, 6]])
Tensor beigetragen: Tensor ([[10, 20, 40, 50],
[1, 2, 3, 4],
[2, 3, 4, 5],
[20, 70, 89, 0],
[12, 4, 5, 6],
[56, 34, 56, 787],
[100, 1, 2, 3],
[67, 87, 6, 78],
[120, 33, 56, 78],
[45, 56, 78, 6]])

Fünf Tensoren werden vertikal verbunden.

Arbeiten Sie mit CPU

Wenn Sie eine vstack () -Funktion auf der CPU ausführen möchten, müssen wir einen Tensor mit einer CPU () -Funktion erstellen. Dies wird auf einer CPU -Maschine ausgeführt.

Wenn wir einen Tensor erstellen, können wir diesmal die Funktion cpu () verwenden.

Syntax:

Fackel.Tensor (Daten).Zentralprozessor()

Beispiel 1:

In diesem Beispiel werden wir zwei eindimensionale Tensoren auf der CPU erstellen und sie mit der Taschenlampe vertikal verbinden.vstack () Funktion.

#import Fackelmodul
Taschenlampe importieren
#Create 2 Tensoren
Data1 = Fackel.Tensor ([10,20,40,50]).Zentralprozessor()
Data2 = Taschenlampe.Tensor ([2,3,4,5]).Zentralprozessor()
#Anzeige
print ("tatsächliche Tensoren:")
Druck (Daten1)
Druck (Daten2)
#join zwei Tensoren
Druck ("gemeinsam Tensor:", Torch.vstack ((data1, data2)))

Ausgang:

Tatsächliche Tensoren:
Tensor ([10, 20, 40, 50])
Tensor ([2, 3, 4, 5])
Tensor beigetragen: Tensor ([[10, 20, 40, 50],
[2, 3, 4, 5]]))

Zwei Tensoren werden vertikal verbunden.

Beispiel 2:

In diesem Beispiel werden wir fünf dimensionale Tensoren an der CPU erstellen und sie mit der Taschenlampe vertikal verbinden.vstack () Funktion.

#import Fackelmodul
Taschenlampe importieren
#Create 5 Tensoren
Data1 = Fackel.Tensor ([10,20,40,50]).Zentralprozessor()
Data2 = Taschenlampe.Tensor ([2,3,4,5]).Zentralprozessor()
Data3 = Torch.Tensor ([12,45,67,89]).Zentralprozessor()
Data4 = Taschenlampe.Tensor ([100,32,45,67]).Zentralprozessor()
Data5 = Fackel.Tensor ([120.456,1,1]).Zentralprozessor()
#Anzeige
print ("tatsächliche Tensoren:")
Druck (Daten1)
Druck (Daten2)
drucken (Daten3)
Druck (Daten4)
Druck (Daten5)
#join fünf Tensoren
Druck ("gemeinsam Tensor:", Torch.VStack ((Data1, Data2, Data3, Data4, Data5)))

Ausgang:

Tatsächliche Tensoren:
Tensor ([10, 20, 40, 50])
Tensor ([2, 3, 4, 5])
Tensor ([12, 45, 67, 89])
Tensor ([100, 32, 45, 67])
Tensor ([120, 456, 1, 1])
Tensor beigetragen: Tensor ([[10, 20, 40, 50],
[2, 3, 4, 5],
[12, 45, 67, 89],
[100, 32, 45, 67],
[120, 456, 1, 1]])

Fünf Tensoren werden vertikal verbunden.

Beispiel 3:

In diesem Beispiel werden wir fünf zweidimensionale Tensoren an der CPU erstellen und sie mit der Taschenlampe vertikal verbinden.vstack () Funktion.

#import Fackelmodul
Taschenlampe importieren
#create 5 Tensoren mit jeweils 2 Dimensionen
Data1 = Fackel.Tensor ([[10,20,40,50], [1,2,3,4]]).Zentralprozessor()
Data2 = Taschenlampe.Tensor ([[2,3,4,5], [20,70,89,0]]).Zentralprozessor()
Data3 = Torch.Tensor ([[12,4,5,6], [56,34,56,787]]).Zentralprozessor()
Data4 = Taschenlampe.Tensor ([[100,1,2,3], [67,87,6,78]]).Zentralprozessor()
Data5 = Fackel.Tensor ([[120,33,56,78], [45,56,78,6]]).Zentralprozessor()
#Anzeige
print ("tatsächliche Tensoren:")
Druck (Daten1)
Druck (Daten2)
drucken (Daten3)
Druck (Daten4)
Druck (Daten5)
#join fünf Tensoren
Druck ("gemeinsam Tensor:", Torch.VStack ((Data1, Data2, Data3, Data4, Data5)))

Ausgang:

Tatsächliche Tensoren:
Tensor ([[10, 20, 40, 50],
[1, 2, 3, 4]])
Tensor ([[2, 3, 4, 5],
[20, 70, 89, 0]])
Tensor ([[12, 4, 5, 6],
[56, 34, 56, 787]])
Tensor ([[100, 1, 2, 3],
[67, 87, 6, 78]])
Tensor ([[120, 33, 56, 78],
[45, 56, 78, 6]])
Tensor beigetragen: Tensor ([[10, 20, 40, 50],
[1, 2, 3, 4],
[2, 3, 4, 5],
[20, 70, 89, 0],
[12, 4, 5, 6],
[56, 34, 56, 787],
[100, 1, 2, 3],
[67, 87, 6, 78],
[120, 33, 56, 78],
[45, 56, 78, 6]])

Fünf Tensoren werden vertikal verbunden.

Abschluss

Wir haben gelernt, wie man zwei oder mehr Tensoren vertikal in Pytorch mit der Funktion vstack () beitritt. In diesem Artikel haben wir die verschiedenen Beispiele implementiert, um einen und zweidimensionalen Tensoren beizutreten und die VStack () auf der CPU mit der Funktion cpu () implementieren zu können.