DE
DE
Einloggen mini-cart 0
DE
DE
BlogKnowledge BaseDeveloper APIStatusCustomer Portal
uptime-SLA.webp
SLA mit 99,99 % Uptime
cost-savingv2.webp
50 % Kostenersparnis
EU-data.webp
EU-Datensouveränität
Support.webp
Persönlicher Support
G6-Instanzen – ein guter Ausgangspunkt für KI/ML

Unsere G6-Instanzen können mit 1–4 Nvidia L4-GPUs eingeführt werden und sind eine gute Wahl für Teams, die ihre ersten KI-/ML-Workloads entwickeln möchten.

Instance GPUs vCPU
 
Speicher
(GIB)
Speicherplatz
(GB)
Baseline
bandwidth
Burst
bandwidth
Private
Network
Preis pro Stunde* Preis pro Monat
LSW.G6.XLARGE 1 4 16 250 5 Gbps 15 Gbps 2.5 Gbps €0,6147 €403,88
LSW.G6.2XLARGE 1 8 32 450 5 Gbps 15 Gbps 2.5 Gbps €0,6988 €459,10
LSW.G6.4XLARGE 1 16 64 600 5 Gbps 15 Gbps 2.5 Gbps €0,8241 €541,45
LSW.G6.8XLARGE 1 32 128 900 5 Gbps 15 Gbps 2.5 Gbps €0,9653 €634,22
LSW.G6.16XLARGE 1 64 256 1800 5 Gbps 15 Gbps 2.5 Gbps €1,6281 €1069,65
LSW.GR6.4XLARGE 1 16 128 600 5 Gbps 15 Gbps 2.5 Gbps €0,7396 €485,92
LSW.GR6.8XLARGE 1 32 256 900 5 Gbps 15 Gbps 2.5 Gbps €1,1766 €773,05
LSW.G6.18XLARGE 2 72 288 1800 5 Gbps 15 Gbps 2.5 Gbps €1,8243 €1210,64
LSW.G6.12XLARGE 4 48 192 4200 5 Gbps 15 Gbps 2.5 Gbps €2,4699 €1622,00
LSW.G6.24XLARGE 4 96 384 4200 5 Gbps 15 Gbps 2.5 Gbps €3,2081 €2107,75
* Stundenpreis: Speicher wird pro Gigabyte-Stunde berechnet.
 


Mehr erfahren
 

Wie funktioniert die Bandbreite für G6-Instanzen?

Jedes Konto erhält monatlich 1 TB gebündelten Internetdatenverkehr, der auf alle Public Cloud-Instanzen verteilt wird. Eingehender Verkehr ist immer kostenlos, sodass Sie keine unerwarteten Kosten zu befürchten haben. Im Folgenden finden Sie eine Aufschlüsselung der Kosten für den Fall, dass Sie das monatliche Kontingent von 1 TB überschreiten:

Bandwidth  Quantity Price per TB Price per GB
  <1 Free tier Free tier
Outgoing >1.00 €2,20 €0,0022
  10 €1.90  €0.0019
  15 €1.50  €0.0015
  30 €1.36  €0.0014
  50 €1.20  €0.0012
  100 €1.00 €0.0010

 

Entwickelt für Teams wie Ihres

AI-ML.webp
AI- und ML-Ingenieure

Trainieren und betreiben Sie ML-Modelle wie ResNet-25M, RNNT-120M, GPT-6B, Mistral-7B

developers-startups.webp
Entwickler und Start-ups

Entwickeln, testen und implementieren Sie KI-Prototypen oder Inferenz-Workloads

graphic-3D.webp
Grafik- und 3D-Teams

Rendering, Game-Streaming, Echtzeit-CGI

remote-teams.webp
Remote-Teams/Virtuelle Workstations

GPU-gestützte Desktops für mehrere Benutzer

Vorteile von Leaseweb

flexibility.webp
Flexibilität

Fahren Sie Instanzen sofort hoch oder runter, um sie an Ihre Workloads anzupassen.

AWSv2.webp
AWS-kompatible APIs

Automatisieren Sie mit REST, CLI oder Terraform, vollständig EC2-kompatibel.

regional-availability.webp
Regionale Verfügbarkeit

Bereits live in den Niederlanden und Deutschland (EU-Compliance), USA und Kanada folgen bald.

service-monitoring.webp
Service-Monitoring

Automatische Überprüfungen, Status- und Warnmeldungen inklusive – ohne zusätzliche Kosten.

advanced-UI.webp
Erweiterte Schnittstelle

Verwalten Sie Netzwerke, Speicher, SSH, Firewalls und Backups mit Leichtigkeit.

transparent-flexible-billing.webp
Transparente und flexible Abrechnung

Klare Preise im Voraus mit stündlichen oder monatlichen Optionen.

usage-visibility.webp
Sichtbarkeit und Kontrolle der Nutzung

Umfassende Nutzungsinformationen und Ressourcenverwaltung über das Kundenportal.

EU-data-sovereignty.webp
EU-Datensouveränität

Sitz in Amsterdam, 100 % DSGVO-konform.

Starten Sie Ihre KI-Workloads auf unserer GPU-Cloud der Enterprise-Klasse

Starten Sie 1–4 NVIDIA L4-GPUs nach Bedarf mit vorhersehbarer Leistung, vollständiger EU-Datensouveränität und mit bis zu 50 % niedrigeren Kosten als bei Hyperscalern.

Anmelden

Frequently Asked Questions

Um loszulegen, müssen Sie zunächst ein Konto bei Leaseweb erstellen. Das heißt, dass Sie unseren Kundenverifizierungsprozess durchlaufen müssen, indem Sie eine einmalige Gebühr in Höhe von 1,00 € entrichten.

Sobald Ihr Konto eingerichtet ist, haben Sie sofortigen Zugriff auf unser Kundenportal und können von dort aus mit dem Starten von Instanzen beginnen.

GPUs auf G6-Instanzen sind vollständig für Ihre Workloads reserviert, während vCPUs gemeinsam genutzt werden. Diese Konfiguration bietet Ihnen kosteneffiziente Rechenleistung und gewährleistet gleichzeitig eine vorhersehbare GPU-Leistung.
Alle G6 Public Cloud-Instanzen werden durch ein SLA mit einer Verfügbarkeit von 99,99 % abgesichert, sodass Ihre Workloads zuverlässig laufen und Sie sich auf Ihre Arbeit konzentrieren können, statt sich um die Infrastruktur zu kümmern.
G6 eignet sich am besten für das Training von ML-Modellen und die LLM-Inferenz. Aufgrund der begrenzten GPU-Speicherkapazität wird ein umfangreiches LLM-Training nicht empfohlen.
G6-Instanzen unterstützen ML-Modelle wie ResNet-25M, RNNT-120M und kleinere LLMs wie GPT-6B, Mistral-7B oder andere kleinere LLMs mit bis zu einigen Milliarden Parametern.
Ja, auf Multi-GPU-G6-Instanzen läuft jede GPU unabhängig voneinander, sodass Sie mehrere Modelle oder Aufgaben gleichzeitig auf mehreren GPUs bereitstellen können, ohne dass diese sich gegenseitig beeinträchtigen.
Vollständig automatisierbar über REST-API, CLI oder Terraform, kompatibel mit AWS EC2.
Echtzeit-Kennzahlen, anpassbare Warnmeldungen und Nutzungs-Dashboards sind im Kundenportal verfügbar.
Integration von Snapshots, GRML und Acronis für robusten Datenschutz.
Ja, G6 unterstützt GPU-beschleunigtes Rendering, Game-Streaming, Bildverarbeitung und VDI für mehrere Benutzer.
Die API-Kompatibilität mit AWS EC2 und Terraform ermöglicht eine einfache Integration in Ihre bestehende Infrastruktur.
Nach oben blättern