Amazon EC2 P3-Instances

Beschleunigen Sie Machine-Learning- und High-Performance-Computing-Anwendungen mit leistungsstarken GPUs

Warum Amazon-EC2-P3-Instances?

Amazon EC2 P3-Instances bieten High Performance Computing in der Cloud mit bis zu 8 NVIDIA® V100 Tensor Core GPUs und einem Netzwerkdurchsatz von bis zu 100 Gbit/s für Machine Learning- und HPC-Anwendungen. Diese Instances liefern bis zu einem Petaflop Mixed-Precision-Leistung pro Instance, um Machine Learning- und High Performance Computing-Anwendungen zu beschleunigen. Amazon EC2 P3-Instances verringern die Schulungszeiten für Machine Learning erwiesenermaßen von Tagen auf Minuten und verbessern die Zahl der abgeschlossenen Simulationen für High Performance Computing um das Drei- bis Vierfache.

Die neuesten Instances der P3-Serie sind die Amazon-EC2-P3dn.24xlarge-Instances mit einer Netzwerkbandbreite von bis zu einem Vierfachen der P3.16xlarge-Instances. Sie wurden für Anwendungen für verteiltes Machine Learning und HPC optimiert. Diese Instances bieten einen Netzwerkdurchsatz von bis zu 100 GBit/s, 96 angepasste und skalierbare Intel® Xeon® (Skylake)-vCPUs, 8 NVIDIA® V100-Tensor-Core-GPUs mit jeweils 32 GB Arbeitsspeicher und 1,8 TB lokalem, NVMe-basierten SSD-Speicher. P3dn.24xlarge-Instances unterstützen außerdem Elastic Fabric Adapter (EFA), das verteilte Machine-Learning-Anwendungen beschleunigt, wenn diese die NVIDIA Collective Communications Library (NCCL) verwenden. EFA lässt sich auf mehrere Tausend GPUs skalieren und ermöglicht so eine deutliche Steigerung von Durchsatz und Skalierbarkeit bei Deep-Learning-Trainingsmodellen, wodurch sich Ergebnisse schneller berechnen lassen.

Übersicht über Amazon-EC2-P3-Instances

Vorteile

Daten-Wissenschaftler, Forscher und Entwickler, die ML-Anwendungen beschleunigen müssen, helfen Amazon EC2 P3-Instances, denn es sind die schnellsten in der Cloud für ML-Schulung. Amazon EC2 P3-Instances besitzen bis zu acht NVIDIA Tensor Core V100-GPUs der neuesten Generation, die bis zu einem Petaflop Mixed-Precision-Leistung bieten und ML-Workloads erheblich beschleunigen. Ein schnelleres Modelltraining ermöglicht Datenwissenschaftlern und Machine-Learning-Ingenieuren schnellere Iterationen, Training von mehr Modellen und höhere Genauigkeit.

Eine der leistungsstärksten GPU-Instances in der Cloud kombiniert mit flexiblen Preismodellen in einer außergewöhnlich kosteneffizienten Lösung für die Schulung bei Machine Learning. P3-Instances sind, wie Amazon EC2-Instances allgemein, als On-Demand-Instances, Reserved Instances oder Spot-Instances verfügbar. Spot-Instances verwenden ungenutzte EC2-Instance-Kapazität und können Ihre Kosten für Amazon EC2 vergleichen mit On-Demand-Instances deutlich um bis zu 70 % senken.

Anders als Systeme On-Premise, bietet High Performance Computing auf Amazon EC2 P3-Instances nicht nur praktisch unbegrenzte Kapazität zum Skalieren Ihrer Infrastruktur, sondern auch die entsprechende Flexibilität, um Ressourcen problemlos und so oft zu ändern, wie Ihr Workload dies erfordert. Sie können Ihre Ressourcen so konfigurieren, dass Sie die Anforderungen Ihrer Anwendung erfüllen, und ein HPC-Cluster innerhalb von Minuten starten, wobei Sie nur für das bezahlen, was Sie nutzen.

Verwenden Sie die vorgepackten Docker-Images, um innerhalb von Minuten Deep-Learning-Umgebungen bereitzustellen. Die Images enthalten die erforderlichen Deep-Learning-Framework-Bibliotheken (aktuell TensorFlow und Apache MXNet) und Tools und sind voll getestet. Sie können leicht Ihre eigenen Bibliotheken und Tools hinzufügen, um Überwachung, Compliance und Datenverarbeitung genauer zu steuern. Darüber hinaus arbeiten Amazon EC2 P3-Instances optimal mit Amazon SageMaker zusammen und bieten so eine leistungsstarke und intuitive, umfassende Machine Learning-Plattform. Amazon SageMaker ist eine komplett verwaltete Machine Learning-Plattform, mit der Sie Machine-Learning-Modelle schnell und problemlos erstellen, trainieren und bereitstellen können. Außerdem können Amazon EC2 P3-Instances in Amazon-Systemabbild (Amazon Machine Images, AMIs) von AWS Deep Learning integriert werden, die bei beliebten Deep Learning-Frameworks vorinstalliert sind. Das beschleunigt und erleichtert den Einstieg in die Schulung und Inferenz bei Machine Learning.

Kundenempfehlungen

Hier sind einige Beispiele dafür, wie Kunden und Partner ihre Geschäftsziele mit Amazon-EC2-P3-Instances erreicht haben.

  • Airbnb

    Airbnb setzt Machine Learning ein, um Suchempfehlungen zu optimieren und die dynamische Preisgestaltung für die Gastgeber zu verbessern, was zu mehr Buchungen führt. Mit Amazon EC2 P3-Instances kann Airbnb Schulungs-Workloads schneller ausführen, mehr iterieren, bessere Modelle für das Machine Learning entwickeln und die Kosten senken.

  • Celgene

    Celgene ist ein globales Biotechnologieunternehmen, das gezielte Therapien entwickelt, die Behandlung auf den Patienten abstimmen. Das Unternehmen führt seine HPC-Workloads für die Genomsequenzierung und chemische Simulationen der nächsten Generation auf Amazon EC2 P3-Instances aus. Mit dieser Rechenleistung kann Celgene Deep Learning-Modelle schulen, um zwischen malignen und benignen Zellen zu unterscheiden. Vor der Verwendung von P3-Instances dauerte es zwei Monate, um umfangreiche Rechenaufgaben auszuführen. Jetzt dauert es nur noch vier Stunden. Dank der AWS-Technologie konnte Celgene die Entwicklung von Arzneimitteltherapien für Krebs und entzündliche Erkrankungen beschleunigen.

  • Hyperconnect

     

    Hyperconnect hat sich auf die Anwendung neuer auf Machine Learning basierenden Technologien in der Bild- und Videoverarbeitung spezialisiert. Es ist das erste Unternehmen, das webRTC für mobile Plattformen entwickelt.

    Vollständiges Fallbeispiel lesen

    Hyperconnect verwendet in seiner App für Videokommunikation eine KI-basierte Bildklassifizierung, um die aktuelle Umgebung zu analysieren, in der sich ein Benutzer befindet. Wir konnten die Schulungszeit des ML-Modells von über einer Woche auf weniger als einen Tag verkürzen. Die Migration von Workstations vor Ort zu mehreren Amazon EC2 P3-Instances mit Horovod machte es möglich. Durch die Verwendung von PyTorch als Machine-Learning-Framework konnten wir Modelle schnell entwickeln und Bibliotheken aus der Open-Source-Community einsetzen.

    Sungjoo Ha, Director of AI Lab, Hyperconnect
  • NerdWallet

    NerdWallet ist ein Startup für die private Finanzplanung, das Tools und Beratung anbietet, die Kunden helfen, Schulden zu bezahlen, die besten Finanzprodukte und -dienstleistungen zu wählen und wichtige Lebensziele wie den Kauf eines Hauses oder das Sparen für die Rente zu erreichen. Das Unternehmen verlässt sich umfassend auf Datenwissenschaft und Machine Learning (ML), um Kunden individuelle Finanzprodukte zu empfehlen.

    Die vollständige Fallstudie lesen

    Der Einsatz von Amazon SageMaker und Amazon EC2 P3-Instances mit NVIDIA V100 Core-GPUs hat die Flexibilität und Performance von NerdWallet verbessert. Darüber hinaus unterstützt sie Datenwissenschaftler, ML-Modelle schneller zu trainieren. Früher haben wir Monate gebraucht, um Modelle einzuführen und zu duplizieren. Heute brauchen wir dafür nur noch wenige Tage.

    Ryan Kirkman, Senior Engineering Manager - NerdWallet
  • PathWise Solutions Group

    Aons PathWise ist eine branchenführende cloudbasierte SaaS-Anwendung für Qualitätssysteme. Sie konzentriert sich auf das Risikomanagement für Unternehmen und überzeugt mit Geschwindigkeit, Zuverlässigkeit, Sicherheit und On-Demand-Service für diverse Kunden.

    Lesen Sie dieFallstudie

    Die Aon PathWise Solutions Group bietet eine Lösung für das Risikomanagement, mit deren Hilfe unsere Kunden anhand neuester Technologie die wichtigsten aktuellen Herausforderungen bei Versicherungen meistern. Hierzu zählen die Verwaltung und das Testen von Hedge-Strategien, die Vorhersage von Vorschriften sowie der wirtschaftlichen Entwicklung und die Finanzplanung. PathWise läuft seit 2011 in der Produktion auf AWS. Heute nutzt die Lösung Amazon-EC2-Instances, um die Berechnungen zu beschleunigen, die erforderlich sind, um die Herausforderungen unserer Kunden auf einem innovativen Markt weltweit zu meistern.

    Van Beach, globaler Leiter von Life Solutions, Strategie- und Technologiegruppe von Aon Pathwise
  • Pinterest

    Pinterest verwendet gemischtes Präzisionstraining in P3-Instances in AWS, um das Schulen von Deep Learning-Modellen zu beschleunigen, und verwendet diese Instances auch, um schneller auf diese Modelle schließen zu können und Benutzern eine schnelle und einzigartige Erkennungserfahrung zu ermöglichen. Pinterest verwendet PinSage, das mit PyTorch unter AWS erstellt wurde. Dieses KI-Modell gruppiert Bilder basierend auf bestimmten Themen. Mit 3 Milliarden Bildern auf der Plattform gibt es 18 Milliarden verschiedene Assoziationen, die Bilder verbinden. Diese Assoziationen helfen Pinterest dabei, Themen und Stile zu kontextualisieren und personalisierte Benutzererlebnisse zu erzielen.

  • Salesforce

     

    Salesforce nutzt Machine Learning für Einstein Vision und ermöglicht Entwicklern damit, die Leistung der Bilderkennung für Anwendungsfälle wie visuelle Suche, Markenerkennung und Produktidentifizierung zu nutzen. Amazon EC2 P3-Instances ermöglichen es Entwicklern, Deep-Learning-Modelle schneller zu trainieren, sodass sie ihre Machine-Learning-Ziele schnell erreichen.

  • Schrodinger

    Schrödinger nutzt High Performance Computing (HPC) zur Entwicklung von Vorhersagemodellen, um den Erkenntnis- und Optimierungsumfang zu erweitern und Kunden die Möglichkeit zu geben, lebensrettende Arzneimittel schneller auf den Markt zu bringen. Mit Amazon EC2 P3-Instances kann Schrodinger vier Mal so viele Simulationen an einem Tag durchführen wie mit P2-Instances.  

  • Subtle Medical

    Subtle Medical stellt Technologie für das Gesundheitswesen bereit. Das Unternehmen setzt sich dafür ein, die Effizienz der medizinischen Bildgebung sowie das Patientenerlebnis zu verbessern, indem es innovative Deep-Learning-Lösungen entwickelt. Das Team setzt sich aus angesehenen Wissenschaftlern, Radiologen und KI-Experten von Stanford, MIT und MD Anderson zusammen.

    Vollständiges Fallbeispiel lesen

    Krankenhäuser und Praxen für bildgebende Verfahren möchten diese Lösung integrieren, ohne ihre IT-Abteilungen in GPU zu schulen, teure Rechenzentren oder Mini-Clouds aufzubauen und zu warten. Sie wünschen sich eine erfolgreiche Bereitstellung mit möglichst geringem Aufwand und geringen Investitionen. AWS macht dies möglich.

    Enhao Gong, Gründer und CEO, Subtle Medical
  • Western Digital

    Western Digital nutzt HPC zur Durchführung zehntausender Simulationen für Materialwissenschaften, Wärmeströme, Magnetik und Datenübertragung, um die Leistung und Qualität von Festplatten- und Speicherlösungen zu verbessern. Durch frühzeitige Tests bieten P3-Instances Entwicklungsteams die Möglichkeit, Simulationen mindestens drei Mal schneller als mit älteren bereitgestellten Lösungen durchzuführen.  

Amazon-EC2-P3-Instances und Amazon SageMaker

Amazon SageMaker erleichtert die Erstellung von Machine Learning-Modellen und deren Vorbereitung auf die Schulung. Es bietet alles, was Sie benötigen, um eine schnelle Verbindung zu Ihren Schulungsdaten einzurichten und den besten Algorithmus und das beste Framework für Ihre Anwendung auszuwählen und zu optimieren. Amazon SageMaker beinhaltet gehostete Jupyter-Notebooks, mit denen Sie Ihre in Amazon S3 gespeicherten Trainingsdaten einfach sondieren und visualisieren können.  Sie können außerdem die Notebook-Instance zum Schreiben von Code verwenden, um Modell-Training-Jobs zu erstellen, Modelle auf Amazon SageMaker-Hosting bereitzustellen und Ihre Modelle zu testen oder zu validieren.

Sie können mit einem einzigen Klick in der Konsole oder mit einem API-Aufruf damit beginnen, Ihr Modell zu schulen. Zur Leistungsoptimierung mit NVIDIA-GPUs sind in Amazon SageMaker die aktuellen Versionen von TensorFlow und Apache MXNet sowie Unterstützung für CUDA9-Bibliotheken vorkonfiguriert. Außerdem kann Ihr Modell mit Hyperparameter-Optimierung durch eine intelligente Abstimmung verschiedener Kombinationen von Modellparametern automatisch angepasst werden, um möglichst genaue Vorhersagen zu erhalten. Bei umfangreicheren Anforderungen können Sie dutzende von Instances nutzen, um eine schnellere Modellerstellung zu unterstützen.

Nach der Schulung können Sie Ihr Modell mit einem Klick in verschiedenen Availability Zones auf sich automatisch skalierenden Amazon EC2-Instances bereitstellen. In der Produktion übernimmt Amazon SageMaker die Verwaltung der Datenverarbeitungsinfrastruktur (Zustandsprüfungen durchführen, Sicherheitspatches einspielen und andere routinemäßige Wartungsaufgaben). Dabei sind die Überwachungs- und Protokollierungsfunktionen von Amazon CloudWatch integriert.

Amazon-EC2-P3-Instances und AWS-Deep-Learning-AMIs

Vorkonfigurierte Entwicklungsumgebungen, um schnell mit dem Erstellen von Deep-Learning-Anwendungen beginnen zu können

Eine Alternative zu Amazon SageMaker für Entwickler mit einem größeren Anpassungsbedarf sind AWS-Deep-Learning-AMIs, die Machine-Learning-Nutzern und -Forschern die Infrastruktur und Tools bereitstellen, mit denen sich Deep Learning in der Cloud in beliebigem Maßstab beschleunigen lässt. Sie können schnell Amazon-EC2-P3-Instances mit vorinstallierten, gängigen Deep-Learning-Frameworks wie TensorFlow, PyTorch, Apache MXNet, Microsoft Cognitive Toolkit, Caffe, Caffe2, Theano, Torch, Chainer, Gluon und Keras starten, um komplexe, individuelle KI-Modelle zu trainieren, mit neuen Algorithmen zu experimentieren oder neue Fähigkeiten und Techniken zu lernen. Weitere Informationen

Amazon-EC2-P3-Instances und High Performance Computing

Lösen Sie umfangreiche Rechenprobleme, und erhalten Sie neue Einblicke mit der Leistung von HPC auf AWS

Amazon EC2 P3-Instances sind die ideale Plattform für technische Simulationen, Computational Finance, seismische Analysen, molekulare Modellierung, Genomik, Rendering und andere GPU-Rechen-Workloads. High Performance Computing (HPC) ermöglicht Wissenschaftlern und Technikern das Lösen dieser komplexen, rechenintensiven Probleme. HPC-Anwendungen benötigen häufig eine hohe Netzwerkleistung, schnelle Speicherung, viel Arbeitsspeicher, hohe Datenverarbeitungskapazitäten oder alles gleichzeitig. AWS ermöglicht Ihnen die Beschleunigung der Forschung und die Verkürzung der Ergebniszeit durch Ausführung von HPC in der Cloud und Skalieren auf eine größere Anzahl paralleler Aufgaben als in den meisten lokalen Umgebungen sinnvoll wäre. So unterstützen zum Beispiel die P3dn.24xlarge-Instances den Elastic Fabric Adapter (EFA), über den HPC-Anwendungen mithilfe des Message Passing Interface (MPI) auf mehrere Tausend GPUs skalieren können. AWS reduziert die Kosten durch die Bereitstellung von Lösungen, die für bestimmte Anwendungen optimiert sind, ohne dass große Kapitalinvestitionen erforderlich sind. Weitere Informationen

Support für NVIDIA RTX Virtual Workstation

NVIDIA RTX Virtual Workstation AMIs liefern hohe Grafikleistungen durch leistungsstarke P3-Instances mit NVIDIA Volta V100-Grafikprozessoren, die in der AWS-Cloud laufen. Auf diesen AMIs ist die neueste NVIDIA-GPU-Grafiksoftware vorinstalliert, zusammen mit den neuesten RTX-Treibern und NVIDIA-ISV-Zertifizierungen mit Unterstützung für bis zu vier 4K-Desktop-Auflösungen. P3-Instances mit NVIDIA-V100-GPUs in Kombination mit RTX vWS bieten eine Hochleistungs-Workstation in der Cloud mit bis zu 32 GB GPU-Speicher, schnellem Raytracing und KI-gestütztem Rendering.

Alle neuen AMIs sind im AWS Marketplace, mit Unterstützung für Windows Server 2016 und Windows Server 2019, erhältlich.

Amazon EC2 P3dn.24xlarge-Instances

Amazon-EC2-P3dn.24xlarge-Instances sind die schnellsten, leistungsfähigsten und größten P3-Instance-Größen auf dem Markt und bieten einen Netzwerkdurchsatz von bis zu 100 GBit/s, 8 NVIDIA® V100-Tensor-Core-GPUs mit jeweils 32 GB Arbeitsspeicher, 96 angepasste und skalierbare Intel® Xeon® (Skylake)-vCPUs, und 1,8 TB lokalem, NVMe-basierten SSD-Speicher. Die schnellere Vernetzung, neue Prozessoren, die Verdopplung des GPU-Speichers und zusätzliche vCPUs ermöglichen es Entwicklern, die Zeit für das Training ihrer ML-Modelle oder die Ausführung weiterer HPC-Simulationen deutlich zu verkürzen, indem sie ihre Aufträge über mehrere Instances (z.B. 16, 32 oder 64 Instances) hinweg aufskalieren. Für das Training von Machine-Learning-Modellen sind große Datenmengen erforderlich und zusätzlich zur Erhöhung des Datendurchsatzes zwischen Instances kann der zusätzliche Netzwerkdurchsatz von P3dn.24xlarge-Instances auch zur Beschleunigung beim Zugriff auf große Mengen Trainingssdaten verwendet werden, indem eine Verbindung mit Amazon S3 oder Lösungen mit gemeinsam genutzten Dateisystemen, wie Amazon EFS, hergestellt werden.

Mit einem Netzwerkdurchsatz von 100 Gbit/s können Entwickler eine große Anzahl an P3dn.24xlarge-Instances für das verteilte Training verwenden und die Trainingszeit ihrer Modelle deutlich verringern. Die Vorverarbeitung der Daten wird von den 96vCPUs des durch AWS angepassten Intel Skylake-Prozessors mit AVX-512-Befehlen, die mit 2,5 GHz betrieben werden, optimiert. Zusätzlich verwenden die P3dn.24xlarge-Instances das AWS Nitro System, eine Kombination aus dedizierter Hardware und schlankem Hypervisor, das praktisch alle Rechen- und Speicherressourcen der Host-Hardware für die Instances bereitstellt. P3dn.24xlarge-Instances unterstützen außerdem den Elastic Fabric Adapter, der es ML-Anwendungen erlaubt, mithilfe der NVIDIA Collective Communications Library (NCCL) auf Tausende GPUs skalieren zu können.

Ein verbessertes Netzwerk, das die aktuelle Version des Elastic Network Adapter mit bis zu 100 Gbit/s aggregierter Netzwerkbandbreite nutzt, kann nicht nur zur Datenfreigabe über mehrere P3dn.24xlarge-Instances, sondern auch für den Datenzugriff bei hohem Durchsatz über Amazon S3 oder Lösungen für gemeinsam genutzte Dateisysteme, wie Amazon EFS, genutzt werden. Datenzugriff bei hohem Durchsatz ist für die Optimierung der GPU-Nutzung und die Bereitstellung maximaler Leistung der Datenverarbeitungs-Instance wichtig.

P3dn.24xlarge-Instances bieten NVIDIA V100 Tensor Core GPUs mit 32 GB Speicher, mit denen Sie flexibel erweiterte und größere Machine-Learning-Modelle trainieren, sowie größere Datenstapel, wie 4K-Bilder für Bildklassifizierungs- und Objekterkennungssysteme verarbeiten können.

Amazon-EC2-P3-Instance – Produktdetails

Instance-Größe GPUs – Tesla V100 GPU-Peer-to-Peer GPU-Speicher (GB) vCPUs Speicher (GB) Netzwerkbandbreite EBS-Bandbreite On-Demand-Preis/Std.* 1 Jahr lang Reserved Instance pro Stunde* 3 Jahr lang Reserved Instance pro Stunde*
p3.2xlarge 1 16 8 61 Bis zu 10 GBit/s 1,5 Gbit/s 3,06 USD 1,99 USD 1,05 USD
p3.8xlarge 4
NVLink 64 32 244 10 GBit/s 7 GBit/s 12,24 USD 7,96 USD 4,19 USD
p3.16xlarge 8 NVLink 128 64 488 25 GBit/s 14 GBit/s 24,48 USD 15,91 USD 8,39 USD
p3dn.24xlarge 8 NVLink 256 96 768 100 GBit/s 19 GBit/s 31,218 USD 18,30 USD 9,64 USD

* - Die angegebenen Preise gelten für Linux/Unix in der AWS-Region USA Ost (Nord-Virginia) und wurden auf den nächsten Cent gerundet. Vollständige Preisdetails finden Sie auf der Seite der Amazon EC2-Preise.

Kunden können P3-Instances als On-Demand-Instances, Reserved Instances, Spot-Instances und Dedicated Hosts erwerben.

Sekundengenaue Abrechnung

Einer der vielen Vorteile des Cloud Computings besteht in der Elastizität der bedarfsabhängigen Bereitstellung und Rückgabe von Ressourcen. Durch eine sekundengenaue Abrechnung können Kunden zum Erreichen ihrer Machine Learning-Ziele ihre Elastizität angleichen, Geld sparen und ihre Ressourcenzuweisung optimieren.

Reserved Instances – Preise

Reserved Instances bieten im Vergleich zu den Preisen von On-Demand-Instances einen beträchtlichen Nachlass (bis zu 75 %). Wenn Reserved Instances einer bestimmten Availability Zone zugewiesen werden, stellen sie außerdem eine Kapazitätsreservierung bereit, sodass Sie Instances bei Bedarf problem- und bedenkenlos starten können.

Spot-Preise

Für die Dauer der Ausführung der Instances zahlen Sie bei Spot-Instances den bei der Anforderung angegebenen Spot-Preis. Die Preise für Spot-Instances werden von Amazon EC2 festgelegt und ändern sich schrittweise entsprechend der langfristigen Trends beim Angebot von und der Nachfrage nach Spot-Instance-Kapazitäten. Spot-Instances sind mit einem Rabatt von bis zu 90 % im Vergleich zum On-Demand-Preis verfügbar.

Umfassendste globale Verfügbarkeit

Globale Verfügbarkeit von P3-Instances

Amazon EC2 P3.2xlarge-, P3.8xlarge- and P3.16xlarge-Instances sind in 14 AWS-Regionen verfügbar, sodass Kunden ihre Machine Learning-Modelle überall dort schulen und bereitstellen können, wo ihre Daten gespeichert sind. Verfügbare AWS-Regionen für P3: USA Ost (Nord-Virginia), USA Ost (Ohio), USA West (Oregon), Kanada (Zentral), Europa (Irland), Europa (Frankfurt), Europa (London), Asien-Pazifik (Tokio), Asien-Pazifik (Seoul), Asien-Pazifik (Sydney), Asien-Pazifik (Singapur), China (Peking), China (Ningxia) und GovCloud (USA West).

P3dn.24xlarge-Instances sind in den AWS-Regionen Asien-Pazifik (Tokio), Europa (Irland), USA Ost (Nord-Virginia), USA West (Oregon) sowie GovCloud (USA West) und GovCloud (USA Ost) verfügbar.

Erste Schritte mit Amazon EC2 P3-Instances beim Machine Learning

Beginnen Sie innerhalb von Minuten und erfahren Sie mehr über Amazon SageMaker oder verwenden Sie das AWS-Deep-Learning-AMI, das auf gängigen Deep-Learning-Frameworks wie Caffe2 und MXNet vorinstalliert ist. Sie können alternativ auch das NVIDIA-AMI mit vorinstalliertem GPU-Treiber und CUDA-Toolkit verwenden.