Warum Amazon-EC2-P3-Instances?
Amazon EC2 P3-Instances bieten High Performance Computing in der Cloud mit bis zu 8 NVIDIA® V100 Tensor Core GPUs und einem Netzwerkdurchsatz von bis zu 100 Gbit/s für Machine Learning- und HPC-Anwendungen. Diese Instances liefern bis zu einem Petaflop Mixed-Precision-Leistung pro Instance, um Machine Learning- und High Performance Computing-Anwendungen zu beschleunigen. Amazon EC2 P3-Instances verringern die Schulungszeiten für Machine Learning erwiesenermaßen von Tagen auf Minuten und verbessern die Zahl der abgeschlossenen Simulationen für High Performance Computing um das Drei- bis Vierfache.
Die neuesten Instances der P3-Serie sind die Amazon-EC2-P3dn.24xlarge-Instances mit einer Netzwerkbandbreite von bis zu einem Vierfachen der P3.16xlarge-Instances. Sie wurden für Anwendungen für verteiltes Machine Learning und HPC optimiert. Diese Instances bieten einen Netzwerkdurchsatz von bis zu 100 GBit/s, 96 angepasste und skalierbare Intel® Xeon® (Skylake)-vCPUs, 8 NVIDIA® V100-Tensor-Core-GPUs mit jeweils 32 GB Arbeitsspeicher und 1,8 TB lokalem, NVMe-basierten SSD-Speicher. P3dn.24xlarge-Instances unterstützen außerdem Elastic Fabric Adapter (EFA), das verteilte Machine-Learning-Anwendungen beschleunigt, wenn diese die NVIDIA Collective Communications Library (NCCL) verwenden. EFA lässt sich auf mehrere Tausend GPUs skalieren und ermöglicht so eine deutliche Steigerung von Durchsatz und Skalierbarkeit bei Deep-Learning-Trainingsmodellen, wodurch sich Ergebnisse schneller berechnen lassen.
Übersicht über Amazon-EC2-P3-Instances
Vorteile
Kundenempfehlungen
Hier sind einige Beispiele dafür, wie Kunden und Partner ihre Geschäftsziele mit Amazon-EC2-P3-Instances erreicht haben.
-
Airbnb
Airbnb setzt Machine Learning ein, um Suchempfehlungen zu optimieren und die dynamische Preisgestaltung für die Gastgeber zu verbessern, was zu mehr Buchungen führt. Mit Amazon EC2 P3-Instances kann Airbnb Schulungs-Workloads schneller ausführen, mehr iterieren, bessere Modelle für das Machine Learning entwickeln und die Kosten senken.
-
Celgene
Celgene ist ein globales Biotechnologieunternehmen, das gezielte Therapien entwickelt, die Behandlung auf den Patienten abstimmen. Das Unternehmen führt seine HPC-Workloads für die Genomsequenzierung und chemische Simulationen der nächsten Generation auf Amazon EC2 P3-Instances aus. Mit dieser Rechenleistung kann Celgene Deep Learning-Modelle schulen, um zwischen malignen und benignen Zellen zu unterscheiden. Vor der Verwendung von P3-Instances dauerte es zwei Monate, um umfangreiche Rechenaufgaben auszuführen. Jetzt dauert es nur noch vier Stunden. Dank der AWS-Technologie konnte Celgene die Entwicklung von Arzneimitteltherapien für Krebs und entzündliche Erkrankungen beschleunigen.
-
Hyperconnect
Hyperconnect hat sich auf die Anwendung neuer auf Machine Learning basierenden Technologien in der Bild- und Videoverarbeitung spezialisiert. Es ist das erste Unternehmen, das webRTC für mobile Plattformen entwickelt.
-
NerdWallet
NerdWallet ist ein Startup für die private Finanzplanung, das Tools und Beratung anbietet, die Kunden helfen, Schulden zu bezahlen, die besten Finanzprodukte und -dienstleistungen zu wählen und wichtige Lebensziele wie den Kauf eines Hauses oder das Sparen für die Rente zu erreichen. Das Unternehmen verlässt sich umfassend auf Datenwissenschaft und Machine Learning (ML), um Kunden individuelle Finanzprodukte zu empfehlen.
-
PathWise Solutions Group
Aons PathWise ist eine branchenführende cloudbasierte SaaS-Anwendung für Qualitätssysteme. Sie konzentriert sich auf das Risikomanagement für Unternehmen und überzeugt mit Geschwindigkeit, Zuverlässigkeit, Sicherheit und On-Demand-Service für diverse Kunden.
-
Pinterest
Pinterest verwendet gemischtes Präzisionstraining in P3-Instances in AWS, um das Schulen von Deep Learning-Modellen zu beschleunigen, und verwendet diese Instances auch, um schneller auf diese Modelle schließen zu können und Benutzern eine schnelle und einzigartige Erkennungserfahrung zu ermöglichen. Pinterest verwendet PinSage, das mit PyTorch unter AWS erstellt wurde. Dieses KI-Modell gruppiert Bilder basierend auf bestimmten Themen. Mit 3 Milliarden Bildern auf der Plattform gibt es 18 Milliarden verschiedene Assoziationen, die Bilder verbinden. Diese Assoziationen helfen Pinterest dabei, Themen und Stile zu kontextualisieren und personalisierte Benutzererlebnisse zu erzielen.
-
Salesforce
Salesforce nutzt Machine Learning für Einstein Vision und ermöglicht Entwicklern damit, die Leistung der Bilderkennung für Anwendungsfälle wie visuelle Suche, Markenerkennung und Produktidentifizierung zu nutzen. Amazon EC2 P3-Instances ermöglichen es Entwicklern, Deep-Learning-Modelle schneller zu trainieren, sodass sie ihre Machine-Learning-Ziele schnell erreichen.
-
Schrodinger
Schrödinger nutzt High Performance Computing (HPC) zur Entwicklung von Vorhersagemodellen, um den Erkenntnis- und Optimierungsumfang zu erweitern und Kunden die Möglichkeit zu geben, lebensrettende Arzneimittel schneller auf den Markt zu bringen. Mit Amazon EC2 P3-Instances kann Schrodinger vier Mal so viele Simulationen an einem Tag durchführen wie mit P2-Instances.
-
Subtle Medical
Subtle Medical stellt Technologie für das Gesundheitswesen bereit. Das Unternehmen setzt sich dafür ein, die Effizienz der medizinischen Bildgebung sowie das Patientenerlebnis zu verbessern, indem es innovative Deep-Learning-Lösungen entwickelt. Das Team setzt sich aus angesehenen Wissenschaftlern, Radiologen und KI-Experten von Stanford, MIT und MD Anderson zusammen.
-
Western Digital
Western Digital nutzt HPC zur Durchführung zehntausender Simulationen für Materialwissenschaften, Wärmeströme, Magnetik und Datenübertragung, um die Leistung und Qualität von Festplatten- und Speicherlösungen zu verbessern. Durch frühzeitige Tests bieten P3-Instances Entwicklungsteams die Möglichkeit, Simulationen mindestens drei Mal schneller als mit älteren bereitgestellten Lösungen durchzuführen.
Amazon-EC2-P3-Instances und Amazon SageMaker
Amazon-EC2-P3-Instances und AWS-Deep-Learning-AMIs
Vorkonfigurierte Entwicklungsumgebungen, um schnell mit dem Erstellen von Deep-Learning-Anwendungen beginnen zu können
Eine Alternative zu Amazon SageMaker für Entwickler mit einem größeren Anpassungsbedarf sind AWS-Deep-Learning-AMIs, die Machine-Learning-Nutzern und -Forschern die Infrastruktur und Tools bereitstellen, mit denen sich Deep Learning in der Cloud in beliebigem Maßstab beschleunigen lässt. Sie können schnell Amazon-EC2-P3-Instances mit vorinstallierten, gängigen Deep-Learning-Frameworks wie TensorFlow, PyTorch, Apache MXNet, Microsoft Cognitive Toolkit, Caffe, Caffe2, Theano, Torch, Chainer, Gluon und Keras starten, um komplexe, individuelle KI-Modelle zu trainieren, mit neuen Algorithmen zu experimentieren oder neue Fähigkeiten und Techniken zu lernen. Weitere Informationen
Amazon-EC2-P3-Instances und High Performance Computing
Lösen Sie umfangreiche Rechenprobleme, und erhalten Sie neue Einblicke mit der Leistung von HPC auf AWS
Amazon EC2 P3-Instances sind die ideale Plattform für technische Simulationen, Computational Finance, seismische Analysen, molekulare Modellierung, Genomik, Rendering und andere GPU-Rechen-Workloads. High Performance Computing (HPC) ermöglicht Wissenschaftlern und Technikern das Lösen dieser komplexen, rechenintensiven Probleme. HPC-Anwendungen benötigen häufig eine hohe Netzwerkleistung, schnelle Speicherung, viel Arbeitsspeicher, hohe Datenverarbeitungskapazitäten oder alles gleichzeitig. AWS ermöglicht Ihnen die Beschleunigung der Forschung und die Verkürzung der Ergebniszeit durch Ausführung von HPC in der Cloud und Skalieren auf eine größere Anzahl paralleler Aufgaben als in den meisten lokalen Umgebungen sinnvoll wäre. So unterstützen zum Beispiel die P3dn.24xlarge-Instances den Elastic Fabric Adapter (EFA), über den HPC-Anwendungen mithilfe des Message Passing Interface (MPI) auf mehrere Tausend GPUs skalieren können. AWS reduziert die Kosten durch die Bereitstellung von Lösungen, die für bestimmte Anwendungen optimiert sind, ohne dass große Kapitalinvestitionen erforderlich sind. Weitere Informationen
Support für NVIDIA RTX Virtual Workstation
NVIDIA RTX Virtual Workstation AMIs liefern hohe Grafikleistungen durch leistungsstarke P3-Instances mit NVIDIA Volta V100-Grafikprozessoren, die in der AWS-Cloud laufen. Auf diesen AMIs ist die neueste NVIDIA-GPU-Grafiksoftware vorinstalliert, zusammen mit den neuesten RTX-Treibern und NVIDIA-ISV-Zertifizierungen mit Unterstützung für bis zu vier 4K-Desktop-Auflösungen. P3-Instances mit NVIDIA-V100-GPUs in Kombination mit RTX vWS bieten eine Hochleistungs-Workstation in der Cloud mit bis zu 32 GB GPU-Speicher, schnellem Raytracing und KI-gestütztem Rendering.
Alle neuen AMIs sind im AWS Marketplace, mit Unterstützung für Windows Server 2016 und Windows Server 2019, erhältlich.
Amazon EC2 P3dn.24xlarge-Instances
Amazon-EC2-P3-Instance – Produktdetails
Instance-Größe | GPUs – Tesla V100 | GPU-Peer-to-Peer | GPU-Speicher (GB) | vCPUs | Speicher (GB) | Netzwerkbandbreite | EBS-Bandbreite | On-Demand-Preis/Std.* | 1 Jahr lang Reserved Instance pro Stunde* | 3 Jahr lang Reserved Instance pro Stunde* |
---|---|---|---|---|---|---|---|---|---|---|
p3.2xlarge | 1 | – | 16 | 8 | 61 | Bis zu 10 GBit/s | 1,5 Gbit/s | 3,06 USD | 1,99 USD | 1,05 USD |
p3.8xlarge | 4 |
NVLink | 64 | 32 | 244 | 10 GBit/s | 7 GBit/s | 12,24 USD | 7,96 USD | 4,19 USD |
p3.16xlarge | 8 | NVLink | 128 | 64 | 488 | 25 GBit/s | 14 GBit/s | 24,48 USD | 15,91 USD | 8,39 USD |
p3dn.24xlarge | 8 | NVLink | 256 | 96 | 768 | 100 GBit/s | 19 GBit/s | 31,218 USD | 18,30 USD | 9,64 USD |
* - Die angegebenen Preise gelten für Linux/Unix in der AWS-Region USA Ost (Nord-Virginia) und wurden auf den nächsten Cent gerundet. Vollständige Preisdetails finden Sie auf der Seite der Amazon EC2-Preise.
Kunden können P3-Instances als On-Demand-Instances, Reserved Instances, Spot-Instances und Dedicated Hosts erwerben.
Sekundengenaue Abrechnung
Einer der vielen Vorteile des Cloud Computings besteht in der Elastizität der bedarfsabhängigen Bereitstellung und Rückgabe von Ressourcen. Durch eine sekundengenaue Abrechnung können Kunden zum Erreichen ihrer Machine Learning-Ziele ihre Elastizität angleichen, Geld sparen und ihre Ressourcenzuweisung optimieren.
Reserved Instances – Preise
Reserved Instances bieten im Vergleich zu den Preisen von On-Demand-Instances einen beträchtlichen Nachlass (bis zu 75 %). Wenn Reserved Instances einer bestimmten Availability Zone zugewiesen werden, stellen sie außerdem eine Kapazitätsreservierung bereit, sodass Sie Instances bei Bedarf problem- und bedenkenlos starten können.
Spot-Preise
Für die Dauer der Ausführung der Instances zahlen Sie bei Spot-Instances den bei der Anforderung angegebenen Spot-Preis. Die Preise für Spot-Instances werden von Amazon EC2 festgelegt und ändern sich schrittweise entsprechend der langfristigen Trends beim Angebot von und der Nachfrage nach Spot-Instance-Kapazitäten. Spot-Instances sind mit einem Rabatt von bis zu 90 % im Vergleich zum On-Demand-Preis verfügbar.
Umfassendste globale Verfügbarkeit
Amazon EC2 P3.2xlarge-, P3.8xlarge- and P3.16xlarge-Instances sind in 14 AWS-Regionen verfügbar, sodass Kunden ihre Machine Learning-Modelle überall dort schulen und bereitstellen können, wo ihre Daten gespeichert sind. Verfügbare AWS-Regionen für P3: USA Ost (Nord-Virginia), USA Ost (Ohio), USA West (Oregon), Kanada (Zentral), Europa (Irland), Europa (Frankfurt), Europa (London), Asien-Pazifik (Tokio), Asien-Pazifik (Seoul), Asien-Pazifik (Sydney), Asien-Pazifik (Singapur), China (Peking), China (Ningxia) und GovCloud (USA West).
P3dn.24xlarge-Instances sind in den AWS-Regionen Asien-Pazifik (Tokio), Europa (Irland), USA Ost (Nord-Virginia), USA West (Oregon) sowie GovCloud (USA West) und GovCloud (USA Ost) verfügbar.
Erste Schritte mit Amazon EC2 P3-Instances beim Machine Learning
Beginnen Sie innerhalb von Minuten und erfahren Sie mehr über Amazon SageMaker oder verwenden Sie das AWS-Deep-Learning-AMI, das auf gängigen Deep-Learning-Frameworks wie Caffe2 und MXNet vorinstalliert ist. Sie können alternativ auch das NVIDIA-AMI mit vorinstalliertem GPU-Treiber und CUDA-Toolkit verwenden.