Allgemeines

Übersicht

F: Was ist Amazon Elastic Compute Cloud (Amazon EC2)?

Amazon EC2 stellt skalierbare Rechenkapazitäten in der Cloud bereit. Der Service ist darauf ausgelegt, Web-Scale-Computing für Entwickler zu vereinfachen.

F: Was kann ich mit Amazon EC2 tun?

So wie Amazon Simple Storage Service (Amazon S3) die Speicherung in der Cloud ermöglicht, ermöglicht Amazon EC2 die Datenverarbeitung in der Cloud.  Über die einfache Webservice-Schnittstelle von Amazon EC2 können Sie Kapazitäten mit minimalem Aufwand abrufen und konfigurieren. Sie ermöglicht Ihnen die vollständige Kontrolle über Ihre Rechenressourcen sowie die Ausführung in der bewährten Rechenumgebung von Amazon. Amazon EC2 verkürzt die zum Buchen und Hochfahren neuer Server-Instances benötigte Zeit auf wenige Minuten. So können Sie die Kapazität entsprechend den Änderungen Ihrer Datenverarbeitungsanforderungen schnell wie gewünscht anpassen. Indem Sie nur für die Kapazität zahlen, die Sie auch tatsächlich nutzen, verändert Amazon EC2 die wirtschaftlichen Rahmenbedingungen von Rechenoperationen.

F: Was sind die ersten Schritte mit Amazon EC2?

Um sich für Amazon EC2 anzumelden, klicken Sie auf der Amazon-EC2-Detailseite auf die Schaltfläche „Für diesen Webservice anmelden“. Sie benötigen ein AWS-Konto, um auf diesen Service zugreifen zu können. Wenn Sie noch nicht über eines verfügen, werden Sie zu Beginn des Amazon-EC2-Anmeldevorgangs aufgefordert, eines zu erstellen. Lesen Sie nach der Anmeldung die Amazon-EC2-Dokumentation, die auch den Leitfaden für die ersten Schritte enthält.

F: Weshalb muss ich bei der Registrierung für Amazon EC2 meine Telefonnummer überprüfen lassen?

Zur Registrierung für Amazon EC2 sind eine gültige Telefonnummer und eine gültige E-Mail-Adresse in der AWS-Datenbank erforderlich, falls wir Sie direkt kontaktieren müssen. Die Überprüfung der Telefonnummer dauert nur wenige Minuten. Hierfür müssen Sie während der Registrierung einen Telefonanruf entgegennehmen und eine PIN über das Tastenfeld des Telefons eingeben.

F: Welche neuen Funktionen stehen Entwicklern zur Verfügung?

Bislang verfügten kleine Entwickler nicht über das Kapital, um erhebliche Computing-Ressourcen zu erwerben und somit sicherzustellen, dass sie über die benötigte Kapazität für unerwartete Spitzenlasten verfügen. Amazon EC2 hilft Entwicklern, die Amazon-Vorteile einer massiven Skalierung ohne Vorabinvestitionen oder Leistungseinbußen zu nutzen. Entwickler können sich nun ganz auf ihre Innovationen konzentrieren und sich dabei sicher sein, dass es ganz unabhängig von ihrem Geschäftserfolg weder teuer noch kompliziert sein wird, die benötigte Rechenkapazität zur Erlangung der Geschäftsanforderungen bereitzustellen.

Die Flexibilität dieses Service ermöglicht es Entwicklern, unmittelbar durch die Skalierung auf Datenverkehrsspitzen oder hohe Anforderungen zu reagieren. Wenn sich die Rechenanforderungen unerwartet ändern (nach oben oder nach unten), kann Amazon EC2 ohne Verzögerung reagieren. Entwickler können somit kontrollieren, wie viele Ressourcen zu einem bestimmten Zeitpunkt verwendet werden. Im Gegensatz dazu verfügen herkömmliche Hosting-Services im Allgemeinen über eine feste Ressourcenanzahl für eine festgelegte Zeitspanne. Die Benutzer haben somit weniger Möglichkeiten, einfach auf sich schnell ändernde und unvorhersehbare Auslastungen zu reagieren oder sich darauf einzustellen, dass der Erfahrung nach in bestimmten Intervallen Auslastungsspitzen erreicht werden.

F: Wie führe ich Systeme in der Amazon EC2-Umgebung aus?

Nachdem Sie Ihr Konto eingerichtet und Ihre AMIs ausgewählt oder erstellt haben, haben Sie alle Vorbereitungen für das Booten Ihrer Instance getroffen. Sie können das AMI auf einer beliebigen Anzahl von On-Demand-Instances starten, indem Sie die API "RunInstances" verwenden. Sie müssen lediglich angeben, wie viele Instances Sie starten möchten. Wenn Sie mehr Instances ausführen möchten, als Ihr On-Demand-Kontingent umfasst, füllen Sie das Antragsformular für Amazon-EC2-Instances aus.

Wenn Amazon EC2 Ihrer Anforderung nachkommen kann, meldet RunInstances Erfolg. Anschließend werden Ihre Instances gestartet. Sie können den Status Ihrer Instances über den API DescribeInstances überprüfen. Sie können auch eine beliebige Anzahl von Instances mit dem API TerminateInstances programmatisch terminieren.

Wenn Sie eine Instance mit einer Amazon EBS Boot-Partition ausführen, können Sie auch die API StopInstances verwenden, um die Rechenressourcen freizugeben und dabei die Daten auf der Boot-Partition zu belassen. Sie können die API StartInstances verwenden, wenn Sie für den Neustart der verbundenen Instance mit der Amazon EBS Boot Partition bereit sind.

Darüber hinaus haben Sie die Möglichkeit, mit Spot-Instances die Datenverarbeitungskosten zu senken, wenn Sie bei der Ausführung Ihrer Anwendungen zeitlich flexibel sind. Weitere Informationen zu Spot-Instances und deren Funktionsweise finden Sie unter Spot-Instances.

Sie können diese Aktionen auch über die AWS Management Console oder die Befehlszeile und unsere Befehlszeilen-Tools ausführen, die in der Web-Service-API integriert sind.

F: Welcher Unterschied besteht zwischen der Verwendung eines lokalen Instance-Speichers und der Verwendung von Amazon Elastic Block Store (Amazon EBS) für das Root-Gerät?

Beim Start Ihrer Amazon EC2-Instances haben Sie die Möglichkeit, die Daten von Ihrem Root-Gerät auf Amazon EBS oder im lokalen Instance-Speicher zu speichern. Durch Amazon EBS bleiben die Daten auf dem Root-Gerät unabhängig von der Lebensdauer der Instance bestehen. Auf diese Weise können Sie die Instance anhalten und anschließend wieder neu starten. Das ist vergleichbar mit einem Laptop, den Sie herunterfahren und neu starten, wenn Sie ihn wieder benötigen.

Im Vergleich dazu bleibt der lokale Instance-Speicher nur während der Lebensdauer der Instance bestehen. So können Sie Instances kostengünstig starten, wenn keine Daten auf dem Root-Gerät gespeichert sind. Einige Kunden verwenden diese Option beispielsweise, um große Websites auszuführen, bei denen jede Instance ein Klon für die Handhabung des Web-Datenverkehrs ist.

F: Wie schnell können Systeme ausgeführt werden?

Es dauert normalerweise nicht länger als zehn Minuten vom RunInstances-Aufruf bis zu dem Zeitpunkt, an dem alle angeforderten Instances mit der Boot-Sequenz beginnen. Die Dauer hängt von verschiedenen Faktoren ab, zum Beispiel von der Größe des AMI, der Anzahl der gestarteten Instances und wann dieses AMI zuletzt gestartet wurde. Bei Images, die zum ersten Mal gestartet werden, kann der Boot-Vorgang etwas länger dauern.  

F: Wie lade und speichere ich meine Systeme mit Amazon EC2?

Mit Amazon EC2 können Sie alle Aspekte Ihrer Instances vom Betriebssystem bis zu Ihren Anwendungen einrichten und konfigurieren. Amazon Machine Image (AMI) ist eine einfache paketierte Umgebung, die alles Erforderliche für das Einrichten und Booten Ihrer Instance beinhaltet. Ihre AMIs sind Ihre Bereitstellungseinheit. Möglicherweise haben Sie nur ein AMI oder Sie stellen Ihr System aus mehreren Bausteinblock-AMIs (z. B. Webserver, Appserver und Datenbanken) zusammen. Amazon EC2 bietet mehrere Tools, mit denen das Erstellen eines AMI ganz einfach ist. Wenn Sie ein benutzerdefiniertes AMI erstellen, müssen Sie es bündeln. Für das Bündeln eines Images mit einem Root-Gerät, das von Amazon EBS gestützt wird, können Sie einfach den Bündelbefehl in der AWS Management Console verwenden. Wenn Sie ein Image mit einer Boot-Partition auf dem Instance-Speicher bündeln, müssen Sie zum Hochladen in Amazon S3 die AMI-Tools verwenden. Amazon EC2 verwendet Amazon EBS und Amazon S3, um eine zuverlässige, skalierbare Speicherung Ihrer AMIs zu bieten, damit sie bei Bedarf gebootet werden können.

Wenn Sie möchten, müssen Sie Ihr eigenes AMI nicht von Anfang an selbst einrichten. Sie können ein AMI aus vielen verschiedenen global verfügbaren AMIs auswählen, die nützliche Instances bieten. Wenn Sie beispielsweise nur einen einfachen Linux-Server wünschen, können Sie eines der Standard-AMIs für die Linux-Verteilung auswählen.

F: Wie greife ich auf meine Systeme zu?

Der RunInstances-Aufruf, mit dem die Ausführung Ihrer Anwendungen eingeleitet wird, gibt eine Gruppe von DNS-Namen zurück, von denen jeder für ein System steht, das gerade gebootet wird. Mit diesem Namen können Sie auf das System so zugreifen, als befände es sich in Ihrem eigenen Rechenzentrum. Sie sind im Besitz dieses Rechners während Ihre Betriebssystemgruppe darauf ausgeführt wird.

F: Wird Amazon EC2 zusammen mit Amazon S3 eingesetzt?

Ja, Amazon EC2 wird gemeinsam mit Amazon S3 für Instances mit Root-Geräten verwendet, die von einem lokalem Instance-Speicher gestützt werden. Mit Amazon S3 haben Entwickler Zugriff auf dieselbe äußerst skalierbare, zuverlässige, schnelle und erschwingliche Datenspeicher-Infrastruktur, die Amazon zum Ausführen seines eigenen globalen Website-Netzwerks verwendet. Zum Ausführen von Systemen in der Amazon EC2-Umgebung verwenden Entwickler die bereitgestellten Tools, um ihre AMIs in Amazon S3 zu laden und zwischen Amazon S3 und Amazon EC2 zu verschieben. Unter Wie lade und speichere ich meine Systeme mit Amazon EC2? finden Sie weitere Informationen zu AMIs.

Es ist davon auszugehen, dass Entwickler die Kombination aus Amazon EC2 und Amazon S3 als sehr nützlich empfinden. Amazon EC2 ermöglicht günstige, skalierbare Rechenvorgänge in der Cloud, während Amazon S3 den Benutzern das zuverlässige Speichern ihrer Daten ermöglicht.

F: Wie viele Instances kann ich mit Amazon EC2 ausführen?

Sie können On-Demand-Instances bis zu Ihrem vCPU-basierten On-Demand-Instance-Limit ausführen, 20 Reserved Instances kaufen und Spot Instances entsprechend Ihrem dynamischen Spot-Limit pro Region anfordern. Für neue AWS-Konten gelten ggf. niedrigere Limits als hier beschrieben.

Falls Sie weitere Instances benötigen, füllen Sie das Antragsformular für die Limitanhebung von Amazon EC2 aus und geben Sie den Anwendungsfall an. Ihre Limitanhebung wird dann geprüft. Die Anhebung der Limits ist von der Region abhängig, für die sie angefordert wurde.

F: Gibt es Einschränkungen in Bezug auf das Senden von E-Mails über Amazon EC2-Instances?

Ja. Damit wir die Qualität der Amazon EC2-Adressen zum Senden von E-Mails aufrechterhalten, beschränken wir die Anzahl der E-Mails, die von EC2-Konten gesendet werden können. Wenn Sie größere Mengen E-Mails über EC2 senden möchten, können Sie die Aufhebung der Limits für Ihr Konto beantragen, indem Sie dieses Formular ausfüllen.

F: Wie schnell kann ich die Kapazität nach oben oder nach unten skalieren?

Amazon EC2 bietet eine absolut flexible Rechenumgebung. Amazon EC2 ermöglicht Ihnen das Erhöhen oder Verringern der Kapazität innerhalb von Minuten, nicht Stunden oder Tagen. Sie können eine, Hunderte oder sogar Tausende Server-Instances gleichzeitig in Betrieb nehmen. Wenn Sie weitere Instances benötigen, rufen Sie einfach "RunInstances" auf, und Amazon EC2 richtet Ihre neuen Instances üblicherweise in wenigen Minuten ein. Natürlich kann sich Ihre Anwendung selbständig, dank der Steuerung über die Webservice-APIs, je nach Anforderung automatisch nach oben oder nach unten skalieren.

F: Welche Betriebssystemumgebungen werden unterstützt?

Amazon EC2 unterstützt derzeit die folgenden Betriebssysteme: Amazon Linux, Ubuntu, Windows Server, Red Hat Enterprise Linux, SUSE Linux Enterprise Server, openSUSE Leap, Fedora, Fedora CoreOS, Debian, CentOS, Gentoo Linux, Oracle Linux und FreeBSD. Aktuell wird daran gearbeitet, den Service auf weitere Plattformen zu erweitern.

F: Nutzt Amazon EC2 ECC-Speicher?

Unserer Erfahrung nach ist ECC-Speicher für die Serverinfrastruktur erforderlich und die gesamte Hardware für Amazon EC2 nutzt ECC-Speicher.

F: Wie unterscheidet sich dieser Service von einem reinen Hosting-Service?

Herkömmliche Hosting-Services bieten normalerweise eine vorkonfigurierte Ressource, die für einen festgelegten Zeitraum und zu festgelegten Kosten bereitgestellt wird. Amazon EC2 unterscheidet sich grundlegend durch seine Flexibilität, Kontrolle und erheblichen Kosteneinsparungen für die Entwickler. Sie können Amazon EC2 als eigenes persönliches Rechenzentrum betrachten und dabei die Vorteile der robusten Infrastruktur von Amazon.com nutzen.

Wenn sich die Rechenanforderungen unerwartet ändern (nach oben oder nach unten), kann Amazon EC2 ohne Verzögerung reagieren. Entwickler können somit kontrollieren, wie viele Ressourcen zu einem bestimmten Zeitpunkt verwendet werden. Im Gegensatz dazu verfügen herkömmliche Hosting-Services im Allgemeinen über eine feste Ressourcenanzahl für eine festgelegte Zeitspanne. Die Benutzer haben somit weniger Möglichkeiten, einfach auf sich schnell ändernde und unvorhersehbare Auslastungen zu reagieren oder sich darauf einzustellen, dass der Erfahrung nach in bestimmten Intervallen Auslastungsspitzen erreicht werden.

Zweitens ermöglichen viele Hosting-Services keine vollständige Kontrolle über die bereitgestellten Rechenressourcen. Mit Amazon EC2 können Entwickler nicht einfach nur entscheiden, wann Instanzen eingeleitet oder heruntergefahren werden, sondern sie können die Konfiguration ihrer Instanzen vollständig entsprechend ihren Anforderungen anpassen und diese Konfiguration zu jeder Zeit ändern. Viele Hosting-Services decken eher Benutzergruppen mit ähnlichen Systemanforderungen ab und bieten daher nur eingeschränkte Änderungsmöglichkeiten.

Des Weiteren haben Entwickler mit Amazon EC2 den Vorteil, dass sie nur für ihre tatsächliche Ressourcennutzung zahlen, und zwar zu äußerst niedrigen Tarifen. Bei den meisten Hosting-Services müssen die Nutzer eine feste, im Voraus zu zahlende Gebühr entrichten, unabhängig von der tatsächlich genutzten Rechenleistung, so dass die Benutzer Gefahr laufen, zu viele Ressourcen zu kaufen, um die Unfähigkeit zu kompensieren, die Ressourcen innerhalb eines kurzen Zeitraums hoch zu skalieren. 

On-Demand-Instance-Limits für EC2

F: Was ändert sich?

Amazon EC2 ändert sein System für On-Demand-Instance-Limits. Bisher waren die Limits anzahlbasiert; nun sind sie vCPU-basiert. Dies soll die Verwaltung der Limits für AWS-Kunden vereinfachen. Die Erreichung des vCPU-basierten Limits wird anhand der Anzahl von vCPUs (Virtual Central Processing Units) für die Amazon EC2-Instance-Typen gemessen, sodass beliebige Instance-Typ-Kombinationen für die Erfüllung Ihrer Anwendungsanforderungen genutzt werden können.

F: Was sind vCPU-basierte Limits?

Sie können eine oder mehrere On-Demand-Instances in einem AWS-Konto ausführen. Amazon EC2 misst die Erreichung der Limits basierend auf der Gesamtanzahl von vCPUs (Virtual Central Processing Units), die für die Ausführung von On-Demand-Instances in Ihrem AWS-Konto zugewiesen sind. Die folgende Tabelle zeigt die Anzahl von vCPUs für jede Instance-Größe an. Die vCPU-Zuordnung kann sich bei einigen Instance-Typen unterscheiden. Weitere Informationen dazu finden Sie unter Amazon EC2-Instance-Typen.

Instance-Größe vCPUs
nano 1
micro 1
small 1
medium 1
large 2
xlarge 4
2xlarge 8
3xlarge 12
4xlarge 16
8xlarge 32
9xlarge 36
10xlarge 40
12xlarge 48
16xlarge 64
18xlarge 72
24xlarge 96
32xlarge 128

F: Wie viele On-Demand-Instances kann ich in Amazon EC2 ausführen?

Es gibt fünf vCPU-basierte Instance-Limits. Jedes Limit legt die Kapazität fest, die Sie für eine bestimmte Instance-Familie nutzen können. Jegliche Verwendung von Instances für eine bestimmten Familie zählt unabhängig von Generation, Größe oder Konfigurationsvariante (z. B. Festplatte, Prozessortyp) zum vCPU-Limit der Familie. Die Limits finden Sie in der Tabelle unten. Für neue AWS-Konten gelten ggf. niedrigere Limits als hier beschrieben.

Name des On-Demand-Instance-Limits Standard-vCPU-Limit
Ausführen von On-Demand-Standard-Instances (A, C, D, H, I, M, R, T, Z) 1 152 vCPUs
Ausführen von On-Demand-F-Instances 128 vCPUs
Ausführen von On-Demand-G-Instances 128 vCPUs
Ausführen von On-Demand-Inf-Instances 128 vCPUs
Ausführen von On-Demand-P-Instances 128 vCPUs
Ausführen von On-Demand-X-Instances 128 vCPUs

F: Sind diese vCPU-basierten On-Demand-Instance-Limits regional?

Ja, die On-Demand-Instance-Limits für ein AWS-Konto sind nach Region festgelegt.

F: Werden sich diese Limits mit der Zeit ändern?

Ja, die Limits können sich im Laufe der Zeit ändern. Amazon EC2 überwacht Ihre Nutzung innerhalb der verschiedenen Regionen und Ihre Limits werden basierend auf Ihrer Nutzung von EC2 automatisch angehoben.

F: Wie kann ich ein Anheben meines Limits beantragen?

Obwohl EC2 Ihre Limits für On-Demand-Instances basierend auf Ihrer Nutzung automatisch anhebt, können Sie bei Bedarf auch ein Anheben Ihrer Limits beantragen. Das geht über die Limits-Seite der Amazon-EC2-Konsole, die Amazon-EC2-Serviceseite der Service-Quotas-Konsole oder die Service-Quotas-API/CLI.

F: Wie kann ich mein neues vCPU-Limit berechnen?

Sie können dies über die vCPU-Zuordnung für jeden der Typen von Amazon-EC2-Instances tun oder den vereinfachten vCPU-Rechner nutzen, um die übergreifenden vCPU-Limit-Anforderungen für Ihr AWS-Konto zu kalkulieren.

F: Gelten vCPU-Limits beim Kauf von Reserved Instances oder bei der Anforderung von Spot-Instances?

Nein, die vCPU-basierten Limits gelten nur für die Ausführung von On-Demand- und Spot-Instances.

F: Wo kann ich meine aktuellen Limits für On-Demand-Instances einsehen?

Sie finden Ihre aktuellen On-Demand-Instance-Limits auf der EC2-Service-Limits-Seite der Amazon-EC2-Konsole und in der Service-Quotas-Konsole sowie den zugehörigen APIs.

F: Betrifft diese Änderung auch bereits laufende Instances?

Nein, der Wechsel zu vCPU-basierten Limits betrifft keine laufenden Instances.

F: Kann ich weiterhin dieselbe Anzahl von Instances starten?

Ja. Die vCPU-basierten Instance-Limits erlauben Ihnen, mindestens dieselbe Anzahl von Instances zu starten wie mit anzahlbasierten Instance-Limits.

F: Kann ich die Nutzung von Instances auf die Einhaltung dieser Limits prüfen?

Mit der Metriken-Integration von Amazon CloudWatch können Sie in der Service-Quotas-Konsole die EC2-Nutzung auf die Einhaltung von Limits prüfen. Mit Service Quotas können Kunden außerdem CloudWatch für das Konfigurieren von Alarmen nutzen, um Kunden zu warnen, wenn ein Limit fast erreicht ist. Zudem können Sie Ihre Instance-Nutzung in Trusted Advisor und Limit Monitor aufzeichnen und überprüfen.

F: Kann ich weiterhin die DescribeAccountAttributes-API nutzen?

Durch die vCPU-Limits kontrollieren nicht länger die Instance-Limits die Nutzung. Daher gibt die DescribeAccountAttributes-API den Wert „max-instances“ nicht mehr zurück. Stattdessen können Sie jetzt die Service Quotas-APIs nutzen, um Informationen zu EC2-Limits abzurufen. Weitere Informationen zu den Service-Quotas-APIs finden Sie in der AWS-Dokumentation.

F: Haben die vCPU-Limits Auswirkungen auf meine monatliche Rechnung?

Nein. Die EC2-Nutzung wird weiterhin entweder stundenweise oder sekundenweise berechnet, je nachdem, welche AMI Sie nutzen und welchen Instance-Typ mit welcher Größe Sie gelauncht haben.

F: Werden vCPU-Beschränkungen in sämtlichen Regionen verfügbar sein?

vCPU-basierte Instance-Limits sind in allen kommerziellen AWS-Regionen verfügbar.

Änderungen der SMTP-Endpunktrichtlinie für EC2

F: Was ändert sich?

Am 7. Januar 2020 führte Amazon EC2 eine Änderung ein, die den E-Mail-Verkehr standardmäßig über Port 25 einschränkt, um Kunden und andere Empfänger vor Spam und E-Mail-Missbrauch zu schützen. Port 25 wird in der Regel als SMTP-Standardport zum Senden von E-Mails verwendet. AWS-Konten, bei denen Beschränkungen für Port 25 bereits auf Anforderung entfernt wurden, sind von dieser Änderung nicht betroffen.

F: Ich habe einen gültigen Anwendungsfall für das Senden von E-Mails an Port 25 von EC2. Was kann ich tun, damit diese Port-25-Beschränkungen aufgehoben werden?

Wenn Sie einen gültigen Anwendungsfall für das Senden von E-Mails an Port 25 (SMTP) von EC2 haben, senden Sie bitte eine Anfrage zum Entfernen der Einschränkungen beim E-Mail-Versand, damit diese Einschränkungen aufgehoben werden. Alternativ können Sie E-Mails über einen anderen Port senden oder einen vorhandenen authentifizierten E-Mail-Relay-Service wie Amazon Simple Email Service (Amazon SES) nutzen.

Service Level Agreement (SLA)

F: Was garantiert mir die SLA (Service Level Agreement) von Amazon EC2?

Unsere SLA garantiert eine monatliche Betriebszeit in Prozent von mindestens 99,99 % für Amazon EC2 und Amazon EBS innerhalb einer Region.

F: Wie erfahre ich, ob ich für eine Gutschrift aus dem SLA qualifiziert bin?

Sie haben Anspruch auf ein SLA-Guthaben für Amazon EC2 oder Amazon EBS (je nachdem, was nicht verfügbar war, oder für beide, wenn beide nicht verfügbar waren), wenn die Region, in der Sie tätig sind, während eines beliebigen monatlichen Abrechnungszyklus eine monatliche Betriebszeit von weniger als 99,99 % aufweist. Ausführliche Informationen zu allen Bedingungen des SLA sowie Einzelheiten zur Geltendmachung eines Anspruchs finden Sie im Amazon Compute Service Level Agreement

Instance-Typen

Beschleunigte Computing-Instances

F: Was sind Accelerated-Computing-Instances?

Die Instance-Kategorie Accelerated Computing umfasst Instancefamilien, die Hardware-Beschleuniger oder Co-Prozessoren verwenden, um einige Funktionen, wie z. B. die Berechnung von Fließkommazahlen und die Grafikverarbeitung, effizienter auszuführen, als dies in Software möglich ist, die auf CPUs läuft. Amazon EC2 bietet eine große Auswahl an Beschleunigern, darunter GPUs, speziell entwickelte KI-Chips, AWS Trainium und AWS Inferentia, FPGAs und mehr.


F: Wann sollte ich GPU-basierte EC2-Instances verwenden?

GPU-Instances eignen sich am besten für Anwendungen mit massiver Parallelität wie generative KI, Deep Learning, Grafik, Gaming und Spatial Computing. Wenn Sie Deep-Learning- und KI-Modelle haben, die proprietäre Bibliotheken oder Sprachen von Drittanbietern benötigen, z. B. NVIDIA CUDA, CUDA Deep Neural Network (cuDNN) oder TensorRT-Bibliotheken, empfehlen wir die Verwendung der Nvidia-GPU-basierten Instances.


F: Wann sollte ich GPU-basierte EC2-Instances der G-Serie im Vergleich zur P-Serie verwenden?

Unsere Instances der G-Serie eignen sich hervorragend für Grafik-, Gaming- und Spatial-Computing sowie KI/ML-Inferenz und AI/ML-Trainingsworkloads mit einem Knoten. Unsere Instances der P-Serie sind für KI-Inferenz und das Training großer Foundation-Modelle optimiert.


F: Wann sollte ich Instances mit AWS Trainium und AWS Inferentia verwenden?

AWS Trainium und AWS Inferentia wurden speziell für Deep Learning und generative KI-Workloads entwickelt. Sie können diese Instances für KI-Training und Inferenz verwenden, um eine hohe Leistung zu erzielen und gleichzeitig im Vergleich zu vergleichbaren EC2-Instances bis zu 50 % der Trainings- und Inferenzkosten zu sparen. Das AWS Neuron SDK unterstützt auf diesen Instances eine Vielzahl von Modellarchitekturen. Weitere Informationen finden Sie auf der Seite mit der Neuron-Dokumentation.


F: Wo erhalte ich NVIDIA-Treiber, -Bibliotheken, Frameworks und Entwicklungstools für Instances der P- und G-Serie?

Auf AWS Marketplace gibt es Angebote, die Amazon-Linux- und Windows-Server-AMIs mit vorinstallierten NVIDIA-Treibern enthalten. Sie können auch 64-Bit-HVM-AMIs launchen und die Treiber selbst installieren. Sie müssen die NVIDIA-Treiber-Website besuchen und nach den richtigen Treibern suchen, je nachdem, welche GPUs in der von Ihnen verwendeten Instance enthalten sind.


Sie haben auch die Möglichkeit, NVIDIA AI Enterprise zu verwenden, das NVIDIA-Entwicklungstools, Frameworks und vortrainierte Modelle für KI-Praktiker sowie zuverlässiges Management und Orchestrierung für IT-Experten umfasst, um Leistung, Hochverfügbarkeit und Sicherheit zu gewährleisten. 

F: Was sind Amazon EC2 UltraCluster?

Amazon EC2-UltraCluster können Sie bei der Skalierung auf Tausende von GPUs oder speziell entwickelten ML-Chips wie AWS Trainium unterstützen, um bei Bedarf Zugriff auf einen Supercomputer zu erhalten. Sie demokratisieren den Zugang zu Supercomputing-Leistung für Entwickler von Machine Learning (ML), generativer KI und High Performance Computing (HPC) durch ein einfaches nutzungsabhängiges Nutzungsmodell ohne Einrichtungs- oder Wartungskosten. Weitere Informationen finden Sie auf der Seite EC2 UltraClusters

Flex-Instances

F: Wie unterscheiden sich Amazon-EC2-Flex-Instances (M7i-Flex und C7i-Flex) von vergleichbaren Instances (M7i und C7i)? Wann sollte ich Flex-Instances gegenüber vergleichbaren Instances verwenden?

Flex-Instances (M7i-flex und C7i-flex) sind günstigere Varianten vergleichbarer Instances (M7i und C7i) und bieten ein um 19 % besseres Preis-Leistungs-Verhältnis im Vergleich zur vorherigen Instance-Generation (M6i und C6i). Mit Flex-Instances können die meisten Workloads ausgeführt werden, die von der Leistung der neuesten Generation profitieren, die Rechenressourcen jedoch nicht vollständig nutzen. Diese Instances sind so konzipiert, dass sie eine Basis-CPU-Leistung liefern und in 95 % der Fälle auf die volle CPU-Leistung skaliert werden können. Flex-Instances eignen sich ideal für Workloads, die auf Instance-Größen von bis zu 8xlarge (bis zu 32 vCPUs und bis zu 128 GB) passen, einschließlich Web- und Anwendungsservern, Datenbanken, virtuellen Desktops, Stapelverarbeitung, Microservices, Caches, Unternehmensanwendungen, Apache Kafka und Elasticsearch. Sie können vergleichbare Instances (M7i und C7i) für Workloads verwenden, die die größten Instance-Größen oder eine hohe dauerhafte CPU-, Netzwerk- oder EBS-Leistung benötigen, z. B. große Anwendungsserver und Datenbanken, hoch skalierbare Multiplayer-Spiele, CPU-basiertes Machine Learning (ML), Videocodierung und -streaming, Stapelverarbeitung, verteilte Analysen, High Performance Computing (HPC) und Anzeigenschaltung.

F: Welche Leistung bieten Flex-Instances?

Flex-Instances bieten zuverlässige CPU-Ressourcen für eine CPU-Basisleistung von 40 % und sind darauf ausgelegt, die Rechenanforderungen der meisten Workloads zu erfüllen. In Zeiten, in denen Workloads mehr Leistung benötigen, bieten Flex-Instances die Möglichkeit, innerhalb eines 24-Stunden-Fensters in 95 % der Fälle bis zu 100 % der CPU zu skalieren.

F: Was sind einige andere Anwendungsfälle für M7i-Flex-Instances?

Die M7i-Flex-Instances bieten einen überzeugenden Upgrade-Pfad für Workloads, die auf größeren T3-Instances (large bis 2xlarge) ausgeführt werden. Sie bieten ein besseres Preis-Leistungs-Verhältnis, einen festen Stundenpreis, der die Basis-CPU-Basisnutzung und zusätzliche CPU-Auslastung über den Basiswert hinaus beinhaltet, sowie größere Instance-Größen von bis zu 8xlarge (32 vCPUs und 128 GB). M7i-Flex-Instances bieten eine vereinfachte Möglichkeit, Ihre EC2-Nutzung ohne CPU-Guthaben zu optimieren.

Instances mit Spitzenlastleistung

F: Wodurch unterscheiden sich Instances mit Spitzenlastleistung?

Amazon EC2 bietet Ihnen die Wahl zwischen Instances mit gleichbleibender Leistung (z. B. Instances der Serien C, M und R) und Instances mit Spitzenlastleistung (z. B. T2). Burstfähige Instances bieten eine CPU-Basisleistung mit der Möglichkeit, diese Leistung für den Burstverkehr zu erhöhen.

Bei T2-Instances werden die Basisleistung und die Fähigkeit zur Verarbeitung von Spitzenlasten per CPU-Guthaben verwaltet. Jede T2-Instance erhält fortlaufend CPU-Guthaben. Die Rate hängt von der Instance-Größe ab. T2-Instances sammeln im Leerlauf CPU-Guthaben und verbrauchen CPU-Guthaben, wenn sie aktiv sind. Ein CPU-Guthaben stellt die Leistung eines gesamten CPU-Kerns für eine Minute zur Verfügung. 

Modell

vCPUs

CPU-Guthaben/Stunde

Maximaler CPU-Guthabensaldo

Basisleistung (CPU)

t2.nano 1 3 72 5 % eines Kerns

t2.micro

1

6

144

10 % eines Kerns

t2.small

1

12

288

20 % eines Kerns

t2.medium

2

24

576

40 % eines Kerns*

t2.large 2 36 864 60 % eines Kerns**

t2.xlarge

4

54

1.296

90 % eines Kerns***

t2.2xlarge

8

81

1.944

135 % eines Kerns****

* Bei t2.medium können Anwendungen mit Single-Thread-Verfahren 40 % eines Kerns nutzen. Falls erforderlich, können Anwendungen mit Multi-Thread-Verfahren je 20 % von zwei Kernen nutzen.

**Bei t2.large können Anwendungen mit Single-Thread-Verfahren 60 % eines Kerns nutzen. Falls erforderlich, können Anwendungen mit Multi-Thread-Verfahren je 30 % von zwei Kernen nutzen.

***Bei t2.xlarge können Single-Threaded-Anwendungen 90 % eines Kerns nutzen. Falls erforderlich, können Multi-Threaded-Anwendungen je 45 % von 2 Kernen oder 22,5 % von allen 4 Kernen nutzen.

**** Beim t2.2xlarge können Single-Threaded-Anwendungen einen Kern vollständig nutzen, Multi-Threaded-Anwendungen können bei Bedarf 67,5 % von jeweils 2 Kernen oder 16,875 % aller 8 Kerne nutzen.

F: Wie wähle ich für meine T2-Instances das richtige Amazon Machine Image (AMI) aus?

Sie sollten sicherstellen, dass die Mindestspeicheranforderungen Ihres Betriebssystems und Ihrer Anwendungen innerhalb der Arbeitsspeicherkapazität jeder T2-Instance liegen (z. B. 512 MiB für t2.nano). Betriebssysteme mit einer grafischen Benutzeroberfläche (GUI) verbrauchen sehr viel Speicher und CPU. Beispielsweise könnte Microsoft Windows eine t2.micro oder größere Instance-Größe für viele Anwendungsfälle benötigen. Für t2.nano-Instance-Typen geeignete AMIs finden Sie auf AWS Marketplace. Windows-Kunden, die die grafische Benutzeroberfläche nicht benötigen, können die Microsoft Windows Server 2012 R2 Core AMI verwenden.

F: Wann sollte ich eine Instance mit Spitzenlastleistung wie T2 wählen?

T2-Instances bieten eine kostengünstige Plattform für verschiedenste allgemeine Produktionsarbeitslasten. T2 Unlimited-Instances können die hohe CPU-Leistung so lange wie nötig aufrechterhalten. Wenn Ihre Workloads durchweg eine CPU-Auslastung erfordern, die weit über der Basislinie liegt, sollten Sie eine dedizierte CPU-Instance wie die M oder C in Betracht ziehen.

F: Wie kann ich das CPU-Guthaben für jede T2-Instance sehen?

Sie können den CPU-Guthabensaldo für die einzelnen T2-Instances in der EC2-Instance-Metrik in Amazon CloudWatch anzeigen. Für T2-Instances werden vier Metriken erfasst: CPUCreditUsage, CPUCreditBalance, CPUSurplusCreditBalance und CPUSurplusCreditsCharged. CPUCreditUsage gibt den Betrag des verbrauchten CPU-Guthabens an. CPUCreditBalance gibt den Saldo des CPU-Guthabens an. CPUSurplusCredit Balance gibt das bei Kernleistung verbrauchte Guthaben ohne neu gewonnenes Guthaben an. CPUSurplusCreditsCharged gibt das belastete Guthaben an, wenn die durchschnittliche Nutzung die Grundkapazität übersteigt.

F: Was passiert mit der CPU-Leistung, wenn meine T2-Instance fast kein Guthaben mehr hat (CPU-Guthabensaldo nahe null)?

Wenn der CPU-Guthabensaldo Ihrer T2-Instance auf null sinkt, bleibt die Leistung auf der CPU-Basisleistung. t2.micro bietet beispielsweise eine CPU-Basisleistung von 10 % eines physischen CPU-Kerns. Wenn der CPU-Gutschriftssaldo Ihrer Instance gegen null geht, wird die CPU-Leistung über einen Intervall von 15 Minuten auf die Basisleistung gesenkt.

F: Bleibt der Guthabensaldo meiner T2-Instance bei einem Stopp und Start bestehen?

Nein, eine angehaltene Instance behält ihren bisherigen Guthabensaldo nicht.

F: Können T2-Instances als Reserved Instances oder Spot-Instances gekauft werden?

T2-Instances können als On-Demand-Instances, als Reserved Instances oder als Spot Instances gekauft werden.

F: Was sind Amazon EC2 T4g-Instances?

Amazon EC2 T4g-Instances sind die nächste Generation von spitzenleistungsfähigen Instances für allgemeine Zwecke, die auf ARM-basierten AWS Graviton2-Prozessoren basieren. T4g-Instances bieten ein um bis zu 40 % besseres Preis-Leistungs-Verhältnis als T3-Instances. Sie basieren auf dem AWS-Nitro-System, einer Kombination aus dedizierter Hardware und Nitro-Hypervisor.

F: Was sind Beispiele für ideale Anwendungsfälle für T4g-Instances?

T4g-Instances bieten für zahlreiche spitzenlastfähige Workloads für allgemeine Zwecke ein um bis zu 40 % besseres Preis-Leistungs-Verhältnis als T3-Instances. Dazu gehören Mikrodienste, interaktive Anwendungen mit geringer Latenzzeit, kleine und mittlere Datenbanken, virtuelle Desktops, Entwicklungsumgebungen, Coderepositorys und geschäftskritische Anwendungen. Für Kunden, die auf Open-Source-Software basierende Anwendungen auf T-Instances einsetzen, sind die T4g-Instances eine attraktive Option, um die beste Preisleistung zu erzielen. Arm-Entwickler können ihre Anwendungen auch direkt auf nativer Arm-Hardware erstellen, anstatt sie zu kompilieren oder zu emulieren.

F: Wie erhalten Kunden Zugriff auf das kostenlose T4g-Testprogramm?

Bis zum 31. Dezember 2024 werden alle AWS-Kunden automatisch für das kostenlose T4g-Testprogramm registriert, wie im kostenlosen AWS-Kontingent dargelegt. Während der kostenlosen Testphase werden Kunden, die eine t4g.small-Instance betreiben, automatisch 750 Gratisstunden pro Monat von ihrer Rechnung abgezogen. Die 750 Stunden werden für alle Regionen, in denen die t4g.small-Instances genutzt werden, zusammen berechnet. Kunden müssen für zusätzliches CPU-Guthaben bezahlen, wenn sie das den Instances zugewiesenen Guthaben während der 750 kostenlosen Stunden des T4g-Testprogramms überschreiten. Weitere Informationen über die Funktionsweise von CPU-Guthaben finden Sie unter Schlüsselkonzepte und Definitionen für Spitzenleistungs-Instances im Amazon-EC2-Handbuch für Linux-Instances.

F: Wer kann das kostenlose T4g-Testprogramm in Anspruch nehmen?

Alle bestehenden und neuen Kunden mit einem AWS-Konto können das kostenlose T4g-Testprogramm nutzen. Das kostenlose T4g-Testprogramm ist für einen begrenzten Zeitraum bis zum 31. Dezember 2024 verfügbar. Für den Start- und Endzeitpunkt des kostenlosen Testprogramms gilt die Coordinated Universal Time (UTC, koordinierte Weltzeit). Das kostenlose T4g-Testprogramm steht zusätzlich zu dem bestehenden kostenlosen AWS-Kontingent auf t2.micro/t3.micro zur Verfügung. Kunden, die ihr kostenloses Kontingent auf t2.micro (oder t3.micro, je nach Region) ausgeschöpft haben, können trotzdem das kostenlose T4g-Testprogramm nutzen.

F: In welchen Regionen ist das kostenlose T4g-Testprogramm verfügbar?

Das kostenlose Testprogramm von T4g ist derzeit in den folgenden AWS-Regionen verfügbar: USA Ost (Ohio), USA Ost (Nord-Virginia), USA West (Nordkalifornien), USA West (Oregon), Südamerika (Sao Paulo), Asien-Pazifik (Hongkong), Asien-Pazifik (Mumbai), Asien-Pazifik (Seoul), Asien-Pazifik (Singapur), Asien-Pazifik (Sydney), Asien-Pazifik (Tokio), Kanada (Zentral), Europa (Frankfurt), Europa (Irland), Europa (London), und Europa (Stockholm). Es ist derzeit nicht in den Regionen China (Peking) und China (Ningxia) verfügbar.

Im Rahmen des kostenlosen Testprogramms können Kunden bis zum 31. Dezember 2024 kostenlos t4g.small-Instances in einer oder mehreren Regionen aus einem einzigen kumulativem Bucket von 750 Freistunden pro Monat nutzen. Ein Kunde kann zum Beispiel ein t4g.small in Oregon 300 Stunden im Monat laufen lassen und ein anderes t4g.small in Tokio 450 Stunden lang im selben Monat laufen lassen. Dies entspricht dem Limit von 750 Stunden/Monat des kostenlosen Testprogramms.

F: Gibt es eine zusätzliche Gebühr für die Ausführung bestimmter AMIs im Rahmen des kostenlosen T4g-Programms?

Beim kostenlosen Testprogramm von t4g.small fallen für Amazon Machine Image (AMI) für Amazon Linux 2, RHEL und SUSE Linux AMIs, die über den Schnellstart der EC2-Konsole verfügbar sind, für die ersten 750 kostenlosen Stunden pro Monat keine Kosten an. Nach 750 Freistunden/Monat gelten die regulären On-Demand-Preise einschließlich AMI-Gebühr (falls zutreffend). Die geltenden Softwaregebühren für AWS-Marketplace-Angebote mit AMI-Erfüllungsoptionen werden vom kostenlosen Testprogramm nicht abgedeckt. Nur die Kosten für die t4g.small-Infrastruktur werden vom kostenlosen Testprogramm abgedeckt.

F: Wie wird das kostenlose t4g.small-Testprogramm auf meiner AWS-Rechnung ausgewiesen?

Für das kostenlose T4g-Testprogramm gilt ein monatlicher Abrechnungszeitraum, der jeweils am ersten Tag des Monats beginnt und am letzten Tag des Monats endet. Im Rahmen des Fakturierungsplans für das kostenlose t4g.small-Testprogramm sehen Kunden, die t4g.small nutzen, im Abschnitt On-Demand-Preise für die ersten 750 aggregierten Nutzungsstunden für jeden Monat während des Zeitraums des kostenlosen Testprogramms einen Einzelposten mit 0 USD auf ihrer Rechnung. Kunden können jederzeit während der kostenlosen Testphase beginnen und erhalten 750 Freistunden für den verbleibenden Teil des Monats. Nicht genutzte Stunden aus dem Vormonat werden nicht übertragen. Kunden können mit dem kostenlosen Testprogramm mehrere t4g.small-Instances starten. Kunden werden automatisch per E-Mail über AWS Budgets benachrichtigt, wenn ihre monatliche aggregierte Nutzung 85 % von 750 Freistunden erreicht. Wenn die Nutzung der aggregierten Instances 750 Stunden für den monatlichen Abrechnungszeitraum überschreitet, werden den Kunden für die in diesem Monat überschrittenen Stunden die regulären On-Demand-Preise in Rechnung gestellt. Für Kunden mit einem Datenverarbeitungs-Savings Plan oder einem T4g Instance Savings Plan wird der Savings Plan (SV)-Rabatt für Stunden, die über die 750 Stunden des kostenlosen Testprogramms hinausgehen, auf die On-Demand-Preise angerechnet. Wenn Kunden den T4g Reserved Instance (RI)-Plan gekauft haben, gilt der RI-Plan zuerst für jede Nutzung auf Stundenbasis. Für jegliche nach der Anwendung des RI-Plans verbleibende Nutzung tretet der Fakturierungsplan für das kostenlose Testprogramm in Kraft.

F: Wenn sich Kunden für konsolidierte Fakturierung anmelden (d. h. ein einziges Zahlerkonto), können sie dann das kostenlose T4g-Testprogramm für jedes mit dem Zahlerkonto verknüpfte Konto erhalten?

Nein, Kunden, die die konsolidierte Fakturierung zur Erstellung einer Sammelrechnung für mehrere Konten verwenden, haben Zugriff auf ein kostenloses Kontingent pro Unternehmen. Jedes Zahlerkonto erhält eine Gesamtsumme von 750 Freistunden/Monat. Weitere Einzelheiten zur konsolidierten Fakturierung finden Sie unter Konsolidierte Fakturierung für AWS-Organisationen im Leitfaden zu AWS-Fakturierung und -Kostenmanagement.

F: Werden Kunden als Teil des kostenlosen T4g-Testprogramms zusätzliche CPU-Guthaben in Rechnung gestellt?

Kunden müssen für zusätzliches CPU-Guthaben bezahlen, wenn sie das den Instances zugewiesenen Guthaben während der 750 kostenlosen Stunden des T4g-Testprogramms überschreiten. Weitere Informationen über die Funktionsweise von CPU-Guthaben finden Sie unter Schlüsselkonzepte und Definitionen für Spitzenleistungs-Instances im Amazon-EC2-Handbuch für Linux-Instances.

F: Wie werden den Kunden nach Ablauf des kostenlosen Testprogramms die t4g.small-Instances in Rechnung gestellt?

Ab dem 1. Januar 2025 werden Kunden, die t4g.small-Instances nutzen, automatisch von dem kostenlosen Testplan auf ein On-Demand-Preismodell (oder Reserved Instance (RI)/Savings Plan (SV)-Plan, falls gekauft) umgestellt. Die angesammelten Guthaben werden auf Null gesetzt. Die Kunden erhalten sieben Tage vor Ablauf des kostenlosen Testprogramms eine E-Mail-Benachrichtigung mit dem Hinweis, dass das kostenlose Testprogramm in sieben Tagen endet. Ab dem 1. Januar 2025 gelten die RI-Pläne, sofern der RI-Plan gekauft wird. Andernfalls werden Kunden die regulären On-Demand-Preise für t4g.small-Instances in Rechnung gestellt. Für Kunden, die den T4g Instance Savings Plan oder einen Datenverarbeitungs-Savings Plan haben, wird bei der Fakturierung von t4g.small-Instances der Savings-Plan-Rabatt auf ihre On-Demand-Preise angerechnet.

Für Datenverarbeitung optimierte Instances

F: Wann sollte ich für Datenverarbeitung optimierte Instances nutzen?

Für Datenverarbeitung optimierte Instances eignen sich besonders für Anwendungen, die eine hohe Rechenleistung benötigen. Dazu gehören rechenintensive Anwendungen, wie z. B. Hochleistungs-Webserver, High Performance Computing (HPC), wissenschaftliche Modellierung, verteilte Analysen und Machine-Learning-Inferenz.

F: Was sind C7g-Instances von Amazon EC2?

Die C7g-Instances von Amazon EC2, die von AWS-Graviton3-Prozessoren der neuesten Generation angetrieben werden, bieten die beste Preisleistung in Amazon EC2 für rechenintensive Workloads. C7g-Instances sind ideal für das High Performance Computing (HPC), die Batch-Verarbeitung, die Electronic Design Automation (EDA), Spiele, die Videocodierung, die wissenschaftliche Modellierung, verteilte Analysen, die CPU-basierte Machine Learning (ML)-Inferenz und das Ad-Serving. Sie bieten eine bis zu 25 % bessere Leistung als die AWS-Graviton2-basierten C6g-Instances der sechsten Generation.

F: Was sind C6g-Instances von Amazon EC2?

Amazon EC2 C6g-Instances sind die nächste Generation von rechenoptimierten Instances, die auf Arm-basierten AWS Graviton2-Prozessoren basieren. C6g-Instanzen bieten eine bis zu 40 % bessere Preisleistung als C5-Instanzen. Sie basieren auf dem AWS-Nitro-System, einer Kombination aus dedizierter Hardware und Nitro-Hypervisor.

F: Was sind Beispiele für ideale Anwendungsfälle für C6g-Instances?

C6g-Instances bieten erhebliche Preis-Leistungsvorteile für rechenintensive Workloads wie High Performance Computing (HPC), Stapelverarbeitung, Ad-Serving, Videocodierung, Gaming, wissenschaftliche Modellierung, verteilte Analysen und CPU-basierte Inferenz für Machine Learning. Für Kunden, die auf Open-Source-Software basierende Anwendungen über die C-Instancefamilie bereitstellen, sind die C6g-Instances eine attraktive Option, um die beste Preisleistung zu erzielen. Arm-Entwickler können ihre Anwendungen auch direkt auf nativer Arm-Hardware erstellen, anstatt sie zu kompilieren oder zu emulieren.

F: Welche verschiedenen Speicheroptionen sind auf C6g-Instances verfügbar?

C6g-Instances sind standardmäßig EBS-optimiert und bieten bis zu 19 000 Mbit/s dedizierte EBS-Speicherbandbreite für sowohl verschlüsselte als auch unverschlüsselte EBS-Volumes. C6g-Instances unterstützen nur das Non-Volatile-Memory-Express-(NVMe-)Interface zum Zugriff auf EBS-Speichervolumes. Darüber hinaus sind Optionen mit lokalem NVMe-Instance-Speicher auch über die C6gd-Instance-Typen verfügbar.

F: Welche Netzwerkschnittstelle wird auf C6g-Instances unterstützt?

C6g-Instances unterstützen ENA-basiertes Enhanced Networking. Mit ENA können C6g-Instances innerhalb einer Placement-Gruppe bis zu 25 Gbit/s an Netzwerkbandbreite zwischen den Instances bereitstellen.

F: Müssen Kunden ihre Anwendungen und Workloads anpassen, um eine Ausführung auf C6g-Instances zu ermöglichen?

Die erforderlichen Änderungen hängen von der Anwendung ab. Kunden, die Anwendungen ausführen, die auf Open Source-Software basieren, werden feststellen, dass das Arm-Ökosystem gut entwickelt ist und wahrscheinlich bereits ihre Anwendungen unterstützt. Die meisten Linux-Distributionen sowie Container (Docker, Kubernetes, Amazon ECS, Amazon EKS, Amazon ECR) unterstützen die Arm-Architektur. Kunden finden Arm-Versionen häufig verwendeter Softwarepakete, die für die Installation über dieselben Mechanismen zur Verfügung stehen, die sie derzeit verwenden. Anwendungen, die auf interpretierten Sprachen basieren (wie Java, Node, Python, Go), die nicht auf native CPU-Befehlssätze angewiesen sind, sollten mit minimalen bis keinen Änderungen ausgeführt werden. Anwendungen, die mit kompilierten Sprachen (C, C++, GoLang) entwickelt wurden, müssen neu kompiliert werden, um Arm-Binärdateien zu generieren. Die Arm-Architektur wird in diesen beliebten Programmiersprachen gut unterstützt und moderner Code erfordert in der Regel einen einfachen „Make“-Befehl. Weitere Details finden Sie im Handbuch zu den ersten Schritten auf Github.

F: Werden für die C6-Instance-Familien mehr Datenverarbeitungsoptionen angeboten?

Ja, wir planen, in Zukunft Intel- und AMD CPU-gestützte Instances als Teil der C6-Instance-Familien anzubieten.

F: Kann ich C4-Instances als für Amazon EBS optimierte Instances starten?

Jeder C4-Instance-Typ ist standardmäßig für EBS optimiert. C4-Instances bieten EBS Verbindungen mit 500 Mbit/s bis 4 000 Mbit/s zusätzlich zum der Instance im Netzwerk bereitgestellten Durchsatz. Da diese Funktion für C4-Instances stets aktiviert ist, wirkt sich das explizite Starten einer C4- Instance als für EBS optimiert nicht auf das Verhalten der Instance aus.

F: Wie kann ich die für c4.8xlarge-Instances verfügbare Funktion zum Steuern des Prozessstatus nutzen?

Der Instance-Typ c4.8xlarge bietet einem Betriebssystem die Möglichkeit, die Prozessstatus C und P zu steuern. Diese Funktion ist derzeit nur für Linux-Instances verfügbar. Sie können die Einstellungen für die Status C oder P ändern, um die Einheitlichkeit der Prozessorleistung zu erhöhen, die Latenz zu verkürzen oder Ihre Instance für eine bestimmte Verarbeitungslast zu optimieren. Amazon Linux bietet standardmäßig die Konfiguration mit der höchsten Leistung, die für die meisten Verarbeitungslasten von Kunden optimal ist. Wenn Ihre Anwendung allerdings von einer kürzeren Latenz auf Kosten höherer Einzel- oder Doppelkern-Prozessorfrequenzen oder von einer stetigen Leistung bei niedriger Frequenz im Gegensatz zu Turbo-Frequenzen profitieren würde, sollten Sie das Experimentieren mit den Konfigurationsoptionen für die Status C oder P erwägen, die für diese Instances zur Verfügung stehen. Weitere Informationen zu dieser Funktion finden Sie im Amazon-EC2-Benutzerhandbuch im Abschnitt Processor State Control.

F: Welche Instances sind innerhalb der Kategorie der für Datenverarbeitung optimierte Instances verfügbar?

C6g-Instances: Amazon-EC2-C6g-Instances werden mit Arm-basierten AWS-Graviton2-Prozessoren betrieben. Sie bieten bei C5-Instances ein bis zu 40 % besseres Preisleistungsverhältnis und sind ideal für fortgeschrittene rechenintensive Workloads. Dazu zählen Workloads wie High Performance Computing (HPC), Batch-Verarbeitung, Ad-Serving, Videocodierung, Gaming, wissenschaftliche Modellierung, verteilte Analytik und CPU-basierte Machine-Learning-Inferenz. 

C6a-Instances: C6a-Instances werden von AMD-EPYC-Prozessoren der 3. Generation mit einer All-Core-Turbofrequenz von 3,6 GHz angetrieben, bieten eine bis zu 15 % bessere Preisleistung als C5a-Instances für eine Vielzahl von Workloads und unterstützen die Always-on-Speicherverschlüsselung mit AMD Transparent Single Key Memory Encryption (TSME). C6a-Instances bieten neue Instance-Größen mit bis zu 192 vCPUs und 384 GiB Speicher, doppelt so viel wie die größte C5a-Instance. Außerdem bieten C6a-Instances bis zu 50 Gbit/s Netzwerkgeschwindigkeit und 40 Gbit/s Bandbreite für den Amazon Elastic Block Store, mehr als das Doppelte von C5a-Instances.

C6i-Instances: C6i-Instances werden von skalierbaren Intel-Xeon-Prozessoren der 3. Generation mit einer All-Core-Turbofrequenz von 3,5 GHz angetrieben, bieten eine bis zu 15 % bessere Preisleistung als C5-Instances für eine Vielzahl von Workloads und eine ständig aktive Speicherverschlüsselung mit Intel Total Memory Encryption (TME). C6i-Instances bieten eine neue Instance-Größe (c6i.32xlarge) mit 128 vCPUs und 256 GiB Arbeitsspeicher, 33 % mehr als die größte C5-Instance. Sie bieten außerdem eine bis zu 9 % höhere Speicherbandbreite pro vCPU im Vergleich zu C5-Instances. C6i bietet Kunden bis zu 50 Gbit/s Netzwerkgeschwindigkeit und 40 Gbit/s Bandbreite für den Amazon Elastic Block Store, doppelt so viel wie C5-Instances. C6i sind auch mit lokalem NVMe-basiertem SSD-Block-Level-Speicher (C6id-Instances) für Anwendungen, die lokalen Hochgeschwindigkeits-Speicher mit geringer Latenz benötigen, erhältlich. Im Vergleich zu C5d-Instances der vorherigen Generation bieten C6id-Instances bis zu 138 % mehr TB Speicher pro vCPU und 56 % niedrigere Kosten pro TB.

C5-Instances: C5-Instances basieren auf Intel-Xeon-Platinum-Prozessoren, die Teil der Intel-Xeon-Scalable-Prozessorfamilie (Codename Skylake-SP oder Cascade Lake) sind. Sie sind in 9 Größen verfügbar und bieten bis zu 96 vCPUs und 192 GiB Arbeitsspeicher. C5-Instances bieten gegenüber C4-Instances ein um 25 % besseres Preis-Leistungs-Verhältnis. Die C5d-Instances umfassen lokalen NVMe-Speicher für Workloads, die eine äußerst geringe Latenz und Speicherzugriff mit hoher IOPS-Leistung in Bezug auf ungeordnete Lese- und Schreibvorgänge erfordern.

C5a-Instances: C5a-Instances bieten bei einer breiten Palette von rechenintensiven x86-Workloads ein hervorragendes Preis-Leistungs-Verhältnis. Dazu gehören Stapelverarbeitungsaufgaben, verteilte Analysen, Datenumwandlung, Protokollanalysen und Web-Anwendungen. C5a-Instances sind mit AMD EPYC-Prozessoren der zweiten Generation mit 3,3 GHz, bis zu 96 vCPUs und 192 GiB Arbeitsspeicher ausgestattet. Die C5ad-Instances umfassen lokalen NVMe-Speicher für Workloads, die eine äußerst geringe Latenz und Speicherzugriff mit hoher IOPS-Leistung in Bezug auf ungeordnete Lese- und Schreibvorgänge erfordern.

C5n-Instances: C5n-Instances sind für Anwendungen optimiert, die eine hohe Netzwerkbandbreite und Paketübertragungsrate erfordern. C5n-Instances eignen sich hervorragend für Anwendungen wie HPC, Data Lakes, Netzwerk-Appliances und Anwendungen, für die eine knotenübergreifende Kommunikation und die Message Passing Interface (MPI) benötigt wird. Für C5n-Instances sind verschiedene Intel Xeon Platinum-Prozessoren mit 3,0 GHz, bis zu 72 vCPUs und 192 GiB Arbeitsspeicher erhältlich.

C4-Instances: C4-Instances basieren auf den Intel Xeon E5-2666 v3-Prozessoren (Codename Haswell). C4-Instances sind in 5 Größen verfügbar und bieten bis zu 36 vCPUs und 60 GiB Speicher.

F: Weshalb sollte ich mich als Kunde für C6i-Instances anstatt C5-Instances entscheiden?

C6i-Instances bieten eine bis zu 15 % bessere Preisleistung als C5-Instances und eine permanente Speicherverschlüsselung mit Intel Total Memory Encryption (TME). C6i-Instances bieten eine neue Instance-Größe (c6i.32xlarge) mit 128 vCPUs und 256 GiB Arbeitsspeicher, 33 % mehr als die größte C5-Instance. Sie bieten außerdem eine bis zu 9 % höhere Speicherbandbreite pro vCPU im Vergleich zu C5-Instances. C6i bietet Kunden bis zu 50 Gbit/s Netzwerkgeschwindigkeit und 40 Gbit/s Bandbreite für den Amazon Elastic Block Store, das Doppelte von C5-Instances.

F: Weshalb sollte ich mich als Kunde für C5-Instances anstatt C4-Instances entscheiden?

Dank der verbesserten CPU-Leistung und des niedrigeren Preises der C5-Instances, die zusammen ein um 25 % besseres Preis-Leistungs-Verhältnis im Vergleich zu C4-Instances ergeben, profitiert ein breites Spektrum von Workloads, die derzeit auf C3- oder C4-Instances laufen. Für Fließkomma-intensive Anwendungen ermöglicht Intel AVX-512 durch die effektive Extraktion der Parallelität der Datenebene signifikante Verbesserungen hinsichtlich der bereitgestellten TFLOPS. Kunden, die zum Rendern von Grafiken und HPC-Verarbeitungslasten, die mit GPUs oder FPGAs beschleunigt werden können, absolute Leistung benötigen, sollten sich auch die anderen Instance-Familien im Amazon-EC2-Portfolio anschauen, die diese Ressourcen enthalten, um so die ideale Instance für ihre Verarbeitungslasten zu finden.

F: Welche Speicherschnittstelle wird auf C5-Instances unterstützt?

C5-Instances unterstützen nur NVMe EBS-Gerätemodelle. An C5-Instances angehängte EBS-Volumes werden als NVMe-Geräte angezeigt. NVMe ist eine moderne Speicherschnittstelle, die die Latenz reduziert und einen höheren E/A-Wert der Festplatte und mehr Durchsatz ermöglicht.

F: Wieso stimmt der von Linux kommunizierte Gesamtspeicher nicht genau mit dem für die Instance-Typen beworbenen Gesamtspeicher überein?

Teile des EC2-Instance-Speichers sind für die virtuelle BIOS für Video-RAM, DMI und ACPI reserviert. Zusätzlich wird für Instances, die mit dem AWS Nitro Hypervisor betrieben werden, ein kleiner Prozentsatz des Instance-Speichers vom Amazon-EC2-Nitro-Hypervisor zur Verwaltung der Virtualisierung reserviert.

Optimierte Instances für High Performance Computing

F: Welche Instances sind innerhalb der Kategorie High Performance Computing (HPC) verfügbar?

Hpc7g-Instances: Hpc7g-Instances bieten das beste Preis-Leistungs-Verhältnis für HPC-Workloads in AWS. Sie bieten im Vergleich zu AWS-Graviton-basierten Instances der vorherigen Generation eine um bis zu 70 % bessere Leistung und ein nahezu dreimal besseres Preis-Leistungs-Verhältnis für rechenintensive HPC-Workloads. Hpc7g-Instances werden von AWS-Graviton-3E-Prozessoren betrieben und bieten im Vergleich zu vorhandenen AWS-Graviton3-Instances eine bis zu 35 % höhere Vektorbefehlsleistung. Diese Instances bieten eine bis zu zweimal bessere Gleitkomma-Leistung im Vergleich zu Instances, die mit Graviton2-Prozessoren betrieben werden. Hpc7g-Instances basieren auf dem AWS Nitro System und stellen eine Netzwerkbandbreite von 200 Gbit/s für Interknoten-Kommunikation mit niedriger Latenz für eng gekoppelte Workloads bereit, die hochgradig parallelisierte, geclusterte Rechenressourcen erfordern.

Hpc7a-Instances: Amazon Elastic Compute Cloud (Amazon EC2)-Hpc7a-Instances, die von AMD-EPYC-Prozessoren der 4. Generation angetrieben werden, bieten eine bis zu 2,5-fach höhere Leistung im Vergleich zu Amazon-EC2-Hpc6a-Instances. Hpc7a-Instances bieten im Vergleich zu Hpc6a-Instances eine doppelt so hohe Kerndichte (bis zu 192 Kerne), einen 2,1-fach höheren Speicherbandbreitendurchsatz (bis zu 768 GB Speicher) und eine dreifach höhere Netzwerkbandbreite. Diese Instances bieten 300 Gbit/s Elastic Fabric Adapter (EFA)-Netzwerkbandbreite, die vom AWS Nitro System unterstützt wird, für schnelle Kommunikation zwischen Knoten und geringer Latenz.

Hpc6id-Instances: Hpc6id-Instances sind mit Intel-Xeon-Scalable-Prozessoren der 3. Generation ausgestattet, die mit 64 Kernen mit einer Frequenz von bis zu 3,5 GHz arbeiten und so die Effizienz steigern. Diese Instances wurden entwickelt, um die Leistung für arbeitsspeichergebundene Workloads zu verbessern, indem sie eine Speicherbandbreite von 5 GB/s pro vCPU bieten. Hpc6id-Instances bieten ein EFA-Netzwerk von 200 Gbit/s für die Kommunikation mit hohem Durchsatz zwischen den Knoten, damit Sie Ihre HPC-Workloads in großem Umfang ausführen können.

Hpc6a-Istances: Hpc6a-Instances werden von 96 Kernen der AMD-EPYC-Prozessoren der 3. Generation mit einer All-Core-Turbofrequenz von 3,6 GHz und 384 GiB RAM angetrieben. Hpc6a-Instances bieten ein EFA-Netzwerk von 100 Gbit/s, das für die Kommunikation zwischen Knoten mit hohem Durchsatz aktiviert ist, damit Sie Ihre HPC-Workloads in großem Umfang ausführen können.

F: Wie unterscheiden sich Hpc7g-Instances von anderen EC2-Instances?

Hpc7g-Instances sind für die Bereitstellung von Funktionen optimiert, die für rechenintensive HPC-Workloads geeignet sind. Hpc7g Instances basieren auf Arm-basierten Graviton3E-Prozessoren, die im Vergleich zu vorhandenen Instances, die auf Graviton3-Prozessoren basieren, eine bis zu 35 % höhere Vektorbefehlsleistung bereitstellen. Diese Instances bieten 64 physische Kerne, 128 GiB Arbeitsspeicher und eine Netzwerkbandbreite von 200 Gbit/s, die für den Datenverkehr zwischen Instances in derselben VPC optimiert ist, und unterstützen EFA für eine höhere Netzwerkleistung. Hpc7g-Instances sind in einzelnen Availability-Zones-Bereitstellungen verfügbar und ermöglichen Workloads die Netzwerkleistung mit geringer Latenz, die für eine eng gekoppelte Knoten-zu-Knoten-Kommunikation für HPC-Anwendungen erforderlich ist.

F: Welche Preismodelle werden von Hpc7g-Instances unterstützt?

Hpc7g-Instances können über die 1- und 3-jährigen Amazon EC2 Instance Savings Plans, Compute Savings Plans, EC2-On-Demand-Instances und EC2 Reserved Instances erworben werden.

F: Welche AMIs werden in Hpc7g-Instances unterstützt?

Hpc7g-Instances unterstützen nur von Amazon EBS gesicherte AMIs.

F: Wie unterscheiden sich Hpc7a-Instances von anderen EC2-Instances?

HPC-optimierte EC2-Hpc7a-Instances eignen sich ideal für Anwendungen, die von Hochleistungsprozessoren profitieren, wie z. B. große, komplexe Simulationen wie Computational Fluid Dynamics (CFD), numerische Wettervorhersage und multiphysikalische Simulationen. Hpc7a-Instances wurden entwickelt, um Sie dabei zu unterstützen, eng gekoppelte, x86-basierte HPC-Workloads mit besserer Leistung auszuführen. Hpc7a-Instances verfügen über AMD-EPYC-Prozessoren der 4. Generation mit doppelt so hoher Kerndichte (bis zu 192 Kerne), 2, 1-fach höherem Speicherbandbreitendurchsatz (768 GB Speicher) und 3-fach höherer Netzwerkbandbreite im Vergleich zu Hpc6a-Instances. Diese Instances bieten 300 Gbit/s EFA-Netzwerkbandbreite, unterstützt vom AWS Nitro System, für schnelle Internode-Kommunikation mit geringer Latenz.

F: Welche Preismodelle werden von Hpc7a-Instances unterstützt?

Hpc7a-Instances können über die ein- und dreijährigen Amazon EC2 Instance Savings Plans, Compute Savings Plans, EC2-On-Demand-Instances und EC2 Reserved Instances erworben werden.

F: Welche AMIs werden in Hpc7a-Instances unterstützt?

Hpc7a-Instances unterstützen Amazon Linux 2, Amazon Linux, Ubuntu 18.04 oder höher, Red Hat Enterprise Linux 7.6 oder höher, SUSE Linux Enterprise Server 12 SP3 oder höher, CentOS 7 oder höher und FreeBSD 11.1 oder höher.

F: Welche Preismodelle werden von Hpc6id-Instances unterstützt?

Hpc6id-Instances können über die 1- und 3-jährigen Amazon EC2 Instance Savings PlansCompute Savings PlansEC2-On-Demand-Instances und EC2 Reserved Instances erworben werden.

F: Wie unterscheiden sich Hpc6id-Instances von anderen EC2-Instances?

Hpc6id-Instances werden optimiert, um Funktionen bereitzustellen, die sich für arbeitsspeichergebundene, datenintensive Workloads von HPC eignen. Hyperthreading ist deaktiviert, um einen Pro-vCPU-CPU-Durchsatz und bis zu einer Speicher-Bandbreite von 5 GB/s pro vCPU zu erhöhen. Diese Instances bietet eine Netwerkbandbreite von 200 GB/s, die für den Datenverkehr zwischen Instances in der gleichen Virtual Private Cloud (VPC) optimiert wird und sie unterstützen EFA für eine bessere Netzwerkleistung. Um die Vernetzung von Hpc6id-Instances für eng gekoppelte Workloads zu optimieren, können Sie auf EC2-Hpc6id-Instances in einer einzigen Availability Zone in jeder Region zugreifen.

F: Welche AMIs werden auf Hpc6id-Instances unterstützt?

Hpc6id-Instances unterstützen Amazon Linux 2, Amazon Linux, Ubuntu 18.04 oder höher, Red Hat Enterprise Linux 7.4 oder höher, SUSE Linux Enterprise Server 12 SP2 oder höher, CentOS 7 oder höher, Windows Server 2008 R2 oder niedriger, und FreeBSD 11.1 oder höher.

F: Welche AMIs werden in Hpc6a-Instances unterstützt?

Hpc6a-Instances unterstützen Amazon Linux 2, Amazon Linux, Ubuntu 18.04 oder höher, Red Hat Enterprise Linux 7.4 oder höher, SUSE Linux Enterprise Server 12 SP2 oder höher, CentOS 7 oder höher und FreeBSD 11.1 oder höher. Diese Instances unterstützen auch Windows-Server 2012, 2012 R2, 2016 und 2019.

F: Welche Preismodelle werden von Hpc6a-Instances unterstützt?

Hpc6a-Instances können über die 1- und 3-jährigen Standard Reserved Instances, Convertible Reserved Instances, Savings Plans und On-Demand-Instances erworben werden.

Allzweck-Instances

F: Was sind Amazon EC2 M6g-Instances?

Amazon EC2 M6g-Instances sind die nächste Generation von Instances für allgemeine Zwecke, die auf ARM-basierten AWS Graviton2-Prozessoren basieren. M6g-Instances bieten ein um bis zu 40 % besseres Preis-Leistungs-Verhältnis als M5-Instances. Sie basieren auf dem AWS-Nitro-System, einer Kombination aus dedizierter Hardware und Nitro-Hypervisor.

F: Welche Spezifikationen weisen die neuen AWS Graviton2-Prozessoren auf?

Die AWS Graviton2-Prozessoren bieten bis zu 7-fache Leistung, 4-fache Anzahl von Rechenkernen, 2-fache Anzahl größerer Caches, 5-fache Speicherkapazität und 50 % schnellere Verschlüsselungsleistung pro Kern als die AWS Graviton-Prozessoren der ersten Generation. Jeder Kern des AWS Graviton2-Prozessors ist eine Single-Threaded-vCPU. Diese Prozessoren bieten außerdem vollständig verschlüsselten DRAM-Speicher, Hardwarebeschleunigung für Komprimierungs-Workloads, dedizierte Engines pro vCPU, die die Gleitkommaleistung für Workloads wie Videocodierung verdoppeln, und Anweisungen für die Machine Learning-Inferenzbeschleunigung auf der Basis von INT8/FP16-CPU. Die CPUs bestehen aus 64-Bit-ARM-Neoverse-Kernen und benutzerdefiniertem Silizium, das von AWS auf der Grundlage der fortschrittlichen 7-nm-Fertigungstechnologie entwickelt wurde.

F: Wird die Speicherverschlüsselung von AWS Graviton2-Prozessoren unterstützt?

AWS Graviton2-Prozessoren unterstützen die permanente 256-Bit-Speicherverschlüsselung, um die Sicherheit weiter zu verbessern. Verschlüsselungsschlüssel werden sicher im Hostsystem generiert, verlassen das Hostsystem nicht und werden beim Neustart oder Herunterfahren des Hosts unwiederbringlich zerstört. Die Speicherverschlüsselung unterstützt keine Integration mit dem AWS Key Management Service (AWS KMS) und die Kunden können nicht ihre eigenen Schlüssel mitbringen.

F: Was sind Beispiele für ideale Anwendungsfälle für M6g-Instances?

M6g-Instances bieten erhebliche Leistungs- und Preisvorteile für ein breites Spektrum von Allzweck-Workloads wie Anwendungsserver, Spieleserver, Mikroservices, mittelgroße Datenbanken und Caching-Flotten. Für Kunden, die auf Open-Source-Software basierende Anwendungen auf den M-Instances einsetzen, sind die M6g-Instances eine attraktive Option, um die beste Preisleistung zu erzielen. Arm-Entwickler können ihre Anwendungen auch direkt auf nativer Arm-Hardware erstellen, anstatt sie zu kompilieren oder zu emulieren.

F: Welche Speicheroptionen gibt es für M6g-Instances?

M6g-Instances sind standardmäßig EBS-optimiert und bieten bis zu 19 000 Mbit/s dedizierte EBS-Speicherbandbreite für sowohl verschlüsselte als auch unverschlüsselte EBS-Volumes. M6g-Instances unterstützen nur das Non-Volatile-Memory-Express-(NVMe-)Interface zum Zugriff auf EBS-Speichervolumes. Darüber hinaus sind Optionen mit lokalem NVMe-Instance-Speicher auch über die M6gd-Instance-Typen verfügbar.

F: Welche Netzwerkschnittstelle wird auf M6g-Instances unterstützt?

M6g-Instances unterstützen ENA-basiertes Enhanced Networking. Mit ENA können M6g-Instances innerhalb einer Placement-Gruppe bis zu 25 Gbit/s an Netzwerkbandbreite zwischen den Instances bereitstellen.

F: Müssen Kunden ihre Anwendungen und Workloads anpassen, um eine Ausführung auf M6g-Instances zu ermöglichen?

Die erforderlichen Änderungen hängen von der Anwendung ab. Kunden, die Anwendungen ausführen, die auf Open Source-Software basieren, werden feststellen, dass das Arm-Ökosystem gut entwickelt ist und wahrscheinlich bereits ihre Anwendungen unterstützt. Die meisten Linux-Distributionen sowie Container (Docker, Kubernetes, Amazon ECS, Amazon EKS, Amazon ECR) unterstützen die Arm-Architektur. Kunden finden Arm-Versionen häufig verwendeter Softwarepakete, die für die Installation über dieselben Mechanismen zur Verfügung stehen, die sie derzeit verwenden. Anwendungen, die auf interpretierten Sprachen basieren (wie Java, Node, Python, Go), die nicht auf native CPU-Befehlssätze angewiesen sind, sollten mit minimalen bis keinen Änderungen ausgeführt werden. Anwendungen, die mit kompilierten Sprachen (C, C++, GoLang) entwickelt wurden, müssen neu kompiliert werden, um Arm-Binärdateien zu generieren. Die Arm-Architektur wird in diesen beliebten Programmiersprachen gut unterstützt und moderner Code erfordert in der Regel einen einfachen „Make“-Befehl. Weitere Details finden Sie im Handbuch zu den ersten Schritten auf Github.

F: Was sind Amazon-EC2-A1-Instances?

Amazon EC2 A1-Instances sind neue Universal-Instances, die von AWS Graviton-Prozessoren der ersten Generation angetrieben werden, welche eigens von AWS entwickelt wurden.

F: Welche Spezifikationen weisen die AWS Graviton-Prozessoren der ersten Generation auf?

AWS Graviton-Prozessoren werden von AWS auf der Grundlage des umfassenden Know-hows von Amazon bei der Erstellung von Plattformlösungen für Cloud-Anwendungen, die in großem Maßstab ausgeführt werden, kundenspezifisch entwickelt. Diese Prozessoren basieren auf dem 64-Bit-ARM-Befehlssatz und enthalten ARM-Neoverse-Cores sowie von AWS eigens entwickeltes Silizium. Die Cores werden mit einer Taktfrequenz von 2,3 GHz betrieben.

F: Wann sollte ich A1-Instances nutzen?

A1-Instances bieten erhebliche Kosteneinsparungen für skalierbare Workloads, die in den verfügbaren Speicherbedarf passen. A1-Instances sind ideal für hochskalierte Anwendungen wie Webserver, containerisierte Microservices und Daten-/Protokollverarbeitung. Diese Instances werden auch Entwickler, Hobby-Programmierer und Trainer aus der Gemeinde der ARM-Entwickler begeistern.

F: Müssen Kunden ihre Anwendungen und Workloads anpassen, um eine Ausführung auf A1-Instances zu ermöglichen?

Die erforderlichen Änderungen hängen von der Anwendung ab. Anwendungen, die auf interpretierten oder zur Laufzeit kompilierten Sprachen basieren (z. B. Python, Java, PHP, Node.js), sollten ohne Änderungen laufen. Andere Anwendungen müssen möglicherweise neu kompiliert werden und Anwendungen, die nicht auf x86-Befehlen basieren, lassen sich in der Regel mit wenigen bis keinen Änderungen kompilieren.

F. Welche Betriebssysteme/AMIs werden auf A1-Instanzen unterstützt?

Die folgenden AMIs werden auf A1-Instances unterstützt: Amazon Linux 2, Ubuntu 16.04.4 oder höher, Red Hat Enterprise Linux (RHEL) 7.6 oder höher, SUSE Linux Enterprise Server 15 oder höher. Zusätzliche AMI-Unterstützung für Fedora, Debian, NGINX Plus ist ebenfalls durch Community-AMIs und im AWS Marketplace verfügbar. EBS-gestützte HVM AMIs, die auf A1-Instances ausgeführt werden sollen, erfordern beim Instance-Start die Installation von NVMe- und ENA-Treibern.

F: Gibt es bestimmte AMI-Anforderungen zur Ausführung auf M6g- und A1-Instances?

Sie müssen die AMIs "arm64" mit den M6g- und A1-Instances verwenden. x86-AMIs sind nicht mit M6g- und A1-Instances kompatibel.

F: Wann sollten Kunden A1-Instances im Vergleich zu den neuen M6g-Instances verwenden?

A1-Instances bieten weiterhin erhebliche Kostenvorteile für skalierbare Workloads, die auf mehreren kleineren Kernen ausgeführt werden können und in den verfügbaren Speicherbedarf passen. Die neuen M6g-Instances eignen sich gut für ein breites Spektrum von Anwendungen, die mehr Rechenleistung, Arbeitsspeicher und Netzwerkressourcen erfordern und/oder von einer plattformübergreifenden Skalierung profitieren können. M6g-Instances bieten für diese Anwendungen das beste Preis-Leistungs-Verhältnis innerhalb der Instance-Familie. M6g unterstützt bis zu 16xlarge Instance Size (A1 unterstützt bis zu 4xlarge), 4 GB Arbeitsspeicher pro vCPU (A1 unterstützt 2 GB Arbeitsspeicher pro vCPU) und bis zu 25 Gbit/s Netzwerkbandbreite (A1 unterstützt bis zu 10 Gbit/s).

F: Welche Speicheroptionen gibt es für A1-Kunden?

A1-Instances sind standardmäßig EBS-optimiert und bieten bis zu 3.500 Mbit/s dedizierte EBS-Speicherbandbreite für sowohl verschlüsselte als auch unverschlüsselte EBS-Volumes. A1-Instances unterstützen nur das Non-Volatile Memory Express (NVMe)-Interface zum Zugriff auf EBS-Speichervolumes. A1-Instances unterstützen das blkfront-Interface nicht.

F: Welche Netzwerkschnittstelle wird auf A1-Instanzen unterstützt?

A1-Instances unterstützen ENA-basiertes Enhanced Networking. Mit ENA können A1-Instanzen beim Start innerhalb einer Platzierungsgruppe bis zu 10 Gbit/s Netzwerkbandbreite zwischen den Instanzen liefern.

F: Unterstützen A1-Instances das AWS Nitro System?

Ja, A1-Instances werden vom AWS Nitro System angetrieben, das eine Kombination aus dedizierter Hardware und Nitro-Hypervisor ist.

F: Weshalb sollte ich mich als Kunde für EC2-M5-Instances (anstatt EC2-M4-Instances) entscheiden?

Gegenüber EC2 M4-Instances bieten die neuen EC2 M5-Instances mehr Rechen- und Speicherleistung, größere Kapazitäten zu geringeren Kosten und mehr Konsistenz und Sicherheit. Der größte Vorteil der EC2 M5-Instances besteht jedoch in der Verwendung der neuesten Generation von Intel Xeon Scalable-Prozessoren (Skylake-SP oder Cascade Lake), die im Vergleich zu M4-Instances für ein um bis zu 20 % besseres Preis-Leistungs-Verhältnis sorgen. Weiterhin liefert die Unterstützung von AVX-512 bei M5-Instances im Vergleich zu dem älteren AVX2-Befehlssatz bei M4-Instances die doppelte Leistung in Bezug auf Workloads mit Gleitkommaoperationen. M5-Instances bieten bis zu 25 Gbit/s Netzwerkbandbreite und bis zu 10 Gbit/s Bandbreite, die speziell für Amazon EBS reserviert ist. M5-Instances bieten bei kleineren Instances mit EBS-Bursting-Funktionalität auch eine wesentlich bessere Netzwerk- und Amazon EBS-Leistung.

F: Weshalb sollte ich mich als Kunde für M6i-Instances anstatt M5-Instances entscheiden?

Amazon-M6i-Instances werden von skalierbaren Intel-Xeon-Prozessoren der 3. Generation (Codename Ice Lake) mit einer All-Core-Turbofrequenz von 3,5 GHz betrieben, bieten eine bis zu 15 % bessere Computingleistung gegenüber M5-Instances und eine ständig aktive Speicherverschlüsselung mit Intel Total Memory Encryption (TME). Amazon-EC2-M6i-Instances sind die ersten, die mit einem kleinen „i“ im Namen versehen sind, um anzudeuten, dass sie Intel-betriebene Instances sind. M6i-Instances bieten eine neue Instance-Größe (m6i.32xlarge) mit 128 vCPUs und 512 GiB Arbeitsspeicher, 33 % mehr als die größte M5-Instance. Sie bieten auch bis zu 20 % mehr Speicherbandbreite pro vCPU im Vergleich zu M5-Instances, was es den Kunden erlaubt, Echtzeitanalysen für datenintensive KI-/ML-, Spiel- und High-Performance-Computing-Anwendungen (HPC) effizient durchzuführen. M6i bietet Kunden bis zu 50 Gbit/s Netzwerkgeschwindigkeit und 40 Gbit/s Bandbreite für den Amazon Elastic Block Store, das Doppelte von M5-Instances. Mit M6i können Kunden den Elastic Fabric Adapter in der 32-fachen Größe verwenden, was eine geringe Latenz und eine hoch skalierbare Kommunikation zwischen Knoten ermöglicht. Für eine optimale Netzwerkleistung auf diesen neuen Instances ist möglicherweise ein Elastic-Network-Adapter (ENA)-Treiberupdate erforderlich. Weitere Informationen zum optimalen ENA-Treiber für M6i finden Sie in diesem Artikel.

F: Welche Vorteile hat die Unterstützung von Intel AVX-512 für Kunden, die die EC2-M5-Familie oder die M6i-Familie verwenden?

Intel Advanced Vector Extensions 512 (AVX-512) ist eine Reihe neuer CPU-Befehle, die auf den neuesten Intel Xeon Scalable-Prozessoren verfügbar sind und die Leistung für Workloads und Anwendungen wie wissenschaftliche Simulationen, Finanzanalysen, künstliche Intelligenz, Machine Learning/Deep Learning, 3D-Modellierung und -Analyse, Bild- und Videoverarbeitung, Kryptografie und Datenkomprimierung u. a. beschleunigen können. Intel AVX-512 bietet eine außergewöhnlich leistungsstarke Verarbeitung von Verschlüsselungsalgorithmen, wodurch sich die Leistungsgrenzen der Kryptografie bedeutend verschieben. Kunden, die die EC2-M5-Familie oder M6i-Familie nutzen, können daher wesentlich mehr sichere Daten und Dienstleistungen in verteilte Umgebungen ohne Leistungseinbußen bereitstellen.

F: Was sind M5zn-Instances?

M5zn-Instances sind eine Variante der M5-Allzweck-Instances, die vom schnellsten Intel Xeon Scalable-Prozessor in der Cloud mit einer All-Core-Turbofrequenz von bis zu 4,5 GHz sowie 100-Gbit/s-Netzwerken und Unterstützung für Amazon EFA angetrieben werden. M5zn-Instances eignen sich ideal für Workloads wie Spiele, Finanzanwendungen, Simulationsmodellierungsanwendungen, wie sie in der Automobil-, Luft- und Raumfahrt-, Energie- und Telekommunikationsbranche sowie für andere Hochleistungsrechneranwendungen verwendet werden.

F: Wie unterscheiden sich M5zn-Instances von z1d-Instances?

z1d-Instances sind speicheroptimierte Instances und verfügen über eine Hochfrequenzversion der skalierbaren Intel Xeon-Prozessoren (bis zu 4,0 GHz) sowie über lokalen NVMe-Speicher. M5zn-Instances sind Allzweck-Instances und bieten eine Hochfrequenzversion der Intel Xeon Scalable-Prozessoren der 2. Generation (bis zu 4,5 GHz) sowie eine Netzwerkleistung von bis zu 100 Gbit/s und Support für EFA. M5zn-Instances bieten im Vergleich zu z1d eine verbesserte Preisleistung.

High-Memory-Instances

F: Wobei handelt es sich bei arbeitsspeicherintensive Instances von EC2?

Arbeitsspeicherintensive Instances von Amazon EC2 (U-1 und U7i) bieten 3, 6, 9, 12, 16, 18, 24 oder 32 TiB Speicher in einer einzelnen Instance. Diese Instances wurden entwickelt, um große In-Memory-Datenbanken, einschließlich Produktionsinstallationen von SAP HANA, in der Cloud auszuführen.

Arbeitsspeicherintensive Instances von EC2 (U-1) mit 3, 6, 9 und 12 TiB werden von einer 8-Socket-Plattform mit Intel® Xeon® Platinum 8176M (Skylake) oder 8280L (Cascade Lake)-Prozessoren angetrieben. Arbeitsspeicherintensive Instances von EC2 (U-1) mit 18 TiB und 24 TiB werden von einer 8-Sockel-Plattform mit Intel® Xeon® skalierbaren 8280L (Cascade Lake)-Prozessoren der 2. Generation angetrieben.

Amazon-EC2-U7i-Instances werden von 1,9 GHz (Turbo Boost bis 2,90 GHz) skalierbaren Intel Xeon Prozessoren der 4. Generation (Sapphire Rapids) angetrieben. U7i-Instances sind das erste DDR5-speicherbasierte 8-Socket-Angebot eines führenden Cloud-Anbieters. U7i-Instances bieten ein bis zu 45 % besseres Preis-Leistungs-Verhältnis im Vergleich zu bestehenden U-1-Instances. U7i-Instances bieten Unterstützung für 896 vCPUs und die 2,5-fache Elastic Block Store (EBS)-Bandbreite im Vergleich zu arbeitsspeicherintensive Amazon EC2 (U-1)-Instances.

Arbeitsspeicherintensive Instances von Amazon EC2 bieten bis zu 100 Gbit/s Elastic Block Store (EBS)-Bandbreite für Speicher-Volumes, einschließlich io2 Block Express, um E/A-intensive Anwendungsfälle wie Datenhydrierung, Sicherung/Wiederherstellung zu unterstützen.

F: Werden arbeitsspeicherintensive Instances von SAP für die Ausführung von SAP-HANA-Workloads zertifiziert?

Arbeitsspeicherintensive Instances (U-1 und U7i) mit 3, 6, 9, 12, 16, 18, 24 TiB Arbeitsspeicher sind von SAP für die Ausführung der Business Suite in HANA, der Business Suite S/4HANA der nächsten Generation, Data Mart Solutions in HANA, Business Warehouse in HANA und SAP BW/4HANA in Produktionsumgebungen zertifiziert. Einzelheiten finden Sie im Verzeichnis über SAP-zertifizierte und unterstützte SAP-HANA-Hardware.

F: Welche Instance-Typen sind für arbeitsspeicherintensive Instances verfügbar?

Arbeitsspeicherintensive Instances sind sowohl als Bare-Metal-Instances (nur U-1) als auch als virtualisierte Instances (U-1 und U7i) verfügbar. Dadurch haben Kunden die Wahl zwischen direktem Zugriff auf die zugrunde liegenden Hardware-Ressourcen oder der Nutzung der zusätzlichen Flexibilität virtualisierter Instances, einschließlich Kaufoptionen für On-Demand sowie Savings Plans für 1 oder 3 Jahre. Sehen Sie sich die verfügbaren Optionen für arbeitsspeicherintensive Instances im Abschnitt Speicheroptimierung auf der Seite mit den EC2-Instance-Typen an.

F: Was sind einige der Vorteile der Verwendung virtualisierter arbeitsspeicherintensiven Instances gegenüber Bare-Metal-Instances mit hohem Speicher?

Zu den Vorteilen virtueller arbeitsspeicherintensiver Instances gegenüber arbeitsspeicherintensiver Metal-Instances gehören: deutlich bessere Start-/Neustartzeiten, flexible Kaufoptionen (On-Demand, Savings Plan, Reserved Instances, Dedicated Hosts), Wahl des Tenancy-Typs, Self-Service-Optionen und Unterstützung für eine höhere Anzahl von EBS-Volumes.

F: Wann sollte eine arbeitsspeicherintensive „Metal“-Instance verwendet werden und wann sollte eine „virtualisierte“ arbeitsspeicherintensive Instance verwendet werden?

Obwohl die Verwendung virtualisierter arbeitsspeicherintensiver Instances generell empfohlen wird, gibt es bestimmte Situationen, in denen nur arbeitsspeicherintensive Metal-Instances funktionieren können. Zu diesen Situationen gehören: die Verwendung von Betriebssystem-Versionen, die auf virtualisierten arbeitsspeicherintensiven Instances nicht unterstützt werden, ODER die Verwendung von Anwendungen, die im nicht virtualisierten Modus ausgeführt werden müssen, um Anforderungen an Lizenzierung/Suppor zu erfüllen, ODER die Verwendung von Anwendungen, die Zugriff auf den Feature-Umfang der Hardware erfordern (wie etwa Intel VT-x), ODER die Verwendung eines benutzerdefinierten Hypervisors (z. B. ESXi).

F: Wie migriere ich von arbeitsspeicherintensive Metal-Instances zu virtualisierten arbeitsspeicherintensive Instances?

Sie können Ihre High-Memory-Metal-Instance in nur wenigen Schritten zu einer virtualisierten Instance migrieren. 1/ Beenden Sie Ihre Instance, 2/ Ändern Sie die Instance und den Tenancy-Typ über die EC2-API und 3/ Starten Sie das Backup Ihrer Instance. Wenn Sie Red Hat Enterprise Linux für SAP oder SUSE Linux Enterprise Server für SAP verwenden, müssen Sie sicherstellen, dass Ihr Betriebssystem und Ihre Kernelversionen mit virtualisierten arbeitsspeicherintensive Instances kompatibel sind. Weitere Informationen finden Sie in der Dokumentation zu Migration von SAP HANA in AWS zu einer arbeitsspeicherintensiven EC2-Instance.

F: Welche Speicheroptionen gibt es für arbeitsspeicherintensive Instances?

Arbeitsspeicherintensive Instances unterstützen Amazon-EBS-Volumes für den Speicher. Arbeitsspeicherintensive Instances sind standardmäßig EBS-optimiert.

F: Welche Speicherschnittstelle wird in arbeitsspeicherintensive Instances unterstützt?

Arbeitsspeicherintensive Instances greifen über PCI-angeschlossene NVM Express (NVMe)-Schnittstellen auf EBS-Volumes zu. An arbeitsspeicherintensive Instances angefügte EBS-Volumes werden als NVMe-Geräte angezeigt. NVMe ist eine effiziente und skalierbare Speicherschnittstelle, die häufig für Flash-basierte SSDs verwendet wird und für eine Verringerung der Latenzzeit sorgt und zu einem erhöhten Platten-I / O und -Durchsatz führt. Die EBS-Volumes werden per PCI-Hotplug angeschlossen und getrennt.

F: Welche Netzwerkleistung wird in arbeitsspeicherintensive Instances unterstützt?

Arbeitsspeicherintensive Instances verwenden den Elastic Network Adapter (ENA) für das Netzwerk und ermöglichen standardmäßig erweiterte Vernetzung. Mit ENA können arbeitsspeicherintensive Instances bis zu 100 Gbit/s (U-1) und bis zu 200 Gbit/s (U7i) Netzwerkbandbreite nutzen

F: Kann ich arbeitsspeicherintensive Instances in meiner vorhandenen Amazon Virtual Private Cloud (Amazon VPC) ausführen?

Sie können High Memory Instances in Ihren vorhandenen und neuen Amazon VPCs ausführen.

Welcher zugrunde liegende Hypervisor wird bei High-Memory-Instances verwendet?

High Memory-Instances verwenden den sehr kompakten Nitro-Hypervisor, der auf Kern-KVM-Technologie basiert ist.

F: Unterstützen High-Memory-Instances eine Statusüberwachung des CPU-Power-Managements?

Ja. Sie können C-Zustände und P-Zustände in arbeitsspeicherintensiven Instances (U-1 Metal) konfigurieren.  Sie können C-Zustände sowohl auf virtuellen U-1- als auch auf U7i-Instances konfigurieren.   Mit C-Zustände werden höhere Turbofrequenzen ermöglicht (bis zu 4,0 GHz). Mithilfe von P-States lässt sich die Performancevarianz reduzieren. Dabei werden alle Kerne fest P1- oder höheren P-States zugewiesen, was einer Deaktivierung der Turbofunktion gleichkommt, und arbeiten konsistent entsprechend der Basis-CPU-Taktfrequenz.

F: Welche Kaufoptionen sind für arbeitsspeicherintensive Instances verfügbar?

Virtualisierte arbeitsspeicherintensive EC2-Instances können On-Demand, mit einem 1-Jahres- bzw. 3-Jahres Savings-Plan sowie als Reserved Instance für 1 Jahr bzw. 3 Jahre erworben werden. Arbeitsspeicherintensive Metal-Instances von EC2 können nur als EC2 Dedicated Hosts mit einer 1-Jahres- und 3-Jahres-Reservierung erworben werden.

F: Wie sieht der Lebenszyklus eines Dedicated Hosts aus?

Sobald ein Dedicated Host in Ihrem Konto zugewiesen wurde, steht er Ihnen zur Verfügung. Sie können dann eine Instanz mit dem Mandanten "host" mithilfe der RunInstances-API starten und die Instanz über die API auch stoppen / starten / beenden. Sie können mit der AWS-Managementkonsole den Dedicated Host und die Instance verwalten. 

Kann ich High-Memory-Instances mithilfe von AWS CLI/SDK starten, stoppen/starten und beenden?

Sie können Instances mithilfe von AWS CLI/SDK starten, stoppen/starten und beenden.

F: Welche AMIs werden von High-Memory-Instances unterstützt?

EBS-unterstützte HVM AMIs mit Unterstützung für ENA-Netzwerke können mit High Memory Instances verwendet werden. Die neuesten Amazon Linux-, Red Hat Enterprise Linux-, SUSE Enterprise Linux Server- und Windows Server AMIs werden unterstützt. Unterstützte Betriebssysteme für SAP-HANA-Workloads in arbeitsspeicherintensive Instances sind: SUSE Linux Enterprise Server 12 SP3 für SAP, Red Hat Enterprise Linux 7.4 für SAP, Red Hat Enterprise Linux 7.5 für SAP, SUSE Linux Enterprise Server 12 SP4 für SAP, SUSE Linux Enterprise Server 15 für SAP, Red Had Enterprise Linux 7.6 für SAP. Aktuelle Informationen zu den unterstützten Betriebssystemen finden Sie in der technischen Dokumentation von SAP in AWS.

F: Gibt es Standard-SAP-HANA-Referenzimplementierungs-Frameworks für die arbeitsspeicherintensive Instance und die AWS Cloud?

Verwenden Sie die in Referenzimplementierungen von AWS Quick Start SAP HANA zur schnellen Bereitstellung aller erforderlichen SAP-HANA-Elemente auf High-Memory-Instances gemäß den SAP-Empfehlungen für hohe Leistung und Zuverlässigkeit. AWS Quick Start-Optionen sind modular und anpassbar. Sie können zusätzliche Funktionen darauf aufsetzen oder sie für Ihre eigenen Implementierungen ändern.

Arbeitsspeicheroptimierte Instances

F: Wann sollte ich speicheroptimierte Instances nutzen?

Speicheroptimierte Instances bieten eine große Speichergröße für speicherintensive Anwendungen wie In-Memory-Anwendungen, In-Memory-Datenbanken, In-Memory-Analyselösungen, HPC, wissenschaftliche Berechnungen und andere speicherintensive Anwendungen. 

F: Was sind Amazon-EC2-R6g-Instances?

Amazon EC2 R6g-Instances sind die nächste Generation von speicheroptimierten Instances, die auf Arm-basierten AWS Graviton2-Prozessoren basieren. R6g-Instances bieten ein um bis zu 40 % besseres Preis-Leistungs-Verhältnis als R5-Instances. Sie basieren auf dem AWS-Nitro-System, einer Kombination aus dedizierter Hardware und Nitro-Hypervisor.

F: Was sind Beispiele für ideale Anwendungsfälle für R6g-Instances?

R6g-Instances bieten erhebliche Preis- und Leistungsvorteile für speicherintensive Workloads wie Instances und sind ideal für die Ausführung speicherintensiver Workloads wie Open-Source-Datenbanken, In-Memory-Caches und Big-Data-Analysen in Echtzeit. Für Kunden, die auf Open-Source-Software basierende Anwendungen auf R-Instances einsetzen, sind die R6g-Instances eine attraktive Option, um die beste Preisleistung innerhalb der Instancefamilie zu erzielen. Arm-Entwickler können ihre Anwendungen auch direkt auf nativer Arm-Hardware erstellen, anstatt sie zu kompilieren oder zu emulieren.

F: Welche Speicheroptionen gibt es für R6g-Instances?

R6g-Instances sind standardmäßig EBS-optimiert und bieten bis zu 19 000 Mbit/s dedizierte EBS-Speicherbandbreite für sowohl verschlüsselte als auch unverschlüsselte EBS-Volumes. R6g-Instances unterstützen nur das Non-Volatile-Memory-Express-(NVMe-)Interface zum Zugriff auf EBS-Speichervolumes. Darüber hinaus sind Optionen mit lokalem NVMe-Instance-Speicher auch über die R6gd-Instance-Typen verfügbar.

F: Welche Netzwerkschnittstelle wird auf R6g-Instances unterstützt?

R6g-Instances unterstützen ENA-basiertes Enhanced Networking. Mit ENA können R6g-Instances innerhalb einer Placement-Gruppe bis zu 25 Gbit/s an Netzwerkbandbreite zwischen den Instances bereitstellen.

F: Müssen Kunden ihre Anwendungen und Workloads anpassen, um eine Ausführung auf R6g-Instances zu ermöglichen?

Die erforderlichen Änderungen hängen von der Anwendung ab. Kunden, die Anwendungen ausführen, die auf Open Source-Software basieren, werden feststellen, dass das Arm-Ökosystem gut entwickelt ist und wahrscheinlich bereits ihre Anwendungen unterstützt. Die meisten Linux-Distributionen sowie Container (Docker, Kubernetes, Amazon ECS, Amazon EKS, Amazon ECR) unterstützen die Arm-Architektur. Kunden finden Arm-Versionen häufig verwendeter Softwarepakete, die für die Installation über dieselben Mechanismen zur Verfügung stehen, die sie derzeit verwenden. Anwendungen, die auf interpretierten Sprachen basieren (wie Java, Node, Python, Go), die nicht auf native CPU-Befehlssätze angewiesen sind, sollten mit minimalen bis keinen Änderungen ausgeführt werden. Anwendungen, die mit kompilierten Sprachen (C, C++, GoLang) entwickelt wurden, müssen neu kompiliert werden, um Arm-Binärdateien zu generieren. Die Arm-Architektur wird in diesen beliebten Programmiersprachen gut unterstützt und moderner Code erfordert in der Regel einen einfachen „Make“-Befehl. Weitere Details finden Sie im Handbuch zu den ersten Schritten auf Github.

F: Weshalb sollten Sie sich für R6i-Instances anstatt R5-Instances entscheiden?

Amazon-R6i-Instances werden betrieben von skalierbaren Intel-Xeon-Prozessoren der 3. Generation (Ice Lake) mit einer All-Core-Turbofrequenz von 3,5 GHz, sie bieten bis zu 15 % bessere Computing-Preisleistung gegenüber R5-Instances und eine ständig aktive Speicherverschlüsselung mit Intel Total Memory Encryption (TME). Amazon-EC2-R6i-Instances sind einem kleinen „i“ im Namen versehen, um anzudeuten, dass sie Intel-betriebene Instances sind. R6i-Instances bieten eine neue Instance-Größe (r6i.32xlarge) mit 128 vCPUs und 1.024 GiB Arbeitsspeicher, 33 % mehr als die größte R5-Instance. Sie bieten auch bis zu 20 % mehr Speicherbandbreite pro vCPU im Vergleich zu R5-Instances, was es Ihnen erlaubt, Echtzeitanalysen für datenintensive KI-/ML-, Spiel- und High-Performance-Computing-Anwendungen (HPC) effizient durchzuführen. R6i-Instances bietet Ihnen bis zu 50 Gbit/s Netzwerkgeschwindigkeit und 40 Gbit/s Bandbreite für den Amazon Elastic Block Store, das Doppelte von R5-Instances. Mit R6i-Instances können Sie den Elastic Fabric Adapter (EFA) in der 32xlarge- und Metal-Größe verwenden, was eine geringe Latenz und eine hoch skalierbare Kommunikation zwischen Knoten ermöglicht. Für eine optimale Netzwerkleistung auf diesen neuen Instances ist möglicherweise ein Elastic Network Adapter (ENA)-Treiberupdate erforderlich. Weitere Informationen über einen optimalen ENA-Treiber für R6i finden Sie unter „Was muss ich tun, bevor ich meine EC2-Instance auf eine Instanz der sechsten Generation migriere?“ im Knowledge Center.

F: Was sind Amazon-EC2-R5b-Instances?

R5b-Instances sind EBS-optimierte Varianten speicheroptimierter R5-Instances, die im Vergleich zu R5-Instances gleicher Größe eine bis zu dreimal bessere EBS-Leistung bieten. R5b-Instances bieten eine Bandbreite von bis zu 60 Gbit/s und eine EBS-Leistung von 260K IOPS – die höchste Blockspeicherleistung in EC2. Sie basieren auf dem AWS Nitro-System, einer Kombination aus dedizierter Hardware und Nitro-Hypervisor.

F: Was sind Beispiele für ideale Anwendungsfälle für R5b-Instances?

R5b-Instances sind ideal für große relationale Datenbank-Workloads, einschließlich Microsoft SQL Server, SAP HANA, IBM DB2 und Oracle, auf denen leistungsintensive Anwendungen wie Handelsplattformen, ERP-Systeme und Health Record-Systeme ausgeführt werden. Kunden, die große lokale Workloads mit hohen Anforderungen an die Speicherleistung auf AWS migrieren möchten, werden feststellen, dass R5b-Instances gut geeignet sind.

F: Welche verschiedenen Speicheroptionen gibt es für R5b-Instances?

R5b-Instances sind standardmäßig EBS-optimiert und bieten bis zu 60.000 Mbit/s dedizierte EBS-Bandbreite und 260 K IOPS für verschlüsselte und unverschlüsselte EBS-Volumes. R5b-Instances unterstützen nur das Non-Volatile-Memory-Express-(NVMe-)Interface zum Zugriff auf EBS-Speichervolumes. R5b wird von allen Volume-Typen mit Ausnahme von io2-Volumes unterstützt.

F: Wann sollte ich R5b-Instances nutzen?

Kunden, die Workloads wie große relationale Datenbanken und Datenanalytik ausführen und die gesteigerte Leistung des EBS-Speichernetzwerks nutzen möchten, können R5b-Instances verwenden, um eine höhere Leistung und Bandbreite bereitzustellen. Kunden können auch den Preis senken, indem sie ihre Workloads auf kleinere R5b-Instances migrieren oder Workloads auf weniger R5b-Instances konsolidieren.

F: Welche Speicheroptionen gibt es für High-Memory-Instances?

High Memory Instances unterstützen Amazon EBS-Volumes für den Speicher. High Memory Instances sind standardmäßig EBS-optimiert und bieten bis zu 38 Gbps Speicherbandbreite für verschlüsselte und unverschlüsselte EBS-Volumes.

F: Was sind Amazon EC2 X2gd-Instances?

Amazon EC2 X2gd-Instances sind die nächste Generation von speicheroptimierten Instances, die von powered by AWS Arm-basierten AWS Graviton2-Prozessoren angetrieben werden. X2gd-Instances liefern eine bis zu 55 % bessere Preisleistung im Vergleich zu x86-basierten X1-Instances und bieten die niedrigsten Kosten pro GiB Speicher in Amazon EC2. Sie sind die ersten der X-Instances, die auf dem AWS Nitro-System aufgebaut sind, einer Kombination aus dedizierter Hardware und Nitro-Hypervisor.

F: Welche Workloads sind für X2gd-Instances geeignet?

X2gd ist ideal für Kunden mit Arm-kompatiblen speichergebundenen Scale-Out-Workloads wie Redis- und Memcached-In-Memory-Datenbanken, die einen Speicherzugriff mit geringer Latenz benötigen und von mehr Speicher pro vCPU profitieren. X2gd ist auch gut für relationale Datenbanken wie PostgreSQL, MariaDB, MySQL und RDS Aurora geeignet. Kunden, die speicherintensive Workloads wie Apache Hadoop, Echtzeit-Analysen und Echtzeit-Caching-Server betreiben, profitieren vom 1:16 vCPU/Speicher-Verhältnis des X2gd. Single-Thread-Workloads wie EDA-Backend-Verifikationsaufgaben profitieren von den physischen Kernen und dem größeren Arbeitsspeicher der X2gd-Instances, sodass sie mehr Workloads auf einer einzigen Instance konsolidieren können. Die X2gd-Instance verfügt außerdem über einen lokalen NVMe-SSD-Blockspeicher, der als Caching-Schicht die Antwortzeiten verbessert.

F: Wann sollte ich X2gd-Instances im Vergleich zur X1-, X2i- oder R-Familie von Instances verwenden?

X2gd-Instances eignen sich für Arm-kompatible speichergebundene Scale-Out-Workloads wie In-Memory-Datenbanken, Memory-Analytik-Anwendungen, Open-Source-Workloads für relationale Datenbanken, EDA-Workloads und große Caching-Server. X2gd-Instances bieten Kunden die niedrigsten Kosten pro Gigabyte Speicher innerhalb von EC2, mit Größen bis zu 1 TiB. X2iezn-, X2idn-, X2iedn-, X1 und X1e-Instances nutzen x86-Prozessoren und sind für speicherintensive Scale-Up-Workloads der Enterprise-Klasse geeignet, wie etwa Windows-Workloads, In-Memory-Datenbänke (z. B. SAP HANA) und relationale Datenbänke (z. B. OracleDB). Kunden können die x86-basierte X-Instancefamilie für größere Speichergrößen bis zu 4 TiB nutzen. R6g- und R6gd-Instances eignen sich für Workloads wie Web-Anwendungen, Datenbanken und Suchindexierungsabfragen, die in Zeiten starker Datenverarbeitung mehr vCPUs benötigen. Kunden, die speichergebundene Workloads ausführen, die weniger als 1 TiB Speicher benötigen und vom x86-Befehlssatz abhängig sind, wie z. B. Windows-Anwendungen und Anwendungen wie Oracle oder SAP, können R5-und R6-Instances nutzen.

F: Wann sollte ich X2idn- und X2iedn-Instances nutzen?

X2idn- und X2iedn-Instances werden von skalierbaren Intel-Xeon-Prozessoren der 3. Generation mit einer Turbofrequenz von bis zu 3,5 GHz angetrieben und bieten ein bis zu 50 % verbessertes Computing-Preisleistungverhältnis im Vergleich zu X1-Instances. X2idn- und X2iedn-Instances umfassen bis zu 3,8 TB lokalen NVMe-SSD-Speicher und bis zu 100 Gbit/s Netzwerkbandbreite, während X2idn bis zu 2 TiB Speicher und X2iedn bis zu 4 TiB Speicher bietet. X2idn- und X2iedn-Instances sind SAP-zertifiziert und eignen sich ideal für Workloads wie etwa kleine bis große traditionelle und In-Memory-Datenbanken und Analytik.

F: Wann sollte ich X2iezn-Instances nutzen?

X2iezn-Instances verfügen über den schnellsten skalierbaren Intel-Xeon-Prozessor in der Cloud und eignen sich bestens für Workloads, die eine hohe Single-Threaded-Leistung kombiniert mit einem hohen Speicher-zu-vCPU-Verhältnis und Hochgeschwindigkeits-Netzwerk benötigen. X2iezn-Instances haben eine All-Core-Turbofrequenz von bis zu 4,5 GHz, ein 32:1 Verhältnis von Speicher zu vCPU und liefern eine bis zu 55 % höhere Computing-Preisleistung im Vergleich zu X1e-Instances. X2iezn-Instances eignen sich bestens für Electronic Design Automation (EDA)-Workloads wie physische Verifizierung, statische Timing-Analyse, Power-Signoff und Simulationen auf Full-Chip-Gate-Ebene.

F: Welche Betriebssysteme/AMIs werden auf X2gd-Instances unterstützt?

Die folgenden AMIs werden unterstützt: Amazon Linux 2, Ubuntu 18.04 (oder neuer), Red Hat Enterprise Linux 8.2 (oder neuer) und SUSE Enterprise Server 15 (oder neuer). Kunden finden weitere AMIs wie Fedora, Debian, NetBSD und CentOS, die über Community-AMIs und den AWS Marketplace verfügbar sind. Für containerisierte Anwendungen sind auch für Amazon ECS und EKS optimierte AMIs verfügbar.

F: Wann sollte ich X1-Instances nutzen?

X1-Instances sind ideal für die Ausführung von In-Memory-Datenbanken wie SAP HANA, großen Datenverarbeitungs-Engines wie Apache Spark oder Presto sowie High Performance Computing (HPC)-Anwendungen. X1-Instances sind von SAP für die Ausführung von Business Warehouse auf HANA (BW), Data Mart Solutions auf HANA, Business Suite auf HANA (SoH) sowie die Business Suite S/4HANA der nächsten Generation in AWS-Cloud-basierten Produktionsumgebungen zertifiziert.

F: Unterstützen X1- und X1e-Instances eine Statusüberwachung des CPU-Power-Managements?

Ja. Sie können C-States und P-States auf x1e.32xlarge-, x1e.16xlarge-, x1e.8xlarge-, x1.32xlarge- und x1.16xlarge-Instances konfigurieren. Mit C-States werden höhere Turbofrequenzen ermöglicht (bis zu 3,1 GHz mit 1- oder 2-Kern-Turbo). Mithilfe von P-States lässt sich die Performancevarianz reduzieren. Dabei werden alle Kerne fest P1- oder höheren P-States zugewiesen, was einer Deaktivierung der Turbofunktion gleichkommt, und arbeiten konsistent entsprechend der Basis-CPU-Taktfrequenz.

x1e.32xlarge wird auch Windows Server 2012 R2 and 2012 RTM unterstützen. x1e.xlarge, x1e.2xlarge, x1e.4xlarge, x1e.8xlarge, x1e.16xlarge und x1.32xlarge wird auch Folgendes unterstützen: Windows Server 2012 R2, 2012 RTM und 2008 R2 64-Bit (Windows Server 2008 SP2 und ältere Versionen werden nicht unterstützt). x1.16xlarge wird Folgendes unterstützen: Windows Server 2012 R2, 2012 RTM, 2008 R2 64-Bit, 2008 SP2 64-Bit sowie 2003 R2 64-Bit (32-Bit-Versionen von Windows Server werden nicht unterstützt).

F: Gibt es Standard-SAP-HANA-Referenzimplementierungs-Frameworks für die High-Memory-Instance und AWS?

Sie können die Bereitstellungen AWS Launch Wizard for SAP oder AWS Quick Start Reference SAP HANA verwenden, um alle notwendigen SAP-HANA-Bausteine schnell auf Instances mit hoher Speicherkapazität bereitzustellen und dabei den Empfehlungen von AWS und SAP für hohe Leistung und Zuverlässigkeit zu folgen.

Instances der vorherigen Generation

F: Warum werden Instances vom Typ M1, C1, CC2 und HS1 nicht mehr auf den Preisseiten aufgeführt?

Diese Instances wurden auf die Seite Instances der vorherigen Generation verschoben.

F: Werden dieses Instances der vorherigen Generation noch unterstützt?

Ja. Instances der vorherigen Generation werden noch voll unterstützt.

F: Kann ich Instances der vorherigen Generation weiterhin verwenden und hinzufügen?

Ja. Die Instances der vorherigen Generation stehen weiterhin als On-Demand-, Reserved und Spot-Instances über unsere APIs, die Befehlszeilenschnittstelle (CLI) und die EC2 Management Console zur Verfügung.

F: Werden meine Instances der vorherigen Generation gelöscht?

Nein. Bis Instances das Ende ihrer Lebensdauer erreicht haben und vollständig veraltet sind, sind Instances der vorherigen Generation voll funktionsfähig und werden aufgrund dieser Änderung nicht gelöscht. Wenn AWS beschließt, Instances der vorherigen Generation aufgrund von Überlegungen zum Ende ihrer Lebensdauer als veraltet zu betrachten, werden Sie über diese Änderung informiert.  

F: Wird die Unterstützung für Instances der vorherigen Generation bald eingestellt?

Wie bei jeder sich rasch entwickelnden Technologie bietet die neueste Generation in der Regel das beste Preis-/Leistungsverhältnis und wir empfehlen unseren Kunden daher, die Vorteile der technologischen Weiterentwicklungen zu nutzen. Wenn AWS beschließt, Instances der vorherigen Generation aufgrund von Überlegungen zum Ende ihrer Lebensdauer als veraltet zu betrachten, werden Sie über diese Änderung informiert.

F: Wirkt sich diese Änderung in irgendeiner Weise auf meine Instances der vorherigen Generation aus, die ich als Reserved Instance gekauft habe?

Nein. Ihre Reserved Instances ändern sich nicht und die Instances der vorherigen Generation werden nicht abgeschafft.

Speicheroptimierte Instances

F: Was ist eine Dense-Storage-Instance?

Dense-Storage-Instances sind für Workloads konzipiert, die hohe sequenzielle Lese- und Schreibvorgänge in sehr großen Datenbeständen erfordern, etwa verteiltes Computing mit Hadoop, Data Warehouses mit massiver Parallelverarbeitung und Protokollverarbeitungsanwendungen. Die Dense-Storage-Instances bieten den besten Preis/Speicher-GB und Preis/Datenträgerdurchsatz gegenüber anderen EC2-Instances.

F: Wie lassen sich Dense-Storage-Instances mit High-I/O-Instances vergleichen?

High-I/O-Instances (Im4gn, Is4gen, I4i, I3, I3en) sind für Workloads vorgesehen, die niedrige Latenz und hohe Random-I/O-Leistung zusätzlich zu moderater Speicherdichte benötigen. Sie liefern den besten Preis/IOPS im Vergleich zu anderen EC2-Instance-Typen. Dense-Storage-Instances (D3, D3en, D2) und HDD-Storage-Instances (H1) sind für Anwendungen optimiert, die hohen sequenziellen Lese-/Schreibzugriff und kostengünstige Speicherung für sehr große Datenbestände erfordern und bieten den besten Preis pro Speicher-GB und Preis/Datenträgerdurchsatz im Vergleich zu anderen EC2-Instances.

F: Wie viel Datenträgerdurchsatz können Dense- und HDD-Storage-Instances bereitstellen?

Die derzeit größte Generation der Dense HDD-Storage-Instances, d3en.12xlarge, kann bis zu 6,2 GiB/s Lese- und 6,2 GiB/s Schreib-Datenträgerdurchsätze mit einer Blockgröße von 128 bereitstellen. Weitere Informationen zur Leistung finden Sie auf der Produktdetailseite. Um die beste Datenträgerdurchsatz-Leistung Ihrer D2-, D3- und D3en-Instances auf Linux zu gewährleisten, empfehlen wir die Verwendung der neueste Version der Amazon-Linux-AMI oder eine andere Linux-AMI-Version mit einer Kernelversion von 3.8 oder höher, die persistente Zuweisungen zulässt – eine Erweiterung des Xen-Blockring-Protokolls, das Datenträgerdurchsatz und Skalierbarkeit erheblich verbessert.

F: Bieten Dense- und HDD-Speicher-Instances Mechanismen für Failover oder Redundanz?

D2- und H1-Instances bieten Benachrichtigungen für Hardwarefehler. Wie alle Instance-Speicher bleiben Dense HDD-Storage-Volumes nur für die Lebensdauer einer Instance bestehen. Deshalb empfehlen wir, dass Sie einen Redundanzgrad (etwa RAID 1/5/6) oder Dateisysteme verwenden (etwa HDFS und MapR-FS), die Redundanz und Fehlertoleranz unterstützen. Sie können Daten auch regelmäßig auf weiteren Datenspeicherlösungen wie Amazon EBS oder Amazon S3 sichern.

F: Wie unterscheiden sich Dense-HDD-Storage-Instances von Amazon EBS?

Amazon EBS bietet einfache, elastische, zuverlässige (replizierte) und persistente Speicherung auf Blockebene für Amazon EC2, wobei von den zugrunde liegenden verwendeten Speichermedien abstrahiert wird. Amazon EC2-Instance-Instances mit lokalem HDD- oder NVMe-Speicher bieten direkt angeschlossene Hochleistungsspeicherbausteine, die für eine Vielzahl von Speicheranwendungen verwendet werden können. Dense-Storage-Instances richten sich insbesondere an Kunden, die hohen sequenziellen Lese-/Schreibzugriff auf große Datenbestände auf lokalem Speicher benötigen, etwa für verteiltes Computing mit Hadoop und Data Warehouses mit massiver Parallelverarbeitung.

F: Kann ich Dense-HDD-Speicher-Instances als Amazon-EBS-optimierte Instances starten?

Jeder HDD-Speicher-Instance-Typ (H1, D2, D3 und D3en) ist standardmäßig EBS-optimiert. Da diese Funktion immer aktiviert ist, hat das explizite Starten einer dieser Instances im EBS-optimierten Zustand keine Auswirkungen auf das Verhalten der Instace. Weitere Informationen finden Sie unter Amazon-EBS-optimierte Instances.

F: Kann ich D2-Instances als für Amazon-EBS-optimierte Instances starten?

Jeder D2-Instance-Typ ist standardmäßig EBS-optimiert. D2-Instances bieten EBS Verbindungen mit 500 Mbit/s bis 4 000 Mbit/s zusätzlich zum von der Instance im Netzwerk bereitgestellten Durchsatz. Da dieses Feature für D2-Instances stets aktiviert ist, wirkt sich das explizite Starten einer D2-Instance als EBS-optimiert nicht auf das Verhalten der Instance aus.

F: Was ist eine High-I/O-Instance?

High-I/O-Instances verwenden lokale auf NVMe basierende Instance-Speicher, um I/O-Kapazität mit sehr hoher bzw. niedriger Latenz für Anwendungen zu schaffen, und sie sind für Anwendungen optimiert, die Millionen von IOPS benötigen. Wie Cluster-Instances können High-I/O-Instances über Cluster-Placement-Gruppen für Netzwerke mit niedriger Latenzzeit angeordnet werden.

F: Sind alle Funktionen von Amazon EC2 für High-I/O-Instances verfügbar?

High-I/O-Instances unterstützen alle Amazon-EC2-Funktionen. Im4gn-, Is4gen-, I4i-, I3- und I3en-Instances bieten nur NVMe-Speicher, während frühere I2-Instances der Generation I2 den Legacy-Blkfront-Speicherzugriff ermöglichen.

F: AWS hat weitere Angebote für Datenbanken und Big Data. Wann oder warum sollte ich High I/O Instances nutzen?

High I/O-Instances eignen sich ideal für Anwendungen, die Zugriff auf Millionen von IOPS pro Sekunde mit kurzer Latenz benötigen, und können Datenspeicher und Architekturen nutzen, die Datenredundanz und Verfügbarkeit verwalten. Beispielanwendungen sind:

  • NoSQL-Datenbanken wie Cassandra und MongoDB
  • In-Memory-Datenbanken (Aerospike)
  • Elasticsearch und Analyse von Inhalten
  • OLTP-Systeme

F: Bieten High-I/O-Instances Failover-Mechanismen oder Redundanz?

Wie bei anderen Amazon-EC2-Instance-Typen wird Instance-Speicher auf Im4gn-, Is4gen-, I4i-, I3- und I3en-Instances während der Nutzungsdauer der Instance persistent gespeichert. Von Kunden wird erwartet, dass sie ihre Anwendungen widerstandsfähig machen. Wir empfehlen die Verwendung von Datenbanken und Dateisystemen, die Redundanz und Fehlertoleranz unterstützen. Für verbesserte Datenbeständigkeit sollten Kunden ihre Daten in regelmäßigen Abständen auf Amazon S3 speichern.

F: Bieten High-I/O-Instances Unterstützung für TRIM?

Der TRIM-Befehl ermöglicht es dem Betriebssystem, SSDs darüber zu informieren, welche Datenblöcke als nicht mehr genutzt angesehen werden und intern entfernt werden können. Wenn kein TRIM vorhanden ist, können zukünftige Schreibvorgänge der beteiligten Blöcke erheblich langsamer werden. Im4gn-, Is4gen-, I4i-, I3- und I3en-Instances unterstützen TRIM.

F: Wie sehen D3- und D3en-Instances im Vergleich zu D2-Instances aus?

D3- und D3en-Instances bieten gegenüber D2 verbesserte Spezifikationen für die folgenden Rechen-, Speicher- und Netzwerkattribute:

  • D3- und D3en-Instances bieten bis zu 30 % höhere Rechenleistungen als entsprechende D2-Instances. Der genaue Leistungsvorteil hängt von der spezifischen Workload ab.
  • D3- und D3en-Instances bieten einen um bis zu 45 % bzw. 100 % höheren Festplattendurchsatz als D2-Instances.
  • D3-Instances sind zu einem Preis erhältlich, der 5 % unter dem von D2-Instances liegt. D3en-Instances senken die Kosten pro TB Speicher um bis zu 80 % im Vergleich zu D2-Instances.
  • D3- und D3en-Instances bieten Intel Advanced Vector-Erweiterungen (AVX 512), die im Vergleich zu AVX 2 auf D2 bis zu 2X FLOPS pro Zyklus bieten.
  • D3en-Instances bieten eine neue Instance-Größe (12xl) mit 48 vCPUs und 7 TB Speicher pro vCPU für 336 TB Gesamtspeicher, haben jedoch die Hälfte des Speichers pro vCPU im Vergleich zu D2 und 48 TB Gesamtspeicher.
  • D3- und D3en-Instances bieten bei ihrer größten Größe eine Netzwerkbandbreite von bis zu 25 Gbit/s bzw. 75 Gbit/s, um die Kundenanforderungen an die Netzwerkleistung für die Ausführung von Big-Data-Workloads und Dateisystem-Clustern zu erfüllen.

F: Verschlüssen D3- und D3en-Instances Speichervolumen und Netzwerk-Datenverkehr?

Ja; auf die Speichervolumes geschriebene Daten werden im Ruhezustand mit AES-256-XTS verschlüsselt. Der Netzwerkverkehr zwischen D3- und D3en-Instances in derselben VPC oder einer VPC mit Peer-Funktion wird standardmäßig mit einem 256-Bit-Schlüssel verschlüsselt.

Speicherung

Amazon Elastic Block Store (Amazon EBS)

F: Was geschieht mit meinen Daten, wenn ein System außer Betrieb genommen wird?

Die in einem lokalen Instance-Speicher gespeicherten Daten bestehen nur so lange, wie die Instance aktiv ist. Daten, die auf einem Amazon EBS-Volume gespeichert sind, bleiben jedoch unabhängig von der Nutzungsdauer der Instance dauerhaft erhalten. Daher wird empfohlen, den lokalen Instance-Speicher für temporäre Daten zu verwenden. Für eine höhere Datenbeständigkeit wird empfohlen, Amazon EBS-Volumes zu verwenden oder die Daten auf Amazon S3 zu sichern. Wenn Sie ein Amazon EBS-Volume als Stammpartition verwenden, müssen Sie das Kennzeichen "Delete on Terminate" (Beim Beenden löschen) auf "N" setzen, wenn Ihr Amazon EBS-Volume außerhalb der Lebensdauer der Instance bestehen soll.

F: Welche Leistung kann ich von Amazon EBS-Volumes erwarten?

Amazon EBS stellt vier Volume-Typen der aktuellen Generation bereit, die in zwei Hauptkategorien unterteilt sind: SSD-Speicher für Transaktions-Workloads und HDD-Speicher für durchsatzintensive Workloads. Diese Volume-Typen unterscheiden sich bei den Leistungsmerkmalen und im Preis, sodass Sie die Speicherleistung und -kosten an die Anforderungen Ihrer Anwendungen anpassen können. Weitere Informationen finden Sie in der Amazon-EBS-Übersicht. Weitere Informationen zur Leistung finden Sie im Abschnitt „EBS-Leistung“ im Amazon-EC2-Benutzerhandbuch.

F: Was sind durchsatzoptimierte HDD (ST1)- und selten genutzte HDD (SC1)-Volume-Typen?

ST1-Volumes basieren auf Festplatten (HDDs) und eignen sich optimal für häufig genutzte, durchsatzintensive Arbeitslasten mit hohen Datensätzen und umfangreichen E/A-Größen wie bei MapReduce, Kafka, der Protokollverarbeitung, Data Warehouse- und ETL-Arbeitslasten. Die Leistung der Volumes wird anhand des Durchsatzes in MB/s gemessen. Sie können Spitzenleistungen bis 250 MB/s pro TB erreichen. Der Basisdurchsatz liegt bei 40 MB/s pro TB und der maximale Durchsatz bei 500 MB/s pro Volume. ST1 liefert die erwartete Durchsatzleistung 99 % der Zeit. Das E/A-Guthaben reicht aus, um zu Spitzenlastzeiten einen vollständigen Volume-Scan durchzuführen.

SC1-Volumes werden von HDDs gesichert und bieten die niedrigsten Kosten pro GB aller EBS-Volume-Typen. Die Volumes eignen sich optimal für seltener genutzte Workloads mit großen, selten genutzte Datensätzen. Ähnlich wie st1 bietet auch sc1 ein Spitzenleistungsmodell: Diese Volumes können Spitzenleistungen bis 80 MB/s pro TB erreichen. Der Basisdurchsatz liegt bei 12 MB/s pro TB und der maximale Durchsatz bei 250 MB/s pro Volume. Für selten aufgerufene Daten bietet sc1 einen extrem kostengünstigen Speicher. SC1 liefert die erwartete Durchsatzleistung 99 % der Zeit. Das E/A-Guthaben reicht aus, um zu Spitzenlastzeiten einen vollständigen Volume-Scan durchzuführen.

Um die Leistung von ST1 und SC1 zu maximieren, wird die Verwendung von EBS-optimierten EC2-Instances empfohlen.

F: Welchen Volume-Typ sollte ich wählen?

Amazon EBS umfasst zwei Hauptspeicherkategorien: SSD-basierten Speicher für transaktionsintensive Arbeitslasten (Leistung primär von IOPS-Leistung abhängig) und HDD-basiertem Speicher für durchsatzintensive Arbeitslasten (Leistung primär vom Durchsatzleistung in MB/s abhängig). SSD-basierte Volumes eignen sich für transaktions- und IOPS-intensive Datenbankarbeitslasten, Start-Volumes und Arbeitslasten, die einen hohen IOPS-Wert erfordern. SSD-basierte Volumes beinhalten eine bereitgestellte IOPS-SSD (io1 und io2) und eine Standard-SSD (gp2 und gp3). HDD-basierte Volumes eignen sich für durchsatzintensive und Big Data-Arbeitslasten, umfangreiche E/A-Größen und sequenzielle E/A-Muster. HDD-basierte Volumes umfassen eine durchsatzoptimierte HDD (st1) und eine selten genutzte HDD (sc1). Weitere Informationen finden Sie in der Amazon-EBS-Übersicht.

F: Wird der Zugriff von mehreren Instances auf ein einziges Volume unterstützt?

Ja, Sie können Multi-Attach auf einem von EBS bereitgestellten IOPS io1-Volume aktivieren, damit ein Volume gleichzeitig an bis zu 16 Nitro-basierte EC2-Instances innerhalb derselben Availability Zone angeschlossen werden kann. Weitere Informationen zu Amazon EBS Multi-Attach finden Sie auf der EBS-Produktseite.

F: Kann ich mit den normalen Amazon S3-APIs auf meine EBS-Snapshots zugreifen?

Nein, EBS-Snapshots sind nur über die Amazon EC2-APIs verfügbar.

F: Muss die Bereitstellung von Volumes aufgehoben werden, um einen Snapshot erstellen zu können? Muss die Erstellung des Snapshots abgeschlossen sein, bevor das Volume wieder verwendet werden kann?

Nein, Snapshots können in Echtzeit erstellt werden, während das Volume bereitgestellt ist und verwendet wird. Snapshots erfassen jedoch nur Daten, die auf Ihren Amazon EBS-Datenträger geschrieben wurden. Darin sind möglicherweise nicht die Daten enthalten, die lokal von Ihrer Anwendung oder dem Betriebssystem in den Zwischenspeicher geschrieben wurden. Um die einheitliche Erstellung von Snapshots auf Datenträgern sicherzustellen, die einer Instance zugeordnet sind, wird empfohlen, die Zuordnung des Datenträgers sauber zu trennen, den Snapshot-Befehl auszuführen und anschließend den Datenträger erneut zuzuordnen. Bei Amazon EBS-Datenträgern, die als Root-Geräte dienen, wird empfohlen, den Rechner herunterzufahren, um einen sauberen Snapshot zu erstellen.

F: Gibt es verschiedene Versionen von Snapshots? Kann ich einen älteren Snapshot einlesen, um eine zeitpunktbezogene Wiederherstellung durchzuführen?

Jeder Snapshot verfügt über eine eindeutige Kennzeichnung. Volumes können auf Grundlage eines beliebigen vorhandenen Snapshots erstellt werden.

F: Welche Gebühren werden für die Verwendung von freigegebenen Amazon EBS-Snapshots erhoben?

Wenn Sie einen Snapshot freigeben, werden Ihnen keine Gebühren berechnet, wenn andere Benutzer eine Kopie Ihres Snapshots erstellen. Wenn Sie eine Kopie eines freigegebenen Datenträgers eines anderen Benutzers anfertigen, werden Ihnen die normalen EBS-Tarife berechnet.

F: Können Benutzer meiner freigegebenen Amazon EBS-Snapshots meine Daten ändern?

Benutzer mit der Berechtigung zum Erstellen von Datenträgern basierend auf Ihren freigegebenen Snapshots erstellen zunächst eine Kopie des Snapshots in ihrem Konto. Benutzer können eigene Kopien der Daten ändern, aber die Daten in Ihrem ursprünglichen Snapshot sowie alle anderen Datenträger, die von anderen Benutzern aus Ihrem ursprünglichen Snapshot erstellt wurden, bleiben unverändert.

F: Wie finde ich Amazon EBS-Snapshots, die für mich freigegeben wurden?

Sie finden Snapshots, die für Sie freigegeben wurden, indem Sie über die AWS-Managementkonsole im Abschnitt Snapshots aus dem Anzeigeauswahlfeld die Option „Private Snapshots“ auswählen. In diesem Abschnitt werden sowohl Ihre eigenen Snapshots als auch die Snapshots angezeigt, die für Sie freigegeben wurden.

F: Wie finde ich heraus, welche Amazon EBS-Snapshots global freigegeben sind?

Sie können Snapshots finden, die global freigegeben wurden, indem Sie über die AWS Management Console im Abschnitt "Snapshots" im Anzeigeauswahlfeld "Public Snapshots" auswählen.

F: Wird die Verschlüsselung von Amazon EBS-Volumes oder -Snapshots angeboten?

Ja. EBS bietet eine reibungslose Verschlüsselung von Daten-Volumes und -Snapshots. Die EBS-Verschlüsselung erleichtert das Erfüllen von Compliance-Anforderungen an Sicherheit und Verschlüsselung.

F: Wie finde ich eine Liste der öffentlichen Datensätze bei Amazon?

Alle Informationen zu öffentlichen Datensätzen sind in unserem Ressourcenzentrum für öffentliche Datensätze verfügbar. Sie können außerdem eine Liste aller öffentlichen Datensätze über die AWS Management Console erhalten, indem Sie im Abschnitt "Snapshots" im Anzeigeauswahlfeld "Amazon Snapshots" auswählen.

F: Wo kann ich mehr über EBS erfahren?

Weitere Informationen finden Sie unter Häufig gestellte Fragen zu Amazon EBS.

Amazon Elastic File System (Amazon EFS)

F: Wie kann ich von einer Amazon-EC2-Instance aus auf ein Dateisystem zugreifen?

Für den Zugriff auf Ihr Dateisystem mounten Sie das Dateisystem auf einer Amazon-EC2-Linux-basierten Instance mithilfe des Linux-Standard-Mount-Befehls und des DNS-Namens des Dateisystems. Danach können Sie mit den Dateien und Verzeichnissen in Ihrem Dateisystem wie in einem lokalen Dateisystem arbeiten.

Amazon EFS verwendet das NFSv4.1-Protokoll. Ein schrittweises Beispiel für den Zugriff auf ein Dateisystem von einer Amazon-EC2-Instance aus finden Sie im Amazon EFS-Handbuch Erste Schritte.

F: Welche Amazon-EC2-Instance-Typen und AMIs funktionieren mit Amazon EFS?

Amazon EFS ist mit allen Amazon-EC2-Instance-Typen kompatibel. Der Zugriff ist von Linux-basierten AMIs aus möglich. Sie können die Instance-Typen, die mit einem einzelnen Dateisystem verbunden sind, mischen und aufeinander abstimmen. Ein schrittweises Beispiel für den Zugriff auf ein Dateisystem von einer Amazon-EC2-Instance aus finden Sie im Amazon EFS-Handbuch Erste Schritte.

F: Wie kann ich Daten in ein Dateisystem laden?

In ein Amazon EFS-Dateisystem können Sie Daten aus Ihren Amazon-EC2-Instances oder von den On-Premises-Servern in Ihrem Rechenzentrum laden.

Amazon EFS-Dateisysteme werden auf einer Amazon EC2-Instance bereitgestellt, sodass alle Daten, auf die eine Amazon EC2-Instance zugreifen kann, auch in Amazon EFS gelesen und geschrieben werden können. Zum Laden von Daten, die aktuell nicht in der Amazon-Cloud gespeichert sind, können Sie die gleichen Methoden verwenden, die Sie heute zum Übertragen von Dateien zu Amazon EC2 verwenden, zum Beispiel Secure Copy (SCP).

Amazon EFS-Dateisysteme können auch auf lokalen Servern bereitgestellt werden, sodass alle Daten, auf die der lokale Server zugreifen kann, mittels Linux-Standardtools in Amazon EFS gelesen und geschrieben werden können. Weitere Informationen zum Zugriff auf ein Dateisystem von einem lokalen Server finden Sie auf der Seite mit häufig gestellten Fragen zu Amazon EFS im Abschnitt Lokaler Zugriff.

Weitere Informationen zum Verschieben von Daten in die Amazon-Cloud finden Sie auf der Seite Datenmigration in die Cloud.

F: Wie greife ich von außerhalb meiner VPC auf mein Dateisystem zu?

Amazon-EC2-Instances in Ihrer VPC können direkt auf Ihr Dateisystem zugreifen. On-Premises-Server können Ihre Dateisysteme über eine AWS-Direct-Connect-Verbindung für Ihren VPC verbinden.

F: Wie viele Amazon-EC2-Instances können mit einem Dateisystem verbunden werden?

Amazon EFS unterstützt eine bis Tausende von Amazon-EC2-Instances, die gleichzeitig eine Verbindung zu einem Dateisystem herstellen.

F: Wo kann ich mehr über EFS erfahren?

Sie können die Amazon EFS-Seite mit den häufig gestellten Fragen besuchen.

NVMe-Instance-Speicher

F: Werden Daten, die auf Amazon-EC2-NVMe-Instance-Speicher gespeichert werden, verschlüsselt?

Ja, alle Daten werden vor dem Schreiben auf die lokal verbundenen SSDs, die über NVMe Instance-Speicher angeboten werden, in einem AWS Nitro Hardware-Modul verschlüsselt.

F: Welcher Verschlüsselungsalgorithmus wird zur Verschlüsselung von Amazon EC2 NVMe Instance-Speicher verwendet?

Amazon EC2 NVMe Instance-Speicher wird mit einem XTS-AES-256-Block-Cipher verschlüsselt.

F: Werden Verschlüsselungsschlüssel für NVMe Instance-Speicher auf Instance-Basis oder auf Basis eines bestimmten Geräts generiert?

Verschlüsselungsschlüssel werden sicher im Nitro-Hardware-Modul generiert und sind für jedes NVMe-Instance-Speichergerät, das mit einer EC2-Instance geboten wird, einzigartig.

F: Welche Lebensdauer haben Verschlüsselungsschlüssel von NVMe Instance-Speicher?

Alle Schlüssel werden bei der Freigabe von Speicher unwiderruflich vernichtet, einschließlich bei Instance-Stopp- und Instance-Beendigungsaktionen.

F: Kann ich die NVMe Instance-Speicherverschlüsselung deaktivieren?

Nein, die NVMe Instance-Speicherverschlüsselung ist stets aktiviert und kann nicht deaktiviert werden.

F: Umfassen die veröffentlichten IOPS-Leistungskennzahlen für I3- und I3en-Datenverschlüsselung?

Ja, die dokumentierten IOPS-Zahlen für Im4gn-, Is4gen-, I4i-, I3- und I3en-NVMe-Instance-Speicher umfassen Verschlüsselung.

F: Unterstützt der Amazon-EC2-NVMe-Instance-Speicher den AWS Key Management Service (KMS)?

Nein, die Laufwerkverschlüsselung auf NVMe Instance-Speicher unterstützt die Integration mit dem AWS KMS-System nicht. Kunden können nicht ihre eigenen Schlüssel mit NVMe Instance-Speicher verwenden. 

Netzwerk und Sicherheit

Elastic Network Adapter (ENA) Express

F: Was ist ENA Express?

ENA Express ist eine Verbesserung des Elastic Network Adapters, die das Protokoll von Scalable Reliable Datagram (SRD)in die herkömmlichen TCP- und UDP-Netzwerke bringt. Transparent zur Anwendung verbessert ENA Express Bandbreiten von einzelnen Datenströmen und verringert Latenzspitzen bei durchsatzintensiven Workloads.

F: Wie funktioniert ENA Express?

Wenn ENA Express konfiguriert wurde, arbeitet es zwischen zwei beliebigen unterstützten Instances in einer Availability Zone (AZ). ENA Express erkennt Kompatibilität zwischen Ihren EC2-Instances und stellt eine SRD-Verbindung her, wenn beide kommunizierenden Instances ENA Express aktiviert haben. Nachdem eine Verbindung hergestellt wurde, kann Ihr Datenverkehr SRD und dessen Leistungsvorteile nutzen.

F: Wann sollte ich ENA Express verwenden?

ENA Express funktioniert am besten für Anwendungen, bei denen ein hoher Durchsatz mit einem einzigen Datenstrom erforderlich ist, wie verteilte Speichersystem und Live-Medienverschlüsselung. Diese Workloads erfordern eine hohe Bandbreite mit einem einzigen Datenstrom und niedriger Latenzspitze.

F: Wie aktiviere ich ENAS Express?

ENA Express kann auf einer Pro-ENI-Basis aktiviert werden. ENA kann beim Beifügen an einer Netzwerkkarte zu einer Instance oder bei der Ausführung eines Ändern-Befehls aktiviert werden. ENA Express muss bei beiden kommunizierenden ENIs aktiviert sein, um damit eine Kommunikation von Punkt-zu-Punkt festzulegen. Sie müssen außerdem bei Nutzung von Jumbo Frames Ihre maximale MTU auf 8 900 umstellen, um ENA Express verwenden zu können.

F: Welche Protokolle werden von ENA Express unterstützt?

ENA Express unterstützt standardmäßig TCP. UDP kann wahlweise durch ein API-Argument oder innerhalb der Managementkonsole verwendet werden.

F: Welche Instances werden unterstützt?

ENA Express wird auf Graviton-, Intel- und AMD-basierten EC2-Instances unterstützt. Es wird auf rechenoptimierten, allgemeinen und speicheroptimierten Instances unterstützt. Eine vollständige Liste der unterstützten Instances finden Sie im Benutzerhandbuch von ENA Express.

F: Was ist der Unterschied zwischen Elastic Fabric Adapter (EFA) und ENA Express?

EFA ist eine Netzwerkschnittstelle, die für HPC- und ML-Anwendungen entwickelt wurde, und nutzt auch das SRD-Protokoll. EFA erfordert ein anderes Modell zur Netzwerkprogrammierung. Dieses Modell nutzt die Lib-Fabric-Schnittstelle zur Gewährleistung der Kommunikation mit der ENI. Im Gegensatz zu EFA unterstützt Sie ENA Express bei der transparenten Ausführung Ihrer Anwendung in TCP und UDP.

F: Was passiert, wenn ich ENA Express in einer Instance ausführe, und mit einer anderen Instance kommuniziert, die ENA Express nicht unterstützt oder ENA Express nicht in der ENI aktiviert hat?

ENA Express erkennt die Aktivierung von ENA Express auf einer anderen Instance. Wenn diese Instance ENA Express nicht unterstützt oder nicht aktiviert hat, greift Ihre Instance auf den normalen ENA-Betrieb zurück. Sie erzielen in diesem Fall keine Vorteile bei der SRD-Leistung. Jedoch gibt es auch keine negativen Auswirkungen.

F: Welche Betriebssysteme werden unterstützt?

Die Funktionalität wird auf allen Betriebssystemen unterstützt. Bitte beachten Sie jedoch, die Überwachsungsmetriken von ENA Express nur auf dem EthTool in der neuesten Amazon-Linux-AMI oder durch Installation des ENA-Treibers, Version 2.8.0 oder höher verfügbar sein werden. Alle Betriebssysteme unterstützen zukünftig die Metriken.

F: Welche Überwachungstools sind für die Nachverfolgung verfügbar?

ENA Express bietet EthTool-Zähler zur Nachverfolgung von Paketen, die für die SRD-Übertragung in Frage kommen, neben denjenigen, die tatsächlich mit SRD geschickt und empfangen wurden. Außerdem unterstützt EthTool eine SRD-Ressourcennutzungsmetrik auf Prozentbasis. Dadurch werden Erkenntnisse dafür gewonnen, wann Sie die Aufskalierung Ihrer Architektur in Betracht ziehen sollten. Schließlich bietet ein Boolescher Wert einen Ein-/Aus-Status für einen ENA Express und für das UDO-Protokoll.

F: Wo kann man ENA Express erwerben?

ENA Express ist in allen kommerziellen Regionen verfügbar. ENA Express kann zum Festlegen einer Kommunikation zwischen zwei aktivierten Instances innerhalb der gleichen Availability Zone (AZ) verwendet werden.

F: Sind zusätzliche Kosten mit der Ausführung von ENA Express verbunden?

Nein. ENA Express ist kostenlos nutzbar.

Elastic Fabric Adapter (EFA)

F: Weshalb sollte ich EFA verwenden?

EFA bietet die Skalierbarkeit, Flexibilität und Elastizität der Cloud für eng gekoppelte HPC-Anwendungen. Mit EFA haben eng gekoppelte HPC-Anwendungen Zugang zu niedrigerer und konsistenterer Latenz und zu höherem Durchsatz als bei traditionellen TCP-Kanälen, was eine bessere Skalierung ermöglicht. EFA-Unterstützung kann dynamisch und bei Bedarf auf jeder unterstützten EC2-Instance ohne vorherige Reservierung aktiviert werden, sodass Sie flexibel auf sich ändernde Geschäfts-/Workload-Prioritäten reagieren können.

F: Welche Arten von Anwendungen profitieren von EFA?

HPC-Anwendungen verteilen Computer-Workloads auf einen Cluster von Instances zur Parallelverarbeitung. Beispiele für HPC-Anwendungen sind computergestützte Strömungssimulationen, Unfallsimulationen und Wettersimulationen. Allgemein werden HPC-Anwendungen mithilfe des Message Passing Interface (MPI) geschrieben und setzen strenge Vorgaben für die Inter-Instance-Kommunikation, was sowohl Latenz als auch Bandbreite betrifft. Anwendungen, die MPI und andere HPC-Middleware nutzen, die den libfabric-Kommunikationsstack unterstützt, können von EFA profitieren.

F: Wie funktioniert die EFA-Kommunikation?

EFA-Geräte bieten sämtliche Funktionen der ENA-Geräte sowie eine neue OS-Bypass-Hardware-Schnittstelle, die es Anwendungen im Anwenderbereich ermöglicht, direkt mit der von der Hardware bereitgestellten zuverlässigen Transportfunktion zu kommunizieren. Die meisten Anwendungen nutzen vorhandene Middleware, wie z. B. MPI, als Schnittstelle zu EFA. AWS hat mit einer Reihe von Middleware-Anbietern zusammengearbeitet, um die Unterstützung für die EFA-Funktion der Betriebssystemumgehung zu gewährleisten. Bitte beachten Sie, dass die Kommunikation mithilfe der Betriebssystem-Umgehungsfunktion in Instances innerhalb einer Availability Zone (AZ) beschränkt ist.

F: Wo ist EFA verfügbar?

EFA ist in allen kommerziellen Regionen verfügbar. ENA Express kann zum Festlegen einer Kommunikation zwischen zwei aktivierten Instances innerhalb der gleichen Availability Zone (AZ) verwendet werden.

F: Welche Instance-Typen unterstützen EFA?

Eine vollständige Liste der unterstützten EC2-Instances finden Sie auf dieser Seite in unserer Dokumentation.

F: Was ist der Unterschied zwischen einem EFA-ENI und einem ENA-ENI?

Ein ENA ENI bietet traditionelle IP-Netzwerkmerkmale, die zur Unterstützung der VPC-Netzwerkkommunikation nötig sind. Ein EFA ENI bietet alle Funktionen eines ENA ENI sowie Hardwareunterstützung für Anwendungen, um mithilfe einer erweiterten Programmierschnittstelle direkt mit dem EFA ENI zu kommunizieren, ohne den Instance-Kernel zu beteiligen (Kommunikation mit Betriebssystemumgehung). Aufgrund der fortschrittlichen Fähigkeiten des EFA ENI können EFA ENIs nur beim Start oder bei gestoppten Instances angefügt werden.

F: Welche Voraussetzungen müssen erfüllt werden, um EFA für eine Instance zu aktivieren?

Die EFA-Unterstützung kann entweder beim Start der Instance aktiviert oder zu einer gestoppten Instance hinzugefügt werden. EFA-Geräte können nicht an eine laufende Instance angefügt werden.

Enhanced Networking

F: Welche Netzwerkfunktionen sind in dieser Lösung enthalten?

Wir unterstützen derzeit optimierte Netzwerkfunktionen mithilfe von SR-IOV (Single Root I/O Virtualization). SR-IOV ist eine Methode der Gerätevirtualisierung, die im Vergleich zu herkömmlichen Implementierungen eine höhere E/A-Leistung und niedrigere CPU-Auslastung bietet. Für unterstützte Amazon EC2-Instances bietet diese Funktion eine höhere PPS-Leistung (Pakete pro Sekunde), kürzere Latenzen zwischen Instances und sehr niedrigen Netzwerk-Jitter.

F: Weshalb sollte ich Enhanced Networking verwenden?

Wenn Ihre Anwendungen von einer hohen PPS-Leistung und/oder einem Netzwerkbetrieb mit kurzer Latenz profitieren, bietet Enhanced Networking eine wesentlich verbesserte einheitliche Leistung und Skalierbarkeit.

F: Wie kann ich Enhanced Networking für unterstützte Instances aktivieren?

Zum Aktivieren dieser Funktion müssen Sie ein HVM AMI mit dem entsprechenden Treiber starten. Die Instances, die als aktuelle Generation aufgeführt werden, verwenden ENA für erweitertes Networking. Das Amazon Linux-AMI beinhaltet diese beiden Treiber standardmäßig. Für AMIs, die diese Treiber nicht beinhalten, müssen Sie die entsprechenden Treiber basierend auf den zu verwendenden Instance-Typen herunterladen und installieren. Sie können nach Linux- oder Windows-Anweisungen vorgehen, um Enhanced Networking in AMIs zu aktivieren, die den SR-IOV-Treiber nicht standardmäßig enthalten. Enhanced Networking wird nur in Amazon VPC unterstützt.

F: Fällt für die Nutzung von Enhanced Networking eine zusätzliche Gebühr an?

Nein, für Enhanced Networking fällt keine Zusatzgebühr an. Um Enhanced Networking nutzen zu können, müssen Sie das entsprechende AMI für einen unterstützten Instance-Typ in einer VPC starten.

F: Welche Instance-Typen unterstützen Enhanced Networking?

Je nach dem vorliegenden Instance-Typ können Sie Enhanced Networking mithilfe der folgenden Mechanismen aktivieren:

Die Intel 82599 Virtual Function (VF) – Die Intel 82599 Virtual Function-Schnittstelle unterstützt Netzwerkgeschwindigkeiten von bis zu 10 Gbit/s für unterstützte Instance-Typen. C3-, C4-, D2-, I2-, M4- (mit Ausnahme von m4.16xlarge) und R3-Instances nutzen die Intel-82599-VF-Schnittstelle für eine verbesserte Vernetzung.

Elastic Network Adapter (ENA) – Der Elastic Network Adapter (ENA) unterstützt Netzwerkgeschwindigkeiten von bis zu 200 Gbit/s für unterstützte Instance-Typen. Die Instances, die als aktuelle Generation aufgeführt sind, verwenden ENA für ein erweitertes Netzwerk, mit Ausnahme der Instances C4, D2 und M4, die kleiner als m4.16xlarge sind.

F: Was bedeutet es, über mehrere Netzwerkkarten für eine EC2-Instances zu verfügen? Warum werden sie benötigt?

EC2-Instances der neueren Generation verwenden Nitro-Netzwerkkarten für die Auslagerung auf VPC-Ebene. Um eine höhere Netzwerkbandbreite und eine verbesserte Paketratenleistung bereitzustellen, können Sie bestimmte EC2-Instances so konfigurieren, dass sie mehrere Netzwerkkarten für die Paketverarbeitung verwenden, was letztendlich die Gesamtleistung des Systems erhöht.

F: Welche Instance-Typen unterstützen mehrere Netzwerkkarten?

Mehrere Netzwerkkarten werden bei beschleunigten Instances unterstützt, wie p4d.24xlarge und netzwerkoptimierte Instances wie c6in.32xlarge. Eine vollständige Liste von Instances, die mehrere Netzwerkkarten unterstützen, entnehmen Sie den Elastic-Network-Schnittstellen.

F: Was ist die Standard-Anzahl von Netzwerkschnittstellen, mit der eine Instance mit mehreren Karten eingeführt werden kann?

Das hängt vom Instance-Typ ab. Beschleunigte Instances wie p4 skalieren bis zu 15 Netzwerkschnittstellen pro Netzwerkkarte auf. Hohe Netzwerk-Instances wie die kürzlich eingeführte c6in-Instance unterstützen insgesamt 14 Netzwerkschnittstellen, die über die beiden Netzwerkkarten gleichmäßig verteilt sind (7 und 7). Informationen über die Skalierung der Netzwerkschnittstelle pro Netzwerkkarte finden Sie unter Netzwerkkarten.

Elastische Lastenverteilung

F: Welche Load Balancing-Optionen bietet der Elastic Load Balancing-Service?

Elastic Load Balancing bietet Ihnen zwei Typen von Load Balancern, die beide hohe Verfügbarkeit, automatische Skalierung und robuste Sicherheit gewährleisten. Diese umfassen den Classic Load Balancer, der Netzwerkverkehr auf Basis von Informationen auf Anwendungs- oder Netzwerkebene routet, und den Application Load Balancer, der Netzwerkverkehr auf Basis von erweiterten Informationen auf Anwendungsebene (inkl. dem Inhalt der Anforderung) routet.

F: Wann sollte ich den Classic Load Balancer und wann den Application Load Balancer verwenden?

Der Classic Load Balancer eignet sich ideal für die einfache Lastverteilung über mehrere EC2-Instances, während der Application Load Balancer perfekt für Anwendungen, die erweiterte Routing-Funktionen benötigen, Micro-Services und Container-basierte Architekturen ist. Weitere Informationen erhalten Sie unter Elastic Load Balancing.

Elastische IP

F: Weshalb gibt es eine Beschränkung auf fünf Elastic IP-Adressen pro Region?

Öffentliche (IPv4) Internetadressen sind ein knappes Gut. Öffentlicher IP-Raum steht nur begrenzt zur Verfügung und Amazon EC2 ist bestrebt, bei der effizienten Nutzung dieses Raums behilflich zu sein.

Standardmäßig sind alle Konten auf fünf Elastic IP Addresses pro Region beschränkt. Wenn Sie mehr als fünf elastische IP-Adressen benötigen, beantragen Sie bitte eine Anhebung des Limits. Denken Sie dabei noch einmal über Ihren Anwendungsfall nach und helfen Sie uns zu verstehen, weshalb Sie weitere Adressen benötigen. Sie können hier weitere elastische IP-Adressen beantragen. Die Erhöhung gilt nur für die Region, für die sie beantragt wurde.

F: Weshalb werden Gebühren erhoben, wenn meine elastische IP-Adresse nicht einer laufenden Instance zugeordnet ist?

Um unseren Kunden dabei zu helfen, die elastischen IP-Adressen effizient einzusetzen, erheben wir für jede Adresse, die nicht einer laufenden Instance zugeordnet ist, eine geringe Gebühr pro Stunde.

F: Benötige ich für jede laufende Instance eine elastische IP-Adresse?

Nein. Sie benötigen nicht für alle Ihre Instances eine Elastic IP-Adresse. Standardmäßig ist jede Instance mit einer privaten IP-Adresse und einer im Internet routbaren öffentlichen IP-Adresse ausgestattet. Die private IP-Adresse bleibt mit der Netzwerkschittstelle verbunden, wenn die Instance gestoppt und neu gestartet wird, und wird erst wieder freigegeben, nachdem die Instance beendet wurde. Die öffentliche Adresse wird ausschließlich dieser Instance zugeordnet, bis sie gestoppt, beendet oder durch eine Elastic IP-Adresse ersetzt wird. Diese IP-Adressen sollten für viele Anwendungen angemessen sein, bei denen kein langlebiger im Internet routbarer Endpunkt benötigt wird. Rechen-Cluster, Web-Crawling und Back-End-Services sind Beispiele für Anwendungen, bei denen üblicherweise keine Elastic IP-Adressen erforderlich sind.

F: Wie lange dauert die Neuzuordnung einer Elastic IP-Adresse?

Die Neuzuordnung dauert derzeit ab Ihrer Anweisung an uns, die Elastic IP-Adresse neu zuzuordnen, bis zu ihrer vollständigen Verbreitung in unserem System, einige Minuten.

F: Kann ich den Reverse-DNS-Eintrag für meine Elastic IP-Adresse konfigurieren?

Alle Elastic IP-Adressen werden mit Reverse DNS in einer Standardvorlage im Format "ec2-1-2-3-4.region.compute.amazonaws.com" bereitgestellt. Für Kunden, die individuelle Reverse-DNS-Einstellungen für mit dem Internet verbundene Anwendungen benötigen, die eine IP-basierte, gegenseitige Authentifizierung verwenden (z. B. das Senden von E-Mails über EC2-Instances), können Sie den Reverse-DNS-Datensatz Ihrer Elastic IP-Adresse konfigurieren, indem sie dieses Formular ausfüllen. Wenden Sie sich alternativ an den AWS-Kundendienst, wenn AWS die Verwaltung der Reverse-DNS für Ihre Elastic IPs an Ihre autoritativen DNS Name Server (z. B. Amazon Route 53) delegieren soll, sodass Sie Ihre eigenen Reverse-DNS-PTR-Datensätze zur Unterstützung dieser Anwendungsfälle verwalten können. Beachten Sie, dass ein entsprechender Forward-DNS-Eintrag vorhanden sein muss, der sich auf diese Elastic IP-Adresse bezieht, bevor wir den Reverse-DNS-Eintrag erstellen können.

Sicherheit

F: Wie verhindere ich, dass andere meine Systeme einsehen?

Sie verfügen über die vollständige Kontrolle über die Sichtbarkeit Ihrer Systeme. Die Sicherheitssysteme von Amazon EC2 ermöglichen Ihnen das Platzieren Ihrer laufenden Instances in beliebige Gruppen Ihrer Wahl. Über die Web-Service-Schnittstelle können Sie dann angeben, welche Gruppen mit welchen anderen Gruppen kommunizieren dürfen sowie welche IP-Subnetze im Internet welche Gruppen ansprechen dürfen. Auf diese Weise können Sie den Zugriff auf Ihre Instances in unserer hochdynamischen Umgebung kontrollieren. Selbstverständlich sollten Sie Ihre Instances ebenso sichern wie andere Server auch.

F: Kann ich zum Zweck der Sicherheitsanalyse und Behebung von Betriebsproblemen einen Verlauf aller EC2-API-Aufrufe abrufen, die für mein Konto erfolgt sind?

Ja. Zum Abrufen eines Verlaufs aller EC2-API-Aufrufe (einschließlich VPC und EBS), die für Ihr Konto erfolgt sind, müssen Sie einfach CloudTrail in der AWS Management Console aktivieren. Weitere Informationen finden Sie auf der Startseite von CloudTrail.

F: Wo erhalte ich weitere Informationen zur Sicherheit von AWS?

Weitere Informationen zur Sicherheit von AWS finden Sie im Whitepaper Amazon Web Services: Sicherheitsprozesse im Überblick sowie im Sicherheitshandbuch Amazon EC2 running Windows

Verwaltung

Amazon CloudWatch

F: Welches ist das kleinste Zeitintervall für die Daten, die von Amazon CloudWatch empfangen und angesammelt werden?

Metriken werden in Intervallen von einer Minute empfangen und angesammelt.

F: Welche Betriebssysteme werden von Amazon CloudWatch unterstützt?

Amazon CloudWatch empfängt Metriken und stellt diese allen Amazon EC2-Instances bereit. Es ist davon auszugehen, dass Amazon CloudWatch derzeit ebenfalls alle Betriebssysteme unterstützt, die auch vom Amazon EC2-Service unterstützt werden.

F: Gehen die Metrikdaten verloren, wenn die Überwachung für eine Amazon EC2-Instance deaktiviert wird?

Sie können die Daten für jede Amazon EC2-Instance bis zu zwei Wochen lang ab Beginn der Überwachung abrufen. Nach zwei Wochen sind die Metrikdaten für eine Amazon EC2-Instance nicht mehr verfügbar, wenn die Überwachung dieser Amazon EC2-Instance deaktiviert wurde. Wenn Sie die Metrikdaten über zwei Wochen hinaus archivieren möchten, geben Sie in die Befehlszeile den Befehl "mon-get-stat" ein und speichern Sie die Ergebnisse in Amazon S3 oder Amazon SimpleDB.

F: Kann ich auf die Metrikdaten einer beendeten Amazon EC2-Instance oder eines gelöschten Elastic Load Balancers zugreifen?

Ja. Amazon CloudWatch speichert die Metrikdaten für beendete Amazon EC2-Instances oder gelöschte Elastic Load Balancers zwei Wochen lang.

F: Ist die Überwachungsgebühr von Amazon CloudWatch abhängig von dem Typ der Amazon EC2-Instance, die überwacht wird?

Nein, die Überwachungsgebühr von Amazon CloudWatch ist nicht abhängig vom Amazon EC2-Instance-Typ.

F: Warum sieht die Abbildung desselben Zeitfensters für fünfminütige Zeitspannen anders aus als für einminütige Zeitspannen?

Wenn Sie dasselbe Zeitfenster für eine fünfminütige bzw. eine einminütige Zeitspanne ansehen, fällt Ihnen möglicherweise auf, dass die Datenpunkte an verschiedenen Stellen des Grafen angezeigt werden. Amazon CloudWatch sucht alle verfügbaren Datenpunkte und kalkuliert für die Zeitspanne, die Sie auf Ihrem Grafen festgelegt haben, einen einzigen Gesamtpunkt, um die gesamte Zeitspanne darzustellen. Im Fall einer fünfminütigen Zeitspanne wird der einzelne Datenpunkt an den Anfang des fünfminütigen Zeitfensters gesetzt. Im Fall einer einminütigen Zeitspanne wird der einzelne Datenpunkt an die Markierung für eine Minute gesetzt. Die einminütige Zeitspanne empfiehlt sich zur Fehlerbehebung und für andere Aktivitäten, bei denen es auf eine äußerst genaue grafische Darstellung der Zeitspannen ankommt.

Amazon EC2 Auto Scaling

F: Kann ich Amazon EC2 Auto Scaling-Gruppen automatisch skalieren?

Ja. Amazon EC2 Auto Scaling ist ein vollständig verwalteter Service zum automatischen Starten oder Beenden von Amazon EC2-Instances, damit Ihnen die richtige Anzahl an Amazon EC2-Instances zur Verfügung steht, um die Last Ihrer Anwendung zu verarbeiten. Mit EC2 Auto Scaling halten Sie die Anwendungsverfügbarkeit durch ein Flottenmanagement für EC2-Instances aufrecht, bei dem fehlerhafte Instances erkannt und ersetzt werden und Ihre Amazon EC2-Kapazität automatisch entsprechend den von Ihnen definierten Bedingungen erhöht oder reduziert wird. Sie können mit EC2 Auto Scaling während der Anforderungsspitzen auch automatisch die Anzahl der Amazon-EC2-Instances erhöhen, um die Leistung beizubehalten, und während der Anforderungstiefs reduzieren, um den Preis zu senken.

Zuweisungsstrategien in EC2 Auto Scaling bestimmen, wie Spot-Instances in Ihrer Flotte aus Spot-Instance-Pools erfüllt werden. Die kapazitätsoptimierte Zuweisungsstrategie versucht, Kapazitätsmetriken zu analysieren und so Spot Instances aus den zugänglichsten Spot-Instance-Pools bereitzustellen. Diese Strategie ist eine gute Wahl für Workloads, bei denen die Kosten für Unterbrechungen hoch sind, wie etwa Big Data und Analysen, Bild- und Medien-Wiedergabe, Machine Learning und High Performance Computing. Die Zuweisungsstrategie mit den geringsten Kosten startet Spot-Instances basierend auf der Diversifizierung von „N“ zum jeweiligen Zeitpunkt günstigsten Pools.

Weitere Informationen finden Sie unter Häufig gestellte Fragen zu Amazon EC2 Auto Scaling.

Hibernate

F: Warum sollte ich eine Instance in den Ruhezustand versetzen?

Sie können eine Instance in den Ruhezustand versetzen, um Ihre Instance und Ihre Anwendungen schnell zum Laufen zu bringen, wenn sie lange für den Bootstrap brauchen (z. B. um Speicher-Caches zu laden). Sie können Instances starten, sie in einen gewünschten Zustand und dann in den Ruhestand versetzen. Diese „vorgewärmten“ Instances können dann „fortgesetzt“ werden, um die erneute Inbetriebnahme zu beschleunigen. Der Ruhezustand behält den Speicherzustand über Start-Stopp-Zyklen hinweg bei.

F: Was geschieht, wenn ich meine Instance in den Ruhezustand versetze?

Wenn Sie eine Instance in den Ruhezustand versetzen, werden Daten von Ihrem EBS-Root-Volume und jegliche angehängten EBS-Datenvolumes beibehalten. Darüber hinaus werden Inhalte aus dem Speicher (RAM) der Instances im EBS-Root-Volume gespeichert. Wenn die Instance neu gestartet wird, kehrt sie zum vorherigen Zustand zurück und lädt die RAM-Inhalte erneut.

F: Was ist der Unterschied zwischen „Ruhezustand“ und „Stopp“?

Wenn eine Instance in den Ruhezustand versetzt wird, bleiben die Daten im RAM bestehen. Beim Anhalten hingegen wird die Instance heruntergefahren und der RAM wird gelöscht.

In beiden Fällen jedoch bleiben die Daten aus Ihrem EBS-Root-Volume und allen angehängten EBS-Datenvolumes erhalten. Auch Ihre private und Ihre Elastic IP-Adresse (sofern zutreffend) ändert sich nicht. Das Verhalten auf Netzwerkebene entspricht dem des EC2-Workflows „Stop-Start“. Die Optionen "Stopp" und "Ruhezustand" sind nur für Amazon EBS-gestützte Instances verfügbar. Der lokale Instance-Speicher bleibt nicht erhalten.

F: Wie viel kostet es, eine Instance in den Ruhezustand zu versetzen?

Das Versetzen von Instances in den Ruhezustand wird mit den standardmäßigen EBS-Tarifen für Speicher abgerechnet. Wie bei einer gestoppten Instance verursachen Sie keine Instance-Verbrauchsgebühren, während sich eine Instance im Ruhezustand befindet.

F: Wie kann ich eine Instance in den Ruhezustand versetzen?

Der Ruhezustand muss beim Start der Instance aktiviert werden. Nach der Aktivierung können Sie die StopInstances-API mit einem zusätzlichen „Hibernate“-Parameter verwenden, um den Ruhezustand auszulösen. Auch können Sie dies über die Konsole tun, indem Sie Ihre Instance auswählen und dann auf Actions> Instance State > Stop - Hibernate klicken. Weitere Informationen zum Ruhezustand erhalten Sie im Benutzerhandbuch.

F: Wie kann ich eine Instance im Ruhezustand wieder fortsetzen?

Dafür können Sie die StartInstances-API aufrufen, genau so, wie Sie es auch bei einer angehaltenen Instance tun würden. Auch können Sie dies über die Konsole tun, indem Sie Ihre Instance auswählen und dann auf Actions > Instance State > Start klicken.

F: Kann ich den Ruhezustand für eine bestehende Instance aktivieren?

Nein, der Ruhezustand kann für eine bestehende Instance (laufend oder gestoppt) nicht aktiviert werden. Dieses Merkmal muss beim Instance-Start aktiviert werden.

F: Woher weiß ich, ob sich eine Instance im Ruhezustand befindet?

Das sehen Sie am Zustandsgrund. Dieser sollte ‘Client.UserInitiatedHibernate’ lauten. Er ist in der Konsole unter „Instances – Details“ sichtbar oder wird als Feld „reason“ in der DescribeInstances-API-Antwort zurückgegeben.

F: Welchen Zustand hat eine Instance im Ruhezustand?

Instances im Ruhezustand sind „gestoppt“.

F: Welche Daten werden gespeichert, wenn ich eine Instance in den Ruhezustand versetze?

EBS-Volume-Speicher (Boot-Volume und angehängte Daten-Volumes) sowie der Arbeitsspeicher (RAM) werden gespeichert. Auch Ihre private und Ihre Elastic IP-Adresse (sofern zutreffend) ändert sich nicht (für VPC). Das Verhalten auf Netzwerkebene entspricht dem des EC2-Workflows „Stop-Start“.

F: Wo werden meine Daten gespeichert, wenn ich eine Instance in den Ruhezustand versetze?

Wie bei der „Stopp“-Funktion werden Root-Gerät- und angehängte Gerätedaten auf den zugehörigen EBS-Volumes gespeichert. Inhalte des Arbeitsspeichers (RAM) werden auf dem EBS-Root-Volume gespeichert.

F: Werden meine Arbeitsspeicherdaten (RAM) verschlüsselt, wenn sie auf EBS verschoben werden?

Ja, RAM-Daten werden stets verschlüsselt, wenn sie auf das EBS-Root-Volume verschoben werden. Die Verschlüsselung des EBS-Root-Volume wird zum Startzeitpunkt der Instance erzwungen. Damit wird der Schutz für jegliche empfindlichen Inhalte sichergestellt, die sich zum Zeitpunkt des aktivierten Ruhezustands im Speicher befinden.

F: Wie lange kann eine Instance im Ruhezustand verbleiben?

Wir unterstützen den Ruhezustand für Instances nur bis zu 60 Tagen. Sie müssen die Instance fortsetzen und den Stopp-Start-Zyklus (ohne Ruhezustand) durchlaufen, wenn die Instances noch länger erhalten bleiben soll. Wir arbeiten ständig daran, unsere Plattform mit Upgrades und Sicherheitspatches auf dem neuesten Stand zu halten, von denen einige im Konflikt zu alten Instances im Ruhezustand stehen könnten. Wir benachrichtigen Sie bei kritischen Updates, die ein Fortsetzen der Instance im Ruhezustand erfodern, um sie herunterzufahren oder neu zu starten.

F: Welche Voraussetzungen bestehen, um eine Instance in den Ruhezustand zu versetzen?

Um den Ruhezustand zu nutzen, muss das Root-Volume ein verschlüsseltes EBS-Volume sein. Die Instance muss darauf konfiguriert sein, das ACPID-Signal für den Ruhezustand zu empfangen (oder die von Amazon veröffentlichten AMIs verwenden, die für den Ruhezustand konfiguriert sind). Darüber hinaus sollte der in Ihrem EBS-Stammvolume verfügbare Speicher groß genug zum Speichern der Daten aus dem Arbeitsspeicher sein.

F: Welche Instances und Betriebssysteme unterstützen Hibernation?

Für Instances mit Amazon Linux, Amazon Linux 2, Ubuntu und Windows wird Ruhezustand in den Instances C3, C4, C5, C5d, I3, M3, M4, M5, M5a, M5ad, M5d, R3, R4, R5, R5a, R5ad, R5d, T2, T3 und T3a unterstützt. 

Für Instances mit CentOS, Fedora und Red Hat Enterprise Linux wird Hibernation von den Instances C5, C5d, M5, M5a, M5ad, M5d, R5, R5a, R5ad, R5d, T3 und T3a unterstützt.

Unter Windows wird der Ruhezustand für Instances mit bis zu 16 GB RAM unterstützt. Unter anderen Betriebssystemen wird der Ruhezustand für Instances von weniger als 150 GB RAM unterstützt. Eine Liste der unterstützten Betriebssystem-Versionen und Instance-Typen finden Sie im Benutzerhandbuch.

F: Sollte ich bestimmte Amazon Machine Image (AMIs) verwenden, wenn ich meine Instance in den Ruhezustand versetzen möchte?

Sie können jedes AMI verwenden, das auf die Unterstützung des Ruhezustands konfiguriert ist. Sie können von AWS veröffentlichte AMIs verwenden, die den Ruhezustand standardmäßig unterstützen. Alternativ können Sie ein benutzerdefiniertes Image einer Instance erstellen, nachdem Sie die Voraussetzungs-Checkliste für den Ruhezustand befolgt und Ihre Instance entsprechend konfiguriert haben.

F: Was ist, wenn mein EBS-Root-Volume nicht groß genug ist, um den Speicherstatus (RAM) für den Ruhezustand zu speichern?

Um den Ruhezustand zu aktivieren, wird auf dem Root-Volume Speicherplatz zum Speichern des Instance-Speichers (RAM) zugewiesen. Stellen Sie sicher, dass das Root-Volume groß genug zum Speichern der RAM-Inhalte und für Ihre erwartete Nutzung ist, z. B. Betriebssystem und Anwendungen. Ist im EBS-Stamm-Volume nicht ausreichend Speicherplatz verfügbar, schlägt der Ruhezustand fehl und die Instance wird nicht in den Ruhezustand versetzt, sondern heruntergefahren.

VM Import/Export

F: Was ist VM Import/Export?

Mithilfe von VM Import/Export können Abbilder von virtuellen Maschinen (VM) importiert werden, um Amazon-EC2-Instances zu erstellen. Zu einem früheren Zeitpunkt importierte EC2-Instances können auch exportiert werden, um VMs zu erstellen. Mit VM Import/Export können Kunden ihre bisherigen Investitionen in den Aufbau von VMs nutzen, indem sie ihre VMs in Amazon EC2 migrieren.

F: Welche Betriebssysteme werden unterstützt?

VM Import/Export unterstützt derzeit Windows- und Linux-VMs, darunter mehrere Editionen von Windows Server, Red Hat Enterprise Linux (RHEL), CentOS, Ubuntu, Debian und anderen. Weitere Details zum VM Import, z. B. unterstützte Dateiformate, Architekturen und Betriebssystemkonfigurationen finden Sie im Abschnitt „VM Import/Export“ von VM Import/Export.

F: Welche VM-Dateiformate werden unterstützt?

Sie können VMware-ESX-VMDK-Images, Citrix-Xen-VHD-Images, Microsoft-Hyper-V-VHD-Images und RAW-Images als Amazon-EC2-Instances importieren. Sie können EC2-Instances in VMware ESX VMDK-, VMware ESX OVA-, Microsoft Hyper-V VHD- oder Citrix Xen VHD-Images exportieren. Eine vollständige Liste der unterstützten Betriebssysteme finden Sie unter Welche Betriebssysteme werden unterstützt?

F: Was ist VMDK?

Bei VMDK handelt es sich um ein Dateiformat für virtuelle Festplatten in einer einzelnen Datei. Es wird üblicherweise in virtuellen IT-Infrastrukturen verwendet, die beispielsweise vom Unternehmen VMware, Inc. vertrieben werden.

F: Wie bereite ich eine VMDK-Datei mit dem VMware vSphere-Client für den Import vor?

Die VMDK-Datei kann vorbereitet werden, indem Sie im Menü des VMware vSphere Client auf Datei > Export > OVF-Vorlage exportieren gehen. Die resultierende VMDK-Datei wird komprimiert, um die Image-Größe zu verringern, damit die Datei für VM Import/Export kompatibel ist. Es ist keine spezielle Vorbereitung zur Verwendung der Amazon EC2 VM Import Connector vApp für VMware vCenter erforderlich.

F: Was ist VHD?

Bei VHD (Virtual Hard Disk) handelt es sich um ein Container-Dateiformat für virtuelle Festplatten in einer einzelnen Datei. Das VHD-Image-Format wird von Virtualisierungsplattformen wie Microsoft Hyper-V und Citrix Xen verwendet.

F: Wie bereite ich eine VHD-Datei für den Import von Citrix Xen vor?

Öffnen Sie Citrix XenCenter und wählen Sie die virtuelle Maschine aus, die Sie exportieren möchten. Klicken Sie im Menü "Tools" auf "Virtual Appliance Tools" und wählen Sie "Export Appliance" aus, um den Exportvorgang zu starten. Wenn der Export abgeschlossen ist, können Sie die VHD-Image-Datei in dem im Exportdialogfeld angegebenen Zielverzeichnis finden.

F: Wie bereite ich eine VHD-Datei für den Import aus Microsoft Hyper-V vor?

Öffnen Sie Hyper-V Manager und wählen Sie die virtuelle Maschine aus, die Sie exportieren möchten. Wählen Sie im Fenster "Actions" für die virtuelle Maschine die Option "Export" aus, um die Exportaufgabe zu starten. Wenn der Export abgeschlossen ist, können Sie die VHD-Image-Datei in dem im Exportdialogfeld angegebenen Zielverzeichnis finden.

F: Welche anderen Anforderungen gelten für das Importieren einer virtuellen Maschine (VM) in Amazon EC2?

Die virtuelle Maschine muss sich in einem beendeten Zustand befinden, bevor das VMDK- oder VHD-Image generiert wird. Sie darf sich nicht im Pausenmodus befinden oder ausgesetzt sein. Wir empfehlen, dass Sie die virtuelle Maschine nur mit dem angehängten Boot-Volume exportieren. Zusätzliche Festplatten können Sie mit dem Befehl "ImportVolume" importieren und dann mit "AttachVolume" der virtuellen Maschine zuordnen. Zudem werden verschlüsselte Festplatten (z. B. Bit Locker) und verschlüsselte Image-Dateien nicht unterstützt. Sie müssen außerdem dafür sorgen, dass Sie über alle notwendigen Rechte und Lizenzen für den AWS-Import und die Software verfügen, die ggf. in ihrem VM-Image enthalten ist.

F: Muss die virtuelle Maschine für den Import in Amazon EC2 in bestimmter Weise konfiguriert werden?

Vergewissern Sie sich, dass Remote Desktop (RDP) oder Secure Shell (SSH) für den Fernzugriff aktiviert sind, und stellen Sie sicher, dass Ihre Host-Firewall (Windows- Firewall, iptables u. ä.), sofern konfiguriert, den Zugriff auf RDP oder SSH zulässt. Andernfalls haben Sie nach Abschluss des Importvorgangs keine Möglichkeit, auf Ihre Instance zuzugreifen. Stellen Sie bitte des Weiteren sicher, dass die Windows-VMs so konfiguriert sind, dass für alle Benutzer, auch den Administrator, starke Passwörter verwendet werden, und dass Linux-VMs mit einem öffentlichen Schlüssel für SSH-Zugriff konfiguriert sind.

F: Wie importiere ich eine virtuelle Maschine in eine Amazon-EC2-Instance?

Sie können VM-Images auch mit den Amazon EC2 API-Tools importieren:

  • Importieren Sie die VMDK-, VHD- oder RAW-Datei über die ec2-import-instance-API. Bei der Instance-Importaufgabe werden die Parameter erfasst, die erforderlich sind, um die Amazon EC2-Instance-Eigenschaften ordnungsgemäß zu konfigurieren (Instance-Größe, Availability Zone und Sicherheitsgruppen), und das Image wird in Amazon S3 hochgeladen.
  • Wenn "ec2-import-instance" unterbrochen oder ohne abgeschlossenen Upload beendet wird, verwenden Sie "ec2-resume-import", um den Upload-Vorgang fortzusetzen. Der Importvorgang wird an der Stelle, an der er unterbrochen wurde, fortgesetzt.
  • Verwenden Sie zur Überwachung des Fortschritts des Importvorgangs den Befehl ec2-describe-conversion-tasks. Sie erhalten dadurch die sich ergebende Amazon EC2 Instance-ID.
  • Sobald der Importvorgang abgeschlossen wurde, können Sie die Amazon EC2-Instance neu starten, indem Sie für die ec2-run-instances-API die Instance-ID angeben.
  • Löschen Sie abschließend mit dem Befehlszeilenprogramm "ec2-delete-disk-image" Ihr Datenträger-Image aus Amazon S3, da es nicht mehr benötigt wird.

Alternativ können Sie Ihre virtuelle Maschine mittels einer grafischen Benutzeroberfläche des AWS Management Portal for vCenter in Amazon EC2 importieren, sofern Sie die VMware-vSphere-Virtualisierungsplattform verwenden. Informationen finden Sie im Leitfaden für Erste Schritte im AWS-Management-Portal für vCenter. AWS-Management-Portal für vCenter bietet eine integrierte Unterstützung von VM Import. Sobald das Portal in vCenter installiert ist, können Sie mit der rechten Maustaste auf eine VM klicken und "Migrate to EC2" auswählen, um anhand der VM eine EC2-Instance zu erstellen. Das Portal übernimmt das Exportieren der VM aus vCenter, ihr Hochladen in S3 und ihre Umwandlung in eine EC2-Instance, ohne dass weitere Aufgaben ausgeführt werden müssen. Sie können den Fortschritt Ihrer VM-Migrationen auch im Portal nachverfolgen.

F: Wie kann ich eine Amazon-EC2-Instance zurück in meine lokale Virtualisierungsumgebung exportieren?

Sie können Ihre Amazon-EC2-Instance mithilfe der Amazon-EC2-Befehlszeilenprogramme exportieren:

  • Zum Exportieren der Instance dient ec2-create-instance-export-task. Der Exportbefehl erfasst die benötigten Parameter (Instance-ID, S3-Bucket für das exportierte Image, Name des exportierten Image, VMDK-, OVA- oder VHD-Format) für einen ordnungsgemäßen Export der Instance in das gewählte Format. Die exportierte Datei wird in einem zuvor von Ihnen erstellten S3-Bucket gespeichert.
  • Mit ec2-describe-export-tasks können Sie den Status des Exportvorgangs überwachen.
  • Mit ec2-cancel-export-task können Sie einen Exportvorgang vor dem Abschluss abbrechen.

F: Welche anderen Anforderungen gelten für das Exportieren einer EC2-Instance mithilfe von VM Import/Export?

Sie können ausgeführte oder beendete EC2-Instances exportieren, die Sie zuvor mit VM Import/Export importiert haben. Wenn die Instance ausgeführt wird, wird sie vorübergehend beendet, um einen Snapshot des Startdatenträgers zu erstellen. EBS-Datenträger können nicht exportiert werden. EC2-Instances mit mehreren Netzwerkschnittstellen können nicht exportiert werden.

F: Kann ich Amazon-EC2-Instances exportieren, denen mindestens ein EBS-Volume zugeordnet ist?

Ja, aber VM Import/Export exportiert nur das Start-Volume der EC2-Instance.

F: Was kostet der Import einer virtuellen Maschine?

Für das Hochladen und die Speicherung Ihrer VM-Image-Datei gelten die Amazon S3-Standardgebühren für die Datenübertragung und -speicherung. Nachdem Ihre VM importiert wurde, werden Ihnen die Amazon EC2 Instance-Stundensätze und die EBS-Servicegebühren berechnet. Wenn Sie Ihre VM-Image-Datei nach Abschluss des Importvorgangs nicht länger in S3 speichern möchten, verwenden Sie das Befehlszeilen-Tool ec2-delete-disk-image, um Ihr Speicher-Image in Amazon S3 zu löschen.

F: Was kostet der Export einer VM?

Für das Speichern Ihrer exportierten VM-Image-Datei fallen die üblichen Amazon-S3-Speichergebühren an. Ferner fallen die üblichen S3-Datenübertragungsgebühren an, wenn Sie die exportierte VM-Datei in Ihre lokale Virtualisierungsumgebung herunterladen. Schließlich fallen die üblichen EBS-Gebühren für das Speichern eines temporären Snapshots Ihrer EC2-Instance an. Löschen Sie zum Minimieren von Speichergebühren die VM-Image-Datei aus S3, nachdem Sie sie in Ihre Virtualisierungsumgebung heruntergeladen haben.

F: Wenn ich eine VM von Windows Server importiere, die Microsoft EOS erreicht hat, wer ist dann für die Bereitstellung der Betriebssystemlizenz verantwortlich?

Wenn Sie eine importierte VM mit Microsoft Windows Server starten, die Microsoft EOS erreicht hat, werden Ihnen Standard-Instance-Stundensätze für Amazon EC2 berechnet, auf dem die entsprechende Windows-Server-Version ausgeführt wird. Dies beinhaltet das Recht, dieses Betriebssystem in Amazon EC2 zu nutzen. Sie tragen dafür Sorge, dass jegliche sonstige Software korrekt lizenziert ist.

Was passiert dann mit meinem lokalen Microsoft Windows-Lizenzschlüssel, wenn ich eine VM von Windows Server importiere, die Microsoft EOS erreicht hat? Da Ihr On-Premises-Lizenzschlüssel für Microsoft Windows, der dieser VM zugeordnet war, nicht verwendet wird, wenn Ihre importierte VM als EC2-Instance ausgeführt wird, können Sie ihn für eine andere VM in Ihrer On-Premises-Umgebung wiederverwenden.

F: Kann ich nach dem Export einer EC2-Instance zurück in meine On-Premises-Virtualisierungsumgebung weiter den von AWS bereitgestellten Microsoft-Windows-Lizenzschlüssel verwenden?

Nein. Nachdem eine EC2-Instance exportiert wurde, steht der in der EC2-Instance verwendete Lizenzschlüssel nicht mehr zur Verfügung. Sie müssen für die exportierte VM, nachdem sie auf Ihrer On-Premises-Virtualisierungsplattform gestartet wurde, einen neuen Lizenzschlüssel aktivieren und angeben.

F: Wenn ich eine VM mit Red Hat Enterprise Linux (RHEL) importiere, wer ist dann für die Bereitstellung der Betriebssystemlizenz zuständig?

Wenn Sie Red Hat Enterprise Linux (RHEL) VM-Abbilder importieren, können Sie die Lizenz-Portabilität für Ihre RHEL-Instances verwenden. Die Lizenz-Portabilität verpflichtet Sie zum Verwalten der RHEL-Lizenzen für importierte Instances. Dies ist über Cloud Access-Abonnements für Red Hat Enterprise Linux möglich. Für weitere Informationen über Cloud Access und um Ihre Berechtigung überprüfen zu lassen, wenden Sie sich bitte an Red Hat.

F: Wie lange dauert der Import einer virtuellen Maschine?

Es hängt von der Größe des Datenträgerabbilds und der Geschwindigkeit Ihrer Netzwerkverbindung ab, wie lange der Import einer virtuellen Maschine dauert. Es dauert bei einer Übertragungsgeschwindigkeit von 10 Mbps beispielsweise ungefähr zwei Stunden, bis ein 10 GB großes VMDK-Image vom Windows Server 2008 SP2 importiert wird. Falls Sie über eine langsamere Netzwerkverbindung verfügen oder einen Upload für großen Platteninhalt vornehmen müssen, kann der Importvorgang wesentlich länger dauern.

F: In welchen Amazon-EC2-Regionen kann ich VM Import/Export nutzen?

In der Regionstabelle finden Sie die in den verschiedenen Regionen verfügbaren Produktdienste.

F: Wie viele gleichzeitige Import- bzw. Exportvorgänge sind möglich?

Für jedes Konto sind pro Region bis zu fünf aktive Import- und Exportvorgänge möglich.

F: Kann ich importierte virtuelle Maschinen in Amazon Virtual Private Cloud (Amazon VPC) ausführen?

Ja, Sie können importierte virtuelle Maschinen in Amazon VPC ausführen.

F: Kann ich die AWS-Managementkonsole mit VM Import/Export verwenden?

Nein. VM Import/Export-Befehle stehen über die EC2-Befehlszeilenschnittstelle und -API zur Verfügung. Sie können auch das AWS Management Portal for vCenter zum Importieren von VMs in Amazon EC2 verwenden. Nach dem Import stehen die resultierenden Instanzen über die AWS Management Console zur Verfügung.

Abrechnungs- und Kaufoptionen

Fakturierung

F: Wie wird mir die Nutzung von Amazon EC2 in Rechnung gestellt?

Sie zahlen nur das, was Sie auch tatsächlich nutzen. Der angezeigte Preis ist der Stundensatz. Je nachdem, welche Instances Sie nutzen, bezahlen Sie für jeden Instance-Typ nach Stunde oder Sekunde (mindestens 60 Sekunden). Teilweise genutzte Instance-Stunden werden basierend auf der Instances-Nutzung in Rechnung gestellt. Daten, die zwischen AWS-Services in verschiedenen Regionen übertragen werden, werden zu den Standardtarifen für die Datenübertragung zwischen Regionen berechnet. Die Verwendung für andere Amazon Web Services wird von Amazon EC2 separat in Rechnung gestellt.

Informationen zu den EC2-Preisen finden Sie auf der Detailseite von EC2 im Preis-Abschnitt.

F: Wann beginnt und endet die Fakturierung meiner Amazon EC2-Systeme?

Die Fakturierung beginnt, wenn Amazon EC2 die Startsequenz einer AMI-Instance einleitet. Die Fakturierung endet, wenn die Instance beendet wird. Dies kann durch einen Web-Service-Befehl, durch die Ausführung von "shutdown -h" oder durch den Ausfall der Instance geschehen. Wenn Sie eine Instance stoppen, wird sie von uns heruntergefahren. Für eine gestoppte Instance werden kein Stundensatz und keine Datenübertragungsgebühren berechnet. Der Speicherplatz von Amazon EBS-Volumes wird dagegen in Rechnung gestellt. Weitere Informationen dazu finden Sie in der AWS-Dokumentation.

F: Wie wird die EC2-Instance-Nutzung definiert, die in Rechnung gestellt werden kann?

Die Instance-Nutzung wird für die Zeit in Rechnung gestellt, in der Ihre Instances „laufen“. Wenn für Ihre Instance keine weiteren Gebühren anfallen sollen, müssen Sie diese „stoppen“ oder „beenden“, damit Ihnen keine weiteren Instance-Nutzung berechnet werden. Die Berechnung beginnt, sobald eine Instance in den Ausführungsstatus wechselt.

F: Wenn ich zwei Instances in verschiedenen Availability Zones habe, welche Gebühren werden dann für die regionale Datenübertragung erhoben?

Bei jeder Instance fallen Gebühren für den Dateneingang und den Datenausgang entsprechend den jeweiligen Tarifen für die Internetdatenübertragung an. Wenn also zwischen diesen beiden Instances Daten übertragen werden, fallen für die erste Instance Gebühren für die „Übertragung ausgehender Daten aus EC2 in eine andere AWS-Region“ und für die zweite Instance Gebühren für die „Übertragung eingehender Daten aus einer anderen AWS-Region“ an. Ausführliche Informationen zur Preisgestaltung für Datenübertragung finden Sie hier.

F: Wenn ich zwei Instances in verschiedenen Regionen habe, welche Gebühren werden dann für die Datenübertragung erhoben?

Bei jeder Instance fallen Gebühren für den Dateneingang und den Datenausgang entsprechend den Tarifen für die Inter-Regionen-Datenübertragung an. Wenn also Daten zwischen zwei Instances übertragen werden, fallen für die Inter-Regionen-Datenübertragung aus der ersten Instance und für die Inter-Regionen-Datenübertragung in die zweite Instance Gebühren an.

F: Wir wird die Nutzung pro Sekunde gegenüber der Nutzung pro Stunde in meiner Monatsrechnung angezeigt?

Auch wenn die EC2-Gebühren in Ihrer Monatsrechnung jetzt sekundengenau berechnet werden, wird die kumulative Nutzung für jede Instance, die in einem bestimmten Monat gelaufen ist, aus Konsistenzgründen in der monatlichen EC2-Rechnung in Dezimalstunden angegeben. Zum Beispiel würde eine Instance, die 1 Stunde, 10 Minuten und 4 Sekunden lang läuft, wie 1,1677 aussehen. Lesen Sie diesen Blog, um ein Beispiel eines detaillierten Abrechnungsberichts zu erhalten.

F: Sind Steuern bereits in den Preisen enthalten?

Falls nicht anders angegeben, gelten unsere Preise zuzüglich anfallender Steuern und Abgaben, darunter MwSt. und Umsatzsteuer. Bei Kunden mit japanischer Rechnungsadresse unterliegt die Nutzung von AWS-Services der japanischen Verbrauchssteuer. Weitere Informationen.

Datenübertragungsgebühren beim Verschieben aller Daten aus AWS

F: Fallen für die Datenübertragung ins Internet Gebühren an, wenn ich meine Daten aus AWS verschiebe?

AWS bietet berechtigten Kunden eine kostenlose Datenübertragung ins Internet an, wenn sie alle ihre Daten aus AWS übertragen, wie unten beschrieben.

F: Ich möchte meine Daten aus AWS verschieben. Wie beantrage ich eine kostenlose Datenübertragung ins Internet?

Führen Sie die folgenden Schritte aus:

1) Wenn Sie ein eigenes AWS-Kontenteam haben, wenden Sie sich zuerst an dieses und informieren Sie es über Ihre Pläne. In einigen Fällen sollten Sie, wenn Sie eine ausgehandelte Vereinbarung mit AWS getroffen haben, Ihre Optionen mit Ihrem AWS-Kundenbetreuungsteam besprechen.

2) Überprüfen Sie die auf dieser Seite beschriebenen Kriterien und Verfahren.

3) Wenden Sie sich an den AWS-Kundensupport und geben Sie an, dass es sich bei Ihrer Anfrage um eine „kostenlose Datenübertragung bei einem Umzug aus AWS“ handelt. Der AWS-Kundensupport wird Sie um die Angabe von Informationen bitten, damit er Ihre Umzugspläne überprüfen kann, beurteilen kann, ob Sie für eine kostenlose Datenübertragung in Frage kommen, und einen angemessenen Kreditbetrag berechnen kann.

4) Wenn der AWS-Kundensupport Ihren Umzug genehmigt, erhalten Sie eine vorübergehende Gutschrift für die Kosten für die ausgehende Datenübertragung auf der Grundlage des Volumens aller Daten, die Sie zum Zeitpunkt der AWS-Berechnung in allen AWS-Services gespeichert haben. Der AWS-Kundensupport benachrichtigt Sie, wenn Sie eine Genehmigung erhalten, und Sie haben dann 60 Tage Zeit, um Ihren Umzug von AWS abzuschließen. Das Guthaben wird nur auf die Nutzung der ausgehenden Datenübertragung angerechnet, nicht auf die Nutzung anderer Dienste. Nachdem Sie die AWS-Services verlassen haben, müssen Sie innerhalb des Zeitraums von 60 Tagen alle verbleibenden Daten und Workloads von Ihrem AWS-Konto löschen, oder Sie können Ihr AWS-Konto schließen.

Kostenlose Datenübertragungen für IT-Anbieter, die umziehen, unterliegen ebenfalls den folgenden Kriterien:

a) Nur Kunden mit einem aktiven AWS-Konto mit einem guten Ruf haben Anspruch auf eine kostenlose ausgehende Datenübertragung.

b) Wenn in Ihrem AWS-Konto weniger als 100 GB an Daten gespeichert sind, können Sie diese Daten im Rahmen des bestehenden monatlichen AWS-Kontingents von 100 GB für ausgehende Datenübertragungen kostenlos aus AWS verschieben. Kunden mit weniger als 100 GB an Daten, die in ihrem AWS-Konto gespeichert sind, haben keinen Anspruch auf zusätzliche Gutschriften.

c) AWS bietet Ihnen eine kostenlose Datenübertragung ins Internet, wenn Sie alle Ihre Daten von AWS entfernen. Wenn Sie nur Ihre Gesamtnutzung eines einzelnen Services, aber nicht alles, übertragen möchten, wenden Sie sich an den AWS-Kundensupport.

d) Wenn sich Ihre Pläne ändern oder Sie Ihren Umzug von AWS nicht innerhalb von 60 Tagen abschließen können, müssen Sie den AWS-Kundensupport benachrichtigen.

e) Die Gebühren für Standardservices für die Nutzung von AWS-Services sind nicht enthalten. Nur Gebühren für ausgehende Datenübertragungen zur Unterstützung Ihres Umzugs von AWS sind gutgeschrieben. Datenübertragungen von speziellen Datenübertragungsservices wie Amazon CloudFront, AWS Direct Connect, AWS Snow Family und AWS Global Accelerator sind jedoch nicht enthalten.

f) AWS kann Ihre Servicenutzung überprüfen, um die Einhaltung dieser Anforderungen zu überprüfen. Wenn wir feststellen, dass Sie die ausgehende Datenübertragung zu einem anderen Zweck als dem Verlassen von AWS verwendet haben, können wir Ihnen die gutgeschriebene ausgehende Datenübertragung in Rechnung stellen.

g) AWS kann jederzeit Änderungen in Bezug auf kostenlose Datenübertragungen ins Internet vornehmen.

F: Warum muss ich die Vorabgenehmigung von AWS für die kostenlose Datenübertragung ins Internet einholen, bevor ich meine Daten aus AWS verschiebe?

AWS-Kunden führen täglich Hunderte Millionen von Datenübertragungen durch, und wir kennen im Allgemeinen nicht den Grund für eine bestimmte Datenübertragung. Beispielsweise können Kunden Daten zu Backup-Zwecken an einen Endbenutzer ihrer Anwendung, an einen Besucher ihrer Website oder an eine andere Cloud- oder On-Premises-Umgebung übertragen. Daher können wir nur dann wissen, dass Ihre Datenübertragung dazu dient, Ihren Umzug von AWS zu unterstützen, wenn Sie uns dies im Voraus mitteilen.

Datenübertragungsgebühren bei der Migration von der Region Singapur (SIN) zur Region Malaysia (KUL)

F: Kommt es bei der Migration meiner Daten von der Region Singapur in die Region Malaysia zu einer interregionalen Datenübertragung (DTIR)?

AWS bietet berechtigten Kunden kostenloses DTIR an, wenn sie ihre Daten ganz oder teilweise von der Region Singapur in die Region Malaysia migrieren, wie unten beschrieben (in der nächsten Frage).

F: Ich möchte meine Daten von der Region Singapur in die Region Malaysia migrieren. Wie fordere ich kostenloses DTIR an?

Führen Sie die folgenden Schritte aus:

1) Wenn Sie ein eigenes AWS-Kontenteam haben, wenden Sie sich zuerst an dieses und informieren Sie es über Ihre Pläne. In einigen Fällen sollten Sie, wenn Sie eine private Preisvereinbarung mit AWS haben, Ihre Optionen mit Ihrem AWS-Kundenbetreuungsteam besprechen.

2) Überprüfen Sie die unten beschriebenen Kriterien und Verfahren (nach Schritt 6).

3) Wenden Sie sich an den AWS-Kundensupport und geben Sie an, dass es sich bei Ihrer Anfrage um eine „kostenlose interregionale Datenübertragung (DTIR) zur Migration von Daten von der Region Singapur zur Region Malaysia“ handelt. Der AWS-Kundensupport wird Sie um die Angabe von Informationen bitten, damit er Ihre Migrationspläne überprüfen kann, beurteilen kann, ob Sie Anspruch auf kostenloses DTIR haben, und gegebenenfalls einen entsprechenden Kreditbetrag berechnen kann.

4) Wenn der AWS-Kundensupport Ihren Umzug genehmigt, erhalten Sie eine vorübergehende Gutschrift für die Kosten von DTIR, die auf dem Volumen aller Daten basiert, die Sie zwischen AWS-Services von der Region Singapur in die Region Malaysia migrieren möchten. Der AWS-Kundensupport benachrichtigt Sie, wenn Sie eine Genehmigung erhalten, und Sie haben dann 60 Tage Zeit, um Ihre interregionale Migration abzuschließen. Das Guthaben wird nur auf die Nutzung von DTIR angerechnet und nicht auf die Nutzung anderer Services.

5) Nachdem Sie die Migration innerhalb des Zeitraums von 60 Tagen abgeschlossen haben, müssen Sie die migrierten Daten und Workloads aus der Region Singapur innerhalb von 30 Tagen nach Abschluss Ihrer Migration löschen.

6) Sie können die Schritte 3–5 wiederholen, wenn Sie Daten in mehreren Datenübertragungsrunden von Singapur nach Malaysia migrieren müssen.

Kostenlose DTIR für die Migration von der Region Singapur in die Region Malaysia unterliegen ebenfalls den folgenden Kriterien:

1) Nur Kunden mit einem aktiven AWS-Konto mit einem guten Ruf haben Anspruch auf kostenloses DTIR.

2) Wenn sich Ihre Pläne ändern oder Sie Ihre interregionale Migration nicht innerhalb von 60 Tagen abschließen können, müssen Sie den AWS-Kundensupport benachrichtigen.

3) Standard-Servicegebühren für die Nutzung von AWS-Services sind nicht enthalten. Nur DTIR-Gebühren zur Unterstützung Ihrer Migration von Singapur in die Region Malaysia kommen für eine Gutschrift in Frage.

4) AWS kann Ihre Servicenutzung überprüfen, um die Einhaltung dieser Anforderungen zu überprüfen. Wenn wir feststellen, dass Sie DTIR für einen anderen Zweck als die Migration von Daten und Workloads von der Region Singapur in die Region Malaysia verwendet haben, können wir Ihnen die gutgeschriebene DTIR in Rechnung stellen.

5) AWS kann jederzeit Änderungen in Bezug auf das kostenlose DTIR vornehmen.

F: Warum muss ich vor der Migration meiner Daten von der Region Singapur in die Region Malaysia die Vorabgenehmigung von AWS für das kostenlose DTIR beantragen?

AWS-Kunden führen täglich Hunderte Millionen von Datenübertragungen durch, und wir kennen im Allgemeinen nicht den Grund für eine bestimmte Datenübertragung. Beispielsweise übertragen Kunden möglicherweise Daten, um Workloads zu Backup-Zwecken zu replizieren, an einen Besucher ihrer Website aus der Region Malaysia. Dementsprechend wissen wir nur, dass Ihre Datenübertragung darin besteht, Ihre interregionale Migration von Singapur nach Malaysia zu unterstützen, wenn Sie uns dies vorher mitteilen.

Convertible Reserved Instances

F: Was ist eine Convertible Reserved Instance?

Eine Convertible Reserved Instance ist eine Art Reserved Instances mit Attributen, die während der Laufzeit geändert werden kann.

F: Wann sollte ich eine Convertible Reserved Instance anstelle einer Standard Reserved Instance kaufen?

Convertible Reserved Instances sind praktisch für Kunden, die sich auf eine dreijährige Laufzeit für die Nutzung von EC2 Instances festlegen können – im Gegenzug erhalten sie einen erheblichen Rabatt auf ihre EC2-Tarife. Ebenso empfehlen sie sich für Kunden, die sich unsicher sind, welche Art Instance sie in Zukunft benötigen, oder für Kunden, die von Preisänderungen profitieren möchten.

F: Welche Laufzeitoptionen sind für Convertible Reserved Instances verfügbar?

Genauso wie Standard RIs sind auch Convertible Reserved Instances mit einer Laufzeit von einem oder drei Jahren verfügbar.

F: Kann ich meine Convertible Reserved Instance zurückgeben und stattdessen eine andere Convertible Reserved Instance nutzen, wenn sich meine Anforderungen hinsichtlich Instance-Typ, Betriebssystem, Mandantenfähigkeit oder Zahlungsoption geändert haben?

Ja, Sie können bei einer Umwandlung Ihrer Convertible Reserved Instances Änderungen am Instance-Typ, Betriebssystem, an der Mandantenfähigkeit oder Zahlungsoption vornehmen. Sie können einen Teil Ihrer Convertible Reserved Instance flexibel austauschen oder den Wert von mehreren Convertible Reserved Instances in einer einzelnen Umwandlung zusammenführen.

F: Kann ich eine Convertible oder Standard RI von einer Region in eine andere übertragen?

Nein, eine RI wird einer bestimmten Region für die Dauer ihrer Laufzeit fest zugeordnet.

F: Wie ändere ich die Konfiguration einer Convertible RI?

Sie können die Konfiguration Ihrer Convertible Reserved Instances über die EC2 Management Console oder die GetReservedInstancesExchangeQuote-API ändern. Sie können einen Teil Ihrer Convertible Reserved Instance flexibel austauschen oder den Wert von mehreren Convertible Reserved Instances in einer einzelnen Umwandlung zusammenführen. Klicken Sie hier, um mehr über die Umwandlung von Convertible RIs zu erfahren.

F: Fällt eine Gebühr für die Umwandlung meiner Convertible Reserved Instances an?

Nein, für die Umwandlung Ihrer RIs fällt keine Gebühr an. Möglicherweise müssen Sie aber eine einmalige Zahlung leisten, um eventuelle Preisunterschiede zwischen Ihren bisherigen Convertible RIs und den gewünschten neuen Convertible RIs auszugleichen.

F: Wie funktioniert die Umwandlung von Convertible RIs?

Wandeln Sie eine Convertible Reserved Instance in eine andere um, wird durch eine Umrechnung in EC2 sichergestellt, dass der Gesamtwert der Convertible Reserved Instances gleich bleibt. Wenn Sie zum Beispiel eine Reserved Instance im Wert von 1000 USD in eine andere Reserved Instance umwandeln, erhalten Sie Convertible Reserved Instances im Gegenwert von 1000 USD (oder mehr). Sie können Ihre Convertible Reserved Instance nicht gegen (eine) Convertible Reserved Instance(s) mit einem geringeren Gesamtwert eintauschen.

F: Was bedeutet genau Gesamtwert?

Der Gesamtwert ist die Summe aller während der Laufzeit der Reserved Instance zu leistenden Zahlungen.

F: Wie berechnet sich genau der mögliche Aufschlag, den ich beim Austausch zum Ausgleich möglicher Preisunterschiede zwischen zwei Convertible Reserved Instances mit kompletter Vorauszahlung zu zahlen habe?

Nehmen wir einmal an, Sie haben eine Convertible Reserved Instance mit kompletter Vorauszahlung im Wert von 1000 USD erworben und vorab bezahlt. Nach Ablauf der halben Laufzeit möchten Sie die Attribute der Reserved Instance ändern. Da erst die Hälfte der Laufzeit abgelaufen ist, verbleibt noch ein Guthaben von 500 USD für die Reserved Instance. Die Convertible Reserved Instance mit kompletter Vorauszahlung, die Sie stattdessen erwerben möchten, kostet aktuell 1 200 USD. Da genau die Hälfte der Laufzeit Ihrer Convertible Reserved Instance vorbei ist, beträgt der Gegenwert der neuen Convertible Reserved Instance 600 USD – die Hälfte des Gesamtpreises. Die von Ihnen zu leistende Ausgleichszahlung ist die Differenz der bereits von Ihnen geleisteten und der für die gewünschten Convertible Reserved Instances fälligen Vorabzahlung, also 600 USD minus 500 USD = 100 USD.

F: Und wie funktioniert die Umrechnung zwischen Convertible Reserved Instances ohne Vorauszahlung?

Anders als bei Convertible Reserved Instances mit Vorauszahlung ist hier keine Ausgleichszahlung zu leisten, da hier eine Umwandlung zwischen Reserved Instances stattfindet, für die keine Vorauszahlung getätigt wurde. Jedoch müssen die pro Stunde anfallenden Kosten vor der Umwandlung größer oder gleich der pro Stunde anfallenden Kosten nach der Umwandlung sein.

Beispiel: Sie haben eine Convertible Reserved Instance ohne Vorauszahlung (A) zum Preis von 0,10 USD/Std. erworben und möchten nun die Convertible Reserved Instance A in eine andere Reserved Instance (B) umwandeln, deren Kosten 0,06 USD/Std. betragen. Bei der Umwandlung erhalten Sie zwei Reserved Instances von Instance B, da die Kosten pro Stunde für die neuen Instances größer oder gleich sein müssen wie die Kosten, die Sie für die zuvor genutzte Instance (A) gezahlt haben.

F: Kann ich die Anzahl der Instances anpassen, die ich als Ergebnis einer Umwandlung von Convertible Reserved Instances erhalte?

Nein. EC2 berechnet die Mindestanzahl von Convertible Reserved Instances, die Sie erhalten, auf Grundlage der Convertible Reserved Instances, die Sie zurückgeben möchten, wobei der Wert der Convertible Reserved Instances, die Sie erhalten, mindestens gleich hoch sein muss wie der Wert der von Ihnen bisher genutzten Convertible Reserved Instances.

F: Gibt es Obergrenzen für die Umwandlung von Convertible Reserved Instances?

Nein, es gibt keine Obergrenzen für die Umwandlung von Convertible Reserved Instances.

F: Kann ich bei der Umwandlung meiner Convertible Reserved Instances den Instance-Typ frei wählen?

Nein, sie können nur eine Umwandlung in Convertible Reserved Instances vornehmen, die gerade von AWS angeboten werden.

F: Kann ich die mit meiner Convertible Reserved Instance verknüpfte Zahlungsoption upgraden?

Ja, Sie können die mit Ihrer Reserved Instance verknüpfte Zahlungsoption upgraden. Sie können beispielsweise Ihre Reserved Instances ohne Vorauszahlung in Reserved Instances mit teilweiser oder kompletter Vorauszahlung umwandeln, um so von besseren Preisen zu profitieren. Anders herum geht es nicht: Sie können die Zahlungsoption nicht von "Komplette Vorauszahlung" in "Keine Vorauszahlung" oder von "Teilweise Vorauszahlung" in "Keine Vorauszahlung" ändern.

F: Profitiere ich mit Convertible Reserved Instances von Preissenkungen während der Laufzeit meiner Convertible Reserved Instances?

Ja, Sie können Ihre Reserved Instances umwandeln, um von den niedrigeren Preisen zu profitieren. Beispiel: Wenn der Preis für neue Convertible Reserved Instances um 10 % sinkt, können Sie Ihre Convertible Reserved Instances umwandeln, um so von dem Preisnachlass um 10 % zu profitieren.

EC2-Flotte

F: Was ist die Amazon-EC2-Flotte?

Mit einem einzigen API-Aufruf können Sie mit EC2-Flotte Rechenleistung über verschiedene Instance-Typen, Availability Zones und On-Demand, Reserved Instances (RI) und Spot-Instances-Kaufmodelle bereitstellen, um die Skalierung, Leistung und Kosten zu optimieren.

F: Wenn ich derzeit einen Amazon-EC2-Spot-Instance-Flotte verwende, sollte ich dann zu Amazon-EC2-Flotte migrieren?

Wenn Sie Amazon-EC2-Spot-Instances mit Spot-Instance-Flotte verwenden, können Sie dies beibehalten. Die Spot-Instance-Flotte und EC2-Flotte bieten dieselben Funktionen. Eine Migration ist nicht erforderlich.

F: Kann ich Reserved Instance (RI)-Rabatte für Amazon-EC2-Flotte verwenden?

Ja. Ähnlich wie andere EC2-APIs oder andere AWS-Services, die EC2-Instances launchen, erhält diese Instance den RI-Rabatt, wenn die von EC2-Flotte gestartete On-Demand-Instance mit einer bestehenden RI übereinstimmt. Wenn Sie beispielsweise regionale RIs für M4-Instances besitzen und nur M4-Instances in Ihrer EC2-Flotte angegeben haben, werden RI-Rabatte automatisch auf diese Verwendung von M4 angewendet.

F: Erfolgt ein Failover von Amazon-EC2-Flotte zu On-Demand, wenn die EC2-Spot-Kapazität nicht vollständig erfüllt ist?

Nein. EC2-Flotte wird weiterhin versuchen, basierend auf der Anzahl der Spot-Instances, die Sie in Ihrer Flottenstartspezifikation angefordert haben, Ihre gewünschte Spot-Kapazität zu erreichen.

F: Wie sieht das Preisangebot für Amazon-EC2-Flotte aus?

Die EC2-Flotte ist ohne Aufpreis verfügbar. Sie zahlen nur für die zugrundeliegenden Ressourcen, die die EC2-Flotte launcht.

F: Können Sie ein Praxisbeispiel für die Verwendung von Amazon-EC2-Flotte angeben?

Es gibt zahlreiche Möglichkeiten, die Amazon-EC2-Flotte zu nutzen, wie z. B. bei Big Data-Workloads, containerisierten Anwendungen, Workloads für die Rasterverarbeitung etc. In diesem Beispiel einer genomischen Sequenzierungs-Workload können Sie ein Raster von Worker-Knoten mit einem einzigen API-Aufruf launchen: Wählen Sie Ihre bevorzugten Instances aus, weisen Sie Gewichtungen für diese Instances zu, legen Sie die Zielkapazität für On-Demand- und Spot-Instances fest und entwickeln Sie innerhalb von Sekunden eine Flotte, um die genomischen Daten schnell zu durchsuchen.

F: Wie kann ich einer Amazon-EC2-Flotte Ressourcen zuweisen?

Standardmäßig startet die EC2-Flotte die preisgünstigste On-Demand-Option. Für Spot-Instances bietet die EC2-Flotte drei Zuweisungsstrategien: kapazitätsoptimiert, niedrigster Preis und diversifiziert. Die kapazitätsoptimierte Zuweisungsstrategie versucht, Kapazitätsmetriken zu analysieren und so Spot Instances aus den zugänglichsten Spot-Instance-Pools bereitzustellen. Diese Strategie ist eine gute Wahl für Workloads, bei denen die Kosten für Unterbrechungen hoch sind, wie etwa Big Data und Analysen, Bild- und Medien-Wiedergabe, Machine Learning und High Performance Computing.

Mit der Strategie des niedrigsten Preises können Sie die Spot-Instance in Pools bereitstellen, die zum Anforderungszeitpunkt den niedrigsten Preis pro Kapazitätseinheit bieten. Mit der diversified-Strategie können Sie die Ressourcen Ihrer Spot-Instance-Flotten in mehreren Spot-Instance-Pools bereitstellen und die Zielkapazität Ihrer Flotte beibehalten, um die Anwendung zu weitern.

F: Kann ich eine Amazon-EC2-Flottenanforderung für mehrere Regionen übermitteln?

Nein. EC2-Flottenanforderungen für mehrere Regionen werden nicht unterstützt.

F: Kann ich eine Amazon-EC2-Flotte durch Tags kennzeichnen?

Ja. Sie können eine EC2-Flottenanforderung mit einem Tag kennzeichnen, um geschäftsrelevante Tag-Gruppierungen zu erstellen, um Ressourcen nach technischen, geschäftlichen und sicherheitsrelevanten Dimensionen zu organisieren.

F: Kann ich meine Amazon-EC2-Flotte modifizieren?

Ja. Sie können die Gesamtzielkapazität Ihrer EC2-Flotte im Wartungsmodus ändern. Möglicherweise müssen Sie die Anfrage abbrechen und eine neue einreichen, um die Änderung anderer Konfigurationsparameter zu beantragen.

F: Kann ich für jeden Instance-Typ, den ich verwenden möchte, ein anderes AMI festlegen?

Ja. Geben Sie dazu einfach das gewünschte AMI in jeder Startspezifikation an, die Sie mit Ihrer EC2-Flotte bereitstellen.

Amazon-EC2-Kapazitätsblöcke für ML

F: Was sind Amazon-EC2-Kapazitätsblöcke für ML?

Amazon-EC2-Kapazitätsblöcke für ML ermöglichen es Ihnen, GPU-Instances in einem Amazon-EC2-UltraCluster für die Ausführung Ihrer Machine Learning (ML)-Workloads zu reservieren. Mit Amazon-EC2-Kapazitätsblöcken können Sie GPU-Kapazität ab einem zukünftigen Datum für Zeiträume von bis zu 28 Tagen und in Cluster-Größen von einer bis 64 Instances reservieren. Wenn das Datum und die Uhrzeit Ihrer EC2-Kapazitätsblock-Reservierung eintreffen, können Sie Ihre Instances starten und bis zum Ende Ihrer Reservierungszeit verwenden.

F: Warum sollte ich EC2-Kapazitätsblöcke verwenden?

EC2-Kapazitätsblöcke erleichtern den Zugriff auf die leistungsstärksten GPU-Instances in Amazon EC2 für ML, sogar angesichts branchenweiter GPU-Engpässe. Verwenden Sie EC2-Kapazitätsblöcke, um die Kapazitätsverfügbarkeit für GPU-Instances sicherzustellen und Ihre ML-Entwicklung mit Zuversicht zu planen. EC2-Kapazitätsblöcke werden in EC2 UltraClusters bereitgestellt, sodass Sie die beste Netzwerklatenz und Durchsatzleistung nutzen können, die in EC2 verfügbar sind.

F: Wann sollte ich Amazon-EC2-Kapazitätsblöcke anstelle von On-Demand-Kapazitätsreservierungen verwenden?

Sie sollten EC2-Kapazitätsblöcke verwenden, wenn Sie eine kurzfristige Kapazitätssicherung benötigen, um ML-Modelle zu trainieren oder zu optimieren, Experimente durchzuführen, Prototypen zu entwickeln oder Nachfrageschwankungen für ML-Anwendungen zu bewältigen. Mit EC2-Kapazitätsblöcken können Sie sich darauf verlassen, dass Sie an einem bestimmten Datum Zugriff auf GPU-Ressourcen haben, um Ihre ML-Workloads auszuführen. Sie sollten On-Demand-Kapazitätsreservierungen für alle anderen Workload-Typen verwenden, die eine Absicherung benötigen, z. B. geschäftskritische Anwendungen, behördliche Anforderungen oder Notfallwiederherstellung.

F: Wie fange ich mit EC2-Kapazitätsblöcken an?

Sie können auf der Grundlage Ihrer Kapazitätsanforderungen in der AWS-Managementkonsole, der AWS Command Line Interface (AWS CLI) und den AWS-SDKs nach verfügbaren EC2-Kapazitätsblöcken suchen. Sobald Sie einen EC2-Kapazitätsblock gekauft haben, wird eine Reservierung in Ihrem Konto erstellt. Wenn die Startzeit des EC2-Kapazitätsblocks eintrifft, sendet EC2 über Amazon EventBridge ein Ereignis aus, um anzuzeigen, dass die Reservierung jetzt aktiv und zur Nutzung verfügbar ist. Um einen aktiven EC2-Kapazitätsblock zu verwenden, wählen Sie die Kaufoption „Kapazitätsblock“ und geben Sie beim Starten von EC2-Instances die Kapazitätsreservierungs-ID für Ihren EC2-Kapazitätsblock an. Wenn sich die Endzeit Ihres EC2-Kapazitätsblocks nähert, sendet EC2 über EventBridge ein Ereignis aus, das Sie darüber informiert, dass Ihre Reservierung bald endet, sodass Sie Ihren Workload überprüfen können. Ungefähr 30 Minuten vor Ablauf Ihres EC2-Kapazitätsblocks beginnt AWS damit, alle laufenden Instances zu beenden. Der Betrag, der Ihnen für Ihren EC2-Kapazitätsblock in Rechnung gestellt wird, beinhaltet nicht die letzten 30 Minuten der Reservierung.

F: Welche Instance-Typen unterstützen EC2-Kapazitätsblöcke und in welchen AWS-Regionen sind sie verfügbar?

EC2-Kapazitätsblöcke sind für die folgenden Instance-Typen in den folgenden Regionen verfügbar:

  • EC2-p5e.48xlarge-Instances in der Region USA Ost (Ohio)
  • EC2-p5.48xlarge-Instances in den Regionen USA Ost (Nord-Virginia), USA Ost (Ohio), USA West (Oregon) und Asien-Pazifik (Tokio)
  • EC2-p4d.24xlarge-Instances in den Regionen USA Ost (Ohio) und USA West (Oregon)
  • EC2-trn1.32xlarge-Instances in der Region Asien-Pazifik (Melbourne)

F: Welche Größenoptionen sind für EC2-Kapazitätsblöcke verfügbar?

EC2-Kapazitätsblöcke sind in Cluster-Größen von 1, 2, 4, 8, 16, 32 und 64 Instances verfügbar und können in Ein-Tages-Schritten für bis zu 14 Tage oder in Sieben-Tages-Schritten für bis zu 28 Tage reserviert werden.

F: Wie lange im Voraus kann ich einen EC2-Kapazitätsblock reservieren?

Sie können einen EC2-Kapazitätsblock bis zu acht Wochen in der Zukunft erwerben. Alle Reservierungen für EC2-Kapazitätsblöcke beginnen um 11:30 Uhr koordinierter Weltzeit (UTC).

F: Was passiert, wenn keine EC2-Kapazitätsblöcke verfügbar sind, die meinen Spezifikationen entsprechen?

Wenn es keine EC2-Kapazitätsblöcke gibt, die Ihren Anforderungen entsprechen, können Sie Ihre Anfrage mit anderen Eingabeparametern wiederholen. Wir empfehlen, dass Sie bei Ihren Suchanfragen einen möglichst breiten Datumsbereich verwenden, um die beste Chance zu haben, einen EC2-Kapazitätsblock zu finden.

F: Kann ich meinen EC2-Kapazitätsblock ändern oder stornieren?

Nein, ein EC2-Kapazitätsblock kann nicht geändert oder storniert werden, sobald er reserviert ist.

F: Wie viel kosten EC2-Kapazitätsblöcke?

Wenn Sie datumsübergreifend nach einem EC2-Kapazitätsblock suchen, gibt AWS das günstigste verfügbare Angebot zurück, das Ihren Spezifikationen in dem von Ihnen angegebenen Datumsbereich entspricht. Der Preis für einen EC2-Kapazitätsblock hängt vom gesamten verfügbaren Angebot und der Nachfrage zum Zeitpunkt des Kaufs der Reservierung ab. Sie können den Preis eines EC2-Kapazitätsblock-Angebots einsehen, bevor Sie es reservieren. Der Preis eines EC2-Kapazitätsblocks wird zum Zeitpunkt der Reservierung im Voraus berechnet. Der Preis eines EC2-Kapazitätsblocks ändert sich nicht, nachdem er reserviert wurde. Wenn Sie Instances in einem aktiven EC2-Kapazitätsblock starten, wird Ihnen nur die Nutzung eines Premium-Betriebssystems auf Basis nutzungsabhängiger Zahlung in Rechnung gestellt.

F: Gelten Savings Plans und Rabatte für Reserved Instances (RI) für EC2-Kapazitätsblöcke?

Nein, EC2-Kapazitätsblöcke sind nicht durch Savings Plans oder RI-Rabatte abgedeckt.

F: Kann ich EC2-Kapazitätsblöcke mit Amazon SageMaker verwenden?

Derzeit unterstützen EC2-Kapazitätsblöcke nur EC2-Instances.

On-Demand-Kapazitätsreservierung

Eine On-Demand-Kapazitätsreservierung ist ein EC2-Angebot, mit dem Sie reservierte Kapazität auf EC2 erstellen und verwalten können. Sie können eine On-Demand-Kapazitätsreservierung erstellen, indem Sie eine Availability Zone (AZ) und eine Menge (Anzahl der Instances) zusammen mit anderen Instance-Spezifikationen wie Instance-Typ und Tenancy auswählen. Nach dem Anlegen wird die EC2-Kapazität für Sie gehalten, unabhängig davon, ob Sie Instances ausführen oder nicht.

F: Wie viel kosten On-Demand-Kapazitätsreservierungen?

Wenn die On-Demand-Kapazitätsreservierung aktiv ist, zahlen Sie die entsprechenden Instance-Gebühren, unabhängig davon, ob Sie die Instances ausführen oder nicht. Wenn Sie die Reservierung nicht nutzen, erscheint diese als eine ungenutzte Reservierung auf Ihrer EC2-Rechnung. Wenn Sie eine Instance ausführen, die den Attributen einer Reservierung entspricht, bezahlen Sie nur für die Instance und nichts für die Reservierung. Es gibt keine Vorab- oder Zusatzgebühren.

Wenn Sie beispielsweise eine On-Demand-Kapazitätsreservierung für 20 c5.2xlarge-Instances erstellen und 15 c5.2xlarge-Instances ausführen, werden Ihnen 15 Instances und fünf ungenutzte Instances in der Reservierung in Rechnung gestellt (effektiv für 20 Instances berechnet).

F: Kann ich einen Rabatt für die Nutzung der On-Demand-Kapazitätsreservierung erhalten?

Ja. Savings Plans oder Rabatte für regionale RI (RI, die auf eine Region beschränkt sind) gelten für On-Demand-Kapazitätsreservierungen. Wenn Sie eine Instance innerhalb Ihrer Reservierung ausführen, wird Ihnen die Reservierung nicht in Rechnung gestellt. Savings Plans oder regionale RIs gelten für diese Nutzung, als ob es sich um eine On-Demand-Nutzung handeln würde. Wenn die Reservierung nicht verwendet wird, wendet AWS Billing Ihren Rabatt automatisch an, wenn die Attribute der ungenutzten On-Demand-Kapazitätsreservierung mit den Attributen eines aktiven Savings Plan oder einer regionalen RI übereinstimmen.

Wenn Sie beispielsweise ein regionales RI für 10 c5.2xlarge-Instances und eine ungenutzte On-Demand-Kapazitätsreservierung für 10 c5.2xlarge-Instances in derselben Region haben, gilt der RI-Rabatt für alle 10 Instances der Reservierung. Beachten Sie, dass wir regionale RI-Rabatte vorzugsweise auf die laufende Instance-Nutzung anwenden, bevor wir ungenutzte On-Demand-Kapazitätsreservierungen abdecken. Das heißt, wenn Sie andere C5-Instances in der Region betreiben, wenden wir zuerst die regionale RI auf diese Instances an und dann wenden wir den verbleibenden Rabatt auf die ungenutzte On-Demand-Kapazitätsreservierung an.

Hinweis: Eine regionale RI ist eine EC2-RI, die auf eine AWS-Region beschränkt ist. Rabatte für zonengebundene RIs (RIs, die auf eine AZ in einer Region beschränkt sind) gelten nicht für On-Demand-Kapazitätsreservierungen, da zonengebundene RIs bereits mit einer Kapazitätsreservierung ausgestattet sind.

F: Wann sollte ich Savings Plans, EC2-RIs, und On-Demand-Kapazitätsreservierungen verwenden?

Verwenden Sie Savings Plans oder regionale RIs zur Senkung Ihrer Kosten, wenn Sie sich für eine ein- oder dreijährige Laufzeit entscheiden. Savings Plans bieten ähnlich wie EC2-RIs erhebliche Ersparnisse gegenüber der On-Demand-Option. Damit sinken für Kunden automatisch die Kosten für die genutzte Rechenleistung in allen AWS-Regionen, sogar wenn sich die Nutzung ändert. Verwenden Sie On-Demand-Kapazitätsreservierungen für die zusätzliche Gewissheit, dass Sie Instances für jede Dauer starten können. On-Demand-Kapazitätsreservierungen können für beliebige Zeiträume angelegt und unabhängig von Ihren Savings Plans oder RIs verwaltet werden. Wenn Sie über Savings Plans oder regionale RIs verfügen, werden diese automatisch auf alle passenden On-Demand-Kapazitätsreservierungen angewendet. Damit erhalten Sie die Flexibilität, selektiv On-Demand-Kapazitätsreservierungen zu einem Teil Ihrer Instances hinzuzufügen und trotzdem die Kosten für die Nutzung zu senken.

F: Ich habe eine zonengebundene RI (RI, die einer AZ zugeordnet ist), die auch eine Kapazitätsreservierung ermöglicht. Wie lässt sich das mit einer On-Demand-Kapazitätsreservierung vergleichen?

Eine zonengebundene RI bietet sowohl einen Rabatt als auch eine Kapazitätsreservierung in einer bestimmten AZ als Gegenleistung für eine 1- bis 3-jährige Laufzeit. Mit der On-Demand-Kapazitätsreservierung können Sie reservierte Kapazitäten unabhängig von RI-Festmenge und -Laufzeit anlegen und verwalten.

Sie können On-Demand-Kapazitätsreservierungen zusammen mit einem Savings Plan oder einer regionalen RI nutzen, um mindestens die gleichen Vorteile wie bei einer zonengebundenen RI zu erhalten – ohne zusätzliche Kosten. Sie erhalten außerdem die erweiterte Flexibilität eines Savings Plan (oder regionalen RI) und die Features der On-Demand-Kapazitätsreservierung: die Möglichkeit, die Reservierung jederzeit zu erweitern oder zu verringern, die Auslastung der Reservierung in Echtzeit anzuzeigen und eine On-Demand-Kapazitätsreservierung auf bestimmte Workloads auszurichten.

Durch eine Neuzuordnung Ihrer zonengebundenen RIs zu einer Region erhalten Sie hinsichtlich der Anwendung der RI-Rabatte unmittelbar die Flexibilität bei der AZ und Instance-Größe. Sie können Ihre standardmäßigen zonengebundenen RIs einer Region zuordnen, indem Sie den Gültigkeitsbereich der RI mithilfe der EC2-Konsole oder der ModifyReservedInstances-API von einer bestimmten AZ auf eine Region umstellen.

F: Ich habe eine On-Demand-Kapazitätsreservierung erstellt. Wie kann ich sie nutzen?

Eine On-Demand-Kapazitätsreservierung ist an eine bestimmte AZ gebunden und wird standardmäßig automatisch von laufenden Instances in dieser AZ verwendet. Wenn Sie neue Instances starten, die mit den Reservierungseigenschaften übereinstimmen, stimmen sie automatisch mit der Reservierung überein.

Sie können auch eine Reservierung für spezielle Workloads/Instances anpeilen, wenn Sie das bevorzugen. Weitere Informationen zur Targeting-Option finden Sie in der technischen Dokumentation von Linux oder Windows.

F: Wie viele Instances darf ich reservieren?

Die Anzahl der Instances, die Sie reservieren dürfen, richtet sich nach dem On-Demand-Instance-Limit Ihres Kontos. Sie können so viele Instances reservieren, wie es dieses Limit erlaubt, abzüglich der Anzahl der bereits laufenden Instances.

Wenn Sie ein höheres Limit benötigen, wenden Sie sich an Ihren AWS-Vertriebsmitarbeiter oder füllen Sie das Amazon-EC2-Instanceanfrageformular mit Ihrem Anwendungsfall aus und Ihre Instanceerhöhung wird berücksichtigt. Limiterhöhungen sind an die Region gebunden, für die sie beantragt werden.

F: Kann ich eine On-Demand-Kapazitätsreservierung ändern, nachdem sie begonnen hat?

Ja. Sie können die Anzahl der reservierten Instances jederzeit reduzieren. Sie können auch die Anzahl der Instances erhöhen (je nach Verfügbarkeit). Sie können auch den Endzeitpunkt Ihrer Reservierung ändern. Eine beendete oder gelöschte On-Demand-Kapazitätsreservierung können Sie nicht ändern.

F: Kann ich eine On-Demand-Kapazitätsreservierung beenden, nachdem sie begonnen hat?

Ja. Sie können eine On-Demand-Kapazitätsreservierung beenden, indem Sie sie über die Konsole oder über das API/SDK stornieren oder indem Sie Ihre Reservierung ändern, um einen Endzeitpunkt festzulegen, an dem sie automatisch abläuft. Laufende Instances sind von Änderungen Ihrer On-Demand-Kapazitätsreservierung, einschließlich der Löschung oder des Ablaufs einer Reservierung, nicht betroffen.

F: Wo finde ich weitere Informationen zur Nutzung von On-Demand-Kapazitätsreservierungen?

Weitere Informationen zum Erstellen und Verwenden einer On-Demand-Kapazitätsreservierung finden Sie in der technischen Dokumentation zu Linux oder Windows.

F: Kann ich eine On-Demand-Kapazitätsreservierung für ein anderes AWS-Konto freigeben?

Ja, Sie können On-Demand-Kapazitätsreservierungen für andere AWS-Konten oder innerhalb Ihrer AWS-Organisation über den AWS Resource Access Manager (AWS RAM) freigeben. Sie können EC2-On-Demand-Kapazitätsreservierungen in drei einfachen Schritten freigeben: Erstellen Sie eine Ressourcenfreigabe mit AWS RAM, fügen Sie Ressourcen (On-Demand-Kapazitätsreservierungen) zur Ressourcenfreigabe hinzu und geben Sie die Zielkonten an, für die Sie die Ressourcen freigeben möchten.

Beachten Sie, dass die Freigabe der On-Demand-Kapazitätsreservierung für neue AWS-Konten oder AWS-Konten, die über einen begrenzten Abrechnungsverlauf verfügen, nicht verfügbar ist. Neue Konten, die mit einem qualifizierten primären Konto (Zahler) oder über eine AWS-Organisation verknüpft sind, sind von dieser Einschränkung ausgenommen.

F: Was passiert, wenn ich eine On-Demand-Kapazitätsreservierung für ein anderes AWS-Konto freigebe?

Wenn eine On-Demand-Kapazitätsreservierung mit anderen Konten gemeinsam genutzt wird, können diese Konten die reservierte Kapazität für die Ausführung ihrer EC2-Instances verbrauchen. Das genaue Verhalten hängt von den Einstellungen ab, die in der On-Demand-Kapazitätsreservierung festgelegt wurden. Standardmäßig entsprechen On-Demand-Kapazitätsreservierungen automatisch vorhandenen und neuen Instances anderer Konten, die gemeinsamen Zugriff auf die Reservierung haben. Sie können auch eine On-Demand-Kapazitätsreservierung für bestimmte Workloads/Instances festlegen. Einzelne Konten können steuern, welche Instances On-Demand-Kapazitätsreservierungen verbrauchen. Weitere Informationen zu den Instance-Abgleichungsoptionen finden Sie in der technischen Dokumentation von Linux oder Windows.

F: Gibt es eine zusätzliche Gebühr für das Teilen einer Reservierung?

Nein, für das Teilen einer Reservierung fallen keine zusätzlichen Gebühren an.

F: Wer wird berechnet, wenn eine On-Demand-Kapazitätsreservierung über mehrere Konten freigegeben wird?

Wenn mehrere Konten eine On-Demand-Kapazitätsreservierung belegen, wird jedes Konto für seine eigene Instance-Nutzung belastet. Ungenutzte reservierte Kapazität (falls vorhanden) wird dem Konto in Rechnung gestellt, das Eigentümer der On-Demand-Kapazitätsreservierung ist. Wenn zwischen den Konten, die eine On-Demand-Kapazitätsreservierung teilen, eine konsolidierte Fakturierungsvereinbarung besteht, wird das primäre Konto für die Instance-Nutzung über alle verknüpften Konten fakturiert.

F: Kann ich den Zugriff auf die On-Demand-Kapazitätsreservierung unter AWS-Konten priorisieren, die über gemeinsamen Zugriff verfügen?

Nein. Instance-Spots in einer On-Demand-Kapazitätsreservierung sind für jedes Konto verfügbar, das über einen gemeinsamen Zugriff verfügt.

F: Wie kann ich die AZ einer On-Demand-Kapazitätsreservierung mit einem anderen Konto kommunizieren, da die AZ-Namenszuordnungen von AWS-Konto zu AWS-Konto unterschiedlich sein können?

Sie können jetzt eine Availability-Zone-ID (AZ-ID) anstelle eines AZ-Namens verwenden. Eine AZ-ID ist eine statische Referenz und bietet eine konsistente Möglichkeit, den Speicherort einer Ressource über alle Ihre Konten hinweg zu identifizieren. Auf diese Weise können Sie Ressourcen zentral in einem einzelnen Konto bereitstellen und über mehrere Konten freigeben.

F: Kann ich die Freigabe meiner On-Demand-Kapazitätsreservierung beenden, nachdem ich sie freigegeben habe?

Ja, Sie können die Freigabe einer Reservierung beenden, nachdem Sie sie freigegeben haben. Wenn Sie die Freigabe einer On-Demand-Kapazitätsreservierung für bestimmte Konten oder vollständig beenden, verlieren andere Konten die Möglichkeit, neue Instances in der On-Demand-Kapazitätsreservierung zu starten. Jede Kapazität, die von Instances belegt wird, die von anderen Konten ausgeführt werden, wird für Ihre Nutzung in der On-Demand-Kapazitätsreservierung wiederhergestellt (je nach Verfügbarkeit).

F: Wo finde ich weitere Informationen zur Freigabe von On-Demand-Kapazitätsreservierungen?

Weitere Informationen zum Freigeben von On-Demand-Kapazitätsreservierungen finden Sie in der technischen Dokumentation zu Linux oder Windows.

F: Kann ich einen Rabatt für die Nutzung der On-Demand-Kapazitätsreservierung erhalten?

Ja. Savings Plans- oder regionale RI-Rabatte gelten für On-Demand-Kapazitätsreservierungen. AWS Billing wendet den Rabatt automatisch an, wenn die Attribute einer On-Demand-Kapazitätsreservierung mit den Attributen eines Savings Plan oder einer regionalen RI übereinstimmen. Wenn eine On-Demand-Kapazitätsreservierung von einer Instance genutzt wird, wird Ihnen nur die Instance in Rechnung gestellt (mit Savings-Plan- oder RI-Rabatten). Rabatte werden vorzugsweise auf die Instance-Nutzung angewendet, bevor ungenutzte On-Demand-Kapazitätsreservierungen abgedeckt werden.

Hinweis: Eine regionale RI ist eine EC2-RI, die auf eine AWS-Region beschränkt ist. Rabatte für zonengebundene RIs (RIs, die auf eine AZ in einer Region beschränkt sind) gelten nicht für On-Demand-Kapazitätsreservierungen, da zonengebundene RIs bereits mit einer Kapazitätsreservierung ausgestattet sind.

Reserved Instances

F: Was ist eine Reserved Instance?

Eine Reserved Instance (RI) ist ein Angebot für EC2, das Ihnen für die Nutzung von EC2 einen erheblichen Preisvorteil bietet, wenn Sie sich auf eine Laufzeit von einem oder drei Jahren festlegen.

F: Worin unterscheiden sich Standard Reserved Instances und Convertible Reserved Instances?

Standard Reserved Instances bieten Ihnen für die Nutzung von EC2 Instances einen erheblichen Preisvorteil, wenn Sie sich für eine bestimmte Instance-Familie festlegen. Bei Convertible Reserved Instances behalten Sie sich die Möglichkeit vor, trotz Rabatt für die EC2-Nutzung die Instance-Konfiguration während der Laufzeit zu ändern. Klicken Sie hier, um weitere Informationen zu Convertible Reserved Instances zu erhalten.

F: Bieten Reserved Instances eine Kapazitätsreservierung?

Ja. Wenn eine Standard oder Convertible Reserved Instance einer bestimmten Availability Zone (AZ) zugeordnet ist, wird für Sie eine Instance-Kapazität entsprechend der Reserved Instance-Konfiguration reserviert. Diese Reserved Instances werden dann auch als “zonengebundene Reserved Instances” bezeichnet. Zonen-RIs geben Ihnen die Gewissheit, dass Ihnen Ihre Instances bei Bedarf jederzeit zur Verfügung stehen.

Sie können auch auf die Kapazitätsreservierung verzichten und Standard oder Convertible RIs erwerben, die auf eine Region beschränkt sind (so genannte „regionale RIs“). Bei regionalen RIs wird der Rabatt automatisch auf die Nutzung für alle AZs und Instance-Größen innerhalb der jeweiligen Region angewendet, wodurch sich für Sie die bestmögliche Nutzung der ermäßigten Tarife für RIs vereinfacht.

F: In welchem Fall sollte ich mich für eine zonengebundene RI entscheiden?

Wenn Sie die Vorteile der Kapazitätsreservierung nutzen möchten, sollten Sie eine Reserved Instance in einer bestimmten AZ kaufen.

F: In welchem Fall sollte ich mich für eine regionsgebundene RI entscheiden?

Wenn Sie die Vorteile der Kapazitätsreservierung nicht benötigen, empfiehlt sich eine regionale RI. Regionsgebundene RIs bieten Flexibilität in Bezug auf AZ und Instance-Größe, was eine breitere Anwendbarkeit der ermäßigten Rate der RI ermöglicht.

F: Was ist unter Flexibilität bei der AZ und Instance-Größe zu verstehen?

Flexibilität in Bezug auf AZ und Instance-Größe vereinfacht für Sie die bestmögliche Nutzung der ermäßigten Tarife für regionsbezogene RIs. Durch die Flexibilität in Bezug auf AZ kann der ermäßigte Tarif Ihrer RI für jede AZ einer Region genutzt werden. Durch die Flexibilität in Bezug auf Instance-Größe kann der ermäßigte Tarif Ihrer RI für jede Instance-Größe innerhalb einer Instance-Familie genutzt werden. Angenommen, Sie verfügen über eine regionale m5.2xlarge-RI für Linux/UNIX mit Standard-Tenancy für die Region USA Ost (Nord-Virginia). Der ermäßigte Tarif dieser Reserved Instance kann in diesem Fall automatisch auf zwei m5.xlarge-Instances in der Region „us-east-1a“ oder auf vier m5.large-Instances in der Region „us-east-1b“ angewendet werden.

F: Welche Arten von Reserved Instances bieten Flexibilität in puncto Instance-Größe?

Regionsgebundene Reserved Instances für Linux/UNIX mit Standard-Tenancy bieten Flexibilität in puncto Instance-Größe. Nicht verfügbar ist diese Flexibilität für Reserved Instances für andere Plattformen wie Windows, Windows mit SQL Standard, Windows mit SQL Server Enterprise, Windows mit SQL Server Web, RHEL und SLES oder G4-Instances.

F: Muss ich bestimmte Aktionen ausführen, um die Vorteile der Flexibilität in Bezug auf Availability Zone und Instance-Größe nutzen zu können?

Bei regionalen RIs sind keine weiteren Aktionen erforderlich, um die Vorteile der Flexibilität hinsichtlich der Availability Zone und Instance-Größe nutzen zu können.

F: Ich besitze zonengebundene RIs. Wie weise ich sie einer Region zu?

Sie können Ihre standardmäßigen zonengebundenen RIs einer Region zuweisen, indem Sie den Geltungsbereich der RI von einer bestimmten Availability Zone zu einer Region von der EC2-Konsole aus ändern oder die ModifyReservedInstances-API verwenden.

F: Wie kaufe ich eine Reserved Instance?

Um zu starten, können Sie eine RI über die EC2-Konsole oder die AWS-CLI kaufen. Geben Sie dort einfach den Instance-Typ, die Plattform, die Tenancy, die Laufzeit, die Zahlungsoption und die Region oder Availability Zone an.

F: Kann ich eine Reserved Instance auch für eine bereits aktive Instance kaufen?

Ja. Ab dem Kauf wendet AWS den ermäßigten Tarif einer Reserved Instance auf jede zutreffende Instance-Nutzung an. Weitere Informationen finden Sie auf der Seite Erste Schritte.

F: Kann ich kontrollieren, welche Instances zum ermäßigten Tarif abgerechnet werden?

Nein. AWS ermittelt automatisch, welche Instances nach dem ermäßigten Tarif abgerechnet werden, damit sichergestellt ist, dass Sie stets den geringstmöglichen Betrag zahlen. Weitere Informationen zur Abrechnung und deren Anwendung auf Reserved Instances finden Sie in Preisvorteile und Zahlungsoptionen.

F: Wie funktioniert die Flexibilität bei der Instance-Größe?

EC2 verwendet die weiter unten gezeigte Staffelung, um die verschiedenen Größen innerhalb einer Instance-Familie zu vergleichen. Flexibilität in puncto Instance-Größe bedeutet, dass diese Staffelung zur Anwendung des ermäßigten Tarifs für Reserved Instances auf die normierte Nutzung der Instance-Familie verwendet wird. Verfügen Sie beispielsweise über eine m5.2xlarge-Reserved Instance für eine bestimmte Region, kann der ermäßigte Tarif für die Nutzung von einer m5.2xlarge- oder zwei m5.xlarge-Instances verwendet werden.

Klicken Sie hier, um mehr über die Anwendung der Flexibilität von Reserved Instances in puncto Instance-Größe auf die EC2-Nutzung zu erfahren. Klicken Sie hier, um zu erfahren, wie die Flexibilität von Reserved Instances in puncto Instance-Größe im Kosten- und Nutzungsbericht dargestellt wird.

Instance-Größe

Normalisierungsfaktor

nano

 0,25

micro 0,5
small 1
medium 2
large 4
xlarge 8
2xlarge 16
4xlarge 32
8xlarge 64
9xlarge 72
10xlarge 80
12xlarge 96
16xlarge 128
18xlarge 144
24xlarge 192
32xlarge 256

F: Kann ich meine Reserved Instance während deren Laufzeit ändern?

Ja, Sie können die AZ der RI ändern, den Geltungsbereich der RI von AZ in Region (und umgekehrt) ändern oder Instance-Größen innerhalb derselben Instance-Familie ändern (auf der Linux/Unix-Plattform).

F: Kann ich den Instance-Typ meiner Reserved Instance während deren Laufzeit ändern?

Ja. Ja. Convertible RIs lassen Ihnen die Option, den Instance-Typ, das Betriebssystem, die Tenancy und die Zahlungsoption einer RI während der Laufzeit zu ändern. Weitere Informationen finden Sie im Abschnitt Convertible RI der häufig gestellten Fragen.

F: Welche Zahlungsoptionen gibt es für Reserved Instances?

Beim Kauf einer Reserved Instance haben Sie die Wahl aus drei Zahlungsoptionen. Bei der Option "Komplette Vorauszahlung" zahlen Sie mit einer Vorauszahlung für die gesamte Reserved Instance-Laufzeit. Bei der Option "Teilweise Vorauszahlung" leisten Sie eine niedrige Vorauszahlung. Anschließend wird Ihnen über die gesamte Laufzeit der Reserved Instance ein ermäßigter Stundensatz in Rechnung gestellt. Die Option "Keine Vorauszahlung" erfordert keine Vorauszahlung und bietet einen ermäßigten Stundensatz über die gesamte Laufzeit.

F: Wann werden RIs aktiviert?

Der Rechnungsrabatt und die Kapazitätsreservierung (sofern zutreffend) werden aktiviert, sobald Ihre Zahlung erfolgreich genehmigt wurde. Den Status Ihrer Reserved Instances (Ausstehend | Aktiv | Zurückgezogen) können Sie in der Amazon-EC2-Konsole auf der Seite „Reserved Instances“ einsehen.

F: Gelten Reserved Instances auch für Spot Instances oder solche, die über einen Dedicated Host laufen?

Nein. Reserved Instances gelten nicht für Spot-Instances oder solche, die über einen dedizierten Host laufen. Eine Möglichkeit, Kosten für die Nutzung von Dedicated Hosts zu senken, ist der Erwerb von Dedicated Host Reservations.

F: Wie funktionieren RIs mit konsolidierter Fakturierung?

Unser System ermittelt automatisch, welche Instances nach dem ermäßigten Tarif abgerechnet werden, um sicherzustellen, dass dem zahlenden Konto immer der geringstmögliche Betrag angerechnet wird. Wenn Sie über Reserved Instances für eine Availability Zone verfügen, wird die Kapazitätsreservierung nur dem Eignerkonto der Reserved Instance zugeordnet. Allerdings wird der Rabatt automatisch auf die Nutzung durch alle Konten Ihrer konsolidierten Fakturierungsgruppe angewendet.

F: Erhalte ich für den Kauf von Reserved Instances einen Preisnachlass?

Ja. EC2 bietet beim Kauf von Reserved Instances gestaffelte Rabatte. Die Rabatte werden auf Grundlage des Gesamtlistenwerts (d. h. des nicht rabattierten Preises) für die aktiven Reserved Instances in der jeweiligen Region berechnet. Ihr Gesamtlistenwert ist die Summe aller erwarteten Zahlungen für eine Reserved Instance während der Laufzeit einschließlich Vorauszahlungen und wiederkehrender Stundensätze. Die Stufen und die entsprechenden Rabatte sind weiter unten aufgeführt.

Staffelungsstufe nach Listenwert

Rabatt für Vorauszahlungen

Rabatt auf Stundensätze

Weniger als 500 000 USD

0 %

0 %

500 000 – 4 000 000 USD

5 %

5 %

4 000 000 – 10 000 000 USD 10 % 10 %
Mehr als 10 000 000 USD Anrufen  

F: Können Sie mir helfen, besser zu verstehen, wie Volumenrabatte auf den Kauf von Reserved Instances angerechnet werden?

Gerne. Nehmen wir an, Sie verfügen derzeit in der Region US-east-1 über aktive Reserved Instances im Wert von 400 000 USD. Wenn Sie nun weitere Reserved Instances im Wert von 150 000 USD für die gleiche Region kaufen, erhalten Sie für die ersten 100 000 USD dieses Kaufs keinen Rabatt. Für die verbleibenden 50 000 USD dieses Kaufs erhalten Sie jedoch einen Preisnachlass von 5 Prozent. Für diesen Teil des Kaufs werden Ihnen also entsprechend der Zahlungsoption nur 47 500 USD für die gesamte Laufzeit berechnet.

Weitere Informationen finden Sie im Abschnitt Understanding Reserved Instance Discount Pricing Tiers (Grundsätzliches zu den Rabattstufen für Reserved Instances) im Amazon EC2-Benutzerhandbuch.

F: Wie berechne ich den Listenwert einer RI?

Es folgt ein Beispiel einer Listenwertberechnung für Reserved Instances mit dreijähriger Laufzeit und teilweiser Vorauszahlung:

Wert des Volumenrabatts bei dreijähriger Laufzeit und teilweiser Vorauszahlung in USA Ost

  Vorauszahlung in USD Wiederkehrender Stundensatz (USD) Wiederkehrender Stundenwert Listenwert
m3.xlarge 1 345 USD 0,060 USD 1 577 USD 2 922 USD
c3.xlarge 1 016 USD 0,045 USD 1 183 USD 2 199 USD

F: Wie werden Volumenrabatte bei Verwendung der konsolidierten Fakturierung berechnet?

AWS verwendet bei der konsolidierten Fakturierung den aggregierten Gesamtlistenpreis Ihrer aktiven Reserved Instances all Ihrer konsolidierten Konten, um zu ermitteln, welche Volumenrabattstufe angesetzt wird. Volumenrabattstufen werden zum Zeitpunkt des Kaufs bestimmt. Daher sollten Sie die konsolidierte Fakturierung vor dem Kauf von Reserved Instances aktivieren, um sicherzustellen, dass Sie von dem höchst möglichen Volumenrabatt profitieren, für den Sie sich mit Ihren konsolidierten Konten qualifizieren.

F: Qualifizieren sich Convertible RIs für Volumenrabatte?

Nein. Allerdings wirkt sich jede von Ihnen erworbene Convertible RI positiv auf den Status Ihrer Volumenrabatt-Stufe aus.

F: Wie kann ich bestimmen, welche Volumenrabatt-Stufe für mich gilt?

Informationen dazu, wie Sie Ihre aktuelle Volumenrabattstufe ermitteln, finden Sie im Abschnitt Understanding Reserved Instance Discount Pricing Tiers (Grundsätzliches über die Rabattstufen für Reserved Instances) im Amazon EC2-Benutzerhandbuch.

F: Ändern sich die Kosten meiner RIs, wenn ich aufgrund meines künftigen Volumens für andere Rabattstufen in Frage komme?

Nein. Volumenrabatte werden beim Kauf berechnet. Die Kosten Ihrer Reserved Instances ändern sich daher nicht, auch wenn Sie sich für weitere Rabattstufen qualifizieren. Bei jedem neuen Kauf wird entsprechend des Volumenrabatts, für den Sie sich zwischenzeitlich qualifiziert haben, der zutreffende Rabatt neu errechnet.

F: Sind beim Kauf von Reserved Instances bestimmte Aktionen erforderlich, um Volumenrabatte zu erhalten?

Nein. Sie erhalten die Volumenrabatte automatisch, wenn Sie die Reserved Instances mit der API "PurchaseReservedInstance" oder über die EC2 Management Console kaufen. Wenn Sie Reserved Instances im Wert von über 10 000 000 USD kaufen, kontaktieren Sie uns bezüglich weiterer über die automatisch gebotenen Rabatte hinausgehender Nachlässe.

Reserved Instance Marketplace

F: Was ist der Reserved Instance (RI) Marketplace?

Der RI Marketplace ist ein Online-Marktplatz, der AWS-Kunden die Flexibilität bietet, ihre Amazon-EC2-RIs an andere Unternehmen und Organisationen zu verkaufen. Kunden können den RI Marketplace durchsuchen und eine größere Auswahl an Laufzeiten und Preisoptionen für RIs finden, die von anderen AWS-Kunden angeboten werden.

F: Wann kann ich eine RI auf dem RI Marketplace anbieten?

Sie können eine RI auflisten, wenn:

  • Sie sich als Verkäufer im RI Marketplace registriert haben.
  • Sie für Ihre RI bezahlt haben.
  • Sie die RI seit mehr als 30 Tagen besitzen.

F: Können RIs übertragen werden?

EC2 Reserved Instances sind nur gemäß den Anforderungen des RI Marketplace in den AWS-Servicebedingungen übertragbar und können nicht anderweitig übertragen werden.

F: Kann ich jede RI auf dem EC2-RI-Marketplace verkaufen?

Nein, AWS verbietet den Weiterverkauf von RIs, die im Rahmen eines Rabattprogramms gemäß den AWS-Servicebedingungen gekauft wurden. Alle RIs mit vollständiger Vorauszahlung, teilweiser Vorauszahlung oder ohne Vorauszahlung, die direkt von AWS oder vom EC2-RI-Marketplace gekauft wurden und für die von AWS ein Rabatt gewährt wurde (z. B. RI Volume Discount oder andere Rabattprogramme), kommen nicht für den Verkauf auf dem EC2-RI-Marketplace in Frage.

F: Wie registriere ich mich als Verkäufer für den RI Marketplace?

Wenn Sie sich beim RI Marketplace registrieren möchten, können Sie den Registrierungs-Workflow starten, indem Sie eine RI über die EC2-Managementkonsole verkaufen oder Ihr Profil im AWS-Portal auf der Seite mit den Kontoeinstellungen einrichten. Unabhängig von der Vorgehensweise müssen Sie die folgenden Schritte ausführen:

  1. Gehen Sie zunächst die Übersicht über den Registrierungsprozess durch.
  2. Melden Sie sich bei Ihrem AWS-Konto an.
  3. Geben Sie das Bankkonto ein, auf das wir Zahlungen überweisen sollen. Wenn Sie „Fortfahren“ wählen, verwenden wir dieses Bankkonto als standardmäßige Auszahlungsoption.
  4. Wählen Sie am Bestätigungsschirm „Weiter zur Konsole, um mit dem Listen zu beginnen.“

Wenn Ihr Umsatz mit RIs 20 000 USD übersteigt oder Sie mehr als 50 RIs verkaufen möchten, müssen Sie vor dem Listen weiterer RIs steuerrechtliche Angaben bereitstellen. Wählen Sie „Mit Steuerinterview fortfahren“. Im Verlauf dieses Interviews zu Steuern werden Sie im TIMS-Workflow aufgefordert, Ihren Firmennamen, Kontaktnamen, Ihre Adresse und Steueridentifikationsnummer einzugeben.

Wenn Sie außerdem vorhaben, RIs im Wert von mehr als 50 000 USD pro Jahr zu verkaufen, müssen Sie auch eine Erweiterung des Limits beantragen.

F: Wie erfahre ich, wann ich mit dem Verkauf auf dem RI Marketplace beginnen kann?

Sie können im RI Marketplace mit dem Verkaufen beginnen, nachdem Sie über die Registrierungspipeline ein Bankkonto hinzugefügt haben. Nach Abschluss der Aktivierung erhalten Sie eine Bestätigungs-E-Mail. Wichtig ist der Hinweis, dass Sie Auszahlungen erst dann erhalten können, nachdem wir eine Bestätigung Ihrer Bank empfangen haben, was je nach Bank bis zu zwei Wochen dauern kann.

F: Wie biete ich eine RI zum Verkauf an?

Führen Sie zum Listen einer RI einfach die folgenden Schritte in der Amazon-EC2-Konsole aus:

  1. Wählen Sie die RIs aus, die Sie verkaufen möchten, und wählen Sie „Reserved Instances verkaufen“. Wenn Sie den Registrierungsprozess nicht abgeschlossen haben, werden Sie aufgefordert, diesen Prozess zu durchlaufen.
  2. Bestimmen Sie für jeden RI-Typ die Anzahl der Instances, die Sie verkaufen möchten, und die Höhe der Einmalgebühr. Je nach verbleibender Zeit können Sie den Einmalpreis auf unterschiedliche Beträge festlegen, sodass Sie den Einmalpreis nicht ständig anpassen müssen, wenn sich Ihre RI nicht schnell verkauft. Sie müssen standardmäßig den aktuellen Preis festlegen, wobei wir den Einmalpreis jeden Monat um denselben Schritt automatisch verringern.
  3. Nachdem Sie Ihre Listung konfiguriert haben, wird ein abschließender Bestätigungsbildschirm angezeigt. Wählen Sie „Reserved Instance verkaufen“.

F: Welche RIs kann ich zum Verkauf anbieten?

Sie können jede RI auflisten, die mindestens 30 Tage aktiv war und für die wir eine Zahlung erhalten haben. Normalerweise heißt das, dass Sie Ihre Reservierungen auflisten können, sobald sie sich im Status active (aktiv) befinden. Wenn Sie ein Rechnungskunde sind, kann Ihre RI bis zum Zahlungseingang bei AWS den Status active (aktiv) haben. In diesem Fall wird Ihre RI erst aufgelistet, nachdem wir Ihre Zahlung erhalten haben.

F: Wie werden aufgelistete RIs den Käufern angezeigt?

RIs (von Drittanbietern und von AWS angebotene), die im RI Marketplace aufgelistet wurden, können in der Amazon-EC2-Konsole im Bereich "Reserved Instances" angezeigt werden. Sie können auch den API-Aufruf DescribeReservedInstancesListings verwenden.

Angezeigte RIs werden je nach Typ, verbleibender Dauer, Standardpreis und Stundenpreis gruppiert. Durch dieses Verfahren ist es für Käufer einfacher, die RIs zu finden, die sie kaufen möchten.

F: Wie viel von meiner RI-Laufzeit kann ich auflisten?

Sie können eine RI für die verbleibende Laufzeit abgerundet auf den nächsten Monat verkaufen. Wenn beispielsweise die verbleibende Laufzeit noch 9 Monate und 13 Tage beträgt, können Sie die RI mit einer Laufzeit von 9 Monaten zum Verkauf anbieten.

F: Kann ich meine RI entfernen, nachdem ich sie zum Verkauf aufgelistet habe?

Ja, Sie können eine RI-Listung jederzeit entfernen, bis ein Verkauf ausstehend ist (was bedeutet, dass ein Käufer Ihre RI gekauft hat und die Zahlungsbestätigung aussteht).

F: Welchen Preisrahmen kann ich für die RIs festlegen, die ich auflisten möchte?

Im RI Marketplace können Sie einen Standardpreis festlegen, den Sie zu akzeptieren gewillt sind. Sie können nicht den Stundenpreis festlegen (der im Vergleich zur ursprünglichen RI unverändert bleibt), und Sie erhalten keine Beträge aus Zahlungen, die den Stundenpreisen zugeordnet sind.

F: Kann ich meine Reservierung weiter nutzen, während sie im RI Marketplace aufgelistet ist?

Ja, bis zu ihrem Verkauf kommen Sie weiter in den Genuss der Kapazität und des Preisvorteils Ihrer Reservierung. Nach dem Verkauf werden sämtliche ausgeführten Instances, die gemäß dem rabattierten Tarif abgerechnet wurden, gemäß dem On-Demand-Tarif abgerechnet, es sei denn, Sie kaufen eine neue Reservierung oder Sie kündigen die Instance.

F: Kann ich eine RI, die ich im RI Marketplace gekauft habe, weiterverkaufen?

Ja, Sie können im RI Marketplace gekaufte RIs wie jede andere RI verkaufen.

F: Gibt es Einschränkungen für den Verkauf von RIs?

Ja, Sie müssen über ein US-Bankkonto verfügen, um RIs im RI Marketplace verkaufen zu können. In Kürze werden auch nicht US-amerikanische Bankkonten unterstützt. Darüber hinaus dürfen Sie RIs nicht in der Region US GovCloud verkaufen.

F: Kann ich RIs verkaufen, die ich über die öffentlichen Volumenpreisstufen gekauft habe?

Nein, dies ist derzeit noch nicht möglich.

F: Ist der Verkauf von RIs im RI Marketplace kostenpflichtig?

Ja, bei jeder RI, die auf dem RI Marketplace verkauft wird, berechnet AWS eine Bearbeitungsgebühr von 12 % des Gesamtvorabpreises.

F: Kann AWS Untermengen meiner aufgelisteten RIs verkaufen?

Ja, AWS kann potenziell eine Untermenge der RIs verkaufen, die Sie aufgelistet haben. Wenn Sie beispielsweise 100 RIs auflisten, kann es möglicherweise einen Käufer geben, der Interesse am Kauf von 50 RIs hat. Wir verkaufen in diesem Fall diese 50 Instances und listen Ihre 50 RIs so lange weiter auf, bis Sie sie nicht mehr länger auflisten möchten.

F: Wie bezahlen Käufer für die RIs, die sie gekauft haben?

Zahlungen für erfolgte RI-Verkäufe erfolgen per ACH-Überweisung auf ein US-amerikanisches Bankkonto.

F: Wann erhalte ich mein Geld?

Sobald AWS Zahlungen von dem Kunden erhalten hat, der Ihre Reservierung gekauft hat, erfolgt eine Überweisung auf das Bankkonto, das Sie bei der Registrierung im RI Marketplace angegeben haben.

Wir senden Ihnen anschließend eine E-Mail-Benachrichtigung, dass wir die Zahlungen überwiesen haben. Normalerweise wird das Geld innerhalb von 3–5 Tagen nach dem Verkauf Ihrer RI auf Ihrem Konto erscheinen.

F: Erhalte ich, wenn ich meine RI im RI Marketplace verkaufe, eine Rückvergütung für den Premium Support, der mir in Rechnung gestellt wurde?

Nein, Sie erhalten keine anteilige Rückvergütung für den vorab gezahlten Anteil an der AWS-Premium-Support-Gebühr.

F: Werde ich über RI-Marketplace-Aktivitäten benachrichtigt?

Ja, Sie erhalten eine E-Mail pro Tag mit Einzelheiten zu Ihren RI-Marketplace-Aktivitäten, wenn Sie RI-Listungen erstellen oder stornieren, Käufer Ihre Listungen erwerben oder AWS Zahlungen auf Ihr Bankkonto überweist.

F: Welche Informationen werden zwischen Käufer und Verkäufer ausgetauscht, um die Berechnung der Transaktionssteuer zu vereinfachen?

Im Auszahlungsbericht werden dem Verkäufer Informationen zu Ort, (US-Bundesstaat), Postleitzahl und Land/Region des Käufers genannt. Anhand dieser Informationen können Verkäufer etwaige Transaktionssteuern berechnen (z. B. Umsatzsteuer, Mehrwertsteuer usw.), die abzuführen sind. Der Name der juristischen Person des Verkäufers wird auch auf der Einkaufsrechnung angegeben.

F: Gibt es Einschränkungen hinsichtlich der Kunden beim Kauf von RIs anderer Anbieter?

Ja, Sie dürfen weder Ihre eigenen RIs noch die Ihrer verknüpften Konten (über die konsolidierte Fakturierung) kaufen.

F: Muss ich für Premium Support zahlen, wenn ich RIs vom RI Marketplace kaufe?

Ja, als Premium-Support-Kunde wird Ihnen Premium Support in Rechnung gestellt, wenn Sie eine RI über den RI Marketplace erwerben.

Savings Plans

F: Was sind Savings Plans?

Bei Savings Plans handelt es sich um ein flexibles Preismodell, das im Gegenzug für die Verpflichtung zu einer gleichbleibenden Nutzungsmenge (gemessen in USD/Stunde) über eine Laufzeit von einem oder drei Jahren niedrige Preise für die EC2-, Lambda- und Fargate-Nutzung bietet. Wenn Sie sich für Savings Plans registrieren, wird Ihnen der ermäßigte Savings-Plans-Preis für Ihre Nutzung bis zur Festmenge in Rechnung gestellt. Wenn Sie sich beispielsweise auf 10 USD für die Nutzung von Rechenleistung pro Stunde festlegen, erhalten Sie die Savings-Plans-Preise für diese Nutzung bis zu 10 USD. Jede darüber hinausgehende Nutzung wird mit On-Demand-Sätzen berechnet.

F: Welche Arten von Savings Plans bietet AWS an?

AWS bietet zwei Arten von Savings Plans an:

  1. Compute Savings Plans bieten die größte Flexibilität und tragen dazu bei, die Kosten um bis zu 66 % zu senken. Diese Pläne gelten für die Nutzung von EC2-Instances, unabhängig von Instance-Familie, Größe, AZ, Region, Betriebssystem oder Tenancy. Sie gelten auch für die AWS-Fargate- und Lambda-Nutzung. Bei Compute Savings Plans können Sie beispielsweise jederzeit von C4- auf M5-Instances wechseln, einen Workload von EU (Irland) nach EU (London) verlagern oder einen Workload von EC2 auf Fargate oder Lambda verschieben. Dabei zahlen Sie automatisch weiterhin den Savings-Plans-Preis.
  2. EC2 Instance Savings Plans bieten die niedrigsten Preise. Sie ermöglichen Einsparungen von bis zu 72 % im Gegenzug für die Verpflichtung zur Nutzung einzelner Instance-Familien in einer Region (z. B. M5-Nutzung in Nord-Virginia). Dadurch sinken automatisch Ihre Kosten für die ausgewählte Instance-Familie in der betreffenden Region, unabhängig von AZ, Größe, Betriebssystem oder Tenancy. Mit EC2 Instance Savings Plans erhalten Sie die Flexibilität, Ihre Nutzung zwischen den Instances innerhalb einer Familie in der Region zu wechseln. So können Sie beispielsweise von c5.xlarge mit Windows zu c5.2xlarge mit Linux wechseln und automatisch von den Savings-Plans-Preisen profitieren.

F: Wie schneiden Savings Plans im Vergleich zu EC2-RIs ab?

Savings Plans bieten ähnlich wie EC2-RIs erhebliche Ersparnisse gegenüber der On-Demand-Option. Damit sinken automatisch die Kosten für die genutzte Rechenleistung in allen AWS-Regionen, sogar wenn sich die Nutzung ändert. Damit erhalten Sie die Flexibilität, die für Ihre Bedürfnisse am besten geeignete Rechenoption zu nutzen und weiterhin Geld zu sparen, wobei Sie keinen Austausch und keine Änderungen vornehmen müssen.

Compute Savings Plans, die (genau wie Convertible RIs) Einsparungen von bis zu 66 % ermöglichen, reduzieren automatisch Ihre Kosten für die Nutzung von EC2-Instances, unabhängig von Region, Instance-Familie, Größe, Betriebssystem und Tenancy. Das gilt sogar für AWS Fargate und Lambda. Mit EC2 Instance Savings Plans, die (genau wie Standard RIs) Einsparungen von bis zu 72 % ermöglichen, sparen Sie automatisch Geld bei der Nutzung von Instances innerhalb einer bestimmten EC2-Instance-Familie in einer ausgewählten Region (z. B. M5 in Nord-Virginia), unabhängig von Größe, Betriebssystem oder Tenancy.

F: Stellen Savings Plans Kapazitätsreservierungen für EC2-Instances bereit?

Nein, bei Savings Plans wird keine Kapazitätsreservierung bereitgestellt. Allerdings können Sie mit On-Demand-Kapazitätsreservierungen Kapazitäten reservieren und mit Savings Plans dafür niedrigere Preise zahlen.

F: Was sind die ersten Schritte bei Savings Plans?

Sie können im AWS Cost Explorer in der AWS-Managementkonsole oder über die API/CLI die ersten Schritte im Zusammenhang mit Savings Plans unternehmen. Mithilfe der Empfehlungen im AWS Cost Explorer können Sie sich mühelos für einen Savings Plan entscheiden, um so die größten Einsparungen zu erzielen. Die empfohlene stündliche Festmenge basiert auf Ihrer historischen On-Demand-Nutzung und Ihrer Wahl von Plantyp, Laufzeit und Zahlungsoption. Sobald Sie sich für einen Savings Plan registriert haben, wird Ihre genutzte Rechenleistung automatisch zu den ermäßigten Savings-Plan-Preisen berechnet. Jede darüber hinausgehende Nutzung wird zu den normalen On-Demand-Tarifen berechnet.

F: Kann ich weiterhin EC2-RIs erwerben?

Ja. Sie können weiterhin RIs kaufen, um die Kompatibilität mit Ihren bestehenden Kostenmanagement-Prozessen zu wahren. Ihre RIs werden mit Savings Plans zusammenarbeiten, um Ihre Gesamtrechnung zu senken. Bei Ablauf Ihrer RIs sollten Sie sich jedoch für Savings Plans registrieren, da sie die gleichen Einsparungen wie RIs ermöglichen, aber zusätzliche Flexibilität bieten.

Spot Instances

F: Was ist eine Spot-Instance?

Spot-Instances sind freie EC2-Kapazitäten, mit denen Sie bis zu 90 % gegenüber den On-Demand-Preisen sparen können, die von AWS mit einer 2-minütigen Benachrichtigung unterbrochen werden können. Spot nutzt die gleichen EC2-Instances, die auch On-Demand- und Reserved Instances zugrunde liegen, und eignet sich besonders für fehlertolerante und flexible Arbeitslasten. Spot-Instances sind eine zusätzliche Option für den Abruf von Rechenkapazitäten und können in Kombination mit On-Demand- und Reserved Instances verwendet werden.

F: Wie unterscheidet sich eine Spot-Instance von einer On-Demand-Instance oder Reserved Instance?

Aktive Spot-Instances unterscheiden sich nicht von On-Demand- oder Reserved Instances. In erster Linie unterscheiden sich Spot-Instances durch ihren Preis: Spot-Instances bieten gegenüber On-Demand-Instances einen erheblichen Preisvorteil. Dafür behält sich Amazon EC2 das Recht vor, Spot-Instances bei Lastspitzen zwei Minuten nach einer entsprechenden Benachrichtigung abzuziehen. Außerdem passen sich die Spot-Preise graduell an eine langfristige Bereitstellung und entsprechend der Nachfrage nach EC2-Ersatzkapazitäten an.

Weitere Informationen zu Spot-Instances erhalten Sie hier.

F: Wie erwerbe und starte ich eine Spot-Instance?

Spot-Instances können mit denselben Tools gestartet werden, die Sie heute zum Starten von Instances verwenden, einschließlich AWS-Management-Konsole, Auto-Scaling-Gruppen, Run Instances und der Spot-Flotte. Darüber hinaus unterstützen auch viele AWS-Services das Launchen von Spot-Instances wie EMR, ECS, Datapipeline, Cloudformation und Batch.

Zum Starten einer Spot-Instance müssen Sie lediglich eine Launch-Vorlage und die Anzahl der angeforderten Instances auswählen.

Weitere Informationen zum Anfordern von Spot-Instances finden Sie hier.

F: Wie viele Spot-Instances kann ich anfordern?

Die Anzahl der Spot-Instances, die Sie anfordern können, ist lediglich durch Ihr Spot-Limit für die jeweilige Region begrenzt. Neue AWS-Kunden starten möglicherweise mit einem niedrigeren Limit. Weitere Informationen zu den Spot-Instance-Limits finden Sie im Amazon EC2-Benutzerhandbuch.

Falls Sie ein höheres Limit benötigen, füllen Sie das Antragsformular für Amazon-EC2-Instances aus und geben Sie den Anwendungsfall an. Ihre Instance-Erhöhung wird dann geprüft. Die Anhebung der Limits ist von der Region abhängig, für die sie angefordert wurde.

F: Was kostet mich eine Spot-Instance?

Sie zahlen den Spot-Preis, der zu Beginn jeder Instance-Stunde für die aktive Instance gültig ist. Falls sich der Spot-Preis nach dem Start einer Instance ändert, gilt der neue Tarif für die Nutzung der Instance erst ab der nächsten vollen Stunde.

F: Was ist ein Spot-Kapazitäten-Pool?

Ein Spot-Kapazitäten-Pool ist ein Satz ungenutzter EC2-Instances mit demselben Instance-Typ, Betriebssystem sowie derselben Availability Zone. Der Preis eines Spot-Kapazitäten-Pools richtet sich nach Angebot und Nachfrage.

F: Wie kann ich Spot-Instances optimal nutzen?

Zur Maximierung der Ihnen verfügbaren Spot-Kapazität empfehlen wir Ihnen die Verwendung mehrerer Spot-Kapazitäten-Pools. Durch EC2 Auto Scaling, EC2-Flotten oder Spot-Instance-Flotten ermittelt EC2 automatisch die kostengünstigste Kapazität innerhalb der Ihnen verfügbaren Spot-Kapazitäten-Pools. Weitere Informationen finden Sie im Abschnitt Spot Best Practices (Bewährte Methoden für die Nutzung von Spot-Instances).

F: Wie kann ich den Status meiner Spot-Instance-Anforderung bestimmen?

Den Status Ihrer Spot-Instance-Anforderung ersehen Sie aus dem Statuscode und der Meldung zu Ihrer Spot-Instance-Anforderung. Den Status einer Spot-Instance-Anforderung können Sie über die Spot-Instance-Seite der EC2-Konsole in der AWS-Managementkonsole, der API und der CLI abrufen. Weitere Informationen finden Sie im Amazon-EC2-Entwicklerhandbuch.

F: Sind Spot-Instances für alle Instance-Familien und -Größen sowie in allen Regionen verfügbar?

Spot-Instances sind in allen öffentlichen AWS-Regionen verfügbar. Spot ist für nahezu alle EC2-Instance-Familien und -Größen verfügbar, auch für die neueste Generation der Computing-optimierten Instances, für FPGA-Instance-Typen sowie für die Grafikbeschleunigung. Eine vollständige Liste der in jeder Region unterstützten Instance-Typen finden Sie hier.

F: Welche Betriebssysteme sind als Spot-Instances verfügbar?

Linux/UNIX, Windows Server und Red Hat Enterprise Linux (RHEL) sind verfügbar. Windows Server mit SQL Server ist derzeit nicht verfügbar.

F: Kann ich eine Spot-Instance mit einem gebührenpflichtigen AMI für die Software eines anderen Anbieters (wie Softwarepakete von IBM) verwenden?

Nein, derzeit nicht.

F: Kann ich meine laufenden Spot Instances anhalten?

Ja, Sie können Ihre laufenden Spot Instances anhalten, wenn sie nicht benötigt werden und Sie können die angehaltenen Instances später verwenden, anstatt die Instances zu beenden oder die Spot-Anfrage abzubrechen. Das Anhalten steht für dauerhafte Spot-Anfragen zur Verfügung.

F: Wie kann ich die Spot-Instances anhalten?

Sie können die Spot Instances anhalten, indem Sie die StopInstances-API aufrufen und die Instance-IDs der Spot Instances liefern, ähnlich wie bei dem Anhalten Ihrer On-Demand-Instances. Auch können Sie dies über die AWS-Managementkonsole tun, indem Sie Ihre Instance auswählen und dann auf Actions > Instance State > Stop klicken.

F: Wie kann ich die angehaltenen Spot Instances starten?

Sie können die angehaltenen Spot Instances starten, indem Sie die StartInstances-API aufrufen und die Instance-IDs der Spot-Instances liefern, ähnlich wie bei dem Starten Ihrer On-Demand-Instances. Auch können Sie dies über die AWS-Managementkonsole tun, indem Sie Ihre Instance auswählen und dann auf Actions > Instance State > Start klicken.

Hinweis: Die Spot Instances starten nur, wenn innerhalb Ihres Maximalpreises noch Spotkapazität vorhanden ist. Spot berechnet die erhältliche Kapazität jedes Mal, wenn Sie die angehaltenen Spot Instances starten.

F: Wie weiß ich, ob ich meine Spot Instance angehalten habe oder ob Sie unterbrochen wurde?

Sie können herausfinden, ob die Spot Instance angehalten wurde oder unterbrochen wurde, indem Sie sich den Spot Request Statuscode anschauen. Dies ist als Spot Request Status (Spot-Anforderungs-Status) auf der Seite Spot Requests (Spot-Anforderungen) in der AWS-Managementkonsole oder in der DescribeSpotInstanceRequests-API Antwort als „status-code“-Feld einsehbar.

Wenn der Spot Request-Statuscode “instance-stopped-by-user” anzeigt, haben Sie Ihre Spot Instance angehalten.

F: Welche Gebühren fallen beim Anhalten oder einer Unterbrechung meiner Spot-Instance an?

Wenn Ihre Spot-Instance von Amazon EC2 in der ersten Instance-Stunde beendet oder gestoppt wird, wird Ihnen die Nutzung nicht in Rechnung gestellt. Wenn Sie die Spot-Instance jedoch selbst anhalten oder beenden, erfolgt die Berechnung zur nächsten Sekunde. Wird die Spot-Instance in einer der nachfolgenden Stunden durch Amazon EC2 beendet oder gestoppt, erfolgt die Gebührenberechnung sekundengenau. Wenn Sie unter Windows oder Red Hat Enterprise Linux (RHEL) arbeiten und die Spot-Instance selbst anhalten oder beenden, wird eine volle Stunde in Rechnung gestellt.

F: Wann wird meine Spot-Instance unterbrochen?

Innerhalb der letzten drei Monate wurden 92 % aller Spot-Instance-Trennungen manuell vom Kunden veranlasst, weil die Arbeit, für welche die Instance erforderlich war, abgeschlossen wurde.

Sollte Amazon EC2 eine von Ihnen genutzte Spot-Instance tatsächlich zurückziehen, kann dies zwei Gründe haben: erstens ein hoher Kapazitätsbedarf seitens Amazon EC2 (z. B. bei größerer Nachfrage nach On-Demand- oder Reserved Instances). Alternativ können Sie auch einen „maximalen Spot-Preis“ festlegen. Steigt der Spot-Preis über diesen Wert, wird Ihre Instance mit einer zweiminütigen Benachrichtigung zurückgefordert. Dieser Parameter legt den maximalen Preis fest, den Sie für eine Spot-Instance-Stunde bereit sind zu zahlen. Standardmäßig ist dieser Preis auf den On-Demand-Preis eingestellt. Wie zuvor zahlen Sie aber nicht Ihren Höchstpreis, sondern den während der Ausführung Ihrer Instance gültigen Spot-Marktpreis, der sekundengenau abgerechnet wird.

F: Was passiert mit meiner Spot-Instance bei einer Unterbrechung?

Sie können wählen, ob Ihre Spot-Instances bei einer Unterbrechung beendet, gestoppt oder in den Ruhezustand versetzt werden. Die Optionen "Stop" (Stoppen) und "Hibernate" (Ruhezustand) sind für persistente Spot-Instance-Anforderungen und Spot-Instance-Flotten verfügbar, wenn die Option “Maintain” (Verwalten) aktiviert ist. Standardmäßig werden Ihre Instances beendet.

Weitere Informationen zur Vorgehensweise bei Unterbrechungen erhalten Sie im Abschnitt Spot Hibernation (Versetzen von Spot-Instances in den Ruhezustand).

F: Was ist bei Spot-Instance-Unterbrechungen der Unterschied zwischen den Optionen „Stop“ (Stoppen) und „Hibernate“ (Ruhezustand)?

Wenn eine Instance in den Ruhezustand versetzt wird, bleiben die Daten im RAM bestehen. Beim Anhalten hingegen wird die Instance heruntergefahren und der RAM wird gelöscht.

In beiden Fällen jedoch bleiben die Daten aus Ihrem EBS-Root-Volume und allen angehängten EBS-Datenvolumes erhalten. Auch Ihre private und Ihre Elastic IP-Adresse (sofern zutreffend) ändert sich nicht. Das Verhalten auf Netzwerkebene entspricht dem des EC2-Workflows „Stop-Start“. Die Optionen "Stopp" und "Ruhezustand" sind nur für Amazon EBS-gestützte Instances verfügbar. Der lokale Instance-Speicher bleibt nicht erhalten.

F: Was geschieht, wenn mein EBS-Stammvolume nicht groß genug für den Arbeitsspeicherstatus (RAM) von Hibernate ist?

Der in Ihrem EBS-Root-Volume verfügbare Speicher sollte groß genug zum Speichern der Daten aus dem Arbeitsspeicher sein. Ist im EBS-Stamm-Volume nicht ausreichend Speicherplatz verfügbar, schlägt der Ruhezustand fehl und die Instance wird nicht in den Ruhezustand versetzt, sondern heruntergefahren. Stellen Sie sicher, dass Ihr EBS-Root-Volume über ausreichend Speicherplatz für die Daten aus dem Arbeitsspeicher verfügt, bevor Sie die Option zum Ruhezustand auswählen.

F: Was ist der Vorteil, wenn meine Spot-Instances bei einer Unterbrechung in den Ruhezustand versetzt werden?

Wenn Sie sich für die Option "Hibernate" entscheiden, Ihre Spot-Instances bei einer Unterbrechung also in den Ruhezustand versetzen, werden die Spot-Instances bei Unterbrechungen lediglich ausgesetzt und danach wieder aufgenommen. Ihre Arbeitslasten können dann genau an der Stelle fortfahren, an der sie zuvor unterbrochen wurden. Die Option "Hibernate" empfiehlt sich insbesondere dann, wenn der Instance-Status Ihrer Instance(s) während des Aussetzungszyklus erhalten bleiben muss, d. h., wenn Ihre unter Spot ausgeführten Anwendungen von im RAM gespeicherten Kontext-, Geschäfts- oder Sitzungsdaten abhängig sind.

F: Wie aktiviere ich „Hibernation“ für meine Spot-Instances?

Informationen hierzu finden Sie im Abschnitt Spot Hibernation (Versetzen von Spot-Instances in den Ruhezustand).

F: Fallen für meine Spot-Instance im Ruhezustand Gebühren an?

Für den Ruhezustand fallen neben den EBS-Speicherkosten und eventuell Gebühren für weitere von Ihnen genutzte EC2-Ressourcen keine zusätzlichen Gebühren an. Solange sich Ihre Instance im Ruhezustand befindet, zahlen Sie keine Nutzungsgebühren für diese Instance.

F: Kann ich eine in den Ruhezustand versetzte Instance wiederaufnehmen?

Nein. Eine in den Ruhezustand versetzte Instance können Sie nicht wiederaufnehmen. Der "Hibernate-Resume"-Zyklus wird von Amazon EC2 gesteuert. Eine von Spot in den Ruhezustand versetzte Instance wird von Amazon EC2 wieder aufgenommen, sobald die hierfür erforderliche Kapazität wieder zur Verfügung steht. 

F: Welche Instances und Betriebssysteme unterstützen den Ruhezustand?

Der Ruhezustand wird derzeit von Amazon Linux-AMIs sowie den Betriebssystemen Ubuntu und Microsoft Windows auf allen Instance-Typen der C3-, C4-, C5-, M4-, M5-, R3- und R4-Familien unterstützt, deren Arbeitsspeicher (RAM) kleiner als 100 GiB ist.

Eine Liste der unterstützten Betriebssystemversionen finden Sie im Abschnitt Spot Hibernation (Versetzen von Spot-Instances in den Ruhezustand).

F: Wonach richten sich die Gebühren, wenn sich der Spot-Preis ändert, während meine Instance aktiv ist? 

Sie zahlen für die gesamte Instance-Stunde, sekundengenau abgerechnet, den zu Beginn der Instance-Stunde festgelegten Tarif.

F: Wo kann ich meinen Verwendungsverlauf für Spot-Instances und den Betrag einsehen, der mir in Rechnung gestellt wurde?

Über die AWS-Managementkonsole erhalten Sie einen detaillierten Abrechnungsbericht, in dem auch die Start- und Endzeiten aller Spot-Instances angezeigt werden. Sie können den Rechnungsbericht über die API mit früheren Spot-Instance-Preisen vergleichen, um zu überprüfen, ob die richtigen Spot-Instance-Preise in Rechnung gestellt wurden.

F: Was ist eine Spot-Flotte?

Mit einer Spot-Instance-Flotte können Sie automatisch mehrere Spot-Instances verwalten und jeweils die Spot-Instance mit dem niedrigsten Preis pro Kapazitätseinheit für Ihren Cluster bzw. Ihre Anwendung anfordern, beispielsweise für einen Batch-Verarbeitungsauftrag, einen Hadoop-Arbeitsablauf oder einen HPC-Grid-Verarbeitungsauftrag. Dabei können Sie die für Ihre Anwendung erforderlichen Instance-Typen auswählen. Sie legen die Zielkapazität auf Basis Ihrer Anforderungen fest (in Einheiten wie Instances, vCPUs, Arbeitsspeicher, Speicher oder Netzwerkdurchsatz), wobei Sie diese Kapazität auch nach dem Start der Instance-Flotte noch ändern können. Mithilfe von Spot-Flotten können Sie die Zielkapazität einführen und beibehalten und zudem automatisch Ressourcen anfordern lassen, um diejenigen zu ersetzen, bei denen Störungen vorliegen oder die manuell beendet wurden. Weitere Informationen über Spot-Flotten.

F: Fallen für Spot-Flottenanforderungen zusätzliche Gebühren an?

Nein. Für Spot-Flottenanforderungen fallen keine zusätzlichen Gebühren an.

F: F: Welche Limits gelten für eine Spot-Instance-Flottenanforderung?

Informationen zu den für eine Spot-Instance-Flottenanforderung geltenden Limits finden Sie im Amazon EC2-Benutzerhandbuch im Abschnitt Spot Fleet Limits.

F: F: Was geschieht, wenn meine Spot-Flottenanforderung versucht, Spot-Instances zu launchen, mein regionales Limit für Spot-Instance-Anforderungen dadurch jedoch überschritten wird?

Wenn Ihre Spot-Flottenanforderung Ihr regionales Limit für Spot-Instance-Anforderungen überschreitet, schlagen einzelne Spot-Instance-Anforderungen fehl. Der Anforderungsstatus lautet in diesem Fall "Spot request limit exceeded" (Limit für Spot-Instance-Anforderungen überschritten). Der Verlauf Ihrer Spot-Instance-Flottenanforderung zeigt alle Limit-Fehler für Spot-Instance-Anforderungen an, die die Flottenanforderung erhalten hat. Informationen zur Beschreibung des Verlaufs Ihrer Spot-Instance-Flottenanforderung finden Sie im Amazon EC2-Benutzerhandbuch im Abschnitt Monitoring Your Spot Fleet (Überwachung Ihrer Spot-Instance-Flotte).

F: F: Werden Spot-Instance-Flottenanforderungen garantiert erfüllt?

Nein. Über Spot-Instance-Flottenanforderungen können Sie mehrere Spot-Instance-Anforderungen gleichzeitig abgeben. Für sie gelten die gleiche Verfügbarkeit und die gleichen Preise wie für einzelne Spot-Instance-Anforderungen. Sind beispielsweise für die in Ihrer Spot-Instance-Flottenanforderung genannten Instance-Typen keine Ressourcen verfügbar, kann Ihrer Anforderung eventuell gar nicht oder nur teilweise entsprochen werden. Wir empfehlen Ihnen, alle möglichen Instance-Typen und Verfügbarkeitszonen, die für Ihre Workloads geeignet sind, in die Spot-Flotte aufzunehmen.

F: Kann ich eine Spot-Instance-Flottenanforderung für mehrere Availability Zones übermitteln?

Ja. Informationen zur Übermittlung von Spot-Instance-Flottenanforderung für mehrere Availability Zones finden Sie im Amazon EC2-Benutzerhandbuch im Abschnitt Spot Fleet Examples (Beispiele für Spot-Instance-Flotten).

F: Kann ich eine Spot-Instance-Flottenanforderung für mehrere Regionen übermitteln?

Nein. Spot-Instance-Flottenanforderungen für mehrere Regionen werden nicht unterstützt.

F: Wie weist die Spot-Instance-Flotte den verschiedenen in den Startspezifikationen angegebenen Spot-Instance-Pools Ressourcen zu?

Die RequestSpotFleet-API bietet drei Zuweisungsstrategien: kapazitätsoptimiert, niedrigster Preis und diversifiziert. Die kapazitätsoptimierte Zuweisungsstrategie versucht, Kapazitätsmetriken zu analysieren und so Spot Instances aus den zugänglichsten Spot-Instance-Pools bereitzustellen. Diese Strategie ist eine gute Wahl für Workloads, bei denen die Kosten für Unterbrechungen hoch sind, wie etwa Big Data und Analysen, Bild- und Medien-Wiedergabe, Machine Learning und High Performance Computing.

Mit der Strategie des niedrigsten Preises können Sie die Ressourcen Ihrer Spot-Instance-Flotten in Instance-Pools bereitstellen, die zum Anforderungszeitpunkt den niedrigsten Preis pro Kapazitätseinheit bieten. Mit der diversifizierten Strategie können Sie die Ressourcen Ihrer Spot-Instance-Flotten in mehreren Spot-Instance-Pools bereitstellen. Damit sind Sie in der Lage, die Zielkapazität Ihrer Flotte beizubehalten und die Verfügbarkeit Ihrer Anwendung zu verbessern, wenn die Spot-Kapazität schwankt.

Durch das Ausführen der Ressourcen Ihrer Anwendung in verschiedenen Spot-Instance-Pools können Sie mit der Zeit auch die Betriebskosten Ihrer Flotte weiter reduzieren. Weitere Informationen finden Sie im Amazon EC2-Benutzerhandbuch.

F: Kann ich eine Spot-Instance-Flottenanforderung durch Tags kennzeichnen?

In Ihrer Spot-Instance-Flottenanforderung können Sie den Start von Spot-Instances mit Tags anfordern. Die Flotte selbst kann nicht durch Tags kennzeichnet werden.

F: Wo kann ich nachsehen, zu welcher Spot-Instance-Flotte meine Spot-Instances gehören?

Sie können die Ihrer Spot-Instance-Flotte zugeordneten Spot-Instances in der Beschreibung Ihrer Flottenanforderung identifizieren. Flottenanforderungen bleiben nach Beenden aller entsprechenden Spot-Instances noch 48 Stunden lang verfügbar. Informationen zur Beschreibung Ihrer Spot-Instance-Flottenanforderung finden Sie im Amazon EC2-Benutzerhandbuch.

F: Kann ich eine Spot-Flottenanforderung ändern?

Ja. Sie können die Zielkapazität Ihrer Spot-Instance-Flottenanforderung ändern. Möglicherweise müssen Sie die Anfrage abbrechen und eine neue einreichen, um die Änderung anderer Konfigurationsparameter zu beantragen.

F: Kann ich für jeden Instance-Typ, den ich verwenden möchte, ein anderes AMI festlegen?

Ja. Geben Sie dazu einfach das gewünschte AMI in jeder Startspezifikation an, die Sie mit Ihrer Spot-Instance-Flottenanforderung bereitstellen.

F: Kann ich eine Spot-Instance-Flotte mit Elastic Load Balancing, Auto Scaling oder Elastic MapReduce verwenden?

Sie können Auto-Scaling-Funktionen mit Spot-Flotte nutzen, wie z. B. Zielverfolgung, Zustandsprüfungen, CloudWatch-Metriken usw., und Sie können Instances an Ihre Elastic Load Balancer (sowohl Classic als auch Application Load Balancer) anfügen. Elastic MapReduce enthält eine Funktion mit der Bezeichnung „Instance-Flotten“, die ähnliche Möglichkeiten bietet wie Spot-Flotte.

F: Beendet eine Spot-Flottenanforderung Spot-Instances, wenn sie nicht mehr in den kostengünstigsten oder kapazitätsoptimierten Spot-Pools ausgeführt werden, und startet sie diese in den Pools erneut?

Nein. Spot-Flottenanforderungen beenden und starten Instances während der Ausführung nicht automatisch neu. Wenn Sie jedoch eine Spot-Instance beenden, tauscht die Spot-Flotte je nach Ihrer Zuweisungsstrategie die bisherige Instance durch eine neue Spot-Instance aus dem zum jeweiligen Zeitpunkt günstigsten Pool oder dem kapazitätsoptimierten Pool aus.

F: Bieten Spot-Instance-Flotten eine Stopp- bzw. Ruhezustandsfunktion?

Ja. "Stop-Start" (Stoppen/Starten) und "Hibernate-Resume" (In den Ruhezustand versetzen/Wiederaufnehmen) werden von Spot-Instance-Flotten unterstützt, wenn die Flottenoption "Maintain" (Verwalten) aktiviert ist. 

Plattform

Amazon Time Sync Service

F: Wie verwende ich diesen Service?

Der Service stellt einen NTP-Endpunkt an einer Link-Local-IP-Adresse (169.254.169.123) bereit, die aus jeder in einer VPC ausgeführten Instance zugänglich ist. Anweisungen zur Konfiguration von NTP-Clients sind für Linux und Windows verfügbar.

F: Worin bestehen die wichtigsten Vorteile dieses Service?

Für viele Anwendungen und Services ist eine konsistente und hoch genaue Referenzzeitquelle unverzichtbar. Der Amazon Time Sync-Service bietet eine Zeitreferenz, auf die ohne Änderungen an der VPC-Konfiguration aus jeder Instance sicher zugegriffen werden kann. Der Service setzt auf der bewährten Netzwerkinfrastruktur von Amazon auf und greift auf redundante Referenzzeitquellen zu, um Genauigkeit und Verfügbarkeit jederzeit sicherzustellen.

F: Welche Instance-Typen unterstützen diesen Service?

Alle Instances, die in einer VPC ausgeführt werden, können diesen Service nutzen.

Availability Zones

F: Wie isoliert sind Availability Zones voneinander?

Jede Availability Zone wird auf ihrer eigenen physisch getrennten, unabhängigen Infrastruktur ausgeführt und ist auf hohe Zuverlässigkeit ausgelegt. Übliche Fehlerquellen wie Generatoren und Kühlanlagen werden nicht von mehreren Availability Zones geteilt. Die physische Trennung sorgt außerdem dafür, dass sogar bei äußerst seltenen Katastrophen wie Bränden, Stürmen oder Überflutungen nur eine Availability Zone betroffen ist.

F: Wird Amazon EC2 in mehreren AWS-Regionen ausgeführt?

Ja. Weitere Informationen zu unserer Produkt- und Serviceverfügbarkeit nach Region finden Sie unter Regionale Produkte und Services.

F: Wie kann ich sicherstellen, dass ich mich in derselben Availability Zone wie ein anderer Entwickler befinde?

Derzeit besteht keine Möglichkeit, Starts mehreren AWS-Entwicklerkonten in derselben Availability Zone zu koordinieren. Der Name einer Availability Zone (z. B. us-east-1a) in zwei AWS-Kundenkonten kann sich auf zwei verschiedene physische Availability Zones beziehen.

F: Wenn ich Daten unter Nutzung öffentlicher IP-Adressen zwischen Availability Zones übertrage, werden dann die Gebühren für die regionale Datenübertragung zweimal erhoben (einmal, da die Übertragung zonenübergreifend ist, und ein zweites Mal, weil ich öffentliche IP-Adressen verwende)?

Nein. Regionale Datentransfertarife gelten, wenn zumindest einer der folgenden Punkte zutrifft, aber selbst wenn beides zutrifft, werden Sie nur einmal für einen bestimmten Fall belastet:

  • Die andere Instance befindet sich unabhängig vom verwendeten Adressentyp in einer anderen Availability Zone.
  • Es werden ungeachtet der Availability Zone, in der sich die andere Instance befindet, öffentliche IP-Adressen oder Elastic IP-Adressen verwendet.

Cluster-Instances

F: Was ist eine Cluster-Compute-Instance?

Cluster-Compute-Instances kombinieren hohe Rechenressourcen mit Hochleistungsnetzwerken für HPC-Anwendungen und andere anspruchsvolle netzwerkgebundene Anwendungen. Cluster-Compute-Instances bieten ähnliche Funktionalität zu anderen Amazon-EC2-Instances, wurden jedoch speziell für Hochleistungs-Netzwerkanwendungen entwickelt.

Mit der Cluster-Platzierungsgruppenfunktion von Amazon EC2 können Benutzer Cluster-Compute-Instances in Clustern gruppieren. Dadurch erhalten Anwendungen die Netzwerkleistung mit geringer Latenz, die für die bei viele HPC-Anwendungen typische eng gekoppelte Knoten-zu-Knoten-Kommunikation erforderlich ist. Cluster-Compute-Instances bieten außerdem einen deutlich höheren Netzwerk-Durchsatz – sowohl innerhalb der Amazon EC2-Umgebung als auch im Internet. Aus diesem Grund sind diese Instances auch ideal für Kundenanwendungen geeignet, die netzwerkintensive Prozesse ausführen müssen.

Erfahren Sie mehr darüber, diesen Instance-Typ für HPC-Anwendungen zu verwenden.

F: Von welcher Netzwerkleistung kann ich ausgehen, wenn ich Instances in einer Cluster-Placement-Gruppe starte?

Die von einer EC2-Instance in einer Cluster-Platzierungsgruppe nutzbare Bandbreite richtet sich nach dem Instance-Typ und dessen Netzwerkleistung. Der Datenverkehr zwischen Instances innerhalb derselben Region kann 5 Gbit/s für einfache Datenströme und bis zu 25 Gbit/s für mehrere Datenströme nutzen. Ausgewählte EC2-Instances können beim Start in einer Platzierungsgruppe bis zu 10 Gbps für einfache Datenströme nutzen.

F: Was ist eine Cluster-GPU-Instance?

Cluster GPU Instances stellen universale Grafikverarbeitungseinheiten (GPUs) mit einer verhältnismäßig hohen CPU- und einer erhöhten Netzwerkleistung für Anwendungen bereit, denen die weitgehend parallele Verarbeitung zugute kommt, die von den GPUs mit Hilfe der Programmiermodelle CUDA und OpenCL beschleunigt werden kann. Häufige Anwendungen sind Modellierung und Simulation, Rendering und Media-Processing.

Mit den Cluster-GPU-Instances steht Kunden mit HPC-Workloads neben Cluster-Compute-Instances für Anwendungen, die von der parallelen Rechenleistung von GPUs profitieren, eine zusätzliche Option zur weiteren Anpassung ihrer leistungsstarken Cluster in der Cloud zur Verfügung.

Cluster-GPU-Instances verwenden dieselbe Cluster-Platzierungsgruppen-Funktionalität wie Cluster-Compute-Instances, um Instances in Clustern zu gruppieren. Dadurch können Anwendungen die Netzwerkleistung mit niedriger Latenz und hoher Bandbreite nutzen, die für die bei viele HPC-Anwendungen typische eng gekoppelte Knoten-zu-Knoten-Kommunikation erforderlich ist.

Weitere Informationen zu HPC in AWS.

F: Was ist eine High Memory-Cluster-Instance?

High Memory Cluster-Instances bieten Kunden neben einer hohen Netzwerkleistung sehr viel CPU- und Arbeitsspeicherkapazität pro Instance. Diese Instance-Typen sind ideal für arbeitsspeicherintensive Workloads, einschließlich speicherinterner Analytiksysteme, Diagrammanalysen und vieler wissenschaftlicher und technischer Anwendungsbereiche.

Cluster-Compute-Instances mit hohem Arbeitsspeicher verwenden dieselbe Cluster-Platzierungsgruppen-Funktionalität wie Cluster-Compute-Instances, um Instances in Clustern zu gruppieren. Dadurch können Anwendungen die Netzwerkleistung mit niedriger Latenz und hoher Bandbreite nutzen, die für die bei viele HPC- und andere netzwerkintensive Anwendungen typische eng gekoppelte Knoten-zu-Knoten-Kommunikation erforderlich ist.

F: Unterscheidet sich die Verwendung von Cluster Compute-Instances und Cluster-GPU-Instances von anderen Amazon EC2-Instance-Typen?

Die Verwendung von Cluster Compute- und Cluster GPU-Instances unterscheidet sich in zwei Punkten von anderen Amazon EC2-Instance-Typen.

Erstens: Cluster Compute Instances und Cluster GPUs verwenden auf Hardware Virtual Machine (HVM) basierende Virtualisierung und verarbeiten ausschließlich Amazon Machine Images (AMIs), basierend auf HVM-Virtualisierung. Auf Paravirtual Machine (PVM) basierende AMIs, die mit anderen Amazon EC2-Instance-Typen verwendet werden, können nicht mit Cluster Compute Instances oder Cluster GPU Instances verwendet werden.

Zweitens: Um die Vorteile der geringen Wartezeiten und vollständigen Zweiteilung der Bandbreite zwischen den Instances voll auszunutzen, müssen Cluster Compute- und Cluster GPU-Instances in einer Cluster Placement-Gruppe über die Amazon EC2-API oder die AWS Management Console gestartet werden.

F: Was ist eine Cluster Placement-Gruppe?

Eine Cluster-Placement-Gruppe ist eine logische Entität, die die Erstellung eines Clusters aus Instances ermöglicht, indem Instances als Teil einer Gruppe gestartet werden. Das Cluster aus Instances bietet dann Konnektivität mit niedrigen Latenzzeiten zwischen Instances in der Gruppe. Cluster-Placement-Gruppen werden über Amazon EC2 API oder die AWS Management Console erstellt.

F: Sind alle Funktionen von Amazon EC2 für Cluster Compute-Instances und Cluster-GPU-Instances verfügbar?

Amazon DevPay steht derzeit nicht für Cluster Compute- oder Cluster GPU-Instances zur Verfügung.

F: Gibt es Beschränkungen hinsichtlich der Anzahl der Cluster Compute- oder Cluster-GPU-Instances, die ich verwenden kann, und/oder der Größe des Clusters, den ich durch den Start von Cluster Compute- oder Cluster-GPU-Instances in einer Cluster Placement-Gruppe erstellen kann?

Für Cluster Compute-Instances gilt keine Begrenzung. Im Falle von Cluster GPU-Instances können Sie selbst zwei Instances starten. Wenn Sie weitere Kapazität benötigen, füllen Sie das Antragsformular für Amazon-EC2-Instances aus. (Wählen Sie den geeigneten primären Instance-Typ.)

F: Kann die Wahrscheinlichkeit, die vollständige Anzahl an Instances zu erhalten, die ich für mein Cluster über eine Cluster Placement-Gruppe anfrage, optimiert werden?

Wir empfehlen, die Mindestanzahl an Instances, die für die Teilnahme am Cluster erforderlich sind, auf einmal zu starten. Zur Erstellung sehr großer Cluster sollten Sie mehrere Placement-Gruppen starten und kombinieren (z. B. zwei Placement-Gruppen mit 128 Instances), sodass ein größerer Cluster mit 256 Instances entsteht.

F: Können Cluster-GPU- und Cluster Compute-Instances in einer einzigen Cluster Placement-Gruppe gestartet werden?

Es können zwar verschiedene Cluster-Instance-Typen in einer einzelnen Placement-Gruppe gestartet werden, doch werden derzeit nur homogene Placement-Gruppen unterstützt.

F: Wenn eine Instance in einer Cluster Placement-Gruppe gestoppt und anschließend neu gestartet wird, bleibt diese dann in der Cluster Placement-Gruppe bestehen?

Ja. Eine gestoppte Instance wird als Teil der Cluster-Placement-Gruppe gestartet, derer Sie während des Stopps angehörte. Falls die Kapazität für einen Start innerhalb dessen Cluster-Placement-Gruppe nicht ausreicht, schlägt dieser fehl.

Informationen zur Hardware

F: Welche CPU-Optionen sind für EC2-Instances verfügbar?

EC2-Instances bieten eine Vielzahl von CPU-Optionen, um Kunden dabei zu helfen, Leistungs- und Kostenanforderungen auszugleichen.  Je nach Instance-Typ bietet EC2 eine Auswahl an CPUs, darunter AWS Graviton/Graviton2-Prozessoren (Arm), AMD-Prozessoren (x86) und Intel-Prozessoren (x86).

F: Auf welcher Art von Hardware wird mein Anwendungs-Stack ausgeführt?

Unter Amazon EC2-Instance-Typen finden Sie eine Liste der je nach Region verfügbaren EC2-Instances.

F: Wie führt EC2 die Wartung durch?

AWS führt regelmäßig routinemäßige Hardware-, Software-, Stromversorgungs- und Netzwerkwartungen mit minimalen Unterbrechungen für alle EC2-Instance-Typen durch. Dies wird durch eine Kombination von Tools und Methoden über die gesamte AWS-Global-Infrastruktur erreicht, wie Live-Update und Live-Migration sowie redundante und gleichzeitig wartbare Systeme. Nicht-intrusive Wartungstechnologien, wie Live-Update und Live-Migration, müssen nicht über Instances angehalten oder neugestartet werden. Kunden müssen vor, während und nach einer Live-Migration oder einem Live-Update nichts tun. Diese Technologien tragen zu einer besseren Betriebszeit der Anwendung bei und verringern Ihren Betriebsaufwand. Amazon EC2 verwendet Live-Update, um Software schnell und mit möglichst geringen Auswirkungen auf Kunden-Instances an Server bereitzustellen. Die Live-Update-Funktion gewährleistet, dass die Workloads der Kunden mit aktueller Software mit Sicherheits-Patches, neuen Instance-Funktionen und Leistungsverbesserungen auf den Servern ausgeführt werden. Amazon EC2 verwendet die Live-Migration, wenn laufende Instances aufgrund von Hardware-Wartung oder zum Optimieren der Instance-Platzierung oder zur dynamischen Verwaltung von CPI-Ressourcen von einem Server zu einem anderen verschoben werden müssen. Amazon EC2 hat den Umfang und die Abdeckung nicht-intrusiver Wartungstechnologien im Laufe der Jahre ausgeweitet, sodass geplante Wartungsereignisse eine Fallback-Option sind und nicht die gängige Form der routinemäßigen Wartung.

F: Wie wähle ich den richtigen Instance-Typ aus?

Amazon-EC2-Instances sind in 5 Familien eingeteilt: für allgemeine Zwecke, für Datenverarbeitung, Arbeitsspeicher und Speicherung optimiert sowie Accelerated Computing Instances. Allzweck-Instances haben ein Verhältnis von Arbeitsspeicher zu CPU, das sich gut für die meisten allgemeinen Anwendungen eignet und verfügen über eine konstante Leistung oder eine Burst-fähige Leistung. Für Rechenleistung optimierte Instances verfügen im Verhältnis über mehr CPU-Ressourcen als Arbeitsspeicher (RAM) und eignen sich gut für rechenintensive Anwendungen mit Skalierungsbedarf sowie HPC (High Performance Computing)-Workloads. Arbeitsspeicheroptimierte Instances verfügen über große Arbeitsspeicherkapazitäten für arbeitsspeicherintensive Anwendungen wie Datenbank- und Arbeitsspeicher-Caching-Anwendungen. Accelerated-Computing-Instances nutzen Hardware-Beschleuniger oder Co-Prozessoren, um Funktionen wie Gleitkommakalkulationen, Grafikverarbeitung oder Datenmusterabgleiche effizienter durchzuführen, als dies mit Software möglich wäre, die auf CPUs ausgeführt wird. Speicheroptimierte Instances bieten I/O-Kapazität mit niedriger Latenz. Sie verwenden SSD-basierte lokale Instance-Speicher für I/O-intensive Anwendungen und dichte HDD-Speicher-Instances, welche für eine hohe lokale Speicherungsdichte und sequentielle I/O-Leistung für Data Warehousing, Hadoop und sonstige datenintensive Anwendungen sorgen. Bei der Auswahl des Instance-Typs sollten Sie die Merkmale Ihrer Anwendung hinsichtlich Ressourcenauslastung berücksichtigen (d. h. CPU, Arbeitsspeicher, Speicher) und die optimale Instance-Familie und -Größe entsprechend auswählen.

F: Was ist eine „EC2-Recheneinheit“ und warum wurde sie eingeführt?

Der Wechsel zu einem nutzungsgeprägten Rechenmodell ändert die Art und Weise, wie Entwickler über CPU-Ressourcen denken. Anstatt einen bestimmten Prozessor für mehrere Monate oder Jahre zu erwerben oder zu leasen, wird jetzt Kapazität stundenweise gemietet. Da Amazon EC2 auf allgemein verfügbarer Hardware beruht, kann es im Laufe der Zeit mehrere verschiedene Arten von physischer Hardware geben, die den EC2-Instances zu Grunde liegt. Unser Ziel besteht darin, unabhängig von der tatsächlich zu Grunde liegenden Hardware eine gleichbleibende Menge an CPU-Kapazität zu bieten.

Amazon EC2 setzt verschiedene Maßnahmen ein, um jede Instance mit einer gleichbleibenden und vorhersehbaren Menge an CPU-Kapazität zu versorgen. Um den Entwicklern den Vergleich zwischen den CPU-Kapazitäten der verschiedenen Instance-Typen zu erleichtern, haben wir eine Amazon EC2 Compute Unit (Recheneinheit) definiert. Die einer bestimmten Instance zugewiesene CPU-Menge wird in diesen EC2 Compute Units ausgedrückt. Um die Konsistenz und Vorhersehbarkeit der Leistung einer EC2 Compute Unit zu verwalten, werden verschiedene Benchmarks und Tests eingesetzt. Die EC2 Compute Unit (ECU) bietet einen relativen Maßstab der Rechenleistung einer Amazon EC2-Instance beim Rechnen mit ganzen Zahlen. Mit der Zeit werden wir möglicherweise weitere Kennzahlen zur Definition einer EC2-Recheneinheit hinzufügen oder ersetzen, sofern Metriken gefunden werden, die Ihnen die Rechenkapazität besser verdeutlichen.

F: Wie stellt EC2 langfristig eine konsistente Leistung der Instance-Typen sicher?

AWS führt in regelmäßigen Abständen Leistungs-Benchmarks der Linux- und Windows-Rechenleistung in EC2-Instance-Typen durch, um im Laufe der Zeit eine konsistente Leistung sicherzustellen.

F: Wie sind Amazon EC2-Instance-Typen regional verfügbar?

Eine Liste aller Instances und regionalen Verfügbarkeiten finden Sie unter Amazon EC2 – Preise.

Micro-Instances

F: Wie viel Rechenleistung bieten Micro-Instances?

Micro Instances bieten geringe konsistente CPU-Ressourcen und ermöglichen die Erweiterung Ihrer CPU-Kapazität auf bis zu 2 ECUs, sofern zusätzliche Cycles verfügbar sind. Sie eignen sich hervorragend für Anwendungen mit geringerem Durchsatz und Websites, die signifikante Computing-Zyklen periodisch durchführen, jedoch geringe CPU-Ressourcen für Hintergrundprozesse, Daemons etc. benötigen. Erfahren Sie mehr über die Verwendung dieses Instance-Typs.

F: Wie viel Rechenleistung bietet eine Micro-Instance im Vergleich zu einer Standard Small Instance?

Im Dauerzustand erreichen Micro-Instances einen Bruchteil der Rechenressourcen, die Small Instances erreichen können. Falls Ihre Anwendung also im Dauerzustand laufen muss oder verarbeitungsintensiv ist, empfehlen wir den Einsatz von Small Instances (oder größer, je nach Bedarf). Micro-Instances können jedoch periodisch um bis zu 2 ECUs erweitert werden (für kurze Zeitperioden). Dies ist die doppelte Anzahl an ECUs verglichen mit einer Standard Small Instance. Falls Sie also über eine Anwendung oder Website mit relativ geringem Durchsatz verfügen und gelegentlich Bedarf an Kapazitätsspitzen haben, empfehlen wir die Verwendung von Micro-Instances.

F: Wie gebe ich an, dass eine Anwendung mehr CPU-Ressourcen benötigt, als eine Micro-Instance bereitstellt?

Die CloudWatch-Metrik für die CPU-Auslastung zeigt in der von CloudWatch überprüften Minute 100 % an, wenn die Instance so weit ausgelastet ist, dass die verfügbaren CPU-Ressourcen eingesetzt werden müssen. Wenn CloudWatch eine 100%ige Auslastung der CPU meldet, sollten Sie eine Skalierung – manuell oder über Auto Scaling – vertikal auf einen größeren Instance-Typ oder horizontal auf mehrere Micro-Instances erwägen.

F: Sind alle Funktionen von Amazon EC2 für Micro-Instances verfügbar?

Derzeit steht Amazon DevPay für Micro-Instances nicht zur Verfügung.

Nitro-Hypervisor

F: Was ist der Nitro-Hypervisor?

Bei der Einführung der C5-Instances wurde für Amazon EC2 auch ein neuer Hypervisor vorgestellt: Der Nitro-Hypervisor. Als Komponente des Nitro-Systems stellt der Nitro-Hypervisor in erster Linie CPU- und Arbeitsspeicherisolierung für EC2-Instances bereit. VPC-Netzwerk- und EBS-Speicherressourcen werden auf dedizierten Hardwarekomponenten (Nitro-Karten) bereitgestellt, die Teil aller EC2-Instance-Familien der aktuellen Generation sind. Der Nitro-Hypervisor basiert auf Linux Kernel-basierter Virtual Machine (KVM)-Technologie, enthält jedoch keine allgemeinen Betriebssystemkomponenten.

F: Welche Vorteile bietet der Nitro-Hypervisor für die Kunden?

Der Nitro-Hypervisor bietet eine konsistente Leistung und mehr Computing- und Speicherressourcen für EC2-virtualisierte-Instances, da Softwarekomponenten des Host-Systems entfernt wurden. Somit kann AWS größere Instances (wie c5.18xlarge) anbieten, mit denen den Kunden praktisch alle Serverressourcen zur Verfügung stehen. Bisher eliminierten C3- und C4-Instances jeweils Softwarekomponenten, indem VPC- und EBS-Funktionen auf von AWS entworfene und gebaute Hardware verschoben wurden. Dank dieser Hardware ist der Nitro-Hypervisor sehr klein, auch weil für ihn keine Datenverarbeitungstasks für Netzwerke und Speicher anfallen.

F: Wird der Nitro-Hypervisor irgendwann für alle EC2-Instances verwendet?

Auf lange Sicht ist geplant, den Nitro-Hypervisor für alle Instance-Typen einzusetzen, in näherer Zukunft wird bei einigen neuen Instance-Typen je nach Plattformanforderungen jedoch Xen verwendet.

F: Wird AWS weiterhin in seinen Xen-basierten Hypervisor investieren?

Ja. Während AWS seine globale Cloud-Infrastruktur erweitert, wird EC2 seinen Xen-basierten Hypervisor verstärkt nutzen. Xen bleibt in absehbarer Zeit eine Kernkomponente der EC2-Instances. AWS ist seit Anbeginn der Eingliederung von Xen in das Linux Foundation Collaborative Project Gründungsmitglied des Xen-Projekts und bleibt aktives Mitglied seines Beirats. Da AWS seine globale Cloud-Infrastruktur erweitert, wächst auch der Xen-basierte Hypervisor von EC2 weiter. Daher wird die Investition von EC2 in Xen weiter wachsen und nicht schrumpfen.

F: Wie viele EBS-Volumes und Elastic Network-Schnittstellen (ENIs) können an Instances angefügt werden, die auf dem Nitro-Hypervisor ausgeführt werden?

Auf dem Nitro-Hypervisor ausgeführte Instances unterstützen maximal 27 zusätzliche PCI-Geräte für EBS-Volumes und VPC-ENIs. Jedes EBS-Volume oder jede VPC-ENI verwendet ein PCI-Gerät. Wenn Sie beispielsweise drei zusätzliche Netzwerkschnittstellen an eine Instance anhängen, die auf dem Nitro-Hypervisor ausgeführt wird, können an diese Instance bis zu 24 EBS-Volumes angehängt werden.

F: Ändern sich durch den Nitro-Hypervisor die für die Interaktion mit EC2-Instances verwendeten APIs?

Nein, alle der Öffentlichkeit zugänglichen APIs für die Interaktion mit EC2-Instances, die auf dem Nitro-Hypervisor ausgeführt werden, bleiben unverändert. Beispielsweise wird im Feld „Hypervisor“ der DescribeInstances-Antwort weiterhin für alle EC2-Instances „xen“ ausgegeben, selbst wenn diese unter dem Nitro-Hypervisor ausgeführt werden. Dieses Feld wird bei einer zukünftigen EC2-API möglicherweise entfernt.

F: F: Welche AMIs werden auf Instances unterstützt, die auf dem Nitro-Hypervisor ausgeführt werden?

EBS-gestützte HVM-AMIs, die ENA-Networking und das Booten von einem NVMe-basierten Speicher unterstützen, können in Kombination mit Instances verwendet werden, die unter dem Nitro-Hypervisor ausgeführt werden. Der aktuelle Amazon Linux AMI und von Amazon bereitgestellte Windows AMIs werden ebenso unterstützt wie der aktuelle AMI von Ubuntu, Debian, Red Hat Enterprise Linux, SUSE Enterprise Linux, CentOS und FreeBSD.

F: Werde ich Unterschiede zwischen Instances mit Xen-Hypervisor und Instances mit Nitro-Hypervisor feststellen?

Ja. Beispielsweise starten Instances, die unter dem Nitro-Hypervisor ausgeführt werden, über eine NVMe-Schnittstelle von EBS-Volumes. Auf Xen ausgeführte Instances starten von einen emulierten IDE-Laufwerk und wechseln zu den paravirtualisierten Xen-Blockgerätetreibern.

Betriebssysteme können erkennen, ob sie auf einem Hypervisor ausgeführt werden. Einige Softwareprodukte gehen davon aus, dass EC2-Instances auf dem Xen-Hypervisor ausgeführt werden, und verlassen sich darauf. Betriebssysteme erkennen, dass sie auf KVM ausgeführt werden, wenn eine Instance den Nitro-Hypervisor verwendet. Es sollte daher der Prozess zur Erkennung von EC2-Instances verwendet werden, um EC2-Instances zu erkennen, die auf beiden Hypervisors ausgeführt werden können.

Alle EC2-Funktionen, wie Instance Metadata Service, arbeiten auf Instances, die unter Xen und Nitro ausgeführt werden können, identisch. Beim Großteil der Anwendungen zeigen sich in der Funktion sowohl unter Xen als auch unter dem Nitro-Hypervisor keine Unterschiede, sofern das Betriebssystem ENA-Netzwerk und NVMe-Speicher ausreichend unterstützt.

F: Wie sind EC2-API-Anforderungen zum Starten und Beenden von Instances im Nitro-Hypervisor implementiert?

Der Nitro-Hypervisor signalisiert dem Betriebssystem dieser Instance, dass es sauber mittels branchenüblicher ACPI-Methoden herunterfahren soll. Für Linux-Instances muss dafür acpid installiert sein und ordnungsgemäß funktionieren. Wenn acpid innerhalb der Instance nicht ordnungsgemäß funktioniert, verzögert sich die Beendigung um mehrere Minuten und wird schließlich als Kaltstart bzw. Abschalten des Systems durchgeführt.

F: Wie verhalten sich EBS-Volumes, wenn darauf über NVMe-Schnittstellen zugegriffen wird?

Es gibt einige wichtige Unterschiede im Verhalten von Betriebssystem-NVMe-Treibern im Vergleich zu paravirtualisierten (PV) Xen-Blocktreibern.

1. Die NVMe-Gerätenamen, die von Linux-basierten Betriebssystemen verwendet werden, unterscheiden sich von den Parametern für die Anhanganforderungen für EBS-Volumes und Zuordnungseinträge für Blockgeräte, wie /dev/xvda und /dev/xvdf. NVMe-Geräte werden vom Betriebssystem mit /dev/nvme0n1, /dev/nvme1n1 usw. nummeriert. Die NVMe-Gerätenamen stellen keine festen Zuordnungen zu Volumes dar. Daher sollten beim Konfigurieren der automatischen Bereitstellung von Dateisystemen oder von anderen Startaktivitäten, andere Methoden zum Einsatz kommen, wie UUIDs oder Labels. Wenn auf die EBS-Volumes über die NVMe-Schnittstelle zugegriffen wird, wird die EBS-Volume-ID über die Controller-Seriennummer bereitgestellt und der in EC2 API-Anforderungen angegebene Gerätename wird über eine NVMe-Herstellererweiterung für den Befehl zur Controller-Erkennung bereitgestellt. Dadurch kann ein Dienstprogrammskript abwärtskompatible symbolische Verknüpfungen erstellen. Weitere Informationen finden Sie in der EC2-Dokumentation zur Gerätebenennung und NVMe-basierten EBS-Volumes.

2. Die in den meisten Betriebssystemen enthaltenen NVMe-Treiber implementieren standardmäßig eine E/A-Zeitüberschreitung. Falls ein E/A-Vorgang nicht in einer für die Implementierung spezifischen Zeit abgeschlossen wird, in der Regel zehn Sekunden, versucht der Treiber, den E/A-Vorgang abzubrechen, zu wiederholen oder einen Fehler an die Komponente zurückzugeben, die den E/A-Vorgang ausgestellt hat. Auf der Xen PV-Blockgerätschnittstelle wird das Zeitlimit für den E/A-Vorgang nicht überschritten, was dazu führen kann, das Prozesse nicht beendet werden können, wenn sie auf E/A-Vorgänge warten. Das Linux NVMe-Treiberverhalten kann geändert werden, indem Sie einen höheren Wert für den nvme.io-Timeout-Kernel-Modulparameter festlegen.

3. Die NVMe-Schnittstelle kann über einen E/A-Vorgang wesentlich größere Datenmengen übertragen und in einigen Fällen mehr ausstehende E/A-Anforderungen als die Xen PV-Blockschnittelle unterstützen. Dies kann zu einer höheren E/A-Latenz führen, wenn große E/As oder eine große Anzahl an E/A-Anforderungen an Volumes ausgegeben werden, die zur Unterstützung von Durchsatzverarbeitungslasten wie EBS Throughput Optimized HDD (st1)- und Cold HDD (sc1)-Volumes konzipiert wurden. Diese E/A-Latenz ist für durchsatzoptimierte Volumes in diesen Szenarios normal, kann jedoch zu E/A-Zeitüberschreitungen in NVMe-Treibern führen. Die E/A-Zeitüberschreitung kann in Linux-Treibern angepasst werden, indem für den Kernel-Modul-Parameter nvme_core.io_timeout ein höherer Wert eingegeben wird.

CPU-Optimierung

F: Was genau ist die CPU-Optimierung?

Durch die Optimierung von CPUs können Sie Ihre EC2-Instances gleich an zwei Fronten besser kontrollieren. Erstens können Sie beim Start neuer Instances eine benutzerdefinierte Anzahl an vCPUs angeben und so vCPU-basierte Lizenzkosten einsparen. Zweitens können Sie die Intel Hyper-Threading-Technologie (Intel HT-Technologie) für Workloads deaktivieren, die mit Einzel-Threaded-CPUs eine gute Leistung erbringen, wie z. B. bestimmte HPC-Anwendungen.

F: Was spricht für die Verwendung der Funktion der CPU-Optimierung?

Diese Funktion empfiehlt sich in folgenden Fällen:

  • Sie führen EC2-Workloads aus, die nicht an die Rechenleistung gebunden sind, aber vCPU-basierte Lizenzkosten verursachen. Wenn Sie Instances mit einer benutzerdefinierten Anzahl an vCPUs starten, können Sie möglicherweise Ihre Lizenzausgaben optimieren.
  • Sie führen Workloads aus, die von einer Deaktivierung des Hyper-Threadings in EC2-Instances profitieren.

F: Wie werden die CPU-optimierten Instances in Rechnung gestellt?

Die CPU-optimierten Instances werden genau wie entsprechende vollumfängliche Instances in Rechnung gestellt.

F: Wie wirkt sich die Verwendung der CPU-Optimierung in EC2 auf meine Anwendungsleistung aus?

Die Änderung Ihrer Anwendungsleistung durch die CPU-Optimierung hängt vor allem von den Arbeitslasten ab, die Sie in EC2 ausführen. Wir empfehlen Ihnen, mit der CPU-Optimierung einen Leistungsvergleich für Ihre Anwendungsleistung anzustellen, um für Ihre Anwendung die passende Anzahl an vCPUs und das optimale Hyper-Threading-Verhalten zu finden.

F: Kann ich die CPU-Optimierung für EC2 Bare Metal-Instance-Typen (z. B. i3.metal) verwenden?

Nein. Sie können die CPU-Optimierung mit rein virtualisierten EC2-Instances verwenden.

F: Wie kann ich mit der Nutzung von Optimize CPUs für EC2-Instances beginnen?

Sie finden die Dokumentation zur CPU-Optimierung hier. Dort können Sie sich über die ersten Schritte mit der CPU-Optimierung sowie über unterstützte Instance-Typen informieren.

Workloads

Amazon EC2 mit IBM

F: Wie wird meine Ausführung von IBM-Software in Amazon EC2 berechnet?

Sie zahlen nur für das, was Sie auch tatsächlich nutzen. Dabei fallen keine Mindestgebühren an. Die Preise richten sich nach genutzter Instance-Stunde für jeden Instance-Typ. Angefangene Instance-Stunden werden als volle Stunden in Rechnung gestellt. Die Datenübertragung für Amazon EC2 mit IBM wird getrennt von Amazon EC2 in Rechnung gestellt und eingestuft. Es fallen keine Datenübertragungsgebühren zwischen zwei Amazon Web Services innerhalb derselben Region an (z. B. zwischen Amazon EC2 in USA West und einem anderen AWS-Service in USA West). Datenübertragungen zwischen AWS-Services in verschiedenen Regionen werden auf beiden Seiten der Übertragung als Internetdatenübertragungen berechnet.

Informationen zur Preisgestaltung von Amazon EC2 mit IBM finden Sie auf der Detailseite Amazon EC2 mit IBM.

F: Kann ich Amazon DevPay mit Amazon EC2 mit IBM verwenden?

Nein, Sie können derzeit DevPay nicht zur Bündelung von Produkten auf Amazon EC2 mit IBM verwenden.

In Amazon EC2 ausgeführtes Microsoft Windows und Software anderer Anbieter

F: Kann ich meine vorhandene Windows-Server-Lizenz mit EC2 verwenden?

Ja, das ist möglich. Nachdem Sie Ihre eigenen Computerabbilder für Windows Server mit dem ImportImage-Tool importiert haben, können Sie aus diesen Abbildern Instances auf EC2 Dedicated Hosts starten, Instances effektiv verwalten und Berichte über die Nutzung erstellen. Microsoft verlangt normalerweise, dass Sie die Nutzung Ihrer Lizenzen auf physischen Ressourcen wie beispielsweise Sockets und Kernen verfolgen, und Dedicated Hosts unterstützen Sie dabei. Weitere Informationen zur Verwendung Ihrer eigenen Lizenzen für Windows Server auf Amazon EC2 Dedicated Hosts finden Sie auf der Detailseite zu Dedicated Hosts.

F: Welche Softwarelizenzen kann ich in die Windows-Umgebung einbringen?

Die Bedingungen für bestimmte Softwarelizenzen sind von Anbieter zu Anbieter unterschiedlich. Daher wird empfohlen, dass Sie in den Lizenzbestimmungen Ihres Softwareanbieters nachschlagen, um zu bestimmen, ob Ihre vorhandenen Lizenzen für die Verwendung in Amazon EC2 genehmigt sind.

macOS-Workloads

F: Was sind Amazon-EC2-Mac-Instances?

Amazon-EC2-Mac-Instances ermöglichen es Kunden zum ersten Mal, macOS-Workloads On-Demand in der Cloud auszuführen und so die Flexibilität, Skalierbarkeit und Kostenvorteile von AWS auf alle Apple-Entwickler zu übertragen. Mit EC2-Mac-Instances können nun Entwickler, die Apps für iPhone, iPad, Mac, Apple Watch, Apple TV und Safari erstellen, in Minuten auf macOS-Umgebungen zugreifen und diese bereitstellen, die dynamische Kapazität skalieren und nutzungsbasierte Preise von AWS nutzen.

F: Welche Workloads sollten Sie auf EC2-Mac-Instances ausführen?

Amazon-EC2-Mac-Instances sind für das Erstellen, Testen, Signieren und Veröffentlichen von Anwendungen für Apple-Plattformen wie iOS, iPadOS, watchOS, tvOS, macOS und Safari konzipiert. Kunden wie Pinterest, Intuit, FlipBoard, Twitch und Goldman Sachs haben eine um bis zu 75 % bessere Entwicklungsleistung, eine um bis zu 80 % niedrigere Fehlerquote bei der Entwicklung und eine bis zu fünfmal höhere Anzahl paralleler Entwicklungsprozesse im Vergleich zur On-Premises-Ausführung von macOS festgestellt.

F: Was sind EC2-x86-Mac-Instances?

x86-basierte EC2-Mac-Instances basieren auf Apple-Mac-mini-Computern mit Intel-Core-i7-Prozessoren und werden durch das AWS Nitro System betrieben. Sie bieten Kunden eine Auswahl von macOS Mojave (10.14), macOS Catalina (10.15), macOS Big Sur (11) und macOS Monterey (12) als Amazon Machine Images (AMIs). x86-basierte EC2-Instances sind in 12 Regionen verfügbar: USA Ost (Ohio, N. Virginia), USA West (Oregon), Europa (Stockholm, Frankfurt, Irland, London) und Asien-Pazifik (Mumbai, Seoul, Singapur, Sydney, Tokio). Weitere Informationen und erste Schritte mit x86-basierten EC2-Mac-Instances finden Sie hier.

F: Was sind EC2-M1-Mac-Instances?

EC2-M1-Mac-Instances basieren auf Mac-mini-Computern von Apple M1 und werden durch das AWS Nitro System betrieben. Sie bieten eine bis zu 60 Prozent bessere Preisleistung als x86-basierte EC2-Mac-Instances für iOS- und macOS-Anwendungsentwicklungs-Workloads. EC2-M1-Mac-Instances ermöglichen zum ersten Mal ARM64-macOS-Umgebungen in AWS und unterstützen macOS Big Sur (11) und macOS Monterey (12) als Amazon Machine Images (AMIs). EC2-M1-Mac-Instances sind in 4 Regionen verfügbar: USA Ost (Nord-Virginia), USA West (Oregon), Europa (Irland) und Asien-Pazifik (Singapur). Weitere Informationen und erste Schritte mit EC2-M1-Mac-Instances finden Sie hier.

F: Was sind Instances von EC2 M1 Ultra Mac?

Instances von EC2 M1 Ultra Mac basieren auf Computern von Apple M1 Ultra Mac Studio und werden von AWS Nitro System betrieben. Instances von EC2 M1 Ultra Mac ermöglichen ARM64-macOS-Umgebungen in AWS und unterstützen macOS Ventura (Version 13 und höher) als Amazon Machine Images (AMIs). Instances von EC2 M1 Ultra Mac sind in 2 Regionen verfügbar: USA Ost (Nord-Virginia), USA West (Oregon). Weitere Informationen und erste Schritte mit Instances von EC2 M1 Ultra Mac finden Sie hier.

F: Was sind EC2-M2-Mac-Instances?

EC2-M2-Mac-Instances basieren auf M2-Mac-Mini-Computern von Apple und werden durch das AWS Nitro System betrieben. Sie sind bis zu 10 % leistungsfähiger als EC2-M1-Mac-Instances für iOS- und macOS-Anwendungserstellungs-Workloads. EC2-M2-Mac-Instances ermöglichen ARM64-macOS-Umgebungen in AWS und unterstützen macOS Ventura (Version 13.2 und höher) als Amazon Machine Images (AMIs). EC2-M2-Mac-Instances sind in 5 Regionen verfügbar: USA Ost (Nord-Virginia, Ohio), USA West (Oregon), Europa (Frankfurt) und Asien-Pazifik (Sydney). Weitere Informationen und erste Schritte mit EC2-M2-Mac-Instances finden Sie hier.

F: Was sind EC2-M2-Pro-Mac-Instances?

EC2-M2-Pro-Mac-Instances basieren auf Apple-M2-Pro-Mac-Minicomputern und werden durch das AWS Nitro System betrieben. Sie sind bis zu 35 % leistungsfähiger als EC2-M1-Mac-Instances für iOS- und macOS-Anwendungserstellungs-Workloads. EC2-M2-Pro-Mac-Instances ermöglichen ARM64-macOS-Umgebungen in AWS und unterstützen macOS Ventura (Version 13.2 und höher) als Amazon Machine Images (AMIs). EC2-M2-Pro-Mac-Instances sind in 4 Regionen verfügbar: USA Ost (Nord-Virginia, Ohio), USA West (Oregon) und Asien-Pazifik (Sydney). Weitere Informationen und erste Schritte mit EC2-M2-Pro-Mac-Instances finden Sie hier.

F: Welche Preismodelle gibt es für EC2-Mac-Instances?

Amazon-EC2-Mac-Instances sind als Dedicated Hosts über die Preismodelle On Demand und Savings Plans verfügbar. Der Dedicated Host ist die Abrechnungseinheit für EC2-Mac-Instances. Die Abrechnung erfolgt pro Sekunde, mit einer Mindestzuweisungsdauer von 24vStunden für den Dedicated Host, um der Apple-macOS-Software-Lizenzvereinbarung zu entsprechen. Nach Ablauf der 24-stündigen Mindestzuteilungsdauer kann der Host jederzeit ohne weitere Verpflichtungen freigegeben werden. Sowohl Compute- als auch Instance-Savings-Plans sind für EC2-Mac-Instances verfügbar und bieten bis zu 44 Prozent Rabatt auf On-Demand-Preise. Besuchen Sie die Seite Dedicated Hosts – Preise für weitere Informationen. (Hinweis: Bitte wählen Sie „Dedicated Host“ und „Linux“ als Betriebssystem, um Details zu sehen.) Sie finden die Preise für EC2-Mac-Instances auch über den AWS Pricing Calculator für Dedicated Hosts.

F: Wie kann ich einen Dedicated Host freigeben?

Der Mindestzeitraum für die Zuweisung einer EC2-Mac-Instance Dedicated Host beträgt 24 Stunden. Nachdem der Zuweisungszeitraum 24 Stunden überschritten hat, anhalten oder beenden Sie zunächst die Instance, die auf dem Host ausgeführt wird, und geben Sie dann den Host mit dem CLI-Befehl aws ec2 release-hosts oder der AWS-Managementkonsole frei.

F: Kann ich EC2-Mac-Dedicated-Hosts gemeinsam mit anderen AWS-Konten in meinem Unternehmen nutzen?

Ja. Sie können EC2-Mac-Dedicated-Hosts mit AWS-Konten innerhalb Ihrer AWS-Organisation, einer Organisationseinheit innerhalb Ihrer AWS-Organisation oder Ihrer gesamten AWS-Organisation über AWS-Resource-Access-Manager freigeben. Weitere Informationen finden Sie in der Dokumentation zu AWS-Resource-Access-Manager.

F: Wie viele EC2-Mac-Instances kann ich auf einem EC2-Mac-Dedicated-Host ausführen?

EC2-Mac-Instances nutzen die volle Leistung der zugrunde liegenden Mac-mini-Hardware. Sie können 1 EC2-Mac-Instance auf jedem EC2-Mac-Dedicated-Host ausführen.

F: Kann ich die EFI-NVRAM-Variablen auf einer EC2-Mac-Instance aktualisieren?

Ja, Sie können bestimmte EFI-NVRAM-Variablen auf einer EC2-Mac-Instance aktualisieren, die auch nach einem Neustart erhalten bleiben. Die EFI-NVRAM-Variablen werden jedoch zurückgesetzt, wenn die Instance angehalten oder beendet wird. Weitere Informationen finden Sie in der Dokumentation zu EC2-Mac-Instances.

F: Kann ich mithilfe von FileVault das Boot-Volumen des Amazon Elastic Block Store (Amazon EBS) auf EC2-Mac-Instances verschlüsseln?

FileVault erfordert eine Anmeldung, bevor macOS gebootet wird und bevor der Fernzugriff aktiviert werden kann. Wenn FileVault aktiviert ist, verlieren Sie den Zugriff auf Ihre Daten auf dem Boot-Volumen bei einem Neustart, Anhalten oder Beenden der Instance. Wir empfehlen Ihnen nachdrücklich, FileVault nicht zu aktivieren. Stattdessen empfehlen wir die Verwendung von Amazon-EBS-Verschlüsselung sowohl für Boot- als auch für Daten-EBS-Volumen auf EC2-Mac-Instances.

F: Kann ich auf den Mikrofoneingang oder den Audioausgang einer EC2-Mac-Instance zugreifen?

Auf einer EC2-Mac-Instance gibt es keinen Zugriff auf den Mikrofoneingang. Der integrierte Remote-Desktop-VNC-Server von Apple unterstützt keine Audioausgabe. Remote-Desktop-Software von Drittanbietern, wie z. B. Teradici CAS, unterstützt Remote-Audio unter macOS.

F: Welche macOS-basierten Amazon Machine Images (AMIs) sind für EC2-Mac-Instances verfügbar?

EC2-Mac-Instances verwenden physische Mac-mini-Hardware, um macOS auszuführen. Apple-Hardware unterstützt nur die macOS-Version, die mit der Hardware ausgeliefert wurde (oder später). x86-basierte EC2-Mac-Instances verwenden den 2018er Intel Core i7 Mac mini, was bedeutet, dass macOS Mojave (10.14.x) so „weit zurück“ wie möglich liegt, da der 2018er Mac mini mit Mojave ausgeliefert wurde. EC2-M1-Mac-Instances verwenden 2020 M1 Mac mini, der mit macOS Big Sur (11.x) ausgeliefert wird. EC2-M2- und M2-Pro-Mac-Instances verwenden die 2023 M2 und M2 Pro Mac Minis, die im Lieferumfang von macOS Ventura (13.2) enthalten waren. Informationen über die neuesten Versionen von macOS, die als EC2-Mac-AMIs verfügbar sind, finden Sie in der Dokumentation.

F: Wie kann ich ältere Versionen von macOS auf EC2-Mac-Instances ausführen?

EC2-Mac-Instances sind Bare Metal Instances und verwenden nicht den Nitro-Hypervisor. Sie können eine Typ-2-Virtualisierungsschicht auf x86-basierten EC2-Mac-Instances installieren und ausführen, um Zugriff auf macOS High Sierra, Sierra oder ältere macOS-Versionen zu erhalten. EC2-M1-Mac-Instances sind mit macOS Big Sur die erste macOS-Version, die Apple Silicon unterstützt. Ältere macOS-Versionen laufen nicht einmal unter Virtualisierung.

F: Wie kann ich Beta- oder Vorschauversionen von macOS auf EC2-Mac-Instances ausführen?

Die Installation von Beta- oder Vorschauversionen von macOS ist nur auf Apple-Silicon-basierten EC2-Mac-Instances verfügbar. Amazon EC2 qualifiziert keine Beta- oder Vorschauversionen von macOS und stellt nicht sicher, dass Instances auch nach einem Update auf eine macOS-Vorproduktionsversion funktionsfähig bleiben.

F: Wie kann ich EC2-Benutzerdaten mit EC2-Mac-Instances verwenden?

Wie bei EC2-Linux- und Windows-Instances können Sie benutzerdefinierte Benutzerdaten an EC2-Mac-Instances übergeben. Anstelle von cloud-init verwenden EC2-Mac-Instances einen Open-Source-Start-Daemon: ec2-macos-init. Sie können diese Daten als reinen Text, als Datei oder als base64-kodierten Text an den EC2 Launch Wizard übergeben.

F: Wie kann ich Xcode auf einer EC2-Mac-Instance installieren?

AWS bietet Basis-AMIs für macOS ohne vorherige Installation der Xcode IDE. Sie können Xcode installieren (und die EULA akzeptieren), wie Sie es auch auf jedem anderen macOS-System tun würden. Sie können die neueste Xcode IDE aus dem App Store oder frühere Xcode Versionen von der Apple Developer Website installieren. Sobald Sie Xcode installiert haben, empfehlen wir Ihnen, einen Snapshot Ihres AMI für die zukünftige Verwendung zu erstellen.

F: Wie ist der Veröffentlichungsrhythmus von macOS AMIs?

Wir stellen neue macOS AMIs nach bestem Ermessen zur Verfügung. Sie können SNS-Benachrichtigungen für Aktualisierungen abonnieren. Wir planen die Veröffentlichung offizieller macOS AMIs 30-60 Tage nach einem macOS Minor Versions Update und 90-120 Tage nach einem macOS Major Versions Update.

F: Welche Agenten und Pakete sind in EC2 macOS AMIs enthalten?

Die folgenden Agenten und Pakete sind standardmäßig in EC2 macOS AMIs enthalten:

  • ENA-Treiber für macOS
  • AWS CLI
  • EC2-macos-init
  • Amazon CloudWatch Agent
  • Chrony
  • Homebrew
  • AWS Systems Manger Agent

F: Kann ich die in macOS-AMIs enthaltenen Kundendienstmitarbeiter und Pakete aktualisieren?

Es gibt ein öffentliches Github-Repository des Homebrew-Hahns für alle Kundendienstmitarbeiter und Pakete, die dem macOS-Basis-Image hinzugefügt wurden. Sie können Homebrew verwenden, um die neuesten Versionen von Agenten und Paketen auf macOS-Instances zu installieren.

F: Kann ich Betriebssystem- und Software-Updates direkt von Apple Update-Servern auf meine Mac-Instances anwenden?

Automatische macOS-Software-Updates sind auf EC2-Mac-Instances deaktiviert. Wir empfehlen die Nutzung unserer offiziell angebotenen macOS-AMIs, um die von Ihnen benötigte Version von macOS zu starten. Auf x86-basierten und allen Apple-Silicon-EC2-Mac-Instances können Sie die Version von macOS über das Einstellungsfenster „Softwareaktualisierung“ oder über den CLI-Befehl „Softwareaktualisierung“ aktualisieren. Beide EC2-Mac-Instances ermöglichen die Installation und Aktualisierung von Programmen und sonstiger Software im Benutzerbereich.

F: Wie stelle ich über SSH eine Verbindung zu einer EC2-Mac-Instance her?

Nachdem Sie Ihre Instance gestartet und eine Instance-ID erhalten haben, können Sie den folgenden Befehl verwenden, um die Instance abzufragen und festzustellen, wann sie für den SSH-Zugriff bereit ist. Das Verbinden über SSH mit EC2-Mac-Instances erfolgt auf die gleiche Weise wie das Verbinden mit anderen EC2-Instances, z. B. solchen mit Linux oder Windows. Um die Verbindung zu Ihrer Instance über SSH zu unterstützen, starten Sie die Instance mit einem Schlüsselpaar und einer Sicherheitsgruppe, die SSH-Zugriff erlaubt. Stellen Sie die .pem-Datei für das Schlüsselpaar bereit, wenn Sie sich mit der Instance verbinden. Weitere Informationen finden Sie in der Dokumentation.

F: Wie kann ich mich über VNC mit einer EC2-Mac-Instance verbinden?

macOS verfügt über eine integrierte Funktion zur Bildschirmfreigabe, die standardmäßig deaktiviert ist, aber aktiviert werden kann, um eine Verbindung zu einer grafischen (Desktop-)Sitzung Ihrer EC2-Mac-Instance herzustellen. Weitere Informationen zur Aktivierung der integrierten Bildschirmfreigabe finden Sie in der Dokumentation.

F: Wie stelle ich eine Verbindung zu einer EC2-Mac-Instance mithilfe von AWS Systems Manager Session Manager her?

Sie können eine Verbindung zu Ihren EC2-Mac-Instances mit AWS Systems Manager Session Manager (SSM) herstellen. Session Manager ist eine vollständig verwaltete AWS-Systems-Manager-Funktion, die eine sichere und überprüfbare Instance-Verwaltung bietet. Dadurch entfällt die Notwendigkeit, eingehende Ports offen zu halten, Bastion-Hosts zu pflegen oder SSH-Schlüssel zu verwalten. Der SSM-Agent ist standardmäßig auf allen EC2-macOS-AMIs vorinstalliert. Weitere Informationen finden Sie in diesem Blog.

F: Wie viele Amazon-EBS-Volumes und Elastic-Network-Schnittstellen (ENIs) werden von EC2-Mac-Instances unterstützt?

x86-basierte EC2-Mac-Instances unterstützen 16 EBS-Volumes und 8 ENI-Anhänge, und EC2-M1-Mac-Instances unterstützen bis zu 10 EBS-Volumes und 8 ENI-Anhänge.

F: Unterstützen EC2-Mac-Instances EBS?

EC2-Mac-Instances sind standardmäßig EBS-optimiert und bieten bis zu 8 Gbit/s dedizierte EBS-Bandbreite sowohl für verschlüsselte als auch für unverschlüsselte EBS-Volumes.

F: Unterstützen EC2-Mac-Instances das Booten vom lokalen Speicher?

EC2-Mac-Instances können nur von EBS-gestützten macOS-AMIs booten. Die interne SSD des Mac mini ist im Festplattendienstprogramm zwar vorhanden, aber nicht bootfähig.

F: Unterstützen EC2-Mac-Instances Amazon FSx?

Ja. EC2-Mac-Instances unterstützen FSx unter Verwendung des SMB-Protokolls. Sie müssen die EC2-Mac-Instance bei einem unterstützten Verzeichnis-Service (z. B. Active Directory oder AWS Directory Service) anmelden, um FSx auf EC2-Mac-Instances zu aktivieren. Weitere Informationen über FSx finden Sie auf der Produktseite.

F: Unterstützen EC2-Mac-Instances das Amazon Elastic File System (Amazon EFS)?

Ja, EC2-Mac-Instances unterstützen EFS über das NFSv4-Protokoll. Weitere Informationen über EFS finden Sie auf der Produktseite.

Nitro-System-Unterstützung für die vorherige Generation

F: Was ist Nitro-System-Unterstützung für Instances der älteren Generation?

Das AWS Nitro System bietet jetzt seine modernen Hardware- und Software-Komponenten für die vorherige Generation von EC2-Instances, um die Lebensdauer über die typische Lebensdauer der zugrundeliegenden Hardware hinaus zu verlängern. Mit der Nitro-System-Unterstützung können Kunden weiterhin ihre Workloads und Anwendungen auf den Instance-Familien ausführen, auf denen sie entwickelt wurden.

F: Welche Instances der vorherigen Generation erhalten Nitro-System-Unterstützung, und in welchen Zeitrahmen?

Wir haben die Nitro-Systemunterstützung für Amazon-EC2-Instances C1, M1, M2, T1, T2, C3, M3, R3, C4 und M4 aktiviert. Kunden dieser Instances erhalten eine Wartungsbenachrichtigung über die Migration zu Nitro System. Wir werden im Jahr 2024 Unterstützung für weitere Instance-Typen hinzufügen.

F: Welche Aktionen muss ich ausführen, um meine Instances der vorherigen Generation zu migrieren?

Kunden müssen nichts unternehmen, um aktive Instances der vorherigen Generation, die auf älterer Hardware ausgeführt werden, zu migrieren. Für Instances, die auf Hardware der älteren Generation ausgeführt werden, erhält jede Kundenkonto-ID, die einer Instance zugeordnet ist, eine E-Mail-Benachrichtigung 2 Wochen vor der geplanten Wartung.

Ähnlich wie bei unseren typischen Wartungs-Ereignissen, haben Kunden die Option, innerhalb von zusätzlich 2 Wochen nach der ursprünglich geplanten Wartungszeit, die Wartung so oft wie notwendig zu verschieben.

F: Was passiert, wenn die Instance vor oder während des geplanten Wartungsfensters gestoppt und gestartet wird?

Durch Stoppen/Starten einer Instance während des geplanten Wartungsfensters wird die Instance auf einen neuen Host migriert, sodass die Instance nicht der geplanten Wartung unterzogen werden muss. Der Stopp/Start kann zu einer Migration der Kundeninstance führen, die von AWS Nitro System unterstützt wird. Bitte beachten Sie, dass die Daten auf lokalen Instance-Speicher-Volumes nicht erhalten bleiben, wenn Sie Ihre Instance beenden und starten. Klicken Sie hier, um weitere Informationen zu Stopp/Start zu erhalten.

F: Was passiert mit meiner Instance während dieses Wartungs-Ereignisses?

Wir arbeiten mit dem Kunden im Rahmen unseres Standard-AWS-Wartungsprozesses zusammen. Mehrere AWS-Teams haben bereits migriert und führen auf Nitro Instances der älteren Generation aus. Während der Wartung wird die Instance neu gestartet, was bis zu 30 Minuten dauern kann, je nach der Instance-Größe und -Attributen. Zum Beispiel: Instances mit lokaler Festplatte brauchen länger zum migrieren als Instances ohne lokaler Festplatte. Nach dem Neustart behält Ihre Instance die IP-Adresse, den DNS-Namen und alle Daten auf lokalen Instance-Speichern-Volumes bei.

F: Muss ich meine Workloads neu erstellen/neu zertifizieren, um sie mit nach AWS Nitro System migrierten Instances der vorherigen Generation auszuführen?

Nein. Kunden müssen Workloads nicht neu erstellen/neu zertifizieren, um sie mit nach AWS Nitro System migrierten Instances der vorherigen Generation auszuführen.

F: Wird es Änderungen an meinen Instance-Spezifikationen geben, wenn sie einmal nach AWS Nitro System migriert sind?

Es wird keine Änderung der Instance-Spezifikation von Instances der vorherigen Generation geben, wenn diese nach AWS Nitro System migriert werden.

F: Werden alle Features und AMIs in meinen Instances der vorherigen Generation als Teil dieser Migration unterstützt?

Ja. Alle bestehenden Feature und AMIs, die in Instances der vorherigen Generation unterstützt werden, werden unterstützt, während wir diese Instances zu AWS Nitro System migrieren. 

F: Wird es Änderungen am Preis und der Fakturierung geben, wenn Instances der vorherigen Generation zu AWS Nitro System migriert werden?

Es wird keine Änderungen am Preis und der Fakturierung geben. Wir werden für die Instances der vorherigen Generation (On-Demand, 1-/3-jährige Reserved Instance, Savings Plan, Spot) weiterhin dieselben Preismodelle unterstützen wie heute.

 

Zusätzliche produktbezogene Ressourcen ansehen

Es gibt viele Ressourcen, die Sie dabei unterstützen zu erfahren, wie Sie mit Amazon EC2 entwickeln.

Weitere Informationen 
Für ein kostenloses Konto registrieren

Sie erhalten sofort Zugriff auf das kostenlose AWS-Kontingent. 

Registrieren 
Starten Sie mit der Entwicklung in der Konsole

Starten Sie mit der Entwicklung mit Amazon EC2 in der AWS-Managementkonsole.

Erste Schritte