AWS Summit in Berlin

AWS rückt Partner stärker in den Fokus

26.05.2023
Jakob Jung ist Freier Redakteur aus Berlin-Brandenburg.
Das Partnernetzwerk von Amazon Web Services (AWS) umfasst mittlerweile mehr als 100.000 Partner weltweit. Mit dem Aufbau Generativer KI ergeben sich neue Chancen für Reseller.
Über mangelndes Interesse konnte sich AWS bei seinem Summit in Berlin Anfang Mai 2023 nicht beklagen: Die Veranstaltung war komplett ausgebucht.
Über mangelndes Interesse konnte sich AWS bei seinem Summit in Berlin Anfang Mai 2023 nicht beklagen: Die Veranstaltung war komplett ausgebucht.
Foto: AWS

Amazon Web Services surft derzeit auf einer Erfolgswelle. Das zeigt nicht nur die Tatsache, dass der AWS Summit in Berlin am 4. Mai völlig ausverkauft war, sondern auch die am 27. April veröffentlichten Quartalszahlen sprechen für sich. Der Umsatz des AWS-Segments stieg im Vergleich zum Vorjahr um 16 Prozent auf 21,4 Milliarden Dollar. Dabei agiert AWS deutlich erfolgreicher als viele andere Tech-Giganten, die sich in den vergangenen Monaten von Mitarbeitern getrennt haben. Zwar gab es auch bei Amazon Entlassungen, die Cloud-Sparte kam aber glimpflich davon.

In Berlin stellten Anfang Mai 85 AWS-Partner ihre eigenen Lösungen vor, die auf Technologie des Hyperscalers aufbauen. Eine weitere große Veranstaltung ist bereits geplant. Der AWS Community Day DACH findet am 14. September in München statt.

Laut den Marktforschern von Canalys können AWS-Partner in Deutschland einen Multiplikator von 5,10 bei jedem Dollar verkaufter AWS-Lösungen erreichen. "Unternehmen in Deutschland fahren einen eher konservativen Ansatz bei der Datenspeicherung, was den gesamten adressierbaren Markt für Partner, die Cloud-Dienste anbieten, einschränkt. Partner in diesem Land haben jedoch die Möglichkeit, die Bedenken und den Konservatismus des Marktes gegenüber Cloud-Diensten zu überwinden und so weiteres Wachstum über alle Cloud-Segmente hinweg zu generieren", erklären die Analysten.

Kosten senken für Partner

AWS will Partnern helfen, ihre Kosten zu senken. Der Wechsel in die Cloud bringt erhebliche Kostenvorteile mit sich. Der ERP-Anbieter Infor konnte seine Speicherkosten etwa um 50 Prozent senken, indem er etwa 11 TByte an Daten zu AWS verschoben hat.

Die AWS Foundational Technical Review (FTR) kann Partnern dabei helfen, sogenannte "Well-Architected-Best-Practices" zu identifizieren, die für ihre Software oder Lösung spezifisch sind, und ihnen dabei helfen, Umgebungen zu optimieren und Einsparungen zu erzielen, die über das einfache "Lift and Shift" hinausgehen. Zusätzlich zu den Einsparungen durch technische Optimierung kann AWS Partnern helfen, die Preismodelle zu maximieren, zum Beispiel mit Savings Plans, die ihre Rechnungen um bis zu 72 Prozent im Vergleich zu On-Demand-Preisen senken können.

Team Satchel, das weltweit Schulverwaltungssoftware bereitstellt, hat beispielsweise mit Strategic Blue zusammengearbeitet, um seine Cloud-Ausgaben zu optimieren. Strategic Blue arbeitete eng mit dem technischen Team des Unternehmens zusammen, um auf der Grundlage der Nutzungsprognose maßgeschneiderte Verpflichtungen wie Amazon Elastic Compute Cloud (Amazon EC2) Reserved Instances oder AWS Saving Plans einzugehen, die höhere Rabatte ermöglichen.

ISV-Partnern helfen, mehr zu verkaufen

Ein alter Merksatz besagt, dass man den Umsatz steigern kann, indem man entweder mehr an bestehende Kunden oder an neue Kunden verkauft.AWS kann Partnern in beiden Bereichen helfen. Partner können dazu die breite Palette an AWS-Services nutzen, um ihr Angebot für ihre Kunden zu erweitern und zu erneuern.

Auf dem AWS Summit in Berlin kamen in den Keynotes auch Kunden wie Flix (hier Chief Commercial Officer Julie Kratz) und Siemens zu Wort.
Auf dem AWS Summit in Berlin kamen in den Keynotes auch Kunden wie Flix (hier Chief Commercial Officer Julie Kratz) und Siemens zu Wort.
Foto: AWS

Eine von AWS gesponserte Cloud-Services-Studie der Hackett Group ergab, dass Kunden nach der Migration zu AWS eine um 29 Prozent höhere Konzentration der Mitarbeiter auf Innovationen und eine um 43 Prozent kürzere Markteinführungszeit für neue Anwendungsmerkmale oder -funktionen erzielten. "AWS erweitert ständig seine Services, um praktisch jede Cloud-Arbeitslast zu unterstützen, und wir haben jetzt mehr als 200 voll funktionsfähige Services", teilt der Konzern mit. AWS-Partner nutzten häufig Services, die über die Kernberechnung und -speicherung hinausgehen, um ihre Lösungen zu verbessern, einschließlich Analysen, maschinelles Lernen (ML) und künstliche Intelligenz (KI).

Generative KI und Large Language Models

Der Hype um generative KI Applikationen wie ChatGPT hat viele Kunden wachgerüttelt und sie wollen nun aus eigener Kraft ähnliches schaffen. Dabei können Partner, die sich auf dieses Segment fokussieren, eine entscheidende Rolle spielen.

Roboter sind immer (noch) spektakuläre Ausstellungs-Highlights, Generative KI (GenAI) und große Sprachmodelle (LLMs) aber wohl die ersten chritte vieler Unternehmen im Bereich KI-Nutzung.
Roboter sind immer (noch) spektakuläre Ausstellungs-Highlights, Generative KI (GenAI) und große Sprachmodelle (LLMs) aber wohl die ersten chritte vieler Unternehmen im Bereich KI-Nutzung.
Foto: AWS

Wenn es um den Aufbau und die Skalierung generativer KI-Anwendungen mit Foundation Models (FMs) sowie das entsprechende Training der KI geht, fallen sehr große Datenmengen an, Trotzdem sollten die Latenzzeiten den Millisekundenbereich nicht überschreiten. Das ist schwer möglich, wenn die Entfernung zum Cloud-Standort mehr als 200 km beträgt.

AWS hat auf diese Herausforderung reagiert und bietet seinen Kunden in Deutschland jetzt zusätzlich zu den drei Availability Zones in Frankfurt neue Local Zones in München, Hamburg und Berlin sowie Wien an. Darüber hinaus befindet sich eine Amazon CloudFront Edge in Düsseldorf. Eine neue "AWS Region" wird seit November aus Zürich angeboten.

Der neue Hamburger Standort bietet dedizierte Verbindungen mit 1 Gbit/s und 10 Gbit/s, wobei für 10 Gbit/s eine MACsec-Verschlüsselung verfügbar ist. Die Nutzung dieses neuen Direct-Connect-Standorts zum Erreichen von Ressourcen, die in der Hamburger AWS Local Zone laufen, ist eine Lösung für Anwendungen, die eine Latenzzeit im einstelligen Millisekundenbereich oder lokale Datenverarbeitung erfordern.

AWS und Nvidia haben gemeinsam eine Infrastruktur für künstliche Intelligenz (KI) geschaffen, die für das Training immer komplexerer großer Sprachmodelle (LLMs) und die Entwicklung generativer KI-Anwendungen ausgelegt ist. Die gemeinsame Arbeit umfasst Amazon Elastic Compute Cloud (Amazon EC2) P5-Instances der nächsten Generation, die auf Nvidia H100 Tensor-Core-Grafikprozessoren sowie dem Netzwerk und der Skalierbarkeit von AWS aufbauen werden und eine Rechenleistung von bis zu 20 exaFLOPS für die Erstellung und das Training der größten Deep-Learning-Modelle liefern werden.

P5-Instances werden die ersten GPU-basierten Instances sein, die die Vorteile des Elastic Fabric Adapter (EFA)-Netzwerks der zweiten Generation von AWS nutzen, das einen Netzwerkdurchsatz von 3.200 Gbit/s mit niedriger Latenz und hoher Bandbreite bietet und es Kunden ermöglicht, bis zu 20.000 H100-GPUs in EC2 UltraClustern zu skalieren, um bei Bedarf auf die Leistung eines Supercomputers für KI zuzugreifen.

Generative KI (GenAI) und große Sprachmodelle (LLMs), wie sie bald über Amazon Bedrock und Amazon Titan verfügbar sein werden, bieten Entwickler und Unternehmen neue Möglichkeiten, traditionell komplexe Herausforderungen im Zusammenhang mit der Verarbeitung und dem Verständnis natürlicher Sprache zu lösen. Amazon Bedrock ist ein vollständig verwalteter Service, der Foundation Models FMs von KI-Startups und Amazon über eine API zur Verfügung stellt.

Zu den Vorteilen, die LLMs bieten, gehört die Möglichkeit, leistungsfähigere und überzeugendere KI-Konversationserlebnisse für Kundendienstanwendungen zu schaffen und die Produktivität der Mitarbeiter durch intuitivere und genauere Antworten zu verbessern. Für diese Anwendungsfälle ist es jedoch von entscheidender Bedeutung, dass die GenAI-Anwendungen, die die Konversationserlebnisse implementieren, zwei Schlüsselkriterien erfüllen: Begrenzung der Antworten auf Unternehmensdaten, um so Modellhalluzinationen (falsche Aussagen) zu vermeiden, und Filterung der Antworten entsprechend den Zugriffsrechten des Endbenutzers auf Inhalte.

Um die Antworten der GenAI-Anwendung auf Unternehmensdaten zu beschränken, verwendet AWS eine Technik namens Retrieval Augmented Generation (RAG). Eine Anwendung, die den RAG-Ansatz verwendet, ruft die für die Anfrage des Benutzers relevantesten Informationen aus der Wissensdatenbank oder den Inhalten des Unternehmens ab, bündelt sie als Kontext zusammen mit der Anfrage des Benutzers als Eingabeaufforderung und sendet sie dann an das LLM, um eine GenAI-Antwort zu erhalten. LLMs haben Beschränkungen in Bezug auf die maximale Wortanzahl für die Eingabeaufforderung, daher wirkt sich die Auswahl der richtigen Passagen unter Tausenden oder Millionen von Dokumenten im Unternehmen direkt auf die Genauigkeit des LLM aus.

Data Lakes auf S3

Laut Kevin Miller, Vice President & GM, S3 at Amazon Web Services, hosten immer mehr Kunden ihre Data Lakes auf dem Speicherstandard Amazon S3. "Data Lakes umfassen schon Exabytes. Unser Angebot S3 Storage Lens schafft den Überblick über Storage und das kostenlos. Es sind jetzt 34 neue Metriken für S3 Storage Lens integriert."

Wenn der Data Lake wächst, sollte man die richtige Speicherklasse wählen. Die unbekannte Zugriffshäufigkeit macht es aber schwierig, die richtige Storage Klasse zu finden. Eine neu eingeführte S3 Storageklasse adressiert dieses Problem.

AWS-gestützte Data Lakes auf Amazon S3 können laut AWS die Skalierung, Agilität und Flexibilität bewältigen, die für die Kombination verschiedener Daten- und Analyseansätze erforderlich sind. So können Kunden tiefere Einblicke gewinnen, als mit herkömmlichen Datensilos und Data Warehouses.

Die AWS-Analyseservices wurden entwickelt, um dabei zu helfen, mit dem am besten geeigneten Tool Dateneinblicke zu gewinnen und die beste Leistung, Skalierung und Kosten für die jeweiligen Anforderungen zu bieten,

Amazon S3 auf Snowball Edge kann nun eine erweiterte Reihe von Amazon-S3-APIs verwenden, um Anwendungen auf AWS zu erstellen und sie auf Geräten bereitzustellen, die Snowball Edge Compute Optimized sind. Damit lässt sich der Speicher mit AWS OpsHub verwalten und können Untrnehmen mehrere DDIL-Anwendungsfälle (Denied, Disrupted, Intermittent, Limited Impact) angehen.

Zur Startseite