„HPE GreenLake for Large Language Models“ (LLMs) ist das erste Angebot aus der neuen Supercomputer-Cloud von Hewlett Packard Enterprise. Der Cloud-Dienst kann von Organisationen jeder Größe genutzt werden und wird in Partnerschaft mit dem deutschen KI-Unternehmen Aleph Alpha bereitgestellt. Damit steht Kunden ein praxiserprobtes und sofort einsatzbereites LLM für Anwendungsfälle zur Verfügung, die Text- und Bildverarbeitung und -analyse erfordern.
HPE-Greenlake for LLMs ist die erste in einer Reihe von branchen- und domänenspezifischen KI-Anwendungen, die HPE über seine multimandantenfähige Supercomputer-Cloud auf den Markt bringen wird. Dazu gehören Klimamodellierung, Gesundheitswesen und Biowissenschaften, Finanzdienstleistungen, Fertigung und Transportwesen.
„Wir befinden uns mit KI in einem Wandel, der den Markt ebenso stark verändern wird wie das Web, Mobile-Computing und die Cloud“, sagt Antonio Neri, President und CEO von HPE. „KI war einst die Domäne von staatlich finanzierten Institutionen und Cloud-Giganten. HPE macht sie jetzt mit einer Reihe von KI-Anwendungen allen zugänglich, beginnend mit großen Sprachmodellen, die auf HPEs Supercomputern laufen. Jetzt können Organisationen KI nutzen, um Innovationen voranzutreiben und Märkte zu verändern – mit einem On-Demand-Cloud-Service, der Modelle im großen Maßstab und auf verantwortungsvolle Weise trainiert, optimiert und betreibt.“
HPE ist globaler Marktführer im Supercomputing. Im vergangenen Jahr gelang dem Unternehmen mit Frontier, dem schnellsten Supercomputer der Welt, der Durchbruch der Exascale-Geschwindigkeitsgrenze.
Im Gegensatz zu General-Purpose-Clouds, die mehrere Anwendungen parallel ausführen, läuft HPE-Greenlake for LLMs auf einer KI-nativen Architektur, die speziell für die Ausführung einer großen KI-Trainings- und Simulations-Umgebung entwickelt wurde. Das Angebot unterstützt KI- und HPC-Aufgaben auf Hunderten oder Tausenden von CPUs oder GPUs gleichzeitig. Das ist wesentlich effektiver, zuverlässiger und effizienter für das KI-Training und erlaubt die Entwicklung präziserer KI-Modelle. Kunden können damit ihren Weg vom Proof of Concept bis zum produktiven Einsatz beschleunigen und Probleme schneller lösen.
HPE-Greenlake for LLMs beinhaltet den Zugang zu Luminous, einem vortrainierten großen Sprachmodell von Aleph Alpha, das in mehreren Sprachen angeboten wird: Englisch, Französisch, Deutsch, Italienisch und Spanisch. Kunden können dabei ihre eigenen Daten nutzen, um ein individuelles Modell zu trainieren und zu optimieren.
„Mithilfe von HPEs Supercomputern und KI-Software haben wir Luminous effizient und schnell trainiert – als großes Sprachmodell für geschäftskritische Abläufe beispielsweise in Banken, Krankenhäusern oder Anwaltskanzleien. Luminous kann als digitaler Assistent eingesetzt werden, um die Entscheidungsfindung zu beschleunigen und Zeit und Ressourcen zu sparen“, sagte Jonas Andrulis, Gründer und CEO von Aleph Alpha. „Wir sind stolz darauf, ein Launch-Partner von HPE-Greenlake for Large-Language-Models zu sein und wir freuen uns, die Zusammenarbeit mit HPE zu erweitern, indem wir Luminous auf die Cloud ausweiten und es unseren Endkunden als Service anbieten, um neue Anwendungen für Geschäfts- und Forschungsinitiativen zu entwickeln.“
HPE-Greenlake for LLMs wird auf HPE-Cray-XD-Supercomputern laufen – den weltweit leistungsstärksten und nachhaltigsten ihrer Art. Kunden müssen damit keine eigenen Supercomputer kaufen und betreiben, was in der Regel kostspielig und komplex ist und spezielle Fachkenntnisse erfordert. Das Angebot umfasst das HPE-Cray-Programming-Environment, eine Software-Suite zur Optimierung von HPC- und KI-Anwendungen, mit Werkzeugen für die Entwicklung, Portierung, Fehlersuche und Optimierung von Codes. Darüber hinaus unterstützt die Supercomputing-Plattform die KI/ML-Software von HPE, darunter das HPE-Machine-Learning-Development-Environment zum schnellen Trainieren großer Modelle und die HPE-Machine-Learning-Data-Management-Software zum Integrieren, Nachverfolgen und Prüfen von Daten mit reproduzierbaren KI-Funktionen, mit denen sich vertrauenswürdige und präzise Modelle bauen lassen.
HPE-Greenlake for LLMs wird in Colocation-Rechenzentren betrieben – etwa bei der Firma QScale (Quebec), die eine spezielle Umgebung für Supercomputer bereitstellt, die mit nahezu 100 Prozent erneuerbarer Energie betrieben werden.
HPE-GreenLlke for LLMs kann ab sofort geordert werden, zusätzliche Kapazität wird bis zum Ende des Jahres 2023 zur Verfügung gestellt. Das Angebot ist zunächst in Nordamerika verfügbar. Europa folgt Anfang 2024.
#HPE