Neue Grafikprozessoren und KI-Modelle ergänzt OVHcloud will KI-Entwicklung weiter vereinfachen

Von Martin Hensel 2 min Lesedauer

Anbieter zum Thema

Der Cloud-Provider OVHcloud treibt sein Engagement rund um KI-Demokratisierung in Einklang mit einer offenen, vertrauenswürdigen Cloud weiter voran. Dazu halten weitere Nvidia-Grafikprozessoren (GPUs) und quelloffene KI-Sprachmodelle Einzug in das Angebot.

Mit Nvidia-GPUs und zusätzlichen quelloffenen Sprachmodellen verstärkt OVHcloud sein Engagement rund um KI-Entwicklung.(Bild:  Roman /  Pixabay)
Mit Nvidia-GPUs und zusätzlichen quelloffenen Sprachmodellen verstärkt OVHcloud sein Engagement rund um KI-Entwicklung.
(Bild: Roman / Pixabay)

OVHcloud bietet Lösungen an, die Projekte von der KI-Modellerstellung bis hin zu Inferenz neuester LLMs („Large Language Models“) abdecken. Dazu zählen auch moderne GPUs im Rahmen des Public-Cloud-Portfolios: Sie sind auf Nachfrage verfügbar und bestehen aus aktueller Nvidia-Hardware der Reihen „H100 Tensor Core“, „L4 Tensor Core“ und „L40S“. Letztere sind neu im Programm und sollen hohe KI-Rechenleistung mit leistungsfähiger Grafik- und Medienbeschleunigung kombinieren und damit ein breites Workload-Spektrum unterstützen.

In diesem Zuge hat OVHcloud auch neue, dedizierte Bare-Metal-Server auf Basis der Nvidia-„L40S“-Hardware eingeführt. Die Server der „High Grade“-Reihe sind für Anwendungsfälle wie Deep Learning (DL), Machine Learning (ML) und High Performance Computing (HPC) konzipiert.

Sie setzen auf duale AMD-EPYC-9354-Prozessoren und stellen 64 Kerne mit 128 Threads sowie 384 Gigabyte DDR5-Speicher bereit. Bei Bedarf lässt sich der Hauptspeicher auf bis zu 2,3 Terabyte erweitern. Je nach Modell sind bis zu vier „L40S“ mit je 48 Gigabyte Speicher pro Server möglich. Spezialisierte Tools für KI-Workloads vereinfachen den Einsatz der OVHcloud-KI-Lösungen.

Open-Source-Modelle wie „Llama“ und „Mixtral“ integriert

OVHcloud bietet mit „AI Endpoints“ ein serverloses System an, das über Schnittstellen („API Endpoints“) Zugriff auf verschiedene KI-Modelle ermöglicht. Vorkenntnisse auf Anwenderseite sind dabei nur in geringem Maße erforderlich.

Bevor Entwickler die Schnittstellen nutzen, können sie ihre Endpunkte auf einem „Playground“ testen. Aufgrund hoher Nachfrage hat der Cloud-Provider nun quelloffene LLMs wie „Mixtral 8x22b“ und „Llama 3“ sowie Nvidia-optimierte Modelle für Aufgaben wie automatische Spracherkennung (ASR) ergänzt.

Die KI-Modelle sind sofort einsatzfähig und nutzbar. OVHcloud will auf diese Weise zur Reduzierung der Barrieren bei der Entwicklung erfolgreicher KI-basierter Geschäftsmodelle in Europa beitragen. Das Unternehmen konzentriert sich dabei konsequent auf die nach seiner Ansicht vier Schlüsselelemente des KI-Einsatzes: Leistungsstarke und effiziente Rechenressourcen, optimierte Datensätze, Software-Tools und moderne Fähigkeiten.

Preise und Verfügbarkeit

Die neue Nvidia-GPU-Optionen sind ab sofort im „Public-Cloud-Universum“ verfügbar. Neue „High Grade“-Server (HGR-AI-2) mit Nvidia-L40S-GPUs starten zunächst in Frankreich und Kanada zu Preisen ab rund 2.970 Euro pro Monat. Die zusätzlichen KI-Modelle sind ab sofort über OVHcloud „AI Endpoints“ erhältlich.

(ID:50078398)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung