Composable Infrastructure für Server, SSDs, GPUs, FPGAs, Netzadapter und mehr Liqid strickt Infrastruktur ad hoc zusammen
Was VMware für Server und die auf ihnen laufenden Applikationen ist, möchte Liquid für die Hardwareressourcen in Rechenzentren werden: ein Werkzeug, mit dem sich beliebige Komponenten bedarfsorientiert zusammenstellen und wieder freigeben lassen. Bislang einziger Konkurrent: HPE mit „Synergy“.
Anbieter zum Thema

Als HPE vor einigen Jahren mit Synergy die erste marktreife Composable Infrastructure vorstellte, war nicht sicher, ob sich das Konzept im Markt durchsetzt. Das bezweifelt inzwischen niemand mehr; denn HPE verdient mit den Systemen gutes Geld.
Das Grundprinzip von Composable Infrastructure: Hardware wird gepoolt und per Software sowie Vernetzung je nach Applikation zu dafür optimierten Ad-hoc-Verbünden zusammengeschmiedet. Ändern sich die Anforderungen, wird der Verbund entsprechend umgestaltet oder gleich ganz auf gelöst und die Ressourcen sind für neue Zwecke frei.
Composable erhöht die Auslastung
Das hat Charme, denn auch mit Virtualisierung ist die Auslastung von Hardware noch viel zu gering. Gerade in den nun aufkommenden, stark ressourcenbeschränkten Edge-Umgebungen aber kommt es darauf an, möglichst viel aus jeder Komponente herauszuholen. Nur dann bleibt die Gesamtinstallation schmal.
:quality(80)/images.vogel.de/vogelonline/bdb/1043400/1043454/original.jpg)
Ressourcen auf ein Kommando
Programmierbare Infrastruktur mit HPE Synergy
:quality(80)/images.vogel.de/vogelonline/bdb/1648800/1648842/original.jpg)
Composable Infrastructure
Der Formel-1-Unimog für das Rechenzentrum
Bislang hat HPEs Ansatz Begrenzungen, die Synergy für solche Umfelder eher ungeeignet machen: Im Grunde handelt es sich um ein geschlossenes Produkt. Vor allem Server und Storage sind eingebunden – was sich natürlich ändern kann. Im Inneren steckt unter anderem proprietäre Cray-Technologie. Und bei der Storage setzt man derzeit vor allem auf SAS und SATA.
„Wir wollen ein richtig großes Unternehmen werden“
Inzwischen gibt es Wettbewerb bei der Composable-Technologie: Die 2013 in Denver, Colorado, gegründete Softwareschmiede Liqid hat zwar erst rund 100 Mitarbeiter, aber extrem ehrgeizige Pläne. „Wir streben jedes Jahr mehrere hundert Prozent Wachstum an, expandieren global und werden uns entsprechend finanzieren.
Verkaufen ist keine Option, wir wollen ein richtig großes Unternehmen werden“, verkündet CTO J. Scott Cannata in der Online-Präsentation. Gerade wurden in Runde B rund 60 Millionen Dollar Venture Capital eingeworben.
Expansion nach Europa
Liqid ist kürzlich nach London expandiert, von wo aus das Europageschäft aufgebaut werden soll. „Allein im vergangenen Quartal konnten wir hier ein Dutzend Kunden gewinnen“, freut sich Cannata. Als nächstes sei neben China Japan im Gespräch. Eine deutsche Niederlassung ist vorläufig nicht geplant, hier verlässt man sich auf Distributoren wie Arrow und Avnet sowie Hardwarepartner.
Auf der OEM-Partnerliste finden sich unter anderem Dell, Nvidia und Western Digital. WD etwa bietet sein „Openflex“-Chassis mit Liqids Software an.
Von der GPU bis zum Netzadapter und mit allen Fabrics
Liqid adressiert aktuell Carrier der Tiers 1 und 2 sowie Hyperscaler mit seinem Produkt „Liqid Matrix CDI“ (Composable Datacenter Infrastructure). Damit kann man jegliche Hardware im Gesamtsystem poolen und per Software so zusammensetzen, wie es gerade nötig ist, um die gewünschten Aufgaben zu lösen.
Die Zusammenstellung der aktiven Systeme passiert über eine grafische Schnittstelle per Drag and Drop. Anwender müssen weder Programmierung noch Skriptsprachen beherrschen. Einbezogen sind beispielsweise Server, SSDs, GPUs, FPGAs und Netzadapter.
Unterstützt werden alle möglichen Fabrics – über Ethernet, Infiniband, Gen-Z bis CXL oder alles, was noch kommen könnte. Dabei können auch unterschiedliche Fabrics in einer Umgebung kombiniert werden. SAS und SATA verabschiedet Liqid zugunsten von NVMe, „Optane“ oder anderen, zukünftigen Technologien.
Eigene Box für Hardwarebausteine
Hardwareseitig bietet Liqid an: einen 48-Port-PCI-Fabric-Switch, eine 32-Slot-JBox für SSD und Storage-Class-Memory sowie einen 16-Port-Director, auf dem Matrix läuft, jeweils 1U hoch. Dazu kommt eine 10- oder 20-Slot JBox (4 Höheneinheiten) für GPU, FPGA, SSDs oder NICs. Die darin verbauten Komponenten und die Serverboxen stellen die Hardwarepartner. Hier arbeitet Liqid wenig verwunderlich besonders eng mit Nvidia zusammen, bei Servern mit HPE-Konkurrent Dell.
In Hinblick auf Hypervisoren ist Liqid, dessen Software auf Linux basiert, prinzipiell agnostisch. Dasselbe gilt für Kubernetes oder den Open-Source-Ressourcenmanager „Slurm“, „Wir virtualisieren die gesamte Hardware im Rechenzentrum, dann kommen die Hypervisoren und virtualisieren die Server“, sagt Canatta.
Enge Integration mit VMware
Die Integration mit VMware ist bereits weit fortgeschritten, hier wartet das größte Marktvolumen. Als nächstes will man sich Nutanix vornehmen, dann KVM und andere Hypervisoren. Liqid funktioniert aber auch Bare Metal. Hochverfügbarkeit ist durch die Duplizierung aller Komponenten samt räumlicher Verteilung möglich.
Die Hardware kann also durchaus in mehreren Racks stecken. „Wir denken an zehn bis 20 Pods in einem Rechenzentrum plus einen Director“, sagt Canatta. Im Grunde skaliere die Lösung aber vom Enterprise bis in den HPC-Bereich.
Zentrale Steuerung für das Edge
Prinzipiell können die gesteuerten Einheiten nämlich an mehreren Orten außerhalb des Rechenzentrums stehen. Liqid arbeite, so Canatta, für einen Kunden bereits an einer Lösung, die zwei Datacenter über 5G Wireless zu einem Pool bündelt. Perspektivisch sollen so vor allem Edge-Lokationen in eine zentrale Steuerung eingebunden werden.
Das erklärt, was die Lösung für Telcos so interessant macht: Sie benötigen für die Vor-Ort-Datenanalyse vor Ort intelligente Hardware wie GPUs oder FPGAs. Diese Ressourcen müssen wegen der räumlichen und energetischen Beschränkungen minimiert und optimal ausgelastet werden. Service vor Ort soll möglichst ganz entfallen.
Freie Systemkonfiguration
In der Konfiguration der gepoolten Komponenten sind die Anwender vollkommen frei. Auch bislang kaum mögliche Konstellationen lassen sich per Mausklick erzeugen. So hat Liqid für einen Kunden bereits in Blitzgeschwindigkeit 20 Nvidia-GPUs bei laufendem Betrieb an einen Server angehängt. In einem anderen Fall wurden ad hoc 16 GPUs, 16 SSDs und 16 Mellanox-Infiniband-Switches gebündelt.
Eines der technischen Geheimnisse hinter der Lösung, in der bereits 85 Patente stecken, ist die PCIe-Connectivity. Zudem wird, wann immer es geht, für die Kommunikation zwischen Komponenten Peer-to-Peer-RDMA (Remote Direct Memory Access) verwendet. Der Serverchip bleibt außen vor. Keine guten Aussichten für Intel also.
Peer-to-Peer-RDMA macht Serverprozessoren unwichtiger
Besonders Nvidia arbeite intensiv daran, via Peer-to-Peer-RDMA den Serverpozessor seiner wichtigen Funktion als Tor zu den übrigen Ressourcen möglichst komplett zu entheben. Dann wäre er im Grunde zu einem bloßen Hub degradiert. „Deshalb hat Nvidia Atom übernommen“, sagt Canatta.
Der Peer-to-Peer-Modus beschleunigt die Kommunikation zwischen den Komponenten ums Mehrfache, funktioniert bereits über mehrere Chassis hinweg und bringt die Latenz in Bereiche um 80 Nanosekunden (ns). Das reicht aus, um auch geschwindigkeitsbedürftige Kommunikationsaufgaben ohne Timeout zu bewältigen.
Cloud-ähnliche Agilität on Premises
„Wir bringen unseren Kunden Cloud-ähnliche Agilität, aber on Premises“, sagt Canatta. Die Kostensenkungen gegenüber entsprechenden Cloud-Implementierungen lägen durchwegs um die 70 Prozent oder gar höher, was der Flexibilität bei der Systemkomposition und der hohen Auslastung geschuldet sei. Fertig integrierte Geräte dagegen brächten oft nicht genau die Verarbeitungsressourcen mitbringen, die gerade gebraucht werden, was am Ende zu Mehranschaffungen und Überkapazitäten führe.
Lizenzpreis berechnet sich nach Zahl der Serverknoten
Das Preismodell von Liqid basiert derzeit auf Lizenzen pro Servernode. Was am Server hängt, ist unerheblich. Für die oben erwähnte Konstellation aus einem Server und 20 GPUs wäre also nur eine Lizenz zu bezahlen. Über deren Preis wollte sich Canatta nicht äußern.
Der Liqid-Manager ist sich sicher, dass der Zug in Richtung CDI und später automatisierte AI-Steuerung der gesamten Infrastruktur fährt. Nur Zeit brauche das.
Ist dann nicht davon auszugehen, dass etablierte Infrastruktur-Player an ähnlichen Lösungen sitzen? Canatta: „Das mag sein, aber hinter Liqid Matrix stehen eine Million Codezeilen. Das lässt sich nicht so einfach kopieren.“
(ID:47490505)