Interview mit Jay Zhang, Vice President Inspur Group Global Business und CEO of Inspur Europe “Das Rack-Scale-Bereitstellungsmodell ist zur Normalität geworden“
Anbieter zum Thema
Der chinesische Serverhersteller Inspur rangiert unter den Top 3 im weltweiten Servermarkt. Inspur plant, das Geschäft in Deutschland in den nächsten drei bis fünf Jahren massiv auszubauen. DataCenter-Insider hat dazu ein paar Fragen an Jay Zhang, der als Vice President Inspur Group Global Business und CEO of Inspur Europe dafür zuständig ist.

Inspur ist im Jahr 2016 in den europäischen Markt eingetreten und hat seit 2017 in Deutschland spezielle Teams für Design, Produktion, Service und Verkauf aufgebaut. Ein Werk in Ungarn stellt sicher, dass die Nachfrage nach IT-Infrastrukturlösungen bedient werden kann. Zu den jüngsten Erfolgen zählt, dass im Herbst des vergangenen Jahres Inspurs Speicherplattform „AS2200G2“ im SPC-1 Benchmark-Report des Storage Performance Councils als Produkt mit dem besten Preis-Leistungsverhältnis gelistet worden ist.
Jay Zhang ist ist seit 2016 als CEO von Inspur Europe für die gesamte Geschäftsstrategie und Geschäftsentwicklung der europäischen Region des Unternehmens verantwortlich. Davor hatte er seit seinem Eintritt bei Inspur im Jahr 2008 mehrere Führungspositionen als VP von Inspur Information, VP von Inspur USA und VP von Inspur Worldwide Services inne.
Wie wollen Sie im (deutschen) Markt wahrgenommen werden?
Jay Zhang: Inspur ist ein weltweit führender Anbieter von Rechenzentrumsinfrastruktur, Cloud-Computing-Plattformen und KI-Computing-Lösungen. Das Unternehmen legt den Fokus auf Innovation, Agilität und Lokalisierung:
Innovation: Inspur entwickelt seit mehr als 25 Jahren Server und gehört heute zu den drei größten Serveranbietern der Welt. Darüber hinaus ist Inspur der größte Anbieter von Servern mit Enterprise-GPUs und einer der wenigen Anbieter von Mainstream-Servern, die trotz der aktuellen Situation ein positives Wachstum verzeichnen. Inspur bietet ein umfassendes Portfolio von GPU Servern, das fast 20 verschiedene Typen von hochmodernen GPU-Computing-Plattformen unterstützt – von Single-Node 4 GPU-Knoten bis hin zu 64-GPU-Clustern. Zudem ist Inspur ein Gold-Mitglied der globalen Open-Source-Community OpenStack, ein Platin-Mitglied des Open Compute Project (OCP) und im Vorsitz der SPEC Machine Learning Working Group, die sich für Standards für KI-Benchmark-Leistungstests einsetzt.
Agilität: Inspur bedient große europäische und globale Internet-Unternehmen. Unser Joint Design Manufacture (JDM)-Geschäftsmodell basiert auf der Integration von Anwender- und Branchenkette, indem wir gemeinsam mit unseren Partnern Nachfrage, Entwicklung, Produktion und Lieferung verbinden. Dank des JDM-Modells verkürzt Inspur den F&E-Zyklus eines neuen Produkts von 18 Monaten auf 3 bis 9 Monate, die Zeit bis zur Markteinführung um 50 Prozent, sowie den Lieferzyklus von 15 Tagen auf 3 bis 7 Tage und erhöht die jährliche Produktionskapazität um das Vierfache.
Lokalisierung: Gemäß dem Grundsatz 'In Europa, für Europa' setzt Inspur mit lokaler Fertigung und Montage in Ungarn die Kunden immer an erste Stelle. Durch die Zusammenarbeit mit professionellen Partnern vor Ort deckt das lokale Servicenetzwerk von Inspur Europa und andere Teile der Welt ab. Ziel ist es, deutsche Kunden bestmöglich zu bedienen und sie bei ihrer digitalen Transformation zu unterstützen.
Gibt es einen speziellen Fokus - Hyperscale-, Edge-, Cloud-, Enterprise-Rechenzentren -, den Sie setzen?
Jay Zhang: Hyperscale-, Cloud-, Edge- und Enterprise-Rechenzentren sind die Hauptbereiche, auf die sich Inspur konzentriert, und wir haben in jedem dieser Segmente bemerkenswerte Fortschritte gemacht:
Inspur bietet IT-Infrastrukturprodukte und -dienstleistungen für Hyperscale- und Cloud-Rechenzentren für globale Top-Tier-Kunden unter anderem aus der Internet-, Kommunikations- und Finanzbranche. Der von Inspur unterstützte Open-Computing-Standard stammt aus Hyperscale-Rechenzentren und stellt das modernste Technologiekonzept in der Rechenzentrumsbranche dar.
Edge Computing ist ein Schlüsselbereich der Entwicklung für Inspur. Wir haben den ersten Edge-Computing-Server (NE5260M5) auf Basis des OTII-Standards (OTII = Open Telecom IT Infrastructure) entwickelt und bauen unser Produktportfolio weiter aus. Dazu gehören das Edge-Mikro-Rechenzentrum SRDC, das in Innenräumen eingesetzt werden kann, sowie 'NE5260M5' und 'NE3160M5', die beide für NFVI/Video/AI-Szenarien geeignet sind, der tragbare KI-Server 'NE3412M5', der in Fahrzeugen montiert werden kann, und die intelligente Rechenstation 'EIS 200' (oder 'EIS 400'), die für die Nahfeldkommunikation geeignet ist.
Mit seiner umfangreichen Erfahrung in verschiedenen Branchen und den erfolgreichen Anwendungsfällen in Europa ist Inspur gut positioniert, um deutsche Kunden bei der digitalen Transformation zu unterstützen. Inspur-Produkte kommen unter anderem in der Internet-, Fertigungs- und Telekommunikationsbranche sowie im Gesundheitswesen zum Einsatz.
Welche Hauptwettbewerber sehen Sie auf dem deutschen Markt?Welchem Anbieter wollen Sie Kunden abluchsen?
Jay Zhang: Auf dem deutschen Markt konkurrieren und wachsen wir gemeinsam mit globalen Tier-1- oder Tier-2-OEMs. Wir konzentrieren uns auf die Branchen Internet, Fertigung und Telekommunikation und werden mit lokalen Partnern zusammenarbeiten, um unsere Präsenz auf dem deutschen Markt auszubauen.
Wir haben Vertriebspartnerschaften mit führenden lokalen Distributoren wie ALSO, Duttenhofer und Acondistec aufgebaut. Gemeinsam mit Vertriebspartnern und Resellern erschließen wir Kundensegmente in Branchen wie Automotive, Internet, Kommunikation und industrielle Informationstechnik.
Open-Source-Software existiert bereits seit langem. Wie ist Ihre Haltung zu Open-Source-Hardware, -Chipdesign und -Racks?
Jay Zhang: Open-Source ist nicht nur die Richtung, in die sich die IT-Infrastruktur entwickelt, sondern auch die grundlegende Technologie- und Geschäftsphilosophie von Inspur. Angefangen bei den frühen Betriebssystemen, Datenbanken und Middleware über Basissoftware wie Cloud-, Big-Data- und Algorithmus-Frameworks bis hin zu Risc-V-Chips und nun auch Computing-Hardware, deren Bedeutung sich in Initiativen wie dem Open Compute Project (OCP) und dem Open Data Center Committee (ODCC) zeigt, werden die Grenzen von Open Source ständig verschoben.
Einige unserer wichtigsten Positionen zu Open Source sind die folgenden:
- Open Computing hat ein neues Modell für die industrielle Zusammenarbeit hervorgebracht: Früher allein von der Technologie getrieben, wird Open Computing nun auch von der Industrie und ihren Anwendern vorangebracht und ermöglicht Rechenzentren, schneller umweltfreundlich und effizient zu werden.
- Das offene Anwendungsmodell geht von Hyperscale zu konventionellen Industrien: Internet-Unternehmen waren die ersten, die Open-Compute-Server im großen Maßstab zur Verfügung stellten, gefolgt von Unternehmen aus der Finanz- und Energiewirtschaft und anderen konventionellen Branchen. Sie haben sich sukzessive den Open-Compute-Organisationen angeschlossen und die Open-Compute-Konzepte auf den Aufbau ihrer Rechenzentren angewendet.
- Das Rack-Scale-Bereitstellungsmodell ist zu einer neuen Normalität geworden: Angetrieben durch die Internet-Wirtschaft entwickeln sich Hyperscale-Rechenzentren rasant. Dadurch wird ein Rack-Scale-Liefermodell, das sich durch schnelle Bereitstellung, intelligenten Betrieb und flexible Skalierung auszeichnet, zur neuen Normalität beim Bau von Hyperscale-Rechenzentren. Infolgedessen wurden offene Technologiestandards für Rack-Scale-Server wie 'Open Rack', 'Scorpio' und 'Open19' schnell von großen Rechenzentren übernommen.
Als Unternehmen, das sich für Open Source einsetzt, ist Inspur ein Goldmitglied der Open Infrastructure Foundation (früher bekannt als OpenStack) und außerdem Mitglied der drei führenden Open-Compute-Organisationen der Welt (OCP, ODCC und Open19). Inspur InCloud OS hat die größte "Cloud+Data+KI"-Konvergenz, mit einer einzelnen Clustergröße von bis zu 1000 Knoten, erreicht, die Big-Data-Verarbeitung und cloudbasierte Prozesse in einem einzigen Cluster unterstützen kann.
:quality(80)/images.vogel.de/vogelonline/bdb/1465100/1465113/original.jpg)
Open-Source-Hardware läuft live
Microsoft-Rechenzentren arbeiten nun im Open19-Design
:quality(80)/images.vogel.de/vogelonline/bdb/1534900/1534936/original.jpg)
Open Compute Project
Open Rack in allen neuen Public-Cloud-Datacenter von Huawei
Als Platin-Mitglied der OCP haben wir uns an den Initiativen für OAI-Standards (Open Accelerator Infrastructure) und OpenRMC beteiligt.
Inspur hat eine F10A-basierte FPGA-Beschleunigerkarte für Function-as-a-Service (FaaS)-Computing entwickelt, die in der Internet-, Finanz- und Telekommunikationsbranche breite Anwendung findet. Für die Zukunft erwarten wir, dass Open-Source ein fester Bestandteil in den Bereichen Computing-Hardware, Software, Architektur, Design, Konstruktion und Anwendungen sein wird.
Welche Stärken will Inspur auf dem deutschen Markt ausspielen?
Jay Zhang: Inspur möchte mit deutschen Kunden und Branchenführern zusammenarbeiten, um durch unsere führenden Produkttechnologien sowie unser agiles JDM-Modell (Joint Design Manufacturing) zu ihrer digitalen Transformation beizutragen.
Unsere Kernkompetenzen sind:
- Umfassende KI-Fähigkeiten, mit weltweit führender Rechenleistung, Ressourcen und Algorithmus-Tool-Plattformen.
o In Bezug auf die KI-Rechenleistung verfügen wir über ein branchenweit umfangreiches KI-Server-Portfolio, das fast 20 verschiedene Arten von OAM-konformen Rechenplattformen umfasst. Unser Portfolio deckt ein breites Spektrum an Szenarien für Training, Inferenz und Edge ab.
o Inspur KI-Ressourcenplattformen wie AIStation können KI-Ressourcen effektiv verwalten und ihre Nutzungsrate maximieren.
o Unsere Algorithmus-Plattformen wie die AutoMLSuite können Mainstream-Frameworks optimieren und so die Schwelle für die Anwendung von Algorithmen senken.
- Inspur bietet offene und zuverlässige Produkte und Lösungen:
o Inspur ist ein Goldmitglied der globalen Open-Source-Community OpenStack. GlobalData, ein weltweit führendes Daten- und Analyseunternehmen, stufte InCloud OS als 'Leader' auf dem Markt für Private-Cloud-Lösungen ein – die höchste Bewertung in diesem Bereich. Wir haben das branchenweit erste OAM AI System MX1 ausgeliefert, ein auf offenen Standards basierendes Rack-Scale-Produkt. Das OAM AI-System MX1 kann gemäß L11 hochzuverlässig 10.000 Nodes in 8 Stunden bereitstellen – ein Rekord in der Branche.
Fast alle Unternehmen lassen ihre Chips bei der Taiwan Semiconductor Manufacturing Company (TSMC) produzieren. Sehen Sie in dieser Konzentration eine Gefahr?
Jay Zhang: Die Chipindustrie ist eine stark globalisierte Branche, in der die Aufteilung recht komplex und aufwendig ist. Jedes Unternehmen in der Branchenkette hat seine Stärken und ein einzelnes Unternehmen kann die Chipindustrie nicht dominieren. Wir freuen uns, dass Unternehmen in Europa stark in die Entwicklung und Produktion von Chips investiert haben.
Der Einsatz von Beschleunigern, insbesondere im Bereich der KI, ist mittlerweile Standard. Auf welche CPU (Intel, ARM, AMD) setzen Sie? Wo sehen Sie die größten Vorteile und Schwächen der jeweiligen Chiptechnologien? Welche Beschleuniger haben eine Zukunft?
Jay Zhang: Mit dem Ziel, die Kernbedürfnisse unserer Kunden zu erfüllen, haben wir verschiedene KI-Rechenleistungsplattformen im Bereich der KI-Beschleuniger eingeführt, indem wir führende industrielle Technologien übernommen haben. Diese Plattformen decken verschiedene Arten von CPUs ab und können Kunden extrem optimierte Lösungen bieten.
Außerdem sind diese Plattformen so konzipiert, dass sie an verschiedene KI-Beschleunigerchips wie GPU, FPGA und AISC angepasst werden können. Jede dieser Technologien hat ihre spezifischen Stärken und Anwendungsfälle.
GPU unterstützt das Training und die Inferenz von Deep-Learning-Modellen und erfüllt die Anforderungen an eine große KI-Rechenleistung. Im Gegensatz dazu eignet sich FPGA für Inferenzszenarien mit geringem Stromverbrauch und geringer Latenz, während ASIC ein dedizierter Beschleunigungsprozessor ist, der ein besseres Leistung-zu-Strom-Verhältnis bietet.
Haben Sie schon Rechner mit FPGAs oder beispielsweise Graphcore gebaut?
Jay Zhang: Inspur hat FPGA-Beschleunigerkarten in verschiedenen Spezifikationen eingeführt, die unter anderem in den Bereichen KI und FaaS weit verbreitet sind. Unsere Server sind auch so konzipiert, dass sie an den Graphcore-Beschleuniger angepasst werden können und in großen verteilten KI-Trainingsszenarien eingesetzt werden.
Derzeit ist die GPU noch die Mainstream-Lösung im KI-Beschleunigermarkt. Wir glauben, dass verschiedene KI-Beschleunigerchips mit der Entwicklung besser ausgereifter Technologien und reichhaltigerer Anwendungsszenarien in Zukunft florieren werden.
Energie-Effizienz wird in den nächsten Jahren ein dominierendes Thema sein. Gibt es Inspur-Anlagen mit direkter Wasserkühlung? Gibt es Inspur-Installationen in Tauchbädern?
Jay Zhang: Lösungen von Inspur für Cold-Plate-Flüssigkeitskühlung wurden bereits in Serie produziert und unsere Lösungen für Immersionskühlung werden nächstes Jahr auf den Markt kommen.
So verfügt der Inspur 2U/4-Node High-Density-Server 'I24M5-LC' über eine Cold-Plate-Flüssigkeitskühlung. Er kann auch schnell mit einem mobilen, Rack-montierten CDU verbunden werden. Mit acht flüssigkeitsgekühlten Servern auf Dual-Channel-CPU-Basis und geeigneten flüssigkeitsgekühlten Rackmount-CDUs kann schnell ein effizientes, bequemes Cluster mit Flüssigkühlung im kleinen Maßstab aufgebaut werden.
Hinweis:Das Interview erfolgte schriftlich.
Artikelfiles und Artikellinks
(ID:47070667)