Michael Matzer ♥ DataCenter-Insider

Michael Matzer


Michael Matzer ist ein erfahrener IT-Fachjournalist, Buchautor und Übersetzer mit über 30 Jahren Expertise in der IT-Branche. Seine Schwerpunkte liegen in den Bereichen IT-Security, Cloud Computing, Big Data, Unternehmenssoftware, E-Commerce und High-Performance Computing (HPC). Als Inhaber des Redaktionsbüros Matzer erstellt er fundierte Fachartikel, Rezensionen und Übersetzungen für renommierte Medien und Fachpublikationen.

Mit einem akademischen Hintergrund in Germanistik und Anglistik an der Universität Stuttgart startete Michael Matzer seine journalistische Laufbahn in den 1990er Jahren. Er war unter anderem Redakteur bei Fachverlagen wie dem Franzis-Verlag und Vogel-Verlag, bevor er sich als freier Autor etablierte. Seine Publikationen umfassen Bücher, darunter Werke ein Werk über die Linux-Nutzung für den Mittelstand.

Seine tiefgehenden Analysen und verständlichen Erklärungen machen komplexe IT-Themen für Fachleute und Entscheider gleichermaßen zugänglich. Dank seiner langjährigen Erfahrung in der IT-Redaktion und Unternehmenskommunikation verfügt er über ein ausgeprägtes Expertenwissen, das er gezielt in hochwertigen Fachbeiträgen und Branchenanalysen einsetzt.

Mit seiner umfassenden Fachkompetenz und analytischen Herangehensweise zählt Michael Matzer zu den anerkannten Experten in der IT-Fachberichterstattung.

Artikel des Autors

Mit 88 registrierten Teilnehmern war das „AMC Summercamp 2019“ in Böblingen gut besucht. Mehr als 70 Studenten, Fachinformatiker und Young Professionals kamen.  (Michael Matzer)
Academic Mainframe Consortium“ und der European Mainframe Academy AG

Erstes Mainframe-Summercamp in Deutschland

Der „Dino“ Mainframe lebt und ist interessanter denn je. Zwar will kaum ein Unternehmen, das ihn im Keller stehen hat, über seinen Einsatz sprechen, aber mit Großrechnern werden täglich Milliarden von Transaktionen und Flugbuchungen vorgenommen. Zwar schon etwa her, aber auf einem „Summercamp“ im Forschungslabor der IBM tauschten vorwiegend studentische Interessenten Ansichten und Informationen mit Experten aus.

Weiterlesen
Das Produkt Supernova von Ayar Labs ist ein PIC, der als Multiplexer acht oder 16 Wellenlängen erzeugen kann. Das damit gelieferte Licht reicht für 256 Datenkanäle, die insgesamt 8,192 Tbit/s übertragen können.
 (Ayar Labs)
Die Lichtcomputer - kein Wham-Bang! aber ein stetiger Innovationsfluss

Silicon Photonics wird neue Rechner- und Datacenter-Architekturen hervorbringen

Die Silicon Photonics Technologie (SiPh), ein Segment der Photonik und Optoelektronik, überträgt Daten mit Licht statt mit Elektronen. Indem sie Glasfaserkabel und Transceiver nutzt, lassen sich derzeit Datenübertragungsraten von bis zu 1,6 Terabit/s (Tbit/s) erzielen, über 300 Meter Distanz ohne jeden Qualitätsverlust. Das energiesparende SiPh ist dazu angetan, zahlreiche Interconnect-Engpässe in der Netzwerk- und Storage-Infrastruktur zu beseitigen und Transaktionen in Echtzeit zu erlauben. Dies hat weitreichende Konsequenzen.

Weiterlesen
Die steigende Dichte und Hitze-Entwicklung in den High-Performance- und Supercomputing-Cluster erfordert Flüssigkühlung. Am „Wie“ wird noch getüftelt, wenngleich die Heißwasserkühlung bereits große Forschritte macht.  (gemeinfrei: Joel Filipe on Unsplash)
Blaues Blut und heißes Wasser

Kühlung und Klimatisierung in HPC-Clustern

Mit zunehmender Energiedichte in Servern, insbesondere in HPC-Clustern, wächst die Bedeutung der effizientesten Kühlungsmethode mit niedrigem PUE-Wert. Doch ob mit Luft, Kalt- oder Warmwasser oder gar mit einer Spezialflüssigkeit gekühlt wird, richtet sich nach den Wünschen des Kunden. Künftig wird wohl Software-Steuerung bei der Kühlung eine tragende Rolle spielen.

Weiterlesen
HPC-Simulation des Molekültransports in einer Zellorganelle, dem Endoplasmatischen Retikulum, dessen komplexe Geometrie die Transportprozesse bestimmt. (Ivo Sbalzarini[MOU4])
HPC und KI im Einsatz für Bilderkennung und Simulation in der Systembiologie

Zusehen und verstehen, wie sich Leben entwickelt

Künstliche Intelligenz und HPC helfen Systembiologen in Dresden bei der Forschung und Visualisierung. Ivo Sbalzarini und sein Team haben am Center for Systems Biology Dresden (CSBD) des Max-Planck-Instituts für Molekulare Zellbiologie und Genetik (MPI-CBG) und der Technischen Universität Dresden ein IT-Framework mit neuer Beschreibungssprache für Algorithmen entwickelt. Der Professor hat sein Projekt auf der ISC 2019 in Frankfurt/Main vorgestellt.

Weiterlesen
Eine Wagon-Intelligence-Telematikeinheit an einem Containertragwagen. Bereits über 25.000 Wagen wurden damit ausgerüstet. Die gesamte Flotte folgt bis 2020. (amspire lab/DB Cargo)
Splunk im Einsatz bei DB Cargo

Digitalisierung für mehr Qualität und Service im Schienengüterverkehr

„Splunk Enterprise“, das Hauptprodukt des Operational-Intelligence-Spezialisten Splunk, ist bei DB Cargo im Einsatz, der Güterbahnsparte der Deutschen Bahn. Im Zuge der Digitalisierung und Automatisierung des Güterverkehrs und des Fuhrparks hilft die Software bei der Datenerfassung und -analyse in den Projekten „Wagon Intelligence“ und „Techlok“. Die Software-Entwicklung der beiden Projekte findet im DB Cargo Amspire Lab in Frankfurt am Main statt.

Weiterlesen
Data Preparation kostet Zeit, ist aber unerlässlich. Geeignete Tools können den Prozess beschleunigen und vereinfachen. (© momius - stock.adobe.com)
Data Preparation

Datenaufbereitung ist ein unterschätzter Prozess

Der Prozess der Datenaufbereitung umfasst die Reinigung, Formung und Mischung von Daten, damit sie für analytische und andere Aufgaben in optimaler Qualität bereitstehen. Nur mit erstklassigen Daten lassen sich beispielsweise Lösungen für Machine Learning und Künstliche Intelligenz effizient, sicher und zuverlässig versorgen.

Weiterlesen
Das Airi-Rack von Nvidia und Pure Storage. (Pure Storage)
Pure Storage sitzt mit in der ersten Reihe

Die Zertifizierung für SAP HANA ist das Reifezeugnis für Speicher

Die Zertifizierung von Storage-Systemen ist von großer Bedeutung für einen Hersteller. Das zeigt das Beispiel von Pure Storage, dessen Flash-Arrays für „SAP HANA“ zertifiziert werden müssen – so verlangen es die Kunden. Der Prozess ist aufwändig, öffnet aber das Tor zum weltweiten SAP-Markt. Das Beispiel demonstriert, wie wichtig Technologiepartnerschaften sind.

Weiterlesen
Die Internationale Supercomputing Conference (ISC 2017) in Frankfurt endete gestern, am 22. Juni. Autor Michael Matzer war dort und berichtet nun von den Trends im High Performance Computing.  (Philip Loeper)
Exascale steht außer Frage

ISC 2017: HPC und Supercomputing und Artificial Intelligence

Hochleistungsrechner sterben seit Jahren strikt auf den Exascale-Level zu: 2020 dürfte es soweit sein. Mit einer Leistung von Exaflop/s sollen neue Anwendungen möglich sein. Die zu diesem Zweck noch zu entwickelnden Technologien sollen auch Machine Learning und Cognitive Computing zugutekommen, die als Artificial Intelligence zusammengefasst werden. Auf der ISC 2017 wurden HPC, Big Data Analytics und AI als ideale Kombination bewertet.

Weiterlesen
Außenposten, „Outposts“, nennt AWS seine Appliances, die in den Rechenzentren der Kunden stehen. Merkwürdig, dass Cloud ´drinnen` bedeutet und die eigene IT ´außen und so weit weg erscheint, als befände sie sich auf dem Mond.  (© Naeblys - stock.adobe.com)
Azure Stack, AWS Outposts und der Apache Cloud Stack

Die Cloud Stack Appliances von AWS im Vergleich zu OpenSource und Microsoft

Cloud Stack Appliances wie „MS Azure Stack“ oder „AWS Outposts“ versprechen, die Vorteile einer Public Cloud in die Private Cloud des Firmenrechenzentrums zu bringen. Doch nicht nur die Einführung der Appliance will durchdacht sein, sondern auch ihre Anschaffung. Je nach Bezahlmodell kann der Preis bis zu eine Million Dollar erreichen (bei AWS). Und falls oder sobald das Gerät nicht mehr zum geplanten Verwendungszweck passt, muss man es auch wieder loswerden.

Weiterlesen
Mit „Nutanix Central“ ist eine zentrale Konsole in der Entwicklung, die die Verwaltung mehrerer Clouds erlauben soll.  (© Nutanix/Matzer)
Zusammengefasst: Die „Global.NEXT Digital Experience“

Nutanix treibt Multi-Cloud-Strategie voran

Der HCI-Anbieter Nutanix verfolgt eine Multi- und Hybrid-Cloud-Strategie, um seinen On-premises-Kunden zusätzliche Optionen zu bieten. Die bestehende Partnerschaft mit Amazon (AWS) wird durch eine mit MS Azure ergänzt. Um diese gemischte Infrastruktur zu unterstützen, lanciert Nutanix Kubernetes als Platform-as-a-Service „Karbon“. „Nutanix Central“ soll bald in der Lage sein, mehrere Clouds gleichzeitig zu verwalten. Die Security-Komponente " Flow Security Central" ist ebenfalls angekündigt.

Weiterlesen
Abbildung 1: Die IBM-Roadmap für das Quantenrechnen ab dem Jahr 2021. (IBM)
Quantencomputing bei IBM, Microsoft und AWS

IBM enthüllt Roadmap für Quantum Computing Software

Big Blue hat seine Produktplanung für Software vorgestellt, die auf seine Hardware „IBM Q System One“ eingesetzt werden kann. Die Roadmap reicht vom Jahr 2021 bis zum Jahr 2025. Darin spielen Open-Source-Software, die globale Entwicklergemeinde und die Cloud zentrale Rollen. AWS hat für seinen Service „Braket“ Neuerungen angekündigt und „Microsoft Azure Quantum“ ist endlich allgemein zugänglich.

Weiterlesen
Nicht nur für Implementierungen im eignen Rechenzentrum haben Unternehmen die Wahl zwischen verschiedenen Prozessoren. Wie wäre es mit etwa mit „Graviton2“-Instanzen von AWS - einer ARM-basierten CPU? (Gerd Altmann auf Pixabay)
ARM-CPUs in der Hyperscaler-Cloud (von AWS)

Mit Graviton2-Prozessoren höhere Leistung erzielen und zugleich sparen

Eine Reihe von Hyperscalern setzen modernste CPUs ein, um ihren Kunden Vorteile hinsichtlich Leistung und Preis anbieten zu können. Bislang waren „Intel-Xeon“- und “AMD-Epyc“-CPUs die Arbeitspferde der Compute-Instanzen, doch die neueste Generation von ARM-CPUs der „N1-Neoverse“-Plattform bietet Kunden die Option, bei höherer CPU-Leistung Nutzungsgebühren zu sparen. Diese heißen bei AWS „Graviton“.

Weiterlesen
Mit 88 registrierten Teilnehmern war das „AMC Summercamp 2019“ in Böblingen gut besucht. Mehr als 70 Studenten, Fachinformatiker und Young Professionals kamen.  (Michael Matzer)
Academic Mainframe Consortium“ und der European Mainframe Academy AG

Erstes Mainframe-Summercamp in Deutschland

Der „Dino“ Mainframe lebt und ist interessanter denn je. Zwar will kaum ein Unternehmen, das ihn im Keller stehen hat, über seinen Einsatz sprechen, aber mit Großrechnern werden täglich Milliarden von Transaktionen und Flugbuchungen vorgenommen. Zwar schon etwa her, aber auf einem „Summercamp“ im Forschungslabor der IBM tauschten vorwiegend studentische Interessenten Ansichten und Informationen mit Experten aus.

Weiterlesen
Der Fugaku-Supercomputer von Fujitsu steht in Tokio am Riken Center for Computational Science. Er landet bereits das dritte Mal auf Platz 1 der Top500-Liste   (© RIKEN )
Fugaku bekleidet erneut den ersten Rang

Platzwechsel unter den Top Ten der Top500-Superrechner

Auf der International Supercomputing Conference (ISC) 2021 hat die Organisation Top500 die Spitzenreiter unter den 500 schnellsten Superrechnern vorgestellt. Während Fugaku seine Spitzenposition im 57. Ranking halten kann, steigt auf Platz 5 der Rechner „Perlmutter“ ein, der am Lawrence Berkeley National Laboratory seine Arbeit für das US-Energieministerium verrichtet. Unter den Green500-Rechnern gibt es Gerangel um den Spitzenplatz.

Weiterlesen
Die Top500-Organisation liefert zum Ergebnis auch ein paar statischische Informationen.  (© Top500.org)
Fugaku ist noch immer die Nummer 1 und Intel verliert

Die aktuelle Top500-Liste der Superrechner

Japans „Fugaku“ ist immer noch die Nummer 1 in der Top500-Liste der schnellsten Superrechner, die auf der 33. Supercomputing Conference in St. Louis, USA, vorgestellt wurde. Die Überraschung ist nicht groß, dass es immer noch kein Exascale-System gibt – jedenfalls kein offizielles. Dafür debütiert „Polaris“, der Supercomputer des Argonne National Laboratory in USA, bereits auf Platz 13.

Weiterlesen
Der neue „z16“-Mainframe soll Ende Mai erhältlich sein. (IBM)
Quantensichere Verschlüsselung, KI-gestützte Betrugserkennung

z16 erlaubt Echtzeit-KI für die Transaktionsverarbeitung und trotzt der Dechiffrierung durch Quantencomputer

Der neue IBM-Mainframe „z16“ nutzt den KI-Beschleuniger im „Telum“-Prozessor, um den KI-Schritt der Inferenz in Höchstgeschwindigkeit auszuführen. So soll es Kunden gelingen, etwa Betrugsversuche nahezu in Echtzeit abzuwenden. Die z16 soll die IT-Modernisierung in der Hybrid Cloud unterstützen und obendrein „quantensicher“ sein. Die allgemeine Verfügbarkeit des z16-Systems ist ab dem 31. Mai geplant.

Weiterlesen
Theoretisch können zwei IBM-Server „E1080“  126 x86-Server ersetzen.  (© IBM )
Hardware für die Hybrid Cloud - für hohe Ansprüche an Leistung, Effizienz und Sicherheit

IBM stellt das erste Power10-System vor

Mit dem Server „Power E1080“ hat IBM das erste System mit der 7-Nanometer-„Power10“-CPU vorgestellt, die von Samsung produziert wird. Das System, das Mitte September verfügbar werden soll, liefert laut Big Blue höhere Verarbeitungsgeschwindigkeit, größere Skalierbarkeit, mehr Sicherheit und schließlich mehr KI-Wumms. Drei weitere Server sollen bis 2022 folgen.

Weiterlesen
Die steigende Dichte und Hitze-Entwicklung in den High-Performance- und Supercomputing-Cluster erfordert Flüssigkühlung. Am „Wie“ wird noch getüftelt, wenngleich die Heißwasserkühlung bereits große Forschritte macht.  (gemeinfrei: Joel Filipe on Unsplash)
Blaues Blut und heißes Wasser

Kühlung und Klimatisierung in HPC-Clustern

Mit zunehmender Energiedichte in Servern, insbesondere in HPC-Clustern, wächst die Bedeutung der effizientesten Kühlungsmethode mit niedrigem PUE-Wert. Doch ob mit Luft, Kalt- oder Warmwasser oder gar mit einer Spezialflüssigkeit gekühlt wird, richtet sich nach den Wünschen des Kunden. Künftig wird wohl Software-Steuerung bei der Kühlung eine tragende Rolle spielen.

Weiterlesen
Der Weg zu mehr Nachhaltigkeit im Rechenzentrum und generell zu grüneren Website und allgemein umweltverträglicher IT ist kein Big Bang. Heute schon können Tools aber auch eine anderes Art des Programmierens helfen.  (Wim Arys auf Unsplash)
Tools, Techniken und Anreize für eine umweltschonende IT

Mit einfachen Schritten Internet und Rechenzentrum grüner machen

Trimmt man mit geeigneten Mitteln die Performance von Rechenzentren und Webseiten, so ist das gut fürs Klima – und für die Bilanz. Im Rahmen eines Symposiums der Sustainable Digital Infrastructure Alliance (SDIA) e.V. hat Chris Adams von The Green Web Foundation eine Reihe von Konzepten und Tools vor, um den 'Carbon Footprint' von Rechenzentren und Webseiten zu reduzieren.

Weiterlesen
Container Days locken Tausend der Cloud-native Community

Kubermatic, Luminis und Novatec bekommen Kubernetes-Cluster in den Griff

Auf den „Container Days 2022“ stellte Veranstalter Kubermatic den rund tausend Besuchern die neue Version 2.21 seiner „Kubermatic Kubernetes Platform“ vor. Sie bringt zahlreiche Erweiterungen, die besonders für Unternehmensanwender relevant sind. Partner wie Novatec oder Luminis zeigten, wie ihre APM-Tools helfen können, die Infrastruktur eines „K8S“-Clusters zu überwachen und zu tunen.

Weiterlesen
Das Produkt Supernova von Ayar Labs ist ein PIC, der als Multiplexer acht oder 16 Wellenlängen erzeugen kann. Das damit gelieferte Licht reicht für 256 Datenkanäle, die insgesamt 8,192 Tbit/s übertragen können.
 (Ayar Labs)
Die Lichtcomputer - kein Wham-Bang! aber ein stetiger Innovationsfluss

Silicon Photonics wird neue Rechner- und Datacenter-Architekturen hervorbringen

Die Silicon Photonics Technologie (SiPh), ein Segment der Photonik und Optoelektronik, überträgt Daten mit Licht statt mit Elektronen. Indem sie Glasfaserkabel und Transceiver nutzt, lassen sich derzeit Datenübertragungsraten von bis zu 1,6 Terabit/s (Tbit/s) erzielen, über 300 Meter Distanz ohne jeden Qualitätsverlust. Das energiesparende SiPh ist dazu angetan, zahlreiche Interconnect-Engpässe in der Netzwerk- und Storage-Infrastruktur zu beseitigen und Transaktionen in Echtzeit zu erlauben. Dies hat weitreichende Konsequenzen.

Weiterlesen
So funktioniert der Photonenschalter im einzelnen. Ein schwacher Laser (oben) und ein starker Laser (links oben) schicken Photonen in Substrat, das eine dünne Schickt Polaritonkondensat enthält. Diese Schicht schaltet zwischen 1 und 0 und erzeugt damit Signale, die sich verarbeiten lassen. 
 (© IBM)
Eine Billion Schaltoperationen pro Sekunde

Rechnen mit der Kraft des Photons

Forscher von IBM Research Europe und ihre Partner haben einen lichtgesteuerten Schalter entwickelt, der die Datenübertragung erheblich beschleunigen und zugleich den nötigen Energieaufwand senken kann. Künftige Endgeräte, aber auch Quantencomputer, könnten viel schneller rechnen, während ihre Energieversorgung viel länger reicht. Nötig sind dafür nur ein paar Teilchen des Lichts: Photonen.

Weiterlesen
Abbildung 3: Die neue „VMware Cloud Console“ soll Admins einen Überblick über seine Infrastruktur verschaffen.  (© VMware /Matzer)
Flachere Übergänge zwischen Cloud und on premises

VMware Cloud bekommt eine Universal-Lizenz

VMware hat am 31. März drei Neuheiten vorgestellt, die vor allem die „VMware Cloud“ betreffen. Diese läuft auf den Plattformen von AWS und Dell EMC sowie on-premises (als VCF). Eine neue Subskription soll den Multicloud- und Edge-Cloud-Betrieb erleichtern, eine Admin-Konsole die einheitliche Verwaltung ermöglichen und der neue „App Navigator“ „Tanzu“-Entwickler unterstützen.

Weiterlesen
Neben Multicloud war das Computing an der Edge das große Thema auf der diesjährigen VMworld. Hier gab es neue Produkte. Außerdem im Köcher: gezielte Unterstützung für KI-Hardware und HCI.  (VMware)
VMworld 2021

VMware thematisiert Edge, KI-Hardware und Partnerprojekte

VMware hat sich auf der „VMworld 2021“ in der vergangenen Woche zur Unterstützung der Multicloud und des Edge Computing bekannt. Mit der Präsentation von „VMware Edge“ und weiteren Projekten unterstreicht der Hersteller diese Ausrichtung. Eine Reihe von Technologiepartnern hat passende Ergänzungen vorgestellt, darunter Dell, Nvidia und Lenovo.

Weiterlesen
Intel HPC Scalable System Framework vereint die Disziplinen Compute, Memory/Storage, Fabric und Software. (Bild: Intel)
Lustre und Co.

Im HPC-Cluster müssen Filesysteme parallel arbeiten

Intel hat neue Versionen des „Lustre“-File-Systems angekündigt und baut damit sein „HPC Scalable System Framework“ erheblich aus. Parallele File-Systeme wie Apache Lustre sind entscheidend für die Performance von Clustern. An Alternativen zu Lustre fehlt es zum Glück nicht – gute Beispiele sind „IBM Spectrum Scale/GPFS“ und „BeeGFS“.

Weiterlesen