Michael Matzer ♥ DataCenter-Insider

Michael Matzer

Michael Matzer arbeitet als Journalist, Übersetzer, Rezensent und Buchautor und lebt in der Nähe von Stuttgart. Seine Themen sind u.a. IT-Security, Big Data, Unternehmenssoftware, E-Commerce und HPC.

Artikel des Autors

Nicht nur für Implementierungen im eignen Rechenzentrum haben Unternehmen die Wahl zwischen verschiedenen Prozessoren. Wie wäre es mit etwa mit „Graviton2“-Instanzen von AWS - einer ARM-basierten CPU?
ARM-CPUs in der Hyperscaler-Cloud (von AWS)

Mit Graviton2-Prozessoren höhere Leistung erzielen und zugleich sparen

Eine Reihe von Hyperscalern setzen modernste CPUs ein, um ihren Kunden Vorteile hinsichtlich Leistung und Preis anbieten zu können. Bislang waren „Intel-Xeon“- und “AMD-Epyc“-CPUs die Arbeitspferde der Compute-Instanzen, doch die neueste Generation von ARM-CPUs der „N1-Neoverse“-Plattform bietet Kunden die Option, bei höherer CPU-Leistung Nutzungsgebühren zu sparen. Diese heißen bei AWS „Graviton“.

Weiterlesen
Abbildung 3: Die neue „VMware Cloud Console“ soll Admins einen Überblick über seine Infrastruktur verschaffen.
Flachere Übergänge zwischen Cloud und on premises

VMware Cloud bekommt eine Universal-Lizenz

VMware hat am 31. März drei Neuheiten vorgestellt, die vor allem die „VMware Cloud“ betreffen. Diese läuft auf den Plattformen von AWS und Dell EMC sowie on-premises (als VCF). Eine neue Subskription soll den Multicloud- und Edge-Cloud-Betrieb erleichtern, eine Admin-Konsole die einheitliche Verwaltung ermöglichen und der neue „App Navigator“ „Tanzu“-Entwickler unterstützen.

Weiterlesen
Der Weg zu mehr Nachhaltigkeit im Rechenzentrum und generell zu grüneren Website und allgemein umweltverträglicher IT ist kein Big Bang. Heute schon können Tools aber auch eine anderes Art des Programmierens helfen.
Tools, Techniken und Anreize für eine umweltschonende IT

Mit einfachen Schritten Internet und Rechenzentrum grüner machen

Trimmt man mit geeigneten Mitteln die Performance von Rechenzentren und Webseiten, so ist das gut fürs Klima – und für die Bilanz. Im Rahmen eines Symposiums der Sustainable Digital Infrastructure Alliance (SDIA) e.V. hat Chris Adams von The Green Web Foundation eine Reihe von Konzepten und Tools vor, um den 'Carbon Footprint' von Rechenzentren und Webseiten zu reduzieren.

Weiterlesen
Abbildung 1: Die IBM-Roadmap für das Quantenrechnen ab dem Jahr 2021.
Quantencomputing bei IBM, Microsoft und AWS

IBM enthüllt Roadmap für Quantum Computing Software

Big Blue hat seine Produktplanung für Software vorgestellt, die auf seine Hardware „IBM Q System One“ eingesetzt werden kann. Die Roadmap reicht vom Jahr 2021 bis zum Jahr 2025. Darin spielen Open-Source-Software, die globale Entwicklergemeinde und die Cloud zentrale Rollen. AWS hat für seinen Service „Braket“ Neuerungen angekündigt und „Microsoft Azure Quantum“ ist endlich allgemein zugänglich.

Weiterlesen
Mit „Nutanix Central“ ist eine zentrale Konsole in der Entwicklung, die die Verwaltung mehrerer Clouds erlauben soll.
Zusammengefasst: Die „Global.NEXT Digital Experience“

Nutanix treibt Multi-Cloud-Strategie voran

Der HCI-Anbieter Nutanix verfolgt eine Multi- und Hybrid-Cloud-Strategie, um seinen On-premises-Kunden zusätzliche Optionen zu bieten. Die bestehende Partnerschaft mit Amazon (AWS) wird durch eine mit MS Azure ergänzt. Um diese gemischte Infrastruktur zu unterstützen, lanciert Nutanix Kubernetes als Platform-as-a-Service „Karbon“. „Nutanix Central“ soll bald in der Lage sein, mehrere Clouds gleichzeitig zu verwalten. Die Security-Komponente " Flow Security Central" ist ebenfalls angekündigt.

Weiterlesen
Außenposten, „Outposts“, nennt AWS seine Appliances, die in den Rechenzentren der Kunden stehen. Merkwürdig, dass Cloud ´drinnen` bedeutet und die eigene IT ´außen und so weit weg erscheint, als befände sie sich auf dem Mond.
Azure Stack, AWS Outposts und der Apache Cloud Stack

Die Cloud Stack Appliances von AWS im Vergleich zu OpenSource und Microsoft

Cloud Stack Appliances wie „MS Azure Stack“ oder „AWS Outposts“ versprechen, die Vorteile einer Public Cloud in die Private Cloud des Firmenrechenzentrums zu bringen. Doch nicht nur die Einführung der Appliance will durchdacht sein, sondern auch ihre Anschaffung. Je nach Bezahlmodell kann der Preis bis zu eine Million Dollar erreichen (bei AWS). Und falls oder sobald das Gerät nicht mehr zum geplanten Verwendungszweck passt, muss man es auch wieder loswerden.

Weiterlesen
Mit 88 registrierten Teilnehmern war das „AMC Summercamp 2019“ in Böblingen gut besucht. Mehr als 70 Studenten, Fachinformatiker und Young Professionals kamen.
Academic Mainframe Consortium“ und der European Mainframe Academy AG

Erstes Mainframe-Summercamp in Deutschland

Der „Dino“ Mainframe lebt und ist interessanter denn je. Zwar will kaum ein Unternehmen, das ihn im Keller stehen hat, über seinen Einsatz sprechen, aber mit Großrechnern werden täglich Milliarden von Transaktionen und Flugbuchungen vorgenommen. Zwar schon etwa her, aber auf einem „Summercamp“ im Forschungslabor der IBM tauschten vorwiegend studentische Interessenten Ansichten und Informationen mit Experten aus.

Weiterlesen
Das Produkt Supernova von Ayar Labs ist ein PIC, der als Multiplexer acht oder 16 Wellenlängen erzeugen kann. Das damit gelieferte Licht reicht für 256 Datenkanäle, die insgesamt 8,192 Tbit/s übertragen können.
Die Lichtcomputer - kein Wham-Bang! aber ein stetiger Innovationsfluss

Silicon Photonics wird neue Rechner- und Datacenter-Architekturen hervorbringen

Die Silicon Photonics Technologie (SiPh), ein Segment der Photonik und Optoelektronik, überträgt Daten mit Licht statt mit Elektronen. Indem sie Glasfaserkabel und Transceiver nutzt, lassen sich derzeit Datenübertragungsraten von bis zu 1,6 Terabit/s (Tbit/s) erzielen, über 300 Meter Distanz ohne jeden Qualitätsverlust. Das energiesparende SiPh ist dazu angetan, zahlreiche Interconnect-Engpässe in der Netzwerk- und Storage-Infrastruktur zu beseitigen und Transaktionen in Echtzeit zu erlauben. Dies hat weitreichende Konsequenzen.

Weiterlesen
Die steigende Dichte und Hitze-Entwicklung in den High-Performance- und Supercomputing-Cluster erfordert Flüssigkühlung. Am „Wie“ wird noch getüftelt, wenngleich die Heißwasserkühlung bereits große Forschritte macht.
Blaues Blut und heißes Wasser

Kühlung und Klimatisierung in HPC-Clustern

Mit zunehmender Energiedichte in Servern, insbesondere in HPC-Clustern, wächst die Bedeutung der effizientesten Kühlungsmethode mit niedrigem PUE-Wert. Doch ob mit Luft, Kalt- oder Warmwasser oder gar mit einer Spezialflüssigkeit gekühlt wird, richtet sich nach den Wünschen des Kunden. Künftig wird wohl Software-Steuerung bei der Kühlung eine tragende Rolle spielen.

Weiterlesen
HPC-Simulation des Molekültransports in einer Zellorganelle, dem Endoplasmatischen Retikulum, dessen komplexe Geometrie die Transportprozesse bestimmt.
HPC und KI im Einsatz für Bilderkennung und Simulation in der Systembiologie

Zusehen und verstehen, wie sich Leben entwickelt

Künstliche Intelligenz und HPC helfen Systembiologen in Dresden bei der Forschung und Visualisierung. Ivo Sbalzarini und sein Team haben am Center for Systems Biology Dresden (CSBD) des Max-Planck-Instituts für Molekulare Zellbiologie und Genetik (MPI-CBG) und der Technischen Universität Dresden ein IT-Framework mit neuer Beschreibungssprache für Algorithmen entwickelt. Der Professor hat sein Projekt auf der ISC 2019 in Frankfurt/Main vorgestellt.

Weiterlesen
Eine Wagon-Intelligence-Telematikeinheit an einem Containertragwagen. Bereits über 25.000 Wagen wurden damit ausgerüstet. Die gesamte Flotte folgt bis 2020.
Splunk im Einsatz bei DB Cargo

Digitalisierung für mehr Qualität und Service im Schienengüterverkehr

„Splunk Enterprise“, das Hauptprodukt des Operational-Intelligence-Spezialisten Splunk, ist bei DB Cargo im Einsatz, der Güterbahnsparte der Deutschen Bahn. Im Zuge der Digitalisierung und Automatisierung des Güterverkehrs und des Fuhrparks hilft die Software bei der Datenerfassung und -analyse in den Projekten „Wagon Intelligence“ und „Techlok“. Die Software-Entwicklung der beiden Projekte findet im DB Cargo Amspire Lab in Frankfurt am Main statt.

Weiterlesen
Abbildung 1: Die IBM-Roadmap für das Quantenrechnen ab dem Jahr 2021.
Quantencomputing bei IBM, Microsoft und AWS

IBM enthüllt Roadmap für Quantum Computing Software

Big Blue hat seine Produktplanung für Software vorgestellt, die auf seine Hardware „IBM Q System One“ eingesetzt werden kann. Die Roadmap reicht vom Jahr 2021 bis zum Jahr 2025. Darin spielen Open-Source-Software, die globale Entwicklergemeinde und die Cloud zentrale Rollen. AWS hat für seinen Service „Braket“ Neuerungen angekündigt und „Microsoft Azure Quantum“ ist endlich allgemein zugänglich.

Weiterlesen
Der Weg zu mehr Nachhaltigkeit im Rechenzentrum und generell zu grüneren Website und allgemein umweltverträglicher IT ist kein Big Bang. Heute schon können Tools aber auch eine anderes Art des Programmierens helfen.
Tools, Techniken und Anreize für eine umweltschonende IT

Mit einfachen Schritten Internet und Rechenzentrum grüner machen

Trimmt man mit geeigneten Mitteln die Performance von Rechenzentren und Webseiten, so ist das gut fürs Klima – und für die Bilanz. Im Rahmen eines Symposiums der Sustainable Digital Infrastructure Alliance (SDIA) e.V. hat Chris Adams von The Green Web Foundation eine Reihe von Konzepten und Tools vor, um den 'Carbon Footprint' von Rechenzentren und Webseiten zu reduzieren.

Weiterlesen
Nicht nur für Implementierungen im eignen Rechenzentrum haben Unternehmen die Wahl zwischen verschiedenen Prozessoren. Wie wäre es mit etwa mit „Graviton2“-Instanzen von AWS - einer ARM-basierten CPU?
ARM-CPUs in der Hyperscaler-Cloud (von AWS)

Mit Graviton2-Prozessoren höhere Leistung erzielen und zugleich sparen

Eine Reihe von Hyperscalern setzen modernste CPUs ein, um ihren Kunden Vorteile hinsichtlich Leistung und Preis anbieten zu können. Bislang waren „Intel-Xeon“- und “AMD-Epyc“-CPUs die Arbeitspferde der Compute-Instanzen, doch die neueste Generation von ARM-CPUs der „N1-Neoverse“-Plattform bietet Kunden die Option, bei höherer CPU-Leistung Nutzungsgebühren zu sparen. Diese heißen bei AWS „Graviton“.

Weiterlesen
Abbildung 3: Die neue „VMware Cloud Console“ soll Admins einen Überblick über seine Infrastruktur verschaffen.
Flachere Übergänge zwischen Cloud und on premises

VMware Cloud bekommt eine Universal-Lizenz

VMware hat am 31. März drei Neuheiten vorgestellt, die vor allem die „VMware Cloud“ betreffen. Diese läuft auf den Plattformen von AWS und Dell EMC sowie on-premises (als VCF). Eine neue Subskription soll den Multicloud- und Edge-Cloud-Betrieb erleichtern, eine Admin-Konsole die einheitliche Verwaltung ermöglichen und der neue „App Navigator“ „Tanzu“-Entwickler unterstützen.

Weiterlesen
Mit „Nutanix Central“ ist eine zentrale Konsole in der Entwicklung, die die Verwaltung mehrerer Clouds erlauben soll.
Zusammengefasst: Die „Global.NEXT Digital Experience“

Nutanix treibt Multi-Cloud-Strategie voran

Der HCI-Anbieter Nutanix verfolgt eine Multi- und Hybrid-Cloud-Strategie, um seinen On-premises-Kunden zusätzliche Optionen zu bieten. Die bestehende Partnerschaft mit Amazon (AWS) wird durch eine mit MS Azure ergänzt. Um diese gemischte Infrastruktur zu unterstützen, lanciert Nutanix Kubernetes als Platform-as-a-Service „Karbon“. „Nutanix Central“ soll bald in der Lage sein, mehrere Clouds gleichzeitig zu verwalten. Die Security-Komponente " Flow Security Central" ist ebenfalls angekündigt.

Weiterlesen
Außenposten, „Outposts“, nennt AWS seine Appliances, die in den Rechenzentren der Kunden stehen. Merkwürdig, dass Cloud ´drinnen` bedeutet und die eigene IT ´außen und so weit weg erscheint, als befände sie sich auf dem Mond.
Azure Stack, AWS Outposts und der Apache Cloud Stack

Die Cloud Stack Appliances von AWS im Vergleich zu OpenSource und Microsoft

Cloud Stack Appliances wie „MS Azure Stack“ oder „AWS Outposts“ versprechen, die Vorteile einer Public Cloud in die Private Cloud des Firmenrechenzentrums zu bringen. Doch nicht nur die Einführung der Appliance will durchdacht sein, sondern auch ihre Anschaffung. Je nach Bezahlmodell kann der Preis bis zu eine Million Dollar erreichen (bei AWS). Und falls oder sobald das Gerät nicht mehr zum geplanten Verwendungszweck passt, muss man es auch wieder loswerden.

Weiterlesen
Mit 88 registrierten Teilnehmern war das „AMC Summercamp 2019“ in Böblingen gut besucht. Mehr als 70 Studenten, Fachinformatiker und Young Professionals kamen.
Academic Mainframe Consortium“ und der European Mainframe Academy AG

Erstes Mainframe-Summercamp in Deutschland

Der „Dino“ Mainframe lebt und ist interessanter denn je. Zwar will kaum ein Unternehmen, das ihn im Keller stehen hat, über seinen Einsatz sprechen, aber mit Großrechnern werden täglich Milliarden von Transaktionen und Flugbuchungen vorgenommen. Zwar schon etwa her, aber auf einem „Summercamp“ im Forschungslabor der IBM tauschten vorwiegend studentische Interessenten Ansichten und Informationen mit Experten aus.

Weiterlesen
Die steigende Dichte und Hitze-Entwicklung in den High-Performance- und Supercomputing-Cluster erfordert Flüssigkühlung. Am „Wie“ wird noch getüftelt, wenngleich die Heißwasserkühlung bereits große Forschritte macht.
Blaues Blut und heißes Wasser

Kühlung und Klimatisierung in HPC-Clustern

Mit zunehmender Energiedichte in Servern, insbesondere in HPC-Clustern, wächst die Bedeutung der effizientesten Kühlungsmethode mit niedrigem PUE-Wert. Doch ob mit Luft, Kalt- oder Warmwasser oder gar mit einer Spezialflüssigkeit gekühlt wird, richtet sich nach den Wünschen des Kunden. Künftig wird wohl Software-Steuerung bei der Kühlung eine tragende Rolle spielen.

Weiterlesen
Das Produkt Supernova von Ayar Labs ist ein PIC, der als Multiplexer acht oder 16 Wellenlängen erzeugen kann. Das damit gelieferte Licht reicht für 256 Datenkanäle, die insgesamt 8,192 Tbit/s übertragen können.
Die Lichtcomputer - kein Wham-Bang! aber ein stetiger Innovationsfluss

Silicon Photonics wird neue Rechner- und Datacenter-Architekturen hervorbringen

Die Silicon Photonics Technologie (SiPh), ein Segment der Photonik und Optoelektronik, überträgt Daten mit Licht statt mit Elektronen. Indem sie Glasfaserkabel und Transceiver nutzt, lassen sich derzeit Datenübertragungsraten von bis zu 1,6 Terabit/s (Tbit/s) erzielen, über 300 Meter Distanz ohne jeden Qualitätsverlust. Das energiesparende SiPh ist dazu angetan, zahlreiche Interconnect-Engpässe in der Netzwerk- und Storage-Infrastruktur zu beseitigen und Transaktionen in Echtzeit zu erlauben. Dies hat weitreichende Konsequenzen.

Weiterlesen