Michael Matzer ♥ DataCenter-Insider

Michael Matzer

Michael Matzer arbeitet als Journalist, Übersetzer, Rezensent und Buchautor und lebt in der Nähe von Stuttgart. Seine Themen sind u.a. IT-Security, Big Data, Unternehmenssoftware, E-Commerce und HPC.

Artikel des Autors

Mit „Nutanix Central“ ist eine zentrale Konsole in der Entwicklung, die die Verwaltung mehrerer Clouds erlauben soll.
Zusammengefasst: Die „Global.NEXT Digital Experience“

Nutanix treibt Multi-Cloud-Strategie voran

Der HCI-Anbieter Nutanix verfolgt eine Multi- und Hybrid-Cloud-Strategie, um seinen On-premises-Kunden zusätzliche Optionen zu bieten. Die bestehende Partnerschaft mit Amazon (AWS) wird durch eine mit MS Azure ergänzt. Um diese gemischte Infrastruktur zu unterstützen, lanciert Nutanix Kubernetes als Platform-as-a-Service „Karbon“. „Nutanix Central“ soll bald in der Lage sein, mehrere Clouds gleichzeitig zu verwalten. Die Security-Komponente " Flow Security Central" ist ebenfalls angekündigt.

Weiterlesen
Außenposten, „Outposts“, nennt AWS seine Appliances, die in den Rechenzentren der Kunden stehen. Merkwürdig, dass Cloud ´drinnen` bedeutet und die eigene IT ´außen und so weit weg erscheint, als befände sie sich auf dem Mond.
Azure Stack, AWS Outposts und der Apache Cloud Stack

Die Cloud Stack Appliances von AWS im Vergleich zu OpenSource und Microsoft

Cloud Stack Appliances wie „MS Azure Stack“ oder „AWS Outposts“ versprechen, die Vorteile einer Public Cloud in die Private Cloud des Firmenrechenzentrums zu bringen. Doch nicht nur die Einführung der Appliance will durchdacht sein, sondern auch ihre Anschaffung. Je nach Bezahlmodell kann der Preis bis zu eine Million Dollar erreichen (bei AWS). Und falls oder sobald das Gerät nicht mehr zum geplanten Verwendungszweck passt, muss man es auch wieder loswerden.

Weiterlesen
Mit 88 registrierten Teilnehmern war das „AMC Summercamp 2019“ in Böblingen gut besucht. Mehr als 70 Studenten, Fachinformatiker und Young Professionals kamen.
Academic Mainframe Consortium“ und der European Mainframe Academy AG

Erstes Mainframe-Summercamp in Deutschland

Der „Dino“ Mainframe lebt und ist interessanter denn je. Zwar will kaum ein Unternehmen, das ihn im Keller stehen hat, über seinen Einsatz sprechen, aber mit Großrechnern werden täglich Milliarden von Transaktionen und Flugbuchungen vorgenommen. Zwar schon etwa her, aber auf einem „Summercamp“ im Forschungslabor der IBM tauschten vorwiegend studentische Interessenten Ansichten und Informationen mit Experten aus.

Weiterlesen
Das Produkt Supernova von Ayar Labs ist ein PIC, der als Multiplexer acht oder 16 Wellenlängen erzeugen kann. Das damit gelieferte Licht reicht für 256 Datenkanäle, die insgesamt 8,192 Tbit/s übertragen können.
Die Lichtcomputer - kein Wham-Bang! aber ein stetiger Innovationsfluss

Silicon Photonics wird neue Rechner- und Datacenter-Architekturen hervorbringen

Die Silicon Photonics Technologie (SiPh), ein Segment der Photonik und Optoelektronik, überträgt Daten mit Licht statt mit Elektronen. Indem sie Glasfaserkabel und Transceiver nutzt, lassen sich derzeit Datenübertragungsraten von bis zu 1,6 Terabit/s (Tbit/s) erzielen, über 300 Meter Distanz ohne jeden Qualitätsverlust. Das energiesparende SiPh ist dazu angetan, zahlreiche Interconnect-Engpässe in der Netzwerk- und Storage-Infrastruktur zu beseitigen und Transaktionen in Echtzeit zu erlauben. Dies hat weitreichende Konsequenzen.

Weiterlesen
Die steigende Dichte und Hitze-Entwicklung in den High-Performance- und Supercomputing-Cluster erfordert Flüssigkühlung. Am „Wie“ wird noch getüftelt, wenngleich die Heißwasserkühlung bereits große Forschritte macht.
Blaues Blut und heißes Wasser

Kühlung und Klimatisierung in HPC-Clustern

Mit zunehmender Energiedichte in Servern, insbesondere in HPC-Clustern, wächst die Bedeutung der effizientesten Kühlungsmethode mit niedrigem PUE-Wert. Doch ob mit Luft, Kalt- oder Warmwasser oder gar mit einer Spezialflüssigkeit gekühlt wird, richtet sich nach den Wünschen des Kunden. Künftig wird wohl Software-Steuerung bei der Kühlung eine tragende Rolle spielen.

Weiterlesen
HPC-Simulation des Molekültransports in einer Zellorganelle, dem Endoplasmatischen Retikulum, dessen komplexe Geometrie die Transportprozesse bestimmt.
HPC und KI im Einsatz für Bilderkennung und Simulation in der Systembiologie

Zusehen und verstehen, wie sich Leben entwickelt

Künstliche Intelligenz und HPC helfen Systembiologen in Dresden bei der Forschung und Visualisierung. Ivo Sbalzarini und sein Team haben am Center for Systems Biology Dresden (CSBD) des Max-Planck-Instituts für Molekulare Zellbiologie und Genetik (MPI-CBG) und der Technischen Universität Dresden ein IT-Framework mit neuer Beschreibungssprache für Algorithmen entwickelt. Der Professor hat sein Projekt auf der ISC 2019 in Frankfurt/Main vorgestellt.

Weiterlesen
Eine Wagon-Intelligence-Telematikeinheit an einem Containertragwagen. Bereits über 25.000 Wagen wurden damit ausgerüstet. Die gesamte Flotte folgt bis 2020.
Splunk im Einsatz bei DB Cargo

Digitalisierung für mehr Qualität und Service im Schienengüterverkehr

„Splunk Enterprise“, das Hauptprodukt des Operational-Intelligence-Spezialisten Splunk, ist bei DB Cargo im Einsatz, der Güterbahnsparte der Deutschen Bahn. Im Zuge der Digitalisierung und Automatisierung des Güterverkehrs und des Fuhrparks hilft die Software bei der Datenerfassung und -analyse in den Projekten „Wagon Intelligence“ und „Techlok“. Die Software-Entwicklung der beiden Projekte findet im DB Cargo Amspire Lab in Frankfurt am Main statt.

Weiterlesen
Data Preparation kostet Zeit, ist aber unerlässlich. Geeignete Tools können den Prozess beschleunigen und vereinfachen.
Data Preparation

Datenaufbereitung ist ein unterschätzter Prozess

Der Prozess der Datenaufbereitung umfasst die Reinigung, Formung und Mischung von Daten, damit sie für analytische und andere Aufgaben in optimaler Qualität bereitstehen. Nur mit erstklassigen Daten lassen sich beispielsweise Lösungen für Machine Learning und Künstliche Intelligenz effizient, sicher und zuverlässig versorgen.

Weiterlesen
Bühne frei für die erste Keynote!
Nachbericht Splunk .conf 2018

Alexa spricht Splunk

Splunk, ein Spezialist für die Analyse von Maschinendaten, etwa aus dem Datacenter, adressiert eine breitere Nutzerschicht, nämlich die Mitarbeiter in den Fachbereichen. Zahlreiche neue Funktionen, wie etwa mobile Apps und Sprachausgabe, sollen ihnen das Leben erleichtern. Neben zahlreichen Neuerungen in den Kernprodukten stellte Splunk seine eigene IIoT-Plattform für Industrie 4.0 vor.

Weiterlesen
Mit „Nutanix Central“ ist eine zentrale Konsole in der Entwicklung, die die Verwaltung mehrerer Clouds erlauben soll.
Zusammengefasst: Die „Global.NEXT Digital Experience“

Nutanix treibt Multi-Cloud-Strategie voran

Der HCI-Anbieter Nutanix verfolgt eine Multi- und Hybrid-Cloud-Strategie, um seinen On-premises-Kunden zusätzliche Optionen zu bieten. Die bestehende Partnerschaft mit Amazon (AWS) wird durch eine mit MS Azure ergänzt. Um diese gemischte Infrastruktur zu unterstützen, lanciert Nutanix Kubernetes als Platform-as-a-Service „Karbon“. „Nutanix Central“ soll bald in der Lage sein, mehrere Clouds gleichzeitig zu verwalten. Die Security-Komponente " Flow Security Central" ist ebenfalls angekündigt.

Weiterlesen
Außenposten, „Outposts“, nennt AWS seine Appliances, die in den Rechenzentren der Kunden stehen. Merkwürdig, dass Cloud ´drinnen` bedeutet und die eigene IT ´außen und so weit weg erscheint, als befände sie sich auf dem Mond.
Azure Stack, AWS Outposts und der Apache Cloud Stack

Die Cloud Stack Appliances von AWS im Vergleich zu OpenSource und Microsoft

Cloud Stack Appliances wie „MS Azure Stack“ oder „AWS Outposts“ versprechen, die Vorteile einer Public Cloud in die Private Cloud des Firmenrechenzentrums zu bringen. Doch nicht nur die Einführung der Appliance will durchdacht sein, sondern auch ihre Anschaffung. Je nach Bezahlmodell kann der Preis bis zu eine Million Dollar erreichen (bei AWS). Und falls oder sobald das Gerät nicht mehr zum geplanten Verwendungszweck passt, muss man es auch wieder loswerden.

Weiterlesen
Mit 88 registrierten Teilnehmern war das „AMC Summercamp 2019“ in Böblingen gut besucht. Mehr als 70 Studenten, Fachinformatiker und Young Professionals kamen.
Academic Mainframe Consortium“ und der European Mainframe Academy AG

Erstes Mainframe-Summercamp in Deutschland

Der „Dino“ Mainframe lebt und ist interessanter denn je. Zwar will kaum ein Unternehmen, das ihn im Keller stehen hat, über seinen Einsatz sprechen, aber mit Großrechnern werden täglich Milliarden von Transaktionen und Flugbuchungen vorgenommen. Zwar schon etwa her, aber auf einem „Summercamp“ im Forschungslabor der IBM tauschten vorwiegend studentische Interessenten Ansichten und Informationen mit Experten aus.

Weiterlesen
Das Intel HPC Scalable System Framework vereint Compute, Memory/Storage, Fabric und Software.
Lustre und Co.

Im HPC-Cluster müssen Filesysteme parallel arbeiten

Intel hat neue Versionen des „Lustre“-File-Systems angekündigt und baut damit sein „HPC Scalable System Framework“ erheblich aus. Parallele File-Systeme wie Apache Lustre sind entscheidend für die Performance von Clustern. An Alternativen zu Lustre fehlt es zum Glück nicht – gute Beispiele sind „IBM Spectrum Scale/GPFS“ und „BeeGFS“.

Weiterlesen
Cassandra Enterprise umfasst zahlreiche Leistungsmerkmale, die für Unternehmensnutzer wichtig sind.
NoSQL

NoSQL-Datenbanken im Vergleich

NoSQL-Datenbanken sind erdacht, um große, unterschiedliche Mengen von Dimensionen wie Raum, Zeit und Lokation auf möglichst effiziente Weise zu speichern und zu verarbeiten. Mittlerweile sind sie die unabdingbare Alternative zu relationalen SQL-basierten Datenbanken. Doch nicht jede NoSQL-Datenbank eignet sich für jeden Zweck. Tatsächlich sind die meisten sogar recht spezialisiert.

Weiterlesen