Michael Matzer ♥ DataCenter-Insider

Michael Matzer

Michael Matzer arbeitet als Journalist, Übersetzer, Rezensent und Buchautor und lebt in der Nähe von Stuttgart. Seine Themen sind u.a. IT-Security, Big Data, Unternehmenssoftware, E-Commerce und HPC.

Artikel des Autors

Red Hat bringt KI und 'Weisheit' in die Datacenter-Automatisierung (Bild: gemeinfrei: Gerd Altmann)
KI und Weisheit unter dem roten Hut

Red Hat stellt seine Automatisierungsplattform für AWS und Azure bereit

Red Hat hat auf seiner kürzlich stattgefundenen Konferenz „AnsibleFest“ drei Neuheiten angekündigt, darunter: Die „Red Hat Automation Platform 2.3“ (AAP), die bislang als verwalteter Service für MS Azure angeboten wurde, wird künftig als selbstverwalteter Dienst weltweit auf den beiden öffentlichen Marktplätzen von „MS Azure“ sowie von Amazon Web Services (AWS) erhältlich.

Weiterlesen
Logo der „Container Days 2022“, die vom 5. bis zum 7. September stattgefunden haben. (Bild: Kubermatic)
Container Days locken Tausend der Cloud-native Community

Kubermatic, Luminis und Novatec bekommen Kubernetes-Cluster in den Griff

Auf den „Container Days 2022“ stellte Veranstalter Kubermatic den rund tausend Besuchern die neue Version 2.21 seiner „Kubermatic Kubernetes Platform“ vor. Sie bringt zahlreiche Erweiterungen, die besonders für Unternehmensanwender relevant sind. Partner wie Novatec oder Luminis zeigten, wie ihre APM-Tools helfen können, die Infrastruktur eines „K8S“-Clusters zu überwachen und zu tunen.

Weiterlesen
Der neue „z16“-Mainframe soll Ende Mai erhältlich sein. (IBM)
Quantensichere Verschlüsselung, KI-gestützte Betrugserkennung

z16 erlaubt Echtzeit-KI für die Transaktionsverarbeitung und trotzt der Dechiffrierung durch Quantencomputer

Der neue IBM-Mainframe „z16“ nutzt den KI-Beschleuniger im „Telum“-Prozessor, um den KI-Schritt der Inferenz in Höchstgeschwindigkeit auszuführen. So soll es Kunden gelingen, etwa Betrugsversuche nahezu in Echtzeit abzuwenden. Die z16 soll die IT-Modernisierung in der Hybrid Cloud unterstützen und obendrein „quantensicher“ sein. Die allgemeine Verfügbarkeit des z16-Systems ist ab dem 31. Mai geplant.

Weiterlesen
Für die Forschung in Industrie und Wissenschaft könnenn die Computersysteme gar nicht mächtig genug sein. Doch High Performance Computing hält, oft zusammen mit KI, auch längst Einzug in die Enterprise-IT.  ( Alex Myers auf Pixabay)
Marktforschung von Hyperion Research

HPC-Markt: Starkes Wachstum für GPUs, HPC-Cloud und KI-Systeme

Die Auguren von Hyperion Research bescheinigen dem HPC-Markt in 2021 nach einem Wachstum auf 28 Milliarden Dollar in 2020 ( plus 1,1 Prozent) ein erhebliches Wachstum. Es basiert auf Hochleistungsinformatik in der Cloud, dem raschen Einsatz von GPUs, Großrechnerverkäufen wie Japans „Fugaku“ (1 Milliarde Dollar) sowie auf allem, was mit KI zu tun hat. Die Risiken sind weiterhin der Verlauf der Pandemie und die Probleme in den IT-Lieferketten.

Weiterlesen
Die Top500-Organisation liefert zum Ergebnis auch ein paar statischische Informationen.  (© Top500.org)
Fugaku ist noch immer die Nummer 1 und Intel verliert

Die aktuelle Top500-Liste der Superrechner

Japans „Fugaku“ ist immer noch die Nummer 1 in der Top500-Liste der schnellsten Superrechner, die auf der 33. Supercomputing Conference in St. Louis, USA, vorgestellt wurde. Die Überraschung ist nicht groß, dass es immer noch kein Exascale-System gibt – jedenfalls kein offizielles. Dafür debütiert „Polaris“, der Supercomputer des Argonne National Laboratory in USA, bereits auf Platz 13.

Weiterlesen
Die Hauptzutat für RUM ist bei Splunk ist nicht Zuckerrohr, hier bedeutet RUM: Real User Monitoring und das besteht im Wesentlichen aus Daten.  (Bild:  Felix Wolf auf Pixabay)
.conf 2021: Zahlreiche Produkt-News, ein neues Partnermodell und Workload-gemäße Preise

Splunk expandiert mit Observability Suite im APM-Markt

Splunk treibt seine Expansion im APM-Markt mit der Observability Suite weiter voran. Um Projekte für die digitale Transformation zu unterstützen, erweitert es seine Splunk Enterprise Cloud um neue Daten-Management-Funktionen. Folgenreich dürfte die neue Workload-basierte Preisgestaltung, die auf der „.conf 2021“ angekündigt wurde, für viele Kunden werden.

Weiterlesen
Veritas stellt seine SDI-Lösung InfoScale nun auch als Container für Kubernetes-Plattformen zur Verfügung. (gemeinfrei)
Der nächste Schritt für Infoscale

Veritas Infoscale als Container für Kubernetes verfügbar

Veritas, ein Spezialist für Storage, Backup und Disaster Recovery sowie Business Continuity, hat seine SDI-Software „Infoscale“ als Container für Kubernetes-Plattformen, inklusive „Red Hat Openshift“, verfügbar gemacht. Dieser Schritt soll es vereinfachen, die kritischen Stateful-Workloads, die in Containern laufen, mit der Hochverfügbarkeit, dem persistente Speicher und der Speicheroptimierung von Infoscale zu versehen.

Weiterlesen
Neben Multicloud war das Computing an der Edge das große Thema auf der diesjährigen VMworld. Hier gab es neue Produkte. Außerdem im Köcher: gezielte Unterstützung für KI-Hardware und HCI.  (VMware)
VMworld 2021

VMware thematisiert Edge, KI-Hardware und Partnerprojekte

VMware hat sich auf der „VMworld 2021“ in der vergangenen Woche zur Unterstützung der Multicloud und des Edge Computing bekannt. Mit der Präsentation von „VMware Edge“ und weiteren Projekten unterstreicht der Hersteller diese Ausrichtung. Eine Reihe von Technologiepartnern hat passende Ergänzungen vorgestellt, darunter Dell, Nvidia und Lenovo.

Weiterlesen
So funktioniert der Photonenschalter im einzelnen. Ein schwacher Laser (oben) und ein starker Laser (links oben) schicken Photonen in Substrat, das eine dünne Schickt Polaritonkondensat enthält. Diese Schicht schaltet zwischen 1 und 0 und erzeugt damit Signale, die sich verarbeiten lassen. 
 (© IBM)
Eine Billion Schaltoperationen pro Sekunde

Rechnen mit der Kraft des Photons

Forscher von IBM Research Europe und ihre Partner haben einen lichtgesteuerten Schalter entwickelt, der die Datenübertragung erheblich beschleunigen und zugleich den nötigen Energieaufwand senken kann. Künftige Endgeräte, aber auch Quantencomputer, könnten viel schneller rechnen, während ihre Energieversorgung viel länger reicht. Nötig sind dafür nur ein paar Teilchen des Lichts: Photonen.

Weiterlesen
Das Logo der Tibco Now 2021 (Tibco)
Nachbericht Tibco Now 2021

Tibco führt neues Werkzeug für Datenqualität ein

Tibco hat auf der Anwenderkonferenz „Tibco Now 2021“ eine Reihe von Neuheiten in den drei Sparten „Connect“, „Predict“ und „Unify“ präsentiert. Die meisten sind Weiterentwicklungen des Vorhandenen, doch „Tibco Omni-gen DQ“ ist neu in der Tibco-Produktfamilie. Dieses Werkzeug erzeugt „kuratierte“ Daten, die von anderen Applikationen konsumiert werden, und bildet damit eine DQ-Firewall zur Standardisierung und Qualitätssicherung von Daten.

Weiterlesen
Theoretisch können zwei IBM-Server „E1080“  126 x86-Server ersetzen.  (© IBM )
Hardware für die Hybrid Cloud - für hohe Ansprüche an Leistung, Effizienz und Sicherheit

IBM stellt das erste Power10-System vor

Mit dem Server „Power E1080“ hat IBM das erste System mit der 7-Nanometer-„Power10“-CPU vorgestellt, die von Samsung produziert wird. Das System, das Mitte September verfügbar werden soll, liefert laut Big Blue höhere Verarbeitungsgeschwindigkeit, größere Skalierbarkeit, mehr Sicherheit und schließlich mehr KI-Wumms. Drei weitere Server sollen bis 2022 folgen.

Weiterlesen
Microchip Technology hat drei neue HBA-Adapter seiner Adaptec-Reihe für Rechenzentren und OEMs im Portfolio. (© vladimircaribb - stock.adobe.com)
Adapter für Storage in Rechenzentren

Microchip bietet neue HBA-Adapter an

Der Komponentenhersteller Microchip hat die Verfügbarkeit dreier neuer HBA-Adapter seiner „Adaptec“-Reihe für Rechenzentren und OEMs verlautbart, die NVMe-SSDs und Disk-Arrays unterstützen. Neben „Smart HBA 2200“ und dem „1200 Host Bus Adapter“ bildet der „3200 RAID Adapter“ das Flaggschiff. Er ist für PCIe 4, NVMe, 24G-SAS und RAID ausgestattet, verschlüsselt aber auch ruhende Daten.

Weiterlesen
Der Fugaku-Supercomputer von Fujitsu steht in Tokio am Riken Center for Computational Science. Er landet bereits das dritte Mal auf Platz 1 der Top500-Liste   (© RIKEN )
Fugaku bekleidet erneut den ersten Rang

Platzwechsel unter den Top Ten der Top500-Superrechner

Auf der International Supercomputing Conference (ISC) 2021 hat die Organisation Top500 die Spitzenreiter unter den 500 schnellsten Superrechnern vorgestellt. Während Fugaku seine Spitzenposition im 57. Ranking halten kann, steigt auf Platz 5 der Rechner „Perlmutter“ ein, der am Lawrence Berkeley National Laboratory seine Arbeit für das US-Energieministerium verrichtet. Unter den Green500-Rechnern gibt es Gerangel um den Spitzenplatz.

Weiterlesen
Nicht nur für Implementierungen im eignen Rechenzentrum haben Unternehmen die Wahl zwischen verschiedenen Prozessoren. Wie wäre es mit etwa mit „Graviton2“-Instanzen von AWS - einer ARM-basierten CPU? (Gerd Altmann auf Pixabay)
ARM-CPUs in der Hyperscaler-Cloud (von AWS)

Mit Graviton2-Prozessoren höhere Leistung erzielen und zugleich sparen

Eine Reihe von Hyperscalern setzen modernste CPUs ein, um ihren Kunden Vorteile hinsichtlich Leistung und Preis anbieten zu können. Bislang waren „Intel-Xeon“- und “AMD-Epyc“-CPUs die Arbeitspferde der Compute-Instanzen, doch die neueste Generation von ARM-CPUs der „N1-Neoverse“-Plattform bietet Kunden die Option, bei höherer CPU-Leistung Nutzungsgebühren zu sparen. Diese heißen bei AWS „Graviton“.

Weiterlesen
Abbildung 3: Die neue „VMware Cloud Console“ soll Admins einen Überblick über seine Infrastruktur verschaffen.  (© VMware /Matzer)
Flachere Übergänge zwischen Cloud und on premises

VMware Cloud bekommt eine Universal-Lizenz

VMware hat am 31. März drei Neuheiten vorgestellt, die vor allem die „VMware Cloud“ betreffen. Diese läuft auf den Plattformen von AWS und Dell EMC sowie on-premises (als VCF). Eine neue Subskription soll den Multicloud- und Edge-Cloud-Betrieb erleichtern, eine Admin-Konsole die einheitliche Verwaltung ermöglichen und der neue „App Navigator“ „Tanzu“-Entwickler unterstützen.

Weiterlesen
Außenposten, „Outposts“, nennt AWS seine Appliances, die in den Rechenzentren der Kunden stehen. Merkwürdig, dass Cloud ´drinnen` bedeutet und die eigene IT ´außen und so weit weg erscheint, als befände sie sich auf dem Mond.  (© Naeblys - stock.adobe.com)
Azure Stack, AWS Outposts und der Apache Cloud Stack

Die Cloud Stack Appliances von AWS im Vergleich zu OpenSource und Microsoft

Cloud Stack Appliances wie „MS Azure Stack“ oder „AWS Outposts“ versprechen, die Vorteile einer Public Cloud in die Private Cloud des Firmenrechenzentrums zu bringen. Doch nicht nur die Einführung der Appliance will durchdacht sein, sondern auch ihre Anschaffung. Je nach Bezahlmodell kann der Preis bis zu eine Million Dollar erreichen (bei AWS). Und falls oder sobald das Gerät nicht mehr zum geplanten Verwendungszweck passt, muss man es auch wieder loswerden.

Weiterlesen
Mit „Nutanix Central“ ist eine zentrale Konsole in der Entwicklung, die die Verwaltung mehrerer Clouds erlauben soll.  (© Nutanix/Matzer)
Zusammengefasst: Die „Global.NEXT Digital Experience“

Nutanix treibt Multi-Cloud-Strategie voran

Der HCI-Anbieter Nutanix verfolgt eine Multi- und Hybrid-Cloud-Strategie, um seinen On-premises-Kunden zusätzliche Optionen zu bieten. Die bestehende Partnerschaft mit Amazon (AWS) wird durch eine mit MS Azure ergänzt. Um diese gemischte Infrastruktur zu unterstützen, lanciert Nutanix Kubernetes als Platform-as-a-Service „Karbon“. „Nutanix Central“ soll bald in der Lage sein, mehrere Clouds gleichzeitig zu verwalten. Die Security-Komponente " Flow Security Central" ist ebenfalls angekündigt.

Weiterlesen
Abbildung 1: Die IBM-Roadmap für das Quantenrechnen ab dem Jahr 2021. (IBM)
Quantencomputing bei IBM, Microsoft und AWS

IBM enthüllt Roadmap für Quantum Computing Software

Big Blue hat seine Produktplanung für Software vorgestellt, die auf seine Hardware „IBM Q System One“ eingesetzt werden kann. Die Roadmap reicht vom Jahr 2021 bis zum Jahr 2025. Darin spielen Open-Source-Software, die globale Entwicklergemeinde und die Cloud zentrale Rollen. AWS hat für seinen Service „Braket“ Neuerungen angekündigt und „Microsoft Azure Quantum“ ist endlich allgemein zugänglich.

Weiterlesen
Mit 88 registrierten Teilnehmern war das „AMC Summercamp 2019“ in Böblingen gut besucht. Mehr als 70 Studenten, Fachinformatiker und Young Professionals kamen.  (Michael Matzer)
Academic Mainframe Consortium“ und der European Mainframe Academy AG

Erstes Mainframe-Summercamp in Deutschland

Der „Dino“ Mainframe lebt und ist interessanter denn je. Zwar will kaum ein Unternehmen, das ihn im Keller stehen hat, über seinen Einsatz sprechen, aber mit Großrechnern werden täglich Milliarden von Transaktionen und Flugbuchungen vorgenommen. Zwar schon etwa her, aber auf einem „Summercamp“ im Forschungslabor der IBM tauschten vorwiegend studentische Interessenten Ansichten und Informationen mit Experten aus.

Weiterlesen
Nicht nur für Implementierungen im eignen Rechenzentrum haben Unternehmen die Wahl zwischen verschiedenen Prozessoren. Wie wäre es mit etwa mit „Graviton2“-Instanzen von AWS - einer ARM-basierten CPU? (Gerd Altmann auf Pixabay)
ARM-CPUs in der Hyperscaler-Cloud (von AWS)

Mit Graviton2-Prozessoren höhere Leistung erzielen und zugleich sparen

Eine Reihe von Hyperscalern setzen modernste CPUs ein, um ihren Kunden Vorteile hinsichtlich Leistung und Preis anbieten zu können. Bislang waren „Intel-Xeon“- und “AMD-Epyc“-CPUs die Arbeitspferde der Compute-Instanzen, doch die neueste Generation von ARM-CPUs der „N1-Neoverse“-Plattform bietet Kunden die Option, bei höherer CPU-Leistung Nutzungsgebühren zu sparen. Diese heißen bei AWS „Graviton“.

Weiterlesen
Der Fugaku-Supercomputer von Fujitsu steht in Tokio am Riken Center for Computational Science. Er landet bereits das dritte Mal auf Platz 1 der Top500-Liste   (© RIKEN )
Fugaku bekleidet erneut den ersten Rang

Platzwechsel unter den Top Ten der Top500-Superrechner

Auf der International Supercomputing Conference (ISC) 2021 hat die Organisation Top500 die Spitzenreiter unter den 500 schnellsten Superrechnern vorgestellt. Während Fugaku seine Spitzenposition im 57. Ranking halten kann, steigt auf Platz 5 der Rechner „Perlmutter“ ein, der am Lawrence Berkeley National Laboratory seine Arbeit für das US-Energieministerium verrichtet. Unter den Green500-Rechnern gibt es Gerangel um den Spitzenplatz.

Weiterlesen
Die steigende Dichte und Hitze-Entwicklung in den High-Performance- und Supercomputing-Cluster erfordert Flüssigkühlung. Am „Wie“ wird noch getüftelt, wenngleich die Heißwasserkühlung bereits große Forschritte macht.  (gemeinfrei: Joel Filipe on Unsplash)
Blaues Blut und heißes Wasser

Kühlung und Klimatisierung in HPC-Clustern

Mit zunehmender Energiedichte in Servern, insbesondere in HPC-Clustern, wächst die Bedeutung der effizientesten Kühlungsmethode mit niedrigem PUE-Wert. Doch ob mit Luft, Kalt- oder Warmwasser oder gar mit einer Spezialflüssigkeit gekühlt wird, richtet sich nach den Wünschen des Kunden. Künftig wird wohl Software-Steuerung bei der Kühlung eine tragende Rolle spielen.

Weiterlesen
Theoretisch können zwei IBM-Server „E1080“  126 x86-Server ersetzen.  (© IBM )
Hardware für die Hybrid Cloud - für hohe Ansprüche an Leistung, Effizienz und Sicherheit

IBM stellt das erste Power10-System vor

Mit dem Server „Power E1080“ hat IBM das erste System mit der 7-Nanometer-„Power10“-CPU vorgestellt, die von Samsung produziert wird. Das System, das Mitte September verfügbar werden soll, liefert laut Big Blue höhere Verarbeitungsgeschwindigkeit, größere Skalierbarkeit, mehr Sicherheit und schließlich mehr KI-Wumms. Drei weitere Server sollen bis 2022 folgen.

Weiterlesen
Der Weg zu mehr Nachhaltigkeit im Rechenzentrum und generell zu grüneren Website und allgemein umweltverträglicher IT ist kein Big Bang. Heute schon können Tools aber auch eine anderes Art des Programmierens helfen.  (Wim Arys auf Unsplash)
Tools, Techniken und Anreize für eine umweltschonende IT

Mit einfachen Schritten Internet und Rechenzentrum grüner machen

Trimmt man mit geeigneten Mitteln die Performance von Rechenzentren und Webseiten, so ist das gut fürs Klima – und für die Bilanz. Im Rahmen eines Symposiums der Sustainable Digital Infrastructure Alliance (SDIA) e.V. hat Chris Adams von The Green Web Foundation eine Reihe von Konzepten und Tools vor, um den 'Carbon Footprint' von Rechenzentren und Webseiten zu reduzieren.

Weiterlesen
Das Produkt Supernova von Ayar Labs ist ein PIC, der als Multiplexer acht oder 16 Wellenlängen erzeugen kann. Das damit gelieferte Licht reicht für 256 Datenkanäle, die insgesamt 8,192 Tbit/s übertragen können.
 (Ayar Labs)
Die Lichtcomputer - kein Wham-Bang! aber ein stetiger Innovationsfluss

Silicon Photonics wird neue Rechner- und Datacenter-Architekturen hervorbringen

Die Silicon Photonics Technologie (SiPh), ein Segment der Photonik und Optoelektronik, überträgt Daten mit Licht statt mit Elektronen. Indem sie Glasfaserkabel und Transceiver nutzt, lassen sich derzeit Datenübertragungsraten von bis zu 1,6 Terabit/s (Tbit/s) erzielen, über 300 Meter Distanz ohne jeden Qualitätsverlust. Das energiesparende SiPh ist dazu angetan, zahlreiche Interconnect-Engpässe in der Netzwerk- und Storage-Infrastruktur zu beseitigen und Transaktionen in Echtzeit zu erlauben. Dies hat weitreichende Konsequenzen.

Weiterlesen
Abbildung 3: Die neue „VMware Cloud Console“ soll Admins einen Überblick über seine Infrastruktur verschaffen.  (© VMware /Matzer)
Flachere Übergänge zwischen Cloud und on premises

VMware Cloud bekommt eine Universal-Lizenz

VMware hat am 31. März drei Neuheiten vorgestellt, die vor allem die „VMware Cloud“ betreffen. Diese läuft auf den Plattformen von AWS und Dell EMC sowie on-premises (als VCF). Eine neue Subskription soll den Multicloud- und Edge-Cloud-Betrieb erleichtern, eine Admin-Konsole die einheitliche Verwaltung ermöglichen und der neue „App Navigator“ „Tanzu“-Entwickler unterstützen.

Weiterlesen
Die Top500-Organisation liefert zum Ergebnis auch ein paar statischische Informationen.  (© Top500.org)
Fugaku ist noch immer die Nummer 1 und Intel verliert

Die aktuelle Top500-Liste der Superrechner

Japans „Fugaku“ ist immer noch die Nummer 1 in der Top500-Liste der schnellsten Superrechner, die auf der 33. Supercomputing Conference in St. Louis, USA, vorgestellt wurde. Die Überraschung ist nicht groß, dass es immer noch kein Exascale-System gibt – jedenfalls kein offizielles. Dafür debütiert „Polaris“, der Supercomputer des Argonne National Laboratory in USA, bereits auf Platz 13.

Weiterlesen
So funktioniert der Photonenschalter im einzelnen. Ein schwacher Laser (oben) und ein starker Laser (links oben) schicken Photonen in Substrat, das eine dünne Schickt Polaritonkondensat enthält. Diese Schicht schaltet zwischen 1 und 0 und erzeugt damit Signale, die sich verarbeiten lassen. 
 (© IBM)
Eine Billion Schaltoperationen pro Sekunde

Rechnen mit der Kraft des Photons

Forscher von IBM Research Europe und ihre Partner haben einen lichtgesteuerten Schalter entwickelt, der die Datenübertragung erheblich beschleunigen und zugleich den nötigen Energieaufwand senken kann. Künftige Endgeräte, aber auch Quantencomputer, könnten viel schneller rechnen, während ihre Energieversorgung viel länger reicht. Nötig sind dafür nur ein paar Teilchen des Lichts: Photonen.

Weiterlesen
Intel HPC Scalable System Framework vereint die Disziplinen Compute, Memory/Storage, Fabric und Software. (Bild: Intel)
Lustre und Co.

Im HPC-Cluster müssen Filesysteme parallel arbeiten

Intel hat neue Versionen des „Lustre“-File-Systems angekündigt und baut damit sein „HPC Scalable System Framework“ erheblich aus. Parallele File-Systeme wie Apache Lustre sind entscheidend für die Performance von Clustern. An Alternativen zu Lustre fehlt es zum Glück nicht – gute Beispiele sind „IBM Spectrum Scale/GPFS“ und „BeeGFS“.

Weiterlesen
Neben Multicloud war das Computing an der Edge das große Thema auf der diesjährigen VMworld. Hier gab es neue Produkte. Außerdem im Köcher: gezielte Unterstützung für KI-Hardware und HCI.  (VMware)
VMworld 2021

VMware thematisiert Edge, KI-Hardware und Partnerprojekte

VMware hat sich auf der „VMworld 2021“ in der vergangenen Woche zur Unterstützung der Multicloud und des Edge Computing bekannt. Mit der Präsentation von „VMware Edge“ und weiteren Projekten unterstreicht der Hersteller diese Ausrichtung. Eine Reihe von Technologiepartnern hat passende Ergänzungen vorgestellt, darunter Dell, Nvidia und Lenovo.

Weiterlesen
Die Hauptzutat für RUM ist bei Splunk ist nicht Zuckerrohr, hier bedeutet RUM: Real User Monitoring und das besteht im Wesentlichen aus Daten.  ( Felix Wolf auf Pixabay)
.conf 202: Zahlreiche Produkt-News, ein neues Partnermodell und Workload-gemäße Preise

Splunk expandiert mit Observability Suite im APM-Markt

Splunk treibt seine Expansion im APM-Markt mit der Observability Suite weiter voran. Um Projekte für die digitale Transformation zu unterstützen, erweitert es seine Splunk Enterprise Cloud um neue Daten-Management-Funktionen. Folgenreich dürfte die neue Workload-basierte Preisgestaltung, die auf der „.conf 2021“ angekündigt wurde, für viele Kunden werden.

Weiterlesen
Microchip Technology hat drei neue HBA-Adapter seiner Adaptec-Reihe für Rechenzentren und OEMs im Portfolio. (© vladimircaribb - stock.adobe.com)
Adapter für Storage in Rechenzentren

Microchip bietet neue HBA-Adapter an

Der Komponentenhersteller Microchip hat die Verfügbarkeit dreier neuer HBA-Adapter seiner „Adaptec“-Reihe für Rechenzentren und OEMs verlautbart, die NVMe-SSDs und Disk-Arrays unterstützen. Neben „Smart HBA 2200“ und dem „1200 Host Bus Adapter“ bildet der „3200 RAID Adapter“ das Flaggschiff. Er ist für PCIe 4, NVMe, 24G-SAS und RAID ausgestattet, verschlüsselt aber auch ruhende Daten.

Weiterlesen
HPC-Simulation des Molekültransports in einer Zellorganelle, dem Endoplasmatischen Retikulum, dessen komplexe Geometrie die Transportprozesse bestimmt. (Ivo Sbalzarini[MOU4])
HPC und KI im Einsatz für Bilderkennung und Simulation in der Systembiologie

Zusehen und verstehen, wie sich Leben entwickelt

Künstliche Intelligenz und HPC helfen Systembiologen in Dresden bei der Forschung und Visualisierung. Ivo Sbalzarini und sein Team haben am Center for Systems Biology Dresden (CSBD) des Max-Planck-Instituts für Molekulare Zellbiologie und Genetik (MPI-CBG) und der Technischen Universität Dresden ein IT-Framework mit neuer Beschreibungssprache für Algorithmen entwickelt. Der Professor hat sein Projekt auf der ISC 2019 in Frankfurt/Main vorgestellt.

Weiterlesen
Für die Forschung in Industrie und Wissenschaft könnenn die Computersysteme gar nicht mächtig genug sein. Doch High Performance Computing hält, oft zusammen mit KI, auch längst Einzug in die Enterprise-IT.  ( Alex Myers auf Pixabay)
Marktforschung von Hyperion Research

HPC-Markt: Starkes Wachstum für GPUs, HPC-Cloud und KI-Systeme

Die Auguren von Hyperion Research bescheinigen dem HPC-Markt in 2021 nach einem Wachstum auf 28 Milliarden Dollar in 2020 ( plus 1,1 Prozent) ein erhebliches Wachstum. Es basiert auf Hochleistungsinformatik in der Cloud, dem raschen Einsatz von GPUs, Großrechnerverkäufen wie Japans „Fugaku“ (1 Milliarde Dollar) sowie auf allem, was mit KI zu tun hat. Die Risiken sind weiterhin der Verlauf der Pandemie und die Probleme in den IT-Lieferketten.

Weiterlesen
Die Internationale Supercomputing Conference (ISC 2017) in Frankfurt endete gestern, am 22. Juni. Autor Michael Matzer war dort und berichtet nun von den Trends im High Performance Computing.  (Philip Loeper)
Exascale steht außer Frage

ISC 2017: HPC und Supercomputing und Artificial Intelligence

Hochleistungsrechner sterben seit Jahren strikt auf den Exascale-Level zu: 2020 dürfte es soweit sein. Mit einer Leistung von Exaflop/s sollen neue Anwendungen möglich sein. Die zu diesem Zweck noch zu entwickelnden Technologien sollen auch Machine Learning und Cognitive Computing zugutekommen, die als Artificial Intelligence zusammengefasst werden. Auf der ISC 2017 wurden HPC, Big Data Analytics und AI als ideale Kombination bewertet.

Weiterlesen