Ulrike Ostler ♥ DataCenter-Insider

Ulrike Ostler

Chefredakteurin Datacenter-Insider
Vogel IT-Medien GmbH/ DataCenter-Insider

Ulrike Ostler ist Chefredakteurin von DataCenter-Insider, einem B2B-Portal, das über Rechenzentren berichtet. Seit 2006 ist sie bei Vogel IT-Medien in Augsburg beschäftigt, nach Stationen bei "Silicon.de", der "Computer Zeitung" des Konradin-Verlags, bei "eBusiness" vom Handelsblattverlag und bei der "Computerwoche", ein IDG-Medium.
Sie hat an der Westfälischen Wilhelms Universität Philosophie und Geschichte studiert, Sekundarstufe I und II, hat das Erste und Zweite Staatsexamen in beiden Fächern, hat in einer Lokalredaktion volontiert und eine Ausbildung zum Betriebswirt für Kommunikations- und IT-Technik. Zwischendurch hat sie eine Abteilung für Marketing und Softwaredokumentation geleitet.

Artikel des Autors

Open Source Software (OSS) ist in, kaum ein Unternehmen kommt mehr ohne aus - und damit ist nicht ein Betriebssystem gemeint. Doch auch das gilt: Alte Sicherheitsbedenken halten sich und neue kommen hinzu.  (Bild: KanawatTH - stock.adobe.com)
VMware-Studie zu Open Source Software

Die Sicherheit der Softwarelieferketten rücken in den Fokus

Open Source Software (OSS) spielt in Unternehmen jeglicher Größe eine bedeutende Rolle – mit steigender Tendenz. Das zeigt die VMware-Studie „The State of the Software Supply Chain: Open Source Edition 2022” deutlich. Der einzige Wermutstropfen in der vorherrschenden Euphorie: Die Sicherheitsbedenken der Nutzer. Insbesondere die Software-Paketierung der Software rückt dabei in den Fokus.

Weiterlesen
0107783287 (Bild: OVHcloud)
Immersion Cooling neu gedacht

OVHcloud entwickelt hybride Eintauch-Flüssigkeitskühlung

Wie in den vergangenen Jahrzehnten sind Rechenzentren auf Racks angewiesen, deren Kühlung von einer Vielzahl von Systemen abhängt, die häufig aus Lüftern bestehen. Die tödliche Wärme ist nach wie vor ein Hauptproblem, wenn es darum geht, Server am Laufen zu halten. Die Datacenter setzen stromhungrige Lösungen wie Klima-Anlagen (direkte Expansion) ein oder auch freie Kühlung – in diversen Kombinationen. Techniker von OVHcloud haben sich Neues ausgedacht.

Weiterlesen
0106490349 (Bild: EMC - Home of Data)
Es geht auch anders

EMC- Home of Data redet nicht von Nachhaltigkeit, sondern handelt

Manch ein Co-Location-Anbieter scheint geradezu darauf zu warten, dass ihnen die Bundesregierung, die EU oder wer auch immer strengere Regeln für den Umgang mit den Ressourcen Wasser und Strom auferlegt, obwohl klar ist, dass ihre Rechenzentren bis 2030 klimaneutral sein sollen. Wie soll das gehen? ist die meistgehörte Frage angesichts der Mangelware Ökostrom? Und dann gibt es Anbieter wie EMC - Home of Data. Hier ticken die Uhren anders.

Weiterlesen
Das Projekt „PeerDC“ auf der <A target="_blank" HREF="https://datacenter-group.com/de/news/meldungen/peerdc.php">Website der DataCenter Group</A> (Bild: ilya_levchenko - stock.adobe.com)
Interview mit Dieter Thiel, Senior Consultant der Data Center Group

Verbindliche Nachhaltigkeitskennzahlen und ein Register für Rechenzentren

Der Energieverbrauch von Rechenzentren steigt und steigt. Umso erstaunlicher ist es, dass es keine verlässlichen Daten und einheitlichen Kenngrößen für Datacenter gibt, was Nachhaltigkeit oder gar Klimaneutralität, die die Regierung bis 2027 fordert, anbelangt. Hier setzt das Projekt „PeerDC“ an, das die Erstellung eines praxisgerechten Rechenzentrumsregisters zum Ziel hat. Die Data Center Group arbeitet mit daran. Warum?

Weiterlesen
Deutschland und Frankreich verankern in Gesetzen, wie 'grün' Rechenzentren zu sein haben.  (Bild: gemeinfrei)
Jetzt wird es ernst

Umweltgesetze für deutsche und französische Rechenzentren

Am 13. Juli haben das Bundesministerium für Wirtschaft und Klimaschutz (BMWK) und das Bundesministerium für Wohnen, Stadtentwicklung und Bauwesen (BMWSB) ein „Sofortprogramm“ zum in Ergänzung zum Bundes- Klimaschutzgesetzes beschlossen. Betroffen sind auch die Rechenzentren. Derweil will die französische Teleko-Regulierungsbehörde ihr Nachhaltigkeitsaudit für den digitalen Sektor nicht nur um Informationen über Devices sondern auch über Datacenter erweitern.

Weiterlesen
Zum 60sten Geburtstag des Leibnitz Rechenzenzentrum (LRZ) gab es Torte.  (Bild: Vogel IT-Medien GmbH)
60 Jahre Leibniz Rechenzentrum

Die LRZ-Zukunft steht auf Exascale-, KI- und Quantencomputing

Am 14. Juli hat das Leibniz-Rechenzentrum (LRZ) der Bayerischen Akademie der Wissenschaften sein 60jähriges Bestehen gefeiert. Das Hochleistungsrechenzentrum, das unter anderem den Supercomputer „SuperMUC“ beherbergt ist der IT-Dienstleister der Münchner Universitäten und bayerischen Hochschulen sowie Kooperationspartner wissenschaftlicher Einrichtungen in Bayern, Deutschland und Europa. Doch Alter hat in der IT nur bedingt Wert. Wie geht es weiter?

Weiterlesen
Die Aggregatoren von Kohler lassen sich durch hydriertes Pflanzenöl (HVO - Hydrotreated Vegetable Oil) antreiben, was  für deutliche Kohlenstoffeinsparungen sorgen kann.  (Bild: SDMO/Kohler)
Die Öko-Alternative für Rechenzentren von Kohler SDMO

Nachhaltig? Diesel-Aggregate für Notstrom mit HVO

Kohler hat 2005 den 1966 als SDMO Industries gegründeten Hersteller für Stromerzeuger übernommen, dieser ist heute der drittgrößte Hersteller auf dem Markt für Stromaggregate. Somit liefert er Dieselaggregate für die Notstromversorgung an Rechenzentren. Doch die Motoren produzieren CO2, selbst wenn sie ihren Zweck gar nicht erfüllen. Die Datacenter-Betreiber sind auf der Suche nach Ersatz. Was macht Kohler?

Weiterlesen
Nvidia hat mit „Qoda“ eine hybride Plattform für klassisches und Quantencomputing angekündigt. Die „Quantum Optimized Device Architecture“ zielt darauf ab, Quantencomputing durch die Schaffung eines kohärenten hybriden quantenklassischen Programmiermodells zugänglicher zu machen. Sie soll eine offene, einheitliche Umgebung für einige der derzeit leistungsstärksten Computer und Quantenprozessoren bieten.  (Bild: Nvidia)
Eine hybride Programmierplattform für HPC, KI und Quantencomputer

Nvidia und das Quantencomputing

Nvidia gibt ordentlich Gas, wenn es um die Realisierung von Anwendungen geht, die künftig auf Quantencomputern laufen sollen. In der vergangenen Woche hat das Unternehmen etwa „Qoda“ angekündigt, eine hybride Programmierplattform für klassisches Quantencomputing, sowie eine verstärkte Zusammenarbeit mit Quantum Brilliance bei der Entwicklung von Quantencomputern und dem Forschungszentrum Jülich.

Weiterlesen
Mithilfe eines Quantencomputer-Simulators, wie hier der Quantum Learning Mschine" von Atos, können Unternehmen heute schon ihre Algorithmen und Anwendungen testen, die auf Quantencomputern laufen sollen.  (Bild: Atos)
OVHcloud bietet Quantencomputing als Service

Multicloud, Quantencomputing plus eine Prise Idealismus sowie EU-Stolz

Anfang Juni haben OVHcloud und Atos ihre Partnerschaft bekannt gemacht: Die „Quantum Learning Machine“ von Atos steht über die Cloud-Angebote von OVHcloud „as a Service“ zur Verfügung. Doch das Quantencomputing-Engagement des europäischen Cloud-Anbieters geht noch weiter: Auch Start-ups haben die Möglichkeit, ihre Technik zugänglich zu machen. Vor allem große Anwenderunternehmen zeigen großes Interesse.

Weiterlesen
Die Kombination von erneuerbaren Ernien und einem Batteriespeichersystem wäre smart. Im Bild: „Fluence Sunstack“ des Joint Venture von Siemens und AES.  (Bild: Fluence)
Weg mit den Notstrom-Dieselgeneratoren!

Neue SLAs geben Batteriespeichern für Rechenzentren eine Chance

„Im Vergleich zu Dieselaggregaten können Batteriespeichersysteme (BESS) keine unbegrenzte Anzahl von Autonomiestunden unter Standortbedingungen garantieren“, lautet eine Aussage des Uptime Institute. Doch das könne auch nicht das Ziel sein, argumentiert Guiseppe Leto, Portfolio Manager Data Center bei Siemens in der Schweiz (SI S VES VMM). Vielmehr gehe es darum, die Service Level Agreements anders zu fassen. Wie er das meint?

Weiterlesen
Die Bess-Grundlage (Bess = Batteriespeichersystem) von Siemens kombiniert Hardware, Steuerung, Software und Intelligenz. Das soll modulare und zugleich sichere und reproduzierbare Energiespeichersysteme ermöglichen, die auf diverse Anwendungen zugeschnitten werden können. Das Google-Rechenzentrum baut auf den „Fluence Tech Stack“ von einem Siemens-Joint-Venture.  (Bild: Fluence)
Bess füttert das belgische Google-Datacenter mit Energie und Kohle

Batteriespeicher anstelle von Notstromdiesel im Rechenzentrum

In den meisten Rechenzentren sorgen Dieselgeneratoren für Ersatz, sollte der Strom ausfallen. Das passiert nur selten, doch die Anlagen müssen getestet werden. Wie oft liegt im Ermessen des Datacenter-Betreibers. Dass dabei CO2 entsteht, liegt in der Natur der Anlage und das steht im krassen Gegensatz zu einem klimaneutralen Betrieb, der in der EU, regulatorisch gestützt, angestrebt wird. Batterie-Speicher wären eine Alternative. Google in Belgien probiert das aus.

Weiterlesen
Die europäische „KubeCon/CloudNativeCon 2022“ hat vom 16. bis zum 20. Mai im spanischen Valencia stattgefunden; die Orangen aus Valencia gelten als die besten der Welt und zieren das Veranstaltungsplakat. (Bild: CNCF)
Das Wichtigste der KubeCon/CloudNativeCon 2022 in Valencia

Die Zukunft wird in Software kodiert, ein Großteil davon Cloud Native

Größer, schöner, mehr Projekte …. Die „KubeCon/CloudNativeCon 2022“ hat in der vergangenen Woche mit rund 7.000 Teilnehmern vor Ort und rund 10.000 Teilnehmern am Bildschirm stattgefunden und brauchte mit Komparationen nicht sparen. Neue Begriffe beziehungsweise Akronyme wie „WASM“ für „Web Assembly“ und „SBOMS“ für „Software Bill of Materials“ sickern nun ins kollektive Gedächtnis.

Weiterlesen
Die Juniper-Networks-Suite „Apstra“ erlaubt das Management von Rechenzentren, auch ganz vielen, wie bei einer Fabric. Das Tool ist Hardware- und Hersteller-agnostisch, erlaubt Regeln zu definieren und deren Einhaltung in Echtzeit zu überwachen.  (gemeinfrei: Ugochukwu Ebu)
Intent-based Datacenter-Management mit Juniper Networks

Raiffeisen Informatik: Mit Apstra endlich herstellerunabhängig

„Intent“-basierte (Netzwerk-)Infrastruktur gehört zu den noch jungen Schlagwörtern. Administratoren sollen in die Lage versetzt werden, ein Rechenzentrum wie eine „Fabric“ zweckmäßig zu entwerfen und die Technik gemäß diesem Design zu integrieren. Voraussetzung ist ein hoher Abstraktionsgrad, der es erlaubt, den einzelnen Komponenten herstellerunabhängig Rollen mitsamt Funktionsumfang zuzuweisen, ihr Verhalten zu überwachen. Apstra, jetzt Teil von Juniper Networks, gehört zu den Techniken, die das erlauben.

Weiterlesen
Graphcore hat heute den weltweit ersten 3D-Wafer-on-Wafer-Prozessor - die „Bow IPU„“- vorgestellt, das Herzstück der „Bow Pod“-AI-Computersystemse.  (Graphcore)
Der WoW-Faktor: plus 40 Prozent Leistung, minus 16 Prozent Stromaufnahme, gleicher Preis

Graphcore-Rechner mit Wafer-on-Wafer-IPU toppt bis 2024 Gehirnleistung

Graphcore entwickelt einen „ultra-intelligenten KI-Computer“, der die parametrische Kapazität des Gehirns übertreffen wird. Die Auslieferung ist für 2024 geplant. Voraussetzung ist eine Intelligent Procssing Unit (IPU), die auf Wafer-on-Wafer-Technik basiert und Computing-Modelle ausführen kann, die viel komplexer ausfallen können als heute und noch nicht einmal erdacht sind. Jetzt gibt es die „Bow-IPU“ sowie erste, darauf basierende Rechner.

Weiterlesen
Für die meisten unsihtbar: Die Energieversorgung in einem Rechenzentrum; die Technikräume gleichen dem eines Kraftwerks.  (© dusanpetkovic1 - stock.adobe.com)
Gebäudeleittechnik im Rechenzentrum

Checkliste für eine Management- und Bedieneinrichtung mit Energie-Management

Laut IDC verfügen rund 78 Prozent von 200 befragten Unternehmen über konkrete Nachhaltigkeitsprogramme oder übergreifende Strategien. Einem Viertel aber fehlt die Transparenz in den Prozessen. Große Hoffnung setzen 48 Prozent in Smart-Building-Techniken, um künftig Energie zu sparen. Das gilt insbesondere für Datacenter, wo Sensoren und Messtechnik Daten liefern beziehungsweise liefern könnten, um die Prozesse zu optimieren. Die Iconag Leittechnik GmbH hat dafür einen Leitfaden erstellt.

Weiterlesen
Der Branchenverband Bitkom e. V. hat das Borderstep Institut mit der Untersuchung des deutschen Rechenzentrumsmarkts beauftragt. Die Marktstudie weist Wachstum, Stanortfragen und Umweltansprüche aus.  (©sdecoret - stock.adobe.com)
Bitkom-Studie zu Rechenzentren und ihre aktuelle Entwicklung

Datacenter in Deutschland: Mehr Daten – mehr Strom?

Das größte Potenzial zur CO2-Reduktion liegt bei Rechenzentren in der Abwärmenutzung. Das ist eines der Ergebnisse der Bitkom-Studie „Rechenzentren in Deutschland“, die der Branchenverband gestern vorgestellt hat. Gedacht ist vor allem an eine Fernwärme in städtischen Ballungszentren. Doch die Netze und Abnehmer fehlen. Bitkom-Hauptgeschäftsführer Bernhard Rohleder sagt: „Es braucht eine politische Flankierung.“

Weiterlesen
Wer DCIM-Lücken unverschlossen lässt, bringt komplette Datacenter in Gefahr. (gemeinfrei)
O weh, o weh! Datacenter-Management-Tools lassen Angreifer passieren

Dark- und Deep-Net-Analyst Cyble sucht und findet Sicherheitslücken bei 20.000 Rechenzentren

Man stelle sich einen Angriff auf das Kühlsystem eines Rechenzentrums vor …. Lieber nicht? Doch. Das Unternehmen Cyble hat den Einsatz einiger Datacenter Infrastructure Management-Tools von Devive42, APC by Schneider Electric, Vertiv und Sunbird auf Abwehrmöglichkeiten von Cyber-Angriffen untersucht und fand Schnittstellen so weit offen wie Scheunentore.

Weiterlesen
Wie sehen Chief Information Officer sich, ihre Aufgaben und Defizite? Colt Technology Services GmbH stellt einen Untersuchung dazu bereit.  (gemeinfrei: intographics )
Der CIO-Agilitäts-Check

Das Selbstbild: CIOs sind agil, ehrgeizig und der Entwicklung voraus

„Die Mehrheit der CIOs nimmt für sich in Anspruch, flexibler zu sein als die Konkurrenz, insbesondere in Bereichen, die direkt mit ihrer Funktion im Unternehmen zu tun haben.“ So steht es im Colt-Report „Das CIO-Mindset entschlüsseln; Agil, ehrgeizig, der Entwicklung voraus.“ Diesem voraus geht eine Umfrage unter 250 CIOs von Unternehmen mit mehr als 5.000 Mitarbeitern, um einen `CIO-Agilitätsindex´ zu ermitteln.

Weiterlesen
Forscher schreuaben an der Lleistungsfähigkeit von HPC-Rechnern; neue Algorithmen erlauben eine bessere Vergleichbarkeit zur Leistung von Quantencomputern.  (HPE )
Supercomputer schaffen mehr als gedacht

Die Messlatte für Quantenüberlegenheit verlagert sich – nach oben

Noch wird diskutiert, ob Quantum Supremacy, die Überlegenheit der Quantencomputer über herkömmliche Rechnerei bereits erreicht ist. Wenn ja, dann in einzelnen Anwendungsfällen. Dann aber kann ein Quantencomputer das spezifische Problem in 200 Sekunden lösen, für das der weltweit schnellste Supercomputer 600 Millionen Jahre bräuchte. Jetzt haben HPE-Forscher und Wissenschaftler der Universität Bristol und des Imperial College London gezeigt, dass HPC-Rechner und optimierte Algorithmen das auch in 73 Tagen schaffen können.

Weiterlesen
Die Idee für die Kühlung per Kyoto-Rad hat FI-TS für das Rechenzentrum auf dem Campus Nürnberg Süd vom Generalunternehmer Norris Network übernommen. Der Wärmetauscher erlaubt eine hohe Energie-Effizienz.  (Finanz Informatik Technologie Service GmbH & Co. KG )
Auf dem Gelände und im Betrieb eines Co-Location-Betreibers

Symbiose: Das neue FI-TS-Rechenzentrum in Nürnberg

Ein neues Rechenzentrum für die Banken- und Versicherungs-IT? Also weder Co-Location noch Cloud? Das gibt es – bei der Finanz Informatik Technologie Service GmbH & Co. KG (FI-TS) IT-Partner der Finanzwirtschaft und größter IT-Dienstleister für Landesbanken. Trotzdem gibt es Synergien mit einem Co-Location-Provider: Das neue Datacenter in Nürnberg schmiegt sich quasi an.

Weiterlesen
Am 15. Juni hat IBM den Computer „Quantum System One“ an die Fraunhofer Gesellschaft übergeben. Der Aufbau in Stuttgart gelang unter einmaligen, außergewöhnlichen Bedingungen und erforderte ungewöhnliche Skills - von zwei Teams. (IBM)
Mit viel Bammel, null Erfahrung und unzähligen Webex-Stunden….

Mitten im Lockdown: Wie der Quantencomputer in Stuttgart entstand

Eigentlich, ja eigentlich war alles gut vorbereitet: Immerhin hat Chris Lirakis schon den Aufbau von 40 IBM-Quantencomputern geleitet, sein 5-Personen Kernkompetenz-Team ist absolut eingespielt. Am 9. November 2020 sollte es losgehen mit dem Bau des ersten „Quantum System One“ außerhalb der USA, in Ehningen bei Stuttgart, für die Fraunhofer Gesellschaft. Und dann: Lockdown, Quarantänen, Reisen für die US-Experten unmöglich.

Weiterlesen
Ausgebremst: Huawei bekommt keine Intel-Chips und baut keine Server mehr.  (© evannovostro - stock.adobe.com)
End of Life

Huawei lässt die Server sterben

Wie passend: Endlich stehen die Präsenzveranstaltungen, auch bei Huawei, wieder auf, der deutsche Part der Veranstaltung „Huawei Eco-Connect Europe 2021“ findet am 28. Oktober 2021 in einem Düsseldorfer Kino statt, wo die Teilnehmer zum Schluss in den aktuellen „James-Bond: Keine Zeit zu sterben“ eingeladen worden sind und das Ende ist kein Gutes: Huawei stellt die Produktion von Servern ein. Dazu Jörg Karpinski im Interview:

Weiterlesen
Hype Cycle for Emerging Technologies, 2021 (Gartner (August 2021))
NFT, Quantum ML, generative KI, homomorphe Verschlüsselung sowie composable Apps und Netze

Die aufstrebenden Technologien im aktuellen Gartner-Hype-Cycle

Die drei zentralen Themen des „Hype Cycle for Emerging Technologies, 2021“ sind: Vertrauen schaffen, Wachstum beschleunigen und den Wandel gestalten. Diese werden Unternehmen dazu bewegen, aufstrebende Technologien wie Non-Fungible Tokens (NFT), Sovereign Cloud, Data Fabric, generative KI und Composable Networks zu erforschen und sich dadurch Wettbewerbsvorteile sichern.

Weiterlesen
 (Bild: AWS)
AWS eröffnet Cloud-Standort in Deutschland – Kärcher, Burda Media, und Talanx ziehen ein

Amazon Web Services bezieht zwei Rechenzentren in Frankfurt

Seit Donnerstag 15:00 Uhr ist die AWS-Cloud, made in Frankfurt live. Damit bietet Amazon Web Services in der EU zwei weitere Verfügbarkeitszonen an, beziehungsweise neben Irland einen zweiten Standort, den elften weltweit. „Überrascht Sie dieser Schritt?“, fragt Martin Geier, Managing Director von AWS Deutschland. DataCenter-Insider fragt: Was halten Kunden davon?

Weiterlesen
Rechenzentren mit dern Verfügbarkeitsklassen 3 und 4 müssen georedundant sein; das BSI fordert mindestens 200 Kilometer Abstand zwischen den Datacenter. Macht das Sinn? (gemeinfrei - Tama66/Pixabay)
Abstand bitte: Latenzen, Kosten und noch viel mehr Probleme folgen

BSI: Georedundanz bedeutet 200 Kilometer zwischen den Rechenzentren

Im Dezember 2018 hat das Bundesamt für Sicherheit in der Informationstechnik (BSI) die Version 1.0 der „Kriterien für die Standortwahl höchstverfügbarer und georedundanter Rechenzentren“ herausgegeben. Es geht dabei um ein oder mehrerer Ausweich-Datacenter als Maßnahme zur Notfallvorsorge, also um die Überlegung, ob und wie ein solches möglichst den gesamten zentralen IT-Betrieb übernehmen kann, sollte das jeweils andere nicht voll funktionsfähig sein.

Weiterlesen
Wer sich aufmacht, mächtige Desaster Recovery- und Backup-Tools zu finden, dem ist eine Orientierung durch die Einteilung in Quadranten möglicherweise eine Hilfe. Gartner hat ein „Magic Quadrant for Enterprise Backup and Recovery Software Solutions“ erstellt.  (Stefan Keller auf Pixabay)
Gartner untersucht Hersteller und Backup- sowie DR-Produkte

Aus den Magischen Quadranten für Backup und Recovery

Verantwortliche für Infrastruktur und Betrieb (I&O), die mit dem Backup-Betrieb betraut sind, müssen die Backup-Infrastruktur neu gestalten, heißt es im Gartner-Report „Magic Quadrant for Enterprise Backup and Recovery Software Solutions“, vom Juli dieses Jahres. Die Analysten nennen etwa Aspekte der Technologie, des Betriebs und der Nutzung, die es zu berücksichtigen gilt.

Weiterlesen
Auf der virtuellen Veranstaltung „Nvidia GTC“ Hat Nvidia-Chef Jensen Huang einen Avatar seiner selbst  vorgestellt, der nicht nur mittels KI erzeugt wird, sondern auch Wissensfragen beantworten kann: „Welches sind die größten Bedrohungen des Klimawandels?“ - „Wie suchen Astronauten nach neuen Planeten?“ - „Welche Rolle spielen Proteine in unseren Zellen?“ - „Toy me“ beantwortet die Fragen nahezu in Echtzeit.  (Nvidia)
Nvidia GTC 2021: Starke Kundenbeispiele, faszinierende Technik

Beschleunigung und KI formen die Zukunft der IT

In der dieser Woche findet die Konferenz „Nvidia GTC 2021“ statt, zu der Chef Jensen Huang einen ganzen Strauß Produktankündigungen dabei hat und, wie in den vergangenen Jahren, zahlreiche Beispiele von Kunden, die Nvidia-Technik einsetzen – Hardware und Software. Derart komprimiert, bietet er einen Sprung in die KI-Zukunft, wo sich virtuelle Realität mit echter mischt, die KI den Ton angibt, auch im wahrsten Sinnes des Worts, und sogar neue Welten entstehen: neue Materialien, andere Medizin, neue Arbeitsweisen.

Weiterlesen
Die Datennetze im Rechenzentrum, aber auch darum herum, ändern sich stark; sie werden softwaredefiniert und die Hardware programmierbar, die Grenzen zur Edge und zum Campus weichen auf und 'Ethernet only´wird zum Trend.  (Gerd Altmann auf Pixabay)
Ethernet-only im Rechenzentrum

Programmierbare Switches im Datacenter und sonstigen Netzwerken

In dem Report „The Forrester Wave: Open, Programmable Switches For A Businesswide SDN“ postulieren die Analysten, dass eine einzige, unternehmensweite Switching-Fabric zur De-facto-Architektur wird. Denn Unternehmen benötigen Flexibilität, um Anwendungen und Daten über private Clouds, öffentliche Clouds und Edge-Compute-Bereiche zu verteilen und: Dieser Trend hebt die Unterscheidung traditioneller Netzwerksegmente - Campus-LAN, Rechenzentrums-LAN oder Zweigstellen-LAN – auf.

Weiterlesen
76 Prozent der HPC-Zentren nutzen Quantencomputer bereits oder planen deren
Einsatz in den nächsten zwei Jahren ein.  (IQM)
IDC-Studie im Auftrag von Atos und IQM

Schneller als gedacht: 76 Prozent der HPC-Rechenzentren nutzen bis 2023 Quantencomputing

Es ist nicht die erste Quantencomputing-Studie, aber die erste die Atos, Hersteller eines Quantencomputer-Simulators, und IQM, ein deutsch-finnisches Start-up, das Quantencomputer bauen will, beim Marktforschungsinstitut in Auftrag gegeben hatten. Demnach wollen 76 Prozent der weltweiten HPC-Rechenzentren bis 2023 Quantencomputing nutzen - und zwar on premises; Cloud ist eine zeitlich begrenzte Option.

Weiterlesen
AMD-Präsidentin Lisa Su zeigt während ihrer Keynote auf der Veranstaltung „Accelerated Data Center Premiere“ das erste Mal den Akzelerator „AMD Instinct MI200“  vor.  (AMD)
Fortschritte im 3D-Design

AMD stellt neue Prozessoren für Rechenzentren vor

„Accelerated Computing“ wird als Synonym für KI-, HPC- oder allgemein schnelles Rechnen gebraucht – mit Computern, die neben CPUs auch Akzeleratoren, Beschleuniger wie GPUs, DPUs, FPGAs und IPUs verwenden. Am Montagabend hat die AMD-Chefin Lisa Su auf der Veranstaltung „Accelerated Data Center Premiere“ die jüngsten Erweiterungen der Rechenzentrums-Produktpalette vorgestellt.

Weiterlesen
Der Superrechner „Horeka“ ist von Lenovo gebaut worden und steht im 2015 für den Vorgänger „ForHLR“ neu errichteten Rechnergebäude auf dem Campus Nord des KIT.  (KIT)
„Ich brauche für Rennautos die passende Strecke“

Das Karlsruher Institut für Technologie rechnet nun mit dem Supercomputer Horeka

Am Freitag der vergangenen Woche ist „Horeka“, der aktuelle Hochleistungsrechner des Karlsruher Instituts für Technologie (KIT), eingeweiht worden. Er besteht aus zwei Komponenten: „Horeka-Green“ umfasst den Bereich mit auf Grafikprozessoren (GPUs) basierenden Rechenbeschleunigern, „Horeka-Blue“ den Bereich mit handelsüblichen Standardprozessoren (CPUs).

Weiterlesen
Der Rechenzentrumsmarkt wächst mitsamt Cloud-Nachfrage und Co-Location-Angeboten. Deswegen steigt auch die Nachfrage noch Datacenter-Infrastruktur. Doch die Kunden mögen es flexibel, unkompliziert und günstig.  (PublicDomainPictures auf Pixabay)
Mehr als 50 Milliarden Dollar

Der Markt für Datacenter-Infrastruktur wächst nahezu ungebremst

Global Market Insights prognostiziert, dass der Markt für Rechenzentrumsinfrastruktur bis 2027 um durchschnittlich rund 11,5 Prozent per anno wachsen wird. Das Marktforschungsunternehmen versteht darunter Server, Switches, Firewalls, Speichersysteme, Application-Delivery-Controller und Router sowie USV, Kühl- und Stromversorgungssysteme, Generatoren, Brandunterdrückung, Anschlüsse und Belüftung sowie unterstützende Software.

Weiterlesen
„The Curve“ mit seiner gebogenen 24 Meter langen Videowand ist villeicht der beliebteste unter den Veranstaltungsräumen im VCC Würzburg; hier finden die „Campfire“ statt.  (Vogel Communications)
Kompakt, temporeich und gestopft voll mit Informationen

Der DataCenter-Day 2021 ‚in echt‘ und virtuell

Wer am 21. September noch nichts vorhat, den sollte es nach Würzburg ins „Vogel Convention Center“ ziehen; denn dort findet der „DataCenter & Colocation Day 2021“ statt, selbstredend unter allen gebotenen Sicherheitsvorkehrungen. Wer nicht reisen kann oder will, kann aber auch per Bildschirm dabei sein – nur die After-Event-Cocktails müssen sich die virtuellen Zuschauer:innen selber mixen.

Weiterlesen
Noch kann man eher von einer leichten Brise reden, wenn es um das Eindämmen von Ressourcenverbrauch geht, den die Datacenter für sich beanspruchen. BUND Hessen und Lokale Initiative 21 Offenbach haben jedenfalls einmal ein gemeinsames Positionspapier erarbeitet, das aufzeigen soll, wie das funktionieren kann.  (Michael Schwarzenberger auf Pixabay)
Das Positionspapier von BUND Hessen und Agenda 21 Offenbach

Gegenwind im Datacenter-Happyland frischt auf

Noch vor Kurzem waren Rechenzentren an geheimen Orten versteckt, im vergangenen Koalitionspapier kamen sie nicht vor und überhaupt glaubten viele, Cloud sei ein nebulöses Gebilde am Firmament. Jetzt dämmert es: Cloud, Digitalisierung, Kommunikation ist in Datacenter verortet und die brauchen nun einmal Strom, sind für CO2 verantwortlich. Noch ist einigen nicht klar, dass 'kein Datacenter' keine Option ist. Was wollen dann die hessischen Naturschützer?

Weiterlesen
Das Digiplex-Rechenzentrum in Fetsund, Gemeinde Lillestrøm.  (Norwegian data centres – sustainable, digital power centres)
Investoren willkommen, Umweltschutz auch

Norwegen weitet die Strategie zur Datacenter-Ansiedlung aus

In Norwegen hat die Regierung ihre Strategie in Bezug auf Digitalisierung und Rechenzentren erneuert. Wie Linda Hofstad Helleland, Ministerin für regionale Entwicklung und Digitalisierung, im Vorwort des entsprechenden Papiers „Norwegian data centres – sustainable, digital power centres“ sagt, könne die Digitalisierung der Ökonomie bis 2030 zu einem doppelten Anstieg des BIP führen.

Weiterlesen
Europa nutzt mehr als ein Drittel der weltweiten Ressourcen für Hochleistungscomputer, produziert aber weniger als 5 Prozent davon. Sipearl soll das ändern.  (Sipearl )
Für leistungsfähige und schnelle Computer ohne Backdoor

KI und HPC - Graphcore und Sipearl, Europa und UK

Graphcore bietet mir seiner IPU (Intelligence Processing Unit) einen Mikroprozessor an, der speziell für Künstliche Intelligenz (KI) und Maschinelles Lernen (ML) entwickelt worden ist. Sipearl arbeitet im Rahmen der European Processor Initiative an neuen Mikroprozessoren mit hoher Rechenleistung und geringem Stromverbrauch für Supercomputer. Jetzt gibt es eine strategische Partnerschaft.

Weiterlesen
Teil einer Kühleinheit, der „S-RDU“ (Smart Refrigerant Distribution Unit), von Zutacore.  (Zutacore )
Immersionskühlung für 19-Zoll-Racks

Zutacore Hypercool wird Open 19-konform

Zutacore, Hersteller der Direct-on-Chip, zweiphasigen, wasserlosen Flüssigkühlung (2PLC) „Hypercool“ will, dass seine Immersionskühlung für Server Open19-konform werden. Das Unternehmen arbeitet seit 2018 gemeinsam mit Linkedin zusammen, um diese Technologie für die Open-Source-Foundation zu entwickeln. Nun ist Zutacore offiziell der Open19 Foundation beigetreten.

Weiterlesen
Rund 70.000 Anmeldungen konnte Lenovo für seinen gestrigen Event „Tech World“ zählen.  (Lenovo )
Lenovo-Hardware, -Software und Partnerleistungen als Service

Von Hosentasche bis Cloud: Lenovo weitet Truscale auf das gesamte Portfolio aus

Auf dem hauseigenen Kongress „Tech World“, zu der rund 70.000 Menschen angemeldet waren, hat Lenovo die Weiterentwicklung seines verbrauchsbasierten Geschäftsmodells angekündigt: Lenovo baut „Truscale“ zum Portfolio-übergreifenden Everything-as-a-Service-Angebot aus. Das inkludiert auch Angebote wie „Azure Stack HCI“ und ein One-Stop Management zusammen mit Deloitte und SAP.

Weiterlesen
Am 1. und 2. September findet der diesjährige Service Provider Summit statt.  (Vogel IT-Medien GmbH)
Einladung: Service Provider Summit 2021

Nachhaltigkeit: Die Service Provider müssen eine Schlüsselrolle einnehmen

Am 1. und 2. September 2021 können alle, die wollen und dürfen, an der Präsenzveranstaltung „Service Provider Summit“ in der 'Villa Kennedy', Frankfurt am Main, teilnehmen. Am zweiten Veranstaltungstag lädt Gunnar Schomaker vom Software Innovation Campus Paderborn, zur einer Keynote mit dem Titel „Nachhaltigkeit in der IT-Consumption – Strohfeuer oder ernstzunehmender Mindshift in Unternehmen?" ein.

Weiterlesen
Das Marktforschungsunternehmen Insight Avenue hat im Auftrag von Suse 800 IT-Manager zu den aktuellen Herausforderungen befragt - von der Corona-Pandemie bis zum Frachkräftemangel und der Rolle von Open Source Software.  (Suse)
Alte Bekannte in den Präferenzen für die IT-Infrastruktur

Multicloud und Edge: Ohne Open Source geht gar nichts

Warum beauftragt Suse, immerhin im Jahr 1992 in Fürth gegründet, noch immer Studien, in denen Sinn und Zweck von Open Source abgeklopft werden? Es dreht sich dieses Mal nicht primär um Linux, sondern um Kubernetes und dessen Potenzial. Und Suse setzt auf Kubernetes. Außerdem plagt alle COVID 19 beziehungsweise setzt Volkswirtschaften, Branchen und Organisationen unter den Zwang zur Erholung und Wiederbelebung …. Mit Open Source?

Weiterlesen
Die riesige Rechenzentrumsanlage von Facebook in Luleå, Nord-Schweden, soll um nahezu das Doppelte wachsen.  (Facebook)
Der wirtschaftliche Nutzen der Facebook- (und AWS-) Ansiedlung in Schweden

Facebook-Datacenter in Nord-Schweden verdoppelt sich

Facebook hat in der vergangenen Woche die Erweiterung seines Datacenter-Standortes im schwedischen Luleå auf fast das Doppelte angekündigt. Dadurch wird dieses zu einem der größten Rechenzentren der Welt. In Deutschland meinen Politiker auf solche Megazentren verzichten zu können und Ämter machen es Datacenter-Ansiedlungen schwer. Da ist es doch ganz interessant, welche Berechnungen in Schweden getätigt wurden, bevor Facebook den Zuschlag für das Areal bekam.

Weiterlesen
ITRenew etabliert Geschäftsmodelle, die auf aufgefrischtem IT-Equipment basieren, das Hyperscaler ausgemustert haben.  (ITRenew)
ITRenew , Vapor IO und Blockheating sind in Sachen IoT, Nachhaltigkeit und Kostenreduktion unterwegs

Near-premises ist das neue on-premises

ITRenew bietet „Circular Cloud“ und Rechenzentrumsinfrastruktur an, die nachhaltig sein soll. Vapor IO hat eine Plattform mit der Bezeichnung „Kinetic Grid“ entwickelt. Die Firmen haben sich zusammengetan, um IT-Equipment vor Ort durch ein near-premises-Äquivalent zu ersetzen, das als Service bereitgestellt wird und dann gibt es noch die Gewächshausheizung.

Weiterlesen
Heute wie früher unscheinbar: Hier im alten Postgebäude begann die Erfolgsgeschichte des weltweit größten Internet-Austauschknotens DE-CIX.  (DE-CIX)
Thomas King, CTO des DE-CIX, im Interview

Der Deutsche Internet-Austauschknoten - Wo kommt er her? Wo soll er hin?

Das Jahr 1995 ist das Geburtsjahr des Deutschen Commercial Internet Exchange (DE-CIX), ein altes Postamt im Frankfurter Stadtteil Gutleut quasi der Geburtsort. Drei Internet Service Provider (ISP) taten sich zusammen - die Dortmunder EUnet Deutschland GmbH, die Xlink GmbH aus Karlsruhe und die MAZ GmbH aus Hamburg –, um in Frankfurt am Main ein (insbesondere von den USA) unabhängiges Peering zu ermöglichen. Wo lagen die Herausforderungen damals - und vor allem heute? CTO Dr. Thomas King gibt Auskunft.

Weiterlesen
Zum Projekt Reuseheat gehören vier unterschiedliche Anwendungsfälle in vier Städen. Die erwarteten Einsparungen durch die Nutzung von Abwärme, etwa von einem Rechenzentrum, belaufen sich auf 5,5 Gigawattstunden pro Jahr beziehungsweise 1.135 Tonnen CO2 pro Jahr.  (Reuseheat)
Daten sammeln, zum Mitmachen auffordern und Erfolge demonstrieren - das EU-Projekt Reuseheat

Die EU rechnet: Datacenter-Abwärme nutzen ist keine Gewissensfrage, sondern Notwendigkeit

Ist es nicht eine Schande? „Die Wärmemenge, die EU-weit von Energie-Anlagen und -Industrien verschwendet wird, entspricht jener, die derzeit zum Heizen aller Gebäude in Europa gebraucht wird.“ Dass nur wenige Rechenzentren Abwärme in Heizungssysteme oder gar Fernwärmenetze einspeisen, ist bekannt. Jetzt ist der Beitrag den Datacenter zur Nah- und Fernwärme leisten könnten, Teil des EU-Projekts „Reuseheat“.

Weiterlesen
Die „VMware Blockchain 1.0“ gibt es jetzt seit zirka einem Jahr. Auf einem Blog informiert das Entwicklerteam etwa vierteljährlich über die jüngsten Veränderungen der Plattform.  (JJ Ying auf Unsplash)
Die Entwickler berichten

Die Arbeit an der VMware-Blockchain-Plattform

Eine robuste dezentrale Vertrauensplattform für Shared Anwendungen auf Unternehmensebene bereitzustellen, das ist das Anliegen der VMware-Entwickler, die „VMware Blockchain 1.0“ zum Fliegen bringen wollen. Immerhin gibt es diese Version bereits seit einem Jahr, doch ändert sich die Plattform permanent. In einem Blog-Beitrag, der zur „VMworld“ in der vergangenen Woche online ging, finden sich die grundlegenden Überlegungen zur Weiterentwicklung.

Weiterlesen
Es dürfte in Deutschland nicht viele Datacenter geben, deren Backup-Rechenzentrum in mindestens 200 Kilometern Entfernung liegt.  (©  kamasigns - stock.adob.com)
Nachgefragt: Die Empfehlungen für Georedundanz

BSI-Kriterien für Redundanz-Datacenter - Ist das Bundesamt übers Ziel hinausgeschossen?

Unter Co-Location-Anbietern und Rechenzentrumsbetreibern generell sorgt die BSI-Empfehlung für Datacenter, die eine Tier 3-, Tier-4-Zertifizierung beziehungsweise einen entsprechend sicheren Betrieb anstreben, eine 200-Kilometer-Distanz einzuhalten, um Georedundanz herzustellen, für Aufregung. Immerhin bedeutet das zum vorher empfohlenen Sicherheitsabstand eine Erhöhung um das 40fache. DataCenter-Insider hat beim BSI nachgefragt.

Weiterlesen