Ulrike Ostler ♥ DataCenter-Insider

Ulrike Ostler

Chefredakteurin Datacenter-Insider
Vogel IT-Medien GmbH/ DataCenter-Insider

Ulrike Ostler ist Chefredakteurin von DataCenter-Insider, einem B2B-Portal, das über Rechenzentren berichtet. Seit 2006 ist sie bei Vogel IT-Medien in Augsburg beschäftigt, nach Stationen bei "Silicon.de", der "Computer Zeitung" des Konradin-Verlags, bei "eBusiness" vom Handelsblattverlag und bei der "Computerwoche", ein IDG-Medium.
Sie hat an der Westfälischen Wilhelms Universität Philosophie und Geschichte studiert, Sekundarstufe I und II, hat das Erste und Zweite Staatsexamen in beiden Fächern, hat in einer Lokalredaktion volontiert und eine Ausbildung zum Betriebswirt für Kommunikations- und IT-Technik. Zwischendurch hat sie eine Abteilung für Marketing und Softwaredokumentation geleitet.

Artikel des Autors

Die aktuelle Version 8 des Betriebssystems Red Hat Enterprise Linux soll Administratoren und Entwicklern eine kosistente Erfahrung bieten, über Datacenter- und Cloud-Grenzen hinweg.  (Red Hat)
Betriebssystem erlaubt mehr Automatisierung und Entwicklerproduktivität

Red Hat Enterprise Linux 8 kündigt sich an

Insider wissen: Red Hat im eigenen Rechenzentrum unterscheidet sich von dem in einer Public Cloud. Das ist für Administratoren und Entwickler ärgerlich und soll sich nun ändern. „Red Hat Enterprise Linux 8“ soll für jeden Workload in jeder Umgebung eine durchgängige Linux-Erfahrung für Unternehmen bieten: von Bare-Metal-Servern und Linux-Containern bis hin zu Public und Private Clouds.

Weiterlesen
Zum Projekt Reuseheat gehören vier unterschiedliche Anwendungsfälle in vier Städen. Die erwarteten Einsparungen durch die Nutzung von Abwärme, etwa von einem Rechenzentrum, belaufen sich auf 5,5 Gigawattstunden pro Jahr beziehungsweise 1.135 Tonnen CO2 pro Jahr.  (Reuseheat)
Daten sammeln, zum Mitmachen auffordern und Erfolge demonstrieren - das EU-Projekt Reuseheat

Die EU rechnet: Datacenter-Abwärme nutzen ist keine Gewissensfrage, sondern Notwendigkeit

Ist es nicht eine Schande? „Die Wärmemenge, die EU-weit von Energie-Anlagen und -Industrien verschwendet wird, entspricht jener, die derzeit zum Heizen aller Gebäude in Europa gebraucht wird.“ Dass nur wenige Rechenzentren Abwärme in Heizungssysteme oder gar Fernwärmenetze einspeisen, ist bekannt. Jetzt ist der Beitrag den Datacenter zur Nah- und Fernwärme leisten könnten, Teil des EU-Projekts „Reuseheat“.

Weiterlesen
Application Deleivery ist einer der Theman, die Suse auf die Agenda der Konferenz „Susecon“ gesetzt hat. So sieht das Bild aus Techniken dafür aus. (Suse)
Susecon 2019

Bei Suse steht Wachstum durch Neues und Bewährtes, organisch und durch Akquisen an

Derzeit findet mit über 1.000 Teilnehmern in Nashville, Tennessee, die diesjährige Suse-Konferenz „Susecon“ statt. Es ist die erste, seit das Unternehmen wieder als eigenständiges agiert. Da Suse derzeit rund 15 Prozent Wachstum ausweist, dürfen die Anwesenden Neues im Produktportfolio erwarten, mit dem sich der Erfolg für Kunden, Partner und Communitiy fortsetzen lässt: Multicloud, Hybrid Cloud, Kubernetes, Serverless, KI sowie die Applikationsbereitstellung stehen auf der Agenda.

Weiterlesen
Neuartige Anwendungen und große Datenmengen machen den Einsatz von Akzeleratoren notwendig. Die brauchen eine bessere Verbindung zu den Prozessoren. Unter anderem dafür soll der „Compute Express Link“ sorgen.  (gemeinfrei - geralt/ Pixabay)
Intel und Partner gründen Compute-Express-Link-Konsortium

CXL für den schnellen Austausch zwischen CPU und Akzelerator

Intel hat mit Partnern, darunter Alibaba, Cisco, Dell EMC, Facebook, Google, Hewlett Packard Enterprise, Huawei und Microsoft, ein Konsortium zur Entwicklung der Technologie „Compute Express Link“ (CXL) gegründet. Dabei handelt es sich um einen Schaltungsträger, der in Rechenzentren für höchste Leistung sorgen und Engpässe zwischen CPU und Beschleuniger vermeiden soll.

Weiterlesen
Die virtuellen Maschinen auf „Azure“, die auf den AMD-Prozessoren „Epyc 7551“ basieren, „Lsv2“, stehen nun zur Verfügung.  (AMD)
Für hohe IOPS-Workloads gedacht

AMD Epyc über Azure Lsv2

Die Cloud-Instanzen „Microsoft Azure Lsv2“, die auf dem AMD-Prozessor „Epyc“ basieren, stehen jetzt zur Verfügung. Sie sind mit hoher I/O-Fähigkeit und NVMe-basierter Speicherleistung gedacht für Kunden, die Big Data-Datenbanken, SQL- und NoSQL-Datenbanken, Data Warehousing und große Transaktionsdatenbanken wie MongoDB, Cloudera, Redis und Cassandra betreiben.

Weiterlesen
Qualitätsmängel und Fehlentscheidungen können richtig weh tun und das Gefahrenpotenzial für Rechenzentren ist hoch.  (gemeinfrei - MikesPhotos/ Pixabay)
Das Dickicht aus Datacenter-Bedrohungen

An Risiken für den Rechenzentrumsbetrieb mangelt es - gar nicht

Sicher, die meisten Rechenzentrumsbetreiber haben Redundanzen eingebaut und irgendwo einen Notfallplan. Doch es gilt auch die Kosten für eines Rechenzentrums beim Bau und Betrieb im Blick zu behalten… Einzelne Risiken sind also doch nicht so bedrohlich? Doch welche? Béla Waldhauser, CEO der Telehouse Deutschland GmbH, gibt einen Überblick über die Gefährdungen und ein paar Best-Practice-Beispiele.

Weiterlesen
Es dürfte in Deutschland nicht viele Datacenter geben, deren Backup-Rechenzentrum in mindestens 200 Kilometern Entfernung liegt.  (©  kamasigns - stock.adob.com)
Nachgefragt: Die Empfehlungen für Georedundanz

BSI-Kriterien für Redundanz-Datacenter - Ist das Bundesamt übers Ziel hinausgeschossen?

Unter Co-Location-Anbietern und Rechenzentrumsbetreibern generell sorgt die BSI-Empfehlung für Datacenter, die eine Tier 3-, Tier-4-Zertifizierung beziehungsweise einen entsprechend sicheren Betrieb anstreben, eine 200-Kilometer-Distanz einzuhalten, um Georedundanz herzustellen, für Aufregung. Immerhin bedeutet das zum vorher empfohlenen Sicherheitsabstand eine Erhöhung um das 40fache. DataCenter-Insider hat beim BSI nachgefragt.

Weiterlesen
Rechenzentren mit dern Verfügbarkeitsklassen 3 und 4 müssen georedundant sein; das BSI fordert mindestens 200 Kilometer Abstand zwischen den Datacenter. Macht das Sinn? (gemeinfrei - Tama66/Pixabay)
Abstand bitte: Latenzen, Kosten und noch viel mehr Probleme folgen

BSI: Georedundanz bedeutet 200 Kilometer zwischen den Rechenzentren

Im Dezember 2018 hat das Bundesamt für Sicherheit in der Informationstechnik (BSI) die Version 1.0 der „Kriterien für die Standortwahl höchstverfügbarer und georedundanter Rechenzentren“ herausgegeben. Es geht dabei um ein oder mehrerer Ausweich-Datacenter als Maßnahme zur Notfallvorsorge, also um die Überlegung, ob und wie ein solches möglichst den gesamten zentralen IT-Betrieb übernehmen kann, sollte das jeweils andere nicht voll funktionsfähig sein.

Weiterlesen
 (RS Components)
Über die Grenzen des Gewohnten

Disruptive Trends 2019

KI, Edge Computing, Blockchain – diese Begriffe geistern schon seit geraumer Zeit durch die Medien. Die dahinterstehenden Konzepte und Prozesse werden als die zukünftigen Heilsbringer der Digitalwirtschaft gepriesen. Und das zurecht. Und was führt 2019 noch zu Umwälzungen?

Weiterlesen
Was hält das Jhar 2019 an Herausforderungen, Aufgaben und Chancen für die Datacenter-Betreiber parat? Das Uptime Institut hat sich auf die Suche nach Trends gemacht, die das Geschehen im Markt und in den Rechenzentren selbst beleuchten.  (gemeinfrei - geralt/Pixabay)
Chancen und Risiken für die Datacenter-Branche im Jahr 2019

Die Top 10 Datacenter-Trends von Uptime Institute Research

Die Bedingungen für und die Einflussfaktoren auf den Bau, die Modernisierung und den Betrieb von Rechenzentren ändern sich massiv – nicht immer zum Positiven; So verursachen Frachkräftemangel aber auch das außerordentliche Wachstum Verzögerungen in der Lieferkette. Zugleich schaffen Innovationen in den Bereichen Vernetzung, Leistung und Belastbarkeit neue Möglichkeiten. Das Uptime-Institut hat sich die Trends für 2019 genauer angeschaut.

Weiterlesen
Interview mit Dieter Thiel, Senior Consultant der Data Center Group

Verbindliche Nachhaltigkeitskennzahlen und ein Register für Rechenzentren

Der Energieverbrauch von Rechenzentren steigt und steigt. Umso erstaunlicher ist es, dass es keine verlässlichen Daten und einheitlichen Kenngrößen für Datacenter gibt, was Nachhaltigkeit oder gar Klimaneutralität, die die Regierung bis 2027 fordert, anbelangt. Hier setzt das Projekt „PeerDC“ an, das die Erstellung eines praxisgerechten Rechenzentrumsregisters zum Ziel hat. Die Data Center Group arbeitet mit daran. Warum?

Weiterlesen
Das Öffentliche Energie-Effizienzregister für Rechenzentren kommt - nicht

PeerDC – gescheitert? Ein Gespräch mit dem Projektleiter

Das Projekt „Public Energy Efficiency Register of Data Centres“, kurz PeerDC, das vom Umweltbundesamt in Auftrag gegeben worden war und das unter der Leitung von Professor Peter Radgen stand, ist nahezu abgeschlossen – und gescheitert; denn ein öffentliches Register zu den Energiekennzahlen eines jeden Rechenzentrums wird es nicht geben. Der Professor hält es trotzdem für einen Erfolg.

Weiterlesen
 (Bild: AWS)
AWS eröffnet Cloud-Standort in Deutschland – Kärcher, Burda Media, und Talanx ziehen ein

Amazon Web Services bezieht zwei Rechenzentren in Frankfurt

Seit Donnerstag 15:00 Uhr ist die AWS-Cloud, made in Frankfurt live. Damit bietet Amazon Web Services in der EU zwei weitere Verfügbarkeitszonen an, beziehungsweise neben Irland einen zweiten Standort, den elften weltweit. „Überrascht Sie dieser Schritt?“, fragt Martin Geier, Managing Director von AWS Deutschland. DataCenter-Insider fragt: Was halten Kunden davon?

Weiterlesen
Alleingänge und Feigenblattpolitik

Béla Waldhauser: Das EnEfG gefährdet den Datacenter-Standort Deutschland

Béla Waldhauser dürfte der prominenteste unter den Vertretern der deutschen Rechenzentrumsbranche sein. Das geplante Energie-Effizienzgesetz (EnEfG) gefährde den Rechenzentrumsstandort Deutschland, lautet seine Aussage. Doch warum sollte das so sein, wenn auch anderenorts in der Welt durchaus vergleichbare Regeln für den Bau und Betrieb von Datacenter in der Mache sind?

Weiterlesen
Rechenzentren mit dern Verfügbarkeitsklassen 3 und 4 müssen georedundant sein; das BSI fordert mindestens 200 Kilometer Abstand zwischen den Datacenter. Macht das Sinn? (gemeinfrei - Tama66/Pixabay)
Abstand bitte: Latenzen, Kosten und noch viel mehr Probleme folgen

BSI: Georedundanz bedeutet 200 Kilometer zwischen den Rechenzentren

Im Dezember 2018 hat das Bundesamt für Sicherheit in der Informationstechnik (BSI) die Version 1.0 der „Kriterien für die Standortwahl höchstverfügbarer und georedundanter Rechenzentren“ herausgegeben. Es geht dabei um ein oder mehrerer Ausweich-Datacenter als Maßnahme zur Notfallvorsorge, also um die Überlegung, ob und wie ein solches möglichst den gesamten zentralen IT-Betrieb übernehmen kann, sollte das jeweils andere nicht voll funktionsfähig sein.

Weiterlesen
Die Öko-Alternative für Rechenzentren von Kohler SDMO

Nachhaltig? Diesel-Aggregate für Notstrom mit HVO

Kohler hat 2005 den 1966 als SDMO Industries gegründeten Hersteller für Stromerzeuger übernommen, dieser ist heute der drittgrößte Hersteller auf dem Markt für Stromaggregate. Somit liefert er Dieselaggregate für die Notstromversorgung an Rechenzentren. Doch die Motoren produzieren CO2, selbst wenn sie ihren Zweck gar nicht erfüllen. Die Datacenter-Betreiber sind auf der Suche nach Ersatz. Was macht Kohler?

Weiterlesen
Die Idee für die Kühlung per Kyoto-Rad hat FI-TS für das Rechenzentrum auf dem Campus Nürnberg Süd vom Generalunternehmer Norris Network übernommen. Der Wärmetauscher erlaubt eine hohe Energie-Effizienz.  (Finanz Informatik Technologie Service GmbH & Co. KG )
Auf dem Gelände und im Betrieb eines Co-Location-Betreibers

Symbiose: Das neue FI-TS-Rechenzentrum in Nürnberg

Ein neues Rechenzentrum für die Banken- und Versicherungs-IT? Also weder Co-Location noch Cloud? Das gibt es – bei der Finanz Informatik Technologie Service GmbH & Co. KG (FI-TS) IT-Partner der Finanzwirtschaft und größter IT-Dienstleister für Landesbanken. Trotzdem gibt es Synergien mit einem Co-Location-Provider: Das neue Datacenter in Nürnberg schmiegt sich quasi an.

Weiterlesen
Hype Cycle for Emerging Technologies, 2021 (Gartner (August 2021))
NFT, Quantum ML, generative KI, homomorphe Verschlüsselung sowie composable Apps und Netze

Die aufstrebenden Technologien im aktuellen Gartner-Hype-Cycle

Die drei zentralen Themen des „Hype Cycle for Emerging Technologies, 2021“ sind: Vertrauen schaffen, Wachstum beschleunigen und den Wandel gestalten. Diese werden Unternehmen dazu bewegen, aufstrebende Technologien wie Non-Fungible Tokens (NFT), Sovereign Cloud, Data Fabric, generative KI und Composable Networks zu erforschen und sich dadurch Wettbewerbsvorteile sichern.

Weiterlesen
Bess füttert das belgische Google-Datacenter mit Energie und Kohle

Batteriespeicher anstelle von Notstromdiesel im Rechenzentrum

In den meisten Rechenzentren sorgen Dieselgeneratoren für Ersatz, sollte der Strom ausfallen. Das passiert nur selten, doch die Anlagen müssen getestet werden. Wie oft liegt im Ermessen des Datacenter-Betreibers. Dass dabei CO2 entsteht, liegt in der Natur der Anlage und das steht im krassen Gegensatz zu einem klimaneutralen Betrieb, der in der EU, regulatorisch gestützt, angestrebt wird. Batterie-Speicher wären eine Alternative. Google in Belgien probiert das aus.

Weiterlesen
60 Jahre Leibniz Rechenzentrum

Die LRZ-Zukunft steht auf Exascale-, KI- und Quantencomputing

Am 14. Juli hat das Leibniz-Rechenzentrum (LRZ) der Bayerischen Akademie der Wissenschaften sein 60jähriges Bestehen gefeiert. Das Hochleistungsrechenzentrum, das unter anderem den Supercomputer „SuperMUC“ beherbergt ist der IT-Dienstleister der Münchner Universitäten und bayerischen Hochschulen sowie Kooperationspartner wissenschaftlicher Einrichtungen in Bayern, Deutschland und Europa. Doch Alter hat in der IT nur bedingt Wert. Wie geht es weiter?

Weiterlesen
Der Branchenverband Bitkom e. V. hat das Borderstep Institut mit der Untersuchung des deutschen Rechenzentrumsmarkts beauftragt. Die Marktstudie weist Wachstum, Stanortfragen und Umweltansprüche aus.  (©sdecoret - stock.adobe.com)
Bitkom-Studie zu Rechenzentren und ihre aktuelle Entwicklung

Datacenter in Deutschland: Mehr Daten – mehr Strom?

Das größte Potenzial zur CO2-Reduktion liegt bei Rechenzentren in der Abwärmenutzung. Das ist eines der Ergebnisse der Bitkom-Studie „Rechenzentren in Deutschland“, die der Branchenverband gestern vorgestellt hat. Gedacht ist vor allem an eine Fernwärme in städtischen Ballungszentren. Doch die Netze und Abnehmer fehlen. Bitkom-Hauptgeschäftsführer Bernhard Rohleder sagt: „Es braucht eine politische Flankierung.“

Weiterlesen
Es geht auch anders

EMC- Home of Data redet nicht von Nachhaltigkeit, sondern handelt

Manch ein Co-Location-Anbieter scheint geradezu darauf zu warten, dass ihnen die Bundesregierung, die EU oder wer auch immer strengere Regeln für den Umgang mit den Ressourcen Wasser und Strom auferlegt, obwohl klar ist, dass ihre Rechenzentren bis 2030 klimaneutral sein sollen. Wie soll das gehen? ist die meistgehörte Frage angesichts der Mangelware Ökostrom? Und dann gibt es Anbieter wie EMC - Home of Data. Hier ticken die Uhren anders.

Weiterlesen
Weg mit den Notstrom-Dieselgeneratoren!

Neue SLAs geben Batteriespeichern für Rechenzentren eine Chance

„Im Vergleich zu Dieselaggregaten können Batteriespeichersysteme (BESS) keine unbegrenzte Anzahl von Autonomiestunden unter Standortbedingungen garantieren“, lautet eine Aussage des Uptime Institute. Doch das könne auch nicht das Ziel sein, argumentiert Guiseppe Leto, Portfolio Manager Data Center bei Siemens in der Schweiz (SI S VES VMM). Vielmehr gehe es darum, die Service Level Agreements anders zu fassen. Wie er das meint?

Weiterlesen
Jetzt wird es ernst

Umweltgesetze für deutsche und französische Rechenzentren

Am 13. Juli haben das Bundesministerium für Wirtschaft und Klimaschutz (BMWK) und das Bundesministerium für Wohnen, Stadtentwicklung und Bauwesen (BMWSB) ein „Sofortprogramm“ zum in Ergänzung zum Bundes- Klimaschutzgesetzes beschlossen. Betroffen sind auch die Rechenzentren. Derweil will die französische Teleko-Regulierungsbehörde ihr Nachhaltigkeitsaudit für den digitalen Sektor nicht nur um Informationen über Devices sondern auch über Datacenter erweitern.

Weiterlesen
Ausgebremst: Huawei bekommt keine Intel-Chips und baut keine Server mehr.  (© evannovostro - stock.adobe.com)
End of Life

Huawei lässt die Server sterben

Wie passend: Endlich stehen die Präsenzveranstaltungen, auch bei Huawei, wieder auf, der deutsche Part der Veranstaltung „Huawei Eco-Connect Europe 2021“ findet am 28. Oktober 2021 in einem Düsseldorfer Kino statt, wo die Teilnehmer zum Schluss in den aktuellen „James-Bond: Keine Zeit zu sterben“ eingeladen worden sind und das Ende ist kein Gutes: Huawei stellt die Produktion von Servern ein. Dazu Jörg Karpinski im Interview:

Weiterlesen
Für 200 Megawatt einen Datacenter-Campus

Co-Location-Anbieter Digital Realty will in Frankfurt Nah- und Fernwärme liefern

Die 'Digital Park Fechenheim' in Frankfurt am Main ist ein Novum für Deutschland. Es entsteht für Digital Realty der größte Datacenter-Campus mit 11 einzelnen Rechenzentrumsgebäuden - im Vollausbau mit 200 Megawatt Anschlussleistung - sowie das umfangreichste Projekt zur Abwärmenutzung. Außerdem zieht ein Teil der Rechenzentrumsinfrastruktur in denkmalgeschützte Gebäude.

Weiterlesen
D-Datacenter - Status Quo, Zukunft, Selbstkritik und Handlungsbedarf

Das BMWK-Gutachten zu Rechenzentren in Deutschland

„Rechenzentren haben sich zu einer der am schnellsten wachsenden, Energie-intensiven Branchen in Deutschland entwickelt“, besagt das „Gutachten im Auftrag des Bundesministeriums für Wirtschaft und Klimaschutz, Stand und Entwicklung des Rechenzentrumsstandorts Deutschland“. Und weiter: „Mit mehr als 2.000 Rechenzentren und einer IT-Anschlussleistung von über 2.700 MW ist Deutschland bereits der größte Standort für digitale Infrastruktur in Europa.“ Was kommt noch?

Weiterlesen
Nlighten sorgt für den Nachweis positiver Effekte von Serverhitze

Die Nutzung von Datacenter-Abwärme braucht sektorübergreifende Kennzahlen

Es deutet sich längst an, dass Rechenzentren Bestandteil der Kritischen Infrastruktur werden, nicht nur, weil die großen wegen Unmengen an Daten und Datenverkehr ohnehin zu den KRITIS-Unternehmen gehören. Sie können auch Strom und Abwärme liefern. Nlighten hat nun eine Studie veröffentlicht, die die Möglichkeit evaluiert, Energie-Erzeugung und Energieverbrauch in eine neue Metrik einzubinden, deren Perimeter neben dem kohlenstofffreien Strom (CFEl) auch die kohlenstofffreie Wärme (CFEH) berücksichtigt.

Weiterlesen
Am 15. Juni hat IBM den Computer „Quantum System One“ an die Fraunhofer Gesellschaft übergeben. Der Aufbau in Stuttgart gelang unter einmaligen, außergewöhnlichen Bedingungen und erforderte ungewöhnliche Skills - von zwei Teams. (IBM)
Mit viel Bammel, null Erfahrung und unzähligen Webex-Stunden….

Mitten im Lockdown: Wie der Quantencomputer in Stuttgart entstand

Eigentlich, ja eigentlich war alles gut vorbereitet: Immerhin hat Chris Lirakis schon den Aufbau von 40 IBM-Quantencomputern geleitet, sein 5-Personen Kernkompetenz-Team ist absolut eingespielt. Am 9. November 2020 sollte es losgehen mit dem Bau des ersten „Quantum System One“ außerhalb der USA, in Ehningen bei Stuttgart, für die Fraunhofer Gesellschaft. Und dann: Lockdown, Quarantänen, Reisen für die US-Experten unmöglich.

Weiterlesen
Sie haben ein Rechenzentrum im Keller Ihres Wohnhauses?

MdB Anke Domscheidt-Berg zum geplanten Energie-Effizienzgesetz

Die Bundestagsabgeordnete Anke Domscheit-Berg gilt in der IT- und Datacenter-Branche als kompetente Fachfrau und für viele zugleich als „der falschen Partei zugehörig“; denn sie ist digital-politische Sprecherin der Linksfraktion, also auf jeden Fall in der Opposition. Im Podcast erläutert sie, welche Chancen das geplante Energie-Effizienzgesetz (EnEFG) hat und welche vertan werden – insbesondere im Hinblick auf die Rechenzentren.

Weiterlesen
Wer DCIM-Lücken unverschlossen lässt, bringt komplette Datacenter in Gefahr. (gemeinfrei)
O weh, o weh! Datacenter-Management-Tools lassen Angreifer passieren

Dark- und Deep-Net-Analyst Cyble sucht und findet Sicherheitslücken bei 20.000 Rechenzentren

Man stelle sich einen Angriff auf das Kühlsystem eines Rechenzentrums vor …. Lieber nicht? Doch. Das Unternehmen Cyble hat den Einsatz einiger Datacenter Infrastructure Management-Tools von Devive42, APC by Schneider Electric, Vertiv und Sunbird auf Abwehrmöglichkeiten von Cyber-Angriffen untersucht und fand Schnittstellen so weit offen wie Scheunentore.

Weiterlesen
Equninix ist Teil eines Konsortiums, das sich im Dezember 2021 gegründet hat und erforschen will, wie Brennstoffzellentechnologie sauberer und für Rechnezentren nutzbar werden kann. (akitada31 auf Pixabay)
Clean Hydrogen Partnership

Equinix wächst und investiert in CO2-arme Brennstoffzellen für Datacenter

Beim Rechenzentrumsbetreiber Equinix stehen große Investitionen an. Zum einen wird der Konzern das Projekt Clean Hydrogen Partnership für die Entwicklung CO2-armer Brennstoffzellen, die der Stromversorgung von Rechenzentren dienen, unterstützen. Zum anderen kauft er für 320 Millionen Dollar Mainone: Der Datacenter-Betreiber baut damit eine Rechenzentrums- und Konnektivitätspräsenz in Nigeria, Ghana und der Elfenbeinküste auf, Märkte, in denen Mainone tätig ist.

Weiterlesen
Studien-Update 2023 des Branchenverbands Bitkom

Schlaglichter auf den Data­center-Markt in Deutschland

Wow! Zwischen 2010 und 2022 sind die Kapazitäten der Rechenzentren in Deutschland gemessen in IT-Anschlussleistung um über 90 Prozent gewachsen. Und wie geht es weiter? Der Branchenverband Bitkom e. V. hat dazu die Studie „Rechenzentren in Deutschland – Aktuelle Marktentwicklungen“ herausgegeben; jetzt folgt ein Update der Untersuchungen aus den Jahren 2022, 2017 und 2014.

Weiterlesen
Wer sich aufmacht, mächtige Desaster Recovery- und Backup-Tools zu finden, dem ist eine Orientierung durch die Einteilung in Quadranten möglicherweise eine Hilfe. Gartner hat ein „Magic Quadrant for Enterprise Backup and Recovery Software Solutions“ erstellt.  (Stefan Keller auf Pixabay)
Gartner untersucht Hersteller und Backup- sowie DR-Produkte

Aus den Magischen Quadranten für Backup und Recovery

Verantwortliche für Infrastruktur und Betrieb (I&O), die mit dem Backup-Betrieb betraut sind, müssen die Backup-Infrastruktur neu gestalten, heißt es im Gartner-Report „Magic Quadrant for Enterprise Backup and Recovery Software Solutions“, vom Juli dieses Jahres. Die Analysten nennen etwa Aspekte der Technologie, des Betriebs und der Nutzung, die es zu berücksichtigen gilt.

Weiterlesen