Ulrike Ostler ♥ DataCenter-Insider

Ulrike Ostler

Chefredakteurin Datacenter-Insider
Vogel IT-Medien GmbH/ DataCenter-Insider

Ulrike Ostler ist Chefredakteurin von DataCenter-Insider, einem B2B-Portal, das über Rechenzentren berichtet. Seit 2006 ist sie bei Vogel IT-Medien in Augsburg beschäftigt, nach Stationen bei "Silicon.de", der "Computer Zeitung" des Konradin-Verlags, bei "eBusiness" vom Handelsblattverlag und bei der "Computerwoche", ein IDG-Medium.
Sie hat an der Westfälischen Wilhelms Universität Philosophie und Geschichte studiert, Sekundarstufe I und II, hat das Erste und Zweite Staatsexamen in beiden Fächern, hat in einer Lokalredaktion volontiert und eine Ausbildung zum Betriebswirt für Kommunikations- und IT-Technik. Zwischendurch hat sie eine Abteilung für Marketing und Softwaredokumentation geleitet.

Artikel des Autors

Dier Wettervorhersagen sollen präziser werden und zutreffender. Atos liefert einen Supercomputer an das ECMWF und Google wendet Machine-Learning auf bestehnde Informationen an.  (ECMWF (Wetterzentrale))
Atos hier, Google da - Supercomputer hier - ML überall

Supercomputing und Machine Learning für präzise Wetterprognosen

Wetter ist wichtig - für den Katastrophenschutz, für Heuschnupfengeplagte, für die Landwirtschaft, für Grillfestplaner …. -, doch zu ungenau, bezogen auf die Zeitfenster und geografische Raster. Um bessere Vorhersagen treffen zu können, braucht es leistungsfähigere Computer und Künstliche Intelligenz. So will Google künftig „nowcasten“ und Atos liefert einen AMD-bestückten Supercomputer an das Europäische Zentrum für mittelfristige Wettervorhersagen.

Weiterlesen
Die Labore des Rise Sics North im schwedischen Luleå bieten die Möglichkeit, Techniken für Datacenter-Autonomie auszuprobieren.  (Rise Sics North)
Firmen aus Finnland, Schweden und Kanada initiieren AutoDC

Testen, Forschen, Ausprobieren für das autonome Rechenzentrum

Autonome Rechenzentren sollen möglichst ohne menschliches Eingreifen und unabhängig von kontextbedingten Störungen wie intermittierendem Stromausfall oder Überhitzung ihren Betrieb aufrecht halten können und sich in gewissem Maße „selbst heilen“. Das Projekt „AutoDC“, getragen von einem Konsortium, hat sich 2019 gegründet, um einen innovativen Designrahmen für autonome Rechenzentren zu schaffen.

Weiterlesen
Beginnen die ´Goldenen Zwanziger`für die Rechenzentrumsindustrie? (Annette Meyer auf Pixabay)
Das Uptime-Institute gibt einen Ausblick

Zehn Trends in der Rechenzentrumsbranche für 2020

Die Branche der digitalen Infrastruktur wächst und verändert sich - rasant. Die Community aus Datacenter-Investoren, -Designern, -Eigentümern und -Betreibern blüht auf, kämpft aber überall zugleich mit den gleichen Problemen: Verfügbarkeit und Ausfallrisiken, Auswirkungen der Cloud, Bewegung hin zur Edge, schnelle Innovationszyklen und unvorhersehbare (wenn auch meist steigende) Nachfrage.

Weiterlesen
ASHRAE passt den Datacenter-Standard 90.4 für Energie-Effizienz an aktuelle Herausforderungen an.  (© vladimircaribb - stock.adobe.com)
Die Norm 90.4 - 2019

ASHRAE aktualisiert den Energiestandard für Rechenzentren

Die American Society of Heating, Refrigerating and Air-Conditioning Engineers (ASHRAE) hat ihren, auch hierzulande viel beachteten Energiestandard für Rechenzentren überarbeitet. Der ANSI-ASHRAE Standard „90.4“ legt detaillierter als bisher Mindestanforderungen an die Energie-Effizienz für die Planung und den Betrieb von Rechenzentren fest. In der aktualisierten Fassung von 2019 werden Insbesondere ihre Lastanforderungen im Vergleich zu anderen Gebäuden berücksichtigt.

Weiterlesen
Der Plattenwärmetauscher ist im flüssiggekühlten System von Schneider Electric, Iceotope und Avnet integriert.  (Schneider Electric)
Das Server-Tauchbad für jedes Rechenzentrum

Schneider Electric, Avnet und Iceotope stellen Rack-System mit Immersionskühlung vor

Im Oktober hatten Schneider Electric, Avnet und Iceotope ihre Kooperation im Bereich immersiver Flüssigkeitskühlung für Rechenzentren angekündigt. Nun liefern die Partner. Dazu gehören GPU-Server auf einer Höheneinheit, der in der Icetope-Tauchkühlung, im „Netshelter“-Gehäuse von Schneider Electric untergebracht wird. Avnet wiederum bietet global ein Ökosystem für das Design-, Produkt-, Marketing- und Lieferkettenexpertise in jeder Phase des Produktlebenszyklus.

Weiterlesen
Die Open-Source-Datenvirtualisierungssoftware von Huawei heißt „open Hetu“. Mit dem quelloffenen Kernel können Entwicklerdiese anpassen, einschließlich der Datenquellenerweiterungen und SQL-Ausführungsrichtlinien. (Gerd Altmann auf Pixabay)
Daten finden, nutzen und immer wieder verwenden

Huawei macht aus seiner Datenvirtualisierung Heto Engine ein Open-Source-Projekt

Huawei öffnet seine bisher proprietäre Datenvirtualisierungs-Engine „Hetu Engine“ und bietet sie als Open Source unter der Bezeichnung „open Hetu“ an. Der Startzeitpunkt ist für Juni 2020 geplant. Ziel sei es, Partnern die einfache Nutzung großer Datenmengen zu ermöglichen und die Datenverwaltung zu vereinfachen, hieß es kürzlich auf dem „Global Intelligent Data Infrastructure Forum 2019“ von Huawei in Shenzhen.

Weiterlesen
KI-Prozessoren sind stark im Kommen. Hersteller Graphcore kann nun mit guten Ergebnissen bei Vergleichtests aufwarten: Es zählen: Durchsatz, Latenz und Strombedarf (Graphcore)
Der Microsoft- und Dell-Technologies-Liebling

Graphcore stellt eine Reihe von Benchmarks für seinen KI-Akzelerator vor

Seit Montag gibt es auf der Graphcore-Github-Seite eine Reihe von Benchmarks und Anwendungsbeispiele, die auf der Basis von IPU-Systemen entstanden sind und sich mithilfe von Code replizieren lassen. Die Systeme sind ab sofort als „IPU Cloud Preview“ auf „Microsoft Azure“ und als IPU-Server-Produkte von Dell mit voller Unterstützung durch den Graphcore-Software-Stack „Poplar“ verfügbar.

Weiterlesen
Die KVM-Konsole „Aten CL3800“ verzichtet auf einen integrierten Switch.  (Aten )
Rack-Montage auf engstem Raum

Check für die Datacenter-KVM-Konsole Aten CL3800

KVM-Konsolen sind feste Bestandteile in einem Rechenzentrum. In der Regel sind sie in IT-Racks oder auch Vorsorgungsschränken auf einer Höheneinheit verbaut und ersetzen sonstige KVM-Installationen: Keyboard, Video, Maus. Es mag auf den ersten Blick aussehen, als gäbe es keinen Grund, bestehende Konsolen aufzurüsten oder einem Rack hinzuzufügen, das ansonsten genügend Platz für einen billigen Monitor und eine Tastatur bietet, aber es gibt mehrere.

Weiterlesen
Fujitsu-President Takahito Tokita stellt auf der Hausmesse „Fujitsu Forum“ die strategische Ausrichtung für Fujitsu in Europa vor.  (Ulrike Ostler/ Vogel IT-Medien GmbH)
Fujitsu Forum - Praxis trifft auf Innovation und neue Firmenstrukturen

Digital-Annealer-Projekte, neue KI-Technologie und Strategien garniert mit Brot und Butter

Vergangene Woche fand die Hausmesse „Fujitsu Forum“ in München statt. Es war voll, wenngleich das Medieninteresse im Vergleich zum Vorjahr abgeflaut schien. Vom Fujitsu-President Takahito Tokita erneut kein Wort über die Schließung der Augsburger Produktion. Interessant war allerdings seine Reihenfolge der Eckpunkte einer neuen strategischen Ausrichtung in Europa: Digital Annealer, Supercomputer und KI sowie Realisierung von SAP-Projekten in einer Neuauflage eines umfassenden Partner-Systems. Auch die Großrechner-Technik „BS2000“ blieb nicht unerwähnt.

Weiterlesen
Wilfredo Sotolongo, Chief Customer Officer Lenovo Data Center Group, kündigt auf der „Accelarate 2019“ in der „BWW Welt“ Jörn Kellermann von T-Systems an, der die Kooperation bezüglich „Future Cloud Infrastructure“ vorstellt. 
 (Lenovo)
100 Millionen Dollar Investment

Die Future Cloud Infrastructure der Telekom baut auf Lenovo auf

Volles Haus! Am vergangenen Dienstag machte die weltweite Veranstaltungsreihe „Lenovo Accelerate“ Station in München. Wer die Keynotes in der „BMW Welt“ noch mit Verspätung besuchen wollte, musste stehen. Der Hersteller nahm die Veranstaltung zum Anlass eine Kooperation mit T-Systems bekannt zu geben: Das geplante Hybrid-Cloud-Angebot der Deutschen Telekom, das jetzt noch intern die Bezeichnung „Future Cloud Infrastructure“ (FCI) trägt, wird aus Lenovo- und VMware-Komponenten gebaut.

Weiterlesen
Wie lässt sich Edge-Datacenter kategorisieren?  (gemeinfrei: Grillot edouar auf  Unsplash)
Eco-Diskussion um einen schwammigen Begriff

Definieren Sie Edge Datacenter!

Anfang September hatte der Eco - Verband der Internetwirtschaft e.V. zum Workshop über Edge-Rechenzentren eingeladen. Die Anwesenden wollten klären, was das eigentlich ist. Herauskommen sollte bestenfalls eine Definition, aber mindestens eine Kategorisierung, etwa analog zu public, hybrid, private Cloud. Die schlechte Nachricht: Edge Datacenter können sowohl von der Größe, als auch vom Aufgabenspektrum, Bauweise und Betreiberart alles sein. Die gute Nachricht: Es bleibt spannend und die Chancen sind immens.

Weiterlesen
Wer will mit seinem „Microsoft Azure“ von Amsterdam oder sonstwo nach Frankfurt umziehen? Die deutsche Internet-Börse DE-CIX bietet kostenfreie Umstiegsmöglichkeiten an.  (DE-CIX)
Interview mit Harald Kriener vom Deutschen Internet-Austauschnoten DE-CIX

DE-CIX und die Microsoft Cloud-Region Deutschland

Im Frühjahr 2019 hat der DE-CIX als erster Internet Exchange eine direkte Verbindung mit der „Microsoft Express Route“ in Frankfurt am Main erschlossen. Nun, mit Bekanntgabe der neuen Microsoft Cloud-Rechenzentrumsregionen in Deutschland, will der Internet-Austauschknoten ab sofort den lokalen Interconnection-Ausbau forcieren und bietet über sein Partnernetzwerk den bereits an anderen europäischen „Azure“ Sites angeschlossenen Kunden eine kostenfreie Umzugsmöglichkeit an.

Weiterlesen
Vom 18. bis zum 20. September 2019 fand in Shanghai die Konferenz „Huawei Connect„“ statt, Treffen von 25.000 Teilnehmern und Schauplatz zahlreicher Vorträge, Ankündigungen, Use Cases und strategischen Überlegungen.  (Ostler)
Offene Hardware-Spezifikationen, Open Source Software, eigene Chipsets und KI in allem

Huawei Connect verdeutlicht Emanzipation von der US-Technik

Die jährliche Hausmesse „Huawei Connect“ ist die Veranstaltung des ICT-Konzerns, die sich mit den Enterprise-Infrastrukturen und -produkten beschäftigt. Zum Event in Shanghai vergangene Woche gab es jede Menge entsprechende Produktankündigungen - von den General Purpose- und KI-Chipsets „Kunpeng“ und „Ascend“ bis zu Networking- und Storage-Devices über offene Hardwarespezifikationen bis zu Open-Source-Software „Open Euler“ und „Open Gauss“. Außerdem im Portfolio: Erläuterungen zu Unternehmensstrategien.

Weiterlesen
Eric Xu, der derzeitige Chef von Huawei (einer von drei, die sich gegenseitig ablösen) präsentiert in Shenzen den KI-Prozessor „Ascend 910“, mitsamt Roadmap.  (Huawei )
Huawei-Chef Eric Xu: „Und heute haben wir geliefert.“

Der leistungsfähigste KI-Prozessor und ein passendes KI-Computing-Framework

Am vergangenen Freitag hat Huawei mit „Ascend 910“ den bisher leistungsfähigsten KI-Prozessor vorgestellt. Es ist bestimmt für das Training von Anwendungen Künstlicher Intelligenz. Außerdem hat der Konzern „Mindspore“ präsentiert, ein Framework, das es insbesondere Wissenschaftler erleichtern soll, KI-Anwendungen zu entwickeln – für alle KI-Hardware. Die Software soll 2020 Open Source werden.

Weiterlesen
Die Barrieren für Chatbots und Sprachassistenten fallen .... (Nvidia)
Verbesserungen im Training, in der Inferenz und beim Modell

Nvidia lässt Sprach-KI schneller lernen und verständiger antworten

Sprachdienste auf der Basis Künstlicher Intelligenz gibt es seit Jahren. Doch waren die Möglichkeiten begrenzt; Chatbots etwa scheiterten an den Möglichkeiten verschiedener Interpretationen beziehungsweise dem Erkennen des Kontextes. Es war schlicht unmöglich, extrem große KI-Modelle in Echtzeit einzusetzen. Nvidia nun einerseits Geschwindigkeitsrekorde bei KI-Trainings und -Inferenz erzielt und zugleich das bisher größte Sprachmodell entwickelt.

Weiterlesen
Das Sternbild Libra (Waage); die Facebook-Kryptowährung Libra soll zu den Stablecoins gehören und doch weltweit funktionieren. 2020 ist Start.  (gemeinfrei: Oleg Gamulinskiy auf Pixabay)
Libra Coin soll 2020 kommen

Die Weltwährung aus dem Hause Facebook

Es war nur eine Frage der Zeit bis die Hyperscaler mit eigenen Währungen, Kryptowährungen, in den Markt drängen. Nun hat MrBtc.org, ein Online-Casino, eine Infografik erstellt, die die von Facebook entwickelte Währung „Libra“ erklärt. Unter dem Brennglas prallen die Visionen von einer besseren Welt und Kommerz aufeinander.

Weiterlesen
Die Bundesanstalt für Immobilienaufgaben (Bima) verwaltet und veräußert Konversionsliegenschaften. Manche davon eignen sich zur Ansiedlung von Rechenzentren. Zuständig ist Kerstin Held. Das Interview mit ihr steht als Podcast zur Verfügung.  (CC BY 2.5)
Es lockt der DataCenter Day 2019

"Sie suchen eine Liegenschaft für ein Datacenter? Ich hätte da ein Exposé."

Seit gut einem Jahr beschäftigt sich Kerstin Held mit Rechenzentren; denn sie hat etwas, das viele Begehrlichkeiten weckt, Grundstücke und Immobilien, die für die Ansiedlung von Datacenter geeignet sind. Die geprüfte Immobilien-Projektentwicklerin arbeitet für die Bundesanstalt für Immobilienaufgaben (Bima) und ermittelt geeignete, zumeist Konversionsobjekte. Auf dem DataCenter Day 2019 ist sie anzutreffen.

Weiterlesen
OVH ist ein Familienbetrieb und zugleich Hyperscaler, Cloud-Anbieter und Computerfabtikant und -logistiker. Der Entwurf neuer Datensääle gehört ebenso zum Geschäft wie das Tüfteln an der Hardware und das Recycling, die Steuerung des Rechenzentrumsbetriebs und pfiffige Cloud-Angebote.  (© Philippe Dureuil)
Cloud in Marke Eigenbau - ein Firmenportrait

OVH ist Familienbetrieb und Hyperscaler

Bei OVH ist vieles anders: Das Unternehmen ist Familienbetrieb und Hyperscaler, ist Computerhersteller und Cloud-Anbieter, Rechenzentrumsbetreiber und -designer. Direkte Wasserkühlung ist Umweltschutz und ökonomisch lebenswichtig. Die Datacenter befinden sich auch deshalb zumeist in umgemünzten Industriegebäuden – von Dosenfabrik bis Warenhaus. 2018 kam OVH nach dieser Praxis auch zu einer neuen Fabrik: Manufacturing plus Logistik und Forschung.

Weiterlesen
Interview mit Dieter Thiel, Senior Consultant der Data Center Group

Verbindliche Nachhaltigkeitskennzahlen und ein Register für Rechenzentren

Der Energieverbrauch von Rechenzentren steigt und steigt. Umso erstaunlicher ist es, dass es keine verlässlichen Daten und einheitlichen Kenngrößen für Datacenter gibt, was Nachhaltigkeit oder gar Klimaneutralität, die die Regierung bis 2027 fordert, anbelangt. Hier setzt das Projekt „PeerDC“ an, das die Erstellung eines praxisgerechten Rechenzentrumsregisters zum Ziel hat. Die Data Center Group arbeitet mit daran. Warum?

Weiterlesen
Das Öffentliche Energie-Effizienzregister für Rechenzentren kommt - nicht

PeerDC – gescheitert? Ein Gespräch mit dem Projektleiter

Das Projekt „Public Energy Efficiency Register of Data Centres“, kurz PeerDC, das vom Umweltbundesamt in Auftrag gegeben worden war und das unter der Leitung von Professor Peter Radgen stand, ist nahezu abgeschlossen – und gescheitert; denn ein öffentliches Register zu den Energiekennzahlen eines jeden Rechenzentrums wird es nicht geben. Der Professor hält es trotzdem für einen Erfolg.

Weiterlesen
 (Bild: AWS)
AWS eröffnet Cloud-Standort in Deutschland – Kärcher, Burda Media, und Talanx ziehen ein

Amazon Web Services bezieht zwei Rechenzentren in Frankfurt

Seit Donnerstag 15:00 Uhr ist die AWS-Cloud, made in Frankfurt live. Damit bietet Amazon Web Services in der EU zwei weitere Verfügbarkeitszonen an, beziehungsweise neben Irland einen zweiten Standort, den elften weltweit. „Überrascht Sie dieser Schritt?“, fragt Martin Geier, Managing Director von AWS Deutschland. DataCenter-Insider fragt: Was halten Kunden davon?

Weiterlesen
Alleingänge und Feigenblattpolitik

Béla Waldhauser: Das EnEfG gefährdet den Datacenter-Standort Deutschland

Béla Waldhauser dürfte der prominenteste unter den Vertretern der deutschen Rechenzentrumsbranche sein. Das geplante Energie-Effizienzgesetz (EnEfG) gefährde den Rechenzentrumsstandort Deutschland, lautet seine Aussage. Doch warum sollte das so sein, wenn auch anderenorts in der Welt durchaus vergleichbare Regeln für den Bau und Betrieb von Datacenter in der Mache sind?

Weiterlesen
Rechenzentren mit dern Verfügbarkeitsklassen 3 und 4 müssen georedundant sein; das BSI fordert mindestens 200 Kilometer Abstand zwischen den Datacenter. Macht das Sinn? (gemeinfrei - Tama66/Pixabay)
Abstand bitte: Latenzen, Kosten und noch viel mehr Probleme folgen

BSI: Georedundanz bedeutet 200 Kilometer zwischen den Rechenzentren

Im Dezember 2018 hat das Bundesamt für Sicherheit in der Informationstechnik (BSI) die Version 1.0 der „Kriterien für die Standortwahl höchstverfügbarer und georedundanter Rechenzentren“ herausgegeben. Es geht dabei um ein oder mehrerer Ausweich-Datacenter als Maßnahme zur Notfallvorsorge, also um die Überlegung, ob und wie ein solches möglichst den gesamten zentralen IT-Betrieb übernehmen kann, sollte das jeweils andere nicht voll funktionsfähig sein.

Weiterlesen
Die Öko-Alternative für Rechenzentren von Kohler SDMO

Nachhaltig? Diesel-Aggregate für Notstrom mit HVO

Kohler hat 2005 den 1966 als SDMO Industries gegründeten Hersteller für Stromerzeuger übernommen, dieser ist heute der drittgrößte Hersteller auf dem Markt für Stromaggregate. Somit liefert er Dieselaggregate für die Notstromversorgung an Rechenzentren. Doch die Motoren produzieren CO2, selbst wenn sie ihren Zweck gar nicht erfüllen. Die Datacenter-Betreiber sind auf der Suche nach Ersatz. Was macht Kohler?

Weiterlesen
Die Idee für die Kühlung per Kyoto-Rad hat FI-TS für das Rechenzentrum auf dem Campus Nürnberg Süd vom Generalunternehmer Norris Network übernommen. Der Wärmetauscher erlaubt eine hohe Energie-Effizienz.  (Finanz Informatik Technologie Service GmbH & Co. KG )
Auf dem Gelände und im Betrieb eines Co-Location-Betreibers

Symbiose: Das neue FI-TS-Rechenzentrum in Nürnberg

Ein neues Rechenzentrum für die Banken- und Versicherungs-IT? Also weder Co-Location noch Cloud? Das gibt es – bei der Finanz Informatik Technologie Service GmbH & Co. KG (FI-TS) IT-Partner der Finanzwirtschaft und größter IT-Dienstleister für Landesbanken. Trotzdem gibt es Synergien mit einem Co-Location-Provider: Das neue Datacenter in Nürnberg schmiegt sich quasi an.

Weiterlesen
Hype Cycle for Emerging Technologies, 2021 (Gartner (August 2021))
NFT, Quantum ML, generative KI, homomorphe Verschlüsselung sowie composable Apps und Netze

Die aufstrebenden Technologien im aktuellen Gartner-Hype-Cycle

Die drei zentralen Themen des „Hype Cycle for Emerging Technologies, 2021“ sind: Vertrauen schaffen, Wachstum beschleunigen und den Wandel gestalten. Diese werden Unternehmen dazu bewegen, aufstrebende Technologien wie Non-Fungible Tokens (NFT), Sovereign Cloud, Data Fabric, generative KI und Composable Networks zu erforschen und sich dadurch Wettbewerbsvorteile sichern.

Weiterlesen
Bess füttert das belgische Google-Datacenter mit Energie und Kohle

Batteriespeicher anstelle von Notstromdiesel im Rechenzentrum

In den meisten Rechenzentren sorgen Dieselgeneratoren für Ersatz, sollte der Strom ausfallen. Das passiert nur selten, doch die Anlagen müssen getestet werden. Wie oft liegt im Ermessen des Datacenter-Betreibers. Dass dabei CO2 entsteht, liegt in der Natur der Anlage und das steht im krassen Gegensatz zu einem klimaneutralen Betrieb, der in der EU, regulatorisch gestützt, angestrebt wird. Batterie-Speicher wären eine Alternative. Google in Belgien probiert das aus.

Weiterlesen
60 Jahre Leibniz Rechenzentrum

Die LRZ-Zukunft steht auf Exascale-, KI- und Quantencomputing

Am 14. Juli hat das Leibniz-Rechenzentrum (LRZ) der Bayerischen Akademie der Wissenschaften sein 60jähriges Bestehen gefeiert. Das Hochleistungsrechenzentrum, das unter anderem den Supercomputer „SuperMUC“ beherbergt ist der IT-Dienstleister der Münchner Universitäten und bayerischen Hochschulen sowie Kooperationspartner wissenschaftlicher Einrichtungen in Bayern, Deutschland und Europa. Doch Alter hat in der IT nur bedingt Wert. Wie geht es weiter?

Weiterlesen
Der Branchenverband Bitkom e. V. hat das Borderstep Institut mit der Untersuchung des deutschen Rechenzentrumsmarkts beauftragt. Die Marktstudie weist Wachstum, Stanortfragen und Umweltansprüche aus.  (©sdecoret - stock.adobe.com)
Bitkom-Studie zu Rechenzentren und ihre aktuelle Entwicklung

Datacenter in Deutschland: Mehr Daten – mehr Strom?

Das größte Potenzial zur CO2-Reduktion liegt bei Rechenzentren in der Abwärmenutzung. Das ist eines der Ergebnisse der Bitkom-Studie „Rechenzentren in Deutschland“, die der Branchenverband gestern vorgestellt hat. Gedacht ist vor allem an eine Fernwärme in städtischen Ballungszentren. Doch die Netze und Abnehmer fehlen. Bitkom-Hauptgeschäftsführer Bernhard Rohleder sagt: „Es braucht eine politische Flankierung.“

Weiterlesen
Es geht auch anders

EMC- Home of Data redet nicht von Nachhaltigkeit, sondern handelt

Manch ein Co-Location-Anbieter scheint geradezu darauf zu warten, dass ihnen die Bundesregierung, die EU oder wer auch immer strengere Regeln für den Umgang mit den Ressourcen Wasser und Strom auferlegt, obwohl klar ist, dass ihre Rechenzentren bis 2030 klimaneutral sein sollen. Wie soll das gehen? ist die meistgehörte Frage angesichts der Mangelware Ökostrom? Und dann gibt es Anbieter wie EMC - Home of Data. Hier ticken die Uhren anders.

Weiterlesen
Weg mit den Notstrom-Dieselgeneratoren!

Neue SLAs geben Batteriespeichern für Rechenzentren eine Chance

„Im Vergleich zu Dieselaggregaten können Batteriespeichersysteme (BESS) keine unbegrenzte Anzahl von Autonomiestunden unter Standortbedingungen garantieren“, lautet eine Aussage des Uptime Institute. Doch das könne auch nicht das Ziel sein, argumentiert Guiseppe Leto, Portfolio Manager Data Center bei Siemens in der Schweiz (SI S VES VMM). Vielmehr gehe es darum, die Service Level Agreements anders zu fassen. Wie er das meint?

Weiterlesen
Jetzt wird es ernst

Umweltgesetze für deutsche und französische Rechenzentren

Am 13. Juli haben das Bundesministerium für Wirtschaft und Klimaschutz (BMWK) und das Bundesministerium für Wohnen, Stadtentwicklung und Bauwesen (BMWSB) ein „Sofortprogramm“ zum in Ergänzung zum Bundes- Klimaschutzgesetzes beschlossen. Betroffen sind auch die Rechenzentren. Derweil will die französische Teleko-Regulierungsbehörde ihr Nachhaltigkeitsaudit für den digitalen Sektor nicht nur um Informationen über Devices sondern auch über Datacenter erweitern.

Weiterlesen
Ausgebremst: Huawei bekommt keine Intel-Chips und baut keine Server mehr.  (© evannovostro - stock.adobe.com)
End of Life

Huawei lässt die Server sterben

Wie passend: Endlich stehen die Präsenzveranstaltungen, auch bei Huawei, wieder auf, der deutsche Part der Veranstaltung „Huawei Eco-Connect Europe 2021“ findet am 28. Oktober 2021 in einem Düsseldorfer Kino statt, wo die Teilnehmer zum Schluss in den aktuellen „James-Bond: Keine Zeit zu sterben“ eingeladen worden sind und das Ende ist kein Gutes: Huawei stellt die Produktion von Servern ein. Dazu Jörg Karpinski im Interview:

Weiterlesen
Für 200 Megawatt einen Datacenter-Campus

Co-Location-Anbieter Digital Realty will in Frankfurt Nah- und Fernwärme liefern

Die 'Digital Park Fechenheim' in Frankfurt am Main ist ein Novum für Deutschland. Es entsteht für Digital Realty der größte Datacenter-Campus mit 11 einzelnen Rechenzentrumsgebäuden - im Vollausbau mit 200 Megawatt Anschlussleistung - sowie das umfangreichste Projekt zur Abwärmenutzung. Außerdem zieht ein Teil der Rechenzentrumsinfrastruktur in denkmalgeschützte Gebäude.

Weiterlesen
D-Datacenter - Status Quo, Zukunft, Selbstkritik und Handlungsbedarf

Das BMWK-Gutachten zu Rechenzentren in Deutschland

„Rechenzentren haben sich zu einer der am schnellsten wachsenden, Energie-intensiven Branchen in Deutschland entwickelt“, besagt das „Gutachten im Auftrag des Bundesministeriums für Wirtschaft und Klimaschutz, Stand und Entwicklung des Rechenzentrumsstandorts Deutschland“. Und weiter: „Mit mehr als 2.000 Rechenzentren und einer IT-Anschlussleistung von über 2.700 MW ist Deutschland bereits der größte Standort für digitale Infrastruktur in Europa.“ Was kommt noch?

Weiterlesen
Nlighten sorgt für den Nachweis positiver Effekte von Serverhitze

Die Nutzung von Datacenter-Abwärme braucht sektorübergreifende Kennzahlen

Es deutet sich längst an, dass Rechenzentren Bestandteil der Kritischen Infrastruktur werden, nicht nur, weil die großen wegen Unmengen an Daten und Datenverkehr ohnehin zu den KRITIS-Unternehmen gehören. Sie können auch Strom und Abwärme liefern. Nlighten hat nun eine Studie veröffentlicht, die die Möglichkeit evaluiert, Energie-Erzeugung und Energieverbrauch in eine neue Metrik einzubinden, deren Perimeter neben dem kohlenstofffreien Strom (CFEl) auch die kohlenstofffreie Wärme (CFEH) berücksichtigt.

Weiterlesen
Am 15. Juni hat IBM den Computer „Quantum System One“ an die Fraunhofer Gesellschaft übergeben. Der Aufbau in Stuttgart gelang unter einmaligen, außergewöhnlichen Bedingungen und erforderte ungewöhnliche Skills - von zwei Teams. (IBM)
Mit viel Bammel, null Erfahrung und unzähligen Webex-Stunden….

Mitten im Lockdown: Wie der Quantencomputer in Stuttgart entstand

Eigentlich, ja eigentlich war alles gut vorbereitet: Immerhin hat Chris Lirakis schon den Aufbau von 40 IBM-Quantencomputern geleitet, sein 5-Personen Kernkompetenz-Team ist absolut eingespielt. Am 9. November 2020 sollte es losgehen mit dem Bau des ersten „Quantum System One“ außerhalb der USA, in Ehningen bei Stuttgart, für die Fraunhofer Gesellschaft. Und dann: Lockdown, Quarantänen, Reisen für die US-Experten unmöglich.

Weiterlesen
Sie haben ein Rechenzentrum im Keller Ihres Wohnhauses?

MdB Anke Domscheidt-Berg zum geplanten Energie-Effizienzgesetz

Die Bundestagsabgeordnete Anke Domscheit-Berg gilt in der IT- und Datacenter-Branche als kompetente Fachfrau und für viele zugleich als „der falschen Partei zugehörig“; denn sie ist digital-politische Sprecherin der Linksfraktion, also auf jeden Fall in der Opposition. Im Podcast erläutert sie, welche Chancen das geplante Energie-Effizienzgesetz (EnEFG) hat und welche vertan werden – insbesondere im Hinblick auf die Rechenzentren.

Weiterlesen
Wer DCIM-Lücken unverschlossen lässt, bringt komplette Datacenter in Gefahr. (gemeinfrei)
O weh, o weh! Datacenter-Management-Tools lassen Angreifer passieren

Dark- und Deep-Net-Analyst Cyble sucht und findet Sicherheitslücken bei 20.000 Rechenzentren

Man stelle sich einen Angriff auf das Kühlsystem eines Rechenzentrums vor …. Lieber nicht? Doch. Das Unternehmen Cyble hat den Einsatz einiger Datacenter Infrastructure Management-Tools von Devive42, APC by Schneider Electric, Vertiv und Sunbird auf Abwehrmöglichkeiten von Cyber-Angriffen untersucht und fand Schnittstellen so weit offen wie Scheunentore.

Weiterlesen
Equninix ist Teil eines Konsortiums, das sich im Dezember 2021 gegründet hat und erforschen will, wie Brennstoffzellentechnologie sauberer und für Rechnezentren nutzbar werden kann. (akitada31 auf Pixabay)
Clean Hydrogen Partnership

Equinix wächst und investiert in CO2-arme Brennstoffzellen für Datacenter

Beim Rechenzentrumsbetreiber Equinix stehen große Investitionen an. Zum einen wird der Konzern das Projekt Clean Hydrogen Partnership für die Entwicklung CO2-armer Brennstoffzellen, die der Stromversorgung von Rechenzentren dienen, unterstützen. Zum anderen kauft er für 320 Millionen Dollar Mainone: Der Datacenter-Betreiber baut damit eine Rechenzentrums- und Konnektivitätspräsenz in Nigeria, Ghana und der Elfenbeinküste auf, Märkte, in denen Mainone tätig ist.

Weiterlesen
Studien-Update 2023 des Branchenverbands Bitkom

Schlaglichter auf den Data­center-Markt in Deutschland

Wow! Zwischen 2010 und 2022 sind die Kapazitäten der Rechenzentren in Deutschland gemessen in IT-Anschlussleistung um über 90 Prozent gewachsen. Und wie geht es weiter? Der Branchenverband Bitkom e. V. hat dazu die Studie „Rechenzentren in Deutschland – Aktuelle Marktentwicklungen“ herausgegeben; jetzt folgt ein Update der Untersuchungen aus den Jahren 2022, 2017 und 2014.

Weiterlesen
Wer sich aufmacht, mächtige Desaster Recovery- und Backup-Tools zu finden, dem ist eine Orientierung durch die Einteilung in Quadranten möglicherweise eine Hilfe. Gartner hat ein „Magic Quadrant for Enterprise Backup and Recovery Software Solutions“ erstellt.  (Stefan Keller auf Pixabay)
Gartner untersucht Hersteller und Backup- sowie DR-Produkte

Aus den Magischen Quadranten für Backup und Recovery

Verantwortliche für Infrastruktur und Betrieb (I&O), die mit dem Backup-Betrieb betraut sind, müssen die Backup-Infrastruktur neu gestalten, heißt es im Gartner-Report „Magic Quadrant for Enterprise Backup and Recovery Software Solutions“, vom Juli dieses Jahres. Die Analysten nennen etwa Aspekte der Technologie, des Betriebs und der Nutzung, die es zu berücksichtigen gilt.

Weiterlesen