Suchen
 Ulrike Ostler ♥ DataCenter-Insider

Ulrike Ostler

Chefredakteurin
DataCenter-Insider

Artikel des Autors

Datacenter-Monitoring trifft auf Digitalen Zwilling

Schneider Electric und Aveva bieten Multi-Site- und Hyperscale-Rechenzentren Betriebssoftware

Aveva ist eine Software-Company mit Sitz im britischen Cambridge, der der Schneider Electric zu 60 Prozent beteiligt ist. Doch während Aveva hauptsächlich Kunden aus der Industrie für seine Visualisierungs-, Design- und Modellierungssoftware hat, ist Schneider Electric bereits im Rechenzentrumsmarkt bekannt. Jetzt stellen die Unternehmen ein gemeinsames End-to-End-System für Multi-Site- und Hyperscale-Rechenzentren vor.

Weiterlesen
Das  Karlsruher Institut of Technology, kurz KIT, plant zusammen mit Lenovo ein neues HPC-Cluster. Die Rechner werden mit einer direkten Wasserkühlung ausgestattet sein und ein Fünftel der Knoten mit den jünsten Nvidia-GPUs der gestern angekündigten „Ampere“-Generation.
Wasser auf Intel-CPUs und Nvidia-GPUs

Lenovo liefert HPC-Cluster an die Max-Planck-Gesellschaft und das KIT

Gestern hat Nividia (s.u.) seine jüngste Generation von Graphical Processing Units (GPUs) vorgestellt und zahlreiche Hardwaresteller kündigen nun Systeme mit den leistungsfähigen Akzeleratoren an. Lenovo kann darüber hinaus auf Kunden dafür verweisen und auf eine Zusammenarbeit mit Nvidia, die es ermöglicht, nicht nur die CPUs in den künftigen Hochleistungs-Cluster im Karlsruher Institut of Technology (KIT) und der Max-Planck-Gesellschaft per Wasser zu kühlen, sondern auch die GPUs.

Weiterlesen
Heute wie früher unscheinbar: Hier im alten Postgebäude begann die Erfolgsgeschichte des weltweit größten Internet-Austauschknotens DE-CIX.
Thomas King, CTO des DE-CIX, im Interview

Der Deutsche Internet-Austauschknoten - Wo kommt er her? Wo soll er hin?

Das Jahr 1995 ist das Geburtsjahr des Deutschen Commercial Internet Exchange (DE-CIX), ein altes Postamt im Frankfurter Stadtteil Gutleut quasi der Geburtsort. Drei Internet Service Provider (ISP) taten sich zusammen - die Dortmunder EUnet Deutschland GmbH, die Xlink GmbH aus Karlsruhe und die MAZ GmbH aus Hamburg –, um in Frankfurt am Main ein (insbesondere von den USA) unabhängiges Peering zu ermöglichen. Wo lagen die Herausforderungen damals - und vor allem heute? CTO Dr. Thomas King gibt Auskunft.

Weiterlesen
IBM stellt auf der virtuellen Konferenz „Think Digital 2020“ IT-Automatisierungswerkzeuge vor: „IBM Watson AIOps“.
IBM Think Digital 2020: KI, Cloud, Edge und Corona

Automatisierung von IT-Abläufen für weniger Ausfälle und Kosten

Derzeit findet virtuell die IBM-Veranstaltung „Think Digital 2020“ statt. Aus den Ankündigungen, die der Konzern anlässlich des Event macht, stechen zwei für den Bereich Datacenter hervor: KI-gestützte Services sollen CIOs dabei helfen, ihre IT-Infrastrukturen zu automatisieren und Edge-Computing umzusetzen. Darüber hinaus gibt es im Wettbewerb „Call for Code“ drei Gewinner mit Apps im Kampf gegen COVID-19.

Weiterlesen
Die Cloud Foundry Foundation bekommt einen neuen Geschäftsführer und die Community noch mehr Kubernetes.
Interview mit Chip Childers, Cloud Foundry Foundation

„Alle Kubernetes-Cluster sollen von Cloud Foundry profitieren“

„KubeCF“ ist eine Open-Source-Distribution der Cloud Foundry Application Runtime (CFAR), die auf „Kubernetes“ laufen soll. Ursprünglich von Suse ins Spiel gebracht, handelt es sich seit März dieses Jahres um ein Inkubationsprojekt der Cloud Foundry Foundation. Von heute ist die Nachricht, dass Abby Kearns ihren Posten bei der Organisation als Executive Director aufgibt und Chip Childers ihn übernimmt. Datacenter-Insider hat ihn interviewt.

Weiterlesen
Der niederländische Rechenzentrumsverband hat eine Umfrage initiiert, in der es um die Anerkennung der Rechenzentren als Bestandteile der Kritischen Infrastrukturen eines Landes geht. Das hat unter anderem Auswirkungen auf die Arbeitsfähigkeit der Betriebe.
Datacenter-Allianz kämpft für Rechenzentren als KRITIS-Unternehmen

Eco Allianz fordert für deutsche Rechenzentren Befreiung von der EEG Umlage

Deutschland verfügt im internationalen Vergleich über besonders sichere, zuverlässige und energieeffiziente Rechenzentren, so die unter dem Dach vom Eco – Verband der Internetwirtschaft gegründeten Allianz zur Stärkung digitaler Infrastrukturen in Deutschland. Sie sieht hierzulande durch die hohen Strompreise dennoch Wettbewerbsnachteile für Anbieter digitaler Infrastrukturen und fordert: Weg mit der EEG-Umlage.

Weiterlesen
Auch im Cloud Computing schleichen sich alte Gewohnheiten ein. Mit diesen müssen Service Provider und ihre Kunden brechen; benötigt werden eine neue Kultur, Standardisierung und Automatisierung und Flexibilität und Schnelligkeit zu erlangen.
SERVICE PROVIDER SUMMIT 2020

Disruptionen in der IT-Automation

Das Thema von Mark Hlawatschek, Vorstand des Münchner Unternehmens Atix - The Linux & Open Source Company, ist die IT-Automatisierung. Die hauseigene Veranstaltung „Open Source Automation Days 2020“, am 19. bis 21. Oktober wird gut besucht sein. Doch Hlawatschek spricht schon zuvor auf dem SERVICE PROVIDER SUMMIT 2020, zu dem DataCenter-Insider als Medienpartner einlädt. Hier sind vorab einige seiner Überlegungen. Sie machen neugierig.

Weiterlesen
Die wichtigsten neuen Features in der Rancher-Kubernetes-Plattform 2.4.
Bald: Unterstützung für 1.000.000 Cluster

Rancher 2.4 bringt Kubernetes an die Edge

Gerade hat Rancher Labs seine Finanzierungsrunde „D“ abgeschlossen, die rund 40 Millionen Dollar einbrachte, und fast die Hälfte aller Kunden des Unternehmens, das Enterprises Möglichkeiten anbieten will, „Kubernetes“ zum Laufen zu bringen und die Cluster zu betreiben, sitzen in Deutschland. Grund genug, sich mit den Features, die das aktuelle Release „Rancher 2.4“ mit sich bringt, auseinanderzusetzen.

Weiterlesen
KI und Supercomputer im Einsatz gegen das Corona-Virus.
Huawei in China, IBM und DOE in den USA

Supercomputer-Einsatz im Kampf gegen Covid-19

Je schneller, desto besser. Für den Kampf gegen die Infektion und die Wirkungen des Corona-Virus für die Eindämmung der Pandemie und die Entwicklung zuverlässiger Tests, für den Schutz von Menschen, die mit Infizierten in Kontakt kommen, brauchen die Forscher Rechenleistung, kombiniert mit Künstlicher Intelligenz (KI). Huawei und ein Verbund an Forschern und Medizinern melden erste Erfolge, das Weiße Haus ruft die Technologiebranche zusammen.

Weiterlesen
Der Software-Stack von „Tensorflow Quantum“ (TFQ)
Tensorflow Quantum

Eine Open-Source-Bibliothek für das maschinelle Lernen im Quanten-Computing

Quanten-Machine-Learning-Modelle könnten zu Durchbrüchen in den Bereichen Medizin, Materialforschung, Sensorik und Kommunikation führen. Allerdings fehlt es noch an Forschungsinstrumenten beziehungsweise an solch nützlichen Modellen, die Quantendaten verarbeiten und auf den heute verfügbaren Quantencomputern ausführen können. Google Research, die Universität Waterloo, X und Volkswagen wollen das mit einer Open-Source-Bibliothek für die schnelle Prototyperstellung von Quanten-ML-Modellen ändern.

Weiterlesen
Georg Gesek: „Die Quantentechnologie revolutioniert die Informationstechnologie. Daher ist es wichtig, diese Schlüsseltechnologie für die Zukunft der Menschheit in Europa zu entwickeln, wo wir weltweit das stärkste Bekenntnis zum Digitalen Humanismus haben.“
Interview mit Georg Gesek, Quantencomputer-Pionier

„Die Qubits sind grottenschlecht und die Temperaturen zu tief, aber in 3 Jahren ....“

Das Wiener Unternehmen Novarion, respektive Firmengründer und CEO Georg Gesek, hat sich das Ziel gesteckt, bis 2025 den ersten „echten“ hybriden, universellen Quantencomputer auf dem Weltmarkt zu etablieren. Das Projekt mit einem Volumen von 18 Millionen Euro bis 2024 ist über Crowdinvesting bei Lion Rocket anschubfinanziert. Im Interview erläutert Gesek, warum es solche Computer braucht.

Weiterlesen
Europa hat große Aufgaben in der Digitalisierung und im Umweltschutz vor sich.
Die Nachhaltigkeitspläne der EU für die ITC-Branche

Spätestens im Jahr 2030 sollen Rechenzentren klimaneutral sein

Das Papier der Europäischen Kommission „Shaping Europe´s Digital Future“ enthält auch eine Bemerkung über Datacenter: „Rechenzentren und die Telekommunikation müssen Energie-effizienter werden – durch die erneute Verwendung von Energie [etwa die Abwärme von Rechenzentren] und erhöhte Nutzung erneuerbarer Energiequellen. Sie können und sollten bis 2030 klimaneutral sein.“

Weiterlesen
In dem Münchner Rechenzentrum „EDCMUC01“ stehen laut Website insgesamt 2,4 Megawatt N+1 Kapazität zur Verfügung.
Ori Industries kooperiert mit Edgeconnex

Für eine föderierte IoT-Cloud

Es soll der Grundstein für den Aufstieg einer neuen Generation von Internet of Things (IoT), 5G, Gaming und anderen Edge-abhängigen Diensten in Europa sein: Edgeconnex, Pionier in der Entwicklung von Edge-nahen Rechenzentren, und Ori Industries, das Unternehmen hinter der Edge-Cloud-Plattform OGE (Ori Global Edge), arbeiten zusammen. Ori wird seine Plattform in drei Edgeconnex Rechenzentren in Amsterdam, München und Warschau einsetzen.

Weiterlesen
Vantage Data Centers setzt unter anderem auf die Spezifikationen des Open Compute Project (OCP).
Co-Location in Offenbach, Berlin; Mailand; Warschau und Zürich

Vantage Data Centers erwirbt Etix Everywhere und kündigt 5 EU-Hyperscale-Standorte an

Der US-Konzern Vantage Data Centers hat Etix Everywhere erworben und sich in Europa fünf Rechenzentrumsstandorte gesichert. Die Bedingungen der Übernahme bleiben unbekannt, aber die europäische Expansion wird mit 2 Milliarden Dollar angegeben. 800 Millionen Dollar werden für neues Eigenkapital von den derzeitigen Vantage-Investoren aufgebracht. Dazu kommen Investitionen von Digital Colony Partners.

Weiterlesen
Die Leitwerk AG hat in Appenweier ein georedundates Rechenzentrum für eine Last von einem Megawatt gebaut. Das zweite Datacenter betreibt das  E-Werk Mittelbaden.
Die Baden-Cloud bekommt eine neue Infrastruktur mit vielen pfiffigen Details

Klein und sehr fein: Das Leitwerk-Rechenzentrum in Appenweier

Appenweier dürfte für die meisten nicht zu den bevorzugten Standorten für ein neues Rechenzentrum zählen. Wo kommt der Strom her? Woher die notwendigen Datenleitungen? Das erste Problem ist gelöst, weil der Betreiber Leitwerk und das E-Werk Mittelbaden gemeinsam Dienste aus zwei hochsicheren, hochverfügbaren Rechenzentren anbieten wollen. Zur Absicherung der Geschwindigkeit und Sicherheit beim Datentransfer dient ein unternehmenseigenes Richtfunknetz.

Weiterlesen
Dier Wettervorhersagen sollen präziser werden und zutreffender. Atos liefert einen Supercomputer an das ECMWF und Google wendet Machine-Learning auf bestehnde Informationen an.
Atos hier, Google da - Supercomputer hier - ML überall

Supercomputing und Machine Learning für präzise Wetterprognosen

Wetter ist wichtig - für den Katastrophenschutz, für Heuschnupfengeplagte, für die Landwirtschaft, für Grillfestplaner …. -, doch zu ungenau, bezogen auf die Zeitfenster und geografische Raster. Um bessere Vorhersagen treffen zu können, braucht es leistungsfähigere Computer und Künstliche Intelligenz. So will Google künftig „nowcasten“ und Atos liefert einen AMD-bestückten Supercomputer an das Europäische Zentrum für mittelfristige Wettervorhersagen.

Weiterlesen
Die Labore des Rise Sics North im schwedischen Luleå bieten die Möglichkeit, Techniken für Datacenter-Autonomie auszuprobieren.
Firmen aus Finnland, Schweden und Kanada initiieren AutoDC

Testen, Forschen, Ausprobieren für das autonome Rechenzentrum

Autonome Rechenzentren sollen möglichst ohne menschliches Eingreifen und unabhängig von kontextbedingten Störungen wie intermittierendem Stromausfall oder Überhitzung ihren Betrieb aufrecht halten können und sich in gewissem Maße „selbst heilen“. Das Projekt „AutoDC“, getragen von einem Konsortium, hat sich 2019 gegründet, um einen innovativen Designrahmen für autonome Rechenzentren zu schaffen.

Weiterlesen
Beginnen die ´Goldenen Zwanziger`für die Rechenzentrumsindustrie?
Das Uptime-Institute gibt einen Ausblick

Zehn Trends in der Rechenzentrumsbranche für 2020

Die Branche der digitalen Infrastruktur wächst und verändert sich - rasant. Die Community aus Datacenter-Investoren, -Designern, -Eigentümern und -Betreibern blüht auf, kämpft aber überall zugleich mit den gleichen Problemen: Verfügbarkeit und Ausfallrisiken, Auswirkungen der Cloud, Bewegung hin zur Edge, schnelle Innovationszyklen und unvorhersehbare (wenn auch meist steigende) Nachfrage.

Weiterlesen
ASHRAE passt den Datacenter-Standard 90.4 für Energie-Effizienz an aktuelle Herausforderungen an.
Die Norm 90.4 - 2019

ASHRAE aktualisiert den Energiestandard für Rechenzentren

Die American Society of Heating, Refrigerating and Air-Conditioning Engineers (ASHRAE) hat ihren, auch hierzulande viel beachteten Energiestandard für Rechenzentren überarbeitet. Der ANSI-ASHRAE Standard „90.4“ legt detaillierter als bisher Mindestanforderungen an die Energie-Effizienz für die Planung und den Betrieb von Rechenzentren fest. In der aktualisierten Fassung von 2019 werden Insbesondere ihre Lastanforderungen im Vergleich zu anderen Gebäuden berücksichtigt.

Weiterlesen
Der Anschluss zum Befüllen und Entleeren des Systems von Schneider Electric, Iceotope und Avnet.
Das Server-Tauchbad für jedes Rechenzentrum

Schneider Electric, Avnet und Iceotope stellen Rack-System mit Immersionskühlung vor

Im Oktober hatten Schneider Electric, Avnet und Iceotope ihre Kooperation im Bereich immersiver Flüssigkeitskühlung für Rechenzentren angekündigt. Nun liefern die Partner. Dazu gehören GPU-Server auf einer Höheneinheit, der in der Icetope-Tauchkühlung, im „Netshelter“-Gehäuse von Schneider Electric untergebracht wird. Avnet wiederum bietet global ein Ökosystem für das Design-, Produkt-, Marketing- und Lieferkettenexpertise in jeder Phase des Produktlebenszyklus.

Weiterlesen
Die Open-Source-Datenvirtualisierungssoftware von Huawei heißt „open Hetu“. Mit dem quelloffenen Kernel können Entwicklerdiese anpassen, einschließlich der Datenquellenerweiterungen und SQL-Ausführungsrichtlinien.
Daten finden, nutzen und immer wieder verwenden

Huawei macht aus seiner Datenvirtualisierung Heto Engine ein Open-Source-Projekt

Huawei öffnet seine bisher proprietäre Datenvirtualisierungs-Engine „Hetu Engine“ und bietet sie als Open Source unter der Bezeichnung „open Hetu“ an. Der Startzeitpunkt ist für Juni 2020 geplant. Ziel sei es, Partnern die einfache Nutzung großer Datenmengen zu ermöglichen und die Datenverwaltung zu vereinfachen, hieß es kürzlich auf dem „Global Intelligent Data Infrastructure Forum 2019“ von Huawei in Shenzhen.

Weiterlesen