Siliziumkarbid-Halbleiter und aus ihnen gefertigte Bauelemente haben für diverse Bereiche vorteilhafte Eigenschaften. Was Siliziumkarbid von anderen Halbleitermaterialien unterscheidet und welche Einsatzgebiete es hat.
Wie kann man den Energieverbrauch von Hard- und Software genau messen? Worauf kommt es dabei an? Ist jeder Verbrauch gleich zu bewerten? Mit solchen Fragen befasste sich ein Panel auf der diesjährigen „Clean-IT“-Tagung des Hasso-Plattner-Instituts für digitales Engineering in Potsdam.
Nvidia verstärkt seine Kooperation mit „Microsoft Azure“, wie auf Microsofts Tagung „Ignite“ verkündet wurde. Außerdem hat der Chip- und Hardwarehersteller Neuigkeiten im Bereich Supercomputing.
Angesichts stromfressender Anwendungen und des langen Abschieds von fossilen Energieträgern wird die höchstmögliche Effizienz von IT-Systemen dringlicher. Eine neue Initiative will wieder zurück auf den Effizienzsteigerungspfad von Moore's Law.
Unternehmen sollen heute die Umwelt erhalten, soziale Rechte respektieren und sich rechtlich korrekt und ethisch musterhaft verhalten. Das alles wird unter dem Begriff ESG (Environmental, Social, Governance) zusammengefasst.
Mit dem Aufkommen von AI-tauglichen Systemen steigen die Anforderungen an Kommunikationssysteme und die Kühlung der Hochleistungs-Racks. Beide Themen standen im Zentrum des „OCP Summit 2023“. Außerdem wurden weitere wichtige Kooperationen verkündet.
Energie-Effizienz wird zum neuen Credo einer großen gesellschaftlichen Transformation. Davon sind auch Rechenzentren nicht ausgeschlossen. Das Mttel dazu ist in Deutschland das im September verabschiedete Energie-Effizienzgesetz (EnEfG).
Wie vereinfacht und automatisiert man das Management von Edge-Datacenter? Wie funktioniert deren nahtlose Einbindung in übergreifende Infrastrukturen? Mit einem auf „SLE Micro“ aufbauenden Stack hat Suse hierfür einen Vorschlag.
Irgendwie müssen Klimagase gemessen werden, um überhaupt zu wissen, wie groß das Problem ist und ob wir seiner Lösung näher kommen. Damit befasst sich die Organisation Greenhouse Gas Protocol (GHG Protocol).
Bei der ökologischen Bewertung von Produkten und Services steigt die Bedeutung des mit ihnen verbundenen Kohlendioxidausstoßes. Ein Maß dafür ist Product Carbon Footprint.
Die Besucher haben gewählt: Auf dem „DataCenter Strategy Summit 2023“, der am 19. Oktober stattgefunden hat, kürten sie in drei Kategorien die Sieger. DataCenter-Insider als Medienpartner bringt einen kurzen Überblick aus den Strategien; ausführliche Berichte folgen.
Welche Chancen bieten Technologien wie HCI, HPC und Quantencomputing, um effizientere IT-Infrastrukturen aufzubauen? Mit diesem Thema befasste sich ein Vortrag des VIRZ-Vorstandes (VIRZ = Verband Innovatives Rechenzentrum e. V.) Hartwig Bazzanella auf der Kongressmesse „DTM Netforum 23“ in Bregenz.
Was bedeutet Digitalisierung für einen mittelständischen Finanzdienstleister? Darüber berichtete der COO ("Chief Operating Officer") der Hypo Vorarlberg Bank AG auf der Kongressmesse netforum von dtm Datentechnik Moll.
Welche Trends und politischen Entwicklungen werden die Unternehmens-IT in den nächsten Jahren prägen? Diese Frage stand im Mittelpunkt des dtm netforum 2023 in Bregenz. Veranstaltet hat es die dtm Datentechnik Moll GmbH.
In den großen HPC-Clustern wird schon länger mit Wasser gekühlt. Doch mit steigender Nachfrage nach leistungsstarken KI-Systemen und der allgemein höheren Prozessorleistung stößt Luft auch anderweitig immer öfter an Grenzen.
Red Hat sieht sich selbst als ideale Basis für hybride Clouds. Der Anbieter hat inzwischen ein großes Portfolio an Dienstleistungen in diesem Bereich. Die Zusammenarbeit mit den Hyperscalern ist eng.
Wenn die PUE nicht mehr sinkt, kann grüne, also energie- und karboneffizient geschriebene Software neue Wege eröffnen, den Kohlendioxidausstoß von ICT zu verringern. Doch bislang steckt grünes Coding noch in den Anfängen.
Neben weniger Kühlenergie und mehr Abwärmenutzung könnte so genannte Grüne Software ein wichtiger Hebel für Energie-effizientere IT sein. Das Software-Unternehmen Cast Software hat sich das Thema auf die Fahnen geschrieben.
Die Zahl der AWS-Regionen soll sich im Lauf des kommenden Jahres von 105 jetzt auf dann 130 erhöhen. Andere Hyperscaler, aber auch große Cloud-Anbieter wie IBM, Oracle oder Alibaba sind international auf Wachstumskurs. Daran sollte sich so schnell nichts ändern, so das Uptime Institute.
Auf der „ISC 2023“ in Hamburg wurde viel darüber gesprochen, wie die Architektur zukünftiger Superrechner aussehen mag. Eines scheint klar: Die Zeiten des Prozessor-Einheitsbreis sind bis auf Weiteres vorüber. An ihre Stelle tritt zunehmend architektonische Vielfalt.
Wie schaffen es Betreiber, ihre Rechenzentren vollständige auf regenerative Energien umzustellen? Das Uptime-Institute hat sich mit diesem Thema beschäftigt und kommt zu dem Schluss: Es geht nur langsam, Schritt für Schritt.
Generative AI, in Zukunft wohl breit genutzt, verlangt stärkere Prozessoren. Die erzeugen mehr Abwärme, die dann 'entsorgt' werden muss. Das dürfte die Leistungsfähigkeit der Luftkühlung oft übersteigen – Aufwind für Flüssigkühlverfahren?
Das Klimaproblem, Stromengpässe, Landknappheit, steigende Zinsen – all diese Faktoren beeinflussen den globalen Rechenzentrumsmarkt genauso wie die bislang unaufhörlich steigende Nachfrage. Die jährliche Studie zum weltweiten Datacenter-Markt vom Immobiliendienstleister Cushman & Wakefield liefert interessante Details.
Wie bei fast allen Unternehmensveranstaltungen derzeit haben auch im Zentrum der „Fujitsu Experience Days“ in München die Themen KI und Digitalisierung gestanden. Eine interessante Neuigkeit gibt es für SAP-Kunden.
Auf der „Susecon 2023“ in München stand neben dem ersten großen Auftritt des neuen CEO Dirk-Peter van Leeuwen die Aktualisierung und Erweiterung der Softwarepalette im Mittelpunkt. Mehr Sicherheit war eines der Kernthemen.
Das Akronym WEEE steht für Waste of Electrical and Electronic Equipment hört in der IT niemand gern. Steht es doch für die Abfallberge, die durch weggeworfene IT-Systeme, aber auch allerlei andere Elektro- und Elektronik-Altgeräte entstehen.
Sonnenstürme sind elektromagnetische Entladungen des Zentralgestirns. Sie können elektrisches und elektronisches Equipment stören und sogar zerstören. Ein Netzwerk von Messstationen in den USA und ein AI-Algorithmus sollen jetzt den Schutz verbessern.
Der Effizienzparameter PUE ist ausgereizt. Was nun nötig ist, sind Parameter, die auch den effizienten Einsatz der IT mit einbeziehen. Ein solcher Parameter ist die TUE (Total Usage Effectiveness).
Abwärmenutzung ist derzeit der große Zankapfel bei der Datacenter-Regulierung. Der folgende Artikel zeigt an zwei Beispielen, wo und unter welchen Umständen sie funktionieren kann und wann eher nicht.
Wie sollen sich Rechenzentren künftig mit Energie versorgen? Biodiesel? Erneuerbarer Strom? Wasserstoff? Oder gar Atomenergie? Ob die genutzte Energieform und andere Nachhaltigkeitsmaßnahmen fürs 1,5-Grad-Ziel ausreichen, lässt sich jetzt berechnen.
Im Rechenzentrum ist eine Instanz eine konkret einem spezifischen Anwenderkreis zugewiesene funktionsfähige Einheit einer mittels Software realisierten IT-Komponente. Die Instanz funktioniert aus Anwendersicht unabhängig davon, wo physisch diese läuft, auf der Hardware des Rechenzentrums oder Cloud-Provider.
Die Frage: „Was ist eigentlich ein Rechenzentrum?“ oder wahlweise „...Datacenter?“ ist gar nicht so leicht zu beantworten wie es scheint. Denn in der Definition müssen mindestens zwei Bedeutungen eine Rolle spielen: erstens, die IT an einem zentralen Ort und zweitens, das mehr oder minder kompakte Gebäude mitsamt technischer Infrastruktur für Connectivity und Verfügbarkeit.
Hub wird in Wörterbüchern mit Nabe, Knotenpunkt oder Drehscheibe übersetzt. Ein Hub definiert somit einen zentralen Ort, wo Verbindungen zusammenlaufen und neue Richtungen eingeschlagen werden können. Das gilt insbesondere für Daten- und Connectivity-Hubs.
Der Begriff Pod hat in der IT mehrere Bedeutungen. Sie stammen aus den Welten der Hardware, der Software und der Unterhaltungselektronik. Eines eint den ansonsten sillernden Begriff: Ein Pod ist infrastrukturell weitgehend vorab konfiguriert - bezogen auf das, was darin geschehen soll.
In den Achtzigern kamen die ersten CPUs mit so genannten RISC-Prozessor auf den Markt, vorher gab es CISC. Was steckt hinter den Kürzeln? Und wie hat sich die Technologie bis heute weiterentwickelt?
Inzwischen bevölkern häufig Tausende von Servern, physischen und virtuellen, die Rechenzentren. Für Ordnung im physischen Bereich sorgt unter anderem das Rack, in dem die Komponenten eingebaut sind.
Künstliche Intelligenz und neuronale Netze stellen extrem hohe Anforderungen an die Rechnerhardware. Denn für die schnelle Verarbeitung derartiger Datenmassen waren bisherige Prozessorgenerationen nicht geschaffen. Hier helfen Akzeleratoren beziehungsweise Beschleunigerarchitekturen - PUs, DPUs, DLUs und GPUs, deren wohl bekannteste „Tensor Core“ heißt.
Der Begriff Host ist in der IT an vielen Stellen gegenwärtig. Er stammt bereits aus den Sechzigern, wo er zum ersten Mal als Synonym für Großrechner/Mainframes auftauchte. Heute ist er vor allem bei der Virtualisierung wichtig.
Enterprise Service Management (ESM), oft auch als Shared Service Management bezeichnet, sorgt dafür, dass Services im Unternehmen nicht nach dem Kraut- und Rüben-Prinzip erbracht und verwaltet werden. Vorbild ist das IT-Service Management.
Neben der USV/UPS ist die Power Distribution Unit (PDU) eines der wichtigsten Elemente der Stromarchitektur im Rechenzentrum. Freilich ist die Bezeichnung eigentlich eine Untertreibung – inzwischen können diese Geräte weit mehr als nur Strom zum Endgerät leiten.
Manches darf nicht ausfallen, weil sonst der Betrieb steht. Was immer das leistet, nennt man hochverfügbar. Doch wer wissen will, wie hochverfügbar etwas tatsächlich ist, muss genau hinsehen.
Chips sind allgegenwärtige Bestandteile digitaler Systeme. Ohne sie gäbe es weder Großrechner noch Smartphones. Doch was bedeutet dieser Begriff genau?
HCI, Hyperconvergent Infrastructure oder hyperkonvergente Infrastruktur heißt ein System, das Storage, Server und Netzkomponenten umfasst, die durch eine Software insgesamt virtualisiert werden.
Anlagen für die Unterbrechungsfreie Stromversorgung (USV) schützen IT-Anlagen gegen Stromausfall und Spannungsschwankungen und sind daher in fast jedem Rechenzentren unentbehrlich.
Jeder kennt die gängigen Abkürzungen Giga-, Mega- und Kilobyte sowie ihre großen Vettern bis hin zum Zettabyte. Doch was sind Gibibytes und andere Mengeneinheiten, die so ähnlich klingen? Ein Verschreiber? Mitnichten.
Jeder Rechnertyp ist hinsichtlich Hardware, essentiellen Softwarebestandteilen und deren Zusammenwirken anders aufgebaut. Hier spricht man von Rechnerarchitektur. Diese Architekturen können sich erheblich unterscheiden.
Die Applikationswelten wandeln sich. Disruptiv wirkt sich vor allem der Cloud-Native-Ansatz aus, eine Kombination neuer Entwicklungs-Tools und -methoden, neuer Programmiersprachen und neuer Software-Infrastrukturen. Im Mittelpunkt steht dabei der Container als Basiseinheit, die es möglich machen, dass Anwendungen in jeder Cloud lauffähig sind, ganz privat und öffentlich.
Das effiziente Kühlen von Rechenzentren sollte sich naturgegebene Abläufe zunutze machen, wo immer das geht. Das spart elektrische Energie für Ventilatoren und Chiller. Einer dieser Prozesse ist die Adiabatik, Verdunstungskühle, ein spezieller Anwendungsfall thermodynamischer Gesetzmßigkeiten.
Hat der aktuelle russische Angriffskrieg gegen die Ukraine die IT-Sicherheitssituation bei den deutschen Betreibern kritischer Infrastruktur verschlechtert? Tun Regierung und Unternehmen genug zu ihrem Schutz? Und wie ist das Thema derzeit in Politik und Verwaltung aufgehängt? Mit solchen Fragen hat sich ein Panel im Presseclub München befasst.
Mit Luftkühlung kommt man in den Rechenzentren der Hyperscaler und auch anderenorts nicht mehr weiter. Neuartige Kühllösungen sind deshalb ein Schwerpunkt des OCP-Summits 2020. Unter anderem stellten Rittal und Zutacore eine Kooperationslösung vor.
Modularität wird in der IT derzeit immer wichtiger: Bei Rechenzentren, Systemen und mittlerweile auch bei Chips. Die können besser gefertigt werden, wenn sie aus mehreren Modulen bestehen statt aus einer großen Einheit.
Seit Docker Container populär gemacht hat, hat sich diese Infrastrukturvariante stark ausgebreitet. Dafür, dass Container untereinander interoperabel und Container-Infrastrukturen offen bleiben, arbeitet die OCI (Open Container Initiative).
Bislang ist die Klimaneutralität der europäischen Rechenzentren vor allem ein frommer Wunsch. Doch angesichts drohender Regulierung kommt die Branche jetzt in Schwung und gründet einen Pakt.
Wie wirkt sich die Covid-19-Pandemie auf den IT-Markt aus? Was wollen Kunden jetzt besonders dringend? Und welche langfristigen Veränderungen ergeben sich daraus? Über diese Themen sprach DataCenter-Insider mit Uwe Müller, DC/Cloud Lead Deutschland bei Cisco.
Bislang war Nachhaltigkeit eher ein Nischenthema für Rechenzentrumsbetreiber. Plötzlich rückt es auch dank geänderten Investorenverhaltens in den Mittelpunkt. Das zeigte sich auf der virtuellen Konferenz „Datacenter Dynamics“ Anfang November.
Kubernetes und Container entwickeln sich aus der Applikationsperspektive betrachtet immer stärker zur Leitinfrastruktur. Daran passt sich VMware schon seit einiger Zeit an, unter anderem durch die Projekte „Townsend“, „Tanzu“ und „Pacific“. Die Ergebnisse sind nun mit dem aktuellen Produkt-Release von vSphere und Cloud Foundation auf dem Markt.
Mit IoT, Smart Cities, Smart Grids und 5G wird das Edge-Datacenter zur unverzichtbaren Infrastrukturkomponente. Zu diesem Thema hat Datacenter Dynamics eine Tagung veranstaltet. Hersteller warten mit Marktzahlen, Konzepten, Techniken und Produkten auf.
Schwarmlernen und Schwarmintelligenz übertragen in der Natur vorkommendes intelligentes Schwarmverhalten, etwa bei Bienen und Ameisen, auf digitale Systeme. Besonders wichtig ist das für die Edge-IT.
Vor einiger Zeit brachte Datacenter-insider einen Bericht über die Empfehlungen des Uptime-Institute zu möglichen Maßnahmen gegen eine Corona-bedingte Lahmlegung von Rechenzentren. Nun hat die Redaktion nachgefragt: Wie gehen Rechenzentren in Deutschland mit der Krise um?
TCO Certified wird in Zukunft auch Rechenzentrums-Equipment zertifizieren. Denn professionelle Anwender fragen nach entsprechenden Produkten. Wann es die ersten gibt, ist aber noch unklar.
Batteriegestützte USV-Anlagen und Notstrom-Generatoren gibt es in vielen Rechenzentren. Ihre Leistung kann dazu beitragen, das öffentliche Stromnetz zu stabilisieren und dabei zusätzliche Erträge generieren. Doch bis das nicht nur technisch funktioniert, sondern sich auch rechnet, müssen noch einige Hürden fallen.
Sicherheit wird in der IT immer wichtiger. Eine wichtige Funktion übernehmen in diesem Zusammenhang Domain Controller, eingedeutscht: Domänencontroller.
Fast jedes elektronische Gerät hat sie, und wenn sie nicht mehr funktioniert, dann ist das Gerät meistens hin. Insofern ist die unscheinbar im Hintergrund arbeitende Backplane eine der wichtigsten Komponenten von Computern, Switches und sonstigen Systemen.
Die überkommenen Kühltechniken mit Luft gelangen zusehends an ihre Grenzen - Experten empfehlen Flüssigkühlung. Eine Variante davon ist Immersionskühlung.
Wo befinden sich die besten Lokationen für Datacenter-Neubauten oder -Erweiterungen weltweit? Das ermittelte eine aktuelle Studie des US-amerikanischen Gewerbe-Immobilien-Beratungsunternehmens Cushman-Wakefield.
Der Begriff Framework ist echt ein verschwommener. Entsprechend gibt es ihn inner- und außerhalb der IT in vielen Kombinationen und Bezügen. Gemeinsam ist ihnen, dass es sich um eine Art Rahmenstruktur handelt, in deren Fächer man allerlei hineintun kann, das dazu passt.
Trotz Cloud Native, DevOps und Kubernetes bleibt es in vielen Firmen beim eigenen Rechenzentrum. VMs behalten eine wichtige Rolle. Das zeigt eine aktuelle Studie.
Wenn etwas in der IT nicht rund läuft, braucht man ein Incident Management, um ungeplanten Zwischenfällen begenen zu können. Der Begriff bezeichnet den gesamten Prozess, von der Feststellung eines Problems bis zu dessen Behebung.
Auf dem komplett ins Internet verlagerten „OCP Summit 2020“ gab es neben neuen Servern und Projekten auch viel zum Thema Nachhaltigkeit. Hyperscaler-Hardware soll zukünftig mehrere Nutzungszyklen durchlaufen.
Kühlmethoden für Rechenzentren gibt es viele. Als besonders effizient wird die Freie Kühlung (englisch: free cooling) beschrieben. Doch unter welchen Bedingungen funktioniert die überhaupt und was braucht man dazu?
Embedded-Betriebssysteme (Embedded-BS oder Embedded OS für Operating System) arbeiten auf Embedded-Systemen. Diese kleinen Rechner sind wiederum in Maschinen und Anlagen implementiert, die sie steuern. Ein Embedded-Betriebssystem unterscheidet sich wesentlich von den üblichen Desktop-Betriebssystemen.
Flüssigkühlsysteme werden früher oder später wegen ihrer um Größenordnungen höheren Effizienz die Rechenzentren erobern. Nun beginnt die OCP (Open Compute Project), Standards, Designrichtlinien und Best Practices zu entwickeln.
Ein Rechenzentrum ohne teure Notstromanlage? Das kann funktionieren, beweist die Kraftwerke Mainz-Wiesbaden AG (KMW) mit ihrer innovativen Planung. Zusätzlich versorgt die KMW das Rechenzentrum mit selbst erzeugter regenerativer Energie.
Die TÜV Informationstechnik GmbH, kurz: TÜViT, ein Unternehmen der TÜV Nord Gruppe, bietet seit fast 20 Jahren RZ-Prüf- und Zertifizierungsdienstleistungen an. DataCenter-Insider sprach mit Joachim Faulhaber, bei TÜViT Fachbereichsleiter Data Center, und Mario Lukas, Vertriebsleiter in diesem Bereich, über die Corona-Krise, die aktuelle Entwicklung und zukünftige Pläne.
Wenn einige Server-Reihen besonders effektiv gekühlt werden müssen, andere aber nicht, kann es sich lohnen, zur In-Row-Kühlung (In-Row Cooling, Seitenkühlung) zu greifen. Es gibt sie in unterschiedlichen Varianten.