Special: Definitionen aus der DataCenter-Welt | Bild: © djama_Fotolia.com

Willkommen im Special „Basiswissen Rechenzentrums-IT und -Infrastruktur“


Behalten Sie den Durch- und Überblick! Unsere Branche ist sehr kreativ bei neuen Wortschöpfungen und Akronymen, aber oft stellen wir Ihnen auch Innovationen vor. Auf dieser Seite sammeln wir für Sie Definitionen und grundlegendes Wissen über die IT für und aus dem Rechenzentrum sowie über die Technik um die IT herum im Sinne eines Glossars. Sie finden hier nach und nach Erklärungen und Definitionen zu allen relevanten Datacenter-Begriffen. Als Service für Sie haben wir diese Erläuterungen in all unseren Beiträgen direkt verlinkt: Ein Klick auf den Glossarbegriff klärt Sie auf.


Basiswissen Rechenzentrums-IT und -Infrastruktur

Software Defined Datacenter und als nächstes: Software Defined Infrastructure

Definition: SDDC und SDI

Software Defined Datacenter und als nächstes: Software Defined Infrastructure

Die Begriffe Software Defined Datacenter (SDDC), ursprünglich geschmiedet durch den Virtualisierungsplatzhirsch VMware, und Software Defined Infrastructure (SDI), aus dem Hause Intel, werden oft austauschbar benutzt, obwohl sie sich in ihrer Bedeutung eigentlich wesentlich voneinander unterscheiden. lesen

Verbundstrukturen im Rechenzentrum

Definition: Cluster

Verbundstrukturen im Rechenzentrum

In Rechenzentren tummeln sich vielfältige Arten von Cluster, „Verbünden“ aus Rechnern oder Storage-Geräten, die entweder einer Erhöhung der Verfügbarkeit oder der Rechen- , oder Speicherkapazität dienen. Hier ein Überblick. lesen

Jailhouse: Ein Hypervisor für Multi-Core, Embedded und Echtzeit

Fest verbaute Hypervisor

Jailhouse: Ein Hypervisor für Multi-Core, Embedded und Echtzeit

Auch im Embedded-Umfeld lassen sich viele Vorteile der Hypervisor-Technik anwenden. Die Open-Source-Software „Jailhouse“ hat hierfür zahlreiche Trümpfe im Ärmel. lesen

Was ist eigentlich Storage-Virtualisierung?

Definition

Was ist eigentlich Storage-Virtualisierung?

Während die Virtualisierung von Rechenleistung oder Netzwerkbandbreite auf einer modifizierten Technik beruht, kämpft man bei der Speichervirtualisierung immer mit der "Gravitation" von Daten. Die Entwicklung der Speichervirtualisierung zeigt, dass das eine schwere Herausforderung ist. lesen

„Spark ist eine Technologie, die wie Linux und Java alles durchdringt“

Interview mit Vijay Bommireddipalli, IBM

„Spark ist eine Technologie, die wie Linux und Java alles durchdringt“

„Apache Spark“, ein Framework für die Verarbeitung von Big Data, ist mittlerweile das aktivste Projekt in der Open Source Community. Im Juni 2015 gründete IBM in San Francisco ein eigenes Technologiezentrum (TC) für Apache Spark. BigData-Insider hatte die Gelegenheit, ein Interview mit Vijay Bommireddipalli zu führen, dem Leiter des IBM Spark Technology Center. lesen

Latenz und Lichtgeschwindigkeit

Definition

Latenz und Lichtgeschwindigkeit

Viele denken über die Nutzung der Cloud nach und nicht wenige wollen ihre Anwendungen mit Halbleiterspeichern am liebsten auf Echtzeit beschleunigen. Beide Nutzergruppen beschäftigt ein großes Thema: die Antwortzeit. Während die eine Fraktion weltumspannende Geschäftsprozesse im Sinn hat, plagt die andere Fraktion der Zeitbedarf ihrer Systeme und Anwendungen im Mikrosekundenbereich. lesen

Was macht eine SSD besser als eine HDD?

Definition

Was macht eine SSD besser als eine HDD?

Eine SSD, also eine Solid State Disk, ist, einfach ausgedrückt, ein Haufen von NAND-Speicherzellen, auch Flash-Memory genannt, die von einer speziellen SSD-Controller-Software verwaltet werden. Die SSD ist aus heutiger Sicht ein Zugeständnis an den Investitionsschutz veralteter Hardware, da sie von den klassischen Festplattenschnittstellen ausgebremst wird. lesen

Wege aus dem Distanz- und Durchsatzdilemma im Datacenter

Verkabelung im Rechenzentrum

Wege aus dem Distanz- und Durchsatzdilemma im Datacenter

Die Rechenzentrumsverkabelung steht vor großen Veränderungen. Denn einerseits machen immer größere Datenmengen immer leistungsfähigere Verbindungen notwendig, andererseits bedeuten noch größere Bandbreiten pro Faser bei Multimode-Faser extrem verkürzte Distanzen. lesen

Speichergrößen verständlich dargestellt - vom Bit zum Yottabyte

Definition

Speichergrößen verständlich dargestellt - vom Bit zum Yottabyte

Speicherkapazitäten werden üblicherweise in Byte angegeben. Bei größerem Datenmengen wird das Byte um Dezimal-Präfixe wie Kilo (Tausend), Mega (Million), Giga (Milliarde) usw. ergänzt. Doch wie kann man sich Kilobyte, Megabyte, Gigabyte, Terabyte, Petabyte, Exabyte, Zettabyte, Yottabyte ein wenig gegenständlicher machen? lesen

Microservices und das ereignisgetriebene Datacenter

Erklärung und Bedeutung von Microservices

Microservices und das ereignisgetriebene Datacenter

Microservices verändern die Art und Weise, wie Unternehmen ihre IT in Betrieb setzen: Das ereignisgetriebene (event-driven) Rechenzentrum nimmt Gestalt an. lesen

Hyperkonvergenz ist nur ein erster Schritt

Auf dem Weg zum softwaredefinierten Rechenzentrum

Hyperkonvergenz ist nur ein erster Schritt

Die Industrie 4.0 muss zu einem Umbruch in der Rechenzentrumsbranche führen: Das IoT als Fundament der Industrie 4.0 benötigt hyperkonvergente Netze, um Daten aus Fabrikhallen und anderen Gebäuden einzufangen. lesen

Vergleich von HPC-Features in Windows-und Linux-Betriebssystemen

High Performance Computing von Suse, Red Hat und Microsoft

Vergleich von HPC-Features in Windows-und Linux-Betriebssystemen

Fallende Preise, steigende Leistung und innovative Ansätze schaffen neue Einsatzszenarien für Technologien für das High Performance-Computing (HPC) - Grund genug, um die HPC-Features von SLES, RHEL und Microsoft HPC unter die Lupe zu nehmen. lesen

Mit Power-Chips geht IBM gegen die Intel-Dominanz an

Power-Prozessoren, Open Power und Synapsen

Mit Power-Chips geht IBM gegen die Intel-Dominanz an

Intel-Server haben aktuell einen stabilen Marktanteil von 80 Prozent. Mit dem „Power“-Prozessor will IBM bei rechenintensiven Anwendungen punkten. Die „Open-Power“-Initiative lockt zudem Linux-Anwender mit Kampfpreisen. lesen

Ist DevOps eine Mode-Erscheinung oder von Dauer?

Erklären Sie DevOps!

Ist DevOps eine Mode-Erscheinung oder von Dauer?

Viele IT-Teams suchen einen Ausweg aus dem Dilemma verzögerter Projekte, fragwürdiger Qualität und Lieferausfällen, in dem sie sich oft befinden, ohne dafür gleich Blankoschecks auszustellen zu müssen. Das DevOps-Konzept hat die IT-Welt im Sturm erobert, doch kann die alltägliche Praxis hier mithalten? DataCenter-Insider befragt einen Experten. lesen

Keiner kommt an Container-Technik, also Docker, vorbei

Docker Container

Keiner kommt an Container-Technik, also Docker, vorbei

Seit 2013 spielt die Container-Technik „Docker“ IT-Abteilungen, IT-Manager und die Analysten schwindelig. Zeit für eine Bestandsaufnahme: Wie weit sind Docker-Container tatsächlich in der Realität der Unternehmens-IT angekommen? lesen

Trendwende in der Datacenter-Energieversorgung

Energie-Effizienz im Rechenzentrum

Trendwende in der Datacenter-Energieversorgung

Die Energieversorgung bildet einen nicht zu unterschätzenden Anteil der Betriebskosten eines Datencenter; laut aktuellen Studien von Gartner Inc. und IDC stellt sie gar den zweitgrößten Kostenfaktor dar. Innovationen zur Maximierung der Energie-Effizienz lassen allerdings Hoffnungen auf Abhilfe aufkommen. lesen

Im Rack muss Ordnung herrschen

Definition: Rack

Im Rack muss Ordnung herrschen

Inzwischen bevölkern häufig Tausende von Servern, physischen und virtuellen, die Rechenzentren. Für Ordnung im physischen Bereich sorgt unter anderem das Rack, in dem die Komponenten eingebaut sind. lesen

Supercomputer von der Cray bis zum Linux-Cluster mit GPU

Definition: Supercomputer

Supercomputer von der Cray bis zum Linux-Cluster mit GPU

Supercomputer, der Begriff beschreibt Computersysteme mit extrem großer Leistungsfähigkeit, auch im Vergleich zu den schnellsten normalen Computern. Er schließt dabei Grid- oder Cloud-Computing-Lösungen aus, bei denen räumlich verteilte, vernetzte Computer numerische Probleme gemeinschaftlich lösen, oft auf freiwilliger Basis. lesen

Software: der Treibstoff für den Computer

Definition: Software

Software: der Treibstoff für den Computer

Software hat sich im Wechsel der Computergenerationen von einer Randerscheinung zur Hauptfigur gewandelt. Als zweiter Trend bietet sich mit zunehmender Vernetzung Software als Dienstleistung statt als Produkt an. Eine andere Strömung mit signifikantem Einfluss ist die quelloffene Software (Open Source). lesen

Informationen über den gesamten Lebenszyklus eines Produkts

Definition: Product Lifecycle Management, PLM

Informationen über den gesamten Lebenszyklus eines Produkts

Die Disziplin Product Lifecycle Management, zu Deutsch: Produktlebenszyklus-Management (PLM), verwaltet sämtliche Informationen und Daten, die im Lebenszyklus eines Produktes anfallen. lesen