Special: Definitionen aus der DataCenter-Welt | Bild: © djama_Fotolia.com

Willkommen im Special „Basiswissen Rechenzentrums-IT und -Infrastruktur“


Behalten Sie den Durch- und Überblick! Unsere Branche ist sehr kreativ bei neuen Wortschöpfungen und Akronymen, aber oft stellen wir Ihnen auch Innovationen vor. Auf dieser Seite sammeln wir für Sie Definitionen und grundlegendes Wissen über die IT für und aus dem Rechenzentrum sowie über die Technik um die IT herum im Sinne eines Glossars. Sie finden hier nach und nach Erklärungen und Definitionen zu allen relevanten Datacenter-Begriffen. Als Service für Sie haben wir diese Erläuterungen in all unseren Beiträgen direkt verlinkt: Ein Klick auf den Glossarbegriff klärt Sie auf.


Basiswissen Rechenzentrums-IT und -Infrastruktur

Server-Virtualisierung - Microsoft hyper-ventiliert

Was ist Hyper-V?

Server-Virtualisierung - Microsoft hyper-ventiliert

Die vier wichtigsten Hypervisoren sind „VMware ESXi“, „Microsoft Hyper-V“, „Xen“ und „KVM“. Hyper-V ist seit 2006 verfügbar und somit jünger als ESXi, doch aufgrund der Marktmacht vom Microsoft rangiert die Software heute auf Platz 2 hinter dem VMware-Produkt, etwa weil der Hypervisor in allen Varianten der Microsoft Server-Betriebssysteme und sogar in den Pro-Versionen von „Windows“ enthalten ist. Zudem ist Hyper-V Basis der „Azure“-Cloud, ähnlich wie Xen bei AWS. lesen

Einstieg in die Hyperkonvergenz mit VMware Virtual SAN 6.6

vSAN und ESXi 6.5 - Video und Text

Einstieg in die Hyperkonvergenz mit VMware Virtual SAN 6.6

Die hyperkonvergente, softwaredefinierte Storage-Software „Virtual SAN“ (vSAN) von VMware hat sich von der 2014 erschienenen Erstlings-Version 5.5 bis zur aktuellen Version 6.6 zu einem veritablen Enterprise-Storage gemausert, der inzwischen alle Zielgruppengrößen adressiert. Dieser Beitrag erläutert das Konzept von vSAN, klärt die Voraussetzungen hinsichtlich Hardware, Software und Lizenz und zeigt die Installation. lesen

Blockchain – eine Einführung in die Konzepte

Sichere Transaktionen

Blockchain – eine Einführung in die Konzepte

Bitcoin, Ethereum und Smart Contracts – ohne Blockchain-Technologien wären all diese spannenden Projekte undenkbar. Doch wie sind die Blockketten aufgebaut und was verbirgt sich noch alles dahinter? lesen

Xen, XenServer.og und Citrix

Was ist Xen-Hypervisor?

Xen, XenServer.og und Citrix

Die vier wichtigsten Hypervisoren im Virtualisierungsumfeld sind „VMware ESXi“, „Microsoft Hyper-V“, „Xen“ und „KVM“, wobei das initial im Jahr 2003 erschienene Xen mit Einführung der Paravirtualisierung seinerzeit einen technisch interessanten Weg einschlug, der gegenüber der Vollvirtualisierung mehr Performance versprach und das schwierige Problem der Ring-Priviligierung/Aliasing geschickt umging. lesen

VMware vSphere gibt den Ton an

Was ist ESXi-Hypervisor?

VMware vSphere gibt den Ton an

Die vier wichtigsten Hypervisoren im Virtualisierungsumfeld sind „VMware ESXi“, „Microsoft Hyper-V“, „Xen“ und „KVM“, wobei ESXi die mit Abstand längste Produkthistorie und größte Marktdurchdringung aufweist. VMware gilt quasi als „Erfinder“ der Software-basierten Virtualisierung auf x86-Hardware und verfügt somit über rund zehn Jahre Know-How-Vorsprung, was sich etwa in der umfangreichen Feature-Liste ausdrückt. lesen

In 10 Schritten den kostenlosen Hyper-V-Server 2016 produktiv nutzen

Kostenlos mit Hyper-V virtualisieren – Ohne Abstriche

In 10 Schritten den kostenlosen Hyper-V-Server 2016 produktiv nutzen

„Hyper-V-Server 2016“ stellt Microsoft kostenlos bereit. Bei dem Server handelt es sich um die Installation von „Windows Server 2016“ als Core-Server mit bereits installierter Hyper-V-Rolle. lesen

High Performence Computing für extrem viel Rechnerei

Was ist High Performance Computing?

High Performence Computing für extrem viel Rechnerei

High Performance Computing (HPC) bezieht sich auf die extrem anspruchsvolle Berechnung von Daten innerhalb von Computersystemen. High Performance Computing spielt in der Forschung, im Big-Data, KI- und Simulationsumfeld eine große Rolle. Auch kleinere Unternehmen nutzen HPC , selten inhouse, zunehmend jedoch in der Cloud. lesen

OpenSource bedeutet quelloffen

Definition: Open Source

OpenSource bedeutet quelloffen

Open Source steht im Soft- und Hardwarebereich für quelloffene Programme, Hardware und Designs. Das heißt: Jeder Interessent kann Einblick in den Quellcode einer Applikation bekommen. Open-Source-Materialien sind kostenlos, nicht lizenzfrei, verfügbar. lesen

Managed Hosting verspricht kalkulierbare Kosten und garantierte Verfügbarkeit

Definition: Managed Hosting

Managed Hosting verspricht kalkulierbare Kosten und garantierte Verfügbarkeit

Managed Hosting bedeutet prinzipiell nichts anderes als die Bereitstellung standardisierter oder auch individuell maßgeschneiderter IT-Ressourcen - mit dem Unterschied, dass der Anwender dazu keine eigene technische Infrastruktur benötigt. lesen

ISO 27001 ist der Sicherheitsstandard im Rechenzentrum

Definition: ISO 27001

ISO 27001 ist der Sicherheitsstandard im Rechenzentrum

ISO 27001 bezieht sich auf den gleichnamigen Standard, der für die Einhaltung der Informationssicherheit in Unternehmen genutzt wird. Die Bezeichnung ISO 27001 ist heute nicht mehr zu 100 Prozent korrekt, da der Standard im Jahr 2013 eine Revision erfahren hat. Die korrekte Schreibweise des heute aktiven Standards lautet daher ISO/IEC 27001:2013. lesen

„Am Rande“ der Machbarkeit: der Grundgedanke von Edge-Computing

Definition: Edge-Computing

„Am Rande“ der Machbarkeit: der Grundgedanke von Edge-Computing

Edge-Computing bildet eine Zwischenschicht zwischen der privaten Cloud im Datencenter auf der einen Seite und IoT-Endgeräten mit latenzsensibler Sensorik auf der anderen Seite. Die Rechen- und Speicherknoten im Edge-Computing-Modell sind strategisch in der Nähe mobiler IoTEndgeräte untergebracht, leisten einige Vorarbeit für die Cloud und buffern Netzwerkstörungen für die empfindliche IoT-Sensorik. lesen

Rechnen mit Vektoren ist Parallel-Computing der dritten Art

Definition: Vektor-Prozessor

Rechnen mit Vektoren ist Parallel-Computing der dritten Art

Im Rahmen klassischer Von-Neumannscher Rechner-Architekturen kommen heute überwiegend so genannte Skalar-Prozessoren zum Einsatz, im Vergleich zu Vektor-Prozessoren, die vor allem bei der Parallelverarbeitung eine Rolle spielen, im High-Performance-Computing aber zunehmend von Scale-Out-Computer-Cluster mit spezialisierter GPU-Unterstützung verdrängt werden. Tot sind Vektor-Prozessoren aber nicht, wie NEC auf der CeBIT in diesem Jahr demonstrierte. lesen

Entstehung, Aufbau und Funktionsweise von SOAP

Das Simple Object Access Protocol

Entstehung, Aufbau und Funktionsweise von SOAP

REST (Representational State Transfer) und SOAP (Simple Object Access Protocol) sind derzeit die beiden aktuell wichtigsten Web-Service-APIs. Ob man das fast 20 Jahre alte Netzprotokoll SOAP oder den Newcomer REST nutzen sollte, hängt von verschiedenen Faktoren ab. Thomas Drilling bietet eine systematische Bestandsaufnahme. lesen

DevOPs und der Administrator

Definition: Administrator

DevOPs und der Administrator

Im IT-Umfeld ist der Administrator (auch Admin abgekürzt) eine Person, die einige wenige oder zahlreiche verwaltende Funktionen innerhalb abgetrennter Bereiche oder eines gesamten Netzwerks verwaltet. Als System-Administrator besitzt diese Person Rechte, die für normale Anwender nicht zugänglich sind. lesen

Blockchain im Datencenter: Kryptoverkettung von IoT

Definition: Blockchain

Blockchain im Datencenter: Kryptoverkettung von IoT

Die branchenübergreifende Disruption durch Blockchain-Technologie konvergiert im Datacenter, der Krypto-Engine des verteilten Ledgers. lesen

Bare Metal erlaubt Individualität, Performance und Sparen in der Cloud

Definition: Bare Metal

Bare Metal erlaubt Individualität, Performance und Sparen in der Cloud

Bare Metal (oder: Bare Machine) ist die Bezeichnung für das Ausführen von Operationen direkt auf der Rechnerhardware, Computer ohne Betriebssystem-, ohne Hypervisor-, ohne Middleware-Ausstattung. Im Cloud Computing dienen Bare-Metal-Angebote unter anderem dazu, Lizenzgebühren für Virtualisierungstechniken zu sparen. lesen

Co-Location ist die externe Infrastruktur für die Unternehmens-IT

Definition: Co-Location

Co-Location ist die externe Infrastruktur für die Unternehmens-IT

Unternehmen, die Co-Location (anderes Schreibweise: Colocation, deutsch: Kolokation) nutzen, lagern ihre IT-Infrastruktur in ein externes Rechenzentrum aus. Die Betreiber von Co-Location-Sites stellen ihren Kunden im Rahmen eines Mietmodells Platz, Rechenleistung und Datenleitungen zur Verfügung. lesen

Die Zukunft ist höchst wahrscheinlich

Definition: Quantencomputer

Die Zukunft ist höchst wahrscheinlich

Seit vielen Jahren werden Quantencomputer in den einschlägigen Medien als ein mögliches Konzept für neue Superrechner „verkauft“. Sie sollen heutigen, dem Prinzip der Von-Neumann-Architektur folgenden Rechnern – in puncto Rechenleistung weit überlegen sein. Allerdings sind Quantencomputer bis heute nicht dem Labor-Stadium entwachsen oder doch? lesen

Die Vorteile des Ethernets, um Messdaten zu übertragen

Ethernet in der Messtechnik

Die Vorteile des Ethernets, um Messdaten zu übertragen

Der Ethernet-Anschluss findet sich fast überall in der Industrie. Der Beitrag zeigt Grundlegendes zur Topologie bis zur Messdatenübertragung über einen Ethernet-Anschluss. lesen

Was macht den Mainframe zum Mainframe?

Von Mainframes und Server-Farmen - ein Vergleich

Was macht den Mainframe zum Mainframe?

Google, Facebook, Twitter & Co. betreiben rund um die Welt riesige Datacenter, die aus Standardhardware aufgebaut sind. Abertausende kleiner Server im Netzwerkverbund sind gut genug für diese Unternehmen, warum also sollte dies nicht auch die richtige Lösung für andere Unternehmen sein? lesen