Dr. Dietmar Müller ♥ DataCenter-Insider

Dr. Dietmar Müller

Journalist

​Dr. Dietmar Müller ist ein renommierter Journalist, Medienpsychologe und Content-Manager mit über 25 Jahren Erfahrung in der Medienbranche. Sein beruflicher Schwerpunkt liegt auf der Unternehmens-IT in all ihren Facetten, wobei er sich intensiv mit den neuesten Entwicklungen und Trends in diesem Bereich auseinandersetzt.

In seiner langjährigen Karriere hat Dr. Müller ein tiefgreifendes Verständnis für die Schnittstelle zwischen Technologie und Kommunikation entwickelt. Seine Expertise ermöglicht es ihm, technische Sachverhalte nicht nur präzise zu analysieren, sondern auch so aufzubereiten, dass sie für ein breites Publikum zugänglich sind. Durch seine Tätigkeit als Medienpsychologe verfügt er zudem über ein fundiertes Wissen darüber, wie Medieninhalte auf Rezipienten wirken und welche psychologischen Faktoren bei der Vermittlung von Informationen eine Rolle spielen.​

Als Content-Manager hat Dr. Müller zahlreiche Projekte geleitet, bei denen es darum ging, hochwertige Inhalte zu erstellen, die sowohl informativ als auch ansprechend sind. Seine Fähigkeit, komplexe Themen in verständlicher Form zu präsentieren, hat ihm in der Branche einen exzellenten Ruf eingebracht.

Artikel des Autors

Immer mehr Daten ... Doch die Speicher und Netzwerkkomponenten ziehen nicht den meisten Strom im Rechenzentrum. Das Problem sind etwa die CPUs, die trotz Server-Virtualisierung nur zu einem geringen Teil ausgelastet sind.  (© chungking - stock.adobe.com)
Neue Kennzahlen für Rechenzentren aus dem Umweltbundesamt

KPI4DCE vom UBA statt PUE? Schwierig, aber machbar!

Die Kritik am PUE ist allgegenwärtig, doch scheint es bislang kaum Besseres zu geben. Das Umweltbundesamt (UBA) will die Kenngröße durch „KPI4DCE“, Key Performance Indicators for Data Center Efficiency, ersetzen. Dabei wird die IT beziehungsweise deren Effizienz in die Betrachtung miteinbezogen. Und: Das UBA stellt auch ein Tool zur Berechnung sowie Fallbeispiele bereit.

Weiterlesen
Dynatrace-Mastermind Bernd Greifeneder: „Wir wollen als Partner Unternehmen zu einer autonomen Cloud in einem autonomen Rechenzentrum verhelfen.“ (Dr. Dietmar Müller)
Digitale Transformation im Rechenzentrum

Mit NoOps von DevOps zu BizDevOps

Dynatrace hat sich einen Namen mit „Application Performance Management” (APM) für Kunden wie Adobe, eBay, Swarovski, T-Mobile oder Verizon gemacht. Das Unternehmen ermöglicht quasi einen Röntgenblick auf die gesamten digitalen Assets und die Performance von Anwendungen. Da diese heute zum Teil im Sekundentakt veröffentlicht werden, hat sich APM zu einer Königsdisziplin im Rechenzentrum gemausert. Und Dynatrace verdient.

Weiterlesen
Die Vertreter aus Politik und Wirtschaft bei der Vorstellung des Digital Transformation Center in München (von links): Dr. Rolf Werner, Vorsitzender der Geschäftsführung Deutschland und Head of Central Europe bei Fujitsu; Thomas Remmel, Director Organization & IT bei der Deutschen Leasing, dem ersten Kunden im neueröffneten DTC in München; Franz Josef Pschierer, bayerischer Wirtschaftsminister; Yoshiteru Yamada, Head of Global Marketing bei Fujitsu  und Duncan Tait, CEO, SEVP und Head of Americas und EMEIA bei Fujitsu (Dietmar Müller)
Hopp, hopp: Auf geht´s in die Zukunft - mit Kreativitäts-Workshops und Wissenspool!

Fujitsu eröffnet Digital Transformation Center in München

Fujitsu hat in München Vertreter von Politik und Wirtschaft zur Eröffnung des ersten Digital Transformation Center (DTC) außerhalb Japans begrüßt. In einem der Highlight-Towers in Schwabing hat das Unternehmen dafür unter anderem einen „Co-Creating“-Arbeitsraum eingerichtet, in dem gemeinsam mit Kunden nach Wegen in das digitale Zeitalter gesucht werden soll.

Weiterlesen
Rechenleistung, Storage, Connectivity & Network - Services der Open Telekom Cloud im Überblick. (© Syda Productions - stock.adobe.com)
IaaS-Lösung auf Basis von OpenStack

Die Vorteile der Open Telekom Cloud

Wer im Geschäftskundenbereich der Telekom nach Cloud-Angeboten sucht, wird in vielfältiger Form fündig. Unter dem Reiter „Cloud & IT“ offeriert der Konzern über 20 Services, von Anwendungen für die Teamarbeit über Sicherheitsaspekte bis hin zur Open Telekom Cloud. Bei Letzterem handelt es sich um das Cloud-Angebot der Telekom für Geschäftskunden. Was genau verbirgt sich hinter dem 2016 erstmals vorgestellten Service?

Weiterlesen
Gerundlagen zu OpenStack. (ktsdesign - stock.adobe.com)
Offene Basis für Cloud Computing

So funktioniert OpenStack

Wer Cloud sagt, muss auch OpenStack sagen. Zumindest in acht von zehn Fällen, ergab einer Studie von im Auftrag von Suse – und bald vermutlich in zehn von zehn Fällen. Denn IT-Verantwortlichen in Großunternehmen setzen seit dem ersten Release von OpenStack im Oktober 2010 ihre Projekte mit Private Clouds in zunehmenden Maße auf Basis von OpenStack um. Und der Mittelstand tut es ihnen immer mehr gleich, zeigt uns der Cloud Monitor 2017 von Bitkom Research. Bleibt nur die Frage: Was genau ist eigentlich dieses OpenStack?

Weiterlesen
Open Telekom Cloud: Das Public-Cloud-Angebot der Telekom auf Basis des offenen Cloud-Standards OpenStack.  (bluebay2014 - stock.adobe.com)
Open Telekom Cloud

Telekom reagiert auf den Trend zur Hybrid Cloud

Insider wissen es längst, Studien bestätigen es immer wieder: Firmen setzen zunehmend auf Hybride Cloud-Architekturen, um ihren Geschäftsanforderungen gerecht werden zu können. Public Cloud-Angebote fungieren dabei zunehmend als „Überlaufbecken“ für Unternehmensdaten. Das Public-Cloud-Angebot der Telekom auf Basis des offenen Cloud-Standards OpenStack – die Open Telekom Cloud - trägt diesem aktuell größten Trend in der Unternehmens-IT Rechnung.

Weiterlesen
OpenStack am Beispiel der Open Telekom Cloud. (© Syda Productions - stock.adobe.com)
Warum OpenStack?

Das perfekte Management für die Multi Cloud

Seit der CeBIT im vergangenen Jahr offeriert die Deutsche Telekom ein eigenes Public-Cloud-Angebot für Geschäftskunden. Die Infrastructure-as-a-Service-Lösung „Open Telekom Cloud“ wird in den Rechenzentren von T-Systems in der Nähe von Magdeburg gehostet und unterliegt damit deutschem Recht. Das ist ein gewichtiges Argument für die Nutzung dieses Angebots. Das andere lautet OpenStack.

Weiterlesen
Immer wieder ist zu hören, dass Betreiber von Rechenzentren gerne auf ihre Dieselgeneratoren verzichten würden.  (gemeinfrei, InsaPictures / Pixabay)
Ist das möglich?

Rechenzentren ohne Dieselgeneratoren

Immer wieder ist zu hören, dass Betreiber von Rechenzentren gerne auf ihre Dieselgeneratoren verzichten würden. Nicht nur, weil sie teuer in der Anschaffung sind und danach die meiste Zeit untätig herumstehen, sondern auch weil sie als schmutzig gelten, stoßen sie doch sowohl Kohlendioxid als auch potentiell schädliche Partikel aus.

Weiterlesen
Estland ist durch die Blockchain-Technologie ein durchdigitalisiertes Land, das seinen Bürgern viele Wege abnimmt. (gemeinfrei, geralt / Pixabay)
Zehn Jahre produktiver Einsatz zum Wohl der Bürger

Blockchains rocken Estland

Über die fabelhaften Chancen der Blockchain als disruptive Technologie berichtet die Fachpresse nonstop in den höchsten Tönen – auch wir tun das. Wo aber hat sie wirklich für ein besseres Leben gesorgt? Martin Ruubel, President von Guardtime, führt als Beispiel gleich ein ganzes Land an: Estland sei durch die Blockchain-Technologie ein durchdigitalisiertes Land, das seinen Bürgern viele Wege abnimmt, vorrangig die zum Amt.

Weiterlesen
„HPE Greenlake“ wurde sowohl für cloud-native als auch andere Workloads entwickelt, wobei die Vorteile der Public Cloud vor Ort bereitgestellt werden.  (HPE)
HPE Discover Virtual Experience

Zahlt sich das Pay-per-Use-Model von HPE Greenlake aus?

Mit „Greenlake“ will HPE einen Point-and-Click-Self-Service an das Edge und in Rechenzentren bringen, wo Public-Cloud-Anbieter nicht erreichbar sind oder sein sollen. Auch lässt ein Pay-as-you-go Modell den Kunden nur das bezahlen, was er auch wirklich einsetzt und was Einsparungen und einen tollen ROI bescheren soll. In einem virtuellen „HPE Discover Virtual Experience“-Event zum Thema diskutierten Manager und Anwender HPE Greenlake.

Weiterlesen
Bei der Immersionskühlung werden ganze Server in einer elektrisch nicht leitfähigen Flüssigkeit gehalten und alle Komponenten umströmt. Die warme Flüssigkeit wird aus dem Gebäude zu Rückkühlern geführt und dann wieder zurückgeleitet. (gemeinfrei, TheAngryTeddy / Pixabay)
Submer stellt die SmartPodX vor

Die Zukunft des Immersion Cooling?

Submer hat auf der OCP SmartPodX vorgestellt, eine neuartige Variante des Liquid Immersion Cooling für Datacenter, Hyper-Skala Cloud Provider und Edge Computing. Der SmartPodX ist das erste patentierte Tauchkühlsystem, das die Cooling Distribution Unit (CDU) als modulare Komponente in die Flüssigkeit einbringt. So kann die CDU bei Bedarf schnell ausgetauscht werden, ohne den Serverbetrieb zu unterbrechen.

Weiterlesen
Die in Nürnberg ansässige Datev tritt mittlerweile als Anbieter von Cloud-Lösungen auf und ist durch den Einsatz von Cloud Foundry an der vordersten Technologiefront mit dabei.  (gemeinfrei, Gellinger / Pixabay)
Interview mit dem Cloud Platform Engineer Jürgen Sußner

Was macht Cloud Foundry bei der Datev?

Die Datev ist fast jedem Deutschen ein Begriff, Arbeitnehmer kommen mit der Software des genossenschaftlich organisierten IT-Dienstleisters bei der Steuererhebung in Kontakt. Die digitale Transformation macht auch vor einer solchen Institution nicht Halt: Die Datev tritt mittlerweile als Anbieter von Cloud-Lösungen auf und ist durch den Einsatz von Cloud Foundry (CF) an der vordersten Technologiefront mit dabei. Das wirft Fragen auf.

Weiterlesen
Cisco hat hyperkonvergente Infrastrukturen neu gedacht und auf ein neues Level gehoben.  (gemeinfrei, geralt / Pixabay)
gesponsert
Cisco HyperFlex

Cisco hebt HCI auf einen neuen Level

IT-Teams in Unternehmen müssen heute in hohem Maße flexibel agieren – in einem dynamischen Umfeld, geprägt von Digitalisierung, Internet of Things und Industrie 4.0, müssen neben zeitintensiven Alltagsaufgaben wie die Systembetreuung und Maintenance sowohl Anwendungen als auch virtuelle Systeme für Anwender innerhalb und außerhalb des Betriebs ganz schnell bereitgestellt werden. Mit isolierten Computing-, Netzwerk- und Speichersystemen, die statisch sind und ein individuelles Management erfordern, ist dies praktisch nicht möglich.

Weiterlesen
Auf der future thinking am 11. April wird ein Thema mit Sicherheit viel diskutiert werden: die Kältemittel der Zukunft.  (gemeinfrei, jill111 / Pixabay)
Diskussion auf der Future Thinking

F-Gase-Verordnung: Fieberhafte Suche nach Alternativen

Auf dem Fachkongress „Future Thinking“ am 11. April wird ein Thema mit Sicherheit viel diskutiert werden: die Kältemittel der Zukunft. Die F-Gase-Verordnung untersagt künftig den Einsatz besonders umweltschädlicher Gase, weniger umweltschädliche Substanzen werden maximal eingeschränkt. Nun sucht die Rechenzentrumsbranche nach Alternativen. Bereits heute ist der Markt extrem angespannt.

Weiterlesen
Es besteht ein enormes Bedürfnis nach dezentraler IT-Power, das heute mit Edge Computing adressiert wird.   (gemeinfrei, geralt / Pixabay)
Nachgefragt bei Schneider Electric, IBM, Dell und Equinix

Wie sieht die Zukunft von Edge Computing aus?

Es besteht ein enormes Bedürfnis nach dezentraler IT-Power, das heute mit Edge Computing adressiert wird. Dieses brachte die Datenverarbeitung zurück an den Ort der Datenerfassung, weswegen das Design der Edge-Rechenzentren sehr schmal angelegt war. Nun scheinen Anwender am Rand aber immer besser ausgestattete Rechenzentren zu fordern. Oder doch nicht? Wir haben bei führenden Herstellern nachgefragt.

Weiterlesen
Entwickler entscheiden sich für Cloud Foundry, weil es ihre Arbeitsabläufe in einer zunehmend komplizierten Cloud-Landschaft vereinfacht (gemeinfrei, KarstenWachtmann / Pixabay)
European CF-Summit

Die Cloud Foundry Foundation macht es sich einfach

Die Cloud Foundry Foundation hat vorgestern Abend im Internet ihren European Summit mit jeder Menge Meldungen zu Neuerungen aus dem Ecosystem gestartet. Die Cloud Foundry-Macher wie Chip Childers, Executive Director der Foundation, wollen damit belegen, wie unverzichtbar die Kubernetes-Entwicklungsplattform für Developer mittlerweile geworden ist, reduziere sie doch die Komplexität von Entwicklungsschritten in Cloud-nativen Umgebungen ganz erheblich.

Weiterlesen
Immer mehr Daten ... Doch die Speicher und Netzwerkkomponenten ziehen nicht den meisten Strom im Rechenzentrum. Das Problem sind etwa die CPUs, die trotz Server-Virtualisierung nur zu einem geringen Teil ausgelastet sind.  (© chungking - stock.adobe.com)
Neue Kennzahlen für Rechenzentren aus dem Umweltbundesamt

KPI4DCE vom UBA statt PUE? Schwierig, aber machbar!

Die Kritik am PUE ist allgegenwärtig, doch scheint es bislang kaum Besseres zu geben. Das Umweltbundesamt (UBA) will die Kenngröße durch „KPI4DCE“, Key Performance Indicators for Data Center Efficiency, ersetzen. Dabei wird die IT beziehungsweise deren Effizienz in die Betrachtung miteinbezogen. Und: Das UBA stellt auch ein Tool zur Berechnung sowie Fallbeispiele bereit.

Weiterlesen