IBM-Technik contra Fachkräftemangel, Kostendruck und Komplexität bei Kunden

IBM will Big-Data- und Cloud-Infrastruktur erschwinglicher gestalten

| Redakteur: Ulrike Ostler

IBM bringt neue Techni auf den Markt, die dazu beitragen sollen, zum einen Big Data und zum anderem Cloud Computing einfacher und schneller verwirklichen zu können, zu niedriegen Kosten und Energie-effizienter als bisher.
IBM bringt neue Techni auf den Markt, die dazu beitragen sollen, zum einen Big Data und zum anderem Cloud Computing einfacher und schneller verwirklichen zu können, zu niedriegen Kosten und Energie-effizienter als bisher. (Bild/ Michael Rosskothen/Fotolia.com)

IBM kündigt die Einführung von acht neuen „Power-Server“-Systemen, drei neuen „Pure Systems“-Modellen sowie neuen Speichersystemen an. Damit soll es einfacher und kosteneffektiver sein als je zuvor, cloud-basierte Services schnell bereitzustellen und große Datenmengen zu analysieren. Attraktiv ist das insbesondere für Mittelständler.

Mittelständische Unternehmen, die nahezu die Hälfte des Brutto-Inlandsprodukts ausmachen, haben aufgrund von Kosten und ungenügendem Know-how bisher mit Schwierigkeiten bei der Nutzung von Big-Data-Lösungen und cloud-basierten Infrastrukturen, diagnostiziert IBM. Die gestrige Ankündigung aus dem eigenen haus könnte ihnen nun eine ähnlich leistungsstarke technische Basis bescheren, wie sie große Enterprise-Kunden einsetzen, so IBM.

Dazu gehören für Big Data spezifizierten und integrierten Systeme. IBM schätzt, dass 2,5 Exabyte an Daten jeden Tag erstellt werden – dies bedeutet, dass 90 Prozent der Daten allein in den letzten zwei Jahren geschaffen worden sind.

Diesem Trend kann sich kein Unternehmen entziehen. So sind auch mittelständische Firmen gefordert, einfachere und kostengünstigere Möglichkeiten zu finden, um die vorhandenen Daten zu analysieren und Kundenbedürfnisse daraus abgeleitet in besserem Maß zu erfüllen.

Die Hürden sinken tiefer

Die von IBM jetzt angekündigte Technik soll helfen können, die beiden größten Hindernisse bei der Nutzung von Big Data zu überwinden: die Kosten für die Bearbeitung der Daten und die Komplexität, die damit einhergeht, die richtigen Weichen zu stellen, um die Entscheidungshilfen zu finden, die tatsächlich nützen können.

Dazu bringt IBM seine „Power-7+“-Mikroprozessor-Technologie jetzt auch in Einstiegs-und Mid-Range-Systeme unter. Nach Herstellerangaben seien diese eine besser geeignete Plattform für große Datenmengen und Cloud als x86-Chips. Denn die Virtualisierung, ein wichtiger Bestandteil für Big-Data-Computing, ist bereits von vorneherein in den Prozessor integriert. „Noch nie war die Analytik-Power in einem Power-System von IBM so kostengünstig zu erhalten“, wirbt IBM.

Ergänzendes zum Thema
 
„Developed in Germany“

Die Power-7+-Prozessoren haben die Virtualisierung schon eingebaut.
Die Power-7+-Prozessoren haben die Virtualisierung schon eingebaut. (Bild: IBM)

Die Systeme verfügen im Übrigen über einen doppelt so großen Datendurchsatz wie die Vorgänger bei gleichzeitig verbesserter Energie-Effizienz. Bei den Nutzern zeigt sich das als deutliche Beschleunigung der Anwendungen.

Inhalt des Artikels:

Was meinen Sie zu diesem Thema?

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de/ (ID: 37914360 / Konvergente Systeme)