Big Data – Ansichten und Aussichten – Revolution Wie Big Data die Welt verändert

Autor / Redakteur: John Tyrrell / Jürgen Sprenzinger

Kennen Sie die US-Serie „Person of Interest“? Eine „Maschine“ sammelt von jedem und allem Daten und kann so vorhersagen, welche Person wann in ein Vebrechen verwickelt wird. Ein Schelm, der hier an die NSA denkt. Und alles Mumpitz! Denn hier ist keine „Maschine“, sondern Big Data am Werk. Ansonsten überholt die Wirklichkeit die Fiktion – längst.

Anbieter zum Thema

Mit Big Data in eine spannende Zukunft
Mit Big Data in eine spannende Zukunft
(Bild: Intel)

Der Begriff „Big Data“ ist noch relativ jung – nichtsdestoweniger wird er für Viele bereits ein wesentlicher Erfolgsfaktor. Hochkarätige Unternehmen wie Google, Amazon oder Facebook dienen vielen kommerziellen Organisationen als Beispiel dafür, wie man das Potenzial der Big-Data-Analyse entschlüsselt, um damit Voraussagen für die wirtschaftliche Zukunft zu treffen.

Für ein E-Commerce-Unternehmen wie Amazon ist es geschäftsentscheidend, vorher zu wissen, was die Kunden möchten, und zwar wenn es noch potenzielle Kunden sind. Google oder Facebook wiederum sind an der Vorhersage interessiert, welche Informationen Menschen suchen – momentan oder auch zukünftig – und auf welche Art Anzeigen oder Werbung sie wahrscheinlich reagieren werden.

Große, nicht-kommerzielle Institutionen, die das Potenzial von Big Data erkannt haben und deren Interesse nicht darin liegt, Produkte oder Dienstleistungen an den Mann/die Frau zu bringen, sehen hier ebenfalls den allgemeinen Nutzen für die Gesellschaft und springen auf diesen Zug auf. Eine dieser Institutionen ist das Los Angeles Police Department, aber auch die Universität of California in Los Angeles, die in einem Pilotprojekt etwa 13 Millionen Daten von vergangenen Verbrechen über einen Zeitraum von 80 Jahren auswertet – um eine Vorhersage treffen zu können, wo Verbrechen als nächstes geschehen werden.

Screenshot FallingFruits.org
Screenshot FallingFruits.org
(Bild: FallingFruits.org)
Fallingfruit.org, die Webseite einer Community, kombiniert Daten des amerikanischen Landwirtschaftsministeriums mit Google Maps, mit dem Ergebnis, dass man dadurch speziell auch in städtischen Gebieten jeden Baum, der essbare Früchte trägt, finden könnte. Projekte solcher Art verbinden einen gewaltigen und oft völlig konträren Datenbestand in bereits industriellen Maßstab zu einem Wissen, das man auf andere Weise kaum erlangen könnte.

Nur die Spitze des Eisbergs

Was Big Data betrifft, so darf man annehmen, dass wir bislang nur die Spitze des Eisbergs gesehen haben. Die Wechselwirkungen zwischen Mensch und Technologie – aber auch zwischen Computer und Computer – wachsen exponentiell, mit dem Ergebnis, dass sowohl das Volumen als auch die Vielfalt der Daten explodieren.

Laut der jährlichen Prognose von Cisco Visual Networking Index wird es bis zum Jahr 2016 weltweit mehr als zehn Milliarden aktiver Computer geben, die etwa rund 130 Exabyte an mobilen Daten erzeugen, wobei es sich bei etwa acht Milliarden der genutzten Geräte um Handhelds, Tablets und PCs handelt.

Den Rest wird vom Datenverkehr zwischen Maschine und Maschine erzeugt, die diese Daten für den Einsatz und die auszuführenden Funktionen benötigen. Im Klartext bedeutet das, dass letztlich zwei Milliarden Maschinen und Computer miteinander „sprechen“ und Daten austauschen werden, ohne dass der Mensch aktiv daran beteiligt ist.

Xbox Smartglass
Xbox Smartglass
(Bild: xbox)
Xbox SmartGlass beispielsweise ist die aktuellste High-Profile-Interactive-Technologie, die in der Lage ist, Tablets und Smartphones mit dem TV-Gerät zu verbinden – was man vor noch nicht allzu langer Zeit bestenfalls der Fantasie eines Science-Fiction-Autors zugeschrieben hätte. All diese neuen Technologien erlauben es uns, mit unserer Umwelt auf eine bemerkenswerte neue Art zu kommunizieren.

Ergänzendes zum Thema
NFC / RFID / Petabyte / Exabyte

NFC: Near Field Communicaton (deutsch: „Nahfeldkommunikation“), ein internationaler Übertragungsstandard zum kontaktlosen Austausch von Daten per Funk über kurze Strecken und einer Übertragungsrate von max. 424 kBit/s.)

RFID: Radio-frequency identification (deutsch: „Identifizierung mit Hilfe elektromagnetischer Wellen“). Diese Technik ermöglicht die automatische Identifizierung und Lokalisierung von Gegenständen und Lebewesen. Bestehend aus einem Transponder, der sich am oder im Gegenstand/Lebewesen befindet und einen Kennungscode enthält, erleichtert er die Datenerfassung. Zum Auslesen wird ein Lesegerät benötigt. Vorteile dieser Technologie sind zum einen die geringe Größe (Ein RFID entspricht etwa der Größe eines Reiskorns) und auch der Umstand, dass keine Stromquelle im Körper vorhanden sein muss, sondern die Kopplung lediglich durch die vom Lesegerät erzeugten magnetischen Wechselfelder geringer Reichweite stattfindet, durch die der Transponder dann kurzzeitig mit Energie versorgt wird.

Petabyte: Ein Petabyte entspricht 1.000 Terabyte

Exabyte: Ein Exabyte entspricht einer Trillion Bytes (1018) Bytes, einer Millarde Gigabyte, einer Million Terabyte oder tausend Petabyte.

„Smartphones, Tablets, vernetzte Autos, intelligente Haustechnik, eine intelligente städtische Infrastuktur, Bewegungssensoren, eingebettete RFID, NFC und Kameraerfassung – all diese Technologien werden rasch expandieren“, schreibt Tony Salvador, Direktor Experience Insights Research Interaction & Experience Research Lab von Intel und diese gesamte Geräte-Konstellation durchzieht unser Leben – und erzeugt gleichzeitig einen gewaltigen Datenstrom in der Größenordnung von Petabytes.

Zuerst die Vision, dann die Umsetzung

Wie bei allen technischen Innovationen sind Visionen der Ausgangspunkt – so auch bei Big Data. Visionen von Menschen, die sich mit der Frage auseinandergesetzt haben, wie die Dinge wohl in fünf oder zehn Jahren aussehen werden. Einer dieser

John David Miller, Principal Engineer, Intel.Corp.
John David Miller, Principal Engineer, Intel.Corp.
(Bild: frei)
„Propheten“ ist John David Miller, Principal Engineer bei den Intel IT Labs. Millers Forschungsgruppe konzentriert sich auf die Sinngebung und das Verstehen informatorischer Probleme, die Entwicklung und das „Ausbrüten“ neuer Technologien und deren Nutzen.

Das Team war eines der ersten bei Intel, das sich mit der Open-Source-Technik „Apache Hadoop“ beschäftigte. „Wir sahen den Wert von Hadoop sehr früh und auch als richtigen Weg und begannen, daran zu arbeiten – wobei sicherlich nicht jeder davon überzeugt war“, sagt Miller. „Hadoop ist sozusagen eine radikale Abkehr von der Tradition und so war es zunächst so etwas wie ein Kampf, die traditionellen Datenbank-Jungs zu überzeugen , aber seitdem war das Wachstum phänomenal – wir hatten mehr als 1.000 Menschen auf dem diesjährigen internen Big-Data-/ Hadoop-Gipfel.“

(ID:42309836)