Logik der Maschinen Was ist Inferenz?
Mit einer Inferenz wird ein schlussfolgerndes Denken oder ein Prozess beschrieben; aus gegebenen Fakten und Regeln lassen sich Schlüsse ziehen. Geht es um Künstliche Intelligenz (KI) handelt es sich um Anwendungen, die mit Hilfe neuronaler Netze trainiert wurde.
Anbieter zum Thema

Bei einer Inferenz handelt es sich im IT-Bereich um eine Schlussfolgerung, die computergestützt durch eine so genannte Inferenzmaschine gezogen wurde. Als Inferenzmaschine (englich: inference engine) wird eine Software der künstlichen Intelligenz bezeichnet, die durch Schlussfolgerung neue Fakten aus einer bestehenden Datenbasis ableitet. Daher sind Inferenzmaschinen ein wichtiger Bestandteil von Expertensystemen sowie anderen wissensbasierten Systemen.
In den Naturwissenschaften beziehungsweise in der Logik gibt es zwei Arten von Inferenz: die Induktive und Deduktive Inferenz. Unter einer Induktiven Inferenz wird das Lernen von Zusammenhängen durch Beobachtungen bezeichnet, woraus sich allgemeine Gesetzmäßigkeiten bilden. Eine Deduktive Inferenz geht den umgekehrten Weg und hat die Ableitung spezifischer Aussagen von allgemeinen Prinzipien zum Thema. Maschinelles Lernen versucht letztlich den Prozess der Induktion im Rahmen der Künstlichen Intelligenz zu automatisieren.
Maschinelles Lernen und Künstliche Intelligenz
Sollen Maschinen nun aus Daten etwas „lernen“, so kommt Künstliche Intelligenz ins Spiel und das Gelernte wird in einem Praxisfall angewandt. Das heißt, per Automatisation werden Schlüsse hinsichtlich konkreter Ereignisse gezogen.
Hier wird also eine Unterscheidung zwischen den gewonnenen Erkenntnissen – zum Beispiel aus einem Training mit einer Maschine - und deren Anwendung vorgenommen. So beziehen sich zum Beispiel Big Data und Industrial Analytics im Grunde nur auf eine reine Erkenntnis in Form eines Berichts oder vielleicht einer komplexen Statistik.
Bei Künstlicher Intelligenz steht jedoch immer die praktische Nutzung dieser Erkenntnisse im Fokus. Eine solche Nutzung könnte in diesem Fall Predictive Maintenance, also die vorausschauende Maschinenwartung sein. Hierbei wird immer auf der Basis von historischen Daten auf eine akute Situation reagiert.
In einem konkreten Anwendungsfall könnten nun im Anschluss an ein Maschinen-Training für einen Predictive-Maintenance-Fall, in der Regel in einem Rechenzentrum - die Ergebnisse auf eine AI-Plattform übertragen werden. Auf diese Weise stehen die Daten für die Nutzung in der industriellen Praxis zur Verfügung. Darüber hinaus gewährleistet eine KI-Plattform die erforderliche Skalierbarkeit und kann so verschiedene Maschinen gleichzeitig überwachen.
Hardware für Künstliche Intelligenzen
Über eine Milliarde täglich aktiver Nutzer posten rund 300 Millionen Fotos pro Tag und 51.000 Kommentare pro Sekunde auf Facebook. Dieses Wachstum wird noch lange nicht beendet sein, da in den Schwellenländern mit atemberaubender Geschwindigkeit sich neue Mitglieder anmelden. Facebook wird also kräftigere Server benötigen, um das Datenvolumen bewältigen zu können.
Die darin verbauten „Tesla“-GPUs von Nvidia sind für hochperformante Rechenaufgaben sowie große Datensätze designt und ermöglichen es, Big Data zu handeln. Dadurch können auch bessere Modelle für maschinelles Lernen implementiert werden, um das immer noch größer werdende Aufkommen an Fotos, Texten und Videos schneller zu verarbeiten.
Die Marktforscher von Markets and Markets glauben, dass der Chip-Markt für künstliche Intelligenz mit einem Anstieg von über 60 Prozent pro Jahr weiter anwachsen wird. Im Jahr 2022 soll der Markt dann eine Größe von 16 Milliarden Dollar erreicht haben. Wobei die GPU-Beschleuniger einen großen Anteil daran haben, da sie vor allem für die Aufgaben der künstlichen Intelligenz von größter Bedeutung sind - als Beschleuniger kommen etwa auch Field Programmable Gate Arrays (FPGAs) zum Einsatz . Die GPUs von Nvidia mit der „NVLink“-Technologie versetzen Facebook in die Lage, die neuen Server „Big Basin“ in bestimmten Fällen sogar um 100 Prozent schneller laufen lassen als die Vorgängermodelle „Big Sur“.
Zukunftsmärkte im Fokus
„DynamIQ“ von ARM ist der Nachfolger zum „big.LITTLE“-Konzept mit Cortex-A-Prozessorkernen und richtet sich gezielt an die Märkte mit großem Potenzial wie zum Beispiel künstliche Intelligenz, maschinelles Lernen und sicherheitskritische Anwendungen. Denn KI ist eines der großen Trends im Embedded-Bereich, das in autonomen Autos, der produzierenden Industrie bis hin zu Consumer-Endprodukten in Form von digitalen Assistenten oder Spielkonsolen zum Einsatz kommt. Entwickler erhalten mit einer hohen Konfigurierbarkeit der Prozessor-Cluster mehr Gestaltungsmöglichkeiten als auch eine bessere Skalierbarkeit.
Das Unternehmen will mit „AI Cloud Platform Service“ eine eigene Plattform zum Erstellen von Machine-Learning-Software in der Cloud anbieten. Der AI Cloud Platform Service umfasst die dafür notwendige Hardware und erforderlichen Tools. Die Anwender sollen dazu auf bereits eingeführte Programme wie zum Beispiel Tensorflow, Keras, Jupyter Notebook und Scikit-learn zugreifen können. Für die komplexen Machine-Learning-Algorithmen stellt Oracle jeweils zwei Nvidia-Tesla-P100-Grafikkarten zur Verfügung.
* Otto Geißler ist freier Autor und lebt in Augsburg.
(ID:45053623)