Suchen
Verloren im Labyrinth der IT-Begriffe? Hier finden Sie Definitionen und Basiswissen zu Rechenzentrums-IT und -Infrastruktur.

Verteilt und doch gemeinsam klüger Was ist Schwarmlernen, Swarm Learning?

Autor / Redakteur: lic.rer.publ. Ariane Rüdiger / Ulrike Ostler

Schwarmlernen und Schwarmintelligenz übertragen in der Natur vorkommendes intelligentes Schwarmverhalten, etwa bei Bienen und Ameisen, auf digitale Systeme. Besonders wichtig ist das für die Edge-IT.

Firmen zum Thema

Schwarmlernen und Schwarmintelligenz ermöglichen die Lösung bisher nicht berechenbarer Aufgaben
Schwarmlernen und Schwarmintelligenz ermöglichen die Lösung bisher nicht berechenbarer Aufgaben
(Bild: © djama - stock.adob.com)

Die Kräfte von vielen zusammen spannen, um besonders komplexe Probleme zu lösen - das ist das Prinzip von Schwarmintelligenz und Schwarmlernen, auch als Swarm Intelligence oder Swarm Learning bezeichnet. Die Begriffe tauchen häufig als Synonym auf und sind kaum gegeneinander abgrenzbar.

Grundsätzlich nutzen Schwarmintelligenz und Schwarmlernen Vorbilder aus der Natur wie Vogelschwärme, Ameisenhaufen oder große Herden. Deren Einheiten sind an sich klein und autonom, agieren dezentral und organisieren sich selbst.

Als Gruppe zeigen sie „intelligentes“ Verhalten, beispielsweise bei der Abwehr von Fressfeinden oder bei der Jagd, das einem Einzelwesen nicht möglich wäre. Man spricht hier von Emergenz. Ähnliches lässt sich auch von den einzelnen Knoten und den daraus gebildeten Systemen mit Swarm Intelligence sagen.

Typische Anwendungsfelder von Swarm Learning

Entwickelt wurde das Konzept Schwarmintelligenz bereits 1989 im Bereich zelluläre Robotik-Systeme. In diesem Zusammenhang ist von Swarm Robotic die Rede.

Den Begriff Schwarmlernen oder Swarm Learning prägte vor wenigen Jahren Dr. Eng Lim Goh, Vice President und CTO HPC und AI bei HPE. Google spricht im selben Zusammenhang von Federated Learning.

Knifflige Planungsaufgaben sind gut für Swarm Intelligence

Typische Anwendungsfelder von Schwarmintelligenz, Swarm Learning oder Federated Learning sind logistische Planungs- oder aber kombinatorische Optimierungsprobleme. Sie kommen im Engineering, aber auch in Medizin, Genetik und Pharmazie vor.

Eine der anspruchsvollsten Optimierungsaufgaben ist das Problem des Handlungsreisenden: Ein Handlungsreisender hat eine Liste von Kunden und Randbedingungen und muss nun die optimale Verknüpfungsroute ermitteln. Schon bei wenigen Listeneinträgen ergeben sich daraus so viele Möglichkeiten, dass auch die leistungsfähigsten Rechner an Grenzen stoßen.

Schnellere Antworten auf derartige Fragen erwartet man sich irgendwann von Quantencomputern, doch der Weg dahin ist noch weit. Bis dahin sollen spezielle Swarm-Learning-Algorithmen helfen.

Potentielle technische Einsatzfelder von Schwarmintelligenz und Schwarmlernen sind beispielsweise die Selbststeuerung von Drohnenschwärmen, wobei jede Drohne über „Spielregeln“, sprich: intelligente und selbst optimierende Algorithmen, verfügt. Eine weitere Anwendung sind intelligente IoT-Komponenten in durchautomatisierten Produktionsumgebungen, die zum Beispiel selbst entscheiden, wann ein Stück zum nächsten Fertigungsschritt transportiert wird.

Swarm Learning lässt die Daten, wo sie sind

Wichtig ist Schwarmlernen derzeit vor allem wegen der großen am Edge entstehenden Datenmassen. Aus Latenz- und Mengengründen ist es nicht sinnvoll, die Daten zentral zu analysieren. Vielmehr geht der Trend dahin, sie vor Ort in Edge-Knoten in lernfähige Algorithmen, etwa neuronale Netze, einzuspeisen und nur Ergebnisse weiterzureichen.

Dabei arbeiten alle Edge-Knoten eines Gesamtsystems mit demselben neuronalen Netz, aber ausschließlich mit den jeweils direkt dort einlaufenden Daten. Anschließend sorgt ein weiterer Algorithmus, beispielsweise eine Blockchain, dafür, dass das von den jeweiligen Edge-Knoten erworbene Wissen schnell für alle Knoten verfügbar wird. Entsprechend werden die Algorithmen auf den jeweiligen Edge-Knoten, etwa die Gewichtungen in den neuronalen Netzen, jeweils neu angepasst.

So wissen die Edge-Knoten trotz ihres ursprünglich aufgrund unterschiedlicher Daten jeweils anderen „Kenntnisstandes“ zumindest nach Aktualisierungen über die Blockchain wieder dasselbe. Daher sollten sie bei der Bewertung neuer Daten dann auch wieder zu derselben Bewertung kommen wie die restlichen Knoten.

Beispiel: Krankenhäuser lernen voneinander

HPE erwähnt in diesem Zusammenhang auf seiner Webseite das Beispiel zwei Krankenhäuser. Eines behandelt mehr Fälle von Krankheit A, das zweite von Krankheit B. Infolgedessen würde auf die Dauer einfach wegen der größeren Erfahrung das eine Krankenhaus mehr Wissen über Krankheit A, das andere über Krankheit B ansammeln.

Die beiden lernfähigen Systeme, die jeweils nur auf den Datenbestand ihres Krankenhauses zugreifen, lernen anhand der Daten vor Ort. Sie lassen sich aber durch eine Blockchain koppeln. So können ohne Risiko die Gewichtungen der neuronalen Netzwerke der jeweiligen AI in Krankenhaus A und B miteinander verrechnet werden. Dann überträgt man die sich ergebenden Gewichtungen wieder an die Knoten in Krankenhaus A und B verteilt.

Gleiches Wissen trotz unterschiedlicher Daten

Danach haben wieder beide Seiten den gleichen Wissensstand und sollten, vorbehaltlich anderer, nicht digitaler Probleme, trotz unterschiedlicher Fallzahlen beide Krankheiten gleich gut diagnostizieren und behandeln können. Dies gilt wohlgemerkt, obwohl beide ihr neuronales Netz, das sich ständig durch Dazulernen weiterentwickelt, mit unterschiedlichen Daten füttern.

Diese Daten sind im jeweiligen Krankenhaus entstanden und bleiben auch dort. Gerade in der Medizin mit ihren hohen Ansprüchen an den Datenschutz sind solche Ansätze extrem wichtig.

Die Herausforderungen von Swarm Learning

Die Technologie befindet sich noch in einem frühen Stadium. Zudem birgt sie Herausforderungen. Neben dem Datenschutz sind ausreichende Kommunikationsverbindungen besonders wichtig, um die Angleichung zwischen den einzelnen Edge-Knoten und ihren Modellen durchzuführen. Dazu kommen die üblichen Probleme Ai-basierender Systeme: Relevanz der Lerndaten, Vermeidung von Bias in Algorithmen und so weiter.

(ID:46562465)

Über den Autor

lic.rer.publ. Ariane Rüdiger

lic.rer.publ. Ariane Rüdiger

Freie Journalistin, Redaktionsbüro Rüdiger