Verloren im Labyrinth der IT-Begriffe? Hier finden Sie Definitionen und Basiswissen zu Rechenzentrums-IT und -Infrastruktur.

Die probabilistische Enttarnung des Verborgenen Was ist ein Hidden Markov-Modell?

Von M.A. Jürgen Höfling |

Basis der Künstlichen-Intelligenz-Anwendungen ist eine Vielzahl von Modellierungen, die manchmal intuitiv nachvollziehbar sind, zuweilen aber auch eher hermetisch daherkommen, wie das Hidden-Markov-Modell.

Anbieter zum Thema

Mit der Sichtbarkeit ist es beim Hidden-Markov-Modell so eine Sache
Mit der Sichtbarkeit ist es beim Hidden-Markov-Modell so eine Sache
(Bild: von 192635 auf Pixabay)

Das Erkennen von Mustern ist eines der klassischen Anwendungsfelder von Modellen und Algorithmen der Künstlichen Intelligenz (KI). Das ist wenig überraschend, wenn man bedenkt, dass „Mustererkennung“ auch für die natürliche Intelligenz eine zentrale und häufige Übung ist.

Mit unseren biologischen Sensoren nehmen wir alle möglichen Arten von Sinnesreizen wahr und vergleichen sie im Hirn mit eingelernten Klang-, Bild- oder Denkmustern, um sie zu klassifizieren. Auf ähnliche Weise verhält es sich auch mit den Signalen technischer Sensoren und Apparate. Diesbezügliche Signale können beispielsweise die Temperatur in Fahrzeugen sein oder akustische Signale aus dem Mobiltelefon oder unserem Mund, um nur zwei Beispiele zu nennen, mit denen sich natürliche Intelligenz schon immer und Künstliche Intelligenz immer mehr auseinandersetzen muss.

Probabilistisches Schlussfolgern

In der KI-Forschung werden verschiedene Modelle zur Klassifizierung eingesetzt. Neben Künstlichen Neuronalen Netzen und anderen mathematischen Methoden zur Separierung von Objekten in multidimensionalen Räumen, beispielsweise der „Support Vector Machine“, sind das auch Verfahren wie das Hidden Markov-Modell (HMM), durch das probabilistisches Schlussfolgern möglich ist, und zwar bei Vorgängen, die in der Zeit ablaufen und deren Parameter nicht alle unmittelbar der Beobachtung zugänglich sind; daher das Adjektiv „hidden“, verborgen.

Ein solches HMM ist ein Spezialfall von Schlussfolgerungsmechanismen in zeitlichen Modellen, in denen es um die Bestimmung der wahrscheinlichsten Sequenz geht. HMM gehört damit zu den 'Bayes´schen Netzen'. Der Grundgedanke solcher Netze ist die Faktorisierung eines Wahrscheinlichkeitsmodells. Durch eine solche Faktorisierung lassen sich Schlussfolgerungsmechanismen umsetzen, die mit einem nicht-faktorisierten Modell unmöglich wären.

Prognosen aus dem Verlies

Ein in der einschlägigen Literatur (inklusive Wikipedia) immer wieder gern angeführtes Beispiel ist das des „Gefangenen im dunklen Verlies“. Dieser schließt nur anhand der schmutzigen oder sauberen Schuhe seines Bewachers darauf, ob draußen in der Freiheit die Sonne scheint oder Regenwetter ist.

Die Bestimmung der Wahrscheinlichkeiten bezüglich der Abfolge „Sonnentag auf Regentag“ oder „Regentag auf Sonnentag“ haben er oder sie sich durch Beobachtung über längere Zeiträume quasi antrainiert. Darüber hinaus können die Schuhe des Wärters auch bei Sonnenschein schmutzig sein, wenn auch mit weitaus geringerer Wahrscheinlichkeit.

Der geneigte Leser bemerkt, dass nicht nur Prognosen, die in der Zukunft liegen, nicht einfach sind – um ein altes Bonmot aufzugreifen -, sondern auch solche, die gerade Fakt sind. Aber im Ernst: Das Hidden Markov-Modell ist insofern eine vereinfachte Form eines Bayes´schen Netzes, als die Übergangswahrscheinlichkeiten nur immer von dem jeweils vorhergehenden Zustand abhängen und dass die betrachteten Zeitfenster als konstant angenommen werden. Andererseits sind die meisten Zustände nicht unmittelbar beobachtbar und können nur anhand der so genannten Emissionen (in unserem Beispiel ist das der Zustand der Schuhe des Wärters) probabilistisch errechnet werden.

Ein breites Spektrum an Anwendungen

Das eben präsentierte Standardbeispiel scheint das Hidden-Markov-Modell als eher exotische Angelegenheit zu kennzeichnen. Diese Vermutung trifft allerdings nicht im Geringsten zu. Tatsächlich wird HMM in der Künstlichen-Intelligenz-Forschung in einer großen Zahl ganz unterschiedlicher Anwendungsfälle eingesetzt: von der molekularen Medizin („Genom-Sequenzierungen“) über vorausschauende technische Wartung bis zur Modellierung von innerpsychischen Zuständen und zur Spracherkennung.

Bei der Spracherkennung beispielsweise fungieren als Emissionen, also als beobachtbare Zustände, die signaltheoretischen Abtastereignisse, sprich die akustischen Signale. Diese werden probabilistisch Phonemen und später Wörtern und Sätze zugeordnet.

Zur Erklärung: Phoneme (laienhaft und sehr ungenau ausgedrückt: Laute beziehungsweise Buchstaben) sind das sehr beschränkte Grundinventar einer jeden natürlichen Sprache, aus dem Wörter und Sätze gebildet werden. Alles jenseits der Phoneme ist KI-technisch beziehungsweise aus der Sicht des Hidden-Markov-Modell verborgen (nicht beobachtbar) und wird auf der Basis der Methode der wahrscheinlichsten Sequenz und iterierter Anpassung des Modells sprachtechnisch erschlossen.

Sichtbare und latente Variablen sind oft intuitiv kaum fassbar

Generell ist das, was in einem Hidden-Markov-Modell die sichtbare(n) Variable(n) ist und was die latente(n) Variable(n) sind, für den Laien im jeweiligen Fachgebiet nicht unmittelbar einsichtig. Im Fall der Spracherkennung sind – wie eben dargelegt – die für die Anwendung („Alexa und Konsorten“) wichtigsten Teile latent, während die physikalischen Messdaten (Frequenzen und Amplituden der Sprachlaute) die nicht-latenten Variablen bilden.

Und in der Bio-Informatik, bei der es beispielsweise um die Entdeckung so genannter CpG-Inseln in einer zu untersuchenden DNA-Sequenz geht (CpG-Inseln sind Marker für verschiedene Krankheiten beziehungsweise Erbeigenschaften), sind die Nukleinbasen G, C, A, T , die als DNA-Alphabet bezeichnet werden können, die sichtbaren Variablen und die latente Variable ist quasi die Antwort auf die Klassifizierungsfrage „CpG-Insel“ oder „Nicht-CpG-Insel“.

Man sieht: das Hidden Markov-Modell generiert in den Anwendungen seine eigene Perspektive vom dem, was sichtbar ist und was nicht. Mit Intuition kommt man da nur bedingt weiter. Das macht nichts, denn in der KI ist Intuition überflüssig beziehungsweise – falls doch von Nutzen – komplett regelbasiert.

(ID:47931743)