Designprinzipien in Vergangenheit und Zukunft Was ist eine Computerarchitektur?
Anbieter zum Thema
Die Computerarchitektur schien ein Dreiviertel-Jahrhundert lang eine Art Einheitsbau zu sein. Aber „subkutan“ war immer Bewegung da und heute ist die Frage offener denn je.

Als drei IBM-Ingenieure (unter ihnen Gene Amdahl) in den 1960er Jahren den Begriff „Architektur“ für den Bauplan eines (Groß-)Rechners prägten, war die Sache klar: Gemeint war ein speicherprogrammierbarer universeller Computer auf der Basis digitaler Bauelemente oder etwas boshafter ausgedrückt: Es handelte sich um Computer, die allesamt im Innern so aussahen und auch so funktionierten wie die IBM /360-Maschine.
Diese „Architektur“ beziehungsweise dieses Bauprinzip besteht aus einem Befehlsspeicher und einem Datenspeicher, auf die über eine einzige Busstruktur zugegriffen wird. Das führt zuweilen zu Engpässen, garantiert aber summa summarum ein solides deterministisches Verhalten des Systems. Die Funktionsweise wird üblicherweise John von Neumann zugeschrieben („von Neumann-Architektur“), wurde im Prinzip aber auch schon von Konrad Zuse auf seinem digitalen Relaisrechner verwendet.
Von-Neumann- und Harvard-Architektur
Die von Neumann-Architektur ist die Basis eines sequenziell arbeitenden Rechners, im Gegensatz zu Parallelstrukturen, die lange Zeit nur für spezielle Anwendungen entwickelt wurden, wie zum Beispiel die Vektorrechner. Auch bei Letzteren taucht wieder der Name Gene Amdahl auf, diesmal als Unternehmer eines Computerunternehmens.
Neben der von Neumann-Architektur gab es in der Frühzeit der Computerentwicklung auch die so genannte Harvard-Architektur, die für den Zugriff auf Befehlssatz und Datensatz jeweils einen eigenen Übertragungskanal hatte. Die Harvard-Architektur wurde immer mehr durch die technisch einfacher umzusetzende von Neumann-Architektur ersetzt.
Lediglich in Spezialrechnern für Steuern und Regeln wird auch heute noch die Harvard-Architektur beziehungsweise eine Weiterentwicklung („Super Harvard“) verwendet. Angesichts der immanenten Parallelisierung in der Prozessorentwicklung ist zu erwarten, dass die Von-Neumann-Architektur sukzessive durch Weiterentwicklungen beziehungsweise alternative Konzepte ersetzt wird.
Abstrakte Definition einer Computerarchitektur
Wenn man es möglichst abstrakt ausdrücken will, löst eine Computerarchitektur möglichst effizient in reproduzierbarer Weise eine dedizierte formalisierte Aufgabe. „Effizient“ bedeutet, dass die Lösung ausreichend exakt, möglichst schnell, Energie-arm und mit geringstmöglichen Kapital- und Betriebskosten erzielt wird.
Der Begriff „formalisiert“ ist dabei sehr weit gefasst: Er reicht von herkömmlichen deterministischen Algorithmen über Näherungslösungen und Fuzzy-Logic bis zu Maschinellem Lernen. Das Element „geringstmögliche Kapital- und Betriebskosten“ bedeutet, dass für die Lösung in der Regel ein Universalrechner benutzt wird und kein Spezialrechner, der nur dieses eine Problem löst.
Dass die Lösung mit möglichst wenig Energieaufwand erreicht werden soll, sollte sich angesichts der immer deutlicher zutage tretenden Klimakrise, die wohl besser als bevorstehende weltweite Wohlstandskrise bezeichnet werden sollte, von selbst verstehen.
Die Quanten-Computerarchitektur
Ob ein Universalrechner in jedem Moment die geringstmöglichen Kapital- und Betriebskosten aufweist, wie oben angenommen, darf durchaus bezweifelt werden. Auf längere Sicht ist das wohl so, auf kurze und mittlere Sicht nicht unbedingt.
Tatsächlich werden heute beispielsweise im Bereich der Quanten-Computerarchitektur weltweit keine Kosten gescheut, um solche Rechner in der Praxis einsatzfähig zu machen, und das werden für lange Zeit Rechner sein, die auf ganz bestimmte Fragestellungen spezialisiert sind. Mehr noch: Die Computerarchitektur dieser Rechner ist im Moment alles andere als zukunftssicher.
Das einzig Verbindende der einzelnen Architekturen, die derzeit erforscht werden, ist die Tatsache, dass Quanteneffekte ausgenützt werden, und derer gibt es bekanntlich viele. Es kann durchaus sein, dass in zehn Jahren einsatzfähige Quantencomputer auf Effekten beruhen, die man heute noch gar nicht oder kaum nutzt.
Verbundforschungsprojekt „Digital-analoge Quantencomputer“
Innerhalb der Quantencomputing-Initiative des Instituts für Quantentechnologien am Deutschen Zentrum für Luft- und Raumfahrt (DLR) in Ulm ist interessanterweise auch eine Gruppe integriert, die sich mit modernen Analogrechner-Konzepten beschäftigt, und vom Bundesministerium für Bildung und Forschung wird (derzeit bis 2025) ein Verbundforschungsprojekt „Digital-analoge Quantencomputer“ gefördert. Projektkoordinator ist Jan Goetz, Mitgründer der finnisch-deutschen Quantencomputer-Schmiede IQM.
In der Projektbeschreibung heißt es: „Im Gegensatz zu den konventionellen digitalen Ansätzen, bei der der Rechenprozess aus einer bestimmten Abfolge digitaler Gatter besteht, erfolgt bei analogen Prozessen die Berechnung über kontinuierliche Wechselwirkung zwischen den Qubits. Diese analogen Ansätze sind weniger universell, aber auch weniger fehleranfällig.“ Der Ansatz dieses digital‐analogen Quantencomputings ergänze die Flexibilität von digitalen Schaltkreisen mit der Robustheit analoger Rechenblöcke.
Noch etwas Theorie zu diesem Forschungsansatz: Jede Turing-Maschine (quasi die theoretische Blaupause der heutigen digitalen Rechner) kann auf einem universellen analogen Rechner implementiert werden. Letzterer ist also theoretisch mächtiger als ein Digitalrechner.
So können beispielsweise zentrale Systeme der Informationstechnik wie Fourier-Transformation, Hilbert-Transformation und Differenzialgleichungen in ihrer Mehrzahl nur in unbefriedigender Weise auf Turing-Maschinen berechnet werden, wohl aber auf universellen analogen Rechnern. Dass es solche universellen analogen Rechner derzeit in der technischen Praxis nicht gibt, ist eine andere Sache.
Noch einmal John von Neumann
Wenn es um das Thema Computerarchitektur geht, ist John von Neumann in jeder Hinsicht die erste Adresse, nicht nur bei digitalen Rechnern, sondern auch bei analogen Typen. In einem spannenden Text von 1951 [1] erläutert er seine Sicht auf (analog) rechnende Maschinen und das dabei auftretende Rauschen:
„Man kann eine Rechenmaschine auf dem Prinzip aufbauen, Zahlen durch bestimmte physikalische Größen darzustellen. Als solche Größen können wir zum Beispiel die Stärke eines elektrischen Stromes, die Höhe eines elektrischen Potentials oder die Anzahl der Bogengrade verwenden, um die eine Scheibe gedreht wird (evtl. in Verbindung mit der Anzahl der vollen Umdrehungen der Scheibe) etc. Man kann dann Operationen wie Addition, Multiplikation und Integration so ausführen, dass man verschiedene natürliche Prozesse findet, die diese Größen in der gewünschten Weise steuern. …………
……Die kritische Frage jedes Analogverfahrens ist [also] diese: Wie groß sind die unkontrollierbaren Schwankungen des Mechanismus, die das »Rauschen« ergeben, im Verhältnis zu den signifikanten »Signalen«, die die Zahlen ausdrücken, mit denen der Rechner arbeitet? Die Brauchbarkeit jedes Analogverfahrens hängt davon ab, wie niedrig der »Rauschpegel«, also die relative Stärke der unkontrollierbaren Schwankungen, gehalten werden kann. Es gibt, anders gesagt, keinen Analogrechner, der wirklich das Produkt zweier Zahlen bildet. Er bildet vielmehr das Produkt plus einer kleinen, aber unbekannten Größe, welche das »weiße Rauschen« darstellt, das vom Mechanismus und den beteiligten physikalischen Prozessen herrührt…..“
Dem Autor dieser Zeilen scheint, dass John von Neumann mit diesen Überlegungen klarmacht, dass das Thema Computerarchitektur mehr umfasst als das „digitale Momentum“, das von Neumann selbst seinerzeit mit der nach ihm benannten Architektur erzeugt hat. Diese war nur eine Momentaufnahme, wobei der Moment zugegebenermaßen schon sehr lange andauert. Gleichwohl bildet er nicht das Ende der Überlegungen zur Computerarchitektur.
[1] »The General and Logical Theory of Automata«, veröffentlicht 1951 in einem Symposium der Hixon Foundation »Cerebral Mechanisms in Behavior« Druck: John Wiley & Sons, New York, in deutscher Übersetzung unter dem Titel „Allgemeine und logische Theorie der Automaten“ in der Zeitschrift Kursbuch 8, 1967 veröffentlicht
(ID:49670370)