50 Jahre Mikroprozessor Intel 4004: Der Erfolg des größten Unfalls der Technikgeschichte

| Aktualisiert am 25.03.2021Autor / Redakteur: Prof. Dr. Christian Siemers* / Sebastian Gerstl

Als im März 1971 der erste Mikroprozessor auf den Markt kam, wurde er anfänglich von der Industrie ignoriert. 50 Jahre später sind die weltbewegenden Bausteine aus der Elektronik nicht mehr wegzudenken.

Firmen zum Thema

(Bau-)Stein des Anstoßes: Intel entwickelte den ersten Mikroprozessor 4004 zunächst als Auftragsarbeit für eine Rechenmaschine der japanischen Firma Busicom.
(Bau-)Stein des Anstoßes: Intel entwickelte den ersten Mikroprozessor 4004 zunächst als Auftragsarbeit für eine Rechenmaschine der japanischen Firma Busicom.
(Bild: Intel)

Man schrieb das Jahr 1971, ich ging noch zur Schule. Wohlvertraut und bewaffnet mit dem guten alten Schätzholz (auch als Rechenschieber bekannt) und den Logarithmentafeln bestand mein erster persönlicher Kontakt mit einem Mikroprozessor-basierten Rechner zwei Jahre später in einem recht voluminösen Taschenrechner (mit Akkumulator), den sich mein bester Freund zum Angebotspreis von 950,- Deutsche Mark (zuzüglich 150,- DM für das Netzgerät) gekauft hatte. So saßen wir denn da und berechneten zum Beispiel Quadratwurzeln von Zahlen mithilfe des „Newton-Näherungsverfahrens für 4-Spezies-Rechner“, wie es in einem Artikel so schön beschrieben war.

Ansonsten ist der Knall des Jahres 1971 an mir vorbeigegangen, und offenbar nicht nur an mir. Man stelle sich vor, es wird etwas erfunden, das 50 Jahre später in fast allen elektrisch betriebenen Produkten der Welt enthalten ist, und keiner merkt es am Anfang. Selbst Intel, damals noch eine wirklich kleine Firma, musste den weltersten Mikroprozessor, den „Intel 4004“, erst von ihrem Auftraggeber, der japanischen Firma Busicom zurückkaufen – was nur gelang, weil diese finanziell klamm war. Man wollte zunächst seitens Intel nur eine technische Lösung für einen Auftrag finden - die Revolution des Marktes war „nur“ Nebeneffekt.

Oder war die Entwicklung doch nur eine Folge der Zeit? Denn so ganz eindeutig ist die Erfindung des Mikroprozessors, also eines Prozessors (= Central Processing Unit, CPU, des Von-Neumann-Modells) auf einem Mikrochip integriert, nicht allein Intel zuzuschreiben: Kurz zuvor hatte Texas Instruments mit dem „TMS1000“ einen Chip entwickelt, der auch noch den Speicher enthielt (also einem Mikrocontroller entsprach), diesen aber erst ab 1974 als solchen vermarktet. Auf militärischem Gebiet soll es bereits zwischen 1968 und 1970 zur Entwicklung solcher Mikroprozessoren gekommen sein – aber das war über Jahrzehnte geheim. Wer weiß, wer solche Gedanken und Entwicklungen noch so für sich behalten hat.

Im Laufe der Zeit

Die ersten Rechner waren zunächst grottenlangsam, aber die Entwicklung ging rasch voran. Designs wie der 8080 und 8085 von Intel (letzterer absoluter Marktführer auf dem Mars), „Z80“ von Zilog sowie „6502“ von MOS Technologies wetteiferten miteinander um die Gunst des zunehmend auch privaten Publikums, und zwischen dem Z80- und dem 6502-Lager entbrannte fast schon ein Glaubenskrieg.

Die großen amerikanischen Universitäten an der Westküste reagierten in ihren Studiengängen, so entstanden Kurse zum Chipdesign. Da man nicht die allerneuesten Tools und Technologien zur Verfügung hatte, beschränkten sich Hennessy und Patterson, um die bekanntesten Protagonisten zu benennen, auf vereinfachte Designs, nur um festzustellen, dass diese schneller Programme ausführten als ihre komplexen Kollegen. Dies war einer der Anlässe, die Reduced-Instruction-Set-Computing-(RISC-)Philosophie zu entwickeln und durchzusetzen.

1978 ist übrigens ein historisches Jahr in der Halbleiterei um Computer herum: Zum ersten und voraussichtlich letzten Mal waren die Taktgeschwindigkeiten von Mikroprozessoren und zugehörigen Halbleiterspeichern identisch. Seitdem nimmt die Geschwindigkeit der Speicher um durchschnittlich 3 Prozent pro Jahr zu, die der Mikroprozessoren nahm bis zirka 2006 um 66 Pozent pro Jahr zu, seitdem ist allerdings Schluss mit lustig. Sollte sich also der Trend der letzten zehn Jahre fortsetzen, dann hätten wir bis 2458 in 442 Jahren wieder einen Gleichstand.

Eine Entwicklung nimmt an Fahrt auf

Des erste Rechner des Autors: Der AIM-65 von Rockwell besaß 1976 eine 8-Bit-CPU und ganze 1 kByte RAM.
Des erste Rechner des Autors: Der AIM-65 von Rockwell besaß 1976 eine 8-Bit-CPU und ganze 1 kByte RAM.

Wie ging es weiter mit den Kleinstbearbeitern, wie die Mikroprozessoren wortwörtlich eingedeutscht heißen? Das ist leicht zu erklären, gibt es doch drei Optimierungsziele: schneller, schneller und wieder schneller. So wurden die Bitbreiten erhöht, die Marken 8-Bit (1972), 16-Bit (1975), 32-Bit (1979) wurden relativ schnell erreicht, bis 64-Bit (1991) dauerte es etwas länger. Seitdem ist es dort ruhig.

Das liegt darin begründet, dass noch mehr intrinsische (eingebaute) Bitbreite kaum noch Vorteile für gewöhnliche Rechnungen mit sich bringen würde, da wir unsere Programme eben mit Daten bis 64 Bit schreiben. Der entscheidende Pluspunkt von 64-Bit-Architekturen ist auch oftmals nicht die Verarbeitung von 64 Bit in einer Operation, sondern der drastisch erhöhte Adressierungsbereich und damit das Überschreiten der 4-Gigabyte-Grenze der 32-Bit-Architekturen.

Da muss ich an meinen allerersten Rechner denken, ein „AIM-65“, mit 1 Kilobyte RAM, von dem meine Kommilitonen und ich nicht glaubten, dass wir ihn jemals vollschreiben würden. Dieser Unglaube resultierte nicht etwa aus mangelnden Ideen für größere Programme, sondern aus dem sehr rudimentären Bediener-Interface, einer einzeiligen Darstellung von 20 Zeichen und einer Eingabe in hexadezimalem Code ohne Massenspeicher. Und der erste selbstkonzipierte und designte Rechner hatte auch nicht mehr, aber ein Assemblerprogramm im per Netzwerk kommunizierenden Homecomputer „C64“.

Deutschlands beliebtester Heimcomputer: 
Im C64 schlummerte 1982 noch ein 
MOS 6510 8-Bit-Prozessor mit 0,985 MHz Taktung.
Deutschlands beliebtester Heimcomputer: 
Im C64 schlummerte 1982 noch ein 
MOS 6510 8-Bit-Prozessor mit 0,985 MHz Taktung.
(Bild: Sebastian Gerstl)

Apropos Adressierung und Speichergröße: Eine Kuriosität der 16/32-Bit-Architekturen sei am Rande erwähnt: Böse Zungen behaupteten über die 8086-Architektur, dass es den Ingenieuren gelungen sei, mithilfe einer 32-Bit-Adressierung 1 Megabyte zu adressieren und ohne Schwierigkeiten sogar 64 Kilobyte. So mancher mag sich vielleicht noch an die segmentierte Adressierung erinnern. Ja, die gute alte Zeit, sie ist zum Glück Vergangenheit.

An den Grenzen der effizienten Leistungssteigerung

Einst dominant, heute passé: Der Zilog Z80 war in den 80ern einer der Platzhirsche unter den Mikroprozessoren.
Einst dominant, heute passé: Der Zilog Z80 war in den 80ern einer der Platzhirsche unter den Mikroprozessoren.
(Bild: Zilog)

Neben der Bitbreite gab es noch zwei weitere wesentliche Schrauben zur Erhöhung der Rechengeschwindigkeit: die Erhöhung des Taktes und die Erhöhung der Anzahl der Operationen (in einem Programm), die pro Takt durchführbar sind. Ersteres hat man leidlich ausgenutzt; die maximalen Betriebsfrequenzen können auch so schön auf die Verpackung gedruckt werden, und große Zahlen sind ein tolles Verkaufsargument.

Jedenfalls fand das solange statt, bis Pat Gelsinger, damals CTO bei Intel, im Jahr 2001 deutlich machte, dass man etwa 2010 dann bei einer Verlustleistung einer CPU ankommen würde, die der Leistungsdichte der Sonne auf der Oberfläche entsprach. Die Sonne im Rechnergehäuse also - keine schöne Vorstellung, oder?

Über die andere Tuning-Schraube las man schon 1995 beim Institute of Electrical and Electronics Engineers (IEEE), dass man nun kurz davor stünde, die 4-fach parallel rechnenden CPUs superskalarer Bauart nun durch 16-fach rechnende CPUs superskalarer Bauart zu ergänzen, womit eine 4-fache Geschwindigkeitssteigerung einhergehen würde. 2003 konnte man diese Ankündigung erneut finden – ebenfalls beim IEEE. Seitdem hat man davon aber nichts mehr gehört.

Theorie: 4 parallele Induktionen

Was war passiert? Vierfache Superskalarität bedeutet, dass man theoretisch vier Instruktionen parallel, also gleichzeitig ausführen kann. Das kostet grob geschätzt die 16-fache Siliziumfläche, aber Transistorknappheit ist nun wirklich nicht das Problem, nur bleiben davon im Schnitt 1,3 Instruktionen pro Takt übrig. Steigert man das auf die 16-fache Superskalarität, also die vielleicht 256fache Fläche, steigt die erhaltene Performance nur marginal. Ein schlechtes Geschäft also, das keiner wollte.

Überhaupt sind die technologischen Randbedingungen schlechter geworden. Der Mikroprozessor, der schon einmal als „der eigentlich größte Unfall der Technikgeschichte“ bezeichnet wurde, ist natürlich nicht wegzudenken, aber seine Weiterentwicklung in Richtung Geschwindigkeit des einzelnen Prozessors ist praktisch zum Erliegen gekommen.

Die schöne Rechnung, dass bei einer relativen Skalierung S der Herstellungstechnologie die Anzahl der Transistoren mit S² und die Geschwindigkeit (Taktfrequenz) mit S skalieren während die Verlustleistung konstant bleibt (Dennard’sches Gesetz, 1974), findet einfach nicht mehr statt. Mann kann derzeit entweder die Geschwindigkeit erhöhen und dafür die Transistoren nicht mehr ausnutzen, oder man muss wesentlich mehr Verlustleistung, verbunden mit erheblichem Aufwand zur Kühlung, in Kauf nehmen. Man spricht auch von Dark Silicon.

Aktuelles High-End: Der Intel Xeon E7 v4 bietet 32Bit, 24 Kerne, 60MByte L3-Cache-Speicher und Taktfrequenzen bis zu 3,2 GHz.
Aktuelles High-End: Der Intel Xeon E7 v4 bietet 32Bit, 24 Kerne, 60MByte L3-Cache-Speicher und Taktfrequenzen bis zu 3,2 GHz.
(Bild: Intel)

Zwar fand sich zwischenzeitlich noch ein Ausweg: Die Multicores. Die Transistoren im Chip werden genutzt, die Geschwindigkeit pro Core bleibt konstant, die Verlustleistung ebenfalls, und die Marketing-Abteilung kann von einer tollen Peak-Performance sprechen.

Wenn da nicht das Problem der parallelen Bearbeitung wäre, mit Parallelisierung der Applikation oder Synchronisierung der Teile, die nur schwer effizient hinzubekommen ist. Ich habe zum Beispiel an diesem Beitrag netto rund zwei Stunden für die erste Version geschrieben.

Eine totale Parallelisierung auf 120 Menschen wäre dann effizient, wenn 1 Minute Arbeitszeit für jeden herausgekommen wäre und das Ergebnis einen gewissen inneren Zusammenhang zwecks Lesbarkeit hätte. Leider muss ich sagen, dass ich an der Qualität eines auf diese Art entstandenen Textes ein wenig zweifle.

Alleskönner mit Pünktlichkeitsproblem

So rundet sich das aktuelle Bild um die Mikroprozessoren: Sie können alles berechnen, was berechenbar ist (abgesehen von ihrem begrenzten Speicher), sie sind universell anwendbar (wie es Neumann mit seinem Modell 1946 auch gewollt hatte), sie sind darauf getrimmt, alles sequenziell zu bearbeiten, und jede Form der Parallelisierung zwecks Beschleunigung zieht leider Verluste (an der linearen Skalierung) nach sich. Algorithmisch sind sie die Alleskönner, aber wirkliche Pünktlichkeit, also präzises Einhalten von Rechenzeiten, beispielsweise in eingebetteten Systemen, ist nicht ihre hervorragende Eigenschaft.

Warten wir es ab: Vielleicht bekommen wir ja doch bald eine Ablösung der CMOS-Technologie und damit neuen Schwung in die Entwicklung der Mikroprozessoren.

Hinweis: Diesen Artikel entstammt dem Partnerportal „Elektronik Praxis

* Prof. Dr. Christian Siemers lehrt am Institut für Informatik an der TU Clausthal und an der Fachhochschule Nordhausen.

(ID:47313846)