Very british – Geschichte der ARM-CPU

Was ist eine ARM-CPU?

Seite: 2/3

Anbieter zum Thema

Die Geburt des ersten kommerziellen Risc-Prozessors ARM 1

Die V8-84-bit-Architektur wird bisher hauptsächlich in mobilen Devices verwendet; doch es gibt auch erste Server: die Atlas- und Apollo-Prozessoren beispielsweise.
Die V8-84-bit-Architektur wird bisher hauptsächlich in mobilen Devices verwendet; doch es gibt auch erste Server: die Atlas- und Apollo-Prozessoren beispielsweise.
(Bild: ARM)

Für die zweite Auflage des BBC-Computers suchte Acorn lange nach einem geeigneten Prozessor, fand aber keinen. Die Company hatte nun den Business-Bereich im Visier, dem man einen leistungsstarken Rechner gleich mit 32-Bit-Prozessor anbieten wollte. Damals war es nicht ungewöhnlich, dass eine kleine Firma einen Mikroprozessor entwickelte, wie Sun mit dem „Sparc“-Chip bewies, fertigen konnte es jemand anderer.

Bei Acorn begann man damit, eine Risc-Architektur zu entwickeln. Reduced instruction set war damals neu, normalerweise wurden Complex-instruction-set-computer (Cisc) entworfen. Aber ein Risc-Design zu entwerfen erfordert weniger Kapazitäten, was der kleinen Firma zu Gute kam: Das Entwicklerteam bei Acorn bestand zum großen Teil aus kreativen aber unerfahrenen Talenten. Außerdem standen kaum moderne Werkzeuge zur Verfügung.

Das Entwicklerteam um den genialen Roger Wilson, der sich später einer Geschlechtsumwandlung unterzog und als Sophie Wilson Chefarchitektin bei Broadcom wurde, begann 1983 mit den Arbeiten. Man beschloss, dass die Länge der Befehle vorgegeben und ein Load-Store-Modell – also eine Risc-Architektur- angewandt werden sollte. Heraus kam ein Prozessor mit weniger als 25. 000 Transistoren, deren erste Muster schon im April 1985 vorzeigbar waren.

Entwicklungs-Tools und Fertigung von VLSI Technology

Der erste Entwurf des ARM-Befehlssatzes war in Basic geschrieben, so dass schnell ein Prototyp entstand. Konsequenterweise wurde die ARM-Hardware dann auch in Basic geschrieben, ebenso ein Simulator für die Entwicklung und das Testen der Zusatzprozessoren wie Video-, I/O- und Memory-Controller. Zum Einsatz kamen die Entwicklungswerkzeuge von VLSI Technology. Dort wurde der Chip auch gefertigt.

Der Prozessor wurde sofort intern bei Acorn für die Simulationswerkzeuge genutzt und ließ sich auch als Co-Prozessor in bestehende BBC-Micros einbauen – somit konnten externe Entwickler erste Erfahrungen mit der neuen Architektur machen.

Starke Konkurrenz kommt auf

Als kurz darauf mit dem „ARM2“ eine verbesserte Version auf den Markt kam, hatte sich die Lage im Vergleich zu Beginn der 80er Jahre stark verändert: IBM setzte mit seinem PC den Standard, dem viele Hersteller folgten und Rivale Apple nutzte Motorolas 68000er-Prozessoren für den 32-Bit-Rechner Macintosh.

Die Kunden wollten Kompatibilität und Programme, die Acorn nicht liefern konnte. Die ARM-Chips lagen auf Halde.

Das Management unternahm zwar einige Versuche, das Ruder herum zu reißen, doch das Geld wurde knapp. 1985 kaufte die italienische Olivetti Ing. et Cie, damals einer der Top-Büroausstatter, die angeschlagene Prozessorschmiede, vor allem um sich in den englischen Computermarkt einzukaufen. 1987 gelang es endlich, den ARM-Prozessor in einem System bewundern zu können.

Archimedes bleibt ohne Angel

„Archimedes“ nannte man den Rechner, der nicht kompatibel zu den gängigen Größen war und praktisch keine Applikationen vorweisen konnte. Deshalb wurden Software-Emulatoren mitgeliefert. Insgesamt dauert der Markteintritt aber zu lange.

Acorn unternahm einige Versuche, die technischen Raffinessen, etwa das echtzeittaugliche Betriebssystem, das in ein ROM gebrannt war, für höherwertige Maschinen zu nutzen, sogar eine Unix-Workstation wurde gebaut, der wirtschaftliche Erfolg blieb allerdings aus.

(ID:35106220)