Spindizzy World – 1990 by Arsys Software, Inc.

Spindizzy Worlds – 1990 by Arsys Software, Inc.

Spindizzy WorldsSpindizzy Worlds ist eines dieser Spiele, das auf den ersten Blick aussieht wie ein schrulliger Physikbaukasten mit Schwerkraftproblemen, aber unter der Haube eine kleine Design-Offenbarung verbirgt. Entwickelt wurde es von Paul Shirley, dem Schöpfer des ursprünglichen Spindizzy aus dem Jahr 1986, das sich seinerzeit durch seine schwindelerregende isometrische Perspektive und ein kreiselndes Vehikel namens GERALD einen Platz in der Heimcomputer-Geschichte sicherte. Der Nachfolger, Spindizzy Worlds, erschien zuerst 1990 auf dem Amiga und dem Atari ST und wurde später auf diverse andere Plattformen wie SNES, Sharp X68000, NEC PC-9801 und sogar das Super Famicom portiert – Letzteres allerdings ohne Zustimmung Shirleys, was zu einem der kurioseren Kapitel der Spielegeschichte führte.

Die Handlung? Man spielt wieder das GERALD-Gerät, ein Geographical Environmental Reconnaissance And Land-Mapping Device, das durch ein Sternensystem namens Beta Twirlinus rollt, um Energie zu sammeln, bevor die Sonne alles auslöscht. Keine Sorge, so episch wie es klingt, bleibt es in der Praxis meist bei schwebenden Plattformen, tückischen Abgründen und dem unbarmherzigen Ticken einer ablaufenden Energieleiste. Der Spieler erkundet dabei Dutzende kleiner Planeten mit sehr individuellen Mechaniken – manche drehen sich, andere kippen oder werfen den armen GERALD mit katapultartigen Plattformen durch die Gegend. Die Weltkarte gliedert sich in zwei Sektoren: Easydizzy und Spindizzy – ein schöner Hinweis darauf, was einem in der zweiten Hälfte blüht.

Das Spielprinzip hat sich gegenüber dem Vorgänger verändert. Während Spindizzy eine zusammenhängende, gigantische Welt bot, in der man sich verlieren konnte wie in einem IKEA ohne Ausgang, setzt Spindizzy Worlds auf abgeschlossene Levelstrukturen. Diese sind dennoch fies verschachtelt und verlangen gutes räumliches Denken. Besonders die Steuerung von GERALD, der sich wie ein gut geschmierter Hockey-Puck auf Eis verhält, sorgt für die eine oder andere spontane Tischkante im Kieferbereich. Dafür bietet das Spiel auch ein paar neue Annehmlichkeiten, wie Speicherstände oder Hinweise innerhalb der Level – ein Novum, das im gnadenlosen Vorgänger noch völlig fehlte. Außerdem kann man nun die Kameraperspektive frei in 90°-Schritten drehen, was bei der Orientierung oft lebenswichtig ist, auch wenn man dabei gelegentlich den Überblick verliert und plötzlich rückwärts in einen Abgrund rollt.

Programmiert wurde Spindizzy Worlds erneut von Paul Shirley, der von Debbie Sorrell grafisch unterstützt wurde. Die Musik stammt von Martin Walker, bekannt für seine C64-Tracks in Armalyte oder Speedball 2: Brutal Deluxe. In einer witzigen Fußnote ließ Produzent Colin Fuidge im Abspann die Frage stellen: „Can GERALD have a gun?“ – was wohl eine Reaktion auf das völlig gewaltfreie Gameplay war, das so gar nicht in die damalige Actionära passen wollte. Das ikonische Boxart entstand durch einen Wettbewerb in einem britischen Computermagazin und zeigt GERALD, umgeben von thematischen Welten mit Pinguinen, Pyramiden und U-Booten. Warum Pinguine? Warum nicht.

Der SNES-Port sorgte dann für ordentlich Zwist. Shirley hatte keine Freigabe erteilt und distanzierte sich später explizit von dieser Version. Seine Reaktion fiel entsprechend deutlich aus: „I disown it.“ Die SNES-Version wurde von ASCII Entertainment umgesetzt, und etwa 80.000 Module wurden laut späteren Aussagen produziert. Wie viele davon tatsächlich über die Ladentheke gingen, bleibt unklar. Fakt ist: Durch die ausbleibende Vermarktung wurde das Spiel nie der Hit, der es hätte werden können. Besonders ärgerlich für Shirley: Schon beim ersten Spindizzy hatte Activision eine US-Version für den Apple II veröffentlicht – komplett ohne seine Kenntnis und sogar mit entfernten Credits.

Die internationale Presse zeigte sich dennoch meist begeistert. In Großbritannien heimste die Amiga-Version bis zu 94 % ein, während auch die Power Play mit 86 % nicht geizte. Die SNES-Version wurde gemischt aufgenommen: Während Nintendo Magazine System 90 % vergab, bemängelten US-Magazine wie Nintendo Power die träge Steuerung auf dem Gamepad. Dennoch schaffte es Spindizzy Worlds auf Platz 90 der besten 100 SNES-Spiele in einer späteren Total!-Liste – ein Achtungserfolg für ein Spiel, das nie große Stückzahlen erreichte.

Die Levelarchitektur ist bis heute bemerkenswert: Mit cleverem Design, physikalischen Fallen, versteckten Gängen und einem Mix aus Geschicklichkeit und Denkspiel forderte das Spiel seine Spieler auf mehreren Ebenen. Energie ist stets Mangelware, und jedes verlorene Leben kratzt an der Zeitreserve. Die späteren Level sind dabei sadistisch genug, um selbst geduldige Spieler zur Verzweiflung zu treiben – und gleichzeitig motivierend genug, um einen weitermachen zu lassen.

Was bleibt, ist ein faszinierendes Beispiel für ein Indie-ähnliches Projekt lange vor dem Indie-Boom. Ein Spiel, das mit bescheidenen Mitteln, viel Kreativität und ein bisschen britischem Humor eine Nische im Puzzle-Genre schuf, die bis heute viele Fans begeistert. Die letzten Worte überlassen wir Paul Shirley selbst, der auf die Frage, was er am Spieldesign von Spindizzy Worlds ändern würde, nur antwortete: „Nothing. I got it right the first time.“

 Spindizzy Worlds ist eines dieser Spiele, das auf den ersten Blick aussieht wie ein schrulliger Physikbaukasten mit Schwerkraftproblemen, aber unter der Haube eine kleine Design-Offenbarung verbirgt. Entwickelt wurde es von Paul Shirley, dem Schöpfer des ursprünglichen Spindizzy aus dem Jahr 1986, das sich seinerzeit durch seine schwindelerregende isometrische Perspektive und ein kreiselndes Vehikel namens GERALD einen Platz in der Heimcomputer-Geschichte sicherte. Der Nachfolger, Spindizzy Worlds, erschien zuerst 1990 auf dem Amiga und dem Atari ST und wurde später auf diverse andere Plattformen wie SNES, Sharp X68000, NEC PC-9801 und sogar das Super Famicom portiert – Letzteres allerdings ohne Zustimmung Shirleys, was zu einem der kurioseren Kapitel der Spielegeschichte führte.

Die Handlung? Man spielt wieder das GERALD-Gerät, ein Geographical Environmental Reconnaissance And Land-Mapping Device, das durch ein Sternensystem namens Beta Twirlinus rollt, um Energie zu sammeln, bevor die Sonne alles auslöscht. Keine Sorge, so episch wie es klingt, bleibt es in der Praxis meist bei schwebenden Plattformen, tückischen Abgründen und dem unbarmherzigen Ticken einer ablaufenden Energieleiste. Der Spieler erkundet dabei Dutzende kleiner Planeten mit sehr individuellen Mechaniken – manche drehen sich, andere kippen oder werfen den armen GERALD mit katapultartigen Plattformen durch die Gegend. Die Weltkarte gliedert sich in zwei Sektoren: Easydizzy und Spindizzy – ein schöner Hinweis darauf, was einem in der zweiten Hälfte blüht.

Das Spielprinzip hat sich gegenüber dem Vorgänger verändert. Während Spindizzy eine zusammenhängende, gigantische Welt bot, in der man sich verlieren konnte wie in einem IKEA ohne Ausgang, setzt Spindizzy Worlds auf abgeschlossene Levelstrukturen. Diese sind dennoch fies verschachtelt und verlangen gutes räumliches Denken. Besonders die Steuerung von GERALD, der sich wie ein gut geschmierter Hockey-Puck auf Eis verhält, sorgt für die eine oder andere spontane Tischkante im Kieferbereich. Dafür bietet das Spiel auch ein paar neue Annehmlichkeiten, wie Speicherstände oder Hinweise innerhalb der Level – ein Novum, das im gnadenlosen Vorgänger noch völlig fehlte. Außerdem kann man nun die Kameraperspektive frei in 90°-Schritten drehen, was bei der Orientierung oft lebenswichtig ist, auch wenn man dabei gelegentlich den Überblick verliert und plötzlich rückwärts in einen Abgrund rollt.

Programmiert wurde Spindizzy Worlds erneut von Paul Shirley, der von Debbie Sorrell grafisch unterstützt wurde. Die Musik stammt von Martin Walker, bekannt für seine C64-Tracks in Armalyte oder Speedball 2: Brutal Deluxe. In einer witzigen Fußnote ließ Produzent Colin Fuidge im Abspann die Frage stellen: „Can GERALD have a gun?“ – was wohl eine Reaktion auf das völlig gewaltfreie Gameplay war, das so gar nicht in die damalige Actionära passen wollte. Das ikonische Boxart entstand durch einen Wettbewerb in einem britischen Computermagazin und zeigt GERALD, umgeben von thematischen Welten mit Pinguinen, Pyramiden und U-Booten. Warum Pinguine? Warum nicht.

Der SNES-Port sorgte dann für ordentlich Zwist. Shirley hatte keine Freigabe erteilt und distanzierte sich später explizit von dieser Version. Seine Reaktion fiel entsprechend deutlich aus: „I disown it.“ Die SNES-Version wurde von ASCII Entertainment umgesetzt, und etwa 80.000 Module wurden laut späteren Aussagen produziert. Wie viele davon tatsächlich über die Ladentheke gingen, bleibt unklar. Fakt ist: Durch die ausbleibende Vermarktung wurde das Spiel nie der Hit, der es hätte werden können. Besonders ärgerlich für Shirley: Schon beim ersten Spindizzy hatte Activision eine US-Version für den Apple II veröffentlicht – komplett ohne seine Kenntnis und sogar mit entfernten Credits.

Die internationale Presse zeigte sich dennoch meist begeistert. In Großbritannien heimste die Amiga-Version bis zu 94 % ein, während auch die Power Play mit 86 % nicht geizte. Die SNES-Version wurde gemischt aufgenommen: Während Nintendo Magazine System 90 % vergab, bemängelten US-Magazine wie Nintendo Power die träge Steuerung auf dem Gamepad. Dennoch schaffte es Spindizzy Worlds auf Platz 90 der besten 100 SNES-Spiele in einer späteren Total!-Liste – ein Achtungserfolg für ein Spiel, das nie große Stückzahlen erreichte.

Die Levelarchitektur ist bis heute bemerkenswert: Mit cleverem Design, physikalischen Fallen, versteckten Gängen und einem Mix aus Geschicklichkeit und Denkspiel forderte das Spiel seine Spieler auf mehreren Ebenen. Energie ist stets Mangelware, und jedes verlorene Leben kratzt an der Zeitreserve. Die späteren Level sind dabei sadistisch genug, um selbst geduldige Spieler zur Verzweiflung zu treiben – und gleichzeitig motivierend genug, um einen weitermachen zu lassen.

Was bleibt, ist ein faszinierendes Beispiel für ein Indie-ähnliches Projekt lange vor dem Indie-Boom. Ein Spiel, das mit bescheidenen Mitteln, viel Kreativität und ein bisschen britischem Humor eine Nische im Puzzle-Genre schuf, die bis heute viele Fans begeistert. Die letzten Worte überlassen wir Paul Shirley selbst, der auf die Frage, was er am Spieldesign von Spindizzy Worlds ändern würde, nur antwortete: „Nothing. I got it right the first time.“

 

The Dam Busters- 1984 by Sydney Development Corp.

The Dam Busters- 1984 by Sydney Development Corp.

dam bustersEs ist egal, in welchem Jahrzehnt der Videospiele wir uns befinden, der zweite Weltkrieg ist immer wieder eine Anlaufstelle für Actionspiele oder Simulatoren. The Spiel The Dam Busters (1984) ist ein weiteres Beispiel für britisch-kanadische Zusammenarbeit im frühen Flugsimulations-Genre: ein mutiger Versuch, Geschichte, Technik und Spielgefühl zu verknüpfen. Hinter diesem ambitionierten Titel steckte die kanadische Firma Sydney Development Corp., realisiert in enger Kooperation mit U.S. Gold (Europa) und Accolade (Nordamerika) für verschiedenste Plattformen.

Gedacht als Simulation der berühmten Operation Chastise – dem Dambuster-Einsatz von 1943 – bietet das Spiel dem Anwender die Steuerung eines Lancaster-Bombers in der Nachteinsatz-Atmosphäre über dem Ruhrgebiet. Der Spieler wechselt dabei zwischen sieben Crew-Stationen: Pilot, Bombenschütze, Navigator, Techniker, Front- und Heckschütze sowie der Staffelkapitän. Erfolg hinge davon ab, alle Rollen im Blick zu behalten – verlässt man etwa den Navigator während eines kritischen Anflugs, droht sofortige Katastrophe.

Das Spiel erschien 1984 zuerst auf ColecoVision und Commodore 64, 1985 folgten Konversionen für Apple II, MS DOS, MSX und ZX Spectrum; 1986 zog NEC PC 9801 und Amstrad CPC nach. Für jede Version wurde das Erlebnis technisch angepasst – die C64-Version glänzte mit kräftigem Sound, für den Komponist Paul Butler verantwortlich war, bekannt auch für Titel wie Ace of Aces und The Train: Escape from Normandy. Hinter der Programmierung stand das Team rund um Stuart Easterbrook, Steve Armstrong und Rick Banks, unter dem Lead-Designer J. Stewart Eastbrook, der auch die Musik komponierte. Easterbrook programmierte den C64-Code selbst, unterstützt von Grant Campbell bei Grafik und eben Butler beim Sound.

Im Produktionsprozess spricht man von einer Entwicklungszeit von rund zwölf Monaten. Anekdoten berichten, dass Easterbrook zur Authentizität einen RAF-Offizier konsultierte. Aus dem Entwicklerteam heißt es: „We wanted to avoid broad arcade appeal and aim for tension and authenticity“ – also kein Action-Game, sondern historisch fundierte Simulation mit emotionalem Gewicht.

Die Cockpitansicht zeigte analoge Instrumente (Höhe, Fluggeschwindigkeit mit rotem Bombenmarkierer, künstlicher Horizont, Kompass). Per Tastendruck navigiert man zwischen Stationen oder reagiert auf Alarme – beispielsweise DCA-Feuer bleibt nur abzuwehren, indem der Heckschütze aktiviert wird. Die Anflugsphase auf die Dammanlage wurde zu einem ikonischen Moment: Geschwindigkeits-, Höhen- und Neigungsparameter mussten exakt erreicht werden, ansonsten endete der Lauf oft in Fehlschlag oder Bruchlandung. Laut GameFAQs fungierte Bombenfachmann Barnes Wallis als technischer Berater – so erhalten echte Konzepte wie Sprungweite, Anflugwinkel und Bombenablauf eine historische Legitimation. Ungewöhnlich dabei: Es gab nur drei Missionen – Übungsflug plus zwei Angriffe auf Mohne-, Sorpe- oder Edertalsperre – was manchen Spielern (selbst Spielern auf Lemon64) das Gefühl gab: „zu schwer, zu kurz“.

Marktwirtschaftlich war The Dam Busters ein ordentlicher Erfolg. Verkaufszahlen sind schwer exakt zu belegen, aber die Spectrum-Version wurde als „Sinclair User Classic“ ausgezeichnet, die französische Tilt vergab 6 Sterne für Spieltiefe und 5 für Grafik und kürte die C64-Fassung zum „Tilt d’or 1985“. In den USA schrieb Info: „better than average graphics and play features“ – und Computer Gaming World gab trotz Kritik an der mangelnden Simulationstiefe immerhin eine solide 2 von 5. International erhielt die C64-Edition durchschnittlich 76 % bei Mobygames-Bewertungen . Die Spectrum-Ausgabe wurde gar mit 92 % bei Zzap! gelobt. Offiziell bestätigte Anteilsaussonderungen in U.K., Nordamerika und Japan demonstrieren breite Resonanz: U.S. Gold und Accolade kooperierten 1985/86 für westliche Märkte, während in Japan Apollotechnica (PC 98) und Soft Pro (MSX) das Feld bearbeiteten. Internationale Wertungen zeigen einen interessanten Kontrast: In den USA wurde der Titel eher als solides Action-Spiel gesehen, in Europa als taktische, atmosphärische militärische Simulation gewürdigt. In späteren Rezensionen (etwa 1991) erschien das Spiel „veraltet“, mit Wertungen von nur 1,5/5. Trotzdem bleibt bis heute das Gefühl eines authentischen, thematisch dichten Flugsimulators erhalten.
Produktionstechnisch zeigte das Projekt Mut – statt multiple Zielumsetzungen wurde jedes System individuell adaptiert. Die Spectrum-Variante nutzte monochrome hohe Kontraste, die C64-Version setzte auf Stereo-Sound und dynamischen Bildschirmblick. Die EGA/DOS-Variante bot größere Instrumentenanzeigen.

Als kontrovers empfanden einige, dass das Spiel historische Opfer inszenierte – ein moralisches Spannungsfeld, das auch angesichts des Films und Books The Dam Busters reflektiert wurde. Doch fast immer überwog die Faszination für Technik, Planung und Herausforderung. „The Dam Busters“ war kein Massenhit wie Elite oder Pirates!, aber ein mutiger, technisch versierter Titel mit emotionaler Gewichtung, realistischem Anspruch und britisch-kanadischem Flair. Seine Entwickler – Easterbrook, Butler, Eastbrook – bewiesen, dass Simulation und Spieltiefe sich nicht ausschließen müssen. Mit geschätzt mehreren hunderttausend verkauften Einheiten weltweit – allein das „Tilt d’or“ deutet auf fünfstellige Stückzahlen hin – gehört das Spiel in die Hall of Fame früher Flugsimulationen. Wer heute nostalgisch die digitale Dämmerung Europas überfliegen möchte, findet in „The Dam Busters“ ein echtes Erlebnis – mit moralischen Fragen, technischer Eleganz und einem Hauch britischen Heldenmuts.

Olivetti ETS 1010

Olivetti ETS 1010

olivetti ets 1010Wenn man sich in den 1980er Jahren in einem europäischen Anwaltsbüro, einer Behörde oder einem Verlag umsah, dann begegnete man nicht selten einem Gerät mit Olivetti-Schriftzug, dezent grauem Gehäuse und dem markanten Surren eines daisy-wheel-Druckkopfs. Der Olivetti ETS 1010 war eines dieser Geräte – weder vollwertiger PC noch bloße elektrische Schreibmaschine, sondern etwas dazwischen: ein eigenständiges elektronisches Textsystem mit Bildschirm, Speichermedien und intelligentem Software-Unterbau.

Ursprünglich auf Basis der amerikanischen Firma Syntrex Inc. entwickelt, brachte Olivetti das System ab etwa 1983 in Europa auf den Markt. Die Idee war, eine Brücke zu schlagen zwischen der bewährten Typenradtechnik und den neuen Möglichkeiten der digitalen Textverarbeitung. Heraus kam ein eigenständiges System, das nicht auf einem IBM-PC basierte, sondern auf eigener Elektronik und Logik aufbaute. Herzstück war ein Intel 80186, ein selten genutzter Prozessor, der viele Funktionen der PC-Peripherie bereits im Silizium integrierte. Der Arbeitsspeicher betrug 256 KB, genug für mehrere Textdokumente im RAM-Puffer.

Das System bestand aus mehreren Modulen: einer Basiseinheit mit zwei 5¼-Zoll-Diskettenlaufwerken zu je 160 KB, einem monochromen Bildschirm (grün oder bernsteinfarben, 80 Zeichen × 25 Zeilen), der separaten Schreibmaschineneinheit (meist ET 221) mit Typenraddruck und einer Funktionsklaviatur. Die Disketten nutzten ein proprietäres Format, das einfache Dateiverwaltung und Textspeicherung erlaubte – allerdings nicht kompatibel zu MS-DOS oder CP/M-Systemen. Das zugrundeliegende Betriebssystem war entweder eine modifizierte Variante von CP/M-86 oder, in komplexeren Konfigurationen, ein internes Syntrex-OS mit UNIX-artiger Struktur – genaue Angaben sind rar, da viele Systeme OEM-konfiguriert waren.

In der Praxis bedeutete dies: Der Benutzer tippte auf einer echten Schreibmaschinentastatur, sah die Eingabe auf dem Bildschirm, konnte formatieren, korrigieren und mit Steuerfunktionen wie [Block markieren], [Zentrieren] oder [Drucken] arbeiten. Das Schreiben selbst erfolgte anschließend über den mechanischen Druckkopf – typischerweise mit Daisy-Wheel-Technik, die ein gestochen scharfes Schriftbild erzeugte. Wer heute den Ausdruck in Händen hält, würde nie glauben, dass dies nicht mit einem Laserdrucker erstellt wurde.

Der ETS 1010 war – das sei deutlich gesagt – kein PC und konnte auch keine PC-Programme ausführen. Es gab weder Grafikfähigkeiten noch Soundchip oder Maussteuerung. Dafür bot das System eine durchdachte, ausgereifte Benutzeroberfläche, speziell auf das Schreiben, Ablegen und Drucken von Dokumenten zugeschnitten. Die Dateiverwaltung war einfach und visuell geführt; das Wechseln zwischen Dokumenten ging schnell. Besonders bemerkenswert war die Fähigkeit, mehrere Geräte zu clustern – das heißt, mehrere ETS-Systeme konnten über ein zentrales Diskettenlaufwerk oder Drucker verbunden werden, um Arbeitsgruppenlösungen zu ermöglichen. In der Praxis wurde dies z. B. in Sekretariaten oder Schreibpools genutzt.

Vergleichstabelle

Merkmal ET 221 ETS 1010 ETS 2010 Olivetti M24
Jahr ca. 1981 1983–1984 ab 1985 1983–1986
CPU keine Intel 80186 @ 8 MHz Intel 80186 @ 8 MHz Intel 8086 @ 8 MHz
RAM 256 KB 256–512 KB 256–640 KB
Bildschirm keiner 80×25 Zeichen, monochrom 80×25 Zeichen, monochrom CGA: 320×200, 4 Farben
Diskettenlaufwerke 2 × 5¼″, je 160 KB 2 × 5¼″, je 320 KB 1 × 5¼″, 360 KB oder HDD
Festplatte keine optional extern (sehr selten) ja, bis 10 MB ja, bis 20 MB
Drucktechnik Typenrad (extern) Typenrad integriert (ET 221) Typenrad (ET 115/ET 225 etc.) Matrix oder Typenrad extern
Netzwerkfähig nein ja (Clusterbetrieb, seriell) ja (Mehrplatzbetrieb möglich) ja (Ethernet, RS232)
Betriebssystem proprietär (CP/M-ähnlich) CP/M-86 oder Syntrex-OS MS-DOS / XENIX
Preis (geschätzt, 1983) ca. 3.000 DM ca. 6.000–8.000 DM ca. 9.000–12.000 DM ab 5.000 DM
Preis (inflationsbereinigt) ~2.300 € ~4.700–6.200 € ~7.000–9.000 € ~3.900–4.500 €

Der ETS 1010 war kein Spielcomputer, kein Allzweck-PC und kein Bastlersystem. Aber was er konnte, das konnte er hervorragend: Texte schreiben, speichern, drucken – und das mit einer Qualität und Verlässlichkeit, die in manch einem Schreibbüro noch bis in die frühen 2000er hinein Standard blieb. Gegenüber dem reinen Schreibmaschinenbetrieb war er ein gewaltiger Fortschritt, vor allem durch den Bildschirm und die flexible Bearbeitung von Dokumenten. Gegenüber einem IBM-kompatiblen PC wirkte er technikfern, aber dafür menschennah: keine kryptischen Befehle, sondern klar beschriftete Funktionstasten, durchdachte Menüs und sofortiger Druck auf Papier in bester Qualität.

In der Rückschau ist der ETS 1010 ein leiser, unterschätzter Meilenstein auf dem Weg zum digitalen Büro. Er markierte die kurze, aber spannende Übergangszeit, in der Schreibmaschinen Computer wurden – oder umgekehrt.

Ohio Scientific C2

c2 8p 1Der Ohio Scientific Challenger II, meist kurz C2 genannt, erschien zwischen 1977 und 1979 als konsequente Weiterentwicklung der populären Superboard-Serie des US-amerikanischen Herstellers Ohio Scientific Instruments (OSI). Das Unternehmen, gegründet 1975 im Bundesstaat Ohio durch den Ingenieur Michael Cheiky, seine Frau Charity Cheiky sowie den Techniker Dale A. Dreisbach, hatte sich zum Ziel gesetzt, erschwingliche, aber leistungsfähige Mikrocomputersysteme mit professionellem Anspruch zu entwickeln – eine Philosophie, die sich im C2 deutlich widerspiegelt.

Der C2 war kein typischer Heimcomputer, sondern vielmehr ein modulares, aufrüstbares System, das sich vor allem an Entwickler, Ingenieure, Bildungseinrichtungen und kleine Unternehmen richtete. Die Gerätefamilie umfasste unter anderem den C2-4P, ein kompaktes, tragbares System mit vier internen Steckplätzen, sowie den C2-8P, der über acht Erweiterungssteckplätze verfügte und in einem größeren Gehäuse untergebracht war. Beide Modelle basierten auf einer steckkartenbasierten Architektur, bei der CPU, Video-Einheit, RAM und I/O als separate Platinen in einen Busrahmen („Backplane“) eingebunden wurden. Dies erlaubte eine bemerkenswerte Flexibilität und Erweiterbarkeit – Merkmale, die zu dieser Zeit noch keineswegs selbstverständlich waren.

Als Prozessor kam der bewährte MOS Technology 6502 mit einem Takt von 1 MHz zum Einsatz. Die Taktfrequenz wurde allerdings nicht, wie bei den meisten Konkurrenten, durch einen Quarzoszillator erzeugt, sondern durch einen programmierbaren 74LS123-Monoflop-Schaltkreis, was eine gewisse Variabilität und Feinjustierung ermöglichte. Der 6502 war ein 8-Bit-Prozessor mit einem einfachen, aber effizienten Befehlssatz, der unter anderem durch seine indizierten Adressierungsmodi und seine niedrige Chip-Komplexität überzeugte. In Kombination mit dem leichtgewichtigen Systemdesign bot dies eine für die damalige Zeit bemerkenswert hohe Rechenleistung pro investiertem Dollar.

Das Betriebssystem bestand typischerweise aus einem im ROM untergebrachten Monitorprogramm und einem einfachen BASIC-Interpreter, der in einer auf 8 KB reduzierten Form implementiert war. Von Diskette konnte ein rudimentäres OSI-DOS oder ein erweitertes BASIC geladen werden. Der Zugriff erfolgte über einen simplen Konsolenmodus mit Cursorkontrolle und hexadezimalem Direktzugriff auf Speicheradressen. Auf dem Bildschirm konnten maximal 64 Zeichen pro Zeile bei 32 Zeilen dargestellt werden, wobei ausschließlich monochrome Textausgabe unterstützt wurde. Eine Bitmap-Grafikfähigkeit war serienmäßig nicht vorhanden, konnte aber theoretisch über Zusatzhardware realisiert werden. Farbdarstellung war nicht vorgesehen – der C2 blieb in dieser Hinsicht der kompromisslosen Funktionalität verpflichtet.

Auch in Sachen Klanggestaltung herrschte Sparsamkeit. Der C2 besaß keinen dedizierten Soundchip. Audioausgabe war nur indirekt über den Kansas City Standard möglich – einem Codierformat für Audiodaten, das auf Kassette gespeichert wurde. Manche Nutzer zweckentfremdeten das Kassetteninterface für primitive Tonausgabe, doch echte Musik- oder Effektfähigkeiten fehlten vollständig.
Der Massenspeicher bestand standardmäßig aus einem Kassettenrekorder-Anschluss, der mit 300 bis 1200 Baud arbeitete. Gegen Aufpreis konnte das System um ein Floppy-Interface (Model 470) ergänzt werden. Hier kamen wahlweise 5¼-Zoll- oder 8-Zoll-Laufwerke zum Einsatz. In seltenen Fällen wurde sogar ein Festplattenanschluss für Winchester-Laufwerke implementiert – eine für die späten 1970er geradezu futuristische Option. Der interne Arbeitsspeicher konnte von 4 KB (auf der CPU-Karte) auf bis zu 64 KB aufgerüstet werden, was für komplexe BASIC-Programme oder datenintensive Anwendungen absolut notwendig war.

In puncto Peripherie war der C2 ausgesprochen vielseitig. Neben parallelen und seriellen I/O-Karten bot OSI auch Druckerschnittstellen, einen Terminalanschluss, eine Mehrprozessor-Karte (Model 460Z) sowie diverse RAM-Erweiterungsplatinen an. Eine geplante Sprachsyntheseeinheit wurde angekündigt, aber nie über das Prototypstadium hinaus realisiert. Die Tastatur war separat im Gehäuse verbaut und erinnerte in Aufbau und Haptik eher an industrielle Terminals als an Heimcomputer-Tastaturen.

Die physische Größe variierte je nach Modell: Der C2-4P maß etwa 40 × 30 × 15 cm, der C2-8P war nochmals größer und erforderte einen separaten Monitor und häufig eine externe Stromversorgung. Das Design war funktional, industriell, kantig – und entsprach damit ganz dem technologischen Ethos der späten 1970er.

Die Preise für den Ohio Scientific C2 begannen 1978 bei 598 US-Dollar für das C2-4P-System. Das C2-8P schlug mit rund 799 US-Dollar zu Buche. Inflationsbereinigt entspricht dies im Jahr 2025 etwa 3.500 bis 4.700 Euro, je nach Modell und Ausstattung. Verglichen mit einem Apple II, der damals weit über 1.200 Dollar kostete, war der C2 also ein attraktives Angebot für technisch versierte Nutzer mit professionellen Ansprüchen. In der Fachpresse wurde der C2 teils wohlwollend, teils kritisch besprochen. Das Magazin Kilobaud lobte ihn als „beispiellose modulare Plattform für ernsthafte Computeranwender“, während Byte die Integration und Modularität herausstellte, jedoch die fehlende Farbgrafik bemängelte. Die Nachrichtenagentur UPI schrieb 1978: „Ein portabler Computer mit Fähigkeiten, die man sonst nur von Minis kennt.“

Die Verkaufszahlen lassen sich heute nur grob abschätzen. Bekannt ist, dass Ohio Scientific 1979 etwa 18 Millionen Dollar Umsatz erzielte und rund 300 Mitarbeiter beschäftigte. Der C2 war vor allem in Universitäten, Forschungseinrichtungen und kleinen Industriebetrieben zu finden – seltener im privaten Gebrauch. Sein modularer Aufbau, seine Erweiterbarkeit und seine offene Architektur machten ihn beliebt bei Bastlern, doch die lange Lieferzeiten und das Fehlen eines größeren Software-Ökosystems verhinderten eine breitere Marktdurchdringung. Im Vergleich zum Vorgänger, dem populären Superboard II, bot der C2 eine erheblich professionellere Bauweise, bessere Erweiterungsmöglichkeiten und eine robuste Backplane-Struktur. Gegenüber Konkurrenten wie dem Apple II, dem Commodore PET oder dem TRS-80 konnte er technisch mithalten, doch fehlten ihm ein attraktives Gehäuse, Farbfähigkeit und der Zugang zu einer großen Entwicklergemeinde – Punkte, die für Endanwender immer entscheidender wurden.

Trotzdem bleibt der Ohio Scientific C2 ein Meilenstein in der Entwicklungsgeschichte des Mikrocomputers. Er verkörpert jene Zwischenphase, in der sich die Heimcomputertechnik von der Garagenbastelei zur ernsthaften Computertechnik emanzipierte. Die Entwickler Michael und Charity Cheiky sowie Dale Dreisbach waren Pioniere, deren Beitrag zum frühen Mikrocomputermarkt in Fachkreisen heute mit Respekt betrachtet wird. Obwohl Ohio Scientific in den frühen 1980er Jahren schließlich von der Firma M/A-COM übernommen wurde und der Markenname verschwand, lebt der C2 in Sammlerkreisen fort – nicht zuletzt als Symbol für eine Ära, in der technische Eleganz und logisches Design noch mehr zählten als bunte Grafiken und Geräuschkulissen.

Franklin ACE 100

Franklin ACE 100

mrbrowns franklin ace 100Wenn ich Dich, werter Leser, fragen würde, ob Du irgendwann einmal in Deinem Leben ein Programm ohne Zustimmung des Urhebers kopiert hast, würdest Du wahrscheinlich mit einem verlegenen Lächeln zustimmen, denn höchstwahrscheinlich hast Du die Zeit miterlebt und möglicherweise dank Programmen wie bspw. X-Copy auf dem Amiga ausgiebig davon Gebrauch gemacht (Nur zur Beruhigung: die Verjährungsfrist ist hier schon längst vorbei). Das nicht nur der private Heimanwender sich das Leben etwas vereinfachen wollte, ist daraus sicherlich erklärlich und beruhte auch auf der Tatsache, dass es noch bis Anfang der 1980er keine wirklichen Präzedenzfälle existierten. Dies sah auch der US-amerikanische Hersteller Franklin Computer Corporation so und präsentierte 1982 die ACE Modellreihe, die absolut Apple II kompatibel waren.

Technisch gesehen war der ACE 100 keine Nachbildung, sondern eine exakte Kopie des Apple II Plus: Franklin hatte den ROM-Inhalt von Apples System, inklusive BASIC-Interpreter, Monitorprogramm und Betriebssystem, Byte für Byte übernommen. Dies führte später zum wegweisenden Rechtsstreit Apple Computer, Inc. v. Franklin Computer Corp., der die Rechtsauffassung über Software-Urheberrecht nachhaltig prägte. Im Inneren arbeitete wie beim Original ein MOS Technology 6502 mit 1,023 MHz. Der 8-Bit-Prozessor war der zentrale Baustein zahlreicher Heimcomputer der Zeit, von der Atari-8-Bit-Serie bis zum Commodore 64. Er konnte direkt auf bis zu 64 KB RAM zugreifen, was dem ACE 100 voll zur Verfügung stand.

Die Grafikfunktionen entsprachen exakt dem Apple II Plus: Textmodus mit 40×24 Zeichen, Low-Resolution-Grafik mit 40×48 Bildpunkten bei 15 Farben plus schwarz, High-Res mit 280×192 bei bis zu sechs gleichzeitigen Farben, abhängig von den NTSC-Farbphasen. Für Ton sorgte wie beim Original ein 1-Bit-Speaker, der über Software getaktet wurde – komplexe Musik war nur durch gezieltes Pulsweitenmodulieren möglich.

Das ROM des ACE 100 enthielt eine 1:1-Kopie von Apples Integer BASIC (entwickelt von Steve Wozniak) sowie Apples Betriebssystem DOS 3.3. Der Computer unterstützte alle Apple-II-Platinen und Softwaretitel, da er vollständig signal- und softwarekompatibel war. Die Anschlussmöglichkeiten umfassten Composite-Video, Gameport, einen Erweiterungsbus mit acht Slots sowie Diskettenanschluss. Als Massenspeicher kamen externe 5,25-Zoll-Diskettenlaufwerke zum Einsatz – meist 140 KB pro Diskette –, häufig Apple-kompatible Nachbauten von Franklin selbst.

Ursprünglich wurde der ACE 100 als sogenannte „Bare Board“-Lösung vertrieben – ein vollständig bestücktes Mainboard ohne Gehäuse, Tastatur oder Netzteil. Zielgruppe waren technisch versierte Nutzer, Schulen und OEM-Kunden, die den Rechner in bestehende Apple-II-kompatible Gehäuse oder selbstgefertigte Lösungen einbauen wollten. Dennoch kam es im Handel bald zu Verwirrungen: Einige Dritthändler und Systemhäuser verkauften den ACE 100 auch als Komplettgerät, indem sie das Board mit Gehäuse, Tastatur und Netzteil kombinierten. Diese Varianten wurden teils noch unter dem Namen ACE 100 angeboten, obwohl der erste offiziell von Franklin vermarktete Komplettrechner auf Basis desselben Boards bereits ACE 1000 hieß.

Der Preis des ACE 100 als Mainboard lag bei rund 499 US-Dollar, was inflationsbereinigt ca. 1.475 Euro im Jahr 2025 entspricht – deutlich günstiger als der Apple II Plus mit etwa 1.195 Dollar (über 3.400 Euro heute). Diese Preisstrategie machte den ACE 100 besonders bei Bildungseinrichtungen beliebt. Presseberichte zur Veröffentlichung waren gespalten. Während Magazine wie Creative Computing das Gerät als „kostengünstigen Hoffnungsträger für Bildungseinrichtungen“ bezeichneten, schrieb BYTE Magazine im Oktober 1982: „Ein guter Computer, doch moralisch fragwürdiger Ursprung.“ Besonders Apple-Fans sahen in Franklin einen Trittbrettfahrer.

Etwa 20.000 Einheiten wurden laut interner Verkaufszahlen von Franklin bis Anfang 1983 ausgeliefert. Ein Lehrer aus Kalifornien baute mit Schülern Plexiglas-Gehäuse um ACE-Boards – ein Schulprojekt, das zum halblegalen Apple-Klonlabor wurde. „Ich hätte Apple lieber gekauft, aber mein Budget erlaubte das nicht. Der Franklin tat, was ich brauchte – Punkt“, sagte er rückblickend in einem Interview mit Popular Computing.

Apple war selbstredend kein allzu großer Freund der ACE Reihe und klagte bereits zur Veröffentlichung auf Urheberrechtsverletzung. Der Rechtsstreit Apple v. Franklin war ein historisches Verfahren in den USA, das maßgeblich die Rechtsgrundlage für den Schutz von Software festlegte. Franklin argumentierte, dass ROM-Code keine „literarischen Werke“ im Sinne des Urheberrechts seien und deshalb nicht geschützt werden könnten. Die Entscheidung des Berufungsgerichts (3rd Circuit) im Jahr 1983 war bahnbrechend: Das Gericht erklärte, dass auch Maschinencode in ROMs urheberrechtlich schützbar ist, selbst wenn dieser nicht direkt lesbar ist. Dies war das erste Mal, dass ein US-Gericht urheberrechtlichen Schutz für firmwarebasierte Software bestätigte.

Das Verfahren zog sich bis 1988 hin. Franklin verlor in allen wesentlichen Punkten. Die Firma musste den Vertrieb der betroffenen Produkte einstellen oder neu designen, was ihren Marktanteil stark schrumpfen ließ. Franklin bot später den ACE 500 mit neuem ROM und eigener Softwarearchitektur an – jedoch ohne die vollständige Kompatibilität, die den ACE 100 so erfolgreich gemacht hatte. Gegenüber direkten Konkurrenten wie dem Commodore PET oder dem Tandy TRS-80 war der Franklin ACE 100 grafisch unterlegen, aber durch seine Apple-Kompatibilität deutlich vielseitiger. Für Bastler war er eine kostengünstige Alternative – für Apple ein Dorn im Auge.

Der ACE 100 war also mehr als nur ein Plagiat. Er war ein politischer Computer, ein juristisches Exempel, ein Spiegel der frühen 80er-Jahre zwischen Innovation, Nachbau und der Suche nach Standards. Heute ist er ein Sammlerstück – gerade weil er als einziger Computer in US-Geschichte vor Gericht tatsächlich als urheberrechtswidrig verboten wurde, obwohl er technisch brillant umgesetzt war.

Wings of Fury – 1988 by Brøderbund

Wings of Fury - 1988 by Brøderbund

Wings of Fury, von Brøderbund im Dezember 1987 veröffentlicht, war ein ungewöhnlicher, stilisierter Mix aus Shoot-'em-up und Simulation, der sich in der Ästhetik eher an Spielhallenklassiker anlehnte, inhaltlich jedoch überraschend ernst war. Entwickelt wurde das Spiel ursprünglich von Steve Waldo, einem der weniger bekannten, aber technisch versierten Designer, der zuvor an Tools und internen Konvertern für Brøderbund mitgearbeitet hatte. Die Musik und Sounds wurden von Kris Hatlelid beigesteuert, wobei die PC-Version mangels Sound-Hardware auf einfache Effekt-Cues beschränkt blieb. Die Amiga- und Apple-II-Versionen nutzten einfache Sampleeffekte und systemnahe Töne, boten aber keine musikalische Untermalung im eigentlichen Sinne.

Die Entstehungsgeschichte von Wings of Fury begann laut einer internen Brøderbund-Mitteilung bereits 1986, als Steve Waldo erste Prototypen entwickelte, die sich an Side-Scrolling-Flugspielen wie Choplifter oder Defender orientierten, aber eine realistische Physik und ballistische Berechnung einführen wollten. In einem seltenen Interview aus der Zeitschrift Compute! (Ausgabe Juni 1989) sagte Waldo: „Ich wollte ein Spiel, das so einfach zu bedienen ist wie ein Arcade-Shooter, aber die Ernsthaftigkeit des Zweiten Weltkriegs mit sich trägt. Kein Fantasiekrieg, sondern realistisch, direkt, ohne Filter.“ Der Produktionsprozess war relativ schlank: Innerhalb von etwa acht Monaten wurde die Kernversion für den Apple II fertiggestellt, wobei viele der Sprites handgezeichnet und pixelweise optimiert wurden. Die Entwickler testeten die Wirkung von Bomben auf animierte Soldaten in verschiedenen Variationen – ein Detail, das später für Kritik sorgte.

Das Spiel versetzt den Spieler in die Rolle eines US Navy-Piloten im Pazifikkrieg 1944. Als Pilot eines F6F Hellcat jagt man von einem Flugzeugträger aus japanische Flakstellungen, Nachschubtruppen, Landungsboote, Radaranlagen und Flugplätze. Gesteuert wird dabei aus einer seitlichen 2D-Perspektive. Die Steuerung kombiniert Flugphysik mit direkter Arcade-Steuerung: Geschwindigkeit, Fluglage und Flughöhe müssen koordiniert werden, um präzise Bombenabwürfe, Torpedoeinsätze oder Bordmaschinenangriffe auszuführen. Landungen auf dem eigenen Flugzeugträger – der sich ebenfalls in Bewegung befindet – gehören zu den schwierigsten, aber auch eindrucksvollsten Momenten. Munition ist begrenzt, Nachladen und Reparaturen erfordern präzises Landen.

Die Kombination aus realer Militärgeschichte, schwarzhumoriger Gewalt und Arcade-Mechanik sorgte für eine geteilte Rezeption. Die US-Presse lobte das Spiel nahezu durchweg – Compute! sprach von einem „komplexen, aber unterhaltsamen Kriegsspiel, das gleichzeitig pädagogisch und fesselnd“ sei. In Deutschland fiel die Berichterstattung zurückhaltender aus. Die Zeitschrift 64'er lobte 1989 die technische Umsetzung, merkte aber kritisch an, dass „die Darstellung von explodierenden Menschen in einem Spiel dieser Art unnötig martialisch“ wirke. Besonders auf dem C64, dessen Version vom Studio Cascade Games konvertiert wurde, sorgten die teils expliziten Animationen der sterbenden Soldaten für Diskussionen. In Frankreich wurde das Spiel aufgrund seiner Thematik teilweise zensiert vertrieben.

Wings of Fury erschien ursprünglich auf dem Apple II undMS-DOS, später folgten offizielle Portierungen für Commodore 64, Amiga, sowie eine japanische Version für den Sharp X68000, die nicht nur technisch, sondern auch inhaltlich stark verändert wurde. In der exklusiven X68000-Version übernimmt der Spieler nicht die Rolle eines amerikanischen Piloten, sondern steuert eine japanische Mitsubishi A6M Zero und kämpft gegen amerikanische Streitkräfte. Die Level, Menüs, Sounds und Animationen wurden neu gestaltet, um der japanischen Perspektive auf den Krieg zu entsprechen – eine komplette kulturelle Umkehrung des ursprünglichen Spiels. Damit war die X68000-Version keine reine Portierung, sondern eine vollständig lokalisierte Neuinterpretation mit hoher grafischer Qualität und historisch angepasstem Narrativ. Technisch war sie zudem deutlich anspruchsvoller: flüssigere Parallax-Scrolling-Effekte, detailliertere Explosionen und eine ausgefeiltere Kollisionslogik machten sie zu einer der hochwertigsten Fassungen überhaupt.

Insgesamt wurden weltweit schätzungsweise über 250.000 Einheiten verkauft, was angesichts der ernsten Thematik bemerkenswert war. Das Spiel wurde nie offiziell fortgesetzt, obwohl ein Prototyp mit dem Titel Wings of Fury II 1992 bei Brøderbund kursierte, später aber eingestellt wurde. 2001 erschien ein inoffizielles Remake für Windows-PCs, das Gameplay und Grafik modernisierte, aber ohne Lizenz durch kleinere Entwickler realisiert wurde.

Trivia: Die Figur des Piloten blieb namenlos, doch in einem Mockup für das Handbuch der Amiga-Version wurde er „Lt. J. R. Hayes“ genannt – ein Hinweis auf einen echten US-Piloten, der 1944 über Iwo Jima abgeschossen wurde. Entwickler Waldo sagte dazu nur: „Ich wollte keine Heldenromantik. Das war ein Krieg, kein Abenteuerfilm.“ Ein weiterer interessanter Aspekt: Die Gravity-Engine von Wings of Fury wurde später von Brøderbund intern bei Prince of Persia inspiriert übernommen – insbesondere das ballistische Verhalten der Fallbewegungen. Entwickler Jordan Mechner bestätigte später in seinen Notizen von 1989, dass Wings of Fury als eines von drei physikbasierten Vorbildern diente.

Starflight I – 1986 by Binary Systems

Starflight I – 1986 by Binary Systems

Starflight

Im Jahr 1986 erschien mit Starflight eines der ambitioniertesten und innovativsten Computerspiele seiner Zeit. Entwickelt wurde es von Binary Systems, einem kleinen Studio unter der Leitung von Rod McConnell, Greg Johnson und Tim Lee. Die Veröffentlichung übernahm Electronic Arts, das mit dem Titel ein Experiment wagte – ein Spiel, das Rollenspiel-, Weltraum-Erkundungs- und Wirtschaftssimulationselemente miteinander verband, basierend auf einer eigenen Engine und völlig neuen technischen Lösungen. Der Titel wurde ursprünglich für IBM-PC-kompatible Rechner mit MS-DOS entwickelt, in einer Zeit, als diese Plattform spielerisch noch hinter dem C64 und Apple II stand. Starflight änderte das.

Die Entwicklungszeit betrug über fünf Jahre – ungewöhnlich lang für damalige Verhältnisse. Tim Lee und Rod McConnell arbeiteten ursprünglich an einem einfachen Asteroiden-Management-Spiel. Doch das Projekt wuchs rasch zu einem komplexen Simulations- und Storyuniversum mit über 800 zu erforschenden Planeten. Greg Johnson, der später mit ToeJam & Earl berühmt wurde, war maßgeblich für die narrative Gestaltung verantwortlich. Er verfasste die meisten der interaktiven Alien-Dialoge und das Hintergrunduniversum. „Wir wollten kein Spiel machen, das man einfach spielt – wir wollten ein Universum schaffen, das man bewohnt,“ erinnerte sich Johnson 2001 in einem Interview mit GameSpot.

Eine der größten technischen Besonderheiten von Starflight war seine Programmierung in FORTH und x86-Assembler – eine für damalige Spieleproduktionen sehr ungewöhnliche Wahl. Die Entwickler nutzten FORTH als Metasprache, um die komplexen Verhaltensroutinen und Systemsimulationen effizient zu organisieren, während Performance-kritische Routinen – etwa für die Raumfahrt, Oberflächendarstellung der Planeten oder die Kampfsysteme – in Assemblersprache geschrieben wurden. „Wir haben FORTH verwendet, weil es uns erlaubte, Ideen unglaublich schnell zu testen und zu iterieren – etwas, das in C oder Pascal viel länger gedauert hätte,“ erklärte Greg Johnson. Tim Lee ergänzte später: „Mit FORTH konnten wir eine eigene Umgebung bauen, die genau das tat, was wir wollten – und nichts darüber hinaus.“ Die Kombination machte den Code zwar extrem effizient, aber auch schwer wartbar, was sich später bei Portierungen als Hindernis erwies.

Die größte technische Leistung war die sogenannte fractal terrain generation – ein System, das Planeten mit realistischen Oberflächen aus einem minimalen Datensatz erzeugte. Dadurch konnten die Entwickler ein ganzes Universum mit über 270 Sonnensystemen und rund 800 Planeten erschaffen, ohne die Hardware-Speichergrenzen der Zeit zu sprengen. In einem internen Entwicklungsdokument von 1985 heißt es: „Starflight nutzt ein rekursives Generatorverfahren, das aus 16 Kilobyte Planetendaten mehrere hundert Megabyte an simulierten Geländeinformationen synthetisiert.

Die Hintergrundgeschichte von Starflight spielt im 47. Jahrhundert, auf dem Planeten Arth, einer einstigen Kolonie der Menschheit, deren Ursprünge weitgehend in Vergessenheit geraten sind. Die galaktische Zivilisation wurde vor Jahrhunderten durch eine Katastrophe ausgelöscht, von der man nur noch als die „Zerschlagung“ spricht. Nun liegt es am Spieler, im Auftrag der „Interstel Corporation“ ein neues Erkundungsprogramm zu starten. Das Ziel ist zunächst wirtschaftlicher Natur: den Wiederaufbau durch Rohstoffgewinnung zu sichern. Doch schon bald offenbart sich eine kosmische Bedrohung – eine mysteriöse Energie, die ganze Sterne kollabieren lässt. Im Verlauf des Spiels deckt man nach und nach die Wahrheit über die alte Zivilisation der „Ancients“ auf, die für das Gleichgewicht des Universums verantwortlich war – und erkennt, dass das eigene Volk selbst ein verlorener Teil dieser Zivilisation sein könnte. Die Bedrohung geht letztlich vom „Crystal Planet“ aus, einer künstlich geschaffenen Welt, die das galaktische Zentrum destabilisiert. Um das Universum zu retten, muss der Spieler Artefakte, Technologien und Allianzen finden und schließlich den Kristallplaneten vernichten – nicht mit Gewalt, sondern durch Wiederherstellung der Ordnung. Es ist eine tiefgründige Geschichte über Vergessen, Verantwortung und die Wiederentdeckung der eigenen Herkunft.

Spielerisch kombinierte Starflight Exploration, diplomatische Kommunikation mit außerirdischen Spezies, Ressourcenmanagement, Bergbau, Raumschiff-Upgrade und Echtzeit-Raumkämpfe. Die außerirdischen Rassen – darunter die humorvollen Spemin, die mysteriösen Thrynn, die kriegerischen Uhlek und die hochintelligenten Elowan – wurden per Textdialog beschrieben, deren Antworten sich je nach Spielverlauf und Sprachproben veränderten. Auch die Beziehung zwischen den Spezies – etwa der Konflikt zwischen Thrynn und Elowan – beeinflusste die diplomatischen Optionen des Spielers.

Die Musik im Spiel war spärlich, da die ursprüngliche PC-Version kaum Soundkarten nutzte. Dennoch wurde später eine Version für das Sega Mega Drive (Genesis) erstellt, in der Rob Hubbard, der legendäre Komponist von Monty on the Run und Sanxion, das Musikdesign übernahm. Diese Umsetzung erschien 1991, erhielt gute Kritiken und führte Starflight einem breiteren Publikum zu. Die Genesis-Version erhielt im Magazin GamePro 4 von 5 Sternen und wurde für ihre Tiefe und grafische Umsetzung gelobt.

Die internationale Rezeption der PC-Version war sehr positiv. Die Zeitschrift Computer Gaming World nannte es in ihrer März-Ausgabe 1987 ein „Meisterwerk interaktiven Worldbuildings“ und verlieh ihm eine seltene 5/5-Wertung. In Deutschland vergab die Zeitschrift ASM 11 von 12 Punkten und lobte vor allem die „tiefgreifende Spielmechanik, die sogar Elite in den Schatten stellt“. In Großbritannien wurde Starflight über Ariolasoft vertrieben, war jedoch kommerziell weniger erfolgreich, da dort Commodore- und Spectrum-Systeme dominierten.

Verkaufszahlenmäßig war Starflight für EA ein Überraschungserfolg: Über 500.000 Einheiten wurden bis Anfang der 1990er Jahre verkauft – eine beachtliche Zahl für ein nicht actionorientiertes PC-Spiel jener Zeit. Es zählte zu den meistverkauften Science-Fiction-Spielen vor der Veröffentlichung von Wing Commander. Eine Fortsetzung, Starflight II: Trade Routes of the Cloud Nebula, erschien 1989 und baute die Handels- und Diplomatiesysteme weiter aus, wurde jedoch weniger beachtet.

Produktionstechnisch war das Spiel ein Kraftakt. Der damalige EA-Produzent Joe Ybarra, der auch an M.U.L.E. und The Bard’s Tale mitwirkte, bezeichnete Starflight später als „das einzige Spiel, bei dem ich dachte, dass wir es nie fertigbekommen würden.“ In den internen Unterlagen von EA aus dem Jahr 1986 ist dokumentiert, dass der ursprüngliche Veröffentlichungstermin zweimal verschoben wurde – ein frühes Beispiel für die berüchtigten „Crunch“-Phasen der Spielebranche.

Trivia: Die erste Version des Spiels beinhaltete noch eine Religion namens „Zyphirianer“, die später entfernt wurde, weil man Konflikte mit religiösen Gruppen befürchtete. Ebenso wurde das originale Titelbild, das eine halb entkleidete Außerirdische zeigte, in der finalen Fassung zensiert und ersetzt. Außerdem war ursprünglich ein Koop-Modus geplant, bei dem ein zweiter Spieler die Scanner- oder Kommunikationskonsole übernehmen konnte – dieses Feature fiel den Speicherbeschränkungen zum Opfer.

Starflight inspirierte zahlreiche spätere Spiele – darunter Mass Effect, No Man’s Sky, Star Control und Out There. Die Entwickler Greg Johnson, Rod McConnell und Tim Lee blieben der Spielebranche verbunden. Johnson gründete ToeJam & Earl Productions, während McConnell an frühen Online-Spielen arbeitete. Die Rechte an Starflight lagen später bei EA, wurden aber 2018 temporär freigegeben, woraufhin ein inoffizielles Fanprojekt namens Starflight 3 gestartet wurde – unter Beteiligung von Greg Johnson. Dieses wurde jedoch 2021 aus rechtlichen Gründen eingestellt.

 

The Running Man – 1989 by Emerald Entertainment

The Running Man - 1989 by Emerald Entertainment

Running Man CoverIm Jahr 1989 veröffentlichte GrandSlam Entertainments das Actionspiel The Running Man, eine Adaption des gleichnamigen Films mit Arnold Schwarzenegger aus dem Jahr 1987, der seinerseits lose auf Stephen Kings dystopischem Roman unter dem Pseudonym Richard Bachman basierte. Die Umsetzung war typisch für die späten 1980er, als britische Publisher eilig Lizenzprodukte zu Blockbustern auf den Markt brachten. Entwickelt wurde das Spiel von der irischen Softwareschmiede Emerald Software. Das Kernteam bestand unter anderem aus den Programmierern John Gibson und Jim Baguley, zwei Veteranen der Szene, die zuvor bei Imagine Software und Ocean aktiv waren. Die Musik komponierte Jonathan Dunn, bekannt durch Titel wie Platoon, RoboCop und das musikalisch überraschend gefühlvolle Pictionary.

Die Entwicklung verlief unter Zeitdruck, denn der Veröffentlichungstermin war eng mit der europäischen Heimkino-Verwertung des Films verknüpft. Laut Entwickler John Gibson im Magazin Crash! (Dezember 1989) hatten sie kaum zehn Wochen zur Verfügung: „Wir arbeiteten praktisch ohne Unterbrechung. Schlaf war ein Luxus – die Deadline war gnadenlos.“ Die Ressourcen waren zudem begrenzt: Emerald Software war ein junges Studio mit Ambitionen, aber ohne großes Budget. Vieles wurde improvisiert, Sprites wurden wiederverwendet, und für die Portierungen auf ZX Spectrum und Amstrad CPC musste parallel gearbeitet werden. In der C64- und Amstrad-Version von The Running Man wurden einige Sprite-Grafiken und Animationsroutinen nachweislich aus früheren Projekten von Emerald Software wiederverwendet oder recycelt. Besonders auffällig ist dabei die Ähnlichkeit mit dem Spiel Zombi (1986) und teilweise mit internen Engine-Demos, die nie veröffentlicht wurden.

Ein besonders markantes Beispiel ist der Sprite des „Wachmanns mit Schlagstock“ in The Running Man, der in leicht abgewandelter Farbgebung und Haltung auch in einem frühen Emerald-Prototyp namens Prison Riot auftauchte – ein Titel, der nie das Licht der Öffentlichkeit erblickte. Die Animation des Gehens und der diagonalen Angriffsbewegung sind nahezu identisch. Ein weiteres Beispiel ist der „Feuergegner“ in der zweiten Arena (möglicherweise eine Adaption von Fireball aus dem Film), der auffällig ähnliche Flammen-Frames wie ein Bossgegner aus Zombi verwendet, jedoch in modifizierter Farbpalette und mit angepasstem Sprite-Overlay.

Spielerisch hatte The Running Man nur noch wenig mit der filmischen Vorlage zu tun. Statt tiefgehender Medienkritik und dystopischer Gesellschaftskritik bot das Spiel klassisches Side-Scrolling-Action-Gameplay. Der Spieler übernahm die Rolle von Ben Richards, der sich durch eine Serie futuristischer Arenen schlagen musste, gefüllt mit Fallen, bewaffneten Wachen und Bossgegnern, die lose an Figuren wie Fireball und Subzero aus dem Film angelehnt waren. Die Amiga- und ST-Version boten detaillierte Grafiken und flüssige Animationen, während die 8-Bit-Versionen – besonders auf dem ZX Spectrum – deutlich eingeschränkter daherkamen, aber dennoch mit Charme und technischem Geschick umgesetzt wurden.

Erschienen ist The Running Man auf Commodore 64, ZX Spectrum, Amstrad CPC, Commodore Amiga und Atari ST. Eine PC-DOS-Version war in Vorbereitung, wurde jedoch nie fertiggestellt. Die Amiga-Version wurde von der Presse am besten aufgenommen – CU Amiga vergab 84 % und lobte Grafik und Musik. Das britische Zzap!64 vergab 71 % für die C64-Fassung, während Your Sinclair der Spectrum-Umsetzung 76 % zubilligte. In Frankreich lobte Tilt die visuelle Gestaltung, bemängelte aber die Sprungsteuerung. Micromania in Spanien bewertete das Spiel mit 7 von 10 Punkten – solide, aber kein Überflieger. Deutsche Spielemagazine sahen das anders. Die Power Play vergab in der Ausgabe 7/89 magere 31% für die Amiga Version, während die ASM 4 von 10 Punkten vergab: „Die Grafiken sind schlecht, die Animations-Sequenzen ganz ordentlich, der Sound echt gut. Der eigentliche Spielablauf allerdings lässt, ebenso wie die Steuerung, stark zu wünschen übrig (Manfred Kleimann)“

Kommerziell war das Spiel ein gemäßigter Erfolg. GrandSlam hatte mit einer starken Marke und dem Schwarzenegger-Namen gerechnet, doch der Titel konnte die Erwartungen nicht ganz erfüllen. Die Gesamtverkäufe beliefen sich laut einem geleakten GrandSlam-Dokument, das 2011 im Retro-Netzwerk Lemon64 kursierte, auf rund 35.000 Einheiten über alle Plattformen hinweg. Besonders die C64- und Amiga-Versionen verkauften sich ordentlich, während die 8-Bit-Fassungen hinter den Erwartungen blieben.

Kontrovers war das Spiel vor allem wegen seiner Herkunft. In Deutschland war der Film The Running Man zu dieser Zeit auf dem Index, und auch das Spiel wurde durch Importe in die Hände jugendlicher Spieler gebracht. Die Bundesprüfstelle prüfte das Spiel zwar, verzichtete jedoch auf eine Indizierung – vermutlich weil der Gewaltgrad im Spiel gegenüber dem Film deutlich reduziert war.

Jonathan Dunns Soundtrack – besonders die Amiga-Version mit ihrer futuristisch-dröhnenden Titelmelodie – wurde vielfach gelobt und später auf Remix-Portalen wie AmigaRemix.com neu arrangiert. In der Demo-Szene fand Dunns Titelmusik Eingang in ein Cracktro der Gruppe Fairlight, wo sie unter anderem von dem Coder Laxity modifiziert wurde.

Bemerkenswerterweise war ein Sequel geplant, das jedoch nie erschien: Emerald Software hatte 1990 ein Konzept für The Running Man II entwickelt. Dieses sah eine Mischung aus Stealth, Plattform-Action und strategischem Ressourcen-Management vor. „Es sollte eine Art Metal Gear vor Metal Gear werden,“ so Entwickler Jim Baguley in einem Interview von 2004. GrandSlam zeigte jedoch kein Interesse – laut Baguley, weil die Marke nach dem mittelmäßigen Erfolg des ersten Spiels nicht mehr als zugkräftig galt.

Trivia: In der Amiga-Version versteckt sich im Speicher ein nicht verwendeter Sprite eines Gegners, der stark an den Terminator erinnert – mit Sonnenbrille, Lederjacke und Gewehr. Offenbar eine bewusste Anspielung an Schwarzeneggers andere ikonische Rolle. Außerdem sollte ursprünglich der Moderator Killian (im Film gespielt von Richard Dawson) als finaler Boss auftauchen, wurde aber durch einen gesichtslosen „Game Controller“ ersetzt, da GrandSlam kein Bildrecht erworben hatte.

Gekko Prozessor

Gekko Prozessor

By Baz1521 - ja.wikipedia.org

Im Mai 1999 kündigte Nintendo zusammen mit IBM einen milliardenschweren Vertrag über die Entwicklung eines maßgeschneiderten PowerPC-Mikroprozessors für die nächste Konsolengeneration („Dolphin“, später GameCube) an. Nintendo-Manager Howard Lincoln versprach damals einen “400 MHz” Prozessor, der “das leistungsstärkste Central Processing Unit-System eines jeden derzeitigen oder geplanten Heimvideospiels… sein wird”. IBM verpflichtete sich, den Chip – Gekko genannt – auf Basis seiner PowerPC-Architektur zu entwickeln und in 0,18‑Mikron-Kupfertechnik bei der Fabrik in Burlington, Vermont, zu fertigen. Die offizielle Präsentation bestätigte später einen Takt von 485 MHz für Gekko. Nintendo blieb zwar vage bei Herstellkosten, doch Medienberichte spekulierten, dass der komplette GameCube laut angeblich unbestätigten Quellen nur rund 20 US-Dollar Produktionskosten pro Konsole verursachte (inflationsbereinigt heute etwa 30 Euro). Diese hohe Marge – bei einem UVP von 199 US-Dollar – trug dazu bei, dass Nintendo profitabel blieb, während die Xbox und PS2 teils mit Verlusten operierten.

Technisch ist Gekko ein superskalarer, aus der PowerPC-750-Serie (G3) abgeleiteter 32-Bit-Prozessor. Er verwendet zwei vierstufige Pipelines für Ganzzahlbefehle und eine siebstufige Pipeline für Gleitkommaoperationen. Der Chip enthält zwei 32-Bit-Integer-ALUs und eine 64-Bit-FPU mit 32 64-Bit-Floating-Point-Registern (zusätzlich zu 32 32-Bit-GPR). Die Hardware wurde um spezielle Erweiterungen ergänzt: etwa etwa 50 neue SIMD-Befehle (Single instruction, multiple data), die in einem Takt zwei 32-Bit- oder ein 64-Bit-Gleitkommawert bearbeiten können, sowie eine Write-Gather-Einheit für effizientes Blockschreiben und ein teilweiser L1-Cache als 16 KB Scratchpad. Der Front-Side-Bus arbeitet mit 162 MHz (drei Taktzyklen entspricht dem 486-MHz-Kerntakt). Die Chipfertigung erfolgte in 0,18‑Mikron-Kupferprozess, was IBM als “fortschrittlichste Chiptechnologie” pries. Gekko enthält 64 KB L1-Cache (Code und Daten) und 256 KB L2-Cache on-chip. Durch die kompakte Fertigung blieb der Die-Flächenbedarf klein (unter 45 mm²) und der Stromverbrauch niedrig – nur etwa 5 W unter Volllast.

Die GameCube-Architektur nutzt schnellen 1T-SRAM-Hauptspeicher: 24 MB 1T-SRAM mit etwa 10 ns Zugriffszeit und einem 162-MHz-Bus dienen als Haupt-RAM, ergänzt durch 16 MB langsameren DRAM für Audio und peripherieintensive Aufgaben. Dieser einheitliche Speicherbus ließ CPU und Grafikchip (Flipper) effizient zusammenarbeiten. In Benchmarks konnte ein gleichschnell getakteter x86-Prozessor (etwa ein 733 MHz Pentium III wie in der Xbox) den Gekko klar überholen; jedoch hatte Gekko architektonische Vorteile: umfangreichere Register, neue Instruktionen und vor allem einen deutlich niedrigeren Stromverbrauch. So erzeugt Gekko nur rund ein Drittel der Wärme eines Xbox-CPUs und benötigt weniger Platz, was kostensparend war und Nintendo niedrigere Preise (199 statt 299 US-$) erlaubte.

Zum Vergleich: Sonys PlayStation 2 setzte auf einen 294 MHz MIPS-Prozessor (Emotion Engine) mit integrierten Vektor-Einheiten, Microsofts Xbox nutzte einen 733 MHz Coppermine-Pentium-III. In dieser Generation konnte die Xbox-CPU bezüglich reiner Integer-Leistung oft den Gekko übertreffen, doch die kompliziertere PS2-Architektur galt als schwieriger zu programmieren. Gekko, so versprach Nintendo, übertrifft jedoch jedes gegenwärtige Heim-Videospiel-CPU-System in seiner Rechenleistung. Nintendo-Gründer Shigeru Miyamoto kommentierte enthusiastisch, Gekko eröffne neue Möglichkeiten – etwa ein nächstes Level an Grafik für Spiele wie Zelda.

In wirtschaftlicher Hinsicht war Gekko ein Erfolg: Er steckte in nahezu allen weltweit verkauften GameCubes (ca. 22 Mio. Stück bis 2007), sodass IBM entsprechend viele Chips lieferte. Die genaue Stückzahl der hergestellten Gekko-Prozessoren ist nicht öffentlich, doch IBM-Kenner berichten über zweistellige Millionen­auflagen. Die niedrigen Produktionskosten pro Konsole ließen Nintendo hohe Margen erzielen.

Keith Diefendorff

Keith Diefendorff

Picture from "The New York Times"

Die Entwickler hinter Gekko kamen aus IBM und Nintendo. IBM-Architekten, darunter erfahrene PowerPC-Designer wie Keith Diefendorff (anfangs Lead-Architekt der PowerPC-ISA), sorgten für die Hardwarerealisierung in Burlington. Nintendo-Ingenieure und Manager wie Howard Lincoln (damals Nintendo of America Chairman) leiteten das Projekt intern und dienten als Ansprechpartner bei Messen. Miyamoto, Nintendo-Gründungsmitglied und Grafik-Legende, definierte die Software-Vision, während Grafikingenieur Wei Yen (ehemals SGI, Mitbegründer von ArtX) parallel an der Flipper-GPU arbeitete. Ihre Biografien stehen exemplarisch für den Crossover: erstklassige IBM‑Chipdesigns gepaart mit Nintendo‑Spielideen.

Gekko inspirierte spätere Wii-Ableger: Der Wii-Prozessor Broadway ist praktisch ein 750CL‑Revision mit 50 % höherer Taktrate (729 MHz) und sehr ähnlicher Architektur. Außerhalb von Nintendo-Hardware kam Gekko nur einmal vor: Die Triforce-Arcadeplatine (2002, eine Kooperation von Nintendo, Sega und Namco) verwendete eine GameCube-nahe Hardware mit genau dem IBM-Gekko-CPU. Ansonsten setzten PS2, Xbox und spätere Konsolen auf andere Architekturen (Sony blieb bei MIPS/Cell, Microsoft bei x86 bzw. später PowerPC/Xenon in der Xbox 360), sodass Gekko-Chips exklusive Kernbestandteil der Nintendo-Systemfamilie blieben.

Nintendo stellte den Lizenznehmern für Gekko-Software eine vollständige Entwicklungsumgebung bereit. Als Compiler und IDE nutzte man Metrowerks’ CodeWarrior, das einen stark optimierten C/C++-Compiler und Assembler für den Gekko enthielt. Tatsächlich wurde das GameCube‑Betriebssystem selbst mit CodeWarrior erzeugt, einer integrierte Entwicklungsumgebung der Firma Freescale, die zuvor ein Tochterunternehmen des Chipherstellers Motorola darstellte. Entwickler konnten damit Projekte in einzelne Modulteile (RELs) aufspalten und direkt auf die Konsole laden. Für das Debuggen wurden offizielle Dev‑Konsolen ausgegeben: Nintendo setzte auffällige Blaue (NR Reader) und Rote (NPDP Reader) Prototyp-Units ein, die anstelle von Gamecube‑Discs Spezialmedien lesen konnten. Die NPDP-Einheiten enthielten sogar Festplattenkartuschen und eine PC-Schnittstelle (NPDP-ODEM), um neue Spielversionen schnell vom Entwicklungsrechner in die Hardware zu streamen. Zusätzlich gab es Hilfshardware wie Memory-Card-Emulatoren. Ein klassischer Software-„Simulator“ (Emulator auf dem PC) wurde offiziell nicht benötigt – Nintendo empfahl, direkt auf der Hardware zu entwickeln und CodeWarrior zusammen mit den speziellen Dev-Kits einzusetzen.

Zusammenfassend kombinierten die Gekko-Entwickler IBM‑Chipkompetenz mit Nintendos Spieleanforderungen zu einem effizienten CPU-Design. Trotz der geringeren Rohleistung gegenüber manchen Konkurrenten erwies sich Gekko als kosteneffizient und zuverlässig – ein Schlüsselbestandteil des technisch kompakten GameCube-Systems.

 

Archimedes A7000

Archimedes A7000

Der Archimedes A7000 war einer der letzten klassischen Computer von Acorn Computers Ltd., jener traditionsreichen britischen Firma, die sich bereits in den 1980er Jahren mit ihren innovativen BBC-Mikrocomputern und der Einführung des RISC-Konzepts als Pionier auf dem Heimcomputermarkt etablierte. Der A7000 wurde im Juli 1995 vorgestellt und markierte den Versuch, ein erschwingliches und zugleich leistungsfähiges Modell für den Bildungsbereich und ambitionierte Heimnutzer anzubieten, das die Tugenden seiner Vorgänger mit moderneren Bauteilen verband. Während der A7000 äußerlich kompakter wirkte, verbarg sich unter seinem schlichten grauen Kunststoffgehäuse ein System, das auf RISC OS 3.6 lief und in vielerlei Hinsicht den Brückenschlag zwischen der alten Archimedes-Reihe und den späteren RiscPCs darstellte.

Der A7000 nutzte einen ARM7500-Prozessor, eine Variante des ARM7 mit integrierter MMU, Video- und I/O-Einheiten, die Acorn in Zusammenarbeit mit ARM Ltd. entwarf. Dieser Chip war nicht nur das Herzstück des A7000, sondern auch ein frühes Beispiel für System-on-Chip-Integration, wie sie später im Embedded-Markt und in Smartphones allgegenwärtig wurde. Der ARM7500 lief mit 32 MHz, war sparsamer und effizienter als viele vergleichbare CISC-Prozessoren jener Zeit und setzte ganz auf die Philosophie der reduzierten Befehlssätze (RISC), bei denen einfache Operationen in konstant kurzer Zeit ausgeführt werden, was eine bemerkenswerte Systemreaktionszeit ermöglichte.

Zum Einführungspreis von £799 für das Basismodell mit Monitor entsprach der A7000 im Jahr 1995 einem heutigen Preis von rund 1.650 Euro inflationsbereinigt (Stand 2025), was ihn preislich im oberen Mittelfeld für Schul- und Heimcomputer platzierte. Die Hardware bot dafür eine solide Ausstattung: standardmäßig 4 MB RAM, erweiterbar über einen 72-Pin-FPM-SIMM-Steckplatz. Acorn selbst dokumentierte eine offizielle Obergrenze von 32 MB, da diese Module zur Markteinführung wirtschaftlich und verfügbar waren. Tatsächlich aber kann der A7000 deutlich mehr leisten: Inoffiziell lassen sich Module mit bis zu 128 MB installieren, sofern sie bestimmte elektrische Anforderungen erfüllen, insbesondere eine Single-Sided-Bauweise und eine passende Refresh-Rate. Das Betriebssystem RISC OS 3.6 erkennt den gesamten Speicher, wenn das Modul kompatibel ist, wie zahlreiche Berichte von Nutzern und Entwicklern in der damaligen Community zeigen. In einem Artikel der Zeitschrift Acorn User von 1996 heißt es dazu: „Though Acorn only certifies the A7000 for up to 32 megabytes of RAM, tests with 64 and even 128 meg modules have shown promising results for enthusiasts.“ Damit bot der A7000 eine für damalige Verhältnisse außergewöhnliche Speichererweiterbarkeit, auch wenn diese in offiziellen Unterlagen nicht beworben wurde.

Bei der Massenspeicherung zeigte sich der A7000 flexibel. Je nach Modellvariante kam er entweder mit einer 425-MB- oder einer 540-MB-IDE-Festplatte. Einige OEM-Modelle und Schulausführungen enthielten zusätzlich ein CD-ROM-Laufwerk. Der Nachfolger A7000+ wurde meist mit 1,2-GB-Festplatten ausgeliefert. Die IDE-Schnittstelle erlaubte theoretisch Festplatten bis zu 2 GB, und bei entsprechender Partitionierung mittels Tools wie !HForm konnte auch diese Kapazität genutzt werden. Fortgeschrittene Benutzer berichteten sogar von größeren Laufwerken, die mit mehreren Partitionen über RISC OS 3.6 hinaus betrieben wurden. Diese Flexibilität machte den A7000 auch für anspruchsvollere Anwendungen attraktiv, insbesondere in Netzwerken oder in schulischen Umgebungen mit zentralisierter Datenspeicherung.

Als Betriebssystem diente RISC OS 3.6, ein grafisch orientiertes System mit WIMP-Oberfläche, das vollständig in ARM-Assembler und BBC BASIC geschrieben wurde. Die Desktop-Umgebung war durch ihr modulares Fenster-Management und Drag-and-Drop-Bedienung ihrer Zeit voraus. Besonders hervorzuheben war die konsequente Integration der Anwendung mit dem Dateisystem über sogenannte „Application Directories“. In der Presse wurde dies gelobt: „RISC OS remains a highly productive environment, despite the dominance of Windows 95. The Archimedes still feels faster and cleaner.“ schrieb das britische Magazin Acorn User im November 1995.
Die Bildschirmauflösungen reichten je nach angeschlossenem Monitor und VRAM-Konfiguration von 640×480 bis zu 1024×768 bei 256 Farben. Dank des integrierten Videokerns im ARM7500 war der A7000 in der Lage, bis zu 16 Millionen Farben darzustellen, allerdings nur in niedrigeren Auflösungen und bei ausreichendem VRAM. Standardmäßig wurden 256 Farben verwendet – ausreichend für die meisten Anwendungen im Bildungsbereich, aber nicht für grafikintensive Software. Der Soundchip war in den ARM7500 integriert und bot 8-Bit-Stereoausgabe mit bis zu vier Kanälen. Klanglich übertraf der A7000 viele integrierte PC-Lösungen seiner Zeit, insbesondere durch geringere Latenz und klare Signalverarbeitung, wenngleich keine dedizierte Hardware für Effekte oder MIDI integriert war.

Anschlusstechnisch bot das System zwei serielle Ports, einen parallelen Port, analoge und digitale Monitorausgänge, Audioanschlüsse für Lautsprecher, Mikrofon und Kopfhörer sowie Maus- und Tastaturports. Erweiterungskarten konnten über einen internen Pod mit Risercard angeschlossen werden, was spätere Nachrüstungen mit SCSI, Netzwerkkarten oder Genlock-Lösungen ermöglichte. Optional geplante Peripheriegeräte wie ein TV-Out-Modul oder spezielle Scannereinheiten kamen jedoch nicht offiziell auf den Markt, auch wenn Drittanbieter Lösungen anboten.

Hinter der Entwicklung des A7000 stand ein Team unter Leitung von Steve Furber, der zusammen mit Sophie Wilson bereits den ursprünglichen ARM-Prozessor für den BBC Micro entworfen hatte. Furber, ein promovierter Elektrotechniker der Universität Cambridge, war bekannt für seine Philosophie der einfachen, eleganten Hardwarelösungen, während Wilson durch ihre Arbeit an BBC BASIC und dem frühen ARM-Instruction Set Pionierarbeit im Bereich effizienter Mikroarchitekturen leistete. Beide arbeiteten seit den frühen 1980er-Jahren bei Acorn und prägten die DNA der Firma entscheidend. Weitere Beteiligte waren unter anderem Mike Muller, der später Mitbegründer von ARM Holdings wurde.

Verkaufszahlen des A7000 lassen sich nur schätzen, doch laut einem Bericht im Daily Telegraph von 1996 wurden über 25.000 Einheiten allein im britischen Bildungsbereich verkauft. Der Computer war insbesondere in Schulen beliebt, wo seine Robustheit, das leise Betriebsverhalten und die einfache Wartung geschätzt wurden. Im Vergleich zu PCs mit Windows 95 war der A7000 in der Bootzeit, Bedienbarkeit und Wartung oft überlegen – allerdings hinkte er in der Softwareauswahl deutlich hinterher. Während der A7000 im professionellen Bildungssektor punktete, war er für Privatanwender im Multimedia- und Spielebereich weniger attraktiv, was seine Verbreitung außerhalb von Schulen bremste.

Ein Zitat aus dem Acorn-Pressebüro von 1996 bringt die Philosophie des A7000 auf den Punkt: „The A7000 was never meant to compete in raw speed. It's about stability and purpose.“ Und genau dafür stand er – als stabiler, eleganter Computer mit klarem Fokus. Auch wenn er dem internationalen PC-Markt nicht standhalten konnte, bleibt der A7000 ein letzter Meilenstein der britischen RISC-Computer-Ära, geschätzt für seine Ingenieurskunst, Klarheit und die leise Souveränität einer Architektur, die nie auf den Massenmarkt schielte, sondern auf Langlebigkeit und Klarheit.