Ein Fisch im Aquarium – Wie Fred Fish dem Amiga Leben einhauchte

Ein Fisch im Aquarium erfüllt einen klaren Zweck. Er bringt Leben hinein, sorgt für Bewegung, manchmal auch für ein gewisses Gleichgewicht. Ohne ihn wirkt alles schnell leer, fast schon steril. Beim Amiga war es nicht viel anders – auch hier gab es jemanden, der die Szene nicht nur mit Inhalten versorgte, sondern sie überhaupt erst in Bewegung hielt: Fred Fish.

Während sich in den 1980er-Jahren ein erheblicher Teil der Diskussionen um Kopierschutz, Raubkopien und technische Gegenmaßnahmen drehte, verfolgte Fish längst einen anderen Ansatz. Für ihn stand nicht die Frage im Vordergrund, wie man Software schützt, sondern wie man sie zugänglich macht.

Das Umfeld, in dem er sich bewegte, war dabei alles andere als eindeutig. Software war teuer, oft schwer erhältlich und nicht selten mit Schutzmechanismen versehen, die mehr Frust als Nutzen erzeugten. Gleichzeitig entwickelte sich eine Szene, die genau diese Hürden systematisch aushebelte. In zeitgenössischen Interviews wurde offen darüber gesprochen, dass diejenigen, die Kopierschutz umgingen, häufig technisch versierter waren als jene, die ihn entwickelten.

Fish entzog sich dieser Logik.

Während andere versuchten, Software zu schützen oder Schutzmechanismen zu überwinden, arbeitete er an einem System, das diese Frage schlicht überflüssig machte. Wenn Programme frei verfügbar sind, verliert die Diskussion um illegale Kopien ihren Kern.

Gleichzeitig wurde in späteren Rückblicken immer wieder betont, wie ungewöhnlich dieser Ansatz in seiner Zeit war:

Fred Fish made software freely available at a time when that was far from common practice.“ („Fred Fish machte Software frei verfügbar zu einer Zeit, in der das alles andere als selbstverständlich war.“)

Was heute als Grundgedanke freier Software erscheint, war Mitte der 1980er-Jahre noch keineswegs etabliert – vielmehr setzte Fish hier bewusst einen Gegenpol zur damals dominierenden Praxis.

Dabei war die Idee selbst keineswegs neu. Public-Domain-Software existierte bereits zuvor in verschiedenen Heimcomputer-Communities – oft lose organisiert, über Usergroups verteilt oder in Form unstrukturierter Diskettensammlungen weitergegeben.

Fred Fish erfand dieses Modell nicht – aber er war einer der ersten, die ihm auf dem Amiga eine klare Form und vor allem eine verlässliche Struktur gaben.

Mit seinen sogenannten „Amiga Library Disks“, die später unter dem Namen „Fish Disks“ bekannt wurden, etablierte er ein System, das weit über eine bloße Sammlung hinausging. Interessanterweise war diese Bezeichnung ursprünglich gar nicht offiziell. Sie entstand vielmehr innerhalb der Community selbst und setzte sich mit der Zeit durch.

Häufig wird berichtet, dass der Begriff bei einem Treffen der Jersey Amiga User Group geprägt wurde, unter anderem im Umfeld von Perry Kivolowitz. Ob dieser Moment tatsächlich der Ursprung war oder sich der Name eher schleichend etablierte, lässt sich heute nicht mehr eindeutig klären – doch genau diese Art von inoffizieller Namensgebung passt zur Entstehungsgeschichte der Diskettenreihe.

Denn sie war nie als Marke gedacht, sondern als etwas, das sich aus der Nutzung heraus entwickelte – getragen von den Menschen, die sie weitergaben.

Verbreitet wurden diese Disketten über ein Netzwerk, das heute fast archaisch wirkt, damals jedoch erstaunlich effizient war. Usergroups spielten dabei eine zentrale Rolle, ebenso spezialisierte Händler und nicht zuletzt der Postversand. Wer Zugang zu einer aktuellen Disk hatte, konnte sie legal kopieren und weitergeben – oft gegen eine geringe Gebühr, die lediglich die Kosten für Rohlinge und Versand deckte. Auf diese Weise entstand ein Kreislauf, der ohne zentrale Kontrolle funktionierte und dennoch eine erstaunliche Reichweite entwickelte.

Was seine Disketten von vielen früheren Sammlungen unterschied, war die Konsequenz, mit der sie zusammengestellt wurden. Jede Ausgabe war nummeriert, dokumentiert und redaktionell betreut. Programme wurden nicht einfach kopiert, sondern ausgewählt, beschrieben und in einen nachvollziehbaren Zusammenhang gebracht.

Damit entstand etwas, das es in dieser Konsequenz zuvor kaum gegeben hatte: eine vertrauenswürdige Quelle frei verfügbarer Software.

Gerade in einer Zeit, in der Diskettenkopien häufig mit fehlerhaften Versionen, unklarer Herkunft oder manipulierten Programmen verbunden waren, schuf Fish damit einen Gegenpol. Was auf seinen Disketten landete, war nicht zufällig – es war geprüft, eingeordnet und bewusst zur Weitergabe gedacht.

Ein Blick in eine seiner frühen Veröffentlichungen aus dem Jahr 1986 zeigt, wie sehr seine Auswahl von Anfang an geprägt war. Statt vor allem Spiele zu verbreiten, listete er Programme wie ein „Unix-like frontend for Lattice C compiler“, Debugging-Werkzeuge oder Varianten des „make“-Systems auf.

Damit setzte er einen Akzent, der nicht dem gängigen Bild des Amiga entsprach. Während das System öffentlich vor allem als Grafik- und Spieleplattform wahrgenommen wurde, zeigte Fish eine andere Seite: den Amiga als Entwicklungsumgebung.

Diese Nähe zur Unix-Welt war kein Zufall, sondern Ausdruck seiner eigenen Arbeitsweise. Konzepte wie Modularität, Wiederverwendbarkeit und offene Strukturen durchzogen sowohl die Inhalte seiner Disketten als auch seine späteren Projekte.

Und genau hier wird deutlich, dass die Fish Disks nur ein Teil seines Wirkens waren.

Fred Fish, geboren am 4. November 1952, blieb zeitlebens eine vergleichsweise zurückhaltende Figur. Während seine Arbeit innerhalb der Amiga-Szene eine enorme Verbreitung fand, trat er selbst nur selten in den Vordergrund. Interviews sind vergleichsweise rar, und wenn er sich äußerte, dann meist zu technischen Themen, weniger zu seiner eigenen Person.

Parallel dazu bewegte sich Fish längst in der professionellen Softwareentwicklung. Im Umfeld des GNU Debugger wurde seine Rolle dabei ungewöhnlich konkret beschrieben: „Fred contributed enormously to GDB, especially in the area of command completion and System V support.“ („Fred hat enorm viel zu GDB beigetragen, insbesondere im Bereich der Befehlsvervollständigung und der System-V-Unterstützung.“) Solche Aussagen stammen nicht aus der Rückschau von außen, sondern aus Entwicklerkreisen selbst – und sie zeigen, dass Fish auch jenseits der Amiga-Welt als prägender Mitwirkender wahrgenommen wurde.

Diese technische Arbeit war dabei kein Widerspruch zu seiner früheren Tätigkeit, sondern vielmehr deren logische Fortsetzung. Seine Haltung blieb über die Jahre konsistent, wie es in Nachrufen treffend formuliert wurde:

„He believed strongly in sharing software and knowledge.“ („Er war zutiefst davon überzeugt, dass Software und Wissen geteilt werden sollten.“)

In den 1990er-Jahren arbeitete Fish zudem für Cygnus Solutions, ein Unternehmen, das sich auf den Support freier Software spezialisiert hatte und damit eine Schlüsselrolle in der frühen Open-Source-Bewegung einnahm. Auch hier zeigt sich die gleiche Linie: Software nicht nur bereitzustellen, sondern sie in funktionierende, stabile Systeme zu überführen.

Später wandte er sich mit BeOS einer Plattform zu, die in vielerlei Hinsicht an die ursprünglichen Ideale des Amiga erinnerte. Mit dem Projekt GeekGadgets entwickelte er eine GNU-basierte Entwicklungsumgebung für Systeme wie AmigaOS und BeOS – eine Brücke zwischen unterschiedlichen Softwarewelten.

Auf dem Amiga spielte dabei insbesondere die ixemul-Bibliothek eine zentrale Rolle, die Unix-Systemaufrufe in die Logik von AmigaOS übersetzte. Auch hier zeigt sich erneut das gleiche Prinzip: vorhandene Systeme nicht zu ersetzen, sondern sie zu erweitern und zugänglich zu machen.

Organisatorisch blieb Fish sich ebenfalls treu. Er betrieb eigene Infrastruktur, stellte regelmäßig aktualisierte Software-Sammlungen bereit und nutzte sogar Abonnementmodelle für CD-Snapshots, um die Verbreitung seiner Arbeit zu sichern. Struktur, Kontinuität und Verlässlichkeit waren dabei keine Nebenprodukte, sondern bewusst gewählte Prinzipien.

Als Fred Fish im April 2007 verstarb, verlor die Szene nicht nur einen Entwickler, sondern eine ihrer prägenden Figuren. Weggefährten erinnerten sich an ihn als jemanden, der Wissen nicht zurückhielt, sondern bewusst weitergab.

Rückblickend wird deutlich, dass die Fish Disks nur der sichtbarste Ausdruck dieser Haltung waren.

Sie stehen für eine Idee, die sich durch sein gesamtes Schaffen zog: Software sollte zugänglich sein, verstanden werden können und die Möglichkeit bieten, darauf aufzubauen.

Und genau darin liegt vielleicht sein eigentlicher Beitrag.

Während andere versuchten, Software zu schützen oder zu kontrollieren, schuf Fred Fish ein System, das auf Offenheit beruhte – und damit die ursprüngliche Frage nach Kopierschutz auf eine Weise beantwortete, die kaum direkter hätte sein können.

Oder, um bei dem Bild vom Anfang zu bleiben:

Ein Aquarium kann technisch noch so ausgefeilt sein – ohne das Leben darin bleibt es leer.

Der Amiga hatte dieses Leben.
Und Fred Fish war einer derjenigen, die dafür sorgten, dass es überhaupt entstehen konnte.

Video Technology Laser 50 – Wenn BASIC in die Jackentasche wanderte

Es ist Mitte der 1980er Jahre, und während Systeme wie der Commodore 64 oder der ZX Spectrum den heimischen Schreibtisch erobern, verfolgt ein Hersteller aus Hongkong einen anderen Ansatz: Computer sollen nicht nur zu Hause stehen, sondern überallhin mitgenommen werden können – und vor allem eines tun: Programmieren lehren. In genau diesem Spannungsfeld entsteht der Video Technology Laser 50, ein Gerät, das sich selbstbewusst als „BASIC learning tool that teaches you BASIC“ bezeichnete.

Hergestellt wurde der Rechner von VTech, einem Unternehmen, das in den 1980er Jahren sowohl im Bereich preisgünstiger Lernsysteme als auch bei kompatiblen Heimcomputern aktiv war. Der Laser 50 erschien um 1984/85 und wurde je nach Markt unterschiedlich vertrieben – in Frankreich etwa unter der Bezeichnung „Laser One“. Technisch blieb das System dabei unverändert, doch die Umbenennung unterstreicht die Positionierung als Einsteigergerät.

Auf den ersten Blick wirkt der Laser 50 eigenwillig. Statt eines klassischen Bildschirms besitzt er ein einzeiliges LCD mit lediglich 16 Zeichen. Programme müssen daher horizontal durch den Text scrollen, was die Arbeit verlangsamt und eine gewisse Disziplin beim Programmieren erfordert. Im Inneren arbeitet ein Z80-kompatibler Prozessorkern, allerdings nicht als klassischer Einzelchip. Während Systeme wie der Sinclair ZX81 noch klar getrennte Komponenten für CPU, RAM und ROM zeigen, setzt der Laser 50 auf eine stark integrierte Bauweise. Prozessorfunktion, Tastatursteuerung und Displaylogik sind in wenigen spezialisierten Bausteinen zusammengefasst – ein Ansatz, der Kosten spart, aber zugleich Einblicke und Erweiterungen erschwert.

Der Arbeitsspeicher beträgt lediglich 2 Kilobyte RAM, was den verfügbaren Spielraum deutlich begrenzt. Über einen Erweiterungsanschluss lässt sich der Speicher jedoch auf bis zu 16 Kilobyte ausbauen, wodurch sich komplexere Programme realisieren lassen. Trotz dieser Einschränkung war das System in der Lage, bis zu zehn BASIC-Programme gleichzeitig zu verwalten. Diese blieben im Speicher erhalten, solange die Stromversorgung nicht vollständig unterbrochen wurde – ein Detail, das im Alltag überraschend praktisch war.

Der Laser 50 versteht sich klar als Lernsystem. Das Handbuch wird in zeitgenössischen Beschreibungen als besonders zugänglich und praxisnah geschildert, mit zahlreichen Beispielprogrammen und erklärenden Abschnitten. Ergänzt wird dies durch einen Trace-Modus, der Programme schrittweise ausführt und so den Ablauf einzelner Befehle sichtbar macht. Variablen lassen sich dabei beobachten, was das Verständnis von Programmstrukturen erleichtert. Für ein Gerät dieser Größenklasse ist das bemerkenswert konsequent umgesetzt.

Im praktischen Einsatz treten jedoch schnell die Grenzen zutage. Die Tastatur ist vollständig, aber ungewöhnlich angeordnet; insbesondere die Position der Leertaste verlangt Eingewöhnung. Hinzu kommt eine technische Einschränkung, die sich im Alltag bemerkbar macht: Das System verarbeitet Eingaben nur bis zu einer Geschwindigkeit von etwa 20 Wörtern pro Minute zuverlässig. Schnellere Eingaben führen zu ausgelassenen oder doppelt registrierten Zeichen – ein Effekt, der den Arbeitsfluss spürbar beeinflussen kann.

Neben dem Computerbetrieb verfügt der Laser 50 über einen integrierten Taschenrechner-Modus mit wissenschaftlichen Funktionen. Diese Kombination aus Programmierumgebung und Rechenwerkzeug verdeutlicht die Zielgruppe: Schüler, Einsteiger und Anwender, die unterwegs einfache Berechnungen durchführen oder kleine Programme nutzen wollten. Zubehör wie Kassettenrekorder, Thermodrucker oder sogar ein vierfarbiger Plotter erweiterten die Einsatzmöglichkeiten, auch wenn solche Peripherie vermutlich nur von einem kleinen Teil der Nutzer tatsächlich eingesetzt wurde.

Preislich bewegte sich der Laser 50 nach zeitgenössischen Einschätzungen im Bereich von etwa 100 bis 150 US-Dollar, was inflationsbereinigt heute ungefähr 280 bis 450 Euro entspricht. Damit lag er deutlich unter klassischen Heimcomputern, aber über einfachen Taschenrechnern – eine Zwischenposition, die seine Rolle im Markt treffend beschreibt.

Im Vergleich zu tragbaren Systemen wie dem TRS-80 Pocket Computer zeigt sich, dass der Laser 50 zwar komfortabler zu bedienen war, jedoch nicht die Leistungsfähigkeit eines vollwertigen Heimcomputers erreichte. Gleichzeitig fehlte ihm eine breitere Softwarebasis, was seine langfristige Nutzung einschränkte.

Über das Gerät selbst ist heute nur wenig dokumentiert. Zeitgenössische Testberichte sind selten, technische Unterlagen nur fragmentarisch erhalten. Ein Großteil des Wissens basiert auf erhaltenen Geräten, Handbüchern und späteren Analysen durch Sammler. Diese lückenhafte Quellenlage ist jedoch kein Zufall, sondern typisch für eine Geräteklasse, die eher als Lernwerkzeug denn als Plattform für eine wachsende Softwarekultur gedacht war.

Der Laser 50 ist damit kein System, das durch Leistung oder Verbreitung auffiel, sondern eines, das einen sehr spezifischen Ansatz verfolgte: Programmieren zugänglich zu machen, ohne die Hürde eines großen, teuren Heimcomputers. Gerade diese Zwischenstellung macht ihn heute interessant – als Zeugnis einer Phase, in der Computer klein genug wurden, um sie mitzunehmen, aber noch weit davon entfernt waren, universell einsetzbar zu sein.

Rocket Ranger – Ein Held, ein Raketenrucksack und ein Handbuch, das mit dem Tod droht

Was wäre, wenn der Zweite Weltkrieg nicht so ausgegangen wäre, wie wir ihn kennen? Wenn nicht Befreiung und Wiederaufbau folgten, sondern eine Welt, in der ein technologisch überlegener Gegner den Verlauf der Geschichte dauerhaft verändert hätte? Solche „What if“-Szenarien sind heute fest im kulturellen Gedächtnis verankert, doch bereits Ende der 1980er Jahre griff ein Studio diese Idee auf, das für seine besondere Verbindung aus Spiel und Inszenierung bekannt war: Cinemaware. Mit Rocket Ranger entstand 1988 ein Titel, der weniger wie ein klassisches Spiel wirkte, sondern eher wie ein interaktiver Abenteuerfilm – mit all seinen Stärken und Eigenheiten.

Die Handlung setzt im Jahr 1940 an, allerdings in einer alternativen Realität. Der Spieler übernimmt die Rolle eines amerikanischen Agenten, der mit einer außergewöhnlichen Situation konfrontiert wird: Wissenschaftler aus der Zukunft senden ihm einen Raketenrucksack und eine Strahlenwaffe, um den drohenden Sieg der Achsenmächte zu verhindern. Entscheidend ist dabei die Perspektive – man spielt keinen Zeitreisenden, sondern einen Mann seiner Zeit, der plötzlich Zugang zu Technologie erhält, die weit über das hinausgeht, was 1940 möglich wäre. Diese Prämisse verleiht dem Spiel eine eigene Dynamik und unterscheidet es klar von späteren Zeitreise-Erzählungen.

Spielerisch verbindet Rocket Ranger mehrere Ebenen. Auf einer strategischen Weltkarte werden Missionen geplant, Agenten eingesetzt und Ressourcen – insbesondere das seltene Lunarium – verwaltet. Diese strategische Komponente wird immer wieder durch actionreiche Sequenzen unterbrochen: Luftkämpfe gegen feindliche Jäger, Infiltrationen feindlicher Basen, Faustkämpfe oder das spektakuläre Starten des Raketenrucksacks. Gerade diese Mischung machte das Spiel reizvoll, aber auch fordernd. Viele Spieler scheiterten zunächst nicht an der Schwierigkeit, sondern daran, überhaupt zu verstehen, wie man eine Mission korrekt initiiert – ein Umstand, der dem Spiel bis heute einen gewissen Ruf der „Eigenwilligkeit“ eingebracht hat.

Technisch wurde das Spiel primär für den Commodore Amiga entwickelt und nutzt dessen Fähigkeiten konsequent aus. Die Kombination aus 16-Bit-CPU, Custom-Chips und Mehrkanal-Sound ermöglichte eine Präsentation, die sich stark an filmischen Vorbildern orientierte. Zwischensequenzen, Kamerafahrten und musikalische Untermalung erzeugten eine Atmosphäre, die sich deutlich von typischen Action- oder Strategiespielen abhob.

Erst im Vergleich der zahlreichen Umsetzungen wird jedoch deutlich, wie unterschiedlich sich dieses Konzept je nach Plattform entfaltet. Die Amiga-Version gilt als Referenz, da sie die visuelle und akustische Vision von Cinemaware am vollständigsten umsetzt. Die Umsetzung für den Atari ST wirkt im direkten Vergleich reduzierter, insbesondere durch die eingeschränkte Farbpalette, während frühe MS-DOS-Versionen zwar schärfere Darstellungen ermöglichen konnten, aber klanglich deutlich hinter dem Amiga zurückblieben.

Die Version für den Commodore 64 hingegen ist ein bemerkenswertes Beispiel technischer Anpassung. Ein ursprünglich für 16-Bit-Systeme konzipiertes Spiel wurde hier auf eine deutlich schwächere Hardware übertragen – mit sichtbaren Kompromissen, aber erstaunlicher Nähe zum Original. ZZAP!64 formulierte es treffend:

“The graphics, the sound, the presentation… just pushes the 64 right to the limit of its capabilities.”
(„Grafik, Sound und Präsentation bringen den C64 an die absoluten Grenzen seiner Möglichkeiten.“)

Die Nintendo Entertainment System-Version geht einen anderen Weg. Sie ist stärker vereinfacht, fokussiert sich mehr auf Action und reduziert die strategischen Elemente. Gleichzeitig wurden Inhalte angepasst, um den Richtlinien des Konsolenmarktes zu entsprechen.

Eine technisch besonders interessante Variante stellt die Umsetzung für den FM Towns dar. Dieses System ermöglichte durch CD-Technologie und erweiterte Multimedia-Fähigkeiten eine deutlich verbesserte Präsentation. Farben wirken satter, Audioelemente hochwertiger, und die cineastische Inszenierung kommt dem ursprünglichen Anspruch besonders nahe – in einigen Aspekten sogar stärker als auf den ursprünglichen Zielplattformen.

Auch auf Systemen wie Apple IIgs oder späteren PC-Konfigurationen zeigt sich, wie unterschiedlich das Spiel interpretiert wurde. Rocket Ranger ist damit kein einheitliches Erlebnis, sondern ein Titel, dessen Charakter sich je nach Plattform merklich verändert.

Ein besonders spannender Aspekt zeigt sich bei den internationalen Versionen. In Deutschland wurde das Spiel deutlich entschärft. Die nationalsozialistischen Gegner wurden durch außerirdische Invasoren ersetzt, die sogenannten „Leutonians“. Diese Anpassung entstand nicht zufällig, sondern aus der damaligen Praxis der Bundesprüfstelle für jugendgefährdende Medien, die Darstellungen des Dritten Reichs kritisch prüfte. Eine Indizierung hätte massive wirtschaftliche Folgen gehabt, da betroffene Spiele praktisch nicht mehr verkauft werden konnten.

Interessant ist dabei die Umsetzung dieser Zensur: Während Texte und Bezeichnungen geändert wurden, blieben die grafischen Darstellungen weitgehend unverändert. Zeppelin-Luftschiffe, Uniformen und Jagdflugzeuge entsprachen weiterhin klar historischen Vorbildern. Dadurch entstand eine bemerkenswerte Inkonsistenz: Eine angeblich technologisch überlegene Alienrasse griff mit Technik an, die eindeutig aus den 1930er und 1940er Jahren stammte. Gerade dieser Widerspruch verleiht der zensierten Version heute eine fast unfreiwillige Eigenart.

Ein oft unterschätzter Bestandteil des Spiels ist das Handbuch, das weit über eine klassische Anleitung hinausgeht. Es fungiert als erzählerischer Rahmen und vermittelt die düstere Ausgangslage bereits vor Spielbeginn:

“One hundred years ago, in 1940, the Nazis won World War II…”
(„Vor hundert Jahren, im Jahr 1940, haben die Nazis den Zweiten Weltkrieg gewonnen…“)

Im weiteren Verlauf wird die Situation drastischer geschildert:

“We live and work as virtual prisoners…”
(„Wir leben und arbeiten als Gefangene…“)

Selbst technische Hinweise sind in diesen Ton eingebettet:

“Reichlaw… under penalty of death.”
(„…bei Androhung der Todesstrafe.“)

Und schließlich endet die Einleitung abrupt:

“The Gestapo is at the door… goodbye and good luck!”
(„Die Gestapo steht vor der Tür…“)

Diese Mischung aus Science-Fiction, schwarzem Humor und beklemmender Atmosphäre verstärkt die Wirkung des Spiels erheblich und zeigt, wie bewusst Cinemaware auch außerhalb des eigentlichen Spiels an der Inszenierung arbeitete.

Die zeitgenössische Presse reagierte entsprechend vielschichtig. Während viele Magazine die audiovisuelle Präsentation hervorhoben, wurden Gameplay und Struktur differenzierter bewertet. Computer and Video Games schrieb:

“Rocket Ranger is without doubt Cinemaware’s best game to date…”
(„Rocket Ranger ist ohne Zweifel Cinemawares bestes Spiel bis dahin…“)

fügte jedoch hinzu:

“There is a certain inevitable amount of repetition involved…”
(„Es gibt eine gewisse unvermeidliche Wiederholung…“)

Die ASM formulierte es direkter:

„Grafik und Sound sind Spitzenklasse… hinter der tollen Aufmachung verbergen sich recht normale Action- und Taktik-Spielereien.“

Und die Power Play ergänzte kritisch:

„Hat man das Spiel einmal geschafft, ist die Motivation dahin.“

Dennoch lagen die Wertungen insgesamt auf hohem Niveau: rund 95 % bei ZZAP!64, etwa 86 % bei Computer and Video Games und sogar 97 % bei Amiga User International. Diese Spannbreite zeigt deutlich, wie stark das Spiel von der Perspektive des jeweiligen Testers abhing.

Preislich bewegte sich Rocket Ranger zur Veröffentlichung im oberen Segment. In Großbritannien lag der Preis bei etwa £24,95, was inflationsbereinigt heute ungefähr 80–90 Euro entspricht. Budget-Versionen – etwa über Labels wie Kixx oder ähnliche Reihen – senkten den Preis später deutlich und trugen dazu bei, dass das Spiel eine breitere Verbreitung fand.

In der Rückschau lässt sich Rocket Ranger weniger als klassisches Spiel im engeren Sinne verstehen, sondern als ein Experiment. Cinemaware versuchte, filmische Erzählweise, strategische Elemente und actionreiche Sequenzen zu verbinden. Nicht jede dieser Komponenten greift perfekt ineinander, doch gerade diese Mischung verleiht dem Titel seinen charakteristischen Platz in der Geschichte der Heimcomputer-Ära.

 

Apple II: Als der Computer plötzlich Farbe bekam – und einen Platz auf dem Schreibtisch

FozzTexx, CC BY-SA 4.0 (Wikimedia Commons)

Ein leises Klicken von Steckkontakten, der Geruch erhitzten Lötzinns, ein Schaltplan, der über Stunden hinweg auf einem Zeichenbrett wächst – doch in diesem Moment ist es mehr als nur Technik. Es ist die Vorstellung eines Computers, der nicht hinter Glasscheiben in Laboren steht, sondern auf einem Schreibtisch, erreichbar, verständlich, unmittelbar. So beginnt die Geschichte des Apple II nicht als Produktidee, sondern als persönliche Obsession. Steve Wozniak war kein Unternehmer im klassischen Sinn, sondern ein Ingenieur, der sich seit seiner Jugend mit dem Entwurf eigener Computersysteme beschäftigte. Während andere Systeme der Mitte der 1970er Jahre aus Schaltern, Leuchtdioden und Frontpanels bestanden, verfolgte er eine andere Vorstellung: ein Rechner, den man direkt bedienen konnte, mit Tastatur, Bildschirm und einer Programmiersprache, die ohne Umwege reagierte.

Der erste greifbare Schritt in diese Richtung war der Apple I, ein handverdrahteter Rechner, den Wozniak im Umfeld des Homebrew Computer Club präsentierte. Dort zeigte sich jedoch schnell, dass das Interesse über die reine Bastlerszene hinausging. Wozniak selbst trat zurückhaltend auf; er brachte seine Geräte mit, stellte sie auf einen Tisch und ließ andere die Fragen stellen. Erst das Feedback von Gleichgesinnten bestätigte ihm, dass seine Ideen auch außerhalb seiner eigenen Werkbank Relevanz hatten. Parallel erkannte Steve Jobs, dass sich aus diesen Konstruktionen ein Geschäft entwickeln ließ. Die oft zitierte Episode um Paul Terrell markiert dabei einen entscheidenden Wendepunkt: Statt einzelner Platinen wollte der Händler vollständig aufgebaute Computer verkaufen.

Doch gerade in diesem Moment zeigte sich auch die Grenze des Apple I. Für Wozniak war er ein Zwischenschritt. Als er begann, mit Farbgrafik zu experimentieren, wurde deutlich, dass sich diese nicht sinnvoll in das bestehende Design integrieren ließ. Die Konsequenz war ein vollständiger Neuentwurf – ein Rechner, dessen Zentrum nicht der Prozessor, sondern die Videoerzeugung war.

Diese Entscheidung prägte den Apple II fundamental. Während konkurrierende Systeme wie der Commodore PET oder der TRS-80 Model I auf Monochromdarstellung setzten, nutzte der Apple II gezielt die Eigenschaften des NTSC-Signals zur Farberzeugung. Das sogenannte Artifact Coloring ermöglichte es, mit minimaler Hardware farbige Darstellung zu erreichen – ein Ansatz, der weniger auf zusätzliche Chips als auf präzises Timing setzte.

Ein Detail, das dabei oft übersehen wird, ist die enge Kopplung zwischen Systemtakt und Videoerzeugung. Der Apple II arbeitete mit einer MOS 6502 CPU, die mit etwa 1,023 MHz getaktet war – genauer gesagt ein Bruchteil der NTSC-Farbträgerfrequenz. Dieser Takt bestimmte nicht nur die Rechengeschwindigkeit, sondern auch die Videogenerierung und sogar Teile des Diskettenzugriffs.

Besonders bemerkenswert ist dabei die Rolle des Grafiksystems selbst. Der Apple II besaß keinen klassischen Grafikchip. Stattdessen war der Grafikgenerator so aufgebaut, dass er gleichzeitig den Refresh des dynamischen RAMs übernahm. Speicher und Bildausgabe waren damit untrennbar miteinander verbunden – eine Konstruktion, die Hardware sparte, aber höchste Präzision erforderte.

Was in der damaligen Außendarstellung oft nur am Rande erwähnt wurde, zeigt sich in technischen Dokumenten deutlich konkreter: Der Apple II war kein einheitlich konfiguriertes System, sondern eine Plattform, deren Leistungsfähigkeit stark von der jeweiligen Bestückung abhing. Bereits frühe Modelle konnten sowohl mit 4 KB als auch mit bis zu 48 KB RAM ausgeliefert werden.

Interessant ist dabei, dass Apple früh zwischen verschiedenen Speicherlösungen wechselte. Dynamischer RAM ermöglichte niedrigere Preise, erforderte jedoch zusätzliche Logik. Die Architektur blieb bewusst offen: Erweiterungsslots erlaubten es, Speicher, Schnittstellen oder Controllerkarten direkt zu integrieren.

Diese Ausrichtung blieb auch der Fachpresse nicht verborgen. BYTE Magazine beschrieb den Apple II als „one of the most complete microcomputer systems available“ („eines der vollständigsten Mikrocomputersysteme, die verfügbar sind“) – eine Einschätzung, die vor allem die ungewöhnliche Kombination aus Bedienbarkeit und Erweiterbarkeit widerspiegelt.

Was diese technische Eleganz im Alltag bedeutete, lässt sich in den Handbüchern der Zeit beinahe greifen. Das System startete ohne Umwege: Einschalten, ein kurzer Ton – und der Rechner ist bereit. „an asterisk (‘’) prompt character … and a flashing white square“ („ein Sternchen (‘’) als Eingabeaufforderung … und ein blinkendes weißes Quadrat“) erscheinen auf dem Bildschirm. Kein Bootmenü, kein Betriebssystem im heutigen Sinne – nur ein Cursor und die Erwartung, dass man etwas damit tut.

Die Tastatur war vollständig integriert, aber bewusst reduziert. Großbuchstaben, direkte Eingabe, unmittelbare Rückmeldung. „The Apple II has a built-in 52-key typewriter-like keyboard…“ („Der Apple II besitzt eine eingebaute, schreibmaschinenähnliche Tastatur mit 52 Tasten…“) beschreibt nüchtern, was in der Praxis ein entscheidender Unterschied war: Der Rechner wartete nicht – er reagierte.

Creative Computing brachte diesen Eindruck auf den Punkt: „Apple has produced a machine that is both powerful and easy to use.“ („Apple hat eine Maschine geschaffen, die sowohl leistungsfähig als auch einfach zu bedienen ist.“)

Auch der Textmodus blieb funktional. 24 Zeilen mit je 40 Zeichen, weiße Schrift auf schwarzem Hintergrund, keine Kleinbuchstaben – eine Einschränkung, die gleichzeitig Klarheit schuf. Erst spätere Modelle erweiterten diesen Bereich.

Die Grafik hingegen war der eigentliche Sprung nach vorn. Neben einfacher Farbdarstellung bot der Apple II hochauflösende Grafik mit 280×192 Pixeln. Die Farben entstanden nicht direkt, sondern durch die Position einzelner Bits im Videosignal. Aus technischer Sicht ein Kompromiss – aus praktischer Sicht ein Durchbruch.

Besonders deutlich wurde die physische Nähe zwischen Mensch und Maschine beim Umgang mit Speichermedien. Der Kassettenbetrieb war hörbar, spürbar, fehleranfällig. „the Apple II needs a signal of about 2 1/2 to 5 volts peak-to-peak“ („der Apple II benötigt ein Signal von etwa 2,5 bis 5 Volt Spitze-zu-Spitze“) – eine technische Angabe, die im Alltag bedeutete: Lautstärke einstellen, Band prüfen, hoffen, dass es funktioniert.

Tape recorder head alignment is the most common source of tape recorder problems.“ („Die Ausrichtung des Tonbandkopfes ist die häufigste Ursache für Probleme mit Kassettenrekordern.“) – der Computer funktionierte nicht allein, er verlangte Aufmerksamkeit.

Vor diesem Hintergrund wurde das Disk-II-System zu einem Wendepunkt. Es war schneller, zuverlässiger und technisch ungewöhnlich elegant. Während andere Systeme komplexe Controller benötigten, verlagerte Wozniak große Teile der Logik in die Software. Die Kapazität lag bei etwa 143 Kilobyte pro Diskettenseite – ein Wert, der damals deutlich über vielen konkurrierenden Heimlösungen lag.

Die zugehörigen Schaltpläne zeigen eine reduzierte, fast minimalistische Architektur. Kilobaud Microcomputing brachte es treffend auf den Punkt: „a very sophisticated piece of engineering“ („ein sehr ausgeklügeltes Stück Ingenieurskunst“).

Ein Blick auf die Hauptplatine bestätigt diesen Eindruck. Funktionen greifen ineinander, statt getrennt zu sein. CPU, Speicher und Video sind Teil eines gemeinsamen Systems.

Die Erweiterbarkeit war dabei kein Detail, sondern ein Grundprinzip. Acht Steckplätze erlaubten Anpassungen, Erweiterungen, Experimente – gegen den ursprünglichen Widerstand von Jobs.

An dieser Stelle wird auch die Einordnung im Markt greifbar. Gemeinsam mit dem Commodore PET und dem TRS-80 Model I bildet der Apple II die sogenannte „1977 Trinity“.

Doch die Unterschiede waren entscheidend:
Der PET war geschlossen.
Der TRS-80 war günstig und funktional.
Der Apple II war offen.

Diese Offenheit machte ihn zu einer Plattform. Erweiterungskarten wie die Z80 SoftCard ermöglichten sogar den Betrieb von CP/M und damit Zugang zu professioneller Software wie WordStar oder dBASE.

Ein oft unterschätztes Detail ist das Fehlen komfortabler, standardisierter Timer- und Interrupt-Mechanismen im Grundsystem. Zwar konnten Interrupts über Erweiterungskarten realisiert werden, doch im Auslieferungszustand musste vieles exakt berechnet werden. Sound entstand durch präzises Schalten des Lautsprechers, Diskettenzugriffe durch exakt abgestimmte CPU-Zyklen.

Der Apple II war kein komfortables System – er war ein präzises.

Parallel zu dieser technischen und spielerischen Nutzung entwickelte sich jedoch eine Anwendung, die den Apple II in eine völlig neue Kategorie verschob. Mit VisiCalc erschien 1979 ein Programm, das rückblickend häufig als erste echte „Killerapplikation“ des Personal-Computer-Zeitalters bezeichnet wird.

VisiCalc war mehr als nur Software – es war ein Perspektivwechsel. Tabellenkalkulationen, die zuvor auf Papier, mit Taschenrechnern oder auf teuren Großrechnern erstellt wurden, konnten plötzlich direkt auf einem Personal Computer berechnet und verändert werden. Jede Eingabe wirkte sich sofort auf das gesamte Modell aus. Zahlen wurden nicht mehr nur festgehalten – sie wurden beweglich.

Für viele Anwender war dies der erste Moment, in dem ein Computer nicht als Maschine, sondern als Werkzeug erschien. Ein Werkzeug, das Denken beschleunigte. Ein Werkzeug, das Entscheidungen sichtbar machte.

Zeitgenössische Berichte sind in dieser Hinsicht eindeutig: Unternehmen kauften den Apple II nicht wegen seiner Grafikfähigkeiten, nicht wegen seiner Erweiterbarkeit und auch nicht wegen seiner technischen Eleganz – sie kauften ihn wegen VisiCalc. Der Rechner wurde zur Trägerplattform für eine Anwendung.

Damit kehrte sich das Verhältnis von Hardware und Software erstmals spürbar um. Nicht mehr der Computer bestimmte, welche Programme sinnvoll waren – sondern ein Programm bestimmte, welcher Computer gekauft wurde.

In diesem Zusammenhang entstand die bis heute zitierte Einschätzung, VisiCalc sei „the first killer application“ („die erste Killerapplikation“). Doch diese Bezeichnung greift fast zu kurz. VisiCalc war nicht nur ein Verkaufsargument – es war ein Beweis. Ein Beweis dafür, dass Personal Computer wirtschaftlich sinnvoll eingesetzt werden konnten.

Die Auswirkungen waren unmittelbar. Der Apple II fand seinen Weg in Büros, in Buchhaltungen, in Planungsabteilungen. Aufgaben, die zuvor Tage oder Wochen beanspruchten, ließen sich nun innerhalb von Minuten durchspielen. Szenarien konnten verändert, Zahlen angepasst, Konsequenzen sofort sichtbar gemacht werden.

In der Rückschau markiert VisiCalc damit einen Wendepunkt, der über das System selbst hinausgeht. Der Apple II wurde nicht einfach erfolgreicher – er wurde relevant. Oder anders formuliert: Zum ersten Mal wurde ein Computer nicht gekauft, weil man ihn haben wollte, sondern weil man ihn brauchte.

Doch gerade in diesem Moment zeigt sich eine zweite Dimension, die über die unmittelbare Wirkung von VisiCalc hinausgeht. Der Apple II war kein kurzlebiges Produkt einer frühen Experimentierphase, sondern entwickelte sich zu einer der langlebigsten Plattformen der gesamten Mikrocomputerära. Zwischen 1977 und 1993 blieb die Architektur – in verschiedenen Ausprägungen – im Markt präsent.

Der ursprüngliche Einführungspreis lag bei rund 1.298 US-Dollar, während stärker ausgebaute Systeme deutlich darüber lagen. Über die gesamte Baureihe hinweg wurden mehrere Millionen Geräte verkauft.

Noch greifbarer wird diese Entwicklung anhand typischer Systemkonfigurationen. Ein arbeitsfähiger Apple II bestand selten nur aus dem Rechner selbst.

Ein typisches Business-System um 1980 umfasste:
– Apple II / II+
– Diskettenlaufwerk
– VisiCalc (ca. 150 US-Dollar)

Ein solches System bewegte sich im Bereich von etwa 1.800 bis über 2.400 US-Dollar. Mit zunehmender Verbreitung kamen weitere Komponenten hinzu. Textverarbeitungssysteme wurden für rund 129,95 US-Dollar angeboten und erweiterten den Rechner zu einem vielseitigen Arbeitsgerät. Bis Anfang der 1980er Jahre entstand daraus ein vollständiger Arbeitsplatz mit Software, Erweiterungen und Peripherie – oft mit Gesamtpreisen von mehreren tausend US-Dollar. In Europa, insbesondere in Deutschland, verstärkten Importkosten diesen Effekt zusätzlich. Apple-II-Systeme kosteten häufig mehrere tausend D-Mark und wurden eher als Investition denn als Konsumprodukt wahrgenommen. Im Vergleich dazu stand der Commodore 64 für den Heimgebrauch, während der IBM PC sich im professionellen Umfeld etablierte. Der Apple II bewegte sich zwischen diesen Welten.

Doch bevor der Apple II zu einem Werkzeug wurde, war er bereits etwas anderes – ein Experimentierfeld. Ein Ort, an dem sich nicht nur Programme, sondern Ideen entwickeln konnten. In dieser Umgebung entstand etwas, das sich erst Jahre später vollständig greifen ließ: Der Apple II wurde zur Geburtsstätte ganzer Spielgenres. Ein besonders prägnantes Beispiel ist die Entstehung von Sierra On-Line. Ken Williams und Roberta Williams entwickelten mit Mystery House das erste Grafik-Adventure. Parallel dazu entstand mit Akalabeth: World of Doom ein früher Vertreter des Rollenspielgenres. Mit zunehmender Reife des Systems folgten Titel wie Wizardry, Lode Runner oder Karateka. Auch Castle Wolfenstein und The Oregon Trail erweiterten das Spektrum. Zeitgenössische Magazine beobachteten diese Entwicklung genau. In der ersten Ausgabe von Softline wird offen beschrieben, dass Computer in der Praxis vor allem für Spiele genutzt wurden – und dass gerade diese Programme entscheidend zur Weiterentwicklung von Benutzerfreundlichkeit und Grafik beitrugen. Spiele waren damit nicht nur Unterhaltung, sondern ein Experimentierfeld für neue Ideen.

Der Apple II bot dafür ideale Bedingungen. Direkter Zugriff auf Speicher, flexible Grafik und eine offene Architektur ermöglichten es Entwicklern, die Grenzen des Systems auszureizen.

Der Rechner bot keine Abstraktion – er verlangte Verständnis. Der Apple II war kein fertiges Produkt im heutigen Sinn. Er war ein Angebot. Ein System, das den Benutzer nicht abschirmte, sondern einbezog. Ein Computer, den man nicht nur benutzte, sondern verstand. Oder, wie Apple es selbst formulierte: „the first personal computer you’ll actually enjoy using.“ („der erste Personal Computer, den man tatsächlich gern benutzt.“)

Und vielleicht liegt genau darin sein eigentlicher Wendepunkt: Nicht darin, was er konnte – sondern darin, dass er es dem Benutzer zutraute, es herauszufinden.

 

TRS-80 Model II – Tandys konsequenter Schritt ins professionelle Büro

Der TRS-80 Model II erschien zu einem Zeitpunkt, als sich der Computermarkt bereits in zwei klar unterscheidbare Richtungen entwickelte. Systeme wie der TRS-80 Model I, der Apple II oder die frühen Rechner von Commodore International etablierten sich zunehmend im Heim- und Hobbybereich. Parallel dazu entstand jedoch ein wachsender Bedarf in Büros, Werkstätten und kleinen Unternehmen – nach Systemen, die nicht zum Experimentieren gedacht waren, sondern für den täglichen Einsatz in der Datenverarbeitung.

Genau hier positionierte die Tandy Corporation das Model II. Der Rechner war keine Weiterentwicklung des Model I, sondern eine eigenständige Plattform mit klar definierter Aufgabe. Statt Kassettenbetrieb setzte er vollständig auf Diskettenlaufwerke, statt sofort verfügbarem BASIC auf ein geladenes Betriebssystem, und statt Softwarekompatibilität auf funktionale Trennung. Das Ergebnis war ein System, das weniger auf Vielseitigkeit als auf Struktur, Planbarkeit und Zuverlässigkeit ausgelegt war.

Technisch präsentiert sich das Model II als geschlossenes, integriertes System. Die Displayeinheit beherbergt nicht nur den Monitor, sondern auch das Diskettenlaufwerk sowie wesentliche Teile der zentralen Elektronik. Die Tastatur ist als separates Gehäuse ausgeführt und wird über ein Kabel angeschlossen – eine Lösung, die sowohl ergonomischen als auch praktischen Anforderungen im professionellen Umfeld entgegenkommt. Im Inneren arbeitet ein Zilog Z80A mit 4 MHz, kombiniert mit zunächst 32 KB RAM, erweiterbar auf 64 KB. Die interne Organisation folgt dabei einer klar strukturierten Bauweise: CPU-Logik, Videoeinheit und Controllerfunktionen sind auf mehrere Steckkarten verteilt, die über ein internes Bussystem miteinander verbunden sind. Diese Konstruktion erleichterte Wartung und Austausch einzelner Komponenten und orientierte sich in ihrer Denkweise eher an professionellen Systemen als an typischen Heimcomputern, ohne jedoch deren vollständige Modularität zu erreichen.

Ein besonders aufschlussreiches Detail liefert die Videoarchitektur. Die Bildschirmausgabe wird von dedizierter Logik übernommen, wodurch der Hauptprozessor entlastet wird. Die Darstellung erfolgt standardmäßig in 80×24 Zeichen – ein Format, das sich direkt an professionellen Terminals orientiert und für Textverarbeitung sowie Datenbankanwendungen optimiert ist. Alternativ steht ein 40-Zeichen-Modus zur Verfügung. Der integrierte 12-Zoll-Monochrommonitor mit grünem Phosphor stellt den vollständigen ASCII-Zeichensatz sowie zusätzliche Grafikzeichen dar und erlaubt auch invertierte Darstellungen einzelner Zeichen.

Noch deutlicher wird die Zielrichtung beim Speichermedium. Das Model II ist konsequent auf den Diskettenbetrieb ausgelegt. Ein Kassettenanschluss fehlt vollständig, stattdessen kommt standardmäßig ein integriertes 8-Zoll-Diskettenlaufwerk zum Einsatz, dessen Kapazität je nach Formatierung typischerweise im Bereich von etwa 500 KB pro Diskette liegt. Über externe Einheiten konnten zusätzliche Laufwerke ergänzt werden. Der Arbeitsablauf ist entsprechend klar strukturiert: Nach dem Einschalten wartet das System auf das Einlegen einer Systemdiskette, von der ein Bootstrap-Programm geladen wird. Anschließend führt der Rechner interne Routinen aus, bevor schließlich das Betriebssystem startet und sich mit „TRSDOS-II Ready“ meldet. Ohne eingelegte Diskette bleibt das System im praktischen Betrieb nicht nutzbar – ein Verhalten, das im professionellen Alltag schnell zur Selbstverständlichkeit wurde.

Diese Arbeitsweise verweist auf eine grundlegende Designentscheidung: Es gibt kein fest integriertes BASIC im ROM, keine sofort verfügbare Programmierumgebung. Stattdessen beginnt jede Sitzung mit dem Laden eines Betriebssystems von Diskette. Diese klare Trennung von Hardware und Software erhöhte die Flexibilität und ermöglichte unterschiedliche Einsatzszenarien, die über das hinausgingen, was viele Heimcomputer leisten konnten.

Das primäre Betriebssystem war TRSDOS-II, ein speziell auf die Architektur des Systems zugeschnittenes Disk Operating System. Es bot eine strukturierte Dateiverwaltung, ein klar definiertes Kommandointerface und umfangreiche Routinen für die Programmentwicklung. Dateien konnten entweder dynamisch wachsen oder mit fest reservierten Bereichen angelegt werden, wodurch sich je nach Anwendung Geschwindigkeit oder Speichereffizienz optimieren ließ. Gleichzeitig trennte das System konsequent zwischen physikalischer Datenträgerstruktur und logischer Datenorganisation. Entwickler arbeiteten mit Datensätzen („Records“), während die physikalische Speicherung im Hintergrund abstrahiert wurde.

Auch die Zugriffsmöglichkeiten zeigen deutlich die professionelle Ausrichtung. TRSDOS-II unterstützte sowohl sequenziellen als auch direkten Zugriff auf Dateien. Daten konnten gezielt angesprochen oder in festgelegter Reihenfolge verarbeitet werden – eine grundlegende Voraussetzung für Anwendungen wie Buchhaltung, Lagerverwaltung oder Datenbanken. Die praktische Arbeit folgte dabei einer klaren Routine: Disketten wurden formatiert, Daten gesichert, Programme geladen und ausgeführt. Der Kopiervorgang kompletter Disketten konnte mehrere Minuten dauern, gehörte im Arbeitsalltag jedoch zum Standard.

Programme selbst wurden über Interpreter oder Compiler von Diskette geladen. Ein häufiger Einstieg erfolgte über einen BASIC-Interpreter, während für professionelle Anwendungen zusätzliche Programmiersprachen wie COBOL, FORTRAN oder Pascal zur Verfügung standen, die in der Regel separat bezogen wurden. Das Softwareangebot spiegelte diese Ausrichtung wider. Anwendungen wie Scripsit etablierten sich als frühe Textverarbeitungssysteme, während spezialisierte Programme für Buchhaltung und Verwaltung das Model II zu einem vielseitigen Werkzeug im Büro machten.

Gelegentlich wird auch die Unterstützung von CP/M erwähnt. Entsprechende Lösungen existierten, spielten jedoch im praktischen Einsatz eine untergeordnete Rolle. Die enge Abstimmung zwischen Hardware und TRSDOS-II machte das native System in vielen Fällen zur effizienteren Wahl.

Ein zeitgenössisches Einführungsvideo von Radio Shack beschreibt das System als „business, scientific and engineering oriented microcomputer“ und hebt hervor, dass es Aufgaben übernehmen könne, für die wenige Jahre zuvor deutlich größere Rechner erforderlich gewesen wären. Diese Einschätzung spiegelt den Optimismus der frühen Mikrocomputerära wider, verweist jedoch zugleich auf eine reale Entwicklung: Das Model II brachte Strukturen und Arbeitsweisen aus der Welt der Minicomputer in ein kompakteres, erschwinglicheres Format.

Unterhaltung spielte dabei kaum eine Rolle. Spiele waren auf dem Model II selten und beschränkten sich meist auf textbasierte Anwendungen oder einfache Logikprogramme. Die Hardware war nicht auf grafikintensive Anwendungen ausgelegt, sondern auf effiziente Datenverarbeitung. Auch verfügbare Programme unter CP/M blieben funktional und zweckorientiert.

Mit dem optionalen Graphics Package konnte das System jedoch erweitert werden. Damit waren grafische Darstellungen mit einer Auflösung von bis zu 640×240 Pixeln möglich, etwa für Diagramme, Tabellen oder einfache Visualisierungen. Grafik wurde dabei nicht als Selbstzweck verstanden, sondern als Werkzeug zur Darstellung von Informationen im wissenschaftlichen und kaufmännischen Kontext.

Preislich positionierte sich das Model II klar oberhalb des Heimmarktes. Mit rund 3.450 US-Dollar für die Basiskonfiguration und etwa 3.899 US-Dollar für erweiterte Varianten richtete sich das System gezielt an Unternehmen. Inflationsbereinigt entspricht dies heute etwa 14.000 bis 18.000 Euro. Im Vergleich zu deutlich teureren Systemen von IBM bot das Model II damit einen vergleichsweise erschwinglichen Einstieg in die elektronische Datenverarbeitung für kleinere Betriebe.

Exakte Verkaufszahlen sind schwer zu isolieren, da das Model II häufig zusammen mit anderen Systemen der TRS-80-Reihe betrachtet wird. Bekannt ist jedoch, dass bereits im ersten Jahr nach der Einführung eine vierstellige Stückzahl ausgeliefert wurde und sich das System rasch im professionellen Umfeld etablierte. Seine eigentliche Bedeutung liegt weniger in absoluten Zahlen als in seiner Rolle als Ausgangspunkt einer eigenständigen Business-Produktlinie. Diese wurde später mit Modellen wie dem Model 12 und dem TRS-80 Model 16 fortgeführt, letzteres mit zusätzlichem Prozessor und Unterstützung für das UNIX-Derivat Xenix.

Der Vergleich mit dem Model I verdeutlicht die Unterschiede besonders klar. Während das frühere System im Heim- und Hobbybereich verwurzelt war, richtete sich das Model II explizit an professionelle Anwender. Schnellere Verarbeitung, größere Speicherkapazität, konsequenter Disketteneinsatz und eine strukturierte Systemarchitektur machten es zu einem Werkzeug für organisierte Datenverarbeitung. Gleichzeitig bestand keine Softwarekompatibilität zum Model I – ein bewusster Schnitt, der die neue Zielrichtung unterstreicht.

Auch die physische Gestaltung folgt dieser Philosophie. Die kompakte Einheit aus Monitor, Laufwerk und Elektronik wirkt auf den ersten Blick massiv, offenbart jedoch eine funktionale Konstruktion. Die Tastatur lässt sich unter das Hauptgehäuse schieben, wodurch das System platzsparender wirkt. Intern dominiert eine klar strukturierte, busorientierte Architektur mit mehreren Steckplätzen für Erweiterungskarten, die Wartung und Anpassung erleichtert.

Selbst Details wie die Tastatur verdeutlichen den professionellen Anspruch. Sie ist als vollwertige, abgesetzte Einheit ausgeführt, mit numerischem Block und funktionaler Tastenanordnung, ausgelegt für effiziente Dateneingabe im Arbeitsalltag. Ihre Gestaltung orientiert sich deutlich an Schreibmaschinen und professionellen Terminals jener Zeit.

In der Gesamtschau ergibt sich ein klares Bild: Das Model II war kein erweitertes Heimgerät, sondern ein eigenständig konzipiertes System mit klar definierter Aufgabe. Wer experimentieren oder spielen wollte, griff zu anderen Rechnern. Wer jedoch Abläufe strukturieren, Daten verwalten und Prozesse zuverlässig abbilden musste, fand hier ein Werkzeug, das genau für diesen Zweck geschaffen wurde.

Centipede: Wie Dona Bailey und Atari 1981 einen Arcade-Klassiker zwischen Trackball, Zufall und Pilzlabyrinth schufen

Ein leises Summen liegt in der Luft, irgendwo zwischen Neonlicht und dem metallischen Klang fallender Münzen. Anfang der 1980er Jahre war die Spielhalle kein Ort der Erklärungen, sondern der Erfahrung. Als Dona Bailey zum ersten Mal vor einem Automaten von Space Invaders stand, wusste sie nicht einmal, was ein Videospiel war. „I said what is a video game…“, erinnerte sie sich später, nur um wenige Augenblicke danach eine Entscheidung zu treffen, die rückblickend wie ein Wendepunkt wirkt: „I don’t want to program for GM anymore, I want to program for Atari.“ („Ich will nicht mehr für GM programmieren, ich will für Atari programmieren.“) Was als neugieriger Blick auf flackernde Pixel begann, führte direkt zur Mitarbeit an einem der einflussreichsten Titel der Arcade-Geschichte: Centipede.

Bailey brachte dabei kein vages Interesse, sondern handfeste technische Erfahrung mit. Bei General Motors hatte sie bereits mit dem MOS-6502-Prozessor gearbeitet – jenem Chip, der auch das Herz vieler Heimcomputer wie des Commodore 64 bilden sollte. Dort programmierte sie Systeme wie Tempomat- und Klimasteuerungen im Cadillac Seville. Der Wechsel zu Atari war damit weniger ein Sprung ins Unbekannte als eine Verschiebung des Einsatzfeldes: von Sensorik und Regeltechnik hin zu Bildpunkten und Spiellogik. Die Werkzeuge blieben jedoch ähnlich streng – und ebenso unerbittlich.

Denn die Entwicklung von Centipede war ein permanenter Balanceakt zwischen Idee und Limit. „I was always supposed to be counting my bytes and counting my cycle time“, erklärte Bailey. („Ich musste ständig meine Bytes und meine Taktzyklen mitzählen.“) Jeder Befehl, jede Routine war an exakte Zeitfenster gebunden. Wurde diese Grenze überschritten, hatte das unmittelbare Konsequenzen: „If you run over the amount of clock time there’s tearing on the screen.“ („Wenn man die verfügbare Taktzeit überschreitet, zerreißt das Bild.“) Programmieren bedeutete hier nicht nur Logik, sondern Timing im wortwörtlichen Sinne – eine direkte Verbindung zwischen Code und sichtbarem Ergebnis.

Auch der Arbeitsalltag im Atari-Arcade-Team wirkt aus heutiger Sicht fast fremd. Code wurde handschriftlich verfasst, in einen Korb gelegt, von spezialisierten Mitarbeiterinnen abgetippt, kompiliert und auf ein PROM gebrannt. Erst Stunden später ließ sich das Ergebnis im Entwicklungskabinett testen. „Here’s your cubicle, now make a game“, lautete die nüchterne Einweisung. („Hier ist deine Kabine, jetzt mach ein Spiel.“) Eine Struktur, die kaum Planung erlaubte, dafür aber Experiment begünstigte. „We had no idea what we were doing. We were just doing stuff.“ („Wir hatten keine Ahnung, was wir da taten. Wir haben einfach Dinge gemacht.“)

Die Grundidee von Centipede war schlicht: Ein segmentierter Gegner bewegt sich über das Spielfeld und wird vom Spieler beschossen. Doch die eigentliche Qualität entstand aus den Lösungen, die unterwegs gefunden wurden. Ein prägnantes Beispiel sind die Pilze. Lange Zeit wurden sie als ironische Anspielung interpretiert, doch Bailey widersprach dieser Deutung deutlich: „It was not my style to make a drug reference like that.“ („Es war nicht meine Art, einen solchen Drogenwitz zu machen.“) Stattdessen entstand ihre Funktion aus einem praktischen Problem. Bailey benötigte visuelle Marker, um die Bewegung und Drehpunkte des Tausendfüßers nachvollziehen zu können. Aus einfachen Testobjekten entwickelte sich schließlich der Pilz als grafisch funktionierende Form. „Putting the mushrooms on the screen made it a maze right away.“ („Die Pilze machten das Spielfeld sofort zu einem Labyrinth.“) Aus einer technischen Notwendigkeit wurde ein spielprägendes Element.

Ähnlich zentral war die Frage der Steuerung. Frühere Varianten mit Knöpfen oder Joystick erwiesen sich für Bailey als wenig überzeugend. Erst mit dem Einsatz eines Trackballs änderte sich das grundlegend. „It was when the track ball was tried out that it really became compelling for me to play“, erinnerte sie sich. („Erst mit dem Trackball wurde das Spiel für mich wirklich fesselnd.“) Die direkte, fließende Bewegung verlieh dem Spiel eine Präzision, die sich mit herkömmlichen Eingabegeräten kaum erreichen ließ. Bailey sah darin rückblickend auch einen möglichen Grund für die ungewöhnlich breite Spielerbasis: „I think the track ball was part of the reason that it was successful with girls and women.“ („Ich glaube, der Trackball war einer der Gründe für den Erfolg bei Frauen und Mädchen.“)

Technisch nutzte Centipede zudem einen hardwarebasierten Zufallsmechanismus, gekoppelt an den Atari-Pokey-Chip. Dadurch variierte das Spielfeld von Runde zu Runde – ein Ansatz, der sich deutlich von den festen Angriffsmustern früherer Titel wie Space Invaders oder Galaxian unterschied. Pilzverteilung, Gegnerbewegungen und Bedrohungslagen wirkten weniger berechenbar und gaben dem Spiel eine Dynamik, die über das reine Reaktionsspiel hinausging. Besonders die Spinne wurde so zu einem unberechenbaren Faktor, dessen Auftreten durch ein charakteristisches Geräusch angekündigt wurde – eine frühe Verbindung von Sound und Spielmechanik.

Auch visuell setzte Centipede eigene Akzente. Die leuchtenden, teilweise pastellartigen Farben entstanden zunächst aus technischen Umständen, wurden jedoch bewusst beibehalten. Bailey beschrieb ihre Reaktion darauf schlicht mit: „I just thought it was so beautiful.“ („Ich fand es einfach wunderschön.“) In der dunklen Umgebung der Spielhallen entwickelte das Spiel dadurch eine besondere Präsenz. „It would be the shimmering jewel across the room.“ („Es war quer durch den Raum ein schimmerndes Juwel.“) Damit wurde Centipede nicht nur ein Spiel, sondern auch ein visueller Anziehungspunkt.

Die zeitgenössische Presse bestätigte diese Wirkung, wenn auch nicht ohne Einschränkungen bei den Heimversionen. Die britische Commodore User schrieb über die VIC-20-Fassung: „All round, centipede is a good one or two player game with well-defined graphics and good clear sound.“ („Alles in allem ist Centipede ein gutes Ein- oder Zwei-Spieler-Spiel mit klar definierten Grafiken und gutem, deutlichem Sound.“) Das deutsche Magazin TeleMatch hob die Popularität des Originals hervor und beschrieb den Spielablauf treffend: „Reaktion ist alles!“ Gleichzeitig wurde jedoch auch kritisch angemerkt, dass die grafische Umsetzung nicht an die Arcade-Version heranreiche. Internationale Stimmen wie das Games Magazine bezeichneten die Atari-5200-Version als „faithful and satisfying adaptation“, während Bill Kunkel und Arnie Katz im Video Magazine auf die technischen Grenzen des Apple II verwiesen und die Steuerung als „sluggish“ beschrieben.

Mit dem Erfolg des Arcade-Originals begann eine breite Welle von Portierungen. Systeme wie das Atari 2600 reduzierten die Darstellung auf einfache Formen, bewahrten jedoch die Geschwindigkeit und damit den Kern des Spiels. Auf leistungsfähigeren Plattformen wie dem Atari 5200 oder den Atari-Heimcomputern näherte sich das Spiel stärker dem Original an, insbesondere wenn ein Trackball verwendet werden konnte. Umsetzungen für den Commodore 64 oder Systeme wie den ZX Spectrum zeigten jeweils eigene Interpretationen, während spätere Versionen etwa für den Game Boy durch das kleinere Display ein verändertes Spielgefühl erzeugten. Entscheidend blieb dabei stets die Steuerung: Ohne Trackball verlor Centipede einen Teil seiner charakteristischen Präzision.

Auch wirtschaftlich spiegelt das Spiel den Wandel der Branche wider. Ein Arcade-Automat kostete zur Veröffentlichung rund 2.000 bis 3.000 US-Dollar, was inflationsbereinigt etwa 7.000 bis 10.000 Euro entspricht. Heimversionen waren deutlich günstiger und machten das Spiel einem breiteren Publikum zugänglich, während spätere Budgetveröffentlichungen den Titel dauerhaft im Markt hielten.

Die Entwicklung von Centipede lag im Kern bei Ed Logg und Dona Bailey, deren Zusammenarbeit das Spiel maßgeblich prägte. Weitere Beiträge entstanden innerhalb des Atari-Teams, lassen sich jedoch nicht in allen Fällen eindeutig einzelnen Personen zuordnen.

Auffällig ist rückblickend auch, wie konzentriert Baileys Beitrag in der Spielegeschichte geblieben ist. Abgesehen von Centipede ist kein weiteres von ihr entwickeltes Spiel erschienen. Zwar arbeitete sie nach ihrer Zeit bei Atari und später unter anderem bei Activision an weiteren Projekten, doch keines davon erreichte den Markt. Diese Entwicklung ist weniger ungewöhnlich, als es aus heutiger Sicht erscheinen mag: Die frühe Spieleindustrie war geprägt von kurzen Karrieren, instabilen Strukturen und einem rasanten Wandel.

So bleibt Centipede nicht nur als Spiel in Erinnerung, sondern als Momentaufnahme einer Phase, in der sich das Medium noch in Bewegung befand. Zwischen handgeschriebenem Code, experimentellen Ideen und der unmittelbaren Rückmeldung aus der Spielhalle entstand ein Titel, dessen Prinzip sich als erstaunlich widerstandsfähig erwies. Dass er auf unterschiedlichsten Systemen funktionierte und bis heute nachvollziehbar bleibt, spricht weniger für technische Perfektion als für die Klarheit seines Entwurfs – und für eine Zeit, in der man, wie Bailey es formulierte, oft einfach begann, Dinge zu machen.

 

Sinclair ZX Spectrum+ (1984): Der Spectrum mit der Tastatur, die endlich jeder wollte

Als der Sinclair ZX Spectrum+ im Oktober 1984 erschien, war die eigentliche Sensation längst geschehen. Der ursprüngliche ZX Spectrum hatte sich seit 1982 in Großbritannien zu einem der erfolgreichsten Heimcomputer seiner Zeit entwickelt und eine Generation von Nutzern erstmals mit Programmierung, Spielen und digitaler Kreativität in Berührung gebracht. Doch mit diesem Erfolg wuchsen auch die Erwartungen. Zeitgenössische Magazine beschrieben diesen Wandel treffend: Der Spectrum war nicht mehr nur ein Einstiegssystem, sondern wurde zunehmend als Plattform verstanden, mit der sich Anwender ernsthaft auseinandersetzten.

Der Spectrum+ entstand genau aus diesem Spannungsfeld heraus. Entwickelt von Sinclair Research unter Leitung von Clive Sinclair, stellte er keine technische Neuentwicklung dar, sondern eine bewusste Überarbeitung eines etablierten Systems. Im Inneren blieb die Architektur praktisch unverändert: Ein Zilog Z80A mit 3,5 MHz, 48 KB RAM, 16 KB ROM mit Sinclair BASIC, die bekannte Bildschirmauflösung von 256 × 192 Pixeln sowie die charakteristische Farbattributlogik, die zwar lebendige Farben ermöglichte, jedoch auch das berüchtigte „Color Clash“-Phänomen mit sich brachte. Der Sound wurde weiterhin über einen einfachen Ein-Bit-Lautsprecher erzeugt – funktional, aber im Vergleich zu spezialisierten Soundchips anderer Systeme deutlich eingeschränkt.

Gerade im Vergleich mit zeitgenössischen Konkurrenten wie dem Commodore 64 oder dem Amstrad CPC 464 wird deutlich, welchen Weg Sinclair einschlug. Während diese Systeme auf dedizierte Grafik- und Soundhardware setzten – etwa Hardware-Sprites und den SID-Soundchip beim Commodore oder ein echtes Bitmap-Display ohne Attributbeschränkung beim CPC – blieb der Spectrum+ technisch konservativ. Sein entscheidender Vorteil lag weiterhin im Preis und in der enormen Softwarebasis, die vollständig kompatibel blieb.

Die auffälligste Veränderung des Spectrum+ betraf das Gehäuse – und damit insbesondere die Tastatur. Die Gummitasten des Originals, so ikonisch sie heute erscheinen mögen, waren bereits in den frühen 1980er Jahren Gegenstand anhaltender Kritik. Sie galten als unpräzise, wenig ergonomisch und für längeres Tippen ungeeignet. Der Spectrum+ ersetzte diese durch flache Kunststofftasten mit Druckpunkt, die sich stärker an klassischen Schreibmaschinen orientierten. Zeitgenössisch wurde diese Änderung als deutliche Verbesserung wahrgenommen, wenn auch mit Einschränkungen: Die Tasten lagen dicht beieinander, der Hub blieb kurz, und ein echtes Schreibmaschinengefühl wurde nicht erreicht. Dennoch stellte die neue Tastatur im Alltag einen klaren Fortschritt dar.

Die Werbekampagnen machten dabei keinen Hehl aus der eigentlichen Zielsetzung. Anzeigen stellten den Rechner mit Formulierungen wie „The new Sinclair ZX Spectrum+. With the type of keyboard you've been asking for.“ in den Mittelpunkt und griffen damit direkt die Kritik der Nutzer auf. Gleichzeitig versuchte Sinclair, den Rechner stärker als ernstzunehmendes Arbeitsgerät zu positionieren und sich vom Image des reinen Spielecomputers zu lösen. Auch gestalterisch näherte sich das neue Gehäuse dem deutlich teureren Sinclair QL an, dessen sachlich-flache Formensprache nun in abgeschwächter Form übernommen wurde.

Das grundlegende Bedienkonzept blieb jedoch erhalten und prägte weiterhin den Charakter des Systems. Sinclair BASIC nutzte nach wie vor die bekannte Ein-Tasten-Befehlseingabe, bei der komplette Befehle über einzelne Tastendrücke erzeugt wurden. Das Handbuch beschrieb diesen Ansatz als bewusstes Hilfsmittel für den Anwender und betonte, dass der Computer den Benutzer aktiv bei der Eingabe unterstütze. Dieses Konzept erleichterte insbesondere Einsteigern den Zugang zur Programmierung, erforderte jedoch eine gewisse Umgewöhnung für erfahrene Nutzer.

Neben der Tastatur reagierte der Spectrum+ auch auf einen weiteren praktischen Kritikpunkt: das Fehlen einer Reset-Funktion beim ursprünglichen Modell. Während ein Absturz zuvor häufig nur durch Ziehen des Netzsteckers behoben werden konnte, erhielt der Spectrum+ erstmals einen dedizierten Reset-Knopf, der einen unmittelbaren Neustart des Systems ermöglichte und damit den Alltag deutlich erleichterte.

An den Anschlüssen änderte sich hingegen wenig. Der Rechner wurde weiterhin über einen RF-Modulator mit dem Fernseher verbunden, Programme wurden über Kassettenrekorder mittels EAR- und MIC-Buchsen geladen und gespeichert, und der Expansion-Port blieb die zentrale Schnittstelle für Erweiterungen wie Joystick-Interfaces, Drucker oder das Microdrive-System. Auch das externe Netzteil blieb erhalten, ebenso wie das Fehlen eines Netzschalters – eine Entscheidung, die Sinclairs konsequent kostenorientierte Entwicklungsphilosophie widerspiegelt.

Preislich lag der Spectrum+ bei seiner Einführung mit rund £179,95 über dem ursprünglichen 48K-Modell und bewegte sich inflationsbereinigt im Bereich von etwa 500 bis 600 Euro. Damit blieb das Gerät zwar erschwinglich, positionierte sich jedoch bewusst etwas höher als sein Vorgänger. Parallel bot Sinclair bestehenden Besitzern eines ZX Spectrum 48K eine Upgrade-Möglichkeit an: Für rund £19,95 konnte die vorhandene Hardware in das neue Gehäuse des Spectrum+ übertragen werden. Anstatt Geräte einzuschicken, erhielten die Käufer ein Komplettpaket zur Selbstmontage – ein Ansatz, der nicht nur die Bastlerkultur jener Zeit widerspiegelt, sondern auch Sinclairs ausgeprägtes Kostenbewusstsein zeigt.

Die Verkaufszahlen des Spectrum+ spiegeln seine Rolle innerhalb der Baureihe deutlich wider. Während die Spectrum-Familie insgesamt auf mehrere Millionen verkaufte Einheiten kam, profitierte das Plus-Modell zunächst von einem sehr starken Marktstart. Die Nachfrage konzentrierte sich dabei vor allem auf die verbesserte Tastatur, die viele Käufer als längst überfällige Weiterentwicklung wahrnahmen. Gleichzeitig traten bei frühen Geräten Qualitätsprobleme auf, über die insbesondere Händler berichteten. Diese betrafen vor allem die neue Tastaturmechanik sowie die darunterliegende Membran, was in Einzelfällen zu erhöhten Ausfallraten führte.

Im praktischen Einsatz erwies sich der Spectrum+ als das, was er sein sollte: eine stabilisierte und ergonomisch verbesserte Version eines erfolgreichen Systems. Besonders Nutzer, die regelmäßig programmierten oder längere Texte eingaben, profitierten von der neuen Tastatur und der verbesserten Bedienbarkeit. Gleichzeitig blieb die vollständige Kompatibilität zur bestehenden Softwarebibliothek erhalten – ein entscheidender Faktor für die anhaltende Popularität der Plattform.

Rückblickend lässt sich der Spectrum+ weniger als eigenständiger Meilenstein verstehen, sondern vielmehr als gezielte Übergangslösung. Er verlängerte die Lebensdauer der Spectrum-Reihe in einer Phase wachsender Konkurrenz und bereitete den Boden für spätere Modelle wie den Sinclair ZX Spectrum 128 sowie die unter Amstrad entstandenen Nachfolger. In einer Zeit, in der viele Hersteller auf technische Innovation setzten, entschied sich Sinclair bewusst für Kontinuität – und traf damit eine Entscheidung, die weniger spektakulär, aber wirtschaftlich effektiv war.

So bleibt der Spectrum+ ein Beispiel für eine Form von Weiterentwicklung, die nicht auf radikale Neuerungen setzt, sondern auf gezielte Verbesserung bestehender Konzepte. Oder, in der nüchternen Sprache der damaligen Fachpresse gedacht: kein neuer Computer, sondern derselbe – nur endlich so gestaltet, wie ihn viele Nutzer von Anfang an erwartet hatten.

 

Space Quest III: Wie Sierra 1989 Humor, EGA-Grafik und klassische Adventure-Tradition auf die Spitze trieb

Source: Sierra On-Line / Microsoft, CC BY-SA 4.0

Space Quest III: The Pirates of Pestulon, veröffentlicht 1989 von Sierra On-Line, markiert innerhalb der Reihe einen deutlichen Entwicklungsschritt und steht exemplarisch für eine Übergangsphase im klassischen Adventure-Design. Noch basiert das Spiel auf dem bewährten Adventure Game Interpreter, einem System, das Sierra seit den frühen 1980er Jahren für seine Adventures einsetzte.

Der Adventure Game Interpreter kombiniert eine Skriptsprache mit einer vergleichsweise einfachen Grafikengine. Figuren bewegen sich in zweidimensionalen Räumen mit begrenzter Farbpalette, während ein Textparser die Eingaben interpretiert. Diese Architektur ermöglichte eine effiziente Portierung auf verschiedene Systeme, brachte jedoch klare Einschränkungen mit sich: begrenzte Farbvielfalt, eingeschränkte Animationen und eine stark hardwareabhängige Soundausgabe. Space Quest III nutzt diese Technik sichtbar bis an ihre Grenzen aus, während mit dem späteren SCI-System bereits eine deutlich leistungsfähigere Generation in Vorbereitung war.

Die Handlung setzt unmittelbar nach den Ereignissen von Space Quest II ein. Roger Wilco, einst Hausmeister und widerwilliger Retter der Galaxis, treibt in einer Rettungskapsel durchs All, bis er von einem gigantischen Müllfrachter eingesogen wird. Dieser Einstieg setzt bewusst einen Kontrapunkt zur klassischen Heldenfortsetzung: Statt Aufstieg folgt der erneute Absturz, statt Kontrolle Improvisation. Die Reise führt über Stationen wie Monolith Burger, den Wüstenplaneten Phleebhut und schließlich den Mond Pestulon, auf dem die Softwarefirma „ScumSoft“ residiert.

Im Zentrum steht die Rettung der „Two Guys from Andromeda“ – Scott Murphy und Mark Crowe –, die sich selbstironisch in die Handlung integriert sehen. Diese Form der Selbstreferenz ist charakteristisch für die Reihe und unterscheidet sie deutlich von anderen Sierra-Produktionen wie King's Quest oder Police Quest.

Technisch zeigt sich der Fortschritt vor allem in der visuellen Präsentation. Die EGA-Grafik wird deutlich differenzierter eingesetzt, Animationen wirken flüssiger, und Hintergründe gewinnen an Detailtiefe. Diese Entwicklung wurde auch in der zeitgenössischen Presse deutlich wahrgenommen. So stellte die Happy Computer (Special 7/1989, MS-DOS/EGA) fest:

„Space Quest III ist eine runde Sache. Allein die Eingangsszene zeigt, daß sich die ‚Two Guys from Andromeda‘ viel Mühe gegeben haben.“

Auch die Detailfülle wurde hervorgehoben:

„Das Spiel ist gespickt mit witzigen Details: Da liegt die Pilotenkonsole vom Millennium Falcon aus ‚Krieg der Sterne‘…“

Parallel dazu zeigt sich jedoch bereits eine differenzierte Bewertung einzelner Aspekte. Während die Grafik mit 85 % bewertet wurde, erhielt der Sound lediglich 52 %, was die noch vorhandenen technischen Grenzen widerspiegelt.

Ähnlich argumentiert der Aktueller Software Markt, der insbesondere die visuelle Gestaltung und Atmosphäre hervorhebt:

„Die Animationen sind herrlich, die Hintergrundgrafiken detaillierter und die Figuren wirken wie in einem guten Comic.“

Im Bewertungskasten ergibt sich hier ein klares Bild: Grafik (10) und Atmosphäre (9) stehen deutlich über Sound (5/10) sowie Parser und Steuerung (6/10). Auch hier zeigt sich, dass Präsentation und Stimmung im Vordergrund stehen, während spielmechanische Aspekte differenzierter betrachtet werden.

Internationale Tests bestätigen diese Einordnung. Die britische ZZap!64 vergab für die Amiga-Version 87 % Gesamtwertung und hob insbesondere die Mischung aus Action und Humor hervor:

„Here’s a game with plenty of excitement, and humour too.“

Gleichzeitig wurde der Puzzle-Anteil mit 67 % merklich niedriger bewertet. Ein weiterer englischsprachiger Test bescheinigte dem Spiel eine sehr hohe Atmosphäre (93 %), während die Langzeitmotivation mit 56 % deutlich zurückhaltender eingeschätzt wurde. Diese Unterschiede zeigen, dass die Präsentation nahezu einhellig überzeugt, während Struktur und Spieltiefe unterschiedlich wahrgenommen wurden.

Die Musik stammt unter anderem von Bob Siebenberg, bekannt als Schlagzeuger der Band Supertramp. Seine Beteiligung steht exemplarisch für die zunehmende Professionalisierung der Branche. Die tatsächliche Klangqualität bleibt jedoch stark von der eingesetzten Hardware abhängig – von einfachen PC-Speaker-Signalen bis hin zu deutlich differenzierteren Klangbildern auf Systemen wie der Roland MT-32.

Spielerisch bleibt Space Quest III fest in der klassischen Sierra-Tradition verankert. Der Parser verlangt präzise Eingaben, und Fortschritt entsteht durch Ausprobieren und Scheitern. In dieses System integriert das Spiel mit „Astro Chicken“ ein eigenständiges Minispiel, das nicht nur als humoristische Einlage dient, sondern auch spielerisch relevant wird. Diese Erweiterung der klassischen Struktur wurde nicht von allen Spielern gleichermaßen positiv aufgenommen und kann als bewusster Bruch mit etablierten Adventure-Konventionen verstanden werden.

Auch die Plattformvielfalt trägt zur Einordnung bei. Das Spiel erschien für MS-DOS, den Amiga, den Atari ST sowie für den Apple Macintosh. Die DOS-Version bietet die größte Bandbreite an Grafik- und Soundoptionen, während Amiga- und ST-Versionen trotz leistungsfähiger Hardware eng an die EGA-Vorlage gebunden bleiben. Die Macintosh-Version zeigt eine angepasste Darstellung und Bedienlogik.

Alle Versionen wurden auf Diskette ausgeliefert, wodurch Ladezeiten ein fester Bestandteil des Spielerlebnisses sind. Erst Festplatteninstallationen konnten diesen Umstand deutlich verbessern.

In der Gesamtschau ergibt sich ein konsistentes Bild: Space Quest III wurde von der zeitgenössischen Presse vor allem für Präsentation, Humor und visuelle Gestaltung geschätzt, während Sound und Rätseldesign differenzierter bewertet wurden. Gerade diese Mischung aus technischer Weiterentwicklung und bewusst beibehaltenen Designprinzipien verleiht dem Spiel seine besondere Stellung innerhalb der Adventure-Geschichte.

 

Rambo: First Blood Part II (1985) – Ocean, C64 und der Kult um Galways Soundtrack

Als Rambo: First Blood Part II 1985 in die Kinos kam, war Sylvester Stallones Vietnam-Veteran längst zu einem globalen Popkultur-Phänomen geworden. Kaum ein anderer Actionheld verkörperte den martialischen Zeitgeist der Reagan-Ära so kompromisslos wie John Rambo, und für Ocean Software war rasch klar, dass eine Heimcomputer-Umsetzung dieser Lizenz nahezu Pflicht war. Das britische Studio hatte sich zu diesem Zeitpunkt bereits als Spezialist für Film- und Markenadaptionen etabliert und brachte mit beeindruckender Regelmäßigkeit Umsetzungen großer Kino- und Arcade-Lizenzen auf den Markt. Mit Rambo sicherte sich Ocean eine der prominentesten Action-Marken der Mitte der achtziger Jahre – und behandelte das Projekt entsprechend nicht als bloße Schnellproduktion, sondern als technisch prestigeträchtigen Vorzeigetitel.

Entwickelt wurde das Spiel von Platinum Productions unter Aufsicht des Ocean-Producers Jon Woods, der in jener Phase zahlreiche Lizenzproduktionen des Hauses koordinierte. Für die technisch wichtigste Fassung auf dem Commodore 64 zeichnete ein Team aus Tony Pomfret, David Collier und Bill Barna verantwortlich, während Stephen Wahid zusätzliche Grafikarbeiten beisteuerte. Den Soundtrack und die Soundeffekte komponierte Martin Galway, dessen Beitrag später fast ebenso legendär werden sollte wie das Spiel selbst. Parallel erschienen Umsetzungen für ZX Spectrum und Amstrad CPC, die jedoch – wie bei vielen Ocean-Produktionen jener Ära – qualitativ sichtbar hinter der Commodore-Fassung zurückblieben.

Interessanterweise war Rambo weit mehr als nur ein einfacher Commando-Klon, als den man ihn heute häufig pauschal beschreibt. Ocean bewarb das Spiel auf der Verpackung ausdrücklich als „Arcade/Strategy Game“, und tatsächlich versuchte die Entwicklung, mehr als reine Dauerballerei zu bieten. Die Handlung orientiert sich grob an der Filmvorlage: Rambo wird von Colonel Trautman mit der Aufklärung eines vietnamesischen Kriegsgefangenenlagers beauftragt und erhält den strikten Befehl: „Do not engage the enemy. Do not attempt a rescue.“ („Bekämpfen Sie den Feind nicht. Unternehmen Sie keinen Rettungsversuch.“) Wie im Film ignoriert der Spieler diese Direktive jedoch, sobald der erste gefangene Kamerad entdeckt wird, und verwandelt eine Aufklärungsmission in einen offenen Befreiungsschlag.

Spielerisch gliedert sich Rambo in mehrere Missionsphasen, die für ein Actionspiel des Jahres 1985 bemerkenswert ambitioniert wirkten. Zunächst muss das Gefangenenlager lokalisiert und fotografisch dokumentiert werden, ehe ein erster Gefangener mit dem Messer befreit wird. Danach führt der Weg zum Extraktionspunkt, zurück zum Lager zur Befreiung weiterer Gefangener und schließlich in eine finale Helikopter-Schlacht gegen ein gegnerisches Gunship. Das Handbuch beschreibt die Spielwelt werbewirksam als „one million square feet of jungle to explore“ („eine Million Quadratfuß Dschungel zum Erkunden“) – typischer Marketing-Sprech, aber ein Hinweis darauf, dass Ocean den vergleichsweise offenen Kartenaufbau bewusst als Besonderheit verstand.

Für zusätzliche taktische Tiefe sorgte ein Waffenarsenal, das über bloßes Maschinengewehrfeuer hinausging. Neben Messer, Bogen und normalen Pfeilen standen Explosivpfeile, Granaten, Raketenwerfer und Maschinengewehr zur Verfügung, wobei einige Waffen zunächst gefunden werden mussten. Bemerkenswert: Das Spiel integrierte primitive Stealth-Elemente, denn das Handbuch weist ausdrücklich darauf hin, dass laute Waffen Gegner alarmieren. In bestimmten Situationen war es also sinnvoller, mit Messer oder Bogen vorzugehen, statt sofort zur schweren Bewaffnung zu greifen. Für ein Lizenz-Actionspiel der Mitte der achtziger Jahre war das ein überraschend durchdachter Ansatz.

Technisch avancierte insbesondere die C64-Version schnell zum Gesprächsthema – allerdings weniger wegen ihres Gameplays als wegen ihrer audiovisuellen Präsentation. Martin Galway adaptierte Motive aus Jerry Goldsmiths Filmscore und schuf einen SID-Soundtrack, der bis heute zu den bekanntesten Kompositionen der Heimcomputer-Ära zählt. Die britische ZZap!64 schrieb begeistert: „Martin Galway has excelled himself in one of the finest computer symphonies.“ („Martin Galway hat sich hier selbst übertroffen und eine der besten Computersymphonien geschaffen.“) Auch die deutsche 64’er hob den Soundtrack ausdrücklich hervor und betonte, Galway habe gleich sieben verschiedene Musikstücke für das Spiel komponiert. Tatsächlich ist es kein Zufall, dass viele Veteranen sich heute zuerst an die Musik erinnern – und erst danach an das eigentliche Spiel.

Denn genau dort begann die Kontroverse. Trotz technischer Ambitionen und starker Präsentation war das Gameplay bereits bei Erscheinen umstritten. Die ZZap!64 vergab zwar ordentliche 65 Prozent, formulierte aber ein bemerkenswert hartes Urteil: „Rambo seems more like an exercise in programming rather than an attempt at producing a playable game.“ („Rambo wirkt eher wie eine Programmierübung als wie der Versuch, ein wirklich spielbares Spiel zu erschaffen.“) Gelobt wurden vor allem Musik, Präsentation und das flüssige Scrolling, kritisiert dagegen die hakelige Steuerung, unpräzise Kollisionsabfrage und die geringe Langzeitmotivation. Mit anderen Worten: Ocean hatte ein technisch eindrucksvolles, spielerisch aber nicht völlig ausgereiftes Actionspiel geschaffen.

Noch härter traf es die anderen Plattformversionen. Die deutsche ASM erklärte die Spectrum-Fassung berüchtigt zum „Flop des Tages“ und schrieb vernichtend: „Was hier über den Bildschirm flimmert und kläglich vor sich hin piepst, ist schlicht und einfach als glatter Ausfall zu betrachten.“ Die Redaktion warf Ocean vor, die Spectrum-Version gegenüber dem C64-Pendant massiv vernachlässigt zu haben. Auch die CPC-Fassung erhielt gemischte Reaktionen. Amstrad Action vergab lediglich 58 Prozent und urteilte: „Muddy graphics, awful control and off-key music make this Ocean's most over-hyped game yet.“ („Verwaschene Grafik, grauenhafte Steuerung und schiefe Musik machen dies zu Oceans bislang überbewertetstem Spiel.“) Amtix zeigte sich etwas milder mit 73 Prozent, kritisierte jedoch ebenfalls schwaches Scrolling und technische Schwächen unterhalb des sonst von Ocean gewohnten Standards.

Interessant ist zudem, dass Rambo schon 1985/86 nicht nur als Spiel, sondern auch als gesellschaftliches Reizthema wahrgenommen wurde. Die deutsche 64’er diskutierte das Spiel offen im Kontext der damals aufkommenden Debatte über Gewalt in Computerspielen und hinterfragte, ob martialische Kriegsszenarien mit schießenden und sterbenden Gegnern im Kinderzimmer angemessen seien. Diese Diskussion blieb nicht theoretisch: Am 28. Juni 1986 wurde Rambo: First Blood Part II von der damaligen BPjS indiziert und gehörte damit zu den frühen prominenten Heimcomputer-Titeln, die in Deutschland offiziell als jugendgefährdend eingestuft wurden. Heute wirkt das beinahe kurios, zeigt aber, wie früh digitale Gewalt bereits gesellschaftliche und politische Reaktionen hervorrief.

Wirtschaftlich war der Titel dennoch ein Erfolg. Der ursprüngliche Verkaufspreis lag in Großbritannien bei 8,95 Pfund, was inflationsbereinigt heute ungefähr 32 bis 35 Pfund beziehungsweise rund 38 bis 42 Euro entspricht – ein typischer Vollpreis für ein großes Lizenzspiel der damaligen Zeit. Später erschien Rambo über Budgetlabels erneut im Handel und blieb so noch Jahre nach Erstveröffentlichung erhältlich. Seine Popularität beruhte dabei weniger auf unbestrittener spielerischer Klasse als vielmehr auf der Kombination aus prominenter Filmvorlage, beeindruckender Präsentation und Ocean-typisch aggressivem Marketing.

Rückblickend nimmt Rambo: First Blood Part II damit eine bemerkenswerte Sonderrolle in der Geschichte der Filmumsetzungen ein. Es war kein uneingeschränkt gelungenes Meisterwerk, aber ebenso wenig ein bloßer Lizenz-Schnellschuss. Vielmehr demonstrierte Ocean, wie weit man Mitte der achtziger Jahre audiovisuelle Atmosphäre auf einem Heimcomputer treiben konnte – und wie leicht starke Präsentation spielerische Schwächen überstrahlen konnte. Sein Kultstatus speist sich deshalb bis heute weniger aus perfektem Game-Design als aus seiner ikonischen Inszenierung: aus Stallones Konterfei auf dem Cover, aus der filmischen Missionstruktur – und vor allem aus Martin Galways donnerndem SID-Soundtrack, der für viele Spieler untrennbar mit dem Namen Rambo verbunden bleibt.

Atari 130 ST (1985): Der nie erschienene Preisbrecher der ST-Reihe

Source: https://www.atari-computermuseum.de/520st.htm#gen1

Als Atari im Januar 1985 auf der Winter Consumer Electronics Show in Las Vegas seine neue ST-Reihe enthüllte, sorgte das Unternehmen für einen jener Messemomente, die sich tief in die Computergeschichte einbrannten. Während viele Besucher noch damit rechneten, dass der einstige VCS- und 8-Bit-Hersteller zunächst lediglich einen Nachfolger für seine XL/XE-Linie vorstellen würde, präsentierte Atari plötzlich einen vollständig grafischen 16-Bit-Computer mit Maussteuerung, Farbgrafik und integrierten MIDI-Schnittstellen. Im Mittelpunkt stand dabei nicht nur der spätere Serienstar 520 ST, sondern auch ein Modell, das nie den Weg in den Handel finden sollte: der Atari 130 ST. Heute wirkt er wie eine kuriose Fußnote, tatsächlich aber war dieser Prototyp der radikalste Ausdruck von Ataris ursprünglicher ST-Strategie – und ein Symbol für den erbitterten Wettlauf um die 16-Bit-Zukunft.

Um seine Bedeutung zu verstehen, muss man einige Monate zurückgehen. Im Sommer 1984 hatte Jack Tramiel Commodore nach einem Machtkampf verlassen und kurz darauf die Consumer-Sparte von Atari übernommen. Sein Ziel war klar: So schnell wie möglich einen bezahlbaren 16-Bit-Computer auf den Markt bringen, noch bevor Commodore selbst den Übergang in die nächste Generation schaffen konnte. Die Ironie der Geschichte bestand darin, dass Commodore kurz darauf Amiga Corporation übernahm – just jenes Unternehmen, an dem Atari zuvor selbst finanziell interessiert gewesen war. Was folgte, war eines der bemerkenswertesten Wettrennen der Heimcomputergeschichte: Tramiel musste binnen weniger Monate eine komplett neue Plattform aus dem Boden stampfen, während Commodore hinter verschlossenen Türen am späteren Amiga 1000 arbeitete.

Ganz unvorbereitet traf Atari die Konkurrenz jedoch nicht. Zwar zeigte Commodore auf der CES 1985 offiziell vor allem den Commodore 128, während der Amiga noch nicht öffentlich auf dem Messestand zu sehen war, doch in Branchenkreisen kursierten bereits Berichte über nichtöffentliche Demonstrationen der von Commodore übernommenen Amiga-/Lorraine-Hardware. Ausgewählte Händler und Partner erhielten hinter verschlossenen Türen Einblicke in jene Technologie, aus der wenige Monate später der Amiga 1000 hervorgehen sollte. Atari wirkte damit zwar öffentlich wie der sichtbare Vorreiter der 16-Bit-Generation – hinter den Kulissen wusste man jedoch, dass Commodore bereits an deutlich ambitionierterer Hardware arbeitete.

Unter dem internen Motto „Rock Bottom Price“ entstand die ST-Reihe in erstaunlicher Geschwindigkeit. Atari plante zunächst drei Modelle: den 130 ST, den 260 ST und den 520 ST, benannt nach ihrer jeweiligen Speicherklasse. Der 130 ST sollte dabei das absolute Einstiegsmodell werden – ein vollwertiger 16-Bit-Rechner für Käufer, die bislang nur 8-Bit-Preisklassen gewohnt waren. Bereits dieser Plan zeigt, wie aggressiv Atari kalkulierte: Der Konzern wollte nicht bloß einen leistungsfähigen Computer bauen, sondern den günstigsten denkbaren 16-Bit-Rechner mit grafischer Oberfläche.

Technisch war der 130 ST dabei keineswegs ein kastriertes Sparmodell. Im Kern entsprach er bereits weitgehend den späteren Serien-STs. Herzstück war ein Motorola 68000 mit 8 MHz, flankiert vom Yamaha YM2149F als Soundgenerator und der frühen ST-Grafiklogik mit Auflösungen von 320 × 200 Pixeln bei 16 Farben, 640 × 200 bei 4 Farben sowie 640 × 400 Pixeln im Monochrommodus. Auch die später legendären MIDI-Schnittstellen gehörten bereits zum festen Ausstattungspaket; zur Ansteuerung kam – wie in den Seriengeräten – ein Motorola 6850 ACIA zum Einsatz. Damit besaß selbst das kleinste geplante ST-Modell schon jene Merkmale, die die Plattform später in Musikstudios und semiprofessionellen Umgebungen populär machen sollten.

Seine Achillesferse war der Arbeitsspeicher. Die Modellbezeichnung „130“ stand für rund 128 KB RAM, und genau hier zeigte sich schnell die Kehrseite von Ataris Preisoffensive. Früheste ST-Prototypen luden Teile von TOS/GEM noch von Diskette, was bereits einen erheblichen Teil des verfügbaren Speichers verschlang. Doch selbst unabhängig davon erwies sich die Kapazität als schlicht zu knapp für einen GUI-basierten 16-Bit-Rechner. Anwendungen ließen sich nur stark eingeschränkt nutzen, und was auf dem Papier nach einem revolutionären Billig-ST aussah, wirkte in der Praxis schnell wie ein System an der Grenze seiner Nutzbarkeit. Atari erkannte das Problem rasch und strich den 130 ST bereits wenige Monate nach seiner öffentlichen Vorstellung wieder aus den Planungen.

Dass der Rechner nie erschien, schmälert seine historische Bedeutung jedoch kaum. Denn auf der CES 1985 erfüllte er bereits seinen Zweck: Atari wirkte plötzlich wie der technologische Vorreiter der Branche. Während Commodore auf derselben Messe primär den Commodore 128 und den später eingestellten Commodore LCD zeigte, präsentierte Atari der Öffentlichkeit bereits eine komplette 16-Bit-Plattform. Selbst wenn Brancheninsider wussten, dass Commodore mit dem Amiga etwas deutlich Ambitionierteres vorbereitete, gewann Atari kurzfristig den Kampf um die öffentliche Wahrnehmung.

Der 130 ST war damit nicht nur Hardwareprototyp, sondern auch ein strategisches Signal an Markt und Presse. Atari demonstrierte: Man war bereit für die 16-Bit-Ära, und man würde sie zu einem Preis betreten, den die Konkurrenz nur schwer unterbieten konnte. Selbst wenn das kleinste Modell letztlich nie erschien, zeigte es unmissverständlich, wie kompromisslos Tramiels Team kalkulierte.

Spuren des 130 ST blieben sogar in der Hardwareentwicklung erhalten. Auf frühen ST-Platinen finden sich noch Bezeichnungen wie „130/520ST“, was zeigt, wie eng die Entwicklungsphasen der Modelle miteinander verzahnt waren. Der 130 ST war keine isolierte Sackgasse, sondern ein echter Vorläufer der gesamten Serienplattform. In gewisser Weise lebte er in jedem späteren ST weiter – nur eben mit realistischerer Speicherausstattung.

Rückblickend war der Atari 130 ST kein gescheitertes Produkt, sondern ein Lehrstück über die Grenzen radikaler Preispolitik. Atari wollte einen vollwertigen grafischen 16-Bit-Computer zum Kampfpreis liefern und trieb dieses Konzept so weit, bis selbst die eigene Hardware an ihre Grenzen stieß. Dass man letztlich zurückruderte, war weniger Niederlage als pragmatische Einsicht.

Gerade deshalb bleibt der 130 ST einer der spannendsten nie erschienenen Atari-Rechner überhaupt: nicht weil er technisch revolutionär gewesen wäre, sondern weil er wie kaum ein anderes System zeigt, mit welcher Entschlossenheit Atari Mitte der 1980er versuchte, die Konkurrenz zu überholen. Der 130 ST war der erste sichtbare Vorbote einer Plattform, die wenige Monate später den Heimcomputermarkt nachhaltig prägen sollte – und zugleich der vielleicht deutlichste Beweis dafür, dass selbst Jack Tramiels berühmtes Motto „Business is War“ manchmal an den physikalischen Grenzen des Arbeitsspeichers scheiterte.