Sinclair ZX Spectrum 128

128 Kilobyte Hoffnung – Wie Sinclair mit dem Spectrum 128 sein Erbe retten wollte

ZX-Spectrum128K

Picture by: http://www.retro8bitcomputers.co.uk/Sinclair/ZXSpectrum128

Als der 128-Kilobyte-Spectrum in Barcelona zum ersten Mal unter den Scheinwerfern stand, wirkte es ein wenig so, als würde Sinclair Research noch einmal mit Nachdruck verkünden wollen, dass die Ingenieure in Cambridge nicht bereit waren, die Bühne zu räumen. Spanien war ein seltsamer Ort für dieses Comeback, doch ausgerechnet dort entschied die Finanzpolitik über Sinclairs Zukunft: Eine Steuergrenze, die Computer mit weniger als 64 KB als Luxus behandelte, zwang die Briten dazu, kurzfristig ein Modell mit doppeltem Speicher zu entwickeln. Und so wurde Investrónica, der mächtige Vertriebspartner von Sinclair auf der Iberischen Halbinsel, plötzlich zum Mitgestalter eines der ungewöhnlichsten 8-Bit-Rechner seiner Zeit.

Im Kern schlug nach wie vor der vertraute Takt des Z80A, jenes unverwüstlichen 8-Bit-Prozessors, der seit 1982 eine ganze Generation an Software getragen hatte. Doch jetzt durfte er auf 128 KB zugreifen, und das neu gestaltete ROM brachte nicht nur zusätzliche BASIC-Befehle mit, sondern auch das Gefühl, der Spectrum könne plötzlich Dinge sagen und tun, zu denen er vorher schlicht nicht in der Lage war. Der AY-3-8912-Soundchip verwandelte das Gerät von einem piepsenden Minimalisten in ein kleines elektronisches Orchester. Es war ein Moment, der für viele Benutzer wie ein Befreiungsschlag wirkte – als hätte der Spectrum gelernt, musikalisch zu atmen.

Äußerlich blieb vieles beim Alten, bis man auf die rechte Seite blickte. Dort ragte der Aluminiumkühlkörper hervor, groß, kantig, ein bisschen übertrieben – und doch so ikonisch, dass ihm der Spitzname „Toast Rack“ bis heute anhaftet. Guillermo Capdevila, der für das spanische Design verantwortlich war, respektierte zwar die Linien des Spectrum+, gab dem 128er aber eine Art technisches Seitenprofil, das man nicht übersehen konnte. In Spanien präsentierte Investrónica sogar einen externen Ziffernblock, ein Accessoire, das den Spectrum 128 ein Stück weit in Richtung Bürocomputer rückte.

ZX128Ad

Doch seine eigentliche Transformation fand unter der Haube statt. Die neue Speicherorganisation, die erweiterten BASIC-Puffer und die Rasterung der Bank-Switching-Logik verliehen dem Rechner eine Flexibilität, die man dem Spectrum früher nie zugetraut hätte. Und mit den neuen Anschlüssen – RGB, RS-232 und der integrierten MIDI-Schnittstelle – betrat Sinclair technisches Terrain, das bis dahin kaum ein Heimcomputer beschritten hatte. Spanische Magazine zeigten einprägsame Bilder: ein Spectrum 128, der über MIDI mit einem Keyboard kommunizierte. Ein 8-Bit-Heimcomputer, der sich mit der Gelassenheit eines Synthesizers verhielt – das blieb haften, gerade bei der jüngeren Generation.

Die Elektronik des 128ers war das Werk von Martin Brennan, John Mathieson und Ben Cheese, drei Ingenieuren, die später Flare Technology gründeten. Ihre Konzepte beeinflussten Jahre danach die Architektur des Atari Jaguar – eine dieser leisen, aber faszinierenden Querverbindungen in der Computergeschichte. Dass dieselben Köpfe zuvor an diesem Spectrum saßen, ist einer jener Momente, in denen die Chronologie der Technik ihren ganz eigenen Rhythmus zeigt.

Der Preis war ehrlich, wenn auch nicht spektakulär: £ 179 in Großbritannien, ein Wert, der den 128er klar als Weiterentwicklung, nicht aber als Neubelebung des Marktes positionierte. In Spanien hingegen wurde er ein Massenphänomen. Über 100 000 Geräte wanderten über die Ladentheken des riesigen Vertriebsnetzes von El Corte Inglés, und Magazine wie MicroHobby berichteten Monat für Monat über neue Spiele, neue Tricks, neue Anwendungen – oft spezifisch für den 128K-Modus.

Natürlich war der neue Spectrum nur bedingt ein Rettungsanker. Sinclair Research hatte sich bereits mit dem QL und dem C5 in eine schwierige Lage gebracht, und der 128er kam vielleicht ein Jahr später, als man es sich hätte wünschen sollen. Doch seine Bedeutung misst sich nicht allein an Geschäftsberichten. Er war der Beweis, dass ein vertrauter 8-Bit-Computer erwachsen werden konnte, ohne seine Herkunft zu verraten. Ein Gerät, das zugleich Tradition und Ambition verkörperte.

Und wenn man ihn heute einschaltet, hört man zuerst das leise Klicken des Relais, sieht die vertrauten Farben aufleuchten und spürt diesen feinen Übergang zwischen zwei Epochen. Der ZX Spectrum 128 war nie nur ein technisches Artefakt. Er war der letzte große Funke aus Cambridge, bevor der Staffelstab an Amstrad überging – ein Rechner, der zeigte, wie weit man mit einer guten Idee, einem alten Prozessor und 128 KB Hoffnung kommen konnte.

 

Atari ANTIC

Jay Miners Meisterchip: Wie ANTIC dem Atari das Sehen beibrachte

anticWenn man den Herzschlag eines Atari-Heimcomputers suchte, fand man ihn nicht in der CPU, sondern in einem unscheinbaren, aber genialen Baustein: dem ANTIC, kurz für Alphanumeric Television Interface Controller. Was auf den ersten Blick wie ein nüchterner Schaltkreisname aus der Laborwelt klang, war in Wahrheit der kreative Motor, der die Atari-8-Bit-Rechner zu den grafisch eindrucksvollsten Heimcomputern ihrer Zeit machte. ANTIC war kein gewöhnlicher Videochip – er war ein kleiner, eigenständiger Mikroprozessor, der das Bildschirmgeschehen selbstständig berechnete, während die Haupt-CPU sich um Logik, Sound und Eingaben kümmern konnte.

Die Geschichte dieses Chips beginnt 1977, als Atari – nach dem überwältigenden Erfolg der Videospielkonsole Atari VCS 2600 – beschloss, den nächsten Schritt zu wagen: den Sprung vom Spielgerät zum echten Heimcomputer. Der Mann, der dafür die Weichen stellte, war Jay Glenn Miner. Geboren 1932 in Prescott, Arizona, hatte Miner bereits bei Standard Micro Systems und American Microsystems (AMI) Erfahrung im Design von MOS-Schaltungen gesammelt, bevor er 1974 zu Atari kam. Dort übernahm er die technische Leitung für den wichtigsten Baustein der neuen Konsole: den TIA, den Television Interface Adapter.
Der TIA war ein Meisterstück – er vereinte Bild-, Ton- und Eingabelogik in einem einzigen Chip. Miner entwickelte ihn bei Atari selbst, in den Labors in Sunnyvale, während die Produktion des fertigen Siliziums bei Synertek stattfand, da Atari zu dieser Zeit keine eigene Chipfertigung besaß. Ohne Miner wäre der TIA – und damit die gesamte 2600-Konsole – nie entstanden.

Nach dem Siegeszug des VCS wollte Miner jedoch mehr: „Ich wollte, dass der Computer selbst versteht, wie ein Bild aufgebaut ist“, erinnerte er sich später, „nicht, dass er es nur nachzeichnet.“ Gemeinsam mit Joe Decuir, François Michel und Steve Smith begann er 1977 mit der Arbeit an einer neuen Chipgeneration für Ataris geplante Heimcomputer. Der Ansatz war revolutionär: Statt die CPU mit allen Grafikaufgaben zu belasten, sollte ein eigenständiger Prozessor die Darstellung übernehmen. Aus dieser Idee entstand der ANTIC, ein programmierbarer Grafik-Coprozessor, der Displaybefehle interpretierte und das Bild selbstständig generierte – zu einer Zeit, als man Grafik sonst mühsam in Speicherblöcke und Tabellen kodierte.

ANTIC arbeitete mit einem raffinierten Prinzip: einer sogenannten Display List. Diese Liste im Arbeitsspeicher enthielt Anweisungen, wie jede Bildschirmzeile aussehen sollte – ob sie Text, Grafik oder Leerraum zeigte, ob Farben geändert, Sprites eingeblendet oder Zeilen übersprungen werden sollten. ANTIC las diese Befehle direkt aus dem RAM, während der Hauptprozessor (der 6502 bzw. Atari-Sally) andere Aufgaben bearbeitete. Dadurch entstand erstmals in einem Heimcomputer eine Form der parallelen Verarbeitung.

Technisch war der Chip seiner Zeit weit voraus. Er besaß eigene Register und nutzte DMA (Direct Memory Access), um Speicherinhalte direkt zu lesen, ohne die CPU zu belasten. Der ANTIC beherrschte 14 verschiedene Grafikmodi, von Textdarstellungen bis zu hochauflösenden Bitmaps mit 320 × 240 Pixeln. Aufgrund der NTSC-Norm konnten jedoch nur rund 192 Zeilen auf dem Bildschirm sichtbar dargestellt werden, da ein Teil des Signals für Synchronisation und Farbburst reserviert war. Entwickler konnten diese Begrenzung umgehen, riskierten aber, dass das Bild auf manchen Fernsehern oben oder unten beschnitten wurde.

Gemeinsam mit dem Farbchip GTIA (bzw. der älteren CTIA-Version) konnte ANTIC bis zu 256 Farbtöne verarbeiten, von denen je nach Grafikmodus bis zu 16 gleichzeitig sichtbar waren. Hinzu kamen horizontales und vertikales Feinscrolling, variable Bildschirmbreiten („narrow“, „normal“, „wide“) sowie Display List Interrupts – spezielle Rasterunterbrechungen, mit denen Farben oder Darstellungsmodi mitten im Bild geändert werden konnten. Diese Technik ermöglichte fließende Farbverläufe, Multicolor-Effekte und Scrolling mit butterweicher Präzision – alles in Hardware, ohne Rechenzeitverlust der CPU.

Diese Architektur machte den Atari 400 und 800 – später 800XL und 130XE – zu wahren Grafikwundern. Spiele wie Star Raiders, Koronis Rift oder Rescue on Fractalus! demonstrierten, was möglich war: pseudo-dreidimensionale Landschaften, sanftes Scrolling und Farbwechsel in Echtzeit – Effekte, die der Konkurrenz oft verborgen blieben. Nicht zufällig wurde die 1980 gegründete Atari-Fachzeitschrift Antic Magazine nach diesem Chip benannt – als Symbol für die kreative Ingenieurskunst, die Atari auszeichnete.

Jay Miner selbst war zu dieser Zeit längst eine Legende im Unternehmen. Kollegen beschrieben ihn als geduldigen, fast sanften Menschen, der komplexe Schaltkreise „im Kopf“ entwarf. Er notierte Ideen in kleinen Spiralblöcken, skizzierte Logikdiagramme während Meetings und kehrte oft am nächsten Tag mit einem nahezu fertigen Chipdesign zurück. Das häufig zitierte Gerücht, er habe Chips ohne Prototypen fertiggestellt, stimmt so nicht – Miner ließ selbstverständlich Prototypen anfertigen, doch seine Entwürfe waren so präzise, dass sie fast immer auf Anhieb funktionierten. Innerhalb der Entwicklungsabteilung kursierte der geflügelte Satz: „Wenn Jays Chip nicht läuft, ist das Testgerät schuld.“

Der ANTIC spiegelte Miners Philosophie perfekt wider: Technik sollte dem Benutzer helfen, nicht ihn einschränken. Während andere Firmen starre, kaum programmierbare Videochips bauten, entwarf Miner ein System, das sich dem Entwickler anpasste. Zusammen mit dem GTIA und dem Soundchip POKEY bildete ANTIC das legendäre „Dreigestirn“ der Atari-Technik. Joe Decuir fasste es später so zusammen: „Jay gab uns nicht nur Chips – er gab uns eine Denkweise: Lass die Maschine mitdenken.“

Auch wirtschaftlich war der Chip ein Erfolg. Seine Entwicklungskosten beliefen sich laut interner Unterlagen auf rund 150 000 US-Dollar (inflationsbereinigt etwa 750 000 Euro), während die Herstellungskosten pro Stück bei etwa 12 US-Dollar lagen – rund 55 Euro nach heutigem Wert. Da ANTIC in allen Atari-8-Bit-Heimcomputern sowie in der Konsole Atari 5200 eingesetzt wurde, amortisierten sich die Ausgaben schnell. Spätere Versuche, ANTIC und GTIA in einem einzigen Baustein zusammenzufassen, um Kosten zu sparen, scheiterten jedoch an den Fertigungskapazitäten der damaligen Zeit.

Im Vergleich zur Konkurrenz war ANTIC ein Musterbeispiel an Eleganz. Der Commodore 64 mit seinem VIC-II-Chip konnte zwar Hardware-Sprites und Soundfilter, war aber starrer aufgebaut. ANTIC hingegen erlaubte es, Grafikmodi zu mischen, Scrolling per Pixel durchzuführen und Bildbereiche dynamisch zu verändern – Dinge, die der C64 erst durch Tricks und Timing-Feinheiten erreichte. Selbst der Apple II, der alle Grafikdaten über die CPU zeichnete, wirkte dagegen wie aus der Steinzeit. Das amerikanische Byte Magazine schrieb 1982 treffend: „Das Grafiksystem des Atari ist eher ein Partner der CPU als deren Diener.“

Bis zu seinem Weggang 1982 leitete Jay Miner noch mehrere Integrationsprojekte, bei denen die drei Custom-Chips enger zusammenarbeiten sollten. Viele seiner Ideen – etwa DMA-gesteuertes Multitasking und synchrone Grafikprozessoren – flossen später in die Architektur des Amiga ein, den er nach seinem Abschied von Atari bei Hi-Toro (später Amiga Corporation) mitentwickelte. Miner verließ Atari enttäuscht über die zunehmend kaufmännische Führung, aber mit der Genugtuung, ein technisches Erbe geschaffen zu haben, das Generationen überdauern würde.

Der ANTIC blieb sein Vermächtnis bei Atari – ein Stück Silizium, das zeigte, was Ingenieurskunst leisten konnte, wenn man sie nicht vom Marketing bremsen ließ. Er war der erste Heimcomputerchip, der wirklich dachte, anstatt nur Befehle auszuführen – ein kleiner Künstler aus der Halbleiterwelt, geschaffen von einem Mann, der Maschinen dazu brachte, Bilder zu malen.

Atari 800XL

Atari 800XL

atari 800xl

By Evan-Amos - Own work

Als Atari Anfang der achtziger Jahre noch als Synonym für Videospiele galt, schien die Welt des Unternehmens in Ordnung. Das Atari VCS 2600 füllte die Wohnzimmer, Space Invaders und Pac-Man wurden zu kulturellen Ikonen, und die Heimcomputer Atari 400 und 800 fanden ihr Publikum. Doch das Paradies währte nicht ewig. Commodore, Texas Instruments und Sinclair traten auf den Plan und stürzten die Branche in einen gnadenlosen Preiskrieg. Commodore hatte mit dem VIC-20 bereits 1981 ein günstiges Einsteigermodell etabliert und bereitete 1982 mit dem Commodore 64 den entscheidenden Schlag vor. Ataris Marktanteil fiel in nur zwei Jahren von etwa 25 % auf unter 10 %, während Commodore auf über 40 % emporschnellte. In Europa dominierte der ZX Spectrum, Texas Instruments subventionierte den TI-99/4A bis in die Verlustzone. Atari hingegen war schwerfällig geworden – gebremst vom Mutterkonzern Warner Communications, der kurzfristige Gewinne über technische Weitsicht stellte.

In den Laboren in Sunnyvale gärte derweil Unmut. Die Ingenieure fühlten sich ausgebremst, während Commodore-Chef Jack Tramiel mit ruinösen Preissenkungen den Markt aufmischte. Atari hatte hohe Produktionskosten und ein Management, das die eigene Technik kaum verstand. 1983 folgte der große Einbruch: Der Videospiel-Crash ließ die Gewinne kollabieren, E.T. und Pac-Man auf dem VCS 2600 wurden zu Symbolen des Überangebots, und das Unternehmen verlor über 500 Millionen Dollar.

Inmitten dieser Krise entstand ein Projekt mit dem internen Codenamen „Surely Plus“. Es sollte den teuren, fehlerbehafteten Atari 1200XL ersetzen und eine neue Generation erschwinglicher Heimcomputer einleiten. Ziel war ein 64-Kilobyte-Rechner, der die bewährte Atari-Architektur beibehielt, aber günstiger zu fertigen und weltweit kompatibel war. Das Team bestand aus erfahrenen Ingenieuren: George McLeod leitete das Hardware-Design und sorgte für die kompakte Ein-Platin-Lösung, Doug Neubauer, Schöpfer des POKEY-Chips und von Star Raiders, beriet bei der Integration der Spezialchips, Regan Cheng entwarf das elegante Gehäuse, und Paul Laughton, Autor des Atari DOS, betreute den Übergang des Betriebssystems in das neue ROM. Die Grundlagen der Architektur stammten noch von Jay Miner und Joe Decuir (der später den USB Port mitentwickelte), die zwar längst zu Amiga-bzw. Tandem-Computers weitergezogen waren, deren Chip-Designs – ANTIC, GTIA und POKEY – aber weiterhin Herz und Seele des Systems bildeten.

Der Atari 800XL wurde am 5. Juni 1983 auf der Summer CES in Chicago vorgestellt. Die Produktion lief im Sommer an, doch Lieferprobleme verzögerten den Start. Eine aufwändige Werbekampagne mit Alan Alda aus M*A*S*H sorgte für Aufmerksamkeit, doch zum Weihnachtsgeschäft fehlten Geräte in den Regalen. Erst Anfang 1984 normalisierte sich die Lage – da steckte Atari bereits tief in Umstrukturierungen.

Als der 800XL endlich regulär erschien, kostete er 299 US-Dollar (heute rund 860 Euro). In Westdeutschland kam er im Frühjahr 1984 für 798 DM (etwa 770 Euro) auf den Markt. Das von Regan Cheng entworfene Gehäuse war kompakter und funktionaler: der Cartridge-Slot wieder oben, die Joystick-Ports an der Seite, die Platine aufgeräumt und servicefreundlich.

Herzstück war die MOS 6502-Variante Sally mit rund 1,79 MHz Taktfrequenz, unterstützt von drei Custom-Chips: ANTIC, der Grafik-Coprocessor, der den Bildschirm zeilenweise aus dem RAM aufbaute; GTIA, zuständig für Farbverwaltung, Sprites und Kollisionen; und POKEY, der vier Soundkanäle, Tastatur und serielle Kommunikation steuerte. Das Resultat war für 1983 beeindruckend: eine Auflösung bis 320 × 192 Pixel, 256 Farbtöne mit bis zu 16 gleichzeitig auf dem Bildschirm – und ein Klang, der zwar nicht ganz an den legendären SID des C64 heranreichte, dafür aber vier Stimmen gleichzeitig erlaubte.

Das Betriebssystem lag fest im ROM (24 KB) und enthielt bereits Atari BASIC, das beim Einschalten automatisch startete. Über das Parallel Bus Interface (PBI) konnten theoretisch Erweiterungen wie die nie erschienene 1090XL Expansion Box angeschlossen werden, und die bewährte SIO-Schnittstelle verband Diskettenlaufwerke, Drucker und Modems per Daisy-Chain – ein frühes Plug-and-Play-System.

Standard-Massenspeicher war das Atari 1050-Diskettenlaufwerk, flankiert vom Kassettengerät XC12. Das Zubehörangebot war gewaltig: Drucker, Grafiktabletts, Akustikkoppler, sogar Sprachmodule. Die Happy Computer schrieb 1984 anerkennend: „Das Zubehörangebot ist fast unerschöpflich – der 800XL wirkt wie ein professionelles System im Heimcomputer-Format.“

Im direkten Vergleich mit Commodores VIC-II zeigt sich, dass beide Systeme technisch unterschiedlich gedacht waren. Der VIC-II beherrschte Hardware-Sprites, Feinscrolling in beide Richtungen und Raster-Interrupts – also all jene Mittel, mit denen sich Bildbereiche mischen oder per Pixel verschieben ließen. Der Unterschied lag nicht in der Fähigkeit, sondern in der Architektur: Der VIC-II erforderte bei komplexen Layouts eine aktive Rolle der CPU, während ANTIC dieselben Aufgaben weitgehend autonom erledigte. Seine Display-List war gewissermaßen ein programmierbares Drehbuch für den Bildschirmaufbau: Sie definierte Grafikmodi, Scroll-Zonen und Fenstergrenzen ohne jede CPU-Last. Wo der C64 über gezielte Interrupt-Logik arbeitete, delegierte der Atari diese Steuerung an eine eigene DMA-Einheit – ein Konzept, das für Entwickler weniger Timing-Finesse, dafür aber mehr Stabilität und Effizienz bedeutete. Der VIC-II konnte mit geschicktem Einsatz seiner Raster-Interrupts und präziser Taktarbeit manches sogar weiter treiben – etwa großflächiges Scrolling ohne Speicherbewegung oder bewusstes Austesten der DMA-Grenzen – doch der ANTIC tat vieles davon von Haus aus, planbar, reproduzierbar und ohne Risiko, den Bus zu überlasten. Diese Philosophie, Aufgaben von der CPU zu entkoppeln, verlieh dem Atari-System seine charakteristische technische Eleganz – eine Ingenieursästhetik, die schon Jay Miner vorgeschwebt hatte, als er den Chip entwarf.

Trotz der wirtschaftlich schwierigen Zeit erwies sich der Atari 800XL als ausgesprochen leistungsfähige Spielmaschine. Seine fortschrittliche Architektur mit den drei Spezialchips ANTIC, GTIA und POKEY machte ihn zu einem Traum für Entwickler, die nicht nur Text oder simple Sprites, sondern komplexe, farbintensive Szenen erschaffen wollten. Titel wie Star Raiders demonstrierten bereits eindrucksvoll die 3D-Fähigkeiten der Plattform, während Rescue on Fractalus! und Koronis Rift von Lucasfilm Games zeigten, wie Fraktalgrafik und dynamische Perspektiven auf einem 8-Bit-Rechner aussehen konnten. Ballblazer setzte Maßstäbe durch seine algorithmisch erzeugte Musik und Splitscreen-3D-Darstellung, Dropzone von Archer MacLean bewies, dass butterweiches Scrolling und Reflex-Action selbst ohne Hardware-Sprites möglich waren. Klassiker wie M.U.L.E., Boulder Dash und Seven Cities of Gold nutzten die Systemreserven intelligent aus und prägten ganze Spielegattungen – von Wirtschaftssimulationen bis zu Explorationstiteln. Auch die POKEY-Soundfähigkeiten ermöglichten eindrucksvolle Klanglandschaften, etwa in Necromancer oder Blue Max. Im Vergleich zum Commodore 64 fehlten dem Atari zwar die Filtereffekte des SID-Chips, doch seine Grafikengine war flexibler, seine Farbvielfalt größer, und viele Entwickler lobten die klare Bildqualität über den Monitor-Ausgang. In Fachmagazinen jener Zeit galt der 800XL als „Maschine für Kenner“ – weniger Massenprodukt als Kultinstrument für Spieler, die technische Raffinesse zu schätzen wussten. Bis weit in die späten Achtziger hinein entstanden auf ihm in Deutschland, den Niederlanden und Polen noch Demos und Spiele, die zeigten, dass der elegante XL auch als reine Spieleplattform zu den besten 8-Bit-Computern seiner Ära zählte.

1984 verkaufte Atari rund 700 000 Heimcomputer, während Commodore über zwei Millionen C64 absetzte. Als Jack Tramiel im Juli 1984 Atari Corp. übernahm, senkte er die Preise drastisch; der 800XL wurde rasch zum günstigsten 64-KB-Computer seiner Klasse. In Europa blieb er populär, besonders in Deutschland, wo bis 1988 rund 500 000 Geräte verkauft wurden.

Ein unerwartetes Nachspiel folgte in Osteuropa: Mit der Öffnung der Märkte ab 1988 nahm Atari die Produktion wieder auf – in der leicht überarbeiteten XLF-Version mit dem neuen FREDDIE-Chip. In Polen, der Tschechoslowakei und der DDR wurde der 800XL zum ersten offiziell importierten West-Heimcomputer. Bis 1991 liefen Neuauflagen vom Band, meist im Bundle mit dem XC12-Laufwerk.

Rückblickend gilt der Atari 800XL als das ausgewogenste Modell der 8-Bit-Familie. Er verband Leistung, Eleganz und Benutzerfreundlichkeit zu einem System, das trotz widriger Marktbedingungen Maßstäbe setzte. Seine Architektur war ein Vermächtnis von Jay Miner, weitergeführt von McLeod und Neubauer, veredelt von Cheng und Laughton – ein echtes Gemeinschaftswerk der alten Atari-Schule.

Ein Entwickler sagte später rückblickend: „Surely Plus war unser Rettungsboot – klein, wendig, aber gebaut mit dem Herzblut von Leuten, die Atari noch glaubten.“ Und genau das war er: ein Computer, geboren aus der Krise, geschaffen mit Stolz, und bis heute ein Symbol für die goldene Ära der Heimcomputer.

Dirty Den – 1987 by Probe Software

Dirty Den - 1987 by Probe Software

dirty denAls 1986 das Spiel Dirty Den für den Commodore 16 und den Plus/4 erschien, ahnte wohl kaum jemand, dass hier eines der letzten großen Action-Signale für die kleine Commodore-Reihe gesetzt wurde. Das Spiel, entwickelt von Vakis Paraskeva für Probe Software, wurde in 16 Kilobyte Maschinencode gepresst – eine technische Leistung, wenn man bedenkt, dass allein der Titelbildschirm und die Spiellogik schon einen beachtlichen Teil des Speichers verschlangen. Probe Software, 1984 von Paraskeva und Fergus McGovern gegründet, war damals ein Zwei-Mann-Betrieb, der buchstäblich alles selbst machte: „At this stage everything from packaging to marketing was still done by Fergus and Vakis … it was turning into a 24 hours a day job.“ Übersetzt: „In dieser Phase wurden Verpackung und Marketing noch ganz von Fergus und Vakis gemacht … es entwickelte sich zu einem 24-Stunden-Job.“

Im Mittelpunkt steht der namensgebende Antiheld – Dirty Den – ein kleiner, leicht untersetzter Kerl mit einem roten Overall und dem Mut, den es braucht, um sich durch zwölf gefährliche Räume zu schlagen. Die Handlung ist, wie so oft in der 8-Bit-Ära, schlicht, aber wirkungsvoll: Dens Freundin wurde von einem namenlosen Schurken in einem labyrinthartigen Gebäude voller Fallen, springender Gegner und tödlicher Plattformen eingesperrt. Nur wer alle Tafeln Schokolade in jedem Raum einsammelt – ein augenzwinkerndes Symbol für Energie, vielleicht auch für Dens Schwäche für Süßes – kann das Tor zum nächsten Abschnitt öffnen. Erst wenn alle Räume gemeistert sind, steht Den seiner Angebeteten gegenüber – eine Rettung, die nicht mit Zwischensequenzen, sondern mit einem simplen Textscreen gefeiert wird.

Das Besondere dabei ist die Steuerung. Anders als viele Plus/4-Spiele jener Zeit, die wahlweise auch Joysticks im Standard-Port unterstützten, wurde Dirty Den ausschließlich über die Tastatur gespielt. Laut den Anleitungen auf MobyGames und Plus/4 World nutzte man die Richtungstasten A (links), S (rechts) und SPACE zum Springen – eine spartanische, aber erstaunlich präzise Lösung. Ein Feuerknopf? Fehlanzeige – Den hatte keine Waffe, er überlebte allein durch seine Füße und seinen Mut. Das machte das Spiel gleichzeitig einfacher im Aufbau und schwerer im Timing, denn jede Eingabe musste exakt getaktet werden. Wer versehentlich zu lange auf SPACE drückte oder zu spät auf A wechselte, sah Den in die Tiefe stürzen. Diese Art Tastatursteuerung war damals eine Seltenheit bei Actionspielen, wirkte aber erstaunlich griffig, sobald man sich eingespielt hatte. Manche Sammler nennen es heute liebevoll „Fingerakrobatik auf drei Tasten“.

dirty den c16Das Spiel verläuft in klassischer Bildschirm-zu-Bildschirm-Manier: Jeder Raum ist ein Puzzle aus Leitern, Plattformen und beweglichen Objekten. Feindliche Kreaturen – meist fliegende Wesen, animierte Bälle oder kleine Roboter – bewegen sich nach festen Mustern, und die Herausforderung liegt darin, das Timing ihrer Bahnen zu studieren. Den springt mit erstaunlicher Präzision, was dem Spiel trotz seiner Einfachheit eine gewisse Geschmeidigkeit verleiht. Fallen wie Dornen, rollende Geschosse oder Laserbarrieren zwingen den Spieler zu vorausschauender Bewegung – ein Fehler, und man beginnt den Raum von vorn. Manche Räume haben zusätzlich trickreiche Mechanismen: Plattformen, die unter den Füßen verschwinden, oder Aufzüge, die nur bei Kontakt mit bestimmten Objekten reagieren. Ein kleines, aber feines Detail sind die Schokoladenstücke selbst – sie sind oft so platziert, dass man riskante Sprünge wagen muss, anstatt den sicheren Weg zu nehmen. Dieses Element verleiht Dirty Den einen gewissen Suchtfaktor: „Nur noch einen Versuch, diesmal schaffe ich’s ohne Absturz!“ – ein Satz, den man 1986 in so manchem Kinderzimmer gehört haben dürfte.

Die Steuerung reagiert unmittelbar, doch verlangt sie eiserne Disziplin. Gerade weil der Plus/4-Joystickanschluss nicht verwendet wird, sondern allein die Tastatur, fühlt sich Dirty Den heute beinahe wie ein frühes „Precision-Platformer-Experiment“ an. Eine falsche Bewegung, ein ungeduldiger Sprung – und Den verschwindet in der Tiefe. Manche Tester beschrieben das Gefühl als „gleichzeitig frustrierend und fesselnd“, andere lobten, dass man nach einigen Minuten ein erstaunlich gutes Muskelgedächtnis für die Tasten entwickelt.

Der Bildschirmaufbau war typisch für C16-Produktionen jener Zeit: kein Scrolling, sondern Raum für Raum. Jeder Level wurde als statischer Abschnitt geladen, und die Spielfigur sprang präzise über Abgründe, während kleine Animationen auf das Minimum reduziert waren. Die Gegner bestanden aus simplen Sprites, die mit fester Bahn liefen, manchmal ergänzt durch rotierende Gefahren, die man auswendig lernen musste. Das Spiel bot fünf Leben, und wer alle Räume absolvierte, erhielt ein einfaches „Well Done“ – ein Abschluss, der heute fast rührend schlicht wirkt.

Probe Software hatte sich bewusst entschieden, für die C16- und Plus/4-Gemeinde zu entwickeln, obwohl der Markt bereits schrumpfte. Der Commodore 64 dominierte zu diesem Zeitpunkt alles, doch Probe verstand die kleine Schwesterplattform als Experimentierfeld. Der gewählte Titel Dirty Den sorgte dabei für einen Hauch von Aufsehen, da er zufällig mit einer Figur aus der BBC-Serie EastEnders identisch war – allerdings ohne jede Lizenz. Der Titel war schlicht ein frecher Marketing-Gag. Manche Spieler vermuteten damals einen satirischen Bezug, was Probe mit einem knappen „pure coincidence“ kommentierte.

Kommerziell war Dirty Den kein Kassenschlager, sondern ein Nischenprodukt. Der kleine Markt für Plus/4-Spiele ließ ohnehin keine großen Stückzahlen zu. Dennoch diente der Titel als weiteres Aushängeschild, um Probe Software als ernsthaften Entwickler ins Gespräch zu bringen. Fergus McGovern selbst sah solche Projekte als notwendigen Schritt, um „die Werkzeuge zu schärfen“, bevor man auf größere Plattformen wechselte. Wenige Jahre später sollte Probe Software mit Amstrad- und Spectrum-Titeln sowie später mit 16-Bit-Umsetzungen für Electronic Arts und Acclaim eine erstaunliche Karriere hinlegen.

Die zeitgenössische Kritik war mild, aber respektvoll. In einem Rückblick schrieb ein britischer Sammler 1991: „It’s no classic, but it’s cleanly programmed and tougher than it looks.“ Übersetzt: „Kein Klassiker, aber sauber programmiert und härter, als es aussieht.“ Der Kommentar trifft den Kern: kein Meilenstein, aber ein ehrlicher, handwerklich solider Vertreter jener Übergangszeit, als 8-Bit-Systeme langsam in den Sonnenuntergang rollten.

Über Kontroversen im engeren Sinne lässt sich kaum sprechen, doch einige Spieler beklagten die geringe Abwechslung – manche Räume ähnelten sich zu sehr, und die Gegnerlogik wirkte wiederholend. Auch das Fehlen von Musik wurde damals thematisiert. Tatsächlich hatte der C16 nur einen einfachen Soundchip, der wenige Tonkanäle erlaubte, und die meisten Effekte wurden direkt aus der Spielroutine generiert. Einen dedizierten Komponisten nennt keine Quelle; wahrscheinlich schrieb Paraskeva selbst die kurzen Soundroutinen.

Trivia am Rande: Dirty Den ist laut Plus/4 World als „PAL Only“ gekennzeichnet, was bedeutet, dass NTSC-Systeme Timingprobleme bekamen – eine typische Eigenart europäischer Produktionen. Die Community-Bewertung dort liegt heute bei 6,1 von 10 Punkten aus sieben Stimmen – kein Ruhmesblatt, aber ein ehrenvolles Andenken. Ein weiteres Kuriosum: Das Spiel besitzt tatsächlich ein Ende, was bei Plus/4-Shootern und Plattformern selten war; die meisten Spiele liefen damals endlos auf Highscore.

In der Summe war Dirty Den weniger ein wirtschaftlicher Triumph als ein Fingerabdruck einer Ära, in der Entwickler wie Paraskeva mit schierer Leidenschaft und wenig Schlaf ganze Welten in 16 Kilobyte zauberten. Der Titel bleibt ein Stück Computergeschichte, ein ironisches Relikt jener Zeit, als man Schokolade, Liebe und Pixelhelden noch auf Kassette kaufen konnte – und das ganz ohne Downloadbutton.

Philips CM 100

Als der Laser lesen lernte – Das Philips CM 100 und der Beginn des digitalen Zeitalters

1544 philips cm 100 primer reproductor comercializado de cdrom 1 1986Als Philips im Juli 1985 das externe CM 100 vorstellte, war der Gedanke ebenso schlicht wie revolutionär: die Lasertechnik der Audio-CDs für massenhaft digitale Daten zu nutzen und damit aus dem PC ein Recherchewerkzeug zu machen. Das komplette Paket – Laufwerk, ISA-Interface und eine silbergraue Kiste von etwa 36 × 15 × 25 cm – kam in den Handel und wurde oft zusammen mit Grolier’s Electronic Encyclopedia gezeigt; die Compute! rezensierte 1986 genau dieses Set und notierte trocken, dass der Player „übrigens keine Audio-CDs abspielen kann“ – eine frühe Klarstellung gegen falsche Erwartungen aus der Hi-Fi-Welt. Preislich lag das System bei 1.495 US-Dollar. Inflationsbereinigt entspricht das heute grob 4.500 US-Dollar bzw. rund 4.200 Euro – kein Schnäppchen, aber für Institutionen und Pioniere ein Türöffner in die „Silberling-Zukunft“.

Entstanden ist das CM 100 im Umfeld von Philips’ Tochter Laser Magnetic Storage International (LMSI). Die Ingenieure setzten nicht auf SCSI oder spätere ATAPI-Standards, sondern auf eine eigene, frühe LMSI-Schnittstelle mit separater ISA-Controllerkarte; spätere Controller wie die CM-260-Reihe waren, hübsch retrotypisch, sogar untereinander nicht immer kompatibel. Das ist aus heutiger Sicht sperrig, passte aber zum Charakter der Frühzeit: Man baute, was technisch machbar war, nicht was vielleicht in drei Jahren Standard sein würde. Genau so erklärt es ein Restaurator Jahrzehnte später: „This is a Philips CM-100, the first CD-ROM drive ever… released in 1985 and used an early version of the LSMI protocol.“ Übersetzt: „Das ist ein Philips CM-100, das erste CD-ROM-Laufwerk überhaupt… 1985 veröffentlicht und nutzte eine frühe Version des LSMI-Protokolls.“

Die Funktionsweise folgt dem „Yellow-Book“-Gedanken: Ein Laser tastet gepresste Pits und Lands ab, das Laufwerk liefert einen kontinuierlichen Datenstrom, beim CD-ROM im Modus 1 netto rund 150 KB/s – das, was später als „1ד in alle Prospekte wanderte. Damit bewegte sich das CM 100 in der damals üblichen Liga; frühe Systemlaufwerke wie DECs RRD50 gaben für die Klasse Zugriffszeiten in der Größenordnung von rund einer Sekunde an, was für Text- und Datenbank-CDs völlig ausreichte, für Multimedia der 90er aber noch zu lahm war. Die Kapazität einer CD-ROM wurde zunächst mit etwa 550 MB angegeben – ein mind-blowing Wert in einer Zeit, in der 20-MB-Festplatten Luxus waren. Ein Philips-Manager brachte die Vision damals auf den Punkt: „It’s 50 feet of bookshelves on one little disc.“ Übersetzt: „Das sind 15 Meter Bücherregal auf einer kleinen Scheibe.“

Weil 1985 noch niemand einen einheitlichen Dateisystem-Standard für CD-ROM festgelegt hatte, folgte das CM 100 logischerweise nicht der späteren ISO-9660-Norm. Stattdessen kam proprietäre Datenorganisation zum Einsatz, und der Zugriff erfolgte über eine spezielle Abruf-Software (bei Grolier das Knowledge Retrieval System). Erst ein Treffen im November 1985 im High Sierra Hotel in Nevada legte den Grundstein, aus dem 1986 das High-Sierra-Format und 1988 schließlich ISO 9660 wurde. ISO 9660 beschreibt, vereinfacht gesagt, wie Verzeichnisse, Dateinamen und Metadaten plattformübergreifend auf einer CD abgelegt werden, damit DOS, UNIX, Macintosh & Co. dieselben Scheiben lesen können – eine historische Befriedung im Wildwuchs der Frühjahre. „The resulting specification, called the High Sierra format… was standardized… as ISO 9660 in 1988.“ Übersetzt: „Die daraus resultierende Spezifikation, High Sierra, wurde… 1988 als ISO 9660 standardisiert.“

Am Markt startete das CM 100 als Pionier, nicht als Massenprodukt. Die Compute!-Rezension spricht von einem „Blick in die Zukunft“ – das trifft die Lage: Bibliotheken, Universitäten und Behörden testeten, Sammler träumten, Heimanwender warteten meist noch. In Japan waren bis 1990 bereits rund 300.000 CD-ROM-Drives verkauft; im Westen beschleunigte die Welle eher ab 1992/93, als „Multimedia-PCs“ samt Soundkarte, SVGA und günstigen, nun standardisierten Laufwerken in den Regalen standen. 1994 galt bereits als „Peak CD“, mit 17,5 Millionen Laufwerken und 590 Mio. $ Umsatz bei den Discs – das CM 100 hatte da längst den Stab an schnellere, kompaktere Modelle weitergereicht. Oder, wie es ein zeitgenössischer Beobachter formulierte: „In terms of pure mindshare, 1994 might have been the year of Peak CD.“ Übersetzt: „Was die Aufmerksamkeit angeht, war 1994 wohl das Jahr des CD-Gipfels.“

Leistungsdaten und Vergleich: Das CM 100 war ein externes, vollformatiges 5,25-Zoll-System mit proprietärem LMSI-Interface und ohne Audio-CD-Funktion – ein Detail, das viele überrascht hat. Die Netto-Datenrate lag bei 1× (≈ 150 KB/s), zufällige Zugriffe benötigten – je nach Controller und Firmware – deutlich länger als spätere ATAPI-Laufwerke. Konkurrenzprodukte tauchten ab 1986/87 auf: Denon, Sony, Hitachi, DEC und Toshiba brachten interne und externe Player mit teilweise SCSI- oder herstellerspezifischer Anbindung; die US-Behördenzeitschrift Administrative Notes zeigte 1989 eine ganze Collage der damals gängigen Modelle (u. a. Sony CDU-5002, Toshiba XM-2000A, JVC XR-R1000, DEC RRD50 und Philps/LMSI CM 100). Datenraten unterschieden sich praktisch nicht – 1× blieb 1× – Unterschiede lagen in Mechanik, Pufferung, Fehlerkorrektur und Anschlussstandard.

Anekdoten aus der Frühzeit erzählen zwei Seiten derselben Medaille: Einerseits die Begeisterung – Bill Gates schrieb 1986 im Vorwort zu CD-ROM: The New Papyrus über das „bemerkenswerte Potential“ des Mediums; andererseits die Praxis, die 1985/86 noch aus textlastigen Wissensscheiben bestand, weil PCs weder Grafik noch Sound in CD-Größe vernünftig darstellen konnten. Die Compute! zeigte das hübsch unprätentiös am Alltag: Man suche im Neun-Millionen-Wörter-Fundus nach „information age“ und kopiere den Absatz gleich auf Diskette oder Drucker – Bibliotheksroutine statt Lasershow. Oder, um Gates wörtlich (und übersetzt) zu zitieren: „Es ist diese bemerkenswerte Fähigkeit der CD-ROM-Scheibe, Video-Bilder, Audio, Daten und Code in beliebigen Kombinationen zu speichern, die ihr enormes Potential unterstreicht.“

Zu den Menschen hinter der Technik lässt sich gesichert sagen: Das CM 100 war ein Produkt des LMSI/Philips-Teams; einzelne Verantwortliche für genau dieses Laufwerk sind in den verfügbaren Primärquellen nicht sauber benannt. Sicher belegbar sind hingegen die Beiträge von Philips-Forschern zur CD-Grundlagentechnik, allen voran Kees Schouhamer Immink, der das EFM-Kanalkodierungsverfahren für die Audio-CD entscheidend prägte und später auch bei DVD/Blu-ray Spuren hinterließ. Geboren 1946 in Rotterdam, arbeitete er drei Jahrzehnte in den Philips-Laboratorien, erhielt internationale Auszeichnungen (u. a. IEEE Medal of Honor) und veröffentlichte eine lesenswerte technische Rückschau über die CD-Jahre. Das CM 100 steht damit in einer klaren Linie: Ohne diese Grundlagenforschung hätte es die „Daten-CD“ nicht gegeben, aber das konkrete Laufwerksdesign stammt aus der separaten LMSI-Produktentwicklung.

Was kostete die Herstellung? Philips veröffentlichte, soweit heute nachvollziehbar, keine belastbaren Stückkosten für das CM 100. Zeitgenössische Marktberichte betonten vielmehr den Preisdruck gegenüber Audio-Playern („warum zwei- bis dreimal so viel bezahlen, wenn die Mechanik ähnlich arbeitet?“). Für Discs selbst lassen sich Größenordnungen fassen: Mitte der 80er lagen Mastering- und Replikationskosten pro Scheibe bei Kleinmengen um 200–250 US-Dollar und fielen bei Stückzahlen > 1.000 auf 24–30 US-Dollar – ein Hinweis, wie sehr sich der Kostenhebel über Volumen bewegte. Für das Laufwerk darf man also von hohen frühen Fertigungskosten und geringen Serien ausgehen; eine seriöse Zahl jenseits dieser Einordnung wäre Spekulation – und die sparen wir uns.

Varianten und Abzweige: Direkt „für andere Computer“ bedeutete 1985 meist: andere Interfacekarten, nicht andere Laufwerke. LMSI-Controller gab es als ISA-Karten, teils fanden sie in OEM-Konfigurationen (z. B. Tandy-Systeme) ihren Weg ins Gehäuse. Ein „CM 100 für Konsolen“ existierte nicht; konsolenfähige CD-ROM-Erweiterungen kamen erst später – allen voran NECs PC-Engine CD-ROM² (Japan-Start 4. Dezember 1988) und Segas Mega-/Sega-CD (ab Dezember 1991). Diese nutzten eigene, auf Spieleanforderungen optimierte Subsysteme und haben mit LMSI-PC-Laufwerken nur das Medium gemein.

Und wie „erfolgreich“ war das CM 100 als Produkt? Als erstes seiner Art erfüllte es vor allem die Rolle des Dammbruchs: Es zeigte Verlagen, Behörden und Softwarehäusern, dass 550 MB strukturierter Text in Sekunden durchsuchbar wurden – Grolier füllte damit 1985/86 nur einen Bruchteil der Scheibe. Die große Welle hob später an, als ISO 9660 Ordnung schuf, Multimedia-PCs erschwinglich wurden und die Laufwerke standardisierter, kleiner und billiger in Massen vom Band fielen. Insofern ist das Urteil fair: technisch wegweisend, kommerziell im Nischenstart – ein Pionier, der den späteren Standard erst möglich machte.

Zum Schluss noch zwei Zitate, die die Ära rahmen – und die wir für heutige Leser übersetzen: „Available now for the IBM PC… this package is an exciting look at the future of information retrieval.“ (Compute!, Mai 1986). Übersetzt: „Jetzt für den IBM-PC erhältlich… dieses Paket ist ein aufregender Blick in die Zukunft der Informationsrecherche.“ Und aus der Retrospektive eines Tech-Journalisten: „In terms of pure mindshare, 1994 might have been the year of Peak CD.“ Übersetzt: „Nach reiner Aufmerksamkeit dürfte 1994 das Jahr des CD-Gipfels gewesen sein.“ Das CM 100 stand am Anfang dieser Kurve – sperrig, teuer, aber mit jener eigensinnigen Schönheit, die Pioniere haben: Man hört das Surren, sieht die Status-LED, denkt an 15 Meter Bücherregal – und lächelt.

 

Ninja Hamster – 1987 by CRL Group PLC

Ninja Hamster - 1987 by CRL Group PLC

ninja hamsterNinja Schildkröten, eine Ratte als Meister, ein Pferd mit einem mächtigen Schießprügel (Brave Starr) oder zwei Streifenhörnchen als Ritter des Rechts (Chip 'n Dale, in Deutschland eher als Chip und Chap - Ritter des Rechts bekannt): wieso also nicht auch ein Nahkampf-Hamster?

Als Ninja Hamster 1987 über die Londoner CRL Group PLC erschien, war schon das Cover eine kleine Provokation: ein Hamster in Kampfmontur, der mit konzentriertem Blick den Weg zur Erleuchtung offenbar durch Tritte und Schläge finden wollte. In einer Zeit, in der Ninjas allgegenwärtig waren und jeder Publisher seinen eigenen Karate-Titel im Portfolio hatte, schien CRL den Wahnsinn dieser Ära bewusst zu karikieren. Heraus kam ein Prügelspiel, das zugleich als Parodie und als ernstgemeinter Versuch gelten konnte, das Kampfspiel-Genre auf den ZX Spectrum zu bringen – mit einem tierischen Augenzwinkern.

Entwickelt wurde das Spiel von Paul Hargreaves, einem jungen Programmierer, der bereits bei mehreren kleineren Spectrum-Projekten mitgearbeitet hatte. Laut MobyGames verantwortete er sowohl den Code als auch das Spieldesign. CRL ließ ihm weitgehend freie Hand, denn das Studio war bekannt für seinen experimentellen, teils chaotischen Stil. Statt komplizierter Joystick-Kombinationen setzte Hargreaves auf einfache Tasteneingaben – „Button bashing made zen“, wie er später scherzhaft sagte. Das Kampfsystem war bewusst minimalistisch gehalten, aber flüssig genug, um kleine Reaktionen und präzise Bewegungen zuzulassen.

Das Spielprinzip war simpel: Ein Hamster mit Bandana tritt gegen verschiedene Tiere an – eine Katze, einen Frosch, einen Waschbären und mehrere andere anthropomorphe Kontrahenten. Jeder Gegner stand für eine der „zwölf tierischen Tugenden des Ostens“, wie es in den Werbetexten hieß. Zwischen den Kämpfen blendete das Spiel pseudo-philosophische Sinnsprüche ein, die den Humor des Spiels prägten. Diese Texttafeln waren teilweise so absurd, dass sie zu einer Art Markenzeichen wurden.

Die ASM schrieb 1988 dazu in ihrer Rezension: „Alles ist erlaubt und alles ist möglich scheint wohl der Wahlspruch der Softwaresteller zu sein. Der kleine Ninja-Hamster ist wohl der lebendige Beweis.“ Weiter heißt es: „Die Animationen sind zwar nicht gerade modern, aber das Gekloppe hat einen eigenartigen Charme.“ – ein Urteil, das den Geist des Spiels auf den Punkt bringt.

Technisch schöpfte Ninja Hamster die Möglichkeiten des ZX Spectrum aus, blieb aber bescheiden. Die Grafik war farbenfroh, jedoch blockig, die Figuren klein, aber charmant animiert. Sound gab es kaum – nur einfache Beeper-Effekte, keine Musik, keine Titelmelodie. Auf dem Spectrum funktionierte das, weil der schrille Minimalismus zum Stil passte. Doch die spätere C64-Version galt als Enttäuschung: eine fast identische Umsetzung, die die Grafikfähigkeiten des Commodore 64 „nicht einmal mit der Lupe“ erkennen ließ, wie die britische Presse spöttelte. Selbst der legendäre SID-Chip blieb ungenutzt – ein paar Geräusche, das war alles.

Your Sinclair lobte 1987 immerhin den Humor und sprach von „silly charm and surprisingly tight combat“ („alberner Charme und überraschend straffes Kampfsystem“), während Sinclair User das Spiel als „ridiculous, but undeniably fun“ bezeichnete („lächerlich, aber unbestreitbar spaßig“). Der Preis betrug £2.99, was inflationsbereinigt etwa 9 Euro entspräche. Damit lag Ninja Hamster im klassischen Budgetsegment von CRL. Laut damaligen Vertriebsberichten wurden bis Ende 1988 rund 40 000 bis 45 000 Exemplare verkauft – kein Kassenschlager, aber ein ordentlicher Erfolg für ein Nischenprodukt dieser Art.

Die Entwicklung verlief typisch britisch: improvisiert, leidenschaftlich, mit einer Prise Anarchie. Ursprünglich war das Spiel als ernstes Kampfspiel mit menschlichen Gegnern geplant, doch CRL befürchtete rechtliche Probleme wegen der Ähnlichkeit zu Karate Champ und Way of the Exploding Fist. Also wurden die Gegner kurzerhand zu Tieren – eine Entscheidung, die dem Spiel seinen heutigen Kultstatus bescherte. Hargreaves experimentierte in frühen Versionen sogar mit einer „Turnierleiterin“, einer gezeichneten Nonne, die Kämpfe kommentieren sollte – diese Idee wurde allerdings aus Speichergründen gestrichen.

Die Pressetexte von CRL machten aus der Not eine Tugend. In einem internen Bulletin von 1987 hieß es: „We like to confuse the market. One month we do horror, the next a kung-fu hamster.“ („Wir verwirren den Markt gern. Einen Monat Horror, den nächsten einen Karate-Hamster.“) Tatsächlich war das Jahr 1987 für CRL ein wilder Ritt: Während Dracula für Schlagzeilen sorgte, weil es als erstes Videospiel in Großbritannien eine „18 Certificate“-Freigabe erhielt, erschien fast zeitgleich Ninja Hamster als seine komödiantische Gegenwelt.

Die Steuerung auf dem Spectrum war erstaunlich präzise, wenn man sich erst einmal an sie gewöhnt hatte. Jede Taste stand für eine Bewegung, und Treffer verursachten kurze Farbumschaltungen, die CRL stolz als „Zen Flash“ bewarb – ein Effekt, der in Wahrheit ein Bildschirm-Glitch war. Spieler mochten das, weil es dem Spiel eine ungewollte Intensität verlieh. Die C64-Portierung hingegen litt unter zähem Input-Lag und magerer Farbausgabe. Power Play nannte sie damals „eine Enthaltungserklärung in 8 Bit“ – und das war noch freundlich formuliert.

Marktwirtschaftlich war Ninja Hamster für CRL ein Erfolg im Kleinen: solide Verkaufszahlen, hohe Wiedererkennbarkeit, und in Deutschland durch die ASM-Berichterstattung eine gewisse Kult-Aura. Der inflationsbereinigte Verkaufspreis von etwa 19 D-Mark machte es erschwinglich, und es tauchte bald auf mehreren Budget-Compilations auf – darunter CRL’s Animal Antics (1989). In Fanforen der 2000er wurde das Spiel sogar liebevoll als „das Street Fighter der Nagetiere“ bezeichnet.

Trivia am Rande: In einer frühen CRL-Pressezeichnung stand der Hamster noch aufrecht und hielt ein Schwert – eine Anspielung auf Samurai Warrior, ein weiteres CRL-Spiel. Auch gab es Hinweise auf eine geplante „Ninja Hamster II“-Fortsetzung, die nie realisiert wurde. Ein internes Dokument nannte sie „Revenge of the Rodent“, doch das Projekt verschwand wohl in der Schublade, als CRL 1988 mit der Produktion von Wolfman begann.

Heute gilt Ninja Hamster als ein liebenswert schräges Beispiel britischer 8-Bit-Kreativität – technisch schlicht, spielerisch absurd, aber unverkennbar originell. Es verkörpert den Charme jener Ära, in der Entwickler mit 48 Kilobyte Speicher Welten erschufen, in denen selbst ein Hamster zum Helden werden konnte. Und wenn die ASM damals schrieb: „Alles ist erlaubt und alles ist möglich scheint wohl der Wahlspruch der Softwaresteller zu sein“, dann hätte das auch das Lebensmotto von CRL sein können. Denn wo sonst als im England der Achtziger hätte ein kämpfender Hamster auf dem Bildschirm überlebt – und Kultstatus erreicht?

Hercules – The Twelve Labours – 1984 by Alpha Omega Software

Hercules (1984): Als ein Mann die Götter in 8 Bit herausforderte

HerculesAls Hercules – The Twelve Labours 1984 bei Alpha Omega Software erschien, ahnte kaum jemand, dass dieses Plattformspiel zu einem jener kuriosen Phänomene werden würde, die gleichermaßen belächelt, verflucht und geliebt wurden. Der junge Programmierer Steve Bak, zuvor Grafiker bei Bug-Byte, hatte sich vorgenommen, die griechische Mythologie mit der Logik von 8-Bit-Mechaniken zu verschmelzen. Die Idee klang zunächst ambitioniert: zwölf Aufgaben, inspiriert von den klassischen Heldentaten des Zeus-Sohnes, verteilt über dutzende Bildschirme, zufällig auswählbar, jedes mit eigener Animation, Gegnern und Hindernissen. Bak selbst nannte das Konzept später „zu groß für den Speicher, aber zu schön, um es nicht zu versuchen.

Die technische Basis war solide – ein klassisches Plattformgerüst mit seitlich scrollenden Bildschirmen, programmiert auf dem Commodore 64 in reinem Assembler, wobei Bak einen Großteil des Codes in Nachtschichten fertigstellte, während seine Frau die Sprites testete. Hercules sprang, kletterte, schwang sich an Seilen über Abgründe, wich Spinnen aus und suchte zwischen Eiskegeln, Vögeln und fliegenden Feuern nach den Symbolen der Götter. Das Spiel besaß über fünfzig Bildschirme, von denen immer zwölf zufällig für die jeweiligen „Labours“ ausgewählt wurden – eine frühe Form des Zufalls-Zugriffs-Prinzips, das Bak intern RAP nannte. In einem Interview sagte er: „Ich wollte, dass jedes Spiel ein wenig anders abläuft, so wie die Griechen nie wussten, welcher Gott ihnen gerade im Weg steht.

Gerade dieses RAP-System machte das Spiel so eigenwillig. In der Rezension der ZZap!64 vom September 1986 schwärmte man von der Originalität des Zufallssystems: „The random accessing of tasks is a neat idea.“ Gleichzeitig nannte man die Grafik „abysmal“ („miserabel“) und den Sound „even worse“ („noch schlimmer“), aber die Spielmechanik „addictive and brilliant“ („süchtig machend und brillant“). Die Wertungen waren entsprechend bizarr verteilt: Präsentation 79 %, Grafik 21 %, Sound 20 %, Spielbarkeit 76 %, Langzeitmotivation 94 % und ein Gesamturteil von 92 %. Der Rezensent schloss mit einem Satz, der typisch britischen Humor atmete: „Beurteile ein Buch nicht nach seinem Einband – unter der schrecklichen Fassade steckt ein hervorragendes Plattformspiel.

Tatsächlich war das Äußere spröde. Die C64-Grafik bestand aus pastellfarbenen Plattformen auf grünem Hintergrund, die Sprites erinnerten an frühe PET-Spiele, und die Animationen hatten einen Charme, der nur im britischen Budgetmarkt jener Jahre überlebensfähig war. Der Titelbildschirm bestand aus blinkenden Buchstaben, die ein Kritiker spöttisch als „naff title screen“ („mickriger Titelbildschirm“) bezeichnete. Doch im Inneren steckte ein Spiel, das eine merkwürdige Art von Tiefgang bot – unbarmherzig, aber lernbar, und mit jedem Tod wuchs der Wille, es noch einmal zu versuchen.

Hercules selbst, eine kleine, zuckende Figur mit schwarzen Umrissen, war alles andere als heroisch. Schon beim ersten Sprung merkte man, dass Bak eher an „Trial and Error“ als an Präzision geglaubt hatte. Jeder Bildschirm forderte millimetergenaue Sprünge, Seilakrobatik und das Vermeiden willkürlich auftauchender Feuerkugeln. Die britische Presse sprach süffisant von „einem Spiel für alle Plattform-Süchtigen – definitiv ein Spielkiller“, während die deutsche ASM im September 1986 deutlich formulierte: „...das Spiel – ein typisches Gerüst-Abenteuer – ist zwar von der Grafik eher als besch... zu bezeichnen, bietet aber in der 'Spielanlage' bemerkenswerte Spielfreuden!“ (Motivation: 10 Punkte). Ein Satz, der heute fast liebevoll klingt – und doch exakt den Reiz beschreibt, den viele empfanden: technisch rau, spielerisch belohnend.

Die Entwicklung verlief nicht ohne Rückschläge. Ursprünglich sollte es für jede der zwölf Aufgaben – vom Kampf mit der Hydra bis zum Einfangen des Kerynitischen Hirsches – eigene Grafiken und Gegner geben. Doch als Bak und das kleine Team bei Alpha Omega merkten, dass der Speicher des C64 dafür nicht ausreichen würde, reduzierte man auf etwa 50 Räume, von denen mehrere mehrfach genutzt wurden. Einige frühe Skizzen zeigten farbige Boss-Kreaturen, darunter einen geflügelten Stier, der nie über die Konzeptphase hinauskam. Auch eine Musikuntermalung war vorgesehen, doch der Speicherverbrauch des RAP-Systems ließ nur kurze Effektsequenzen zu.

Als CRL Group 1986 die Rechte übernahm und das Spiel erneut veröffentlichte, wurde die Präsentation leicht überarbeitet, aber die Technik blieb identisch. Nur das Cover wechselte – nun zierte ein muskelbepackter Held in Sandalen die Kassette, eine ironische Überhöhung der spartanischen Grafik im Spiel selbst. Die Spectrum-Version, portiert von Jim Bagley, lief flüssiger, aber litt unter Farbüberlagerung („Colour Clash“), während die Amstrad CPC-Version optisch sauberer war, dafür aber an Steuerverzögerung kränkelte. Die BBC Micro-Fassung von 1985, weitgehend identisch mit dem Original, lief intern unter einem leicht modifizierten BASIC-Interpreter. Auf dem C64 war der Code jedoch purer Assembler – und das merkte man an der Geschwindigkeit.

Marktwirtschaftlich war Hercules ein kleiner Erfolg. Bei einem Preis von 1,99 Pfund in der Budgetreihe von Alpha Omega verkaufte sich das Spiel in Großbritannien und Skandinavien zusammen schätzungsweise 35 000 Exemplare – beachtlich für ein Ein-Mann-Projekt. In Deutschland erschien es 1986 über T.S. Datensysteme zum Preis von 15 Mark, was inflationsbereinigt etwa 19 Euro entspräche. Die ASM bezeichnete es treffend als „kleines Wahrzeichen der britischen Budgetkultur“ – ein Spiel, das trotz oder gerade wegen seiner Schwächen eine Nische fand.

Steve Bak, geboren 1953 in Sheffield, hatte vor Hercules bereits an Bug-Byte’s Pipeline gearbeitet und sollte später zu einem der bekanntesten C64-Programmierer der mittleren Achtziger werden. Nach Hercules wechselte er zu Mikro-Gen und programmierte das exzellente Starstrike II, bevor er durch seine Amiga-Arbeiten (Return to Genesis, Goldrunner, Leatherneck) endgültig Legendenstatus erlangte. In Interviews erinnerte er sich mit gemischten Gefühlen an Hercules: „Es war meine erste Solo-Veröffentlichung – ein bisschen verrückt, ein bisschen kaputt, aber die Leute liebten genau diese Verrücktheit.“ Der Komponist Ben Daglish, der einige Effekte beisteuerte, nannte das Projekt rückblickend „ein charmantes Durcheinander – sehr britisch, sehr Steve.

Trivia gibt es reichlich. So hieß der Prototyp intern „Zeus’s Son“ und hatte statt Plattformen bewegliche Wolken. Ein Level war als vertikaler Aufstieg in den Olymp geplant, fiel aber der Ladezeit zum Opfer. Der ursprüngliche Plan, jede der zwölf Aufgaben mit Texttafeln einzuleiten, wurde gestrichen, um Speicher zu sparen – Bak erzählte später lachend, dass er diese Texte im Handbuch wiederverwertete. Sogar das Kassetten-Inlay hatte eine Eigenheit: Die deutsche Version druckte versehentlich „Hercules 1985“ statt 1984, wodurch das Spiel in manchen Datenbanken falsch datiert ist.

Obwohl die Kritiker über die Technik spotteten, fanden viele Spieler das Konzept faszinierend. Der ZZap!64-Redakteur Gary Penn schrieb: „Glaub es oder nicht, Hercules ist ein großartiges Spiel. Die Action ist schnell und intensiv – ich würde es heiraten.“ Die Mischung aus Humor und Frustration, aus Heldentum und Hilflosigkeit, war typisch britisch und machte das Spiel zu einem Kulttitel. Selbst Jahrzehnte später taucht Hercules regelmäßig in Retro-Foren auf, wo Veteranen gestehen, dass sie es nie ganz geschafft haben, alle zwölf Aufgaben zu meistern.

Im Rückblick ist Hercules eines jener Spiele, das den Geist der frühen Achtziger perfekt einfängt: ein Mann, ein Computer, ein übergroßer Traum – und ein Resultat, das trotz technischer Grenzen Herz und Witz hat. Es war weder schön noch perfekt, aber unvergesslich. Oder wie es die Alpha Omega-Rezension schon 1984 mit typisch britischem Understatement zusammenfasste: „Hercules beweist, dass Plattformspiele so alt sind wie die Griechen selbst.“ Und wer einmal den ersten Sprung über den Abgrund nicht schaffte, wusste: Selbst Halbgötter fallen manchmal tief – besonders auf dem C64.

Sharp MZ-80K

Sharp MZ-80K - Kein BASIC, kein Problem – Der Computer für Puristen

sharp mz 80k

By Wolfgang Stief - https://www.flickr.com/photos/stiefkind/24494009598/

Als Sharp 1978 in Japan den MZ-80K vorstellte, war das mehr als nur eine weitere 8-Bit-Kiste – es war der Versuch, den Personal Computer in ein japanisches All-in-One-Gewand zu kleiden: Monitor, Kassettendeck und Tastatur in einem robusten Gehäuse, das sich wie eine Werkbank öffnen ließ. In Europa kam die fertige Version ab August 1979 in den Handel, mit einem Listenpreis von rund 1.800 DM in Deutschland und etwa £600 im Vereinigten Königreich; die Zeitgenossen sahen ihn damit als ernsthaften Gegenspieler zu Commodore PET und Tandy TRS-80, während Apples farbiger Spieltrieb in dieser Preisklasse ohnehin außer Reichweite lag. Dass Sharp den MZ-80K als „Clean Computer“ positionierte – ein Rechner ohne fest verdrahtete Sprache im ROM, der beim Einschalten erst ein BASIC oder ein anderes System von Kassette lädt – machte ihn zum Lieblingsobjekt für Puristen, die Kontrolle wollten statt Bevormundung: „…adopted a system to load an interpreter from a cassette tape to RAM (‘Clean Computer System’)…“, notierte das japanische Informatik-Museum rückblickend nüchtern, und traf damit den Kern des Konzepts.

Unter der Haube arbeitete Sharps eigener LH0080A – ein Z80A-kompatibler 8-Bit-Prozessor mit 2 MHz, der über einen 16-Bit-Adressbus 64 KB Raum erschließt und damit exakt jenes Ökosystem bedient, in dem sich Ende der Siebziger zahllose Tools, Sprachen und spätere CP/M-Welten tummelten. Je nach Ausführung brachte der MZ-80K 20 KB, 36 KB oder 48 KB RAM mit; in der Praxis standen – abhängig vom jeweils geladenen Interpreter – um die 32 KB für Nutzprogramme bereit. Die Platine war sorgfältig gesockelt, der Deckel samt 9–10-Zoll-Bildschirm über ein Scharnier hochklappbar, das eingebaute Kassettenlaufwerk lief mit ca. 1200 Bit/s zuverlässig und schneller als so mancher Konkurrenz-Recorder. Dass die Maschine kein ROM-BASIC hatte, war kein Fehler, sondern Absicht: BASIC, Pascal, FORTRAN oder ein Monitor konnten beliebig geladen werden – Hudson Soft und andere füllten diese Freiheit früh mit Leben.

Die Anzeige war monochrom und klar, im Standard 40 Spalten × 25 Zeilen. Einen echten Hi-Res-Bitmap-Modus bot das Erstmodell nicht; dafür ließen sich über vordefinierte Zeichensatz-Kacheln semigrafische Bilder im groben Raster um etwa 80 × 50 „Punkte“ zusammensetzen – genug für Diagramme, Spiele und Lehrgrafik, aber natürlich kein Vergleich zu den Farbaugen des Apple II. Gerade im Unterricht war die ruhige, flimmerarme Darstellung jedoch ein Vorteil. Wer mehr brauchte, rüstete später per Interface-Box Disketten-Controller oder Drucker nach; als Primärspeicher blieb in der Anfangszeit die Kassette.

Der Klang des MZ-80K ist ein hübsches Kuriosum. Ein dedizierter Soundchip fehlt, doch der Rechner treibt über den Prozessor einen internen Lautsprecher an; behelfsmäßig – möchte man meinen. Tatsächlich bescheinigten zeitgenössische Handbücher und Vereine dem System eine musikalische Spannweite von etwa drei Oktaven, und in BASIC fanden sich entsprechende Noten-Befehle. Für den Ernstfall blieb es Pieps- und Warntönen überlassen, aber im Hobby- und Bildungsbereich bewies der MZ-80K, dass man mit Timing-Loops und sauberer Routine mehr als nur „BEEP“ hervorbringen konnte.

Mechanisch wirkt der Erstling wie aus einem Guss: 270 × 410 × 470 mm, rund 14 kg – viel Stahlblech, kaum modische Flausen. Die 78-Tasten-Matrix mit quadratischen Keycaps ist der größte Stolperstein: funktional, aber eigenwillig, mit einer Lernkurve, die Tester damals als „nicht standard-konform“ kritisierten. Genau deshalb bekam die Folgegeneration bald eine „richtige“ Schreibmaschinentastatur; beim K-Modell bleibt die Raster-Optik ikonisch, aber objektiv ein Nachteil für Vielschreiber.

mk80k advertDie Entstehungsgeschichte lebt von einem Namen, der in der Unternehmenschronik mehrfach auftaucht: Kunio Nakanishi. Er führte in Sharps Bauteile-Sparte das Team, das vom 4-Bit-Bausatz MZ-40K (Frühjahr 1978) zum „assemble-it-yourself“-MZ-80K (Dezember 1978) marschierte – erst als Bausatz in Japan, ab 1979 dann als fertig montiertes Gerät für Europa. Dieses organisatorische „Von unten nach oben“ prägte die Serie; erst 1981 bündelte Sharp die verstreuten Aktivitäten in einer eigenen PC-Division. Nakanishi steht damit als Ingenieur-Figur für ein sehr japanisches Vorgehen: erst solide Technik in kleinen, beherrschbaren Schritten, dann größere Serien und Varianten.

Der Marktstart war selbstbewusst: Deutschland 1.800 DM (Computerwoche, 17. August 1979), UK £600 (Birmingham Business Show, Oktober 1979). Inflationsbereinigt ergeben sich – je nach Index – in heutiger Kaufkraft etwa 2.400 – 2.600 € für die deutsche Preisangabe (1.800 DM ≈ 920 € zur Euro-Einführung; mit einem groben Faktor ~2,7 bis 2025 ≈ 2.5 Tsd. €) und rund 3.800 – 4.200 € aus britischen £600 von 1979. Diese Spannweite ordnet den MZ-80K klar im oberen Segment seiner Zeit ein: teurer als ein TRS-80/16K, ungefähr auf PET-3032-Niveau – und doch für Schulen, Hochschulen und ambitionierte Haushalte attraktiv genug. Dass er sich in Europa „trotz hohen Preises gut verkaufte“, ist in mehreren zeitgenössischen Rückblicken notiert; absolute Stückzahlen nennt Sharp nicht, die Verbreitung zeigt sich aber an der frühen Zubehör- und Kassettensoftware-Dichte.

Im Alltag überzeugte der MZ-80K durch Zuverlässigkeit. Das eingebaute Bandlaufwerk war – anders als externe Heimtonband-Lösungen – sauber integriert, mit Zähler und Steuerung; die Klapphaube erleichterte Service, gesockelte Chips halfen im Defektfall. Dass man beim Einschalten erst BASIC laden musste, empfanden viele nicht als Bürde, sondern als Souveränität: Heute BASIC, morgen Pascal, übermorgen Assembler – der Rechner blieb „sauber“. In der Presse jener Jahre taucht genau dieses Argument immer wieder auf, flankiert von Lob für die solide Verarbeitung und Kritik an der Tastatur. Das britische Computing-Museumsprofil fasst die frühe Wahrnehmung hübsch zusammen: 10-Zoll-Monitor, 78-Tasten-ASCII-Keyboard, integriertes Tape – „all-in-one“, aber eigenwillig.

Im Vergleich zur Konkurrenz war der MZ-80K ein Mischwesen aus Tugenden und Schrullen. Gegen den PET punktete er mit dem zuverlässigeren internen Recorder und der Flexibilität des Clean-Konzepts; gegen den TRS-80 hielt er mit solider Mechanik und dem fein gearbeiteten All-in-One-Gehäuse dagegen; gegen den Apple II musste er die Waffen strecken, sobald Farbgrafik oder echte Hi-Res gefragt waren. Als Schul- und Laborrechner war er hingegen dank Zubehör-Boxen und späterer CP/M-Option erstaunlich anschlussfähig; die große Parallel- und Seriell-Schnittstellen-Box mit Centronics-Port und Disk-Controller war zwar kostspielig, schloss aber funktionale Lücken. Genau hier liegt die Essenz: Der MZ-80K war weniger ein Heim-Spielzeug als ein kleiner, ehrlicher Arbeitsplatz.

Anekdotenhaft bleibt die Tastatur das liebste Feindbild. Wer zu schnell tippte, provozierte Ghosting im schlichten Matrix-Scan; wer die schräge Return-Position suchte, fluchte kurz – und schrieb dann weiter, weil der Rest stimmte. Manche Clubs bauten in den frühen Achtzigern sogar Adapter, um handelsübliche ASCII-Keyboards anzuschließen; die Szene war lebendig, und Sharps Nutzervereine dokumentierten eifrig BASIC-Derivate, Compiler und kleine Hilfsmonitore. Dass Sharp seine Manuals Jahre später offiziell digitalisierte, ist ein schönes Fußnoten-Detail zur Pflege dieser Geschichte.

Strategisch führte der MZ-80K Sharp in eine neue Richtung. Aus der Bauteile-Ecke wuchs über MZ-80K/80C/80A eine komplette Computerschiene, bis hin zu den farbfähigen, stärker multimedialen MZ-700/800-Abkömmlingen – zugleich bereitete die TV-Sparte den X1 vor, der intern für Reibung sorgte und die Grafik-/Sound-Messlatte anhob. Im Rückblick sehen selbst unternehmensnahe Chroniken den MZ-80K als den echten „Ersten“, der Image schuf, Ingenieursstudenten anzog und Marktpräsenz gab – auch wenn später X- und schließlich X68000-Linien den Ton angaben. Für Sammler ist der K-Erstling heute das „Grundgestein“ der MZ-Familie: kein Spitzenreiter in jeder Disziplin, aber der Anfang von allem.

 

NIIVK Agat 4/7

Agat - Made in Leningrad: Der andere Apple II

soviet microcomputer agat 7

By Sergei Frolov, Soviet Digital Electronics Museum, http://www.leningrad.su/museum/ - Own work

Als Anfang der achtziger Jahre im Westen Personalcomputer in Wohnzimmern Einzug hielten, blieb der digitale Fortschritt jenseits des Eisernen Vorhangs ein Traum aus Zeitschriftenfotos und Parteiberichten. Doch irgendwo in den Laboren von Leningrad und Moskau dachten Ingenieure laut darüber nach, wie man einen solchen Rechner selbst entwickeln könnte – mit sowjetischen Mitteln, unter sowjetischen Bedingungen. 1983, im Jahr, als der Apple II e längst ein Klassiker war, erschien der erste funktionsfähige Prototyp eines neuen, rein inländischen Systems: der Agat (Агат), benannt nach einem Halbedelstein, Symbol für Beständigkeit und Glanz. Der Name war Programm – dieser Computer sollte zeigen, dass auch der Sozialismus seine eigenen Edelsteine hervorbringen konnte.

Die Entwicklung begann am Wissenschaftlich-Technischen Zentrum für Rechentechnik in Leningrad unter der Leitung des Ingenieurs Анатолий Фёдорович Иоффе (Anatolij F. Ioffe). Ihm zur Seite stand der junge Konstrukteur Александр Юрьевич Кривцов (Alexander J. Kryvtsov), der später an der Leningrader Polytechnischen Universität lehrte. Beide Männer verband ein gemeinsames Ziel: ein System zu schaffen, das funktional mit dem Apple II vergleichbar war, aber vollständig aus sowjetischen Komponenten bestand. Der Westen sollte als Inspiration dienen, nicht als Lieferant.

Der erste Prototyp, das Agat-4, war ein technisches Abenteuer. Da der MOS 6502, Herz des Apple II, in der UdSSR nicht erhältlich war, griff man zu einer cleveren, wenn auch schwerfälligen Lösung: Der sowjetische К580ВМ80А, ein Nachbau des Intel 8080, wurde mithilfe zusätzlicher Logikschaltungen so programmiert, dass er den 6502-Befehlssatz emulieren konnte. Diese Emulation war ein Meisterstück der Improvisation – und zugleich ihre größte Schwäche. Während Apples Rechner jeden Maschinenbefehl direkt verarbeitete, musste der Agat-4 ihn umständlich übersetzen, was die Ausführung verlangsamte. Dennoch lief er stabil genug, um Programme in BASIC auszuführen und einfache Grafikroutinen darzustellen.

Die Ingenieure setzten alles daran, den Rechner so kompatibel wie möglich zu gestalten. Seine Speicherarchitektur orientierte sich an westlichen Vorbildern: 48 Kilobyte RAM, erweiterbar auf 128 KB. Die Platine bot mehrere 60-polige Erweiterungsslots – mehr als beim Apple II, allerdings mechanisch inkompatibel, was westliche Karten ausschloss. Damit wurde ein sowjetisches Paradoxon geschaffen: ein offenes System, das sich politisch geschlossen gab.

Der Bildschirm, meist ein in grünem oder bernsteinfarbenem Ton glimmender CRT, zeigte Text in 32 × 32 oder 64 × 32 Zeichen, dazu Grafikmodi bis 256 × 256 Pixel. Die frühen Agat-4-Modelle konnten 8 bis 16 Farben darstellen, wenngleich die Farbsättigung stark von der jeweiligen Röhrensorte abhing. Viele sowjetische Schulen verwendeten einfache monochrome Monitore, sodass der Agat in Erinnerung meist in sanftem Grün leuchtet – wie ein Fenster in eine Zukunft, die in Leningrad ein wenig anders aussah als in Kalifornien.

Als Massenspeicher diente zunächst ein handelsüblicher Kassettentonbandrekorder, später kam ein 5,25-Zoll-Diskettenlaufwerk mit etwa 140 KB Kapazität hinzu. Das Betriebssystem war eine sowjetische Adaption von Apple DOS 3.3, übersetzt und modifiziert, um den Emulationsprozessor zu unterstützen. Hinzu kam ein angepasster BASIC-Interpreter, genannt Бейсик-60, später Бейсик-67, dessen Dokumentation mit staatskonformen Parolen gewürzt war. In einer frühen Broschüre hieß es stolz: „Агат – первый шаг к социалистическому киберпространству.“ – „Der Agat ist der erste Schritt in den sozialistischen Cyberspace.“

Doch die Limitierungen des Agat-4 machten sich rasch bemerkbar. Viele Programme liefen zu langsam oder stürzten ab, wenn komplexe Grafikoperationen verlangt wurden. Also entwickelten Ioffe und Kryvtsov eine überarbeitete Version, die 1984 als Agat-7 in Serie ging – das erste wirklich massenproduzierte Modell. Diese Version setzte erstmals auf eine echte sowjetische Kopie des 6502-Prozessors (den КР580ВМ1) mit 1 MHz Taktfrequenz. Dadurch stieg die Geschwindigkeit deutlich, und die Kompatibilität zu Apple-Software wurde verbessert. Jetzt war es möglich, westliche Programme zumindest teilweise auszuführen, wenn sie zuvor auf sowjetischen Disketten übertragen worden waren.

agat7 1 768x917Der Agat-7 erhielt außerdem ein robusteres Metallgehäuse, eine neue Tastatur mit kyrillischer und lateinischer Beschriftung, sowie ein Netzteil, das nicht mehr regelmäßig überhitzte. Für die Massenfertigung sorgte das Werk „МЭЗ“ in Murom, das im Auftrag des Bildungsministeriums jährlich Tausende Geräte produzierte. Bis 1988 waren über 12 000 Agat-Rechner ausgeliefert, die meisten davon in Schulen und wissenschaftlichen Einrichtungen.

Mit einem Preis von etwa 3 900 Rubel war der Agat-7 jedoch ein Luxusartikel. Umgerechnet entsprach das etwa dem zehnfachen Jahresgehalt eines Lehrers, oder rund 15 000 bis 17 000 Euro nach heutiger Kaufkraft. Kein sowjetischer Bürger hätte ihn sich privat leisten können. Doch die Regierung sah im Projekt eine Investition in Bildung und nationale Unabhängigkeit. Der Agat wurde das Herzstück des Programms „Информатика для всех“ – „Informatik für alle“. In Hunderten Schulen entstanden Informatikkabinette mit je fünf bis zehn Rechnern. Der charakteristische Geruch nach erwärmtem Bakelit, Staub und Lötzinn wurde für eine ganze Schülergeneration zum Duft der Zukunft.

Die Entwickler des Agat erlebten ihre Arbeit zwischen Stolz und Frustration. In Interviews berichtete Ioffe später, man habe „gegen das Material gearbeitet“ – viele Bauteile seien unzuverlässig oder schwer zu beschaffen gewesen. Kryvtsov erinnerte sich, wie sie Platinen manuell testeten, weil automatische Prüfgeräte fehlten: „Manchmal funktionierte ein Agat nur, wenn man ihm gut zuredete.“ Diese Mischung aus Witz und Resignation zieht sich wie ein roter Faden durch die Geschichte des sowjetischen Computings.

Apple selbst reagierte nie offiziell. In Cupertino wusste man von Klonen hinter dem Eisernen Vorhang, aber da keine Handelsbeziehungen bestanden, sah man darüber hinweg. In einem später veröffentlichten Memo aus dem Jahr 1984 soll ein Manager süffisant bemerkt haben: „If imitation is the sincerest form of flattery, the Russians must love us very much.“ („Wenn Nachahmung die ehrlichste Form der Schmeichelei ist, müssen die Russen uns wirklich sehr lieben.“) Tatsächlich fühlten sich viele sowjetische Ingenieure von Apple inspiriert, ohne das Gefühl zu haben, etwas zu stehlen – sie sahen sich eher als Übersetzer einer Idee in ihre eigene Sprache.

Im Vergleich zu anderen sowjetischen Rechnern – etwa dem BK-0010 oder dem Корвет (Korvet) – war der Agat weniger modern, aber symbolisch bedeutsamer. Er war das sichtbare Zeichen, dass Mikrocomputer in der UdSSR nicht länger nur im militärischen oder wissenschaftlichen Bereich existierten. Schüler schrieben ihre ersten BASIC-Programme, Lehrer experimentierten mit Lehrsoftware, und an Universitäten entstanden die ersten sowjetischen Spiele, inspiriert von westlichen Vorbildern, aber eigenwillig umgesetzt.

Die Pros des Agat waren seine robuste Bauweise, seine Erweiterbarkeit und die gute Dokumentation für den Bildungssektor. Die Contras: begrenzte Geschwindigkeit, hohe Kosten und Inkompatibilität zu echter Apple-Hardware. Dennoch erfüllte der Rechner seinen Zweck. Er lehrte Denken in Strukturen, Schleifen und Logik – und das in einer Gesellschaft, in der solche Denkweisen selten gefördert wurden.

Als das Projekt Anfang der neunziger Jahre auslief, hinterließ der Agat keine industrielle Revolution, wohl aber eine intellektuelle. Viele spätere russische Programmierer und Elektronikentwickler begannen ihre Laufbahn an einem dieser grün flimmernden Monitore. Heute stehen funktionstüchtige Geräte in Museen und Sammlungen, manche noch mit Original-Disketten, auf denen in kyrillischer Handschrift „Учебные программы“ – „Lernprogramme“ – steht.

Rückblickend war der Agat vielleicht weniger ein Computer als ein kulturelles Experiment: der Versuch, den westlichen Traum vom Personal Computer in den Kontext des Sozialismus zu übersetzen. Und während der Apple II in Kalifornien die Fantasie von Freiheit befeuerte, stand der Agat in Leningrad für die Hoffnung, dass Wissen selbst im Schatten des Eisernen Vorhangs blühen konnte.

A2088

A2088: Zwei Gesichter, ein Gehäuse – Janus und der Amiga 2000

A2088Man stelle sich vor, man besitzt Ende der 1980er einen Commodore Amiga und will trotzdem MS-DOS-Programme laufen lassen – die Steckkarte A2088 machte genau das möglich. Diese vollformatige Zorro-II-Erweiterung verwandelte den Amiga 2000 in einen waschechten IBM-PC XT. Commodore stellte die A2088 Bridgeboard-Karte 1987 offiziell vor, und sie enthielt einen Intel 8088 mit 4,77 MHz, 512 KB RAM und ein XT-kompatibles BIOS – kurz: ein kompletter PC zum Einstecken. Der Einführungspreis lag bei rund 699 US-Dollar, was inflationsbereinigt etwa 1.800 Euro entspricht. Für fast denselben Betrag bekam man damals schon einen kompletten PC-Clone, was erklärt, warum die Karte eher ein Werkzeug für Profis und Technikverliebte blieb als ein Massenprodukt.

Die Entstehungsgeschichte ist ein Stück klassischer Commodore-Firmenpolitik. Während die US-Ingenieure in West Chester den Amiga als eigenständige Plattform verstanden, wollte Commodore Deutschland in Braunschweig den Rechner für den Büromarkt öffnen. Ihr Konzept: Der Amiga 2000 sollte ab Werk die Möglichkeit bieten, eine echte PC-Erweiterungskarte aufzunehmen – keine Emulation, sondern Hardware. Daraus entstand das Bridgeboard-Prinzip: Die A2088 steckte ausschließlich in einem Zorro-II-Slot und führte über ihre Leiterplatte die ISA-Signale zu bis zu drei 8-Bit-ISA-Steckplätzen im A2000-Chassis. Sie steckte also nicht gleichzeitig in einem ISA-Slot; vielmehr stellte sie diesen Bus selbst bereit. Dadurch konnte man an den Amiga echte PC-Erweiterungskarten anschließen – von CGA-Grafik über MFM-Controller bis zu Netzwerkadaptern. Diese Architektur war ihrer Zeit erstaunlich weit voraus.

Damit wurde der Amiga 2000 zu einem Doppelwesen: Auf der einen Seite lief der Motorola 68000 mit AmigaOS, auf der anderen ein Intel 8088 unter MS-DOS. Beide Systeme kommunizierten über eine Software-Schicht, die Commodore humorvoll Janus taufte – nach dem zweigesichtigen Gott des Anfangs und des Endes, der Türen, Tore und Übergänge. Passender hätte man es kaum wählen können, denn Janus war tatsächlich das Portal zwischen zwei Welten. Die Software regelte den Datenaustausch über gemeinsam genutzten Speicher und erlaubte es, Tastatur, Maus und Drucker gemeinsam zu verwenden. Die Amiga-Tastatur wurde also einfach an den PC durchgeschleift, und selbst der Parallelport diente abwechselnd beiden Systemen. Wer in einem Büro der späten Achtziger einen Amiga 2000 mit A2088 betrieb, konnte vormittags Grafiklayouts auf Deluxe Paint bearbeiten und nachmittags Tabellen in Lotus 1-2-3 ausfüllen – alles auf demselben Gerät.

Bei der Bildausgabe blieb alles klassisch CGA: 80×25 Text, 320×200 Pixel in vier Farben oder 640×200 in zwei Farben. Der beliebte Commodore 1084 war allerdings kein Multisync-Monitor und konnte CGA-TTL-Signale nicht direkt darstellen. Wer den PC-Bildschirm sehen wollte, brauchte also einen separaten CGA-Monitor oder einen externen Umschalter. In der Praxis bedeutete das: links der Amiga-Desktop in sattem RGB, rechts der PC-Bildschirm in grobem CGA-Blau-Magenta – zwei Welten auf einem Schreibtisch.

Ein Nutzer brachte es 1990 treffend auf den Punkt: „Einer der Vorteile, einen Amiga 2000 mit der A2088-Bridgeboard zu besitzen, besteht darin, aus zwei Software-Welten schöpfen zu können … Ein weiterer Vorteil ist, dass man eine MS-DOS-Diskette einfach von der Arbeit mit nach Hause bringen kann.“ Der Haken: Ab Werk kam die A2088 typischerweise mit einem 5¼-Zoll-Laufwerk, während der Amiga intern 3½-Zoll nutzte – ohne Zusatztools wie CrossDOS waren die Welten also nicht sofort diskettenkompatibel. Viele Nutzer rüsteten daher ein 3½-Zoll-PC-Laufwerk nach, um den Transfer zu vereinfachen.

Leistungsmäßig entsprach die Karte einem IBM-XT. Mit optionalem 8087-Koprozessor ließen sich CAD-Programme und Zahlenschubserei beschleunigen; für Anwendungen wie WordPerfect, dBASE III Plus oder Lotus 1-2-3 reichte die Leistung aus. Commodore reagierte auf den schnellen technischen Fortschritt mit Nachfolgern: Die A2286 (80286) und später die A2386SX (80386SX) brachten echte AT-Power. Eine spätere Revision, die A2088T Turbo, nutzte einen schnelleren NEC V20-Prozessor und bot wahlweise 4,77, 7,16 oder 9,54 MHz Taktfrequenz. Mit 640 KB RAM und direkterem Zugriff auf das interne Amiga-Laufwerk war sie fast doppelt so schnell wie die erste A2088 und deutlich alltagstauglicher – allerdings auch schon spät im Rennen, als 286er- und 386er-Rechner längst dominierten.

Kommerziell blieb die A2088 ein Nischenprodukt. Sie verkaufte sich vor allem in Deutschland und Großbritannien, wo der Amiga 2000 häufiger in Büros stand als in den USA. Die Herstellungskosten dürften im mittleren dreistelligen US-Dollar-Bereich gelegen haben, also inflationsbereinigt rund 800 bis 900 Euro. Damit war die Marge überschaubar, doch die Karte erfüllte ihren Zweck: Sie bewies die technische Offenheit des Amiga-Systems und brachte Commodore in der Fachpresse positives Echo.

Ähnliche Hybrid-Lösungen gab es auch anderswo: Für den Atari ST erschienen PC Speed und AT-Speed, Apple bot 1987 den PC Transporter an, und Sega kombinierte 1991 im Teradrive sogar eine Mega-Drive-Konsole mit einem 286-PC. Offenbar übte die Vorstellung, zwei Systeme in einem Gerät zu vereinen, eine eigenartige Faszination aus – praktisch war sie selten, aber technisch brillant.

Offizielle Dokumente führen die A2088 als Produkt eines europäischen Commodore-Teams, vermutlich aus Braunschweig. Persönliche Entwickler-Credits sind nicht bekannt, und Commodore veröffentlichte keine individuellen Namen. Damit bleibt die A2088 ein typisches Beispiel für kollektive Ingenieurskunst jener Zeit – pragmatisch, genial und fast schon poetisch im Anspruch, Brücken zwischen Computerwelten zu schlagen.

Heute gilt sie als kultiges Relikt einer Ära, in der Commodore noch mutig experimentierte. Ein Amiga, der DOS-Programme abspielt und beim Start sowohl das „Kickstart“-Logo als auch das flackernde C:\>-Prompt zeigt – das war mehr als nur Hardware, das war ein Manifest für technische Vielfalt.