Atari Touch Me

Atari Touch Me – Das Gedächtnisspiel, das Simon berühmt machte.

Wenn man alten Spielhallenstaub abklopft, findet man manchmal Geräte, bei denen man sich fragt, ob sie wirklich zum Spielen gedacht waren oder ob da jemand einfach zu lange an einer Platine geschnüffelt hat. Atari Touch Me gehört definitiv in diese Kategorie. Vier Knöpfe, vier Töne, ein kleiner Digitalzähler und keinerlei Grafik. Atari selbst nannte das 1974 ernsthaft „TOUCH ME – A MIND BOGGLER!“ („Touch Me – ein Gehirnverdreher!“). Wir nennen es: das wahrscheinlich minimalistischste Gedächtnistraining der Arcade-Geschichte.

Das Prinzip ist schnell erklärt: Der Automat spielt ein „Beep“. Sie drücken den entsprechenden Knopf. Danach kommt „Beep–bloop“, Sie tippen nach. Runde drei: „Beep–bloop–beep“, und so weiter. Atari versprach im Werbeflyer sogar „the first computer game that challenges the mind as well as eye-to-hand coordination skills“ („das erste Computerspiel, das sowohl Geist als auch die Hand-Auge-Koordination herausfordert“). Klingt nach Fitnessstudio fürs Hirn, sieht aber eher aus wie ein wissenschaftliches Prüfgerät, das versehentlich den Weg in die Spielhalle gefunden hat.

Historisch spannend wird Touch Me jedoch durch die Person, die das Ding sah und dachte: Idee gut, Umsetzung mies. Ralph H. Baer – und jetzt aufgepasst – ist nicht irgendwer. Baer gilt als „Vater der Heimvideospiele“, Schöpfer der Magnavox Odyssey und einer der prägenden Erfinder der gesamten Branche. Der Mann steht in einer Reihe mit den großen Ingenieursköpfen der Unterhaltungselektronik und hat mehr zum Thema „Videospiel“ beigetragen, als viele Firmen heute ahnen. Und genau dieser Baer sah Touch Me auf einer Messe und schrieb später: „Good idea but lousy execution“ („Gute Idee, aber schlechte Umsetzung“).

Was folgte, ist Spielzeuggeschichte. Baer und Howard Morrison nahmen das Grundprinzip, polierten es auf und entwickelten 1978 Simon – ja, das Simon, mit den vier farbigen Feldern, harmonischen Tönen und dem legendären „Fang den Rhythmus“-Gefühl. Simon wurde ein riesiger Erfolg, in zeitgenössischen Rückblicken sogar als „one of the top-selling toys“ („eines der meistverkauften Spielzeuge“) bezeichnet. Kinderzimmer weltweit hatten plötzlich eine elektronische Wundertrommel, die Tonfolgen auswarf, und Atari stand ein bisschen so da, als hätte man das Originalrezept erfunden, aber jemand anderes den Kuchen gebacken – und dafür den Preis bekommen.

Der Touch-Me-Automat selbst blieb dagegen eine Randerscheinung. Kein Bildschirm, keine bunte Optik, nur vier Knöpfe und ein Holzdekor, das eher nach Vaters Stereoanlage aussieht. In den Branchenblättern jener Zeit tauchte immerhin ein kurzer Hinweis auf: „Atari introduces Touch Me, an electronic skill game using illuminated push-buttons. Players follow the pattern as it grows.“ („Atari stellt Touch Me vor, ein elektronisches Geschicklichkeitsspiel mit beleuchteten Drucktasten. Die Spieler folgen dem Muster, während es länger wird.“). Begeisterungsstürme klingen anders.

Atari versuchte später, mit einem Handheld nachzuziehen. Das Ding hieß BH-100, lief mit einer 9-Volt-Batterie und sah aus wie die Kreuzung aus Taschenrechner und Frühzeit-Elektronikspiel. Mehrere Spielmodi, vier Schwierigkeitsstufen, Farben, Töne – alles solide, aber nicht annähernd so elegant wie das runde Simon-Design. Wer eines der Geräte heute auf dem Flohmarkt findet, kann sich glücklich schätzen – nicht wegen des Spielspaßes, sondern wegen der Seltenheit.

Unter dem Strich bleibt Touch Me ein sympathischer Dinosaurier: ein kleines, elektronisches Experiment mit großer Wirkung, das die richtige Idee hatte, aber erst der falschen Person über den Weg laufen musste, damit etwas Weltbewegendes daraus wurde. Simon bekam Ruhm, Fernsehwerbung und Millionenverkäufe. Touch Me bekam… na ja, ein paar Archiv-Einträge, einen Museumsplatz und eine Fanbasis aus Retro-Sammlern, die wissen, dass selbst die stillsten Geräte der Spielgeschichte manchmal die lautesten Nachfahren haben.

Dracula – 1985 by CRL

Blut, Pixel und Paragraphen: Draculas Weg zum ersten BBFC-Rating der Spielegeschichte

Monty-pythonesker Einfall oder genialer Marketing-Trick? Im Herbst 1986 sorgt ausgerechnet ein Text-Adventure für Schlagzeilen: Dracula von CRL landet beim British Board of Film Censors – und das freiwillig. Computerspiele hatten bis dahin keine Altersfreigaben nötig, doch CRL-Chef Clem Chambers wittert eine Chance. Die Londoner schicken ihr Adventure mit ein paar blutigen Illustrationen zur Behörde und hoffen auf einen Skandal. Die BBFC vergibt tatsächlich ein „15“-Zertifikat, und CRL druckt stolz den Hinweis „nicht geeignet für unter 15-Jährige“ auf die Verpackung. Genau das sorgt für Aufmerksamkeit bei Medien und Horror-Fans. Hinter den Kulissen hätte man zwar gerne das noch drastischere „18“-Siegel gesehen, doch schon so funktioniert der PR-Coup. Im Jahr darauf folgen Frankenstein und 1987 Jack the Ripper – letzteres Spiel erhält dann tatsächlich eine 18er-Freigabe und schreibt damit Zensurgeschichte. Mitten in dieser kleinen Horrorwelle steht CRL mit Autor Rod Pike, der klassische Schauergeschichten als interaktive Fiction auf C64, ZX Spectrum und Amstrad CPC bringt.

Schon 1986 gilt Bram Stokers Dracula-Roman von 1897 als vielzitierter Kultstoff, und Pikes Spiel hält sich eng an die literarische Vorlage. Der junge Anwalt Jonathan Harker reist in die Karpaten, um Graf Dracula beim Immobilienkauf in England zu beraten. Das Spiel gliedert die Handlung in drei eigenständige Teile, die jeweils separat geladen werden. In The First Night verbringt Harker eine unheimliche Nacht im Gasthof „Goldene Krone“. In The Arrival erreicht er Draculas Schloss und begreift, dass er eigentlich Gefangener ist. Gelingt die Flucht, wechselt im dritten Teil The Hunt die Perspektive zu Dr. Seward, Leiter einer Irrenanstalt in Whitby. Er untersucht Harkers Warnungen vor mysteriösen Erde-Kisten und einem „Untoten“, während Patient Renfield immer seltsamer wird. Diese episodische Struktur deckt große Teile der Romanhandlung ab und passt zugleich zu den begrenzten Speicherreserven der 8-Bit-Rechner.

Technisch gehört Dracula klar in die Kategorie der Illustrated Text Adventures. Im Kern ist es ein reines Text-Adventure mit Parser-Eingabe, das wichtige Momente durch statische Bilder ergänzt. Auf allen Systemen arbeitet ein sehr einfacher Zwei-Wort-Parser nach dem Schema „Verb + Objekt“. Präpositionen oder komplexe Sätze ignoriert das Spiel, Kommandos wie „UNTERSUCHE RAUM“ oder „NIMM SCHLÜSSEL“ reichen. Das passt zur Entstehung mit dem populären Quill-Baukasten: Die Engine war für viele Autoren eine Einladung, Geschichten ohne tiefere Programmierkenntnisse umzusetzen, brachte aber klare Grenzen mit. Magazine wie Amstrad Action kritisierten, dass der Parser unbekannte Wörter nicht benennt, sondern nur lapidar mit „I don’t understand“ oder „You can’t do that“ reagiert – ein Verhalten, das eher an späte 70er-Jahre-Adventures erinnert. Türen erfordern exakt getimte Befehlsfolgen, alternative Formulierungen scheitern schnell. Wer statt „ZÜNDE LAMPE AN“ auf „BENUTZE LAMPE“ kommt, wird abgewiesen. Das bremst den Spielfluss, auch wenn Dracula insgesamt eher einsteigerfreundlich bleibt. Die ersten beiden Episoden verlaufen sehr linear und spielen auf wenigen Schauplätzen, benötigte Objekte liegen meist in der Nähe. Der dritte Teil öffnet die Struktur etwas, bleibt aber ebenfalls moderat im Anspruch; erfahrene Adventure-Spieler sehen den Abspann nach wenigen Stunden.

Trotz überschaubarer Mechanik gewinnt Dracula seine Wirkung aus der Atmosphäre. Rod Pike nutzt den Textspeicher intensiv, beschreibt Schauplätze und Ereignisse detailreich und mit hörbarer Vorliebe für Gothic-Vokabular. Wo andere Adventures der Zeit in knappen Telegrammsätzen sprechen, nimmt sich Dracula Zeit für Stimmung. Beim Einstieg im Gasthof liest der Spieler von flackernden Öllampen, gelben Lichtinseln und dunklen Ecken, in denen das Böse lauern könnte – genau diese Art Prosa lobten Testredaktionen. Crash stellte der Atmosphäre einen sehr hohen Wert gegenüber und sprach von „Romanqualität“ in den Beschreibungen. Die Kehrseite: Pro Kapitel gibt es nur eine Handvoll Räume, teilweise weniger als zehn, was Amstrad Action ausdrücklich notierte. Die fortlaufende Handlung mit geskripteten Ereignissen – Albträume, nächtliche Besuche, Visionen – sorgt für viel Lesestoff, ohne dass der Spieler immer aktiv eingreifen muss. Dracula fühlt sich dadurch eher wie eine interaktive Novelle oder ein Spielbuch an als wie ein klassisches Rätselabenteuer. Wer primär knobeln will, findet hier wenig Futter; wer sich gerne eine Gruselgeschichte erzählen lässt und ab und zu eingreift, wird deutlich besser bedient.

Die grafische Präsentation variiert von System zu System. Auf dem ZX Spectrum (48K) erscheinen die Illustrationen in einfachen, meist monochromen Bitmaps. Zeichner Jared Derrett holt aus der Hardware respektable Bilder heraus, die beim Laden zeilenweise aufgebaut werden und so für kurze Pausen sorgen. Um Speicher zu sparen, gönnt sich das Spiel nur wenige, gezielt eingesetzte Szenenbilder – etwa bei Albträumen oder besonders drastischen Momenten. Für 1986 wirken diese Pixelbilder sicher eindrucksvoll, heute eher harmlos. Amstrad Action kommentierte sinngemäß, die „fiesen Bilder“ seien in Wirklichkeit gar nicht so grausam – und auf einem Grünmonitor noch weniger. Auf dem Amstrad CPC (64K) nutzt Dracula den hochauflösenden Vier-Farben-Modus, was auf Farbbildschirmen durchaus stimmungsvoll wirkt, auf Grünmonitoren aber viele Details verschluckt. Die CPC-Version bleibt zudem weitgehend stumm. Mehr audiovisuelle Wirkung erzielt die C64-Fassung: Dank SID-Chip kann das Spiel eine kurze Titelmusik und simple Spannungs-Effekte abspielen; auch hier stammen die Grafiken von Jared Derrett, angepasst an die Multicolor-Möglichkeiten des Commodore. Auf allen Systemen setzt CRL eine verzierte Schriftart ein, um viktorianisches Flair zu transportieren. Besonders auf dem Spectrum stößt diese Wahl an Grenzen – Crash bezeichnete den Zeichensatz als einen der am schwersten lesbaren, die man je zu entziffern versucht habe. Auf CPC und C64 fällt das Problem weniger stark auf, doch besonders lange Sitzungen werden durch die Typografie anstrengend.

Zur Entstehungsgeschichte lässt sich heute recht klar sagen, wer für was verantwortlich war. Dracula entstand bei CRL unter dem Label The Zen Room. Autor und Designer war Rod Pike, der sich bereits zuvor mit Horror-Adaptionen einen Namen gemacht hatte. Er setzte unter anderem H. P. Lovecrafts The Dunwich Horror als Adventure um und schrieb kurz vor Dracula das mehrteilige Pilgrim. Die grafische Ausgestaltung stammt von Jared Derrett, dessen Name in mehreren Datenbanken den C64- und Spectrum-Fassungen zugeordnet wird. Für Musik und Effekte der C64-Version wird sein Bruder Jay Derrett geführt. Beide tauchen später auch bei weiteren CRL-Horrorprojekten wie Jack the Ripper und Wolfman in den Credits auf. Im Spiel selbst oder in den Handbüchern werden die Derretts nicht immer explizit genannt; ihre Beteiligung lässt sich aber über externe Credit-Sammlungen und Szenequellen nachvollziehen.

Wie reagierte die Presse auf dieses Experiment aus Zensur-Coup und Grusel-Abenteuer? In Großbritannien fielen vor allem die Sinclair-Magazine sehr wohlwollend aus. Crash vergab für die Spectrum-Version eine hohe Gesamtwertung und hob insbesondere Atmosphäre und Textqualität hervor. Sinclair User setzte noch eins drauf und belohnte Dracula mit der Höchstnote von fünf von fünf Punkten. Das frechere Your Sinclair blieb deutlich zurückhaltender: Der zuständige Redakteur lobte die Stimmung, kritisierte aber Umfang und altmodischen Parser und landete bei sechs von zehn Punkten. Auf Commodore-Seite kam das Spiel unterschiedlich an. Commodore User bescheinigte Dracula ein gutes Adventure und lag etwa im 80-Prozent-Bereich, während Computer Gamer sogar eine noch höhere Einschätzung abgab. Computer & Video Games ordnete sich mit einer soliden Acht-von-Zehn-Kategorie ein. Deutlich skeptischer zeigte sich Zzap!64: Dort empfand man das Adventure als zu dünn, um den Hype um die Altersfreigabe zu tragen, und vergab nur eine unterdurchschnittliche Wertung. Besonders störte die Redaktion, dass die angekündigte Schockwirkung in der Praxis eher moderat ausfiel.

In Deutschland fiel das Echo wesentlich kühler aus. Happy Computer zeigte sich in der Besprechung wenig angetan: fehlende deutsche Texte und die zähe Eingabe sorgten für eine deutlich unterdurchschnittliche Wertung und die Empfehlung, nur eingefleischten Adventure-Fans einen Blick zu gönnen. Der Aktuelle Software Markt verfolgte Dracula schon früh; ein Vorabbericht beschäftigte sich vor allem mit der ungewöhnlichen Altersfreigabe und dem Horror-Anspruch. Im eigentlichen Test fielen Grafik und Atmosphäre positiv auf, während der einfache Parser und die lineare Struktur zurückhaltend kommentiert wurden. Insgesamt kam das Spiel im deutschen Markt über einen Nischenstatus nicht hinaus; andere Magazine erwähnten Dracula, wenn überhaupt, eher am Rande.

Mit etwas zeitlichem Abstand bleibt Dracula von 1986 vor allem als Medienphänomen in Erinnerung. CRL nutzte die BBFC-Prüfung geschickt für Schlagzeilen, lange bevor offizielle Altersratings für Spiele zum Standard wurden. Spielerisch reiht sich das Adventure eher in die Kategorie der einfacheren Gruseltitel ein: kein Zork, kein Monkey Island, sondern eine interaktive Horrorgeschichte mit überschaubarem Rätselanteil. Technisch holen die Entwickler aus den drei Zielsystemen ordentlich etwas heraus – der Spectrum profitiert besonders von der starken Textbasis, der C64 punktet mit Musik und Farbe, der CPC liefert eine solide, wenn auch etwas blassere Variante. Der kommerzielle Erfolg blieb moderat, reichte aber aus, um weitere Horror-Adaptionen zu rechtfertigen. Ende der Achtziger verschwand CRL vom Markt, doch Dracula wird in der Retro-Szene heute gerne als kurioser Meilenstein zitiert: als Beispiel dafür, wie weit man mit einer guten Idee, etwas Mut zur Provokation und einem klassischen Stoff kommen konnte, auch wenn die Mechanik im Hintergrund vergleichsweise schlicht bleibt.

 

Dracula – 1986 by CRL

Monty-pythonesker Einfall oder genialer Marketing-Trick? Im Herbst 1986 sorgt ausgerechnet ein Text-Adventure für Schlagzeilen: Dracula von CRL landet beim British Board of Film Censors – und das freiwillig. Computerspiele hatten bis dahin keine Altersfreigaben nötig, doch CRL-Chef Clem Chambers wittert eine Chance. Die Londoner schicken ihr Adventure mit ein paar blutigen Illustrationen zur Behörde und hoffen auf einen Skandal. Die BBFC vergibt tatsächlich ein „15“-Zertifikat, und CRL druckt stolz den Hinweis „nicht geeignet für unter 15-Jährige“ auf die Verpackung. Genau das sorgt für Aufmerksamkeit bei Medien und Horror-Fans. Hinter den Kulissen hätte man zwar gerne das noch drastischere „18“-Siegel gesehen, doch schon so funktioniert der PR-Coup. Im Jahr darauf folgen Frankenstein und 1987 Jack the Ripper – letzteres Spiel erhält dann tatsächlich eine 18er-Freigabe und schreibt damit Zensurgeschichte. Mitten in dieser kleinen Horrorwelle steht CRL mit Autor Rod Pike, der klassische Schauergeschichten als interaktive Fiction auf C64, ZX Spectrum und Amstrad CPC bringt.

Schon 1986 gilt Bram Stokers Dracula-Roman von 1897 als vielzitierter Kultstoff, und Pikes Spiel hält sich eng an die literarische Vorlage. Der junge Anwalt Jonathan Harker reist in die Karpaten, um Graf Dracula beim Immobilienkauf in England zu beraten. Das Spiel gliedert die Handlung in drei eigenständige Teile, die jeweils separat geladen werden. In The First Night verbringt Harker eine unheimliche Nacht im Gasthof „Goldene Krone“. In The Arrival erreicht er Draculas Schloss und begreift, dass er eigentlich Gefangener ist. Gelingt die Flucht, wechselt im dritten Teil The Hunt die Perspektive zu Dr. Seward, Leiter einer Irrenanstalt in Whitby. Er untersucht Harkers Warnungen vor mysteriösen Erde-Kisten und einem „Untoten“, während Patient Renfield immer seltsamer wird. Diese episodische Struktur deckt große Teile der Romanhandlung ab und passt zugleich zu den begrenzten Speicherreserven der 8-Bit-Rechner.

Technisch gehört Dracula klar in die Kategorie der Illustrated Text Adventures. Im Kern ist es ein reines Text-Adventure mit Parser-Eingabe, das wichtige Momente durch statische Bilder ergänzt. Auf allen Systemen arbeitet ein sehr einfacher Zwei-Wort-Parser nach dem Schema „Verb + Objekt“. Präpositionen oder komplexe Sätze ignoriert das Spiel, Kommandos wie „UNTERSUCHE RAUM“ oder „NIMM SCHLÜSSEL“ reichen. Das passt zur Entstehung mit dem populären Quill-Baukasten: Die Engine war für viele Autoren eine Einladung, Geschichten ohne tiefere Programmierkenntnisse umzusetzen, brachte aber klare Grenzen mit. Magazine wie Amstrad Action kritisierten, dass der Parser unbekannte Wörter nicht benennt, sondern nur lapidar mit „I don’t understand“ oder „You can’t do that“ reagiert – ein Verhalten, das eher an späte 70er-Jahre-Adventures erinnert. Türen erfordern exakt getimte Befehlsfolgen, alternative Formulierungen scheitern schnell. Wer statt „ZÜNDE LAMPE AN“ auf „BENUTZE LAMPE“ kommt, wird abgewiesen. Das bremst den Spielfluss, auch wenn Dracula insgesamt eher einsteigerfreundlich bleibt. Die ersten beiden Episoden verlaufen sehr linear und spielen auf wenigen Schauplätzen, benötigte Objekte liegen meist in der Nähe. Der dritte Teil öffnet die Struktur etwas, bleibt aber ebenfalls moderat im Anspruch; erfahrene Adventure-Spieler sehen den Abspann nach wenigen Stunden.

Trotz überschaubarer Mechanik gewinnt Dracula seine Wirkung aus der Atmosphäre. Rod Pike nutzt den Textspeicher intensiv, beschreibt Schauplätze und Ereignisse detailreich und mit hörbarer Vorliebe für Gothic-Vokabular. Wo andere Adventures der Zeit in knappen Telegrammsätzen sprechen, nimmt sich Dracula Zeit für Stimmung. Beim Einstieg im Gasthof liest der Spieler von flackernden Öllampen, gelben Lichtinseln und dunklen Ecken, in denen das Böse lauern könnte – genau diese Art Prosa lobten Testredaktionen. Crash stellte der Atmosphäre einen sehr hohen Wert gegenüber und sprach von „Romanqualität“ in den Beschreibungen. Die Kehrseite: Pro Kapitel gibt es nur eine Handvoll Räume, teilweise weniger als zehn, was Amstrad Action ausdrücklich notierte. Die fortlaufende Handlung mit geskripteten Ereignissen – Albträume, nächtliche Besuche, Visionen – sorgt für viel Lesestoff, ohne dass der Spieler immer aktiv eingreifen muss. Dracula fühlt sich dadurch eher wie eine interaktive Novelle oder ein Spielbuch an als wie ein klassisches Rätselabenteuer. Wer primär knobeln will, findet hier wenig Futter; wer sich gerne eine Gruselgeschichte erzählen lässt und ab und zu eingreift, wird deutlich besser bedient.

Die grafische Präsentation variiert von System zu System. Auf dem ZX Spectrum (48K) erscheinen die Illustrationen in einfachen, meist monochromen Bitmaps. Zeichner Jared Derrett holt aus der Hardware respektable Bilder heraus, die beim Laden zeilenweise aufgebaut werden und so für kurze Pausen sorgen. Um Speicher zu sparen, gönnt sich das Spiel nur wenige, gezielt eingesetzte Szenenbilder – etwa bei Albträumen oder besonders drastischen Momenten. Für 1986 wirken diese Pixelbilder sicher eindrucksvoll, heute eher harmlos. Amstrad Action kommentierte sinngemäß, die „fiesen Bilder“ seien in Wirklichkeit gar nicht so grausam – und auf einem Grünmonitor noch weniger. Auf dem Amstrad CPC (64K) nutzt Dracula den hochauflösenden Vier-Farben-Modus, was auf Farbbildschirmen durchaus stimmungsvoll wirkt, auf Grünmonitoren aber viele Details verschluckt. Die CPC-Version bleibt zudem weitgehend stumm. Mehr audiovisuelle Wirkung erzielt die C64-Fassung: Dank SID-Chip kann das Spiel eine kurze Titelmusik und simple Spannungs-Effekte abspielen; auch hier stammen die Grafiken von Jared Derrett, angepasst an die Multicolor-Möglichkeiten des Commodore. Auf allen Systemen setzt CRL eine verzierte Schriftart ein, um viktorianisches Flair zu transportieren. Besonders auf dem Spectrum stößt diese Wahl an Grenzen – Crash bezeichnete den Zeichensatz als einen der am schwersten lesbaren, die man je zu entziffern versucht habe. Auf CPC und C64 fällt das Problem weniger stark auf, doch besonders lange Sitzungen werden durch die Typografie anstrengend.

Zur Entstehungsgeschichte lässt sich heute recht klar sagen, wer für was verantwortlich war. Dracula entstand bei CRL unter dem Label The Zen Room. Autor und Designer war Rod Pike, der sich bereits zuvor mit Horror-Adaptionen einen Namen gemacht hatte. Er setzte unter anderem H. P. Lovecrafts The Dunwich Horror als Adventure um und schrieb kurz vor Dracula das mehrteilige Pilgrim. Die grafische Ausgestaltung stammt von Jared Derrett, dessen Name in mehreren Datenbanken den C64- und Spectrum-Fassungen zugeordnet wird. Für Musik und Effekte der C64-Version wird sein Bruder Jay Derrett geführt. Beide tauchen später auch bei weiteren CRL-Horrorprojekten wie Jack the Ripper und Wolfman in den Credits auf. Im Spiel selbst oder in den Handbüchern werden die Derretts nicht immer explizit genannt; ihre Beteiligung lässt sich aber über externe Credit-Sammlungen und Szenequellen nachvollziehen.

Wie reagierte die Presse auf dieses Experiment aus Zensur-Coup und Grusel-Abenteuer? In Großbritannien fielen vor allem die Sinclair-Magazine sehr wohlwollend aus. Crash vergab für die Spectrum-Version eine hohe Gesamtwertung und hob insbesondere Atmosphäre und Textqualität hervor. Sinclair User setzte noch eins drauf und belohnte Dracula mit der Höchstnote von fünf von fünf Punkten. Das frechere Your Sinclair blieb deutlich zurückhaltender: Der zuständige Redakteur lobte die Stimmung, kritisierte aber Umfang und altmodischen Parser und landete bei sechs von zehn Punkten. Auf Commodore-Seite kam das Spiel unterschiedlich an. Commodore User bescheinigte Dracula ein gutes Adventure und lag etwa im 80-Prozent-Bereich, während Computer Gamer sogar eine noch höhere Einschätzung abgab. Computer & Video Games ordnete sich mit einer soliden Acht-von-Zehn-Kategorie ein. Deutlich skeptischer zeigte sich Zzap!64: Dort empfand man das Adventure als zu dünn, um den Hype um die Altersfreigabe zu tragen, und vergab nur eine unterdurchschnittliche Wertung. Besonders störte die Redaktion, dass die angekündigte Schockwirkung in der Praxis eher moderat ausfiel.

In Deutschland fiel das Echo wesentlich kühler aus. Happy Computer zeigte sich in der Besprechung wenig angetan: fehlende deutsche Texte und die zähe Eingabe sorgten für eine deutlich unterdurchschnittliche Wertung und die Empfehlung, nur eingefleischten Adventure-Fans einen Blick zu gönnen. Der Aktuelle Software Markt verfolgte Dracula schon früh; ein Vorabbericht beschäftigte sich vor allem mit der ungewöhnlichen Altersfreigabe und dem Horror-Anspruch. Im eigentlichen Test fielen Grafik und Atmosphäre positiv auf, während der einfache Parser und die lineare Struktur zurückhaltend kommentiert wurden. Insgesamt kam das Spiel im deutschen Markt über einen Nischenstatus nicht hinaus; andere Magazine erwähnten Dracula, wenn überhaupt, eher am Rande.

Mit etwas zeitlichem Abstand bleibt Dracula von 1986 vor allem als Medienphänomen in Erinnerung. CRL nutzte die BBFC-Prüfung geschickt für Schlagzeilen, lange bevor offizielle Altersratings für Spiele zum Standard wurden. Spielerisch reiht sich das Adventure eher in die Kategorie der einfacheren Gruseltitel ein: kein Zork, kein Monkey Island, sondern eine interaktive Horrorgeschichte mit überschaubarem Rätselanteil. Technisch holen die Entwickler aus den drei Zielsystemen ordentlich etwas heraus – der Spectrum profitiert besonders von der starken Textbasis, der C64 punktet mit Musik und Farbe, der CPC liefert eine solide, wenn auch etwas blassere Variante. Der kommerzielle Erfolg blieb moderat, reichte aber aus, um weitere Horror-Adaptionen zu rechtfertigen. Ende der Achtziger verschwand CRL vom Markt, doch Dracula wird in der Retro-Szene heute gerne als kurioser Meilenstein zitiert: als Beispiel dafür, wie weit man mit einer guten Idee, etwas Mut zur Provokation und einem klassischen Stoff kommen konnte, auch wenn die Mechanik im Hintergrund vergleichsweise schlicht bleibt.

 

Oric 1

Oric-1: Der ehrgeizige Heimcomputer aus der zweiten Reihe der 80er Jahre

Source: https://www.computinghistory.org.uk/det/526/Oric-1-48k/

Als der Oric-1 im Jahr 1983 in Großbritannien erschien, traf er in einen Markt, der durch schnelle technische Entwicklungen und wachsenden Preisdruck geprägt war. Tangerine Computer Systems, bis dahin vor allem durch den Microtan 65 in der Bastlerszene bekannt, wollte mit diesem neuen Modell den Schritt vom Baukastenrechner zum vollwertigen Heimcomputer schaffen. Für die Vermarktung wurde Oric Products International Ltd gegründet, denn man plante bewusst ein Gerät, das im Massenmarkt bestehen sollte, mit einem klaren Ziel: eine Alternative zum ZX Spectrum zu bieten, die preislich konkurrenzfähig blieb, aber in mehreren Punkten technisch überzeugender wirken sollte. Die gesamte Entwicklung wird heute dem britischen Tangerine-Team zugeschrieben; einzelne namentliche Hauptentwickler sind in zeitgenössischen Dokumenten nicht gesichert überliefert.

Der Rechner basierte auf dem MOS Technology 6502A mit 1 MHz, einem Prozessor, der sich in zahlreichen erfolgreichen Heimcomputern der Zeit bewährt hatte. Der Oric-1 erschien in zwei RAM-Varianten, 16 KB und 48 KB, wobei die größere Version den Markt dominierte. Das 16-KB-ROM enthielt das Betriebssystem und ein speziell an den Rechner angepasstes BASIC. Die Tastatur bestand aus einzelnen Hartplastiktasten; zeitgenössische Berichte beurteilten sie unterschiedlich, von „funktionell“ bis „gewöhnungsbedürftig“, jedoch war sie klar getrennt beweglich und unterschied sich damit deutlich vom Gummitastatursystem des Spectrum. Für die interne Logik nutzte Oric einen kundenspezifischen Gate-Array-Baustein, der mehrere Funktionen bündelte und für die Kostenoptimierung eine entscheidende Rolle spielte.

Die Grafikmodi boten 240 × 200 Pixel bei acht Farben sowie 40-Zeichen-Textmodi, jeweils mit bestimmten Einschränkungen durch Farbblockbildung, die für Heimcomputer dieser Generation typisch waren. Der AY-3-8912 als dreikanaliger Tonchip stellte eine echte Mehrstimmigkeit bereit und wurde in Testberichten positiv erwähnt, besonders im Vergleich zu einfacheren Tonausgaben anderer preisgünstiger Geräte. Die Kassetten­schnittstelle war offiziell für Datenraten zwischen 300 und 2400 Baud ausgelegt, wobei Testberichte eher von mittleren, zuverlässigeren Werten ausgingen. Diese Angaben entsprechen dem, was aus britischen und französischen Magazinen des Jahres 1983 dokumentiert ist.

Auf dem britischen Markt erhielt der Oric-1 zunächst beachtliche Aufmerksamkeit, doch das Softwareangebot wuchs langsamer als bei seinen direkten Konkurrenten. Die Spectrum-Plattform hatte bereits einen deutlichen Vorsprung, und auch der Preisvorteil im unteren Marktsegment spielte Sinclair weiterhin in die Hände. Auffällig erfolgreich entwickelte sich dagegen der französische Markt, wo Oric durch lokale Vertriebsstrukturen deutlich präsenter war und eine engagierte Anwenderszene entstand. Der Rechner blieb dennoch im Schatten des Spectrum und des Commodore 64, deren Marktanteile schneller stiegen und deren Softwarebibliotheken durch größere Verlage und etablierte Entwicklerstudios erweitert wurden.

Preislich positionierte sich der Oric-1 aggressiv. Zeitgenössische Anzeigen führen für die Markteinführung rund £99.95 für die 16-KB-Version und £169.95 für die 48-KB-Variante auf. Inflationsbereinigt entspricht dies heute ungefähr 370 Euro beziehungsweise etwa 630 Euro. Dieser Preisrahmen zeigt klar, wie Oric seine Rolle sah: preislich näher beim Spectrum, technisch näher an Geräten wie dem VC-20 oder dem Atari 400, aber ohne deren teils höheren Endverbraucherpreise. Die frühen Produktionsreihen des Oric-1 sind in einigen Testberichten durch Hinweise auf bestimmte ROM-Revisionen und vereinzelt Tape-Handling-Probleme dokumentiert, doch darüber hinausgehende Aussagen zu systematischen Fertigungsfehlern lassen sich nicht belegen.

Bereits 1984 wurde der Oric-1 durch den Oric Atmos abgelöst, der ein überarbeitetes ROM und eine verbesserte Tastatur erhielt. Rückblickend bleibt der Oric-1 ein Beispiel für die Vielfalt der britischen Heimcomputerentwicklung zu Beginn der achtziger Jahre: technisch solide, klar strukturiert und mit einem Leistungsspektrum, das ihn theoretisch gut zwischen seinen Wettbewerbern hätte positionieren können. Dass er letztlich nicht die gleiche Marktdurchdringung erreichte, lag weniger an seiner technischen Basis als an der Dynamik eines Marktes, in dem Sinclair, Commodore und zunehmend auch internationale Hersteller bereits dominierende Rollen einnahmen. Dennoch markiert der Oric-1 einen wichtigen Moment dieser Ära, in der mehrere britische Firmen versuchten, eigene Architekturen zu etablieren und damit ihre Unabhängigkeit gegenüber der wachsenden Konkurrenz zu bewahren.

Amiga 3000 – Die Maschine, die für Profis gedacht war, aber Fans gewann

Amiga 3000 – Die Maschine, die für Profis gedacht war, aber Fans gewann

Als Commodore im Frühjahr 1990 den Amiga 3000 präsentierte, schien der große Sprung in die professionelle Computerwelt vollzogen. Der Rechner, entwickelt von den Teams in West Chester (Pennsylvania) und Braunschweig, war keine Revolution, sondern die verfeinerte Vollendung des Amiga 2000 – präziser, stabiler, aufgeräumter. In ihm zeigte sich, wie weit Commodores Ingenieure den ursprünglichen Amiga-Gedanken treiben konnten, wenn sie freie Hand bekamen. Für unsere Generation war er geradezu ein Traum und preislich unendlich fern. Jedoch nicht für alle. Kurz nach Einführung besaß ein alter Klassenkamerad dieses Stück Hardware. Dass er sich das leisten konnte, lag möglicherweise an seinen Mailboxen und der Beteiligung an namhaften Cracker-Truppen und ihrem erträglichen Handwerk – aber das ist eine andere Geschichte und soll ein anderes Mal erzählt werden …

Im Inneren des Amiga 3000 arbeitete ein Motorola 68030 mit 16 oder 25 MHz, optional ergänzt durch eine 68882-FPU. Damit zog der Amiga erstmals vollständig in die 32-Bit-Welt ein, ohne externe Beschleunigerkarten wie beim Amiga 2500 zu benötigen. Ab Werk war der Rechner mit 1 MB Chip-RAM und 1 MB Fast-RAM ausgestattet, erweiterbar auf 2 MB Chip- und bis zu 16 MB Fast-RAM. Händler boten häufig aufgerüstete Versionen mit 4 MB Fast-RAM an, um ihn für DTP- und Grafikaufgaben attraktiver zu machen.

In der Anfangsphase zeigte sich Commodores Hang zur Improvisation: Kickstart 2.0, das neue ROM-Betriebssystem, war zum Serienstart noch nicht fertig. Daher wurden die ersten Amiga 3000 mit sogenannten Boot-ROMs ausgeliefert, ähnlich wie einst der Amiga 1000. Zur Einordnung: Kickstart war das Grundsystem des Amiga, gewissermaßen das Betriebssystem im ROM. Es enthielt den Kernel, die grafischen Routinen, den Speicher- und Geräte-Manager – das Rückgrat, auf dem Workbench und alle Programme aufbauten. Ohne Kickstart startete kein Amiga. Während es bei Modellen wie dem A500 oder A2000 fest im ROM lag, musste es bei frühen A3000-Serien noch von Diskette oder Festplatte nachgeladen werden.

Im ROM befand sich ein rudimentäres System, Kickstart 1.4 Beta, das beim Einschalten ein vollständiges Kickstart-Image von Diskette oder Festplatte lud. Dafür war mindestens 1 MB Fast-RAM (DIP oder ZIP) erforderlich, da das Image dort abgelegt wurde. Diese frühen ROMs funktionierten nur mit der MMU des 68030 – wer später eine 68040- oder 68060-Karte einsetzte, erlebte böse Überraschungen: Das System bootete schlicht nicht. Durch Drücken beider Maustasten ließ sich beim Einschalten ein Bootmenü aufrufen, in dem man zwischen Kick 1.3 und Kick 2.x wählen konnte. Das jeweils benötigte Kickstart-File erwartete der Rechner unter „Wb_2.x:devs/kickstart“ oder „Wb_1.3:devs/kickstart“. Klickte man im Menü mit der Maus in die linke obere Ecke, startete das rudimentäre Kickstart 1.4 direkt aus dem ROM – eine versteckte Notfunktion, die Commodore-Techniker liebevoll eingebaut hatten.

Ein Nachteil dieser Lösung: Da das Kickstart-Image im oberen Bereich des Fast-RAM lag, standen rund 512 KB weniger Speicher zur Verfügung. Erst spätere Revisionen mit echten ROM-Bausteinen – zunächst in einem ROM-Tower, später fest gesockelt – enthielten ein vollwertiges Kickstart 2.0, wodurch dieser Speicher wieder frei wurde und der Bootvorgang erheblich schneller verlief.

Das Amiga-Grafiksystem war weiterhin ein Musterbeispiel für elegantes Hardware-Design. Der Blitter erlaubte schnelle Blockverschiebungen, während der programmierbare Bildgenerator und der Sprite-Controller flüssige Animationen ermöglichten. Die Bildwiederholfrequenz betrug 50 oder 60 Hertz. Die Auflösungen reichten von 320 × 256 bis 1280 × 512 Pixel. Im Overscan-Modus ließ sich der sichtbare Bereich erweitern, wodurch bei Video- und Titelanwendungen die Bildränder verschwanden. In der höchsten Auflösung konnten vier Farben gleichzeitig dargestellt werden, in niedrigeren Modi bis zu 32 oder 4096 Farben – Letzteres mit Einschränkungen, aber für 1990 beeindruckend.

Zur Wahrung der Kompatibilität bot der A3000 sämtliche Standard-Amiga-Grafikmodi über die bekannte 23-polige RGB-Buchse bei 15 kHz Zeilenfrequenz. Besitzer von Multisync-Monitoren, die 31 kHz verarbeiten konnten, kamen dank des neuen „Amber“-Chips erstmals in den Genuss flimmerfreier VGA-Darstellung – ein Quantensprung für professionelle Nutzer.

Eine weitere Besonderheit des A3000 war das aufgesetzte Daughterboard, das beim A3000 die Erweiterungssteckplätze bereitstellte – also den Grafikkarten-Slot, die Zorro-III- und die ISA-Steckplätze. Bei einigen frühen Revisionen waren die ISA-Ports allerdings falsch bestromt, und generell sind deren Datenleitungen nicht direkt mit dem Amiga-Bus verbunden. Um sie nutzen zu können, benötigte man eine Bridgeboard-Karte mit eigener x86-CPU, die die ISA-Steckplätze aktivierte. Unter Kickstart 1.3 ließ sich das Daughterboard zu Testzwecken sogar weglassen; ab Kickstart 2.0 führte dessen Fehlen jedoch zu einem gelben Bildschirm – ein klares Signal für fehlende Bus-Initialisierung.

Auf dem Daughterboard saß auch der Super Buster, Commodores zentraler Buscontroller. Er vermittelte zwischen CPU, Speicher und den Amiga-Erweiterungsbussen und diente als Bindeglied zwischen Zorro II und dem neuen Zorro III. In der Praxis blieb seine Entwicklung jedoch unvollendet: Es existierten mehrere Revisionen mit teils deutlichen Unterschieden. Die frühen A3000-Varianten (Revisionen bis 7) boten nur eine grundlegende Unterstützung von Zorro III und verzichteten auf echtes DMA; Zorro-III-Karten liefen hier lediglich im kompatiblen Zorro-II-Modus, was die Leistung deutlich einschränkte. Spätere Überarbeitungen, beginnend mit Revision 9 (bekannt aus dem A4000), führten DMA ein und verbesserten die Performance geringfügig, enthielten jedoch einen Fehler im Busmanagement, der unter bestimmten Umständen zu Systemhängern führen konnte. Erst Revision 11, wie sie im A4000T serienmäßig und für den A3000 als Nachrüst-Upgrade erhältlich war, bot eine stabile DMA-Unterstützung für einen Busmaster – genug für professionelle Anwendungen, aber noch nicht das ursprünglich geplante Zorro-III-Ideal.

Um diese Revision überhaupt einsetzen zu können, musste der A3000 mit der 25-MHz-Variante des Boards ausgestattet sein; die 16-MHz-Version war damit nicht kompatibel. Der Super Buster blieb damit ein Beispiel für Commodores typischen Spagat zwischen Vision und Umsetzbarkeit – ein konzeptionell ambitioniertes Bauteil, das sein volles Potenzial nie ganz entfalten konnte.

Mit dem Zorro III-Bus führte Commodore die erste vollständig 32-Bit-fähige Amiga-Architektur ein. Theoretisch lag die Bandbreite bei 150 MB/s, realistisch erreichten Systeme 6 bis 15 MB/s, abhängig von DMA-Controller und Peripherie. Entscheidend war weniger der Wert als das Konzept: abwärtskompatibel, DMA-fähig und zukunftssicher.

Ebenfalls neu war der integrierte SCSI-Controller, der Zusatzkarten überflüssig machte und echten DMA-Zugriff erlaubte. Zusammen mit Workbench 2.0, dem Fast File System und der neuen GUI wurde der A3000 zum stabilsten und zuverlässigsten Amiga, den Commodore je gebaut hatte.

Das Gehäuse war flach, hellgrau und sachlich – „Kein Spielzeug mehr“, schrieb die c’t 1990, „sondern ein echter Arbeitscomputer mit Unix-Ambitionen.“ Eine Variante mit Amiga Unix SVR4 (A3000UX) fand ihren Platz in Universitäten und technischen Instituten. Dave Haynie resümierte später: „The 3000 was the machine we always wanted to build if management had just let us.“ (Der 3000 war die Maschine, die wir immer bauen wollten, wenn uns das Management nur gelassen hätte.)

Der Einführungspreis lag bei 3499 US-Dollar (heute etwa 8400 Euro). In Deutschland kostete die 100-MB-SCSI-Variante rund 6 000 DM, also 10 200 Euro inflationsbereinigt. Damit stand der A3000 in direkter Konkurrenz zu Workstations wie der NeXTstation oder dem Atari TT030 – aber mit unverkennbar eigenem Charakter.

Zeitgenössische Magazine zogen ein klares Fazit. Amiga Format schrieb: „The A3000 is the Amiga grown up – fast, serious and stylish.“ (Der A3000 ist der erwachsen gewordene Amiga – schnell, ernsthaft und elegant.) Das Amiga Magazin befand: „Ein Traum für alle, die ernsthaft arbeiten wollen und trotzdem den Spaß am Amiga behalten möchten.

Der Amiga 3000 blieb ein Computer für Kenner – zu teuer für Heimanwender, zu speziell für den Büromarkt, aber technisch makellos. Ein Rechner, der aus Leidenschaft und Ingenieursgeist entstand, nicht aus Marketing.

(mein besonderer Dank geht an "Frank H Aus L", der mit seinem Fachwissen und seiner Expertise diesen Artikel erst ermöglicht hat).

WordStar – 1979 by MicroPro

WordStar – Als Tastaturkürzel König waren und DOS die Bühne hielt

Als Mikrocomputer Ende der siebziger Jahre zunehmend in Werkstätten, Büros und Hobbykellern auftauchten, wuchs der Wunsch nach einer Textverarbeitung, die ernsthafte Schreibarbeit ermöglichen konnte. Seymour I. Rubinstein, vormals bei IMSAI tätig, erkannte diese Lücke und gründete 1978 MicroPro International. Er engagierte den außergewöhnlich begabten Programmierer Rob Barnaby, der bereits zuvor systemnahe Editoren für CP/M entwickelt hatte und in Fachkreisen als jemand galt, der Programme eher aus der Perspektive der Maschine als jener des Anwenders dachte. Zeitgenossen beschrieben ihn als einen Entwickler, der keine Rücksicht auf konventionelle Benutzerführung nahm, sondern darauf vertraute, dass Menschen seine effiziente, aber anspruchsvolle Logik erlernen konnten. Ein Ausspruch, den frühere Kollegen Barnabys überlieferten, bringt dies gut auf den Punkt: „Rob wrote software for the computer, and expected people to keep up“ („Rob schrieb Software für den Computer und erwartete, dass die Menschen mithalten“).

Barnaby entwickelte WordStar zwischen 1978 und 1979 fast vollständig in handoptimiertem 8080-Assembler, und weil CP/M-Systeme nur 64 Kilobyte Arbeitsspeicher boten, entwarf er ein ausgeklügeltes Overlay-System, das Programmteile je nach Bedarf nachlud. Dass viele Terminals dieser Zeit keine Pfeiltasten besaßen, führte zu seinem berühmten Steuerungsdiamanten: Ctrl-S, Ctrl-E, Ctrl-D und Ctrl-X für die Bewegung des Cursors. Dieser Tastensatz wurde auf Dutzenden Plattformen übernommen und machte WordStar zu einem Werkzeug, das überall gleich funktionierte – ein Vorteil, den kein Konkurrent jener Zeit in diesem Umfang bieten konnte. Ein Nutzer erinnerte sich viele Jahre später: „Once you got the hang of the WordStar keystroke diamond it was magic to use“ („Wenn man den WordStar-Diamond einmal beherrschte, war er magisch zu benutzen“).

WordStar erschien im Juni 1979 zu einem Preis von 495 US-Dollar, inflationsbereinigt rund 1.300 Euro. Der Betrag war hoch, aber WordStar bot Funktionen, die seiner Zeit voraus waren: automatischer Zeilenumbruch, Seitenvorschau im Textmodus, Blockbearbeitung, Seriendruck, einfaches Makrosystem und eine sauber strukturierte Dokument- und Nicht-Dokument-Logik. Durch OEM-Bundles, insbesondere mit dem Osborne 1, verbreitete sich das Programm schnell. BYTE schrieb 1983 anerkennend: „without a doubt the best-known and probably the most widely used personal computer word-processing program“ („ohne Zweifel das bekannteste und wahrscheinlich am weitesten verbreitete Textverarbeitungsprogramm für Personal Computer“). ThoughtCo bezeichnet WordStar später als „the first commercially successful word-processing software program for microcomputers“ („die erste kommerziell erfolgreiche Textverarbeitungssoftware für Mikrocomputer“). Rubinstein sagte rückblickend: „WordStar was a tremendous learning experience. I didn’t know all that much about the world of big business“ („WordStar war eine gewaltige Lernerfahrung. Ich wusste nicht allzu viel über die Welt des großen Geschäfts“).

Intern verlief die Entwicklung allerdings unruhig. Der rapide wachsende Erfolg erforderte Teamarbeit, doch Barnabys ursprünglicher Quelltext war maschinennah, komplex und nur spärlich dokumentiert. Mehrere Entwickler mussten später Teile des Codes praktisch neu erschließen, als das Programm für MS-DOS und weitere Plattformen angepasst wurde. Trotz dieser Herausforderungen blieb WordStar über Jahre das dominierende Schreibwerkzeug auf CP/M und frühen DOS-Rechnern.

Die Fachpresse sah WordStar zugleich als mächtig und schwierig. PC Magazine sprach von einer „arrogant indifference to user feedback“ („arroganten Gleichgültigkeit gegenüber Nutzerfeedback“) und bezeichnete es dennoch als „the most powerful word processor available“ („die mächtigste verfügbare Textverarbeitung“). Diese doppelte Wahrnehmung fasst die Retroanalyse gut zusammen, die WordStar als „arrogant, difficult, powerful“ („arrogant, schwierig, mächtig“) einstuft. Die Lernkurve war steil, aber wer sie meisterte, schrieb schneller als mit jedem anderen Programm seiner Zeit.

Während WordStar Anfang der achtziger Jahre Marktführer war, gewann WordPerfect rasch an Boden. Ein zeitgenössischer Tester beschrieb WordPerfect als „more than full-featured“ („mehr als voll ausgestattet“) und betonte Funktionen, die in WordStar fehlten, insbesondere im Bereich Druckeransteuerung und Formatlogik. MicroPros Antwort, WordStar 2000, entfernte sich so weit vom bekannten Bedienkonzept, dass viele treue Nutzer es ablehnten; ein Tester spottete, es habe „all the charm of an elephant on motorized skates“ („den Charme eines Elefanten auf motorisierten Rollschuhen“).

Der Niedergang setzte sich in den frühen neunziger Jahren fort, bis MicroPro schließlich in anderen Firmenstrukturen aufging. Dennoch bleibt WordStar ein kulturelles Phänomen, das weit über seine technische Ära hinausstrahlt. Der Science-Fiction-Autor Robert J. Sawyer schrieb seine Werke bis in die 2010er-Jahre in WordStar 7 unter MS-DOS, und George R. R. Martin erklärte öffentlich, er nutze bis heute WordStar 4.0 auf einem vom Netz getrennten Rechner, weil moderne Programme ihn beim Schreiben störten. Sein Satz „I don’t want any help“ („Ich will keine Hilfe“) beschreibt treffend jene Schlichtheit, die viele Autoren auch Jahrzehnte später noch an WordStar schätzen.

Heute lebt WordStar in Emulationen wie DOSBox-X weiter, und seine Tastenkombinationen haben den Sprung in Unix-Editoren wie „jstar“ geschafft. WordStar ist damit eines der wenigen Textverarbeitungsprogramme, dessen Erbe nicht in Menüs oder Icons, sondern im Muskelgedächtnis seiner Nutzer fortbesteht. Es war nie das freundlichste Programm, aber eines der kraftvollsten – ein Werkzeug aus einer Ära, in der Software nicht dekoriert, sondern geschmiedet wurde, und in der Geschwindigkeit und Präzision den Ausschlag gaben.

Snake – 1997 by Nokia

Snake – Nicht von Nokia erfunden, aber von Nokia unsterblich gemacht

In einer Zeit, als das mobile Internet noch sündhaft teuer mit Dublonen oder der eigenen Seele bezahlt werden musste, war der Mobilfunknutzer auf wenige Möglichkeiten der Unterhaltung während der Busfahrt beschränkt, sofern er nicht immer wieder alte SMS sichten oder aber telefonieren wollte. Nokia hatte mit den Nutzern Mitleid und präsentierte ab 1997 Kurzweil – und diese Kurzweil hieß Snake. Preislich war Snake untrennbar mit dem Kauf eines Nokia-Handys verbunden – es war also faktisch kostenlos. Dass ein monochromes Display mit vier Richtungen und einer stetigen Bewegung der Schlange eine ganze Generation prägen würde, erwartete damals niemand. Doch das Spiel wurde auf über 350 Millionen Geräten ausgeliefert und damit zu einem der populärsten Titel der Welt, gespielt in Pausenhöfen, in U-Bahnen, in überlangen Schulstunden und in stillen Momenten, in denen das Telefon sonst nur Uhrzeit, Akku und die obligatorische SMS-Zahl anzeigte. Doch Nokia hatte das Spiel nicht erfunden.

Als digitale Spiele noch als mathematische Fingerübungen galten und Terminals nur ein paar blockige Zeichen darstellen konnten, entstanden die ersten Linien- und Labyrinthspiele, die später unter dem Namen Snake weltberühmt werden sollten. Unter frühen Bezeichnungen wie Worm, Blockade (Gremlin, 1976) oder Rattler lebte die Idee stets fort: Eine Linie bewegt sich kontinuierlich, wächst beim Einsammeln von Objekten, und der Spieler scheitert, wenn er die eigenen Segmente berührt. Die Mechanik war so elementar, dass sie auf Großrechnern, Homecomputern und später Taschenrechnern gleichermaßen funktionierte – ein Sinnbild für universelles Spieldesign.

Eine besondere Rolle spielte Nibbles.bas, jener kleine QBasic-Klassiker, den Microsoft tatsächlich als Bestandteil von MS-DOS 5.0 und 6.x mitlieferte. Er befindet sich korrekt im QBasic-Verzeichnis und war als Lernbeispiel für angehende Programmierer gedacht, entwickelte sich jedoch rasch zu einem der heimlichen Favoriten im Informatikunterricht. Zusammen mit Gorillas.bas war Nibbles die erste Berührung vieler junger Nutzer mit Code, den man öffnen, verändern und neu starten konnte – eine direkte, greifbare Form des Lernens, bei der man die Mechanik eines Spiels nicht nur sah, sondern begriff. Nibbles selbst setzte auf klar definierte Levelbegrenzungen und strukturierte Spiellogik und wurde dadurch zum Musterbeispiel für elegantes Minimaldesign.

Seine Faszination liegt in einer einfachen, aber brillanten Dynamik: Jeder Erfolg begrenzt den eigenen Raum. Je länger die Schlange, desto enger das Spielfeld, desto knapper die Entscheidungen. Der Spieler schafft sich seine eigene Falle Stück für Stück – und genau dieses stetige Schrumpfen der freien Fläche erzeugt einen Sog, der bis heute wirkt. Snake gehört zu den wenigen Spielen, die vollkommen ohne Ornament funktionieren; alles, was sichtbar ist, hat Bedeutung.

Varianten gibt es unzählige. Einige erhöhen automatisch das Tempo, andere setzen Hindernisse, wieder andere erlauben diagonale Bewegungen oder Mehrspielerduelle. Doch die ikonische Darstellung auf Nokia-Geräten – blockig, piepsend, unmissverständlich – gilt bis heute als die stilprägendste. Sie ist zu einem visuellen Archetyp aller mobilen Spiele geworden, ein Symbol einer Ära, in der man unterwegs spielte, ohne Apps, ohne App Stores, ohne Touchscreens, ja sogar ohne Farbbildschirm.

Online ist Snake nach wie vor fast überall spielbar. Zahlreiche Browser-Umsetzungen greifen die Optik der Nokia-Version auf, Emulatorseiten bieten Nibbles.bas als modifizierbare Originalfassung, und diverse Retroportale halten den minimalistischen Stil lebendig. Manche ältere YouTube-Player-Versionen kannten kleine Easter Eggs, doch diese Funktion ist inzwischen weitgehend verschwunden. Dennoch findet man spielbare Ableger praktisch überall, wo Pixel erlaubt sind.

In der Rückschau erscheint Snake als eines der reinsten Beispiele für zeitloses Spieldesign. Es ist universell verständlich, mechanisch transparent, sofort lernbar und mit jedem zusätzlichen Punkt spannender als zuvor. Gerade diese einfache Logik, die sich auf jedem System – ob Rechner, Handy oder Browser – nahezu unverändert umsetzen lässt, macht Snake zu einem jener Spiele, die nicht altern, sondern schlicht existieren.

Lode Runner – 1983 by Brøderbund Software

Lode Runner (1983) – Minimalismus, Spannung und 150 Wege in die Sucht

Lode Runner (1983) – Minimalismus, Spannung und 150 Wege in die Sucht

Als Anfang der Achtziger an amerikanischen Universitäten noch Lochkarten staubten und Großrechner im Neonflackern brummten, entstand ein Spiel, das mit radikaler Schlichtheit neue Maßstäbe setzte: Lode Runner. Seine Wurzeln liegen in ASCII-Prototypen wie Suicide auf dem Commodore PET, deren Engine bereits sauber getrennte Leveldaten nutzte. Auf einem Prime-550-Minicomputer entstand daraus das Spiel Kong, versteckt hinter dem Tarnbefehl graph. Zeitzeugen berichten, dass auf vielen Universitätsrechnern dieser Befehl zum inoffiziellen Geheimtipp wurde – eine kleine studentische Untergrundszene, die das Fundament legte. Douglas E. Smith übertrug das Konzept später auf den Apple II und entwickelte Miner, eine noch rohe Fassung mit ruckelnden Sprites und schwarz-weißer Optik. Doch das Fundament war gelegt: graben, fliehen, taktieren.

Smith schickte den Prototyp an mehrere Publisher. Broderbund bot den geringsten Vorschuss, aber die besten Royalties – eine Entscheidung, die sich später als Glücksgriff herausstellte. Der Verlag verlangte flüssige Animationen und 150 spielbare Levels. Mit dem eingebauten Editor gelang das nur, weil Freunde, Nachbarskinder und Studenten dutzende Bildschirme entwarfen; ein großer Teil der finalen Levels stammt aus dieser frühen „Volkswerkstatt“, lange bevor der Begriff „User Generated Content“ existierte.

Die Mechanik ist bis heute einzigartig reduziert und deshalb so klar: Der Spieler sammelt Gold, gräbt temporäre Löcher, trickst Wachen aus und nutzt sie manchmal als unfreiwillige Trittsteine. Feste Bildschirme, präzise Wege, missverständnisfrei lesbare Elemente – ein Baukasten, der wie Schach in Echtzeit funktioniert. Die Wachen agieren überraschend clever, sammeln sogar Gold ein, das sie beim Sturz in ein Loch wieder verlieren. Fehler im Timing können ein Level unlösbar machen, doch gerade diese Konsequenz macht den Reiz aus.

Die Apple-II-Version bleibt minimalistisch, einfarbig und beinahe asketisch. Der C64 fügt weichere Sprites und typischen SID-Sound hinzu, während der Atari-8-Bit technisch zwischen beiden liegt. CGA auf dem PC wirkt härter, aber spielmechanisch identisch. In Japan entstand eine zweite Identität: Hudson Softs Famicom-Version bot Scrollbewegungen, Musik, buntere Optik und einen funktionalen Editor, dessen Levels sich per Data Recorder speichern ließen. Irem brachte 1984 sogar eine Arcade-Fassung heraus – bemerkenswert, da hier eines der ersten amerikanischen Heimcomputerspiele zur Grundlage eines japanischen Arcade-Titels wurde.

Der Erfolg war unmittelbar und enorm. Lode Runner wurde schnell zu Broderbunds größtem Hit und verkaufte sich weltweit millionenfach, besonders in Japan. Für Smith bedeutete das hohe Royalties und den plötzlichen Sprung vom Studenten zum unerwartet wohlhabenden Designer eines minimalistischen Puzzle-Plattformers.

Zeitgenössische Magazine lobten die Mischung aus Denksport und Action. Softline nannte das Spiel 1983 „smooth, thoughtful, and quite addictive“ („flüssig, durchdacht und ziemlich süchtig machend“). Computer Gaming World bezeichnete es als „one of the few thinking men's arcade games“ („eines der wenigen Arcade-Spiele für denkende Spieler“). Zzap!64 attestierte der C64-Version: „graphically minuscule and aurally crude, the game's sheer addiction kept my eyes propped open until the owls went to bed“ („grafisch winzig und klanglich grob, aber so süchtig machend, dass ich wach blieb, bis die Eulen schlafen gingen“). Bei den 5th Arkie Awards wurde der Titel 1984 als „outstanding design“ und „irresistible“ ausgezeichnet. In späteren Rückblicken rangiert Lode Runner regelmäßig unter den wichtigsten Apple-II- und Puzzle-Spielen aller Zeiten.

In Deutschland lagen die Preise für die gängigen Heimcomputerfassungen typischerweise zwischen 39 und 59 DM, je nach Händler und System – inflationsbereinigt etwa 55–60 Euro. Spätere Ariolasoft-Budgetversionen („Hits!“) machten den Titel auch für Sparfüchse attraktiv, während die zahlreichen Ports und Varianten für eine beständige Präsenz in Regalen und Magazinen sorgten.

CP/M

CP/M: Die Vision eines Mannes, die zur Blaupause des PCs wurde

 

 

Gary Kildall war einer jener frühen Computerpioniere, die sich selbst kaum als solche betrachteten und dennoch eine ganze Ära prägten. Geboren 1942 in Seattle und später Professor an der Naval Postgraduate School in Monterey, galt er als technisch brillanter Kopf, der lieber experimentierte als sich mit geschäftlichen Formalitäten aufzuhalten. Zeitzeugen beschrieben ihn häufig als außergewöhnlich kreativ, aber nicht als jemanden, der sich besonders für harte Verhandlungen begeisterte – ein Charakterzug, der seine spätere Rolle in der Geschichte der Mikrocomputerindustrie mitprägte.

Seine Karriere begann bei Intel, wo er sich früh mit dem brandneuen 8080-Prozessor beschäftigte, dort die höhere Programmiersprache PL/M entwickelte und Werkzeuge schuf, die er später als „die ersten richtigen Werkzeuge des Mikrocomputerzeitalters“ bezeichnete. Diese Arbeit bildete die Grundlage für seine späteren Betriebssystemexperimente. Doch Intel interessierte sich wenig für eine eigene Betriebssystemlinie. Die Lücke nutzte Kildall – oder genauer gesagt: sie ließ sich durch seine Neugier schließen. Nach Feierabend experimentierte er zuhause mit Diskettencontrollern und schrieb ab 1973 an den ersten Fassungen dessen, was später CP/M werden sollte.

Für Laien lässt sich die Entstehung von CP/M leicht erklären: In den frühen 1970er-Jahren existierten Mikrocomputer meist nur als Prozessoren mit rudimentärer Software. Jeder Hersteller entwickelte eigene Lösungen, Programme ließen sich kaum übertragen, und ein gemeinsamer Standard war nicht in Sicht. CP/M war das erste wirklich weit verbreitete Mikrocomputer-Betriebssystem, das Ordnung in einen Markt brachte, der zuvor aus hunderten nicht miteinander kommunizierenden Inseln bestanden hatte. Es machte die frühen Rechner vergleichbar und erlaubte es, identische Programme auf völlig unterschiedlichen Maschinen zu nutzen. Was heute selbstverständlich ist – ein Betriebssystem, das Dateien verwaltet, den Startvorgang steuert und Programme lädt – war damals ein fundamentaler Fortschritt. Viele Historiker bezeichnen CP/M daher als das erste professionelle Betriebssystem der Personalcomputer-Ära.

CP/M entstand aus Kildalls Arbeit bei Intel, wo er PL/M entwickelte und Werkzeuge für den 8080 schrieb. Nach Feierabend experimentierte er zu Hause mit frühen Diskettensteuerungen und begann ab 1973 an der ersten Version zu arbeiten. Der entscheidende Schritt gelang ihm, als er eine effiziente Methode fand, Diskettenlaufwerke mit Mikroprozessoren anzusteuern – ein technisches Problem, das bis dahin als schwierig galt. Intel zeigte an einem eigenen Betriebssystem wenig Interesse, doch für Kildall war dies der Ausgangspunkt einer neuen Ära.

Gemeinsam mit seiner Frau Dorothy McEwen gründete er Digital Research, jene Firma, die CP/M kommerzialisierte und zur dominierenden Plattform der späten 1970er- und frühen 1980er-Jahre machte. Die Struktur von CP/M war ebenso einfach wie genial. Es bestand aus drei Komponenten: dem BIOS, das alle hardwarespezifischen Routinen enthielt; dem BDOS, der den Zugriff auf Dateien, Laufwerke und Systemdienste regelte; und dem CCP, dem Console Command Processor, der die Kommandozeile bereitstellte. Für Nichtfachleute lässt sich diese Architektur so beschreiben: Das BIOS sprach die Hardware, der BDOS bildete den Kern des Betriebssystems, und der CCP war die sichtbare Benutzerschnittstelle. Gerade diese klare Aufteilung machte CP/M extrem portierbar: Hersteller mussten lediglich ein eigenes BIOS schreiben, während der Rest unverändert blieb.

Die Arbeitsweise war einfach, aber effizient. Nach dem Einschalten erschien das bekannte „A>“-Prompt. Befehle wie DIR oder ERA wurden direkt ausgeführt, externe Programme lagen als .COM-Dateien vor und kehrten nach ihrem Ablauf wieder an das Betriebssystem zurück. Das Dateiformat mit acht Zeichen Dateiname und drei Zeichen Erweiterung, später als „8.3-Format“ bekannt, wanderte später direkt in MS-DOS. Ebenso die Laufwerksbuchstaben A:, B: und C:, die viele heute fälschlich ausschließlich mit Microsoft verbinden.

Wirtschaftlich war CP/M ein Meilenstein. Es gilt heute als das erste kommerziell erfolgreiche 8-Bit-Betriebssystem und lief auf mehreren hundert unterschiedlichen Computern – von North Star und Osborne über Kaypro bis zu Amstrad und zahlreichen industriellen Modellen. Konservative Schätzungen sprechen von über 300 Modellen, einige Archive nennen sogar zwischen 400 und 500, je nach Zählweise. Die enorme Verbreitung war möglich, weil CP/M erstmals portable Software ermöglichte: WordStar, dBASE II oder SuperCalc wurden zu industriellen Standards und prägten ganze Berufsgruppen. Wer CP/M unterstützte, konnte sofort auf einen großen Softwarepool zugreifen, was den Erfolg vieler Hersteller überhaupt erst ermöglichte.

Technisch lief CP/M üblicherweise auf Intel-8080- oder Zilog-Z80-Prozessoren mit 16 bis 64 KB RAM und einem oder zwei 5,25-Zoll-Diskettenlaufwerken. Spätere Versionen wie CP/M Plus (CP/M 3.0) unterstützten durch Bankswitching mehr Speicher und erweiterten den Funktionsumfang deutlich. Ein entscheidender Vorteil gegenüber proprietären Systemen wie Apple DOS oder dem TRS-80-Betriebssystem war die Offenheit: Hersteller konnten ihre Maschinen schnell CP/M-fähig machen, ohne selbst ein komplettes Betriebssystem entwickeln zu müssen.

Einer der am häufigsten diskutierten Momente der Computergeschichte ist die gescheiterte Verhandlung zwischen IBM und Digital Research über eine Lizenz für den IBM PC. Zeitgenössische Dokumente und mehrere Interviews – darunter Tom Rolander im Gespräch für die 1995 ausgestrahlte Folge „The Computer Chronicles: A Tribute to Gary Kildall“ – belegen, dass es zu Missverständnissen kam, teils durch juristische Unklarheiten, teils durch die ungewöhnlich hastig angesetzten Termine. IBM verließ das Treffen ohne Vertrag, Microsoft sprang ein, und MS-DOS wurde zum Standard der PC-Ära. Viele Historiker sehen darin den Punkt, an dem CP/M vom dominierenden System zum „verlorenen Standard“ wurde.

Preislich bewegte sich CP/M in einem Bereich, der je nach Lizenzmodell und Jahr variierte. Typische OEM-Lizenzen lagen zwischen 70 und 100 US-Dollar, was inflationsbereinigt etwa 230–330 US-Dollar im Jahr 2025 entspricht. Umfangreichere Produkte wie CP/M-86 kosteten als Einzelversion zwischen 250 und 400 US-Dollar, inflationsbereinigt ungefähr 780–1250 US-Dollar. Für kleine Firmen und Privatanwender waren dies spürbare Summen, doch angesichts der Stabilität und Portabilität erhielten sie erstmals eine professionelle Softwareumgebung.

Die Nachfolger von CP/M waren ehrgeizig: MP/M brachte Multitasking auf Mikrocomputer, CP/M-86 leitete den Übergang in die 16-Bit-Welt ein, und DR-DOS wurde später zum direkten Konkurrenten von MS-DOS. Doch der Markt hatte sich längst zugunsten der IBM-PC-Kompatibilität entschieden. Was blieb, war ein technisches Fundament, dessen Konzepte – das BIOS-Modell, das 8.3-Dateiformat und die Kommandozeilenarchitektur – in vielen Systemen bis heute weiterleben.

Damit steht CP/M als Monument einer Zeit, in der Mikrocomputer noch wagemutige Experimente waren und jeder Fortschritt eine ganze Branche verändern konnte. Ohne CP/M hätte die junge Personalcomputerwelt keinen einheitlichen Standard besessen – und ohne Gary Kildall wäre diese entscheidende Weiche nie gestellt worden. Er schrieb die Regeln einer Industrie, ohne je das Bedürfnis zu verspüren, sie anderen aufzuzwingen. Genau darin liegt sein Vermächtnis.

 

NCR Decision Mate V

Zwei Prozessoren, eine Mission: Der erstaunliche NCR Decision Mate V

Der Rechner basierte in der Grundversion auf einem Zilog Z80A, konnte jedoch durch ein optionales Intel-8088-Modul zu einem echten Dualprozessor-System erweitert werden. Einige Konfigurationen wurden bereits ab Werk mit dieser Erweiterung ausgeliefert, ein Umstand, den die Werbung ausdrücklich hervorhob und mit Formulierungen wie „You shouldn’t have to choose between 8-bit and 16-bit operating systems.“ sowie „With our dual processing system you can have the benefits of both.“ unterstrich. Diese modulare Architektur stützte sich auf eine proprietäre Backplane mit sieben Steckplätzen, wie es auch Prospekte und technische Unterlagen zeigen, und war typisch für die modulare NCR-Philosophie jener Zeit.

Zum Standardumfang gehörten zwei 5,25-Zoll-DS/DD-Diskettenlaufwerke, die optional durch eine 10-MB-Winchesterfestplatte ergänzt werden konnten. Die kompakte Bauweise mit integriertem 12-Zoll-Monitor verlieh dem Gerät eine professionelle Erscheinung, die sich bewusst von den damals üblichen, eher kastenförmigen IBM-PC-Konfigurationen unterschied. In Anzeigen wurde dieser Ansatz emotionalisiert: „The personal computer with a heart.“ und „We designed it with a heart.“ waren Slogans, die den Anspruch unterstreichen sollten, ein durchdachtes, langlebiges System zu liefern.

Eine der stärksten Eigenschaften des Systems lag im Grafikbereich. Der verbaute NEC µPD7220 gehörte zu den fortschrittlichsten Grafikprozessoren seiner Zeit und war auch in deutlich teureren Maschinen wie dem NEC APC III oder frühen CAD-Workstations zu finden. Zeitgenössische Tests wie Creative Computing oder InfoWorld betonten regelmäßig, dass die Grafikleistung dem IBM PC klar überlegen war. Die Architektur des Systems erklärt die auffällig flexible Speicheraufteilung: Im Monochrommodus genügten 32 KB, während im Farbmodus drei planare Ebenen – Rot, Grün und Blau – parallel arbeiteten und damit 96 KB belegten (32 KB pro Ebene). Die Werbung stellte dies als selbstverständlich dar und betonte: „Graphics are built into every machine.“

Eher zwiespältig fiel die Rückmeldung zur Tastatur aus. Zwar bewarb NCR sie als „detachable low-profile keyboard“ und mit „advanced ergonomic design“, doch einige Tester der Zeit empfanden den Anschlag als weicher und weniger präzise als bei den mechanischen Tastaturen von IBM oder Cherry. Die Tastenform unterschied sich sichtbar vom Industrie­standard, und die zwanzig programmierbaren Funktionstasten, mit denen „boring repetitive tasks“ vermieden werden sollten, konnten für anspruchsvolle Vielschreiber nicht alle Kritikpunkte ausgleichen. Gleichwohl blieb die Tastatur voll funktionsfähig und entsprach in ihrer Verarbeitung den übrigen Qualitätsmerkmalen des Systems – sie war schlicht kein besonderes Highlight.

Die Softwareunterstützung war für ein nicht-IBM-kompatibles System ungewöhnlich breit: CP/M-80, CP/M-86 und – bei installiertem 8088-Modul – auch MS-DOS 2.11 standen zur Verfügung. Vollständige PC-Kompatibilität bestand zwar nicht, doch viele textorientierte Programme liefen problemlos, sofern sie BIOS-konform arbeiteten. Creative Computing nannte die damaligen gängigen Preise: Das 16-Bit-Upgrade kostete rund 500 Dollar, MS-DOS etwa 50 Dollar, CP/M-86 rund 60 Dollar und WordStar 495 Dollar. Eine typische, gut ausgestattete Konfiguration lag damit bei etwa 5.040 Dollar – inflationsbereinigt ungefähr 15.500 Dollar –, womit klar war, dass der Decision Mate V primär für professionelle Anwender gedacht war.

Auch in Deutschland bestätigte sich dieses Bild. Die Basisversion wurde zu etwa 7.350 DM angeboten, ein Wert, der in mehreren Anzeigen dieser Zeit genannt wird. Voll ausgebaute Systeme mit Festplatte, Farboption und erweitertem Speicher lagen deutlich höher; zeitgenössische Berichte sprechen von Preisen im Bereich gut ausgestatteter Bürorechner zwischen 18.000 und über 20.000 DM, je nach Händler und Konfiguration. NCR selbst hob in europäischen Anzeigen seine lange Unternehmensgeschichte hervor und unterstrich seinen Anspruch mit Slogans wie: „NCR has been making computers for as long as there have been computers.“ und „We’ve been doing business in Europe since 1885.“ Die Betonung auf Erfahrung, Technologie und Service zielte klar auf Unternehmen und Behörden, die eher Wert auf Zuverlässigkeit als auf die sich erst langsam etablierende IBM-PC-Kompatibilität legten.

Dass sich der Decision Mate V dennoch nicht dauerhaft behaupten konnte, lag weniger an seinen technischen Eigenschaften als an der rasanten Marktentwicklung ab 1983/84. Die IBM-PC-Kompatibilität setzte sich unaufhaltsam durch, und Hersteller mit proprietären Lösungen verloren zunehmend an Boden. NCR selbst stellte bald auf voll kompatible Systeme um. Der Decision Mate V bleibt jedoch ein beeindruckendes Beispiel jener Übergangszeit – ein Rechner, der, wie die Werbung vollmundig versprach, „A relationship you won’t outgrow.“ sein sollte und heute gerade wegen seiner Eigenständigkeit und konstruktiven Sorgfalt fasziniert.