Dracula – 1986 by CRL

Monty-pythonesker Einfall oder genialer Marketing-Trick? Im Herbst 1986 sorgt ausgerechnet ein Text-Adventure für Schlagzeilen: Dracula von CRL landet beim British Board of Film Censors – und das freiwillig. Computerspiele hatten bis dahin keine Altersfreigaben nötig, doch CRL-Chef Clem Chambers wittert eine Chance. Die Londoner schicken ihr Adventure mit ein paar blutigen Illustrationen zur Behörde und hoffen auf einen Skandal. Die BBFC vergibt tatsächlich ein „15“-Zertifikat, und CRL druckt stolz den Hinweis „nicht geeignet für unter 15-Jährige“ auf die Verpackung. Genau das sorgt für Aufmerksamkeit bei Medien und Horror-Fans. Hinter den Kulissen hätte man zwar gerne das noch drastischere „18“-Siegel gesehen, doch schon so funktioniert der PR-Coup. Im Jahr darauf folgen Frankenstein und 1987 Jack the Ripper – letzteres Spiel erhält dann tatsächlich eine 18er-Freigabe und schreibt damit Zensurgeschichte. Mitten in dieser kleinen Horrorwelle steht CRL mit Autor Rod Pike, der klassische Schauergeschichten als interaktive Fiction auf C64, ZX Spectrum und Amstrad CPC bringt.

Schon 1986 gilt Bram Stokers Dracula-Roman von 1897 als vielzitierter Kultstoff, und Pikes Spiel hält sich eng an die literarische Vorlage. Der junge Anwalt Jonathan Harker reist in die Karpaten, um Graf Dracula beim Immobilienkauf in England zu beraten. Das Spiel gliedert die Handlung in drei eigenständige Teile, die jeweils separat geladen werden. In The First Night verbringt Harker eine unheimliche Nacht im Gasthof „Goldene Krone“. In The Arrival erreicht er Draculas Schloss und begreift, dass er eigentlich Gefangener ist. Gelingt die Flucht, wechselt im dritten Teil The Hunt die Perspektive zu Dr. Seward, Leiter einer Irrenanstalt in Whitby. Er untersucht Harkers Warnungen vor mysteriösen Erde-Kisten und einem „Untoten“, während Patient Renfield immer seltsamer wird. Diese episodische Struktur deckt große Teile der Romanhandlung ab und passt zugleich zu den begrenzten Speicherreserven der 8-Bit-Rechner.

Technisch gehört Dracula klar in die Kategorie der Illustrated Text Adventures. Im Kern ist es ein reines Text-Adventure mit Parser-Eingabe, das wichtige Momente durch statische Bilder ergänzt. Auf allen Systemen arbeitet ein sehr einfacher Zwei-Wort-Parser nach dem Schema „Verb + Objekt“. Präpositionen oder komplexe Sätze ignoriert das Spiel, Kommandos wie „UNTERSUCHE RAUM“ oder „NIMM SCHLÜSSEL“ reichen. Das passt zur Entstehung mit dem populären Quill-Baukasten: Die Engine war für viele Autoren eine Einladung, Geschichten ohne tiefere Programmierkenntnisse umzusetzen, brachte aber klare Grenzen mit. Magazine wie Amstrad Action kritisierten, dass der Parser unbekannte Wörter nicht benennt, sondern nur lapidar mit „I don’t understand“ oder „You can’t do that“ reagiert – ein Verhalten, das eher an späte 70er-Jahre-Adventures erinnert. Türen erfordern exakt getimte Befehlsfolgen, alternative Formulierungen scheitern schnell. Wer statt „ZÜNDE LAMPE AN“ auf „BENUTZE LAMPE“ kommt, wird abgewiesen. Das bremst den Spielfluss, auch wenn Dracula insgesamt eher einsteigerfreundlich bleibt. Die ersten beiden Episoden verlaufen sehr linear und spielen auf wenigen Schauplätzen, benötigte Objekte liegen meist in der Nähe. Der dritte Teil öffnet die Struktur etwas, bleibt aber ebenfalls moderat im Anspruch; erfahrene Adventure-Spieler sehen den Abspann nach wenigen Stunden.

Trotz überschaubarer Mechanik gewinnt Dracula seine Wirkung aus der Atmosphäre. Rod Pike nutzt den Textspeicher intensiv, beschreibt Schauplätze und Ereignisse detailreich und mit hörbarer Vorliebe für Gothic-Vokabular. Wo andere Adventures der Zeit in knappen Telegrammsätzen sprechen, nimmt sich Dracula Zeit für Stimmung. Beim Einstieg im Gasthof liest der Spieler von flackernden Öllampen, gelben Lichtinseln und dunklen Ecken, in denen das Böse lauern könnte – genau diese Art Prosa lobten Testredaktionen. Crash stellte der Atmosphäre einen sehr hohen Wert gegenüber und sprach von „Romanqualität“ in den Beschreibungen. Die Kehrseite: Pro Kapitel gibt es nur eine Handvoll Räume, teilweise weniger als zehn, was Amstrad Action ausdrücklich notierte. Die fortlaufende Handlung mit geskripteten Ereignissen – Albträume, nächtliche Besuche, Visionen – sorgt für viel Lesestoff, ohne dass der Spieler immer aktiv eingreifen muss. Dracula fühlt sich dadurch eher wie eine interaktive Novelle oder ein Spielbuch an als wie ein klassisches Rätselabenteuer. Wer primär knobeln will, findet hier wenig Futter; wer sich gerne eine Gruselgeschichte erzählen lässt und ab und zu eingreift, wird deutlich besser bedient.

Die grafische Präsentation variiert von System zu System. Auf dem ZX Spectrum (48K) erscheinen die Illustrationen in einfachen, meist monochromen Bitmaps. Zeichner Jared Derrett holt aus der Hardware respektable Bilder heraus, die beim Laden zeilenweise aufgebaut werden und so für kurze Pausen sorgen. Um Speicher zu sparen, gönnt sich das Spiel nur wenige, gezielt eingesetzte Szenenbilder – etwa bei Albträumen oder besonders drastischen Momenten. Für 1986 wirken diese Pixelbilder sicher eindrucksvoll, heute eher harmlos. Amstrad Action kommentierte sinngemäß, die „fiesen Bilder“ seien in Wirklichkeit gar nicht so grausam – und auf einem Grünmonitor noch weniger. Auf dem Amstrad CPC (64K) nutzt Dracula den hochauflösenden Vier-Farben-Modus, was auf Farbbildschirmen durchaus stimmungsvoll wirkt, auf Grünmonitoren aber viele Details verschluckt. Die CPC-Version bleibt zudem weitgehend stumm. Mehr audiovisuelle Wirkung erzielt die C64-Fassung: Dank SID-Chip kann das Spiel eine kurze Titelmusik und simple Spannungs-Effekte abspielen; auch hier stammen die Grafiken von Jared Derrett, angepasst an die Multicolor-Möglichkeiten des Commodore. Auf allen Systemen setzt CRL eine verzierte Schriftart ein, um viktorianisches Flair zu transportieren. Besonders auf dem Spectrum stößt diese Wahl an Grenzen – Crash bezeichnete den Zeichensatz als einen der am schwersten lesbaren, die man je zu entziffern versucht habe. Auf CPC und C64 fällt das Problem weniger stark auf, doch besonders lange Sitzungen werden durch die Typografie anstrengend.

Zur Entstehungsgeschichte lässt sich heute recht klar sagen, wer für was verantwortlich war. Dracula entstand bei CRL unter dem Label The Zen Room. Autor und Designer war Rod Pike, der sich bereits zuvor mit Horror-Adaptionen einen Namen gemacht hatte. Er setzte unter anderem H. P. Lovecrafts The Dunwich Horror als Adventure um und schrieb kurz vor Dracula das mehrteilige Pilgrim. Die grafische Ausgestaltung stammt von Jared Derrett, dessen Name in mehreren Datenbanken den C64- und Spectrum-Fassungen zugeordnet wird. Für Musik und Effekte der C64-Version wird sein Bruder Jay Derrett geführt. Beide tauchen später auch bei weiteren CRL-Horrorprojekten wie Jack the Ripper und Wolfman in den Credits auf. Im Spiel selbst oder in den Handbüchern werden die Derretts nicht immer explizit genannt; ihre Beteiligung lässt sich aber über externe Credit-Sammlungen und Szenequellen nachvollziehen.

Wie reagierte die Presse auf dieses Experiment aus Zensur-Coup und Grusel-Abenteuer? In Großbritannien fielen vor allem die Sinclair-Magazine sehr wohlwollend aus. Crash vergab für die Spectrum-Version eine hohe Gesamtwertung und hob insbesondere Atmosphäre und Textqualität hervor. Sinclair User setzte noch eins drauf und belohnte Dracula mit der Höchstnote von fünf von fünf Punkten. Das frechere Your Sinclair blieb deutlich zurückhaltender: Der zuständige Redakteur lobte die Stimmung, kritisierte aber Umfang und altmodischen Parser und landete bei sechs von zehn Punkten. Auf Commodore-Seite kam das Spiel unterschiedlich an. Commodore User bescheinigte Dracula ein gutes Adventure und lag etwa im 80-Prozent-Bereich, während Computer Gamer sogar eine noch höhere Einschätzung abgab. Computer & Video Games ordnete sich mit einer soliden Acht-von-Zehn-Kategorie ein. Deutlich skeptischer zeigte sich Zzap!64: Dort empfand man das Adventure als zu dünn, um den Hype um die Altersfreigabe zu tragen, und vergab nur eine unterdurchschnittliche Wertung. Besonders störte die Redaktion, dass die angekündigte Schockwirkung in der Praxis eher moderat ausfiel.

In Deutschland fiel das Echo wesentlich kühler aus. Happy Computer zeigte sich in der Besprechung wenig angetan: fehlende deutsche Texte und die zähe Eingabe sorgten für eine deutlich unterdurchschnittliche Wertung und die Empfehlung, nur eingefleischten Adventure-Fans einen Blick zu gönnen. Der Aktuelle Software Markt verfolgte Dracula schon früh; ein Vorabbericht beschäftigte sich vor allem mit der ungewöhnlichen Altersfreigabe und dem Horror-Anspruch. Im eigentlichen Test fielen Grafik und Atmosphäre positiv auf, während der einfache Parser und die lineare Struktur zurückhaltend kommentiert wurden. Insgesamt kam das Spiel im deutschen Markt über einen Nischenstatus nicht hinaus; andere Magazine erwähnten Dracula, wenn überhaupt, eher am Rande.

Mit etwas zeitlichem Abstand bleibt Dracula von 1986 vor allem als Medienphänomen in Erinnerung. CRL nutzte die BBFC-Prüfung geschickt für Schlagzeilen, lange bevor offizielle Altersratings für Spiele zum Standard wurden. Spielerisch reiht sich das Adventure eher in die Kategorie der einfacheren Gruseltitel ein: kein Zork, kein Monkey Island, sondern eine interaktive Horrorgeschichte mit überschaubarem Rätselanteil. Technisch holen die Entwickler aus den drei Zielsystemen ordentlich etwas heraus – der Spectrum profitiert besonders von der starken Textbasis, der C64 punktet mit Musik und Farbe, der CPC liefert eine solide, wenn auch etwas blassere Variante. Der kommerzielle Erfolg blieb moderat, reichte aber aus, um weitere Horror-Adaptionen zu rechtfertigen. Ende der Achtziger verschwand CRL vom Markt, doch Dracula wird in der Retro-Szene heute gerne als kurioser Meilenstein zitiert: als Beispiel dafür, wie weit man mit einer guten Idee, etwas Mut zur Provokation und einem klassischen Stoff kommen konnte, auch wenn die Mechanik im Hintergrund vergleichsweise schlicht bleibt.

 

Oric 1

Oric-1: Der ehrgeizige Heimcomputer aus der zweiten Reihe der 80er Jahre

Source: https://www.computinghistory.org.uk/det/526/Oric-1-48k/

Als der Oric-1 im Jahr 1983 in Großbritannien erschien, traf er in einen Markt, der durch schnelle technische Entwicklungen und wachsenden Preisdruck geprägt war. Tangerine Computer Systems, bis dahin vor allem durch den Microtan 65 in der Bastlerszene bekannt, wollte mit diesem neuen Modell den Schritt vom Baukastenrechner zum vollwertigen Heimcomputer schaffen. Für die Vermarktung wurde Oric Products International Ltd gegründet, denn man plante bewusst ein Gerät, das im Massenmarkt bestehen sollte, mit einem klaren Ziel: eine Alternative zum ZX Spectrum zu bieten, die preislich konkurrenzfähig blieb, aber in mehreren Punkten technisch überzeugender wirken sollte. Die gesamte Entwicklung wird heute dem britischen Tangerine-Team zugeschrieben; einzelne namentliche Hauptentwickler sind in zeitgenössischen Dokumenten nicht gesichert überliefert.

Der Rechner basierte auf dem MOS Technology 6502A mit 1 MHz, einem Prozessor, der sich in zahlreichen erfolgreichen Heimcomputern der Zeit bewährt hatte. Der Oric-1 erschien in zwei RAM-Varianten, 16 KB und 48 KB, wobei die größere Version den Markt dominierte. Das 16-KB-ROM enthielt das Betriebssystem und ein speziell an den Rechner angepasstes BASIC. Die Tastatur bestand aus einzelnen Hartplastiktasten; zeitgenössische Berichte beurteilten sie unterschiedlich, von „funktionell“ bis „gewöhnungsbedürftig“, jedoch war sie klar getrennt beweglich und unterschied sich damit deutlich vom Gummitastatursystem des Spectrum. Für die interne Logik nutzte Oric einen kundenspezifischen Gate-Array-Baustein, der mehrere Funktionen bündelte und für die Kostenoptimierung eine entscheidende Rolle spielte.

Die Grafikmodi boten 240 × 200 Pixel bei acht Farben sowie 40-Zeichen-Textmodi, jeweils mit bestimmten Einschränkungen durch Farbblockbildung, die für Heimcomputer dieser Generation typisch waren. Der AY-3-8912 als dreikanaliger Tonchip stellte eine echte Mehrstimmigkeit bereit und wurde in Testberichten positiv erwähnt, besonders im Vergleich zu einfacheren Tonausgaben anderer preisgünstiger Geräte. Die Kassetten­schnittstelle war offiziell für Datenraten zwischen 300 und 2400 Baud ausgelegt, wobei Testberichte eher von mittleren, zuverlässigeren Werten ausgingen. Diese Angaben entsprechen dem, was aus britischen und französischen Magazinen des Jahres 1983 dokumentiert ist.

Auf dem britischen Markt erhielt der Oric-1 zunächst beachtliche Aufmerksamkeit, doch das Softwareangebot wuchs langsamer als bei seinen direkten Konkurrenten. Die Spectrum-Plattform hatte bereits einen deutlichen Vorsprung, und auch der Preisvorteil im unteren Marktsegment spielte Sinclair weiterhin in die Hände. Auffällig erfolgreich entwickelte sich dagegen der französische Markt, wo Oric durch lokale Vertriebsstrukturen deutlich präsenter war und eine engagierte Anwenderszene entstand. Der Rechner blieb dennoch im Schatten des Spectrum und des Commodore 64, deren Marktanteile schneller stiegen und deren Softwarebibliotheken durch größere Verlage und etablierte Entwicklerstudios erweitert wurden.

Preislich positionierte sich der Oric-1 aggressiv. Zeitgenössische Anzeigen führen für die Markteinführung rund £99.95 für die 16-KB-Version und £169.95 für die 48-KB-Variante auf. Inflationsbereinigt entspricht dies heute ungefähr 370 Euro beziehungsweise etwa 630 Euro. Dieser Preisrahmen zeigt klar, wie Oric seine Rolle sah: preislich näher beim Spectrum, technisch näher an Geräten wie dem VC-20 oder dem Atari 400, aber ohne deren teils höheren Endverbraucherpreise. Die frühen Produktionsreihen des Oric-1 sind in einigen Testberichten durch Hinweise auf bestimmte ROM-Revisionen und vereinzelt Tape-Handling-Probleme dokumentiert, doch darüber hinausgehende Aussagen zu systematischen Fertigungsfehlern lassen sich nicht belegen.

Bereits 1984 wurde der Oric-1 durch den Oric Atmos abgelöst, der ein überarbeitetes ROM und eine verbesserte Tastatur erhielt. Rückblickend bleibt der Oric-1 ein Beispiel für die Vielfalt der britischen Heimcomputerentwicklung zu Beginn der achtziger Jahre: technisch solide, klar strukturiert und mit einem Leistungsspektrum, das ihn theoretisch gut zwischen seinen Wettbewerbern hätte positionieren können. Dass er letztlich nicht die gleiche Marktdurchdringung erreichte, lag weniger an seiner technischen Basis als an der Dynamik eines Marktes, in dem Sinclair, Commodore und zunehmend auch internationale Hersteller bereits dominierende Rollen einnahmen. Dennoch markiert der Oric-1 einen wichtigen Moment dieser Ära, in der mehrere britische Firmen versuchten, eigene Architekturen zu etablieren und damit ihre Unabhängigkeit gegenüber der wachsenden Konkurrenz zu bewahren.

Amiga 3000 – Die Maschine, die für Profis gedacht war, aber Fans gewann

Amiga 3000 – Die Maschine, die für Profis gedacht war, aber Fans gewann

Als Commodore im Frühjahr 1990 den Amiga 3000 präsentierte, schien der große Sprung in die professionelle Computerwelt vollzogen. Der Rechner, entwickelt von den Teams in West Chester (Pennsylvania) und Braunschweig, war keine Revolution, sondern die verfeinerte Vollendung des Amiga 2000 – präziser, stabiler, aufgeräumter. In ihm zeigte sich, wie weit Commodores Ingenieure den ursprünglichen Amiga-Gedanken treiben konnten, wenn sie freie Hand bekamen. Für unsere Generation war er geradezu ein Traum und preislich unendlich fern. Jedoch nicht für alle. Kurz nach Einführung besaß ein alter Klassenkamerad dieses Stück Hardware. Dass er sich das leisten konnte, lag möglicherweise an seinen Mailboxen und der Beteiligung an namhaften Cracker-Truppen und ihrem erträglichen Handwerk – aber das ist eine andere Geschichte und soll ein anderes Mal erzählt werden …

Im Inneren des Amiga 3000 arbeitete ein Motorola 68030 mit 16 oder 25 MHz, optional ergänzt durch eine 68882-FPU. Damit zog der Amiga erstmals vollständig in die 32-Bit-Welt ein, ohne externe Beschleunigerkarten wie beim Amiga 2500 zu benötigen. Ab Werk war der Rechner mit 1 MB Chip-RAM und 1 MB Fast-RAM ausgestattet, erweiterbar auf 2 MB Chip- und bis zu 16 MB Fast-RAM. Händler boten häufig aufgerüstete Versionen mit 4 MB Fast-RAM an, um ihn für DTP- und Grafikaufgaben attraktiver zu machen.

In der Anfangsphase zeigte sich Commodores Hang zur Improvisation: Kickstart 2.0, das neue ROM-Betriebssystem, war zum Serienstart noch nicht fertig. Daher wurden die ersten Amiga 3000 mit sogenannten Boot-ROMs ausgeliefert, ähnlich wie einst der Amiga 1000. Zur Einordnung: Kickstart war das Grundsystem des Amiga, gewissermaßen das Betriebssystem im ROM. Es enthielt den Kernel, die grafischen Routinen, den Speicher- und Geräte-Manager – das Rückgrat, auf dem Workbench und alle Programme aufbauten. Ohne Kickstart startete kein Amiga. Während es bei Modellen wie dem A500 oder A2000 fest im ROM lag, musste es bei frühen A3000-Serien noch von Diskette oder Festplatte nachgeladen werden.

Im ROM befand sich ein rudimentäres System, Kickstart 1.4 Beta, das beim Einschalten ein vollständiges Kickstart-Image von Diskette oder Festplatte lud. Dafür war mindestens 1 MB Fast-RAM (DIP oder ZIP) erforderlich, da das Image dort abgelegt wurde. Diese frühen ROMs funktionierten nur mit der MMU des 68030 – wer später eine 68040- oder 68060-Karte einsetzte, erlebte böse Überraschungen: Das System bootete schlicht nicht. Durch Drücken beider Maustasten ließ sich beim Einschalten ein Bootmenü aufrufen, in dem man zwischen Kick 1.3 und Kick 2.x wählen konnte. Das jeweils benötigte Kickstart-File erwartete der Rechner unter „Wb_2.x:devs/kickstart“ oder „Wb_1.3:devs/kickstart“. Klickte man im Menü mit der Maus in die linke obere Ecke, startete das rudimentäre Kickstart 1.4 direkt aus dem ROM – eine versteckte Notfunktion, die Commodore-Techniker liebevoll eingebaut hatten.

Ein Nachteil dieser Lösung: Da das Kickstart-Image im oberen Bereich des Fast-RAM lag, standen rund 512 KB weniger Speicher zur Verfügung. Erst spätere Revisionen mit echten ROM-Bausteinen – zunächst in einem ROM-Tower, später fest gesockelt – enthielten ein vollwertiges Kickstart 2.0, wodurch dieser Speicher wieder frei wurde und der Bootvorgang erheblich schneller verlief.

Das Amiga-Grafiksystem war weiterhin ein Musterbeispiel für elegantes Hardware-Design. Der Blitter erlaubte schnelle Blockverschiebungen, während der programmierbare Bildgenerator und der Sprite-Controller flüssige Animationen ermöglichten. Die Bildwiederholfrequenz betrug 50 oder 60 Hertz. Die Auflösungen reichten von 320 × 256 bis 1280 × 512 Pixel. Im Overscan-Modus ließ sich der sichtbare Bereich erweitern, wodurch bei Video- und Titelanwendungen die Bildränder verschwanden. In der höchsten Auflösung konnten vier Farben gleichzeitig dargestellt werden, in niedrigeren Modi bis zu 32 oder 4096 Farben – Letzteres mit Einschränkungen, aber für 1990 beeindruckend.

Zur Wahrung der Kompatibilität bot der A3000 sämtliche Standard-Amiga-Grafikmodi über die bekannte 23-polige RGB-Buchse bei 15 kHz Zeilenfrequenz. Besitzer von Multisync-Monitoren, die 31 kHz verarbeiten konnten, kamen dank des neuen „Amber“-Chips erstmals in den Genuss flimmerfreier VGA-Darstellung – ein Quantensprung für professionelle Nutzer.

Eine weitere Besonderheit des A3000 war das aufgesetzte Daughterboard, das beim A3000 die Erweiterungssteckplätze bereitstellte – also den Grafikkarten-Slot, die Zorro-III- und die ISA-Steckplätze. Bei einigen frühen Revisionen waren die ISA-Ports allerdings falsch bestromt, und generell sind deren Datenleitungen nicht direkt mit dem Amiga-Bus verbunden. Um sie nutzen zu können, benötigte man eine Bridgeboard-Karte mit eigener x86-CPU, die die ISA-Steckplätze aktivierte. Unter Kickstart 1.3 ließ sich das Daughterboard zu Testzwecken sogar weglassen; ab Kickstart 2.0 führte dessen Fehlen jedoch zu einem gelben Bildschirm – ein klares Signal für fehlende Bus-Initialisierung.

Auf dem Daughterboard saß auch der Super Buster, Commodores zentraler Buscontroller. Er vermittelte zwischen CPU, Speicher und den Amiga-Erweiterungsbussen und diente als Bindeglied zwischen Zorro II und dem neuen Zorro III. In der Praxis blieb seine Entwicklung jedoch unvollendet: Es existierten mehrere Revisionen mit teils deutlichen Unterschieden. Die frühen A3000-Varianten (Revisionen bis 7) boten nur eine grundlegende Unterstützung von Zorro III und verzichteten auf echtes DMA; Zorro-III-Karten liefen hier lediglich im kompatiblen Zorro-II-Modus, was die Leistung deutlich einschränkte. Spätere Überarbeitungen, beginnend mit Revision 9 (bekannt aus dem A4000), führten DMA ein und verbesserten die Performance geringfügig, enthielten jedoch einen Fehler im Busmanagement, der unter bestimmten Umständen zu Systemhängern führen konnte. Erst Revision 11, wie sie im A4000T serienmäßig und für den A3000 als Nachrüst-Upgrade erhältlich war, bot eine stabile DMA-Unterstützung für einen Busmaster – genug für professionelle Anwendungen, aber noch nicht das ursprünglich geplante Zorro-III-Ideal.

Um diese Revision überhaupt einsetzen zu können, musste der A3000 mit der 25-MHz-Variante des Boards ausgestattet sein; die 16-MHz-Version war damit nicht kompatibel. Der Super Buster blieb damit ein Beispiel für Commodores typischen Spagat zwischen Vision und Umsetzbarkeit – ein konzeptionell ambitioniertes Bauteil, das sein volles Potenzial nie ganz entfalten konnte.

Mit dem Zorro III-Bus führte Commodore die erste vollständig 32-Bit-fähige Amiga-Architektur ein. Theoretisch lag die Bandbreite bei 150 MB/s, realistisch erreichten Systeme 6 bis 15 MB/s, abhängig von DMA-Controller und Peripherie. Entscheidend war weniger der Wert als das Konzept: abwärtskompatibel, DMA-fähig und zukunftssicher.

Ebenfalls neu war der integrierte SCSI-Controller, der Zusatzkarten überflüssig machte und echten DMA-Zugriff erlaubte. Zusammen mit Workbench 2.0, dem Fast File System und der neuen GUI wurde der A3000 zum stabilsten und zuverlässigsten Amiga, den Commodore je gebaut hatte.

Das Gehäuse war flach, hellgrau und sachlich – „Kein Spielzeug mehr“, schrieb die c’t 1990, „sondern ein echter Arbeitscomputer mit Unix-Ambitionen.“ Eine Variante mit Amiga Unix SVR4 (A3000UX) fand ihren Platz in Universitäten und technischen Instituten. Dave Haynie resümierte später: „The 3000 was the machine we always wanted to build if management had just let us.“ (Der 3000 war die Maschine, die wir immer bauen wollten, wenn uns das Management nur gelassen hätte.)

Der Einführungspreis lag bei 3499 US-Dollar (heute etwa 8400 Euro). In Deutschland kostete die 100-MB-SCSI-Variante rund 6 000 DM, also 10 200 Euro inflationsbereinigt. Damit stand der A3000 in direkter Konkurrenz zu Workstations wie der NeXTstation oder dem Atari TT030 – aber mit unverkennbar eigenem Charakter.

Zeitgenössische Magazine zogen ein klares Fazit. Amiga Format schrieb: „The A3000 is the Amiga grown up – fast, serious and stylish.“ (Der A3000 ist der erwachsen gewordene Amiga – schnell, ernsthaft und elegant.) Das Amiga Magazin befand: „Ein Traum für alle, die ernsthaft arbeiten wollen und trotzdem den Spaß am Amiga behalten möchten.

Der Amiga 3000 blieb ein Computer für Kenner – zu teuer für Heimanwender, zu speziell für den Büromarkt, aber technisch makellos. Ein Rechner, der aus Leidenschaft und Ingenieursgeist entstand, nicht aus Marketing.

(mein besonderer Dank geht an "Frank H Aus L", der mit seinem Fachwissen und seiner Expertise diesen Artikel erst ermöglicht hat).

WordStar – 1979 by MicroPro

WordStar – Als Tastaturkürzel König waren und DOS die Bühne hielt

Als Mikrocomputer Ende der siebziger Jahre zunehmend in Werkstätten, Büros und Hobbykellern auftauchten, wuchs der Wunsch nach einer Textverarbeitung, die ernsthafte Schreibarbeit ermöglichen konnte. Seymour I. Rubinstein, vormals bei IMSAI tätig, erkannte diese Lücke und gründete 1978 MicroPro International. Er engagierte den außergewöhnlich begabten Programmierer Rob Barnaby, der bereits zuvor systemnahe Editoren für CP/M entwickelt hatte und in Fachkreisen als jemand galt, der Programme eher aus der Perspektive der Maschine als jener des Anwenders dachte. Zeitgenossen beschrieben ihn als einen Entwickler, der keine Rücksicht auf konventionelle Benutzerführung nahm, sondern darauf vertraute, dass Menschen seine effiziente, aber anspruchsvolle Logik erlernen konnten. Ein Ausspruch, den frühere Kollegen Barnabys überlieferten, bringt dies gut auf den Punkt: „Rob wrote software for the computer, and expected people to keep up“ („Rob schrieb Software für den Computer und erwartete, dass die Menschen mithalten“).

Barnaby entwickelte WordStar zwischen 1978 und 1979 fast vollständig in handoptimiertem 8080-Assembler, und weil CP/M-Systeme nur 64 Kilobyte Arbeitsspeicher boten, entwarf er ein ausgeklügeltes Overlay-System, das Programmteile je nach Bedarf nachlud. Dass viele Terminals dieser Zeit keine Pfeiltasten besaßen, führte zu seinem berühmten Steuerungsdiamanten: Ctrl-S, Ctrl-E, Ctrl-D und Ctrl-X für die Bewegung des Cursors. Dieser Tastensatz wurde auf Dutzenden Plattformen übernommen und machte WordStar zu einem Werkzeug, das überall gleich funktionierte – ein Vorteil, den kein Konkurrent jener Zeit in diesem Umfang bieten konnte. Ein Nutzer erinnerte sich viele Jahre später: „Once you got the hang of the WordStar keystroke diamond it was magic to use“ („Wenn man den WordStar-Diamond einmal beherrschte, war er magisch zu benutzen“).

WordStar erschien im Juni 1979 zu einem Preis von 495 US-Dollar, inflationsbereinigt rund 1.300 Euro. Der Betrag war hoch, aber WordStar bot Funktionen, die seiner Zeit voraus waren: automatischer Zeilenumbruch, Seitenvorschau im Textmodus, Blockbearbeitung, Seriendruck, einfaches Makrosystem und eine sauber strukturierte Dokument- und Nicht-Dokument-Logik. Durch OEM-Bundles, insbesondere mit dem Osborne 1, verbreitete sich das Programm schnell. BYTE schrieb 1983 anerkennend: „without a doubt the best-known and probably the most widely used personal computer word-processing program“ („ohne Zweifel das bekannteste und wahrscheinlich am weitesten verbreitete Textverarbeitungsprogramm für Personal Computer“). ThoughtCo bezeichnet WordStar später als „the first commercially successful word-processing software program for microcomputers“ („die erste kommerziell erfolgreiche Textverarbeitungssoftware für Mikrocomputer“). Rubinstein sagte rückblickend: „WordStar was a tremendous learning experience. I didn’t know all that much about the world of big business“ („WordStar war eine gewaltige Lernerfahrung. Ich wusste nicht allzu viel über die Welt des großen Geschäfts“).

Intern verlief die Entwicklung allerdings unruhig. Der rapide wachsende Erfolg erforderte Teamarbeit, doch Barnabys ursprünglicher Quelltext war maschinennah, komplex und nur spärlich dokumentiert. Mehrere Entwickler mussten später Teile des Codes praktisch neu erschließen, als das Programm für MS-DOS und weitere Plattformen angepasst wurde. Trotz dieser Herausforderungen blieb WordStar über Jahre das dominierende Schreibwerkzeug auf CP/M und frühen DOS-Rechnern.

Die Fachpresse sah WordStar zugleich als mächtig und schwierig. PC Magazine sprach von einer „arrogant indifference to user feedback“ („arroganten Gleichgültigkeit gegenüber Nutzerfeedback“) und bezeichnete es dennoch als „the most powerful word processor available“ („die mächtigste verfügbare Textverarbeitung“). Diese doppelte Wahrnehmung fasst die Retroanalyse gut zusammen, die WordStar als „arrogant, difficult, powerful“ („arrogant, schwierig, mächtig“) einstuft. Die Lernkurve war steil, aber wer sie meisterte, schrieb schneller als mit jedem anderen Programm seiner Zeit.

Während WordStar Anfang der achtziger Jahre Marktführer war, gewann WordPerfect rasch an Boden. Ein zeitgenössischer Tester beschrieb WordPerfect als „more than full-featured“ („mehr als voll ausgestattet“) und betonte Funktionen, die in WordStar fehlten, insbesondere im Bereich Druckeransteuerung und Formatlogik. MicroPros Antwort, WordStar 2000, entfernte sich so weit vom bekannten Bedienkonzept, dass viele treue Nutzer es ablehnten; ein Tester spottete, es habe „all the charm of an elephant on motorized skates“ („den Charme eines Elefanten auf motorisierten Rollschuhen“).

Der Niedergang setzte sich in den frühen neunziger Jahren fort, bis MicroPro schließlich in anderen Firmenstrukturen aufging. Dennoch bleibt WordStar ein kulturelles Phänomen, das weit über seine technische Ära hinausstrahlt. Der Science-Fiction-Autor Robert J. Sawyer schrieb seine Werke bis in die 2010er-Jahre in WordStar 7 unter MS-DOS, und George R. R. Martin erklärte öffentlich, er nutze bis heute WordStar 4.0 auf einem vom Netz getrennten Rechner, weil moderne Programme ihn beim Schreiben störten. Sein Satz „I don’t want any help“ („Ich will keine Hilfe“) beschreibt treffend jene Schlichtheit, die viele Autoren auch Jahrzehnte später noch an WordStar schätzen.

Heute lebt WordStar in Emulationen wie DOSBox-X weiter, und seine Tastenkombinationen haben den Sprung in Unix-Editoren wie „jstar“ geschafft. WordStar ist damit eines der wenigen Textverarbeitungsprogramme, dessen Erbe nicht in Menüs oder Icons, sondern im Muskelgedächtnis seiner Nutzer fortbesteht. Es war nie das freundlichste Programm, aber eines der kraftvollsten – ein Werkzeug aus einer Ära, in der Software nicht dekoriert, sondern geschmiedet wurde, und in der Geschwindigkeit und Präzision den Ausschlag gaben.

Snake – 1997 by Nokia

Snake – Nicht von Nokia erfunden, aber von Nokia unsterblich gemacht

In einer Zeit, als das mobile Internet noch sündhaft teuer mit Dublonen oder der eigenen Seele bezahlt werden musste, war der Mobilfunknutzer auf wenige Möglichkeiten der Unterhaltung während der Busfahrt beschränkt, sofern er nicht immer wieder alte SMS sichten oder aber telefonieren wollte. Nokia hatte mit den Nutzern Mitleid und präsentierte ab 1997 Kurzweil – und diese Kurzweil hieß Snake. Preislich war Snake untrennbar mit dem Kauf eines Nokia-Handys verbunden – es war also faktisch kostenlos. Dass ein monochromes Display mit vier Richtungen und einer stetigen Bewegung der Schlange eine ganze Generation prägen würde, erwartete damals niemand. Doch das Spiel wurde auf über 350 Millionen Geräten ausgeliefert und damit zu einem der populärsten Titel der Welt, gespielt in Pausenhöfen, in U-Bahnen, in überlangen Schulstunden und in stillen Momenten, in denen das Telefon sonst nur Uhrzeit, Akku und die obligatorische SMS-Zahl anzeigte. Doch Nokia hatte das Spiel nicht erfunden.

Als digitale Spiele noch als mathematische Fingerübungen galten und Terminals nur ein paar blockige Zeichen darstellen konnten, entstanden die ersten Linien- und Labyrinthspiele, die später unter dem Namen Snake weltberühmt werden sollten. Unter frühen Bezeichnungen wie Worm, Blockade (Gremlin, 1976) oder Rattler lebte die Idee stets fort: Eine Linie bewegt sich kontinuierlich, wächst beim Einsammeln von Objekten, und der Spieler scheitert, wenn er die eigenen Segmente berührt. Die Mechanik war so elementar, dass sie auf Großrechnern, Homecomputern und später Taschenrechnern gleichermaßen funktionierte – ein Sinnbild für universelles Spieldesign.

Eine besondere Rolle spielte Nibbles.bas, jener kleine QBasic-Klassiker, den Microsoft tatsächlich als Bestandteil von MS-DOS 5.0 und 6.x mitlieferte. Er befindet sich korrekt im QBasic-Verzeichnis und war als Lernbeispiel für angehende Programmierer gedacht, entwickelte sich jedoch rasch zu einem der heimlichen Favoriten im Informatikunterricht. Zusammen mit Gorillas.bas war Nibbles die erste Berührung vieler junger Nutzer mit Code, den man öffnen, verändern und neu starten konnte – eine direkte, greifbare Form des Lernens, bei der man die Mechanik eines Spiels nicht nur sah, sondern begriff. Nibbles selbst setzte auf klar definierte Levelbegrenzungen und strukturierte Spiellogik und wurde dadurch zum Musterbeispiel für elegantes Minimaldesign.

Seine Faszination liegt in einer einfachen, aber brillanten Dynamik: Jeder Erfolg begrenzt den eigenen Raum. Je länger die Schlange, desto enger das Spielfeld, desto knapper die Entscheidungen. Der Spieler schafft sich seine eigene Falle Stück für Stück – und genau dieses stetige Schrumpfen der freien Fläche erzeugt einen Sog, der bis heute wirkt. Snake gehört zu den wenigen Spielen, die vollkommen ohne Ornament funktionieren; alles, was sichtbar ist, hat Bedeutung.

Varianten gibt es unzählige. Einige erhöhen automatisch das Tempo, andere setzen Hindernisse, wieder andere erlauben diagonale Bewegungen oder Mehrspielerduelle. Doch die ikonische Darstellung auf Nokia-Geräten – blockig, piepsend, unmissverständlich – gilt bis heute als die stilprägendste. Sie ist zu einem visuellen Archetyp aller mobilen Spiele geworden, ein Symbol einer Ära, in der man unterwegs spielte, ohne Apps, ohne App Stores, ohne Touchscreens, ja sogar ohne Farbbildschirm.

Online ist Snake nach wie vor fast überall spielbar. Zahlreiche Browser-Umsetzungen greifen die Optik der Nokia-Version auf, Emulatorseiten bieten Nibbles.bas als modifizierbare Originalfassung, und diverse Retroportale halten den minimalistischen Stil lebendig. Manche ältere YouTube-Player-Versionen kannten kleine Easter Eggs, doch diese Funktion ist inzwischen weitgehend verschwunden. Dennoch findet man spielbare Ableger praktisch überall, wo Pixel erlaubt sind.

In der Rückschau erscheint Snake als eines der reinsten Beispiele für zeitloses Spieldesign. Es ist universell verständlich, mechanisch transparent, sofort lernbar und mit jedem zusätzlichen Punkt spannender als zuvor. Gerade diese einfache Logik, die sich auf jedem System – ob Rechner, Handy oder Browser – nahezu unverändert umsetzen lässt, macht Snake zu einem jener Spiele, die nicht altern, sondern schlicht existieren.

Lode Runner – 1983 by Brøderbund Software

Lode Runner (1983) – Minimalismus, Spannung und 150 Wege in die Sucht

Lode Runner (1983) – Minimalismus, Spannung und 150 Wege in die Sucht

Als Anfang der Achtziger an amerikanischen Universitäten noch Lochkarten staubten und Großrechner im Neonflackern brummten, entstand ein Spiel, das mit radikaler Schlichtheit neue Maßstäbe setzte: Lode Runner. Seine Wurzeln liegen in ASCII-Prototypen wie Suicide auf dem Commodore PET, deren Engine bereits sauber getrennte Leveldaten nutzte. Auf einem Prime-550-Minicomputer entstand daraus das Spiel Kong, versteckt hinter dem Tarnbefehl graph. Zeitzeugen berichten, dass auf vielen Universitätsrechnern dieser Befehl zum inoffiziellen Geheimtipp wurde – eine kleine studentische Untergrundszene, die das Fundament legte. Douglas E. Smith übertrug das Konzept später auf den Apple II und entwickelte Miner, eine noch rohe Fassung mit ruckelnden Sprites und schwarz-weißer Optik. Doch das Fundament war gelegt: graben, fliehen, taktieren.

Smith schickte den Prototyp an mehrere Publisher. Broderbund bot den geringsten Vorschuss, aber die besten Royalties – eine Entscheidung, die sich später als Glücksgriff herausstellte. Der Verlag verlangte flüssige Animationen und 150 spielbare Levels. Mit dem eingebauten Editor gelang das nur, weil Freunde, Nachbarskinder und Studenten dutzende Bildschirme entwarfen; ein großer Teil der finalen Levels stammt aus dieser frühen „Volkswerkstatt“, lange bevor der Begriff „User Generated Content“ existierte.

Die Mechanik ist bis heute einzigartig reduziert und deshalb so klar: Der Spieler sammelt Gold, gräbt temporäre Löcher, trickst Wachen aus und nutzt sie manchmal als unfreiwillige Trittsteine. Feste Bildschirme, präzise Wege, missverständnisfrei lesbare Elemente – ein Baukasten, der wie Schach in Echtzeit funktioniert. Die Wachen agieren überraschend clever, sammeln sogar Gold ein, das sie beim Sturz in ein Loch wieder verlieren. Fehler im Timing können ein Level unlösbar machen, doch gerade diese Konsequenz macht den Reiz aus.

Die Apple-II-Version bleibt minimalistisch, einfarbig und beinahe asketisch. Der C64 fügt weichere Sprites und typischen SID-Sound hinzu, während der Atari-8-Bit technisch zwischen beiden liegt. CGA auf dem PC wirkt härter, aber spielmechanisch identisch. In Japan entstand eine zweite Identität: Hudson Softs Famicom-Version bot Scrollbewegungen, Musik, buntere Optik und einen funktionalen Editor, dessen Levels sich per Data Recorder speichern ließen. Irem brachte 1984 sogar eine Arcade-Fassung heraus – bemerkenswert, da hier eines der ersten amerikanischen Heimcomputerspiele zur Grundlage eines japanischen Arcade-Titels wurde.

Der Erfolg war unmittelbar und enorm. Lode Runner wurde schnell zu Broderbunds größtem Hit und verkaufte sich weltweit millionenfach, besonders in Japan. Für Smith bedeutete das hohe Royalties und den plötzlichen Sprung vom Studenten zum unerwartet wohlhabenden Designer eines minimalistischen Puzzle-Plattformers.

Zeitgenössische Magazine lobten die Mischung aus Denksport und Action. Softline nannte das Spiel 1983 „smooth, thoughtful, and quite addictive“ („flüssig, durchdacht und ziemlich süchtig machend“). Computer Gaming World bezeichnete es als „one of the few thinking men's arcade games“ („eines der wenigen Arcade-Spiele für denkende Spieler“). Zzap!64 attestierte der C64-Version: „graphically minuscule and aurally crude, the game's sheer addiction kept my eyes propped open until the owls went to bed“ („grafisch winzig und klanglich grob, aber so süchtig machend, dass ich wach blieb, bis die Eulen schlafen gingen“). Bei den 5th Arkie Awards wurde der Titel 1984 als „outstanding design“ und „irresistible“ ausgezeichnet. In späteren Rückblicken rangiert Lode Runner regelmäßig unter den wichtigsten Apple-II- und Puzzle-Spielen aller Zeiten.

In Deutschland lagen die Preise für die gängigen Heimcomputerfassungen typischerweise zwischen 39 und 59 DM, je nach Händler und System – inflationsbereinigt etwa 55–60 Euro. Spätere Ariolasoft-Budgetversionen („Hits!“) machten den Titel auch für Sparfüchse attraktiv, während die zahlreichen Ports und Varianten für eine beständige Präsenz in Regalen und Magazinen sorgten.

CP/M

CP/M: Die Vision eines Mannes, die zur Blaupause des PCs wurde

 

 

Gary Kildall war einer jener frühen Computerpioniere, die sich selbst kaum als solche betrachteten und dennoch eine ganze Ära prägten. Geboren 1942 in Seattle und später Professor an der Naval Postgraduate School in Monterey, galt er als technisch brillanter Kopf, der lieber experimentierte als sich mit geschäftlichen Formalitäten aufzuhalten. Zeitzeugen beschrieben ihn häufig als außergewöhnlich kreativ, aber nicht als jemanden, der sich besonders für harte Verhandlungen begeisterte – ein Charakterzug, der seine spätere Rolle in der Geschichte der Mikrocomputerindustrie mitprägte.

Seine Karriere begann bei Intel, wo er sich früh mit dem brandneuen 8080-Prozessor beschäftigte, dort die höhere Programmiersprache PL/M entwickelte und Werkzeuge schuf, die er später als „die ersten richtigen Werkzeuge des Mikrocomputerzeitalters“ bezeichnete. Diese Arbeit bildete die Grundlage für seine späteren Betriebssystemexperimente. Doch Intel interessierte sich wenig für eine eigene Betriebssystemlinie. Die Lücke nutzte Kildall – oder genauer gesagt: sie ließ sich durch seine Neugier schließen. Nach Feierabend experimentierte er zuhause mit Diskettencontrollern und schrieb ab 1973 an den ersten Fassungen dessen, was später CP/M werden sollte.

Für Laien lässt sich die Entstehung von CP/M leicht erklären: In den frühen 1970er-Jahren existierten Mikrocomputer meist nur als Prozessoren mit rudimentärer Software. Jeder Hersteller entwickelte eigene Lösungen, Programme ließen sich kaum übertragen, und ein gemeinsamer Standard war nicht in Sicht. CP/M war das erste wirklich weit verbreitete Mikrocomputer-Betriebssystem, das Ordnung in einen Markt brachte, der zuvor aus hunderten nicht miteinander kommunizierenden Inseln bestanden hatte. Es machte die frühen Rechner vergleichbar und erlaubte es, identische Programme auf völlig unterschiedlichen Maschinen zu nutzen. Was heute selbstverständlich ist – ein Betriebssystem, das Dateien verwaltet, den Startvorgang steuert und Programme lädt – war damals ein fundamentaler Fortschritt. Viele Historiker bezeichnen CP/M daher als das erste professionelle Betriebssystem der Personalcomputer-Ära.

CP/M entstand aus Kildalls Arbeit bei Intel, wo er PL/M entwickelte und Werkzeuge für den 8080 schrieb. Nach Feierabend experimentierte er zu Hause mit frühen Diskettensteuerungen und begann ab 1973 an der ersten Version zu arbeiten. Der entscheidende Schritt gelang ihm, als er eine effiziente Methode fand, Diskettenlaufwerke mit Mikroprozessoren anzusteuern – ein technisches Problem, das bis dahin als schwierig galt. Intel zeigte an einem eigenen Betriebssystem wenig Interesse, doch für Kildall war dies der Ausgangspunkt einer neuen Ära.

Gemeinsam mit seiner Frau Dorothy McEwen gründete er Digital Research, jene Firma, die CP/M kommerzialisierte und zur dominierenden Plattform der späten 1970er- und frühen 1980er-Jahre machte. Die Struktur von CP/M war ebenso einfach wie genial. Es bestand aus drei Komponenten: dem BIOS, das alle hardwarespezifischen Routinen enthielt; dem BDOS, der den Zugriff auf Dateien, Laufwerke und Systemdienste regelte; und dem CCP, dem Console Command Processor, der die Kommandozeile bereitstellte. Für Nichtfachleute lässt sich diese Architektur so beschreiben: Das BIOS sprach die Hardware, der BDOS bildete den Kern des Betriebssystems, und der CCP war die sichtbare Benutzerschnittstelle. Gerade diese klare Aufteilung machte CP/M extrem portierbar: Hersteller mussten lediglich ein eigenes BIOS schreiben, während der Rest unverändert blieb.

Die Arbeitsweise war einfach, aber effizient. Nach dem Einschalten erschien das bekannte „A>“-Prompt. Befehle wie DIR oder ERA wurden direkt ausgeführt, externe Programme lagen als .COM-Dateien vor und kehrten nach ihrem Ablauf wieder an das Betriebssystem zurück. Das Dateiformat mit acht Zeichen Dateiname und drei Zeichen Erweiterung, später als „8.3-Format“ bekannt, wanderte später direkt in MS-DOS. Ebenso die Laufwerksbuchstaben A:, B: und C:, die viele heute fälschlich ausschließlich mit Microsoft verbinden.

Wirtschaftlich war CP/M ein Meilenstein. Es gilt heute als das erste kommerziell erfolgreiche 8-Bit-Betriebssystem und lief auf mehreren hundert unterschiedlichen Computern – von North Star und Osborne über Kaypro bis zu Amstrad und zahlreichen industriellen Modellen. Konservative Schätzungen sprechen von über 300 Modellen, einige Archive nennen sogar zwischen 400 und 500, je nach Zählweise. Die enorme Verbreitung war möglich, weil CP/M erstmals portable Software ermöglichte: WordStar, dBASE II oder SuperCalc wurden zu industriellen Standards und prägten ganze Berufsgruppen. Wer CP/M unterstützte, konnte sofort auf einen großen Softwarepool zugreifen, was den Erfolg vieler Hersteller überhaupt erst ermöglichte.

Technisch lief CP/M üblicherweise auf Intel-8080- oder Zilog-Z80-Prozessoren mit 16 bis 64 KB RAM und einem oder zwei 5,25-Zoll-Diskettenlaufwerken. Spätere Versionen wie CP/M Plus (CP/M 3.0) unterstützten durch Bankswitching mehr Speicher und erweiterten den Funktionsumfang deutlich. Ein entscheidender Vorteil gegenüber proprietären Systemen wie Apple DOS oder dem TRS-80-Betriebssystem war die Offenheit: Hersteller konnten ihre Maschinen schnell CP/M-fähig machen, ohne selbst ein komplettes Betriebssystem entwickeln zu müssen.

Einer der am häufigsten diskutierten Momente der Computergeschichte ist die gescheiterte Verhandlung zwischen IBM und Digital Research über eine Lizenz für den IBM PC. Zeitgenössische Dokumente und mehrere Interviews – darunter Tom Rolander im Gespräch für die 1995 ausgestrahlte Folge „The Computer Chronicles: A Tribute to Gary Kildall“ – belegen, dass es zu Missverständnissen kam, teils durch juristische Unklarheiten, teils durch die ungewöhnlich hastig angesetzten Termine. IBM verließ das Treffen ohne Vertrag, Microsoft sprang ein, und MS-DOS wurde zum Standard der PC-Ära. Viele Historiker sehen darin den Punkt, an dem CP/M vom dominierenden System zum „verlorenen Standard“ wurde.

Preislich bewegte sich CP/M in einem Bereich, der je nach Lizenzmodell und Jahr variierte. Typische OEM-Lizenzen lagen zwischen 70 und 100 US-Dollar, was inflationsbereinigt etwa 230–330 US-Dollar im Jahr 2025 entspricht. Umfangreichere Produkte wie CP/M-86 kosteten als Einzelversion zwischen 250 und 400 US-Dollar, inflationsbereinigt ungefähr 780–1250 US-Dollar. Für kleine Firmen und Privatanwender waren dies spürbare Summen, doch angesichts der Stabilität und Portabilität erhielten sie erstmals eine professionelle Softwareumgebung.

Die Nachfolger von CP/M waren ehrgeizig: MP/M brachte Multitasking auf Mikrocomputer, CP/M-86 leitete den Übergang in die 16-Bit-Welt ein, und DR-DOS wurde später zum direkten Konkurrenten von MS-DOS. Doch der Markt hatte sich längst zugunsten der IBM-PC-Kompatibilität entschieden. Was blieb, war ein technisches Fundament, dessen Konzepte – das BIOS-Modell, das 8.3-Dateiformat und die Kommandozeilenarchitektur – in vielen Systemen bis heute weiterleben.

Damit steht CP/M als Monument einer Zeit, in der Mikrocomputer noch wagemutige Experimente waren und jeder Fortschritt eine ganze Branche verändern konnte. Ohne CP/M hätte die junge Personalcomputerwelt keinen einheitlichen Standard besessen – und ohne Gary Kildall wäre diese entscheidende Weiche nie gestellt worden. Er schrieb die Regeln einer Industrie, ohne je das Bedürfnis zu verspüren, sie anderen aufzuzwingen. Genau darin liegt sein Vermächtnis.

 

NCR Decision Mate V

Zwei Prozessoren, eine Mission: Der erstaunliche NCR Decision Mate V

Der Rechner basierte in der Grundversion auf einem Zilog Z80A, konnte jedoch durch ein optionales Intel-8088-Modul zu einem echten Dualprozessor-System erweitert werden. Einige Konfigurationen wurden bereits ab Werk mit dieser Erweiterung ausgeliefert, ein Umstand, den die Werbung ausdrücklich hervorhob und mit Formulierungen wie „You shouldn’t have to choose between 8-bit and 16-bit operating systems.“ sowie „With our dual processing system you can have the benefits of both.“ unterstrich. Diese modulare Architektur stützte sich auf eine proprietäre Backplane mit sieben Steckplätzen, wie es auch Prospekte und technische Unterlagen zeigen, und war typisch für die modulare NCR-Philosophie jener Zeit.

Zum Standardumfang gehörten zwei 5,25-Zoll-DS/DD-Diskettenlaufwerke, die optional durch eine 10-MB-Winchesterfestplatte ergänzt werden konnten. Die kompakte Bauweise mit integriertem 12-Zoll-Monitor verlieh dem Gerät eine professionelle Erscheinung, die sich bewusst von den damals üblichen, eher kastenförmigen IBM-PC-Konfigurationen unterschied. In Anzeigen wurde dieser Ansatz emotionalisiert: „The personal computer with a heart.“ und „We designed it with a heart.“ waren Slogans, die den Anspruch unterstreichen sollten, ein durchdachtes, langlebiges System zu liefern.

Eine der stärksten Eigenschaften des Systems lag im Grafikbereich. Der verbaute NEC µPD7220 gehörte zu den fortschrittlichsten Grafikprozessoren seiner Zeit und war auch in deutlich teureren Maschinen wie dem NEC APC III oder frühen CAD-Workstations zu finden. Zeitgenössische Tests wie Creative Computing oder InfoWorld betonten regelmäßig, dass die Grafikleistung dem IBM PC klar überlegen war. Die Architektur des Systems erklärt die auffällig flexible Speicheraufteilung: Im Monochrommodus genügten 32 KB, während im Farbmodus drei planare Ebenen – Rot, Grün und Blau – parallel arbeiteten und damit 96 KB belegten (32 KB pro Ebene). Die Werbung stellte dies als selbstverständlich dar und betonte: „Graphics are built into every machine.“

Eher zwiespältig fiel die Rückmeldung zur Tastatur aus. Zwar bewarb NCR sie als „detachable low-profile keyboard“ und mit „advanced ergonomic design“, doch einige Tester der Zeit empfanden den Anschlag als weicher und weniger präzise als bei den mechanischen Tastaturen von IBM oder Cherry. Die Tastenform unterschied sich sichtbar vom Industrie­standard, und die zwanzig programmierbaren Funktionstasten, mit denen „boring repetitive tasks“ vermieden werden sollten, konnten für anspruchsvolle Vielschreiber nicht alle Kritikpunkte ausgleichen. Gleichwohl blieb die Tastatur voll funktionsfähig und entsprach in ihrer Verarbeitung den übrigen Qualitätsmerkmalen des Systems – sie war schlicht kein besonderes Highlight.

Die Softwareunterstützung war für ein nicht-IBM-kompatibles System ungewöhnlich breit: CP/M-80, CP/M-86 und – bei installiertem 8088-Modul – auch MS-DOS 2.11 standen zur Verfügung. Vollständige PC-Kompatibilität bestand zwar nicht, doch viele textorientierte Programme liefen problemlos, sofern sie BIOS-konform arbeiteten. Creative Computing nannte die damaligen gängigen Preise: Das 16-Bit-Upgrade kostete rund 500 Dollar, MS-DOS etwa 50 Dollar, CP/M-86 rund 60 Dollar und WordStar 495 Dollar. Eine typische, gut ausgestattete Konfiguration lag damit bei etwa 5.040 Dollar – inflationsbereinigt ungefähr 15.500 Dollar –, womit klar war, dass der Decision Mate V primär für professionelle Anwender gedacht war.

Auch in Deutschland bestätigte sich dieses Bild. Die Basisversion wurde zu etwa 7.350 DM angeboten, ein Wert, der in mehreren Anzeigen dieser Zeit genannt wird. Voll ausgebaute Systeme mit Festplatte, Farboption und erweitertem Speicher lagen deutlich höher; zeitgenössische Berichte sprechen von Preisen im Bereich gut ausgestatteter Bürorechner zwischen 18.000 und über 20.000 DM, je nach Händler und Konfiguration. NCR selbst hob in europäischen Anzeigen seine lange Unternehmensgeschichte hervor und unterstrich seinen Anspruch mit Slogans wie: „NCR has been making computers for as long as there have been computers.“ und „We’ve been doing business in Europe since 1885.“ Die Betonung auf Erfahrung, Technologie und Service zielte klar auf Unternehmen und Behörden, die eher Wert auf Zuverlässigkeit als auf die sich erst langsam etablierende IBM-PC-Kompatibilität legten.

Dass sich der Decision Mate V dennoch nicht dauerhaft behaupten konnte, lag weniger an seinen technischen Eigenschaften als an der rasanten Marktentwicklung ab 1983/84. Die IBM-PC-Kompatibilität setzte sich unaufhaltsam durch, und Hersteller mit proprietären Lösungen verloren zunehmend an Boden. NCR selbst stellte bald auf voll kompatible Systeme um. Der Decision Mate V bleibt jedoch ein beeindruckendes Beispiel jener Übergangszeit – ein Rechner, der, wie die Werbung vollmundig versprach, „A relationship you won’t outgrow.“ sein sollte und heute gerade wegen seiner Eigenständigkeit und konstruktiven Sorgfalt fasziniert.

 

Philips NMS 801

Philips NMS 801 – Der MSX, der keiner war

Philips NMS 801Als der Philips NMS 801 im Jahr 1989 auf dem italienischen Markt erschien, war die große MSX-Ära bereits Geschichte. Die Heimcomputerlandschaft befand sich im Wandel, und Philips versuchte, mit einem ungewöhnlichen Hybridgerät zwischen Konsole und Computer noch einmal Fuß zu fassen. Der NMS 801 war auf den ersten Blick ein vertrautes Mitglied der NMS-Familie – graues Kunststoffgehäuse, MSX-typische Formensprache – doch hinter der Fassade verbarg sich ein System, das nur vorgab, ein MSX zu sein.

Auf der Verpackung prangte stolz der Hinweis „MSX compatibile“, nicht das offizielle Logo. Ein feiner, aber bedeutender Unterschied: Der Rechner erfüllte die technischen Grundvoraussetzungen eines MSX1, ohne wirklich vollständig kompatibel zu sein. Sein Inneres zeigte einen Zilog Z80A-Prozessor (SGS Z8400AB1) mit 3,58 MHz, 64 Kilobyte RAM und 16 Kilobyte VRAM, verwaltet vom Texas Instruments TMS9129NL. Dazu kam ein klassischer dreistimmiger PSG-Soundchip, der das typische Zwitschern und Brummen jener Epoche lieferte. Auf dem Bildschirm erschienen 256 × 192 Pixel bei 16 Farben – solide, aber Standard. Doch entscheidende Merkmale eines echten MSX fehlten: kein Cartridge-Slot, kein Druckerport, keine Disketten-Schnittstelle. Der seitliche „Slot“ war nur ein Formelement im Gehäuse, die Platine darunter schlicht leer.

Der Rechner startete in MSX BASIC Version 3.0 – eine Überraschung, denn diese Firmware war eigentlich MSX2- und MSX2+-Systemen vorbehalten. Das führte zu einer merkwürdigen Situation: Der NMS 801 verstand Befehle, die er gar nicht ausführen konnte. Grafik- und Farbkommandos, die höhere Modi voraussetzten, wurden ignoriert, während das System sich weiterhin als „MSX BASIC 3.0“ meldete. Das war ebenso charmant wie widersprüchlich und machte den Computer zu einem kleinen Kuriosum: ein Gerät mit dem Selbstbewusstsein eines MSX2, aber den Fähigkeiten eines MSX1.

Noch widersprüchlicher war der Hinweis auf der Verpackung, der vollmundig „Compatible MSX-DOS“ versprach. Tatsächlich besaß der Rechner keinerlei Möglichkeit, ein Diskettenlaufwerk anzuschließen. Kein Bus, kein Port, keine Erweiterungsbuchse. Die einzige Datenschnittstelle war der Tape-Port auf der Rückseite, gedacht für den beigelegten Philips-Datenrekorder. Neben ihm fanden sich zwei Joystick-Ports, ein fest installiertes SCART-Kabel für Videoausgabe und ein HF-Ausgang für ältere Fernseher. Mehr brauchte es laut Philips auch nicht – schließlich sollte der NMS 801 kein Arbeitsgerät sein, sondern ein Unterhaltungsapparat für Wohnzimmer und Kinderzimmer.

Im Inneren verriet der Aufbau alles über diese Philosophie. Die Hauptplatine trug den Aufdruck CELINT Ltd. 1989 – Made in Italy. CPU, Videochip und Sound-PSG lagen dicht beieinander, gespeist von einer kleinen Tochterplatine für die Spannungsversorgung. Viele Boards trugen noch die ursprüngliche Kennzeichnung NMS 800, der Name 801 war nur ein nachträglicher Aufkleber. Auch im Handbuch wurde die Typnummer einfach überklebt – ein Sinnbild für die Pragmatik, mit der Philips das Modell aus bestehenden Teilen zusammenstellte.

Verkauft wurde der NMS 801 als Komplettpaket: Im Karton lagen ein Joystick, der Datenrekorder-Anschluss, das Handbuch und sechs Kassetten mit insgesamt 50 Spielen, die unter der Bezeichnung “Philips Game Pack” erschienen. Sie stammten von der britischen Firma Mr. Micro und vereinten Public-Domain- und BASIC-Programme, die bekannte Klassiker leicht verfremdet nachahmten. Auf einer Kassette fand sich Galactic Invaders, ein simpler Space Invaders-Klon mit Einzelschuss-Mechanik, auf einer anderen Frog River, unverkennbar eine Variation von Frogger. Brick Buster versuchte sich an Breakout, Labyrinth Run an Pac-Man, Tennis Match erinnerte an Pong, und Submarine Attack kopierte das Prinzip von Sea Wolf. Dazu gesellten sich Denkspiele, Reaktionsübungen und simple Abenteuer – meist in BASIC programmiert, langsam, aber charmant.

Diese Pseudoadaptionen besaßen zwar nicht den Glanz echter Konami- oder Compile-Titel, erfüllten aber ihren Zweck: Sie vermittelten Anfängern das Gefühl, sofort losspielen zu können. Ein italienisches Werbeblatt pries sie an mit den Worten:

„50 videogiochi pronti per divertirsi – come nei grandi computer!“
(„50 Videospiele, sofort spielbereit – wie auf den großen Computern!“)

Charmant übertrieben, gewiss, doch der Gedanke war ehrlich: ein Computer, der aus der Schachtel heraus Spaß machte, ohne Zusatzkäufe oder technische Kenntnisse. Damit zielte Philips auf eine Käuferschicht, die sich weder mit Erweiterungsslots noch mit Diskettenformaten befassen wollte.

Der Einführungspreis lag bei etwa 340 000 Lire, inflationsbereinigt rund 370 Euro oder 320 Pfund. Für ein Gerät ohne Erweiterbarkeit war das zu viel, um den Massenmarkt zu gewinnen, aber zu wenig, um ernsthafte Computerfans anzusprechen. Entsprechend leise verschwand der NMS 801 wieder vom Markt. In der Fachpresse fand er kaum Beachtung – nur in kleinen Händleranzeigen wurde er erwähnt, meist als „MSX-ähnlicher Lern- und Spielecomputer“.

Heute hat der NMS 801 seinen Platz als Sammlerstück und Kuriosität gefunden. Er ist das Sinnbild einer Übergangszeit: die späten Atemzüge der 8-Bit-Ära, in der große Hersteller ihre letzten Restbestände zu konsolenartigen Hybriden zusammenfügten. Sein BASIC 3.0 läuft noch immer, seine Kassetten quietschen nostalgisch – und wer Frog River spielt, lächelt wissend, denn er erkennt die Frösche aus dem Original. Der NMS 801 ist damit kein großer Computer, aber ein liebenswerter kleiner Schwindler: ein „MSX, der keiner war“.

 

Commodore Amiga A501

Commodore Amiga A501

Picture by: https://www.valoroso.it/en/commodore-501-battery-replacement/

Als Commodore 1987 die Speichererweiterung A501 für den Amiga 500 veröffentlichte, traf das Unternehmen einen Nerv der Zeit. Der Amiga 500 war bereits populär, doch viele Anwendungen stießen mit seinen 512 KB Chip RAM schnell an Grenzen. Mit der trapdoor-Erweiterung auf 1 MB Gesamt-RAM wurde der Rechner deutlich vielseitiger – und viele Programme erst richtig einsetzbar.

Die A501 bestand aus einer kompakten Platine mit 512 KB zusätzlichem RAM sowie einer integrierten Echtzeituhr (RTC) inklusive verlöteter Batterie. Eingesteckt wurde sie durch die Wartungsklappe an der Unterseite – ein unkompliziertes Upgrade, das ohne Kabel oder externe Module auskam. Für Heimanwender und ambitionierte Amiga-Fans war dies der klassische „Erwachsenwerden“-Moment ihres Systems.

Um den technischen Nutzen dieser Erweiterung wirklich zu verstehen, lohnt sich ein Blick auf die Speicherkategorie des Amiga-Systems. Commodore unterschied zwischen Chip RAM – vom Prozessor und den Custom Chips nutzbar – und Fast RAM, das nur der CPU zur Verfügung stand und daher echte Leistungszuwächse brachte. Zusätzlich existierte Slow RAM, technisch zwar Erweiterungsspeicher, aber über denselben Bus angeschlossen wie die Custom-Chips – und dementsprechend mit längeren Wartezyklen für die CPU verbunden.

Ein Experte brachte es einmal formvollendet auf den Punkt: „Fast memory is available exclusively for use by the CPU … the CPU is able to operate without being delayed if its instructions and data are in fast memory.“ („Fast-Speicher steht ausschließlich der CPU zur Verfügung … die CPU kann arbeiten, ohne ausgebremst zu werden, wenn ihre Anweisungen und Daten im Fast-Speicher liegen.“)

Damit wurde klar: Die A501 brachte mehr Speicher, aber nicht automatisch mehr Geschwindigkeit.

Besonders interessant ist die Einbindung der Erweiterung je nach Revision des Amiga-500-Mainboards. Frühere Revisionen (z. B. Rev. 5) nutzten die A501 standardmäßig als Slow RAM. Bei der Rev. 6A hingegen konnte die Speichererweiterung als Chip RAM erkannt werden – sofern ein kompatibler Agnus-Chip (z. B. 8372A/8375 für 1 MB Chip RAM) verbaut war und zwei Jumper angepasst wurden:

JP2 – Adress-Mapping für den Trapdoor-Speicher
JP7A – EXRAM-Signal-Routing am GARY-Chip

Ohne diese Modifikation blieb die A501 auch auf Rev. 6A weiterhin Slow RAM.
Das war ein technischer Kniff, den längst nicht jeder Amiga-Besitzer umsetzte – häufig blieb das Potenzial der A501 ungenutzt.

Ein Forumsnutzer kommentierte treffend: „On the A500, 2 MB in the trap door is not really worthwhile… the rest is Slow RAM.“ („Beim A500 lohnen sich 2 MB im Trapdoor-Slot nicht wirklich … der Rest ist Slow RAM.“)

Die A501 war somit vor allem eine Nutzbarkeitserweiterung, keine Geschwindigkeitskur. Anwendungen wie Deluxe Paint, Protracker, Textverarbeitung, komplexere Spiele oder sogar erste 3D-Experimente profitierten dennoch enorm: mehr Platz für Bitmaps, mehr Sample-Speicher, größere Buffers.

Auch die integrierte Echtzeituhr war ein Pluspunkt – besonders für professionelle Anwender. Allerdings sorgte die verlötete NiCd-Batterie dafür, dass viele A501-Module später durch auslaufende Akkus beschädigt wurden – ein heute bekanntes Restaurierungsproblem, das Retro-Techniker stets zuerst prüfen.

Heute ist die A501 nicht nur ein praktisches Upgrade, sondern ein wichtiges Kapitel Amiga-Geschichte: Sie steht für Erweiterbarkeit, für Nutzerfreundlichkeit – und für die besondere technische Raffinesse der Amiga-Architektur, in der Speicherdetails großen Unterschied machten.

Während andere Systeme in MB prahlten, zeigte die A501, dass 0,5 MB zur richtigen Zeit ganze Welten öffnen konnten. Sie war keine Speerspitze der Performance – aber ein Schlüssel zu mehr Kreativität, mehr Software und einem längeren Leben des Amiga 500.