WordStar – 1979 by MicroPro

WordStar – Als Tastaturkürzel König waren und DOS die Bühne hielt

Als Mikrocomputer Ende der siebziger Jahre zunehmend in Werkstätten, Büros und Hobbykellern auftauchten, wuchs der Wunsch nach einer Textverarbeitung, die ernsthafte Schreibarbeit ermöglichen konnte. Seymour I. Rubinstein, vormals bei IMSAI tätig, erkannte diese Lücke und gründete 1978 MicroPro International. Er engagierte den außergewöhnlich begabten Programmierer Rob Barnaby, der bereits zuvor systemnahe Editoren für CP/M entwickelt hatte und in Fachkreisen als jemand galt, der Programme eher aus der Perspektive der Maschine als jener des Anwenders dachte. Zeitgenossen beschrieben ihn als einen Entwickler, der keine Rücksicht auf konventionelle Benutzerführung nahm, sondern darauf vertraute, dass Menschen seine effiziente, aber anspruchsvolle Logik erlernen konnten. Ein Ausspruch, den frühere Kollegen Barnabys überlieferten, bringt dies gut auf den Punkt: „Rob wrote software for the computer, and expected people to keep up“ („Rob schrieb Software für den Computer und erwartete, dass die Menschen mithalten“).

Barnaby entwickelte WordStar zwischen 1978 und 1979 fast vollständig in handoptimiertem 8080-Assembler, und weil CP/M-Systeme nur 64 Kilobyte Arbeitsspeicher boten, entwarf er ein ausgeklügeltes Overlay-System, das Programmteile je nach Bedarf nachlud. Dass viele Terminals dieser Zeit keine Pfeiltasten besaßen, führte zu seinem berühmten Steuerungsdiamanten: Ctrl-S, Ctrl-E, Ctrl-D und Ctrl-X für die Bewegung des Cursors. Dieser Tastensatz wurde auf Dutzenden Plattformen übernommen und machte WordStar zu einem Werkzeug, das überall gleich funktionierte – ein Vorteil, den kein Konkurrent jener Zeit in diesem Umfang bieten konnte. Ein Nutzer erinnerte sich viele Jahre später: „Once you got the hang of the WordStar keystroke diamond it was magic to use“ („Wenn man den WordStar-Diamond einmal beherrschte, war er magisch zu benutzen“).

WordStar erschien im Juni 1979 zu einem Preis von 495 US-Dollar, inflationsbereinigt rund 1.300 Euro. Der Betrag war hoch, aber WordStar bot Funktionen, die seiner Zeit voraus waren: automatischer Zeilenumbruch, Seitenvorschau im Textmodus, Blockbearbeitung, Seriendruck, einfaches Makrosystem und eine sauber strukturierte Dokument- und Nicht-Dokument-Logik. Durch OEM-Bundles, insbesondere mit dem Osborne 1, verbreitete sich das Programm schnell. BYTE schrieb 1983 anerkennend: „without a doubt the best-known and probably the most widely used personal computer word-processing program“ („ohne Zweifel das bekannteste und wahrscheinlich am weitesten verbreitete Textverarbeitungsprogramm für Personal Computer“). ThoughtCo bezeichnet WordStar später als „the first commercially successful word-processing software program for microcomputers“ („die erste kommerziell erfolgreiche Textverarbeitungssoftware für Mikrocomputer“). Rubinstein sagte rückblickend: „WordStar was a tremendous learning experience. I didn’t know all that much about the world of big business“ („WordStar war eine gewaltige Lernerfahrung. Ich wusste nicht allzu viel über die Welt des großen Geschäfts“).

Intern verlief die Entwicklung allerdings unruhig. Der rapide wachsende Erfolg erforderte Teamarbeit, doch Barnabys ursprünglicher Quelltext war maschinennah, komplex und nur spärlich dokumentiert. Mehrere Entwickler mussten später Teile des Codes praktisch neu erschließen, als das Programm für MS-DOS und weitere Plattformen angepasst wurde. Trotz dieser Herausforderungen blieb WordStar über Jahre das dominierende Schreibwerkzeug auf CP/M und frühen DOS-Rechnern.

Die Fachpresse sah WordStar zugleich als mächtig und schwierig. PC Magazine sprach von einer „arrogant indifference to user feedback“ („arroganten Gleichgültigkeit gegenüber Nutzerfeedback“) und bezeichnete es dennoch als „the most powerful word processor available“ („die mächtigste verfügbare Textverarbeitung“). Diese doppelte Wahrnehmung fasst die Retroanalyse gut zusammen, die WordStar als „arrogant, difficult, powerful“ („arrogant, schwierig, mächtig“) einstuft. Die Lernkurve war steil, aber wer sie meisterte, schrieb schneller als mit jedem anderen Programm seiner Zeit.

Während WordStar Anfang der achtziger Jahre Marktführer war, gewann WordPerfect rasch an Boden. Ein zeitgenössischer Tester beschrieb WordPerfect als „more than full-featured“ („mehr als voll ausgestattet“) und betonte Funktionen, die in WordStar fehlten, insbesondere im Bereich Druckeransteuerung und Formatlogik. MicroPros Antwort, WordStar 2000, entfernte sich so weit vom bekannten Bedienkonzept, dass viele treue Nutzer es ablehnten; ein Tester spottete, es habe „all the charm of an elephant on motorized skates“ („den Charme eines Elefanten auf motorisierten Rollschuhen“).

Der Niedergang setzte sich in den frühen neunziger Jahren fort, bis MicroPro schließlich in anderen Firmenstrukturen aufging. Dennoch bleibt WordStar ein kulturelles Phänomen, das weit über seine technische Ära hinausstrahlt. Der Science-Fiction-Autor Robert J. Sawyer schrieb seine Werke bis in die 2010er-Jahre in WordStar 7 unter MS-DOS, und George R. R. Martin erklärte öffentlich, er nutze bis heute WordStar 4.0 auf einem vom Netz getrennten Rechner, weil moderne Programme ihn beim Schreiben störten. Sein Satz „I don’t want any help“ („Ich will keine Hilfe“) beschreibt treffend jene Schlichtheit, die viele Autoren auch Jahrzehnte später noch an WordStar schätzen.

Heute lebt WordStar in Emulationen wie DOSBox-X weiter, und seine Tastenkombinationen haben den Sprung in Unix-Editoren wie „jstar“ geschafft. WordStar ist damit eines der wenigen Textverarbeitungsprogramme, dessen Erbe nicht in Menüs oder Icons, sondern im Muskelgedächtnis seiner Nutzer fortbesteht. Es war nie das freundlichste Programm, aber eines der kraftvollsten – ein Werkzeug aus einer Ära, in der Software nicht dekoriert, sondern geschmiedet wurde, und in der Geschwindigkeit und Präzision den Ausschlag gaben.

Snake – 1997 by Nokia

Snake – Nicht von Nokia erfunden, aber von Nokia unsterblich gemacht

In einer Zeit, als das mobile Internet noch sündhaft teuer mit Dublonen oder der eigenen Seele bezahlt werden musste, war der Mobilfunknutzer auf wenige Möglichkeiten der Unterhaltung während der Busfahrt beschränkt, sofern er nicht immer wieder alte SMS sichten oder aber telefonieren wollte. Nokia hatte mit den Nutzern Mitleid und präsentierte ab 1997 Kurzweil – und diese Kurzweil hieß Snake. Preislich war Snake untrennbar mit dem Kauf eines Nokia-Handys verbunden – es war also faktisch kostenlos. Dass ein monochromes Display mit vier Richtungen und einer stetigen Bewegung der Schlange eine ganze Generation prägen würde, erwartete damals niemand. Doch das Spiel wurde auf über 350 Millionen Geräten ausgeliefert und damit zu einem der populärsten Titel der Welt, gespielt in Pausenhöfen, in U-Bahnen, in überlangen Schulstunden und in stillen Momenten, in denen das Telefon sonst nur Uhrzeit, Akku und die obligatorische SMS-Zahl anzeigte. Doch Nokia hatte das Spiel nicht erfunden.

Als digitale Spiele noch als mathematische Fingerübungen galten und Terminals nur ein paar blockige Zeichen darstellen konnten, entstanden die ersten Linien- und Labyrinthspiele, die später unter dem Namen Snake weltberühmt werden sollten. Unter frühen Bezeichnungen wie Worm, Blockade (Gremlin, 1976) oder Rattler lebte die Idee stets fort: Eine Linie bewegt sich kontinuierlich, wächst beim Einsammeln von Objekten, und der Spieler scheitert, wenn er die eigenen Segmente berührt. Die Mechanik war so elementar, dass sie auf Großrechnern, Homecomputern und später Taschenrechnern gleichermaßen funktionierte – ein Sinnbild für universelles Spieldesign.

Eine besondere Rolle spielte Nibbles.bas, jener kleine QBasic-Klassiker, den Microsoft tatsächlich als Bestandteil von MS-DOS 5.0 und 6.x mitlieferte. Er befindet sich korrekt im QBasic-Verzeichnis und war als Lernbeispiel für angehende Programmierer gedacht, entwickelte sich jedoch rasch zu einem der heimlichen Favoriten im Informatikunterricht. Zusammen mit Gorillas.bas war Nibbles die erste Berührung vieler junger Nutzer mit Code, den man öffnen, verändern und neu starten konnte – eine direkte, greifbare Form des Lernens, bei der man die Mechanik eines Spiels nicht nur sah, sondern begriff. Nibbles selbst setzte auf klar definierte Levelbegrenzungen und strukturierte Spiellogik und wurde dadurch zum Musterbeispiel für elegantes Minimaldesign.

Seine Faszination liegt in einer einfachen, aber brillanten Dynamik: Jeder Erfolg begrenzt den eigenen Raum. Je länger die Schlange, desto enger das Spielfeld, desto knapper die Entscheidungen. Der Spieler schafft sich seine eigene Falle Stück für Stück – und genau dieses stetige Schrumpfen der freien Fläche erzeugt einen Sog, der bis heute wirkt. Snake gehört zu den wenigen Spielen, die vollkommen ohne Ornament funktionieren; alles, was sichtbar ist, hat Bedeutung.

Varianten gibt es unzählige. Einige erhöhen automatisch das Tempo, andere setzen Hindernisse, wieder andere erlauben diagonale Bewegungen oder Mehrspielerduelle. Doch die ikonische Darstellung auf Nokia-Geräten – blockig, piepsend, unmissverständlich – gilt bis heute als die stilprägendste. Sie ist zu einem visuellen Archetyp aller mobilen Spiele geworden, ein Symbol einer Ära, in der man unterwegs spielte, ohne Apps, ohne App Stores, ohne Touchscreens, ja sogar ohne Farbbildschirm.

Online ist Snake nach wie vor fast überall spielbar. Zahlreiche Browser-Umsetzungen greifen die Optik der Nokia-Version auf, Emulatorseiten bieten Nibbles.bas als modifizierbare Originalfassung, und diverse Retroportale halten den minimalistischen Stil lebendig. Manche ältere YouTube-Player-Versionen kannten kleine Easter Eggs, doch diese Funktion ist inzwischen weitgehend verschwunden. Dennoch findet man spielbare Ableger praktisch überall, wo Pixel erlaubt sind.

In der Rückschau erscheint Snake als eines der reinsten Beispiele für zeitloses Spieldesign. Es ist universell verständlich, mechanisch transparent, sofort lernbar und mit jedem zusätzlichen Punkt spannender als zuvor. Gerade diese einfache Logik, die sich auf jedem System – ob Rechner, Handy oder Browser – nahezu unverändert umsetzen lässt, macht Snake zu einem jener Spiele, die nicht altern, sondern schlicht existieren.

Lode Runner – 1983 by Brøderbund Software

Lode Runner (1983) – Minimalismus, Spannung und 150 Wege in die Sucht

Lode Runner (1983) – Minimalismus, Spannung und 150 Wege in die Sucht

Als Anfang der Achtziger an amerikanischen Universitäten noch Lochkarten staubten und Großrechner im Neonflackern brummten, entstand ein Spiel, das mit radikaler Schlichtheit neue Maßstäbe setzte: Lode Runner. Seine Wurzeln liegen in ASCII-Prototypen wie Suicide auf dem Commodore PET, deren Engine bereits sauber getrennte Leveldaten nutzte. Auf einem Prime-550-Minicomputer entstand daraus das Spiel Kong, versteckt hinter dem Tarnbefehl graph. Zeitzeugen berichten, dass auf vielen Universitätsrechnern dieser Befehl zum inoffiziellen Geheimtipp wurde – eine kleine studentische Untergrundszene, die das Fundament legte. Douglas E. Smith übertrug das Konzept später auf den Apple II und entwickelte Miner, eine noch rohe Fassung mit ruckelnden Sprites und schwarz-weißer Optik. Doch das Fundament war gelegt: graben, fliehen, taktieren.

Smith schickte den Prototyp an mehrere Publisher. Broderbund bot den geringsten Vorschuss, aber die besten Royalties – eine Entscheidung, die sich später als Glücksgriff herausstellte. Der Verlag verlangte flüssige Animationen und 150 spielbare Levels. Mit dem eingebauten Editor gelang das nur, weil Freunde, Nachbarskinder und Studenten dutzende Bildschirme entwarfen; ein großer Teil der finalen Levels stammt aus dieser frühen „Volkswerkstatt“, lange bevor der Begriff „User Generated Content“ existierte.

Die Mechanik ist bis heute einzigartig reduziert und deshalb so klar: Der Spieler sammelt Gold, gräbt temporäre Löcher, trickst Wachen aus und nutzt sie manchmal als unfreiwillige Trittsteine. Feste Bildschirme, präzise Wege, missverständnisfrei lesbare Elemente – ein Baukasten, der wie Schach in Echtzeit funktioniert. Die Wachen agieren überraschend clever, sammeln sogar Gold ein, das sie beim Sturz in ein Loch wieder verlieren. Fehler im Timing können ein Level unlösbar machen, doch gerade diese Konsequenz macht den Reiz aus.

Die Apple-II-Version bleibt minimalistisch, einfarbig und beinahe asketisch. Der C64 fügt weichere Sprites und typischen SID-Sound hinzu, während der Atari-8-Bit technisch zwischen beiden liegt. CGA auf dem PC wirkt härter, aber spielmechanisch identisch. In Japan entstand eine zweite Identität: Hudson Softs Famicom-Version bot Scrollbewegungen, Musik, buntere Optik und einen funktionalen Editor, dessen Levels sich per Data Recorder speichern ließen. Irem brachte 1984 sogar eine Arcade-Fassung heraus – bemerkenswert, da hier eines der ersten amerikanischen Heimcomputerspiele zur Grundlage eines japanischen Arcade-Titels wurde.

Der Erfolg war unmittelbar und enorm. Lode Runner wurde schnell zu Broderbunds größtem Hit und verkaufte sich weltweit millionenfach, besonders in Japan. Für Smith bedeutete das hohe Royalties und den plötzlichen Sprung vom Studenten zum unerwartet wohlhabenden Designer eines minimalistischen Puzzle-Plattformers.

Zeitgenössische Magazine lobten die Mischung aus Denksport und Action. Softline nannte das Spiel 1983 „smooth, thoughtful, and quite addictive“ („flüssig, durchdacht und ziemlich süchtig machend“). Computer Gaming World bezeichnete es als „one of the few thinking men's arcade games“ („eines der wenigen Arcade-Spiele für denkende Spieler“). Zzap!64 attestierte der C64-Version: „graphically minuscule and aurally crude, the game's sheer addiction kept my eyes propped open until the owls went to bed“ („grafisch winzig und klanglich grob, aber so süchtig machend, dass ich wach blieb, bis die Eulen schlafen gingen“). Bei den 5th Arkie Awards wurde der Titel 1984 als „outstanding design“ und „irresistible“ ausgezeichnet. In späteren Rückblicken rangiert Lode Runner regelmäßig unter den wichtigsten Apple-II- und Puzzle-Spielen aller Zeiten.

In Deutschland lagen die Preise für die gängigen Heimcomputerfassungen typischerweise zwischen 39 und 59 DM, je nach Händler und System – inflationsbereinigt etwa 55–60 Euro. Spätere Ariolasoft-Budgetversionen („Hits!“) machten den Titel auch für Sparfüchse attraktiv, während die zahlreichen Ports und Varianten für eine beständige Präsenz in Regalen und Magazinen sorgten.

CP/M

CP/M: Die Vision eines Mannes, die zur Blaupause des PCs wurde

 

 

Gary Kildall war einer jener frühen Computerpioniere, die sich selbst kaum als solche betrachteten und dennoch eine ganze Ära prägten. Geboren 1942 in Seattle und später Professor an der Naval Postgraduate School in Monterey, galt er als technisch brillanter Kopf, der lieber experimentierte als sich mit geschäftlichen Formalitäten aufzuhalten. Zeitzeugen beschrieben ihn häufig als außergewöhnlich kreativ, aber nicht als jemanden, der sich besonders für harte Verhandlungen begeisterte – ein Charakterzug, der seine spätere Rolle in der Geschichte der Mikrocomputerindustrie mitprägte.

Seine Karriere begann bei Intel, wo er sich früh mit dem brandneuen 8080-Prozessor beschäftigte, dort die höhere Programmiersprache PL/M entwickelte und Werkzeuge schuf, die er später als „die ersten richtigen Werkzeuge des Mikrocomputerzeitalters“ bezeichnete. Diese Arbeit bildete die Grundlage für seine späteren Betriebssystemexperimente. Doch Intel interessierte sich wenig für eine eigene Betriebssystemlinie. Die Lücke nutzte Kildall – oder genauer gesagt: sie ließ sich durch seine Neugier schließen. Nach Feierabend experimentierte er zuhause mit Diskettencontrollern und schrieb ab 1973 an den ersten Fassungen dessen, was später CP/M werden sollte.

Für Laien lässt sich die Entstehung von CP/M leicht erklären: In den frühen 1970er-Jahren existierten Mikrocomputer meist nur als Prozessoren mit rudimentärer Software. Jeder Hersteller entwickelte eigene Lösungen, Programme ließen sich kaum übertragen, und ein gemeinsamer Standard war nicht in Sicht. CP/M war das erste wirklich weit verbreitete Mikrocomputer-Betriebssystem, das Ordnung in einen Markt brachte, der zuvor aus hunderten nicht miteinander kommunizierenden Inseln bestanden hatte. Es machte die frühen Rechner vergleichbar und erlaubte es, identische Programme auf völlig unterschiedlichen Maschinen zu nutzen. Was heute selbstverständlich ist – ein Betriebssystem, das Dateien verwaltet, den Startvorgang steuert und Programme lädt – war damals ein fundamentaler Fortschritt. Viele Historiker bezeichnen CP/M daher als das erste professionelle Betriebssystem der Personalcomputer-Ära.

CP/M entstand aus Kildalls Arbeit bei Intel, wo er PL/M entwickelte und Werkzeuge für den 8080 schrieb. Nach Feierabend experimentierte er zu Hause mit frühen Diskettensteuerungen und begann ab 1973 an der ersten Version zu arbeiten. Der entscheidende Schritt gelang ihm, als er eine effiziente Methode fand, Diskettenlaufwerke mit Mikroprozessoren anzusteuern – ein technisches Problem, das bis dahin als schwierig galt. Intel zeigte an einem eigenen Betriebssystem wenig Interesse, doch für Kildall war dies der Ausgangspunkt einer neuen Ära.

Gemeinsam mit seiner Frau Dorothy McEwen gründete er Digital Research, jene Firma, die CP/M kommerzialisierte und zur dominierenden Plattform der späten 1970er- und frühen 1980er-Jahre machte. Die Struktur von CP/M war ebenso einfach wie genial. Es bestand aus drei Komponenten: dem BIOS, das alle hardwarespezifischen Routinen enthielt; dem BDOS, der den Zugriff auf Dateien, Laufwerke und Systemdienste regelte; und dem CCP, dem Console Command Processor, der die Kommandozeile bereitstellte. Für Nichtfachleute lässt sich diese Architektur so beschreiben: Das BIOS sprach die Hardware, der BDOS bildete den Kern des Betriebssystems, und der CCP war die sichtbare Benutzerschnittstelle. Gerade diese klare Aufteilung machte CP/M extrem portierbar: Hersteller mussten lediglich ein eigenes BIOS schreiben, während der Rest unverändert blieb.

Die Arbeitsweise war einfach, aber effizient. Nach dem Einschalten erschien das bekannte „A>“-Prompt. Befehle wie DIR oder ERA wurden direkt ausgeführt, externe Programme lagen als .COM-Dateien vor und kehrten nach ihrem Ablauf wieder an das Betriebssystem zurück. Das Dateiformat mit acht Zeichen Dateiname und drei Zeichen Erweiterung, später als „8.3-Format“ bekannt, wanderte später direkt in MS-DOS. Ebenso die Laufwerksbuchstaben A:, B: und C:, die viele heute fälschlich ausschließlich mit Microsoft verbinden.

Wirtschaftlich war CP/M ein Meilenstein. Es gilt heute als das erste kommerziell erfolgreiche 8-Bit-Betriebssystem und lief auf mehreren hundert unterschiedlichen Computern – von North Star und Osborne über Kaypro bis zu Amstrad und zahlreichen industriellen Modellen. Konservative Schätzungen sprechen von über 300 Modellen, einige Archive nennen sogar zwischen 400 und 500, je nach Zählweise. Die enorme Verbreitung war möglich, weil CP/M erstmals portable Software ermöglichte: WordStar, dBASE II oder SuperCalc wurden zu industriellen Standards und prägten ganze Berufsgruppen. Wer CP/M unterstützte, konnte sofort auf einen großen Softwarepool zugreifen, was den Erfolg vieler Hersteller überhaupt erst ermöglichte.

Technisch lief CP/M üblicherweise auf Intel-8080- oder Zilog-Z80-Prozessoren mit 16 bis 64 KB RAM und einem oder zwei 5,25-Zoll-Diskettenlaufwerken. Spätere Versionen wie CP/M Plus (CP/M 3.0) unterstützten durch Bankswitching mehr Speicher und erweiterten den Funktionsumfang deutlich. Ein entscheidender Vorteil gegenüber proprietären Systemen wie Apple DOS oder dem TRS-80-Betriebssystem war die Offenheit: Hersteller konnten ihre Maschinen schnell CP/M-fähig machen, ohne selbst ein komplettes Betriebssystem entwickeln zu müssen.

Einer der am häufigsten diskutierten Momente der Computergeschichte ist die gescheiterte Verhandlung zwischen IBM und Digital Research über eine Lizenz für den IBM PC. Zeitgenössische Dokumente und mehrere Interviews – darunter Tom Rolander im Gespräch für die 1995 ausgestrahlte Folge „The Computer Chronicles: A Tribute to Gary Kildall“ – belegen, dass es zu Missverständnissen kam, teils durch juristische Unklarheiten, teils durch die ungewöhnlich hastig angesetzten Termine. IBM verließ das Treffen ohne Vertrag, Microsoft sprang ein, und MS-DOS wurde zum Standard der PC-Ära. Viele Historiker sehen darin den Punkt, an dem CP/M vom dominierenden System zum „verlorenen Standard“ wurde.

Preislich bewegte sich CP/M in einem Bereich, der je nach Lizenzmodell und Jahr variierte. Typische OEM-Lizenzen lagen zwischen 70 und 100 US-Dollar, was inflationsbereinigt etwa 230–330 US-Dollar im Jahr 2025 entspricht. Umfangreichere Produkte wie CP/M-86 kosteten als Einzelversion zwischen 250 und 400 US-Dollar, inflationsbereinigt ungefähr 780–1250 US-Dollar. Für kleine Firmen und Privatanwender waren dies spürbare Summen, doch angesichts der Stabilität und Portabilität erhielten sie erstmals eine professionelle Softwareumgebung.

Die Nachfolger von CP/M waren ehrgeizig: MP/M brachte Multitasking auf Mikrocomputer, CP/M-86 leitete den Übergang in die 16-Bit-Welt ein, und DR-DOS wurde später zum direkten Konkurrenten von MS-DOS. Doch der Markt hatte sich längst zugunsten der IBM-PC-Kompatibilität entschieden. Was blieb, war ein technisches Fundament, dessen Konzepte – das BIOS-Modell, das 8.3-Dateiformat und die Kommandozeilenarchitektur – in vielen Systemen bis heute weiterleben.

Damit steht CP/M als Monument einer Zeit, in der Mikrocomputer noch wagemutige Experimente waren und jeder Fortschritt eine ganze Branche verändern konnte. Ohne CP/M hätte die junge Personalcomputerwelt keinen einheitlichen Standard besessen – und ohne Gary Kildall wäre diese entscheidende Weiche nie gestellt worden. Er schrieb die Regeln einer Industrie, ohne je das Bedürfnis zu verspüren, sie anderen aufzuzwingen. Genau darin liegt sein Vermächtnis.

 

NCR Decision Mate V

Zwei Prozessoren, eine Mission: Der erstaunliche NCR Decision Mate V

Der Rechner basierte in der Grundversion auf einem Zilog Z80A, konnte jedoch durch ein optionales Intel-8088-Modul zu einem echten Dualprozessor-System erweitert werden. Einige Konfigurationen wurden bereits ab Werk mit dieser Erweiterung ausgeliefert, ein Umstand, den die Werbung ausdrücklich hervorhob und mit Formulierungen wie „You shouldn’t have to choose between 8-bit and 16-bit operating systems.“ sowie „With our dual processing system you can have the benefits of both.“ unterstrich. Diese modulare Architektur stützte sich auf eine proprietäre Backplane mit sieben Steckplätzen, wie es auch Prospekte und technische Unterlagen zeigen, und war typisch für die modulare NCR-Philosophie jener Zeit.

Zum Standardumfang gehörten zwei 5,25-Zoll-DS/DD-Diskettenlaufwerke, die optional durch eine 10-MB-Winchesterfestplatte ergänzt werden konnten. Die kompakte Bauweise mit integriertem 12-Zoll-Monitor verlieh dem Gerät eine professionelle Erscheinung, die sich bewusst von den damals üblichen, eher kastenförmigen IBM-PC-Konfigurationen unterschied. In Anzeigen wurde dieser Ansatz emotionalisiert: „The personal computer with a heart.“ und „We designed it with a heart.“ waren Slogans, die den Anspruch unterstreichen sollten, ein durchdachtes, langlebiges System zu liefern.

Eine der stärksten Eigenschaften des Systems lag im Grafikbereich. Der verbaute NEC µPD7220 gehörte zu den fortschrittlichsten Grafikprozessoren seiner Zeit und war auch in deutlich teureren Maschinen wie dem NEC APC III oder frühen CAD-Workstations zu finden. Zeitgenössische Tests wie Creative Computing oder InfoWorld betonten regelmäßig, dass die Grafikleistung dem IBM PC klar überlegen war. Die Architektur des Systems erklärt die auffällig flexible Speicheraufteilung: Im Monochrommodus genügten 32 KB, während im Farbmodus drei planare Ebenen – Rot, Grün und Blau – parallel arbeiteten und damit 96 KB belegten (32 KB pro Ebene). Die Werbung stellte dies als selbstverständlich dar und betonte: „Graphics are built into every machine.“

Eher zwiespältig fiel die Rückmeldung zur Tastatur aus. Zwar bewarb NCR sie als „detachable low-profile keyboard“ und mit „advanced ergonomic design“, doch einige Tester der Zeit empfanden den Anschlag als weicher und weniger präzise als bei den mechanischen Tastaturen von IBM oder Cherry. Die Tastenform unterschied sich sichtbar vom Industrie­standard, und die zwanzig programmierbaren Funktionstasten, mit denen „boring repetitive tasks“ vermieden werden sollten, konnten für anspruchsvolle Vielschreiber nicht alle Kritikpunkte ausgleichen. Gleichwohl blieb die Tastatur voll funktionsfähig und entsprach in ihrer Verarbeitung den übrigen Qualitätsmerkmalen des Systems – sie war schlicht kein besonderes Highlight.

Die Softwareunterstützung war für ein nicht-IBM-kompatibles System ungewöhnlich breit: CP/M-80, CP/M-86 und – bei installiertem 8088-Modul – auch MS-DOS 2.11 standen zur Verfügung. Vollständige PC-Kompatibilität bestand zwar nicht, doch viele textorientierte Programme liefen problemlos, sofern sie BIOS-konform arbeiteten. Creative Computing nannte die damaligen gängigen Preise: Das 16-Bit-Upgrade kostete rund 500 Dollar, MS-DOS etwa 50 Dollar, CP/M-86 rund 60 Dollar und WordStar 495 Dollar. Eine typische, gut ausgestattete Konfiguration lag damit bei etwa 5.040 Dollar – inflationsbereinigt ungefähr 15.500 Dollar –, womit klar war, dass der Decision Mate V primär für professionelle Anwender gedacht war.

Auch in Deutschland bestätigte sich dieses Bild. Die Basisversion wurde zu etwa 7.350 DM angeboten, ein Wert, der in mehreren Anzeigen dieser Zeit genannt wird. Voll ausgebaute Systeme mit Festplatte, Farboption und erweitertem Speicher lagen deutlich höher; zeitgenössische Berichte sprechen von Preisen im Bereich gut ausgestatteter Bürorechner zwischen 18.000 und über 20.000 DM, je nach Händler und Konfiguration. NCR selbst hob in europäischen Anzeigen seine lange Unternehmensgeschichte hervor und unterstrich seinen Anspruch mit Slogans wie: „NCR has been making computers for as long as there have been computers.“ und „We’ve been doing business in Europe since 1885.“ Die Betonung auf Erfahrung, Technologie und Service zielte klar auf Unternehmen und Behörden, die eher Wert auf Zuverlässigkeit als auf die sich erst langsam etablierende IBM-PC-Kompatibilität legten.

Dass sich der Decision Mate V dennoch nicht dauerhaft behaupten konnte, lag weniger an seinen technischen Eigenschaften als an der rasanten Marktentwicklung ab 1983/84. Die IBM-PC-Kompatibilität setzte sich unaufhaltsam durch, und Hersteller mit proprietären Lösungen verloren zunehmend an Boden. NCR selbst stellte bald auf voll kompatible Systeme um. Der Decision Mate V bleibt jedoch ein beeindruckendes Beispiel jener Übergangszeit – ein Rechner, der, wie die Werbung vollmundig versprach, „A relationship you won’t outgrow.“ sein sollte und heute gerade wegen seiner Eigenständigkeit und konstruktiven Sorgfalt fasziniert.

 

Philips NMS 801

Philips NMS 801 – Der MSX, der keiner war

Philips NMS 801Als der Philips NMS 801 im Jahr 1989 auf dem italienischen Markt erschien, war die große MSX-Ära bereits Geschichte. Die Heimcomputerlandschaft befand sich im Wandel, und Philips versuchte, mit einem ungewöhnlichen Hybridgerät zwischen Konsole und Computer noch einmal Fuß zu fassen. Der NMS 801 war auf den ersten Blick ein vertrautes Mitglied der NMS-Familie – graues Kunststoffgehäuse, MSX-typische Formensprache – doch hinter der Fassade verbarg sich ein System, das nur vorgab, ein MSX zu sein.

Auf der Verpackung prangte stolz der Hinweis „MSX compatibile“, nicht das offizielle Logo. Ein feiner, aber bedeutender Unterschied: Der Rechner erfüllte die technischen Grundvoraussetzungen eines MSX1, ohne wirklich vollständig kompatibel zu sein. Sein Inneres zeigte einen Zilog Z80A-Prozessor (SGS Z8400AB1) mit 3,58 MHz, 64 Kilobyte RAM und 16 Kilobyte VRAM, verwaltet vom Texas Instruments TMS9129NL. Dazu kam ein klassischer dreistimmiger PSG-Soundchip, der das typische Zwitschern und Brummen jener Epoche lieferte. Auf dem Bildschirm erschienen 256 × 192 Pixel bei 16 Farben – solide, aber Standard. Doch entscheidende Merkmale eines echten MSX fehlten: kein Cartridge-Slot, kein Druckerport, keine Disketten-Schnittstelle. Der seitliche „Slot“ war nur ein Formelement im Gehäuse, die Platine darunter schlicht leer.

Der Rechner startete in MSX BASIC Version 3.0 – eine Überraschung, denn diese Firmware war eigentlich MSX2- und MSX2+-Systemen vorbehalten. Das führte zu einer merkwürdigen Situation: Der NMS 801 verstand Befehle, die er gar nicht ausführen konnte. Grafik- und Farbkommandos, die höhere Modi voraussetzten, wurden ignoriert, während das System sich weiterhin als „MSX BASIC 3.0“ meldete. Das war ebenso charmant wie widersprüchlich und machte den Computer zu einem kleinen Kuriosum: ein Gerät mit dem Selbstbewusstsein eines MSX2, aber den Fähigkeiten eines MSX1.

Noch widersprüchlicher war der Hinweis auf der Verpackung, der vollmundig „Compatible MSX-DOS“ versprach. Tatsächlich besaß der Rechner keinerlei Möglichkeit, ein Diskettenlaufwerk anzuschließen. Kein Bus, kein Port, keine Erweiterungsbuchse. Die einzige Datenschnittstelle war der Tape-Port auf der Rückseite, gedacht für den beigelegten Philips-Datenrekorder. Neben ihm fanden sich zwei Joystick-Ports, ein fest installiertes SCART-Kabel für Videoausgabe und ein HF-Ausgang für ältere Fernseher. Mehr brauchte es laut Philips auch nicht – schließlich sollte der NMS 801 kein Arbeitsgerät sein, sondern ein Unterhaltungsapparat für Wohnzimmer und Kinderzimmer.

Im Inneren verriet der Aufbau alles über diese Philosophie. Die Hauptplatine trug den Aufdruck CELINT Ltd. 1989 – Made in Italy. CPU, Videochip und Sound-PSG lagen dicht beieinander, gespeist von einer kleinen Tochterplatine für die Spannungsversorgung. Viele Boards trugen noch die ursprüngliche Kennzeichnung NMS 800, der Name 801 war nur ein nachträglicher Aufkleber. Auch im Handbuch wurde die Typnummer einfach überklebt – ein Sinnbild für die Pragmatik, mit der Philips das Modell aus bestehenden Teilen zusammenstellte.

Verkauft wurde der NMS 801 als Komplettpaket: Im Karton lagen ein Joystick, der Datenrekorder-Anschluss, das Handbuch und sechs Kassetten mit insgesamt 50 Spielen, die unter der Bezeichnung “Philips Game Pack” erschienen. Sie stammten von der britischen Firma Mr. Micro und vereinten Public-Domain- und BASIC-Programme, die bekannte Klassiker leicht verfremdet nachahmten. Auf einer Kassette fand sich Galactic Invaders, ein simpler Space Invaders-Klon mit Einzelschuss-Mechanik, auf einer anderen Frog River, unverkennbar eine Variation von Frogger. Brick Buster versuchte sich an Breakout, Labyrinth Run an Pac-Man, Tennis Match erinnerte an Pong, und Submarine Attack kopierte das Prinzip von Sea Wolf. Dazu gesellten sich Denkspiele, Reaktionsübungen und simple Abenteuer – meist in BASIC programmiert, langsam, aber charmant.

Diese Pseudoadaptionen besaßen zwar nicht den Glanz echter Konami- oder Compile-Titel, erfüllten aber ihren Zweck: Sie vermittelten Anfängern das Gefühl, sofort losspielen zu können. Ein italienisches Werbeblatt pries sie an mit den Worten:

„50 videogiochi pronti per divertirsi – come nei grandi computer!“
(„50 Videospiele, sofort spielbereit – wie auf den großen Computern!“)

Charmant übertrieben, gewiss, doch der Gedanke war ehrlich: ein Computer, der aus der Schachtel heraus Spaß machte, ohne Zusatzkäufe oder technische Kenntnisse. Damit zielte Philips auf eine Käuferschicht, die sich weder mit Erweiterungsslots noch mit Diskettenformaten befassen wollte.

Der Einführungspreis lag bei etwa 340 000 Lire, inflationsbereinigt rund 370 Euro oder 320 Pfund. Für ein Gerät ohne Erweiterbarkeit war das zu viel, um den Massenmarkt zu gewinnen, aber zu wenig, um ernsthafte Computerfans anzusprechen. Entsprechend leise verschwand der NMS 801 wieder vom Markt. In der Fachpresse fand er kaum Beachtung – nur in kleinen Händleranzeigen wurde er erwähnt, meist als „MSX-ähnlicher Lern- und Spielecomputer“.

Heute hat der NMS 801 seinen Platz als Sammlerstück und Kuriosität gefunden. Er ist das Sinnbild einer Übergangszeit: die späten Atemzüge der 8-Bit-Ära, in der große Hersteller ihre letzten Restbestände zu konsolenartigen Hybriden zusammenfügten. Sein BASIC 3.0 läuft noch immer, seine Kassetten quietschen nostalgisch – und wer Frog River spielt, lächelt wissend, denn er erkennt die Frösche aus dem Original. Der NMS 801 ist damit kein großer Computer, aber ein liebenswerter kleiner Schwindler: ein „MSX, der keiner war“.

 

Commodore Amiga A501

Commodore Amiga A501

Picture by: https://www.valoroso.it/en/commodore-501-battery-replacement/

Als Commodore 1987 die Speichererweiterung A501 für den Amiga 500 veröffentlichte, traf das Unternehmen einen Nerv der Zeit. Der Amiga 500 war bereits populär, doch viele Anwendungen stießen mit seinen 512 KB Chip RAM schnell an Grenzen. Mit der trapdoor-Erweiterung auf 1 MB Gesamt-RAM wurde der Rechner deutlich vielseitiger – und viele Programme erst richtig einsetzbar.

Die A501 bestand aus einer kompakten Platine mit 512 KB zusätzlichem RAM sowie einer integrierten Echtzeituhr (RTC) inklusive verlöteter Batterie. Eingesteckt wurde sie durch die Wartungsklappe an der Unterseite – ein unkompliziertes Upgrade, das ohne Kabel oder externe Module auskam. Für Heimanwender und ambitionierte Amiga-Fans war dies der klassische „Erwachsenwerden“-Moment ihres Systems.

Um den technischen Nutzen dieser Erweiterung wirklich zu verstehen, lohnt sich ein Blick auf die Speicherkategorie des Amiga-Systems. Commodore unterschied zwischen Chip RAM – vom Prozessor und den Custom Chips nutzbar – und Fast RAM, das nur der CPU zur Verfügung stand und daher echte Leistungszuwächse brachte. Zusätzlich existierte Slow RAM, technisch zwar Erweiterungsspeicher, aber über denselben Bus angeschlossen wie die Custom-Chips – und dementsprechend mit längeren Wartezyklen für die CPU verbunden.

Ein Experte brachte es einmal formvollendet auf den Punkt: „Fast memory is available exclusively for use by the CPU … the CPU is able to operate without being delayed if its instructions and data are in fast memory.“ („Fast-Speicher steht ausschließlich der CPU zur Verfügung … die CPU kann arbeiten, ohne ausgebremst zu werden, wenn ihre Anweisungen und Daten im Fast-Speicher liegen.“)

Damit wurde klar: Die A501 brachte mehr Speicher, aber nicht automatisch mehr Geschwindigkeit.

Besonders interessant ist die Einbindung der Erweiterung je nach Revision des Amiga-500-Mainboards. Frühere Revisionen (z. B. Rev. 5) nutzten die A501 standardmäßig als Slow RAM. Bei der Rev. 6A hingegen konnte die Speichererweiterung als Chip RAM erkannt werden – sofern ein kompatibler Agnus-Chip (z. B. 8372A/8375 für 1 MB Chip RAM) verbaut war und zwei Jumper angepasst wurden:

JP2 – Adress-Mapping für den Trapdoor-Speicher
JP7A – EXRAM-Signal-Routing am GARY-Chip

Ohne diese Modifikation blieb die A501 auch auf Rev. 6A weiterhin Slow RAM.
Das war ein technischer Kniff, den längst nicht jeder Amiga-Besitzer umsetzte – häufig blieb das Potenzial der A501 ungenutzt.

Ein Forumsnutzer kommentierte treffend: „On the A500, 2 MB in the trap door is not really worthwhile… the rest is Slow RAM.“ („Beim A500 lohnen sich 2 MB im Trapdoor-Slot nicht wirklich … der Rest ist Slow RAM.“)

Die A501 war somit vor allem eine Nutzbarkeitserweiterung, keine Geschwindigkeitskur. Anwendungen wie Deluxe Paint, Protracker, Textverarbeitung, komplexere Spiele oder sogar erste 3D-Experimente profitierten dennoch enorm: mehr Platz für Bitmaps, mehr Sample-Speicher, größere Buffers.

Auch die integrierte Echtzeituhr war ein Pluspunkt – besonders für professionelle Anwender. Allerdings sorgte die verlötete NiCd-Batterie dafür, dass viele A501-Module später durch auslaufende Akkus beschädigt wurden – ein heute bekanntes Restaurierungsproblem, das Retro-Techniker stets zuerst prüfen.

Heute ist die A501 nicht nur ein praktisches Upgrade, sondern ein wichtiges Kapitel Amiga-Geschichte: Sie steht für Erweiterbarkeit, für Nutzerfreundlichkeit – und für die besondere technische Raffinesse der Amiga-Architektur, in der Speicherdetails großen Unterschied machten.

Während andere Systeme in MB prahlten, zeigte die A501, dass 0,5 MB zur richtigen Zeit ganze Welten öffnen konnten. Sie war keine Speerspitze der Performance – aber ein Schlüssel zu mehr Kreativität, mehr Software und einem längeren Leben des Amiga 500.

Cromemco C-10

Cromemco C-10

Wenn man in der frühen PC-Geschichte nach jenen Maschinen sucht, die nicht wegen bunter Grafik oder Arcade-Ambitionen glänzten, sondern wegen ihrer Zuverlässigkeit, dann taucht der Cromemco C-10 schnell als ein Vertreter dieser stillen Klasse auf. Ein Rechner, der 1982 den persönlichen Computer als professionelles Werkzeug definierte – in einer Zeit, als viele andere Systeme noch zwischen Heimcomputer-Spaß und ernsthaften Anwendungen schwankten.

Die Geschichte beginnt an der Stanford University: In Crothers Memorial Hall lernten sich zwei junge Forscher kennen – Dr. Harry Garland und Dr. Roger Melen. Sie gründeten eine Partnerschaft, die sie schlicht nach ihrem Wohnheim benannten: Cromemco. Anders als viele Konkurrenten setzten sie nicht auf Investorengelder oder spekulatives Wachstum. Garland und Melen blieben über die gesamte Firmenlaufzeit alleinige Anteilseigner und finanzierten jede Weiterentwicklung aus eigenen Mitteln. Das Ergebnis war eine Firma, die lieber solide baute, als großspurig zu versprechen.

Bevor Cromemco Personalcomputer entwickelte, machte sich das Unternehmen mit zwei heute fast legendären Erweiterungen für frühe Mikrocomputer einen Namen: der Cyclops-Digitalkamera und der Dazzler-Grafikkarte. Damit richtete sich Cromemco zuerst an wissenschaftliche und industrielle Anwender – anspruchsvoll, zahlungskräftig, und weit entfernt von Heimcomputerspielen. Diese DNA blieb erhalten, als man 1982 einen neuen Weg einschlug und den C-10 vorstellte.

Im Inneren arbeitete ein Zilog Z-80A mit 4 MHz, ein echter Leistungsstandard des professionellen CP/M-Sektors. Dazu kamen 64 KB RAM und 24 KB ROM, letzteres mit Systemroutinen und Selbsttests gefüllt. Der 12-Zoll-Monochrom-Monitor war direkt ins Gehäuse integriert und bot ein klares 80×25-Textbild – perfekt für Tabellen, Texte und geschäftliche Software. Ein einfaches akustisches Signalgerät („Beeper“) übernahm die Tonwiedergabe, denn Klangspielereien waren hier überflüssig. Das Dateisystem wurde über ein externes 5,25-Zoll-Diskettenlaufwerk mit 390 KB Kapazität gespeist, ein zweites ließ sich optional anschließen. Die 61-Tasten-Tastatur war auf stundenlange Nutzung ausgelegt: Vollhub statt Gummimembran, Produktivität statt Spielerei.

Als Betriebssystem stand CDOS bereit – eine CP/M-kompatible Umgebung, die zahlreiche etablierte Anwendungen unterstützte. Textverarbeitung, Datenbanken, Kalkulationsprogramme: Wer 1982 in einem Büro ernsthaft arbeiten wollte, bekam hier alles Nötige. Dass der C-10 keinen Grafikmodus bot, war kein Versehen. Es war ein Statement. Dieses System sollte rechnen, verwalten, steuern – und das mit höchster Verlässlichkeit.

Eine zeitgenössische Produktunterlage versprach: „The C-10’s high-quality construction, continual self-testing and proven design assure that it will perform faithfully year after year.“ („Die hochwertige Konstruktion, fortlaufende Selbsttests und bewährte Architektur stellen sicher, dass er Jahr für Jahr zuverlässig arbeiten wird.“)

Diese Worte waren keine Übertreibung. Cromemco-Systeme wurden als erste kommerzielle Mikrocomputer von der US-Navy für Schiffe und für U-Boote der Ohio-Klasse zertifiziert. Wo Bedingungen extrem, Überwachungssituationen kritisch und Platz begrenzt waren, vertraute man Cromemco. Es ist bemerkenswert, dass ausgerechnet ein vermeintlich unscheinbarer PC-Hersteller den Sprung in solche Sicherheitsbereiche schaffte.

Auch amerikanische TV-Studios wurden zum wichtigen Nutzungsfeld – allerdings nicht wegen bunter Computerbilder. Der C-10 agierte dort als zentrale Steuer- und Datenverarbeitungseinheit für spezialisierte Grafiksysteme. Cromemco konnte auf seine Dazzler-Historie bauen, und in einem Verbund aus Software und Zusatzhardware entstanden Wetter- und Nachrichtengrafiken, die täglich auf Sendung gingen. Nicht der C-10 selbst zeichnete die Symbole, aber ohne ihn wäre die Grafik nicht dort erschienen, wo sie hinsollte.

Der Preis des Systems lag bei 1.785 US-Dollar. Inflationsbereinigt entspricht das rund 6.000 US-Dollar – ein klares Signal: Der C-10 war kein Heimcomputer, sondern ein professionelles Arbeitsgerät für anspruchsvolle Kunden. Wer ihn kaufte, wusste, dass Stabilität wichtiger war als Spielspaß.

Cromemco wuchs in dieser Phase rasant, ohne die Firmenphilosophie zu verraten. 1986 nutzten bereits über 80 % der großen US-Fernsehstationen Cromemco-Technik im Produktionsalltag. Ein stiller Erfolg über viele Jahre – mit dem Höhepunkt 1987, als das Unternehmen an Dynatech verkauft wurde. Die Marke verschwand später vom Massenmarkt, doch ihr technologisches Erbe findet sich noch lange in spezialisierten Systemen wieder.

Heute ist der C-10 ein interessantes Sammlerstück, nicht wegen einer besonderen Kultwirkung, sondern wegen seiner Rolle in der Evolution des Personalcomputers. Er steht für die Phase, in der PCs erstmals ernsthaft als Arbeitswerkzeuge wahrgenommen wurden. Keine Ikone der Popkultur – aber eine Ikone der Professionalisierung.

Und manchmal sind es genau diese Systeme, die im Nachhinein zeigen, wohin die Reise wirklich ging.

Buggy Boy – 1985 by Tatsumi

Flagge zeigen! Buggy Boy und der Offroad-Rausch

Buggy Boy CoverIn den Spielhallen von 1985 gab es nicht viele Rennspiele, die gleich beim Anschalten so deutlich sagten: „Ich bin größer als dein Fernseher zu Hause.“ Buggy Boy, entwickelt von Tatsumi Electronics, setzte genau dieses Statement — im wahrsten Sinne dreifach. Die Deluxe-Variante des Automaten nutzte drei nebeneinander angeordnete Monitore für eine Panorama-Sicht, die selbst in der Epoche prächtiger Röhren eine Seltenheit war. Der technische Unterbau: zwei Intel-8086-CPUs für Grafik & Spielablauf, ein Z80 als Sound-Prozessor, flankiert von zwei AY-3-8910-Soundchips, die für dieses prägnant fröhliche Offroad-Gezwitscher verantwortlich waren. Die Auflösung variierte je nach Kabinett, typisch rund 512×224 Pixel, und war schnell genug, um üppig scrollende Rennlandschaften darzustellen. Sprünge über Baumstämme, Banden, Tore und aufblinkende Flaggen ließen das Fahrgefühl hektisch, aber stets nachvollziehbar wirken — Arcade-Physik at its finest.

Die Geschichte? Nun — stellen wir uns einfach vor, dass der Buggy selbst der Held ist. Buggy Boy braucht kein Narrativ, das darüber hinausgeht, dass wir alle einmal über eine Holzrampe fliegen wollen, während ein Publikum uns anfeuert. Die fünf Strecken (Offroad – ein Rundkurs – sowie die Punkt-zu-Punkt-Himmelsrichtungen Nord, Süd, Ost, West) setzen auf eine reine „ein Leben, eine Chance“-Mechanik. Nur Zeitboni durch Tore oder extra Punkte durch waghalsiges Zwei-Räder-Fahren halten das Abenteuer am Leben. Und genauso schnell endet es auch — wie 50 Pfennig in einer deutschen Spielhalle.

Die Entwickler bei Tatsumi nahmen technisch das auf, was sie mit dem Vorgänger TX-1 begonnen hatten: Panorama-Hardware als Spielgefühl, nicht nur als Grafikgimmick. Namen sind aus der Zeit durch fehlende Arcade-Credits nicht eindeutig überliefert, aber mehrere Teammitglieder wanderten später zu Titeln wie Cycle Warriors weiter und behielten ihre Liebe zu außergewöhnlichen Fahrperspektiven. Esist gut erkennbar, dass Buggy Boy als Weiterentwicklung einer Vision entstand: Racing nicht als Simulation, sondern als Fun-Maschine.

Die Heimversionen erzielten dann kleine technische Wunder — besonders auf dem Commodore 64, der eigentlich keine Panoramaberge gewohnt war. Dennoch gelang eine Version, die legendär wurde. ZZap!64 urteilte: „The graphics are absolutely superb — I’ve never seen such a smooth and realistic 3D effect, and the ‘feel’ of the control method is tremendous.“
(„Die Grafik ist absolut hervorragend — so einen weichen und realistischen 3D-Effekt habe ich noch nie gesehen, und das Steuerungsgefühl ist großartig.“)

Bei einem damaligen Preis von etwa £25–30 (entspräche ca. £65–70 heute) wurde hier echtes Arcade-Adrenalin ins Wohnzimmer getragen — ohne dass jemand dafür drei Monitore stapeln musste. Die Amiga- und ST-Versionen gaben mehr Farbe und ruhigeres Scrolling, aber verloren naturgemäß die technische Extravaganz der Automatenhardware. ZX Spectrum und Amstrad CPC kämpften mit reduzierten Bildschirmen und Detailstufen, doch blieben fairste Übersetzungen des Originals: Offroad-Staub zum Anfassen – nur etwas kompakter.

Heute, in der Rückschau, wirkt Buggy Boy wie der charmant freche Cousin der großen Rennspiel-Ikonen: weniger Autobahn-Eleganz, dafür ungezähmte Holperpiste. Ein Spiel, das beweist, dass Spaß nicht größer sein muss als ein kristallklarer Plot — sondern schneller als die Schwerkraft und lauter als zwei AY-Chips auf Touren.

First Samurai – 1991 by Image Works

Erster Schlag des Samurai – Vivid Image schickt uns 1991 auf pixelige Ehrenmission

First Samurai CoverIn einer stillen Stunde des alten Japan fällt der Dämonenkönig über Meister und Schüler her; der Meister sinkt, der junge Krieger schwört Rache und jagt den Feind durch Raum und Zeit. First Samurai übersetzt diese klassische Racheballade in einen Seitenläufer, der Prügeleien, Plattform-Wege und kleine Rätselschleusen verbindet: Faust und Fuß, dann das funkelnde Katana, dazu Wurfäxte und Messer; verliert der Held zu viel Kraft, verliert er sein Schwert – eine elegante Dramaturgie, die in zeitgenössischen Tests als besonderer Spannungshebel hervorgehoben wurde. Die britische Presse war früh begeistert: “From the opening sequence to the final battle, this game drips quality.” („Von der Eröffnungssequenz bis zur letzten Schlacht trieft dieses Spiel vor Qualität.“) schrieb Amiga Power und vergab 91 %. Kurz darauf urteilte Amiga Format: “Gameplay, good coding and gloss. The total arcade package in one game.” („Gameplay, gutes Coding und Glanz. Das komplette Arcade-Paket in einem Spiel.“) – ebenfalls 91 %.

Im deutschsprachigen Raum mochte man vor allem Technik, Farbenreichtum und das Parallax-Scrollen. Amiga Joker brachte es 1/92 schnörkellos auf den Punkt: „First Samurai zur Zeit die ultimative Asien-Prügelei!“ und kam in der Endnote auf 82 % (Grafik 88, Sound 87, Steuerung 78, Dauerspaß 82). CU Amiga hielt parallel drüben auf der Insel fest: “Smarter than the average beat ’em-up.” („Klüger als das durchschnittliche Beat ’em-up.“) und legte 91 % drauf. In Frankreich fielen die Noten sogar noch üppiger aus: Joystick notierte 94 % für die Amiga-Fassung, Génération 4 listete 87 % für die PC-Version im Heft 47 (09/1992) – ein europaweites Schulterklopfen für Vivid Image.

Das Spielgefühl ruht auf drei Säulen: frei atmendes Level-Layout statt enger Arena, kombinatorischer Kampf (Schläge, Tritte, Wurfwaffen) und punktierte Magie (Glocke → Zauberer räumt Hindernisse ab). Das wirkt bis heute wie der wohldosierte Gegenentwurf zur reinen Arcade-Hatz. Visuell überzeugt der Titel mit großflächigen, farbsatten Kulissen; sogar Details wie das helle Aufblitzen der Klinge fanden in Tests Erwähnung. Der vielzitierte Amiga-Reviews-Sammelüberblick fasst die britische Amiga Format-Eloge so zusammen: “Laden with subtle gameplay tricks and stunning effects … everything an Amiga game should be – and more besides. Hallelujah!” („Vollgepackt mit subtilen Gameplay-Tricks und umwerfenden Effekten … alles, was ein Amiga-Spiel sein sollte – und mehr obendrein. Halleluja!“).

Verglichen mit zeitgenössischen Konkurrenten – ob isometrische Last Ninja-Schule oder Arcade-Prügler à la Shadow Dancer – positionierte First Samurai sich als „Abenteuer-Prügler“ mit Wegesuche, Schaltern, Teleports und Geheimnissen. Dass die Idee „nicht revolutionär“ sei, räumte der Amiga Joker selbst ein, lobte aber „technische Brillanz und hervorragendes Gameplay“ – ein Tenor, der die langlebige Reputation erklärt.

Am Markt startete die Heimcomputer-Erstversion im September 1991 (Amiga/Atari ST), gefolgt von C64 und MS-DOS (1992) und einer eigenständig angepassten SNES-Fassung (1993); Jahre später wurden beide Samurai-Teile wieder gebündelt aufgelegt. Die Amiga-Erstauflage lag im Handel bei £ 25.99 in UK bzw. um 84 DM in Deutschland; inflationsbereinigt entspricht das heute ungefähr rund 45 € für die Standardbox.