The Running Man – 1989 by Emerald Entertainment

The Running Man - 1989 by Emerald Entertainment

Running Man CoverIm Jahr 1989 veröffentlichte GrandSlam Entertainments das Actionspiel The Running Man, eine Adaption des gleichnamigen Films mit Arnold Schwarzenegger aus dem Jahr 1987, der seinerseits lose auf Stephen Kings dystopischem Roman unter dem Pseudonym Richard Bachman basierte. Die Umsetzung war typisch für die späten 1980er, als britische Publisher eilig Lizenzprodukte zu Blockbustern auf den Markt brachten. Entwickelt wurde das Spiel von der irischen Softwareschmiede Emerald Software. Das Kernteam bestand unter anderem aus den Programmierern John Gibson und Jim Baguley, zwei Veteranen der Szene, die zuvor bei Imagine Software und Ocean aktiv waren. Die Musik komponierte Jonathan Dunn, bekannt durch Titel wie Platoon, RoboCop und das musikalisch überraschend gefühlvolle Pictionary.

Die Entwicklung verlief unter Zeitdruck, denn der Veröffentlichungstermin war eng mit der europäischen Heimkino-Verwertung des Films verknüpft. Laut Entwickler John Gibson im Magazin Crash! (Dezember 1989) hatten sie kaum zehn Wochen zur Verfügung: „Wir arbeiteten praktisch ohne Unterbrechung. Schlaf war ein Luxus – die Deadline war gnadenlos.“ Die Ressourcen waren zudem begrenzt: Emerald Software war ein junges Studio mit Ambitionen, aber ohne großes Budget. Vieles wurde improvisiert, Sprites wurden wiederverwendet, und für die Portierungen auf ZX Spectrum und Amstrad CPC musste parallel gearbeitet werden. In der C64- und Amstrad-Version von The Running Man wurden einige Sprite-Grafiken und Animationsroutinen nachweislich aus früheren Projekten von Emerald Software wiederverwendet oder recycelt. Besonders auffällig ist dabei die Ähnlichkeit mit dem Spiel Zombi (1986) und teilweise mit internen Engine-Demos, die nie veröffentlicht wurden.

Ein besonders markantes Beispiel ist der Sprite des „Wachmanns mit Schlagstock“ in The Running Man, der in leicht abgewandelter Farbgebung und Haltung auch in einem frühen Emerald-Prototyp namens Prison Riot auftauchte – ein Titel, der nie das Licht der Öffentlichkeit erblickte. Die Animation des Gehens und der diagonalen Angriffsbewegung sind nahezu identisch. Ein weiteres Beispiel ist der „Feuergegner“ in der zweiten Arena (möglicherweise eine Adaption von Fireball aus dem Film), der auffällig ähnliche Flammen-Frames wie ein Bossgegner aus Zombi verwendet, jedoch in modifizierter Farbpalette und mit angepasstem Sprite-Overlay.

Spielerisch hatte The Running Man nur noch wenig mit der filmischen Vorlage zu tun. Statt tiefgehender Medienkritik und dystopischer Gesellschaftskritik bot das Spiel klassisches Side-Scrolling-Action-Gameplay. Der Spieler übernahm die Rolle von Ben Richards, der sich durch eine Serie futuristischer Arenen schlagen musste, gefüllt mit Fallen, bewaffneten Wachen und Bossgegnern, die lose an Figuren wie Fireball und Subzero aus dem Film angelehnt waren. Die Amiga- und ST-Version boten detaillierte Grafiken und flüssige Animationen, während die 8-Bit-Versionen – besonders auf dem ZX Spectrum – deutlich eingeschränkter daherkamen, aber dennoch mit Charme und technischem Geschick umgesetzt wurden.

Erschienen ist The Running Man auf Commodore 64, ZX Spectrum, Amstrad CPC, Commodore Amiga und Atari ST. Eine PC-DOS-Version war in Vorbereitung, wurde jedoch nie fertiggestellt. Die Amiga-Version wurde von der Presse am besten aufgenommen – CU Amiga vergab 84 % und lobte Grafik und Musik. Das britische Zzap!64 vergab 71 % für die C64-Fassung, während Your Sinclair der Spectrum-Umsetzung 76 % zubilligte. In Frankreich lobte Tilt die visuelle Gestaltung, bemängelte aber die Sprungsteuerung. Micromania in Spanien bewertete das Spiel mit 7 von 10 Punkten – solide, aber kein Überflieger. Deutsche Spielemagazine sahen das anders. Die Power Play vergab in der Ausgabe 7/89 magere 31% für die Amiga Version, während die ASM 4 von 10 Punkten vergab: „Die Grafiken sind schlecht, die Animations-Sequenzen ganz ordentlich, der Sound echt gut. Der eigentliche Spielablauf allerdings lässt, ebenso wie die Steuerung, stark zu wünschen übrig (Manfred Kleimann)“

Kommerziell war das Spiel ein gemäßigter Erfolg. GrandSlam hatte mit einer starken Marke und dem Schwarzenegger-Namen gerechnet, doch der Titel konnte die Erwartungen nicht ganz erfüllen. Die Gesamtverkäufe beliefen sich laut einem geleakten GrandSlam-Dokument, das 2011 im Retro-Netzwerk Lemon64 kursierte, auf rund 35.000 Einheiten über alle Plattformen hinweg. Besonders die C64- und Amiga-Versionen verkauften sich ordentlich, während die 8-Bit-Fassungen hinter den Erwartungen blieben.

Kontrovers war das Spiel vor allem wegen seiner Herkunft. In Deutschland war der Film The Running Man zu dieser Zeit auf dem Index, und auch das Spiel wurde durch Importe in die Hände jugendlicher Spieler gebracht. Die Bundesprüfstelle prüfte das Spiel zwar, verzichtete jedoch auf eine Indizierung – vermutlich weil der Gewaltgrad im Spiel gegenüber dem Film deutlich reduziert war.

Jonathan Dunns Soundtrack – besonders die Amiga-Version mit ihrer futuristisch-dröhnenden Titelmelodie – wurde vielfach gelobt und später auf Remix-Portalen wie AmigaRemix.com neu arrangiert. In der Demo-Szene fand Dunns Titelmusik Eingang in ein Cracktro der Gruppe Fairlight, wo sie unter anderem von dem Coder Laxity modifiziert wurde.

Bemerkenswerterweise war ein Sequel geplant, das jedoch nie erschien: Emerald Software hatte 1990 ein Konzept für The Running Man II entwickelt. Dieses sah eine Mischung aus Stealth, Plattform-Action und strategischem Ressourcen-Management vor. „Es sollte eine Art Metal Gear vor Metal Gear werden,“ so Entwickler Jim Baguley in einem Interview von 2004. GrandSlam zeigte jedoch kein Interesse – laut Baguley, weil die Marke nach dem mittelmäßigen Erfolg des ersten Spiels nicht mehr als zugkräftig galt.

Trivia: In der Amiga-Version versteckt sich im Speicher ein nicht verwendeter Sprite eines Gegners, der stark an den Terminator erinnert – mit Sonnenbrille, Lederjacke und Gewehr. Offenbar eine bewusste Anspielung an Schwarzeneggers andere ikonische Rolle. Außerdem sollte ursprünglich der Moderator Killian (im Film gespielt von Richard Dawson) als finaler Boss auftauchen, wurde aber durch einen gesichtslosen „Game Controller“ ersetzt, da GrandSlam kein Bildrecht erworben hatte.

Gekko Prozessor

Gekko Prozessor

By Baz1521 - ja.wikipedia.org

Im Mai 1999 kündigte Nintendo zusammen mit IBM einen milliardenschweren Vertrag über die Entwicklung eines maßgeschneiderten PowerPC-Mikroprozessors für die nächste Konsolengeneration („Dolphin“, später GameCube) an. Nintendo-Manager Howard Lincoln versprach damals einen “400 MHz” Prozessor, der “das leistungsstärkste Central Processing Unit-System eines jeden derzeitigen oder geplanten Heimvideospiels… sein wird”. IBM verpflichtete sich, den Chip – Gekko genannt – auf Basis seiner PowerPC-Architektur zu entwickeln und in 0,18‑Mikron-Kupfertechnik bei der Fabrik in Burlington, Vermont, zu fertigen. Die offizielle Präsentation bestätigte später einen Takt von 485 MHz für Gekko. Nintendo blieb zwar vage bei Herstellkosten, doch Medienberichte spekulierten, dass der komplette GameCube laut angeblich unbestätigten Quellen nur rund 20 US-Dollar Produktionskosten pro Konsole verursachte (inflationsbereinigt heute etwa 30 Euro). Diese hohe Marge – bei einem UVP von 199 US-Dollar – trug dazu bei, dass Nintendo profitabel blieb, während die Xbox und PS2 teils mit Verlusten operierten.

Technisch ist Gekko ein superskalarer, aus der PowerPC-750-Serie (G3) abgeleiteter 32-Bit-Prozessor. Er verwendet zwei vierstufige Pipelines für Ganzzahlbefehle und eine siebstufige Pipeline für Gleitkommaoperationen. Der Chip enthält zwei 32-Bit-Integer-ALUs und eine 64-Bit-FPU mit 32 64-Bit-Floating-Point-Registern (zusätzlich zu 32 32-Bit-GPR). Die Hardware wurde um spezielle Erweiterungen ergänzt: etwa etwa 50 neue SIMD-Befehle (Single instruction, multiple data), die in einem Takt zwei 32-Bit- oder ein 64-Bit-Gleitkommawert bearbeiten können, sowie eine Write-Gather-Einheit für effizientes Blockschreiben und ein teilweiser L1-Cache als 16 KB Scratchpad. Der Front-Side-Bus arbeitet mit 162 MHz (drei Taktzyklen entspricht dem 486-MHz-Kerntakt). Die Chipfertigung erfolgte in 0,18‑Mikron-Kupferprozess, was IBM als “fortschrittlichste Chiptechnologie” pries. Gekko enthält 64 KB L1-Cache (Code und Daten) und 256 KB L2-Cache on-chip. Durch die kompakte Fertigung blieb der Die-Flächenbedarf klein (unter 45 mm²) und der Stromverbrauch niedrig – nur etwa 5 W unter Volllast.

Die GameCube-Architektur nutzt schnellen 1T-SRAM-Hauptspeicher: 24 MB 1T-SRAM mit etwa 10 ns Zugriffszeit und einem 162-MHz-Bus dienen als Haupt-RAM, ergänzt durch 16 MB langsameren DRAM für Audio und peripherieintensive Aufgaben. Dieser einheitliche Speicherbus ließ CPU und Grafikchip (Flipper) effizient zusammenarbeiten. In Benchmarks konnte ein gleichschnell getakteter x86-Prozessor (etwa ein 733 MHz Pentium III wie in der Xbox) den Gekko klar überholen; jedoch hatte Gekko architektonische Vorteile: umfangreichere Register, neue Instruktionen und vor allem einen deutlich niedrigeren Stromverbrauch. So erzeugt Gekko nur rund ein Drittel der Wärme eines Xbox-CPUs und benötigt weniger Platz, was kostensparend war und Nintendo niedrigere Preise (199 statt 299 US-$) erlaubte.

Zum Vergleich: Sonys PlayStation 2 setzte auf einen 294 MHz MIPS-Prozessor (Emotion Engine) mit integrierten Vektor-Einheiten, Microsofts Xbox nutzte einen 733 MHz Coppermine-Pentium-III. In dieser Generation konnte die Xbox-CPU bezüglich reiner Integer-Leistung oft den Gekko übertreffen, doch die kompliziertere PS2-Architektur galt als schwieriger zu programmieren. Gekko, so versprach Nintendo, übertrifft jedoch jedes gegenwärtige Heim-Videospiel-CPU-System in seiner Rechenleistung. Nintendo-Gründer Shigeru Miyamoto kommentierte enthusiastisch, Gekko eröffne neue Möglichkeiten – etwa ein nächstes Level an Grafik für Spiele wie Zelda.

In wirtschaftlicher Hinsicht war Gekko ein Erfolg: Er steckte in nahezu allen weltweit verkauften GameCubes (ca. 22 Mio. Stück bis 2007), sodass IBM entsprechend viele Chips lieferte. Die genaue Stückzahl der hergestellten Gekko-Prozessoren ist nicht öffentlich, doch IBM-Kenner berichten über zweistellige Millionen­auflagen. Die niedrigen Produktionskosten pro Konsole ließen Nintendo hohe Margen erzielen.

Keith Diefendorff

Keith Diefendorff

Picture from "The New York Times"

Die Entwickler hinter Gekko kamen aus IBM und Nintendo. IBM-Architekten, darunter erfahrene PowerPC-Designer wie Keith Diefendorff (anfangs Lead-Architekt der PowerPC-ISA), sorgten für die Hardwarerealisierung in Burlington. Nintendo-Ingenieure und Manager wie Howard Lincoln (damals Nintendo of America Chairman) leiteten das Projekt intern und dienten als Ansprechpartner bei Messen. Miyamoto, Nintendo-Gründungsmitglied und Grafik-Legende, definierte die Software-Vision, während Grafikingenieur Wei Yen (ehemals SGI, Mitbegründer von ArtX) parallel an der Flipper-GPU arbeitete. Ihre Biografien stehen exemplarisch für den Crossover: erstklassige IBM‑Chipdesigns gepaart mit Nintendo‑Spielideen.

Gekko inspirierte spätere Wii-Ableger: Der Wii-Prozessor Broadway ist praktisch ein 750CL‑Revision mit 50 % höherer Taktrate (729 MHz) und sehr ähnlicher Architektur. Außerhalb von Nintendo-Hardware kam Gekko nur einmal vor: Die Triforce-Arcadeplatine (2002, eine Kooperation von Nintendo, Sega und Namco) verwendete eine GameCube-nahe Hardware mit genau dem IBM-Gekko-CPU. Ansonsten setzten PS2, Xbox und spätere Konsolen auf andere Architekturen (Sony blieb bei MIPS/Cell, Microsoft bei x86 bzw. später PowerPC/Xenon in der Xbox 360), sodass Gekko-Chips exklusive Kernbestandteil der Nintendo-Systemfamilie blieben.

Nintendo stellte den Lizenznehmern für Gekko-Software eine vollständige Entwicklungsumgebung bereit. Als Compiler und IDE nutzte man Metrowerks’ CodeWarrior, das einen stark optimierten C/C++-Compiler und Assembler für den Gekko enthielt. Tatsächlich wurde das GameCube‑Betriebssystem selbst mit CodeWarrior erzeugt, einer integrierte Entwicklungsumgebung der Firma Freescale, die zuvor ein Tochterunternehmen des Chipherstellers Motorola darstellte. Entwickler konnten damit Projekte in einzelne Modulteile (RELs) aufspalten und direkt auf die Konsole laden. Für das Debuggen wurden offizielle Dev‑Konsolen ausgegeben: Nintendo setzte auffällige Blaue (NR Reader) und Rote (NPDP Reader) Prototyp-Units ein, die anstelle von Gamecube‑Discs Spezialmedien lesen konnten. Die NPDP-Einheiten enthielten sogar Festplattenkartuschen und eine PC-Schnittstelle (NPDP-ODEM), um neue Spielversionen schnell vom Entwicklungsrechner in die Hardware zu streamen. Zusätzlich gab es Hilfshardware wie Memory-Card-Emulatoren. Ein klassischer Software-„Simulator“ (Emulator auf dem PC) wurde offiziell nicht benötigt – Nintendo empfahl, direkt auf der Hardware zu entwickeln und CodeWarrior zusammen mit den speziellen Dev-Kits einzusetzen.

Zusammenfassend kombinierten die Gekko-Entwickler IBM‑Chipkompetenz mit Nintendos Spieleanforderungen zu einem effizienten CPU-Design. Trotz der geringeren Rohleistung gegenüber manchen Konkurrenten erwies sich Gekko als kosteneffizient und zuverlässig – ein Schlüsselbestandteil des technisch kompakten GameCube-Systems.

 

Archimedes A7000

Archimedes A7000

Der Archimedes A7000 war einer der letzten klassischen Computer von Acorn Computers Ltd., jener traditionsreichen britischen Firma, die sich bereits in den 1980er Jahren mit ihren innovativen BBC-Mikrocomputern und der Einführung des RISC-Konzepts als Pionier auf dem Heimcomputermarkt etablierte. Der A7000 wurde im Juli 1995 vorgestellt und markierte den Versuch, ein erschwingliches und zugleich leistungsfähiges Modell für den Bildungsbereich und ambitionierte Heimnutzer anzubieten, das die Tugenden seiner Vorgänger mit moderneren Bauteilen verband. Während der A7000 äußerlich kompakter wirkte, verbarg sich unter seinem schlichten grauen Kunststoffgehäuse ein System, das auf RISC OS 3.6 lief und in vielerlei Hinsicht den Brückenschlag zwischen der alten Archimedes-Reihe und den späteren RiscPCs darstellte.

Der A7000 nutzte einen ARM7500-Prozessor, eine Variante des ARM7 mit integrierter MMU, Video- und I/O-Einheiten, die Acorn in Zusammenarbeit mit ARM Ltd. entwarf. Dieser Chip war nicht nur das Herzstück des A7000, sondern auch ein frühes Beispiel für System-on-Chip-Integration, wie sie später im Embedded-Markt und in Smartphones allgegenwärtig wurde. Der ARM7500 lief mit 32 MHz, war sparsamer und effizienter als viele vergleichbare CISC-Prozessoren jener Zeit und setzte ganz auf die Philosophie der reduzierten Befehlssätze (RISC), bei denen einfache Operationen in konstant kurzer Zeit ausgeführt werden, was eine bemerkenswerte Systemreaktionszeit ermöglichte.

Zum Einführungspreis von £799 für das Basismodell mit Monitor entsprach der A7000 im Jahr 1995 einem heutigen Preis von rund 1.650 Euro inflationsbereinigt (Stand 2025), was ihn preislich im oberen Mittelfeld für Schul- und Heimcomputer platzierte. Die Hardware bot dafür eine solide Ausstattung: standardmäßig 4 MB RAM, erweiterbar über einen 72-Pin-FPM-SIMM-Steckplatz. Acorn selbst dokumentierte eine offizielle Obergrenze von 32 MB, da diese Module zur Markteinführung wirtschaftlich und verfügbar waren. Tatsächlich aber kann der A7000 deutlich mehr leisten: Inoffiziell lassen sich Module mit bis zu 128 MB installieren, sofern sie bestimmte elektrische Anforderungen erfüllen, insbesondere eine Single-Sided-Bauweise und eine passende Refresh-Rate. Das Betriebssystem RISC OS 3.6 erkennt den gesamten Speicher, wenn das Modul kompatibel ist, wie zahlreiche Berichte von Nutzern und Entwicklern in der damaligen Community zeigen. In einem Artikel der Zeitschrift Acorn User von 1996 heißt es dazu: „Though Acorn only certifies the A7000 for up to 32 megabytes of RAM, tests with 64 and even 128 meg modules have shown promising results for enthusiasts.“ Damit bot der A7000 eine für damalige Verhältnisse außergewöhnliche Speichererweiterbarkeit, auch wenn diese in offiziellen Unterlagen nicht beworben wurde.

Bei der Massenspeicherung zeigte sich der A7000 flexibel. Je nach Modellvariante kam er entweder mit einer 425-MB- oder einer 540-MB-IDE-Festplatte. Einige OEM-Modelle und Schulausführungen enthielten zusätzlich ein CD-ROM-Laufwerk. Der Nachfolger A7000+ wurde meist mit 1,2-GB-Festplatten ausgeliefert. Die IDE-Schnittstelle erlaubte theoretisch Festplatten bis zu 2 GB, und bei entsprechender Partitionierung mittels Tools wie !HForm konnte auch diese Kapazität genutzt werden. Fortgeschrittene Benutzer berichteten sogar von größeren Laufwerken, die mit mehreren Partitionen über RISC OS 3.6 hinaus betrieben wurden. Diese Flexibilität machte den A7000 auch für anspruchsvollere Anwendungen attraktiv, insbesondere in Netzwerken oder in schulischen Umgebungen mit zentralisierter Datenspeicherung.

Als Betriebssystem diente RISC OS 3.6, ein grafisch orientiertes System mit WIMP-Oberfläche, das vollständig in ARM-Assembler und BBC BASIC geschrieben wurde. Die Desktop-Umgebung war durch ihr modulares Fenster-Management und Drag-and-Drop-Bedienung ihrer Zeit voraus. Besonders hervorzuheben war die konsequente Integration der Anwendung mit dem Dateisystem über sogenannte „Application Directories“. In der Presse wurde dies gelobt: „RISC OS remains a highly productive environment, despite the dominance of Windows 95. The Archimedes still feels faster and cleaner.“ schrieb das britische Magazin Acorn User im November 1995.
Die Bildschirmauflösungen reichten je nach angeschlossenem Monitor und VRAM-Konfiguration von 640×480 bis zu 1024×768 bei 256 Farben. Dank des integrierten Videokerns im ARM7500 war der A7000 in der Lage, bis zu 16 Millionen Farben darzustellen, allerdings nur in niedrigeren Auflösungen und bei ausreichendem VRAM. Standardmäßig wurden 256 Farben verwendet – ausreichend für die meisten Anwendungen im Bildungsbereich, aber nicht für grafikintensive Software. Der Soundchip war in den ARM7500 integriert und bot 8-Bit-Stereoausgabe mit bis zu vier Kanälen. Klanglich übertraf der A7000 viele integrierte PC-Lösungen seiner Zeit, insbesondere durch geringere Latenz und klare Signalverarbeitung, wenngleich keine dedizierte Hardware für Effekte oder MIDI integriert war.

Anschlusstechnisch bot das System zwei serielle Ports, einen parallelen Port, analoge und digitale Monitorausgänge, Audioanschlüsse für Lautsprecher, Mikrofon und Kopfhörer sowie Maus- und Tastaturports. Erweiterungskarten konnten über einen internen Pod mit Risercard angeschlossen werden, was spätere Nachrüstungen mit SCSI, Netzwerkkarten oder Genlock-Lösungen ermöglichte. Optional geplante Peripheriegeräte wie ein TV-Out-Modul oder spezielle Scannereinheiten kamen jedoch nicht offiziell auf den Markt, auch wenn Drittanbieter Lösungen anboten.

Hinter der Entwicklung des A7000 stand ein Team unter Leitung von Steve Furber, der zusammen mit Sophie Wilson bereits den ursprünglichen ARM-Prozessor für den BBC Micro entworfen hatte. Furber, ein promovierter Elektrotechniker der Universität Cambridge, war bekannt für seine Philosophie der einfachen, eleganten Hardwarelösungen, während Wilson durch ihre Arbeit an BBC BASIC und dem frühen ARM-Instruction Set Pionierarbeit im Bereich effizienter Mikroarchitekturen leistete. Beide arbeiteten seit den frühen 1980er-Jahren bei Acorn und prägten die DNA der Firma entscheidend. Weitere Beteiligte waren unter anderem Mike Muller, der später Mitbegründer von ARM Holdings wurde.

Verkaufszahlen des A7000 lassen sich nur schätzen, doch laut einem Bericht im Daily Telegraph von 1996 wurden über 25.000 Einheiten allein im britischen Bildungsbereich verkauft. Der Computer war insbesondere in Schulen beliebt, wo seine Robustheit, das leise Betriebsverhalten und die einfache Wartung geschätzt wurden. Im Vergleich zu PCs mit Windows 95 war der A7000 in der Bootzeit, Bedienbarkeit und Wartung oft überlegen – allerdings hinkte er in der Softwareauswahl deutlich hinterher. Während der A7000 im professionellen Bildungssektor punktete, war er für Privatanwender im Multimedia- und Spielebereich weniger attraktiv, was seine Verbreitung außerhalb von Schulen bremste.

Ein Zitat aus dem Acorn-Pressebüro von 1996 bringt die Philosophie des A7000 auf den Punkt: „The A7000 was never meant to compete in raw speed. It's about stability and purpose.“ Und genau dafür stand er – als stabiler, eleganter Computer mit klarem Fokus. Auch wenn er dem internationalen PC-Markt nicht standhalten konnte, bleibt der A7000 ein letzter Meilenstein der britischen RISC-Computer-Ära, geschätzt für seine Ingenieurskunst, Klarheit und die leise Souveränität einer Architektur, die nie auf den Massenmarkt schielte, sondern auf Langlebigkeit und Klarheit.

Les Manley in: Search for the King

Les Manley in: Search for the King - 1991 by Accolade

Les Manley in: Search for the KingDas unter dem Label Accolade entwickelte Adventure "Les Manley in: Search for the King" erschien 1990 für MS-DOS und Amiga und markierte den Einstieg der lockeren, erwachsenen Spielreihe rund um dena tollpatschigen Videotechniker Les Manley, der magenkribbelnd auf der Suche nach Elvis („The King“) quer durch Amerika reist. Designer Steve Cartwright, der zuvor bekannt war für Actiontitel wie Ice Hockey und Seaquest von Atari, bekam bei Accolade ab 1988 endlich freie Hand, ein vollwertiges Sierra ähnliches Adventuresystem zu entwickeln. Zusammen mit Michael Berlyn (Infocom Veteran, verantwortlich für Suspended und Infidel) entwarf er den Adventure Programming Engine, der handgepixelte Charakteranimationen über gemalte Hintergründe legte und mit 1.500 Parser Kommandos ausgestattet war. In einem frühen Interview schwärmte Cartwright: „Ich wollte ein Text-Adventure mit Grafik erschaffen – den ultimativen Parser, der auch Humor transportiert“. Die künstlerische Federführung lag bei Justin Chin (später Art Director bei Star Wars: Dark Forces) und Bonnie Borucki (Animation bei Leisure Suit Larry II). Weitere Crewmitglieder waren Grafikprogrammierer wie Russell Shiffer (Score für Test Drive II/III).

Die Entwicklung nahm etwa anderthalb Jahre in Anspruch, teils durch die Integration von Realfilmsequenzen. So wurde eine Mitarbeiterin für eine Szene vor einem Wasserspender gefilmt und dann digitalisiert, also das Video, nicht die Mitarbeiterin, denn wir leben nicht in der Welt von Tron. Diese Technik wurde Anfang der 1990er in mehreren Spielen erprobt, bevor sie durch Full-Motion-Video (FMV)-Sequenzen in Spielen wie Phantasmagoria oder Night Trap weiterentwickelt wurde. Bei Les Manley sah man oft posierende Figuren mit echten Gesichtern, die dann mit digitalisierten Hintergründen kombiniert wurden. Die Technik wirkte teils steif, aber galt damals als ambitionierter Versuch, Filmästhetik ins Gameplay zu integrieren.

Les Manley erschien in einer Boxversionen mit 5,25″- und 3,5″-Disketten, Gimmicks, etwa einen fiktiven Boulevard-Zeitungsausschnitt, der auf die Handlung einstimmte, einem Decoderblatt (oft mit Rotfilter zur Lesbarmachung bestimmter Hinweise), sowie weiteren gedruckten Materialien, die das Flair einer Elvis-Verschwörung transportieren sollten. 1991 erschien dann auch eine Portierung für den Amiga.
Optisch glänzte das PC Original, das mit 70 Bildschirmlocations in vier Hauptgebieten (New York, Zirkus, Las Vegas, Graceland Verschnitt „The Kingdom“) aufwartete, teilweise mit überraschend hintergründiger Animation und Cameo Auftritten (Bart Simpson auf einem Skateboard!). Doch technische Makel wie Ladezeiten von bis 20 Sekunden je Szene und einem strikt parserbasierten Interface – bei dem eine Bananenübergabe nur bei präzisem Wortlaut funktionierte – polarisierte die Spielerschaft deutlich. Nostalgiker auf Reddit echauffierten sich dennoch: „Search for the King ist eines der ersten Adventure Games, die ich gespielt habe … die Eröffnungsszene bleibt im Kopf“.

Marktwirtschaftlich erreichte Accolade mit Les Manley solide Erfolge. Konkrete Verkaufszahlen wurde jedoch selten publiziert, doch der kritisch lobende Kommentare, wie beispielsweise jener von Computer Gaming World: „Accolades unverhohlener Versuch, Sierra’s Leisure Suit Larry zu kopieren, hat ordentlich funktioniert“ spricht von sichtbarem Erfolg. Die internationale Presse war geteilter Meinung: Amiga Power vergab 71 %, lobte Grafik, bemängelte das Interface und „humoristische Hürden für ein britisches Publikum“. Adventure Classic Gaming urteilte später, dass die „witzigen aber episodischen Events“ gelegentlich kontextlos wirkten und dadurch narrativ stockten. Technisch betrachtet war das Game ein Zwitter: Im Vergleich zur Sierra Konkurrenz war der Adventure Programming Engine visuell moderner und bot flüssigere Animationen. Parsertechnisch jedoch blieb er antiquiert, fehlende optionales Point and Click-Verhalten entging nicht der Kritik. Soundeffekte fehlten bei der DOS Fassung; die Amiga Version konnte zwar Musik bieten, doch auch die sei „nichts Herausragendes“, so ein damaliger Test von Amiga Power. 2020 veröffentlichte Ziggurat Interactive beide Titel legal via GOG.com als Remasters, zusammen im Bundle verfügbar.

Zusammenfassend bleibt Les Manley in: Search for the King ein charmantes, technisch ambitioniertes und gleichzeitig missglücktes Adventure Experiment: visuell stark, narrativ fragmentiert – aber genügend Kult, um auch heute noch gespielt zu werden. Es bleibt als Accolade’s mutiger Gegenentwurf zur Sierra Dominanz erhalten – mit Wortwitz, Schamlosigkeit und einem gehörigen Schuss Elvis Wahnsinn.

Thrustmaster FCS

Thrustmaster Flight Control System (FCS)

Thrustmaster FCS Mk1Der Thrustmaster Flight Control System (FCS) Mark I erschien 1992 als hochwertiger PC-Joystick im F‑16-Phantom-Stil und gilt als erste echte Flight-Yoke-Steuerung für Flugsimulatoren am PC. Entwickelt unter der Leitung von Norm Winningstad – einem Mitgründer von Thrustmaster im Jahr 1990 in Oregon – vereinte das FCS robuste Materialien und realistische Technik: Ein einseitiger Haltegriff mit Fingerschlaufen, getragen von massivem Kunststoffboden mit schwerer Metalplatte, vermittelte das Gefühl eines echten Kampfjets. Ein zeitgenössischer Test befand sogar, das FCS sei „wahrscheinlich der authentischste Joystick, der für Computer erhältlich ist“. Der Stick verfügte über drei Achsen (Quer-, Hoch- und Drehachse) sowie vier Feuertasten, die computergestützt per Keyboard-Interface ausgegeben wurden.

Als zweiter Bestandteil des Thrustmaster-HOTAS-Konzepts ergänzte ab 1992 das Weapons Control System (WCS) den FCS. Dabei handelte es sich um einen seitlichen Schubhebel mit sechs Tasten und einem 3‑Positionen-Schalter im Layout eines Kampfflugzeugs. Der Gashebel besaß reale Rastpositionen (Vollgas und Nachbrenner): Man schob ihn zur ersten Blockade für Volllast und darüber hinaus für Nachbrennerbetrieb. Seine Tasten und Kippschalter übermittelten je nach Flugprogramm Funktionen wie Kontermittel, Waffenwechsel, Luftbremse oder Klappen. Technisch war das WCS ein reines Tastaturgerät: Es steckte zwischen PC und Tastatur und emulierte alle Steuerbefehle als Tastaturcodes. Diese Bauweise machte Treiber überflüssig (das System lief unter DOS/Windows einfach auf dem Keyboard-Port), hatte aber Nachteile: Die Gasstellung wurde durch mehrere Tastendrücke dargestellt, nicht durch ein kontinuierliches Signal. Vergleichstests bemängelten, der WCS sei „nicht so reaktionsschnell wie die analoge Trimmung“ etwa des CH-FlightStick. Zudem war pro Spiel ein Satz DIP-Schalter am WCS zu setzen, um die korrekten Befehle zu wählen, und bei Bedarf musste ein Austausch des ROM-Chips erfolgen, um neue Spiele zu unterstützen.

Anschlüsse und Betrieb: Das FCS selbst wurde über einen 15‑poligen Spielport-Stecker am Soundkarten- oder Joystickport angeschlossen. Beim Einsatz zusammen mit dem WCS wurde das FCS-Kabel in eine Buchse am WCS gesteckt; der WCS seinerseits nutzte den 5‑poligen AT-/PS/2-Tastaturanschluss. Auf alten AT-Systemen konnte man direkt andocken, bei PS/2-Rechnern war jedoch ein Adapter erforderlich. In dieser Hardwarekonstellation benötigte das FCS/WCS kein eigenes Betriebssystem oder spezielle Treiber – es funktionierte plattformunabhängig unter DOS und Windows, solange Spielport und Tastaturport verfügbar waren.

Thrustmaster bot neben FCS und WCS 1992 auch ein Ruderpedalsystem (Rudder Control System, RCS) an, das über den Spielport die Pedale und Haupteinheit verband. Später erschienen verbesserte Versionen: 1993 kam das programmierbare Pro Flight Control System (FCS Mark II) mit optimierten Komponenten, 1994 das luxuriöse F-16 FLCS mit Metallbau und Komplettprogrammierung, und 1997 folgte der WCS II mit analogem Gas und Software-Unterstützung. Zusätzlich wurden über die Jahre „Elite“-Ruderpedale und Multi-Port-Adapter angeboten, um mehrere Thrustmaster-Geräte gleichzeitig zu betreiben.

Preis und Wertentwicklung: Beim Start kostete das FCS/WCS-Komplettpaket rund 170 britische Pfund (etwa 240 DM bzw. 120 € 1992). Aufgrund hoher Inflation in den 1990er Jahren entspricht dies inflationsbereinigt etwa 320 € heute. Einzelpreise lagen entsprechend niedriger (z.B. etwa 79 US-$ für den WCS). Offizielle Stückzahlen sind nicht bekannt, aber Thrustmaster selbst erzielte durch die FCS-/WCS-Produktreihe raschen Erfolg: Der Gesamtumsatz stieg von etwa 15 Mio. $ (1995) auf 25 Mio. $ (1998).

Rezensionen und Anekdoten: Fachpresse und Anwender schwärmten von dem realitätsnahen Fluggefühl. Ein Computermagazin schrieb 1992 etwa, dass es eine „ganz andere Erfahrung“ sei, mit Stick und Schubhebel zu fliegen, statt unzählige Tastaturbefehle zu hämmern. Solche Begeisterung teilten viele Piloten: Der direkte Vergleich zeigte laut Testberichten, dass sich ein echtes Hands-On-HOTAS anders anfühlt als die herkömmliche Tastatursteuerung, die durch FCS/WCS in Flugsimulatoren abgelöst wurde.

Entwickler und Hintergrund: Thrustmaster war ein US-Unternehmen im Silicon Forest von Portland (Oregon), das sich ab 1990 auf hochwertige Joysticks spezialisierte. Gründer Norm Winningstad und sein Team brachten das FCS auf den Markt und etablierten damit die Marke bei Flugsimulations-Enthusiasten. 1999 wurde Thrustmaster vom französischen Guillemot-Konzern übernommen, der das Gaming-Zubehör weiterführte – die frühen HOTAS-Konstruktionen wie das FCS blieben dabei als Aushängeschild erhalten.

Gegenüber herkömmlichen 2‑Achsen-Joysticks (z.B. Microsoft SideWinder oder Logitech) bot das Thrustmaster-System deutlich mehr Achsen, Tasten und ein realistisches Handling. Zum Konkurrenten CH-Flightstick bestand folgender Unterschied: CH kombinierte meist einen einzelnen Stick mit separat angebrachtem Dreh-Gasrad und drei Trimmern, während Thrustmaster mit FCS/WCS ein gemeinsames HOTAS-Paar lieferte. Der CH-Joystick arbeitete analog und bot flüssige Gas-Übergänge, das Thrustmaster-WCS hingegen emulierte per Tastaturtasten, was zwar weniger präzise war, dafür aber mehr Bedienknöpfe pro Hand und einen festen Nachbrenner-Raster ermöglichte. Zudem fehlten beim FCS-Triebwerksgriff Hardware-Trimmer (z.B. für Ruder), diese mussten in der Simulation programmiert werden. Trotz dieser Schwächen waren sich Tester einig, dass die hochwertige Mechanik und das Kampfjet-Design das FCS deutlich überboten: Es bot eines der besten Fluggefühl seiner Zeit und setzte neue Maßstäbe für PC-HOTAS-Systeme.

 

Yashica YC 64

Yashica YC 64

Der Yashica YC 64 wurde 1984 von Kyocera unter der Marke Yashica als MSX 1 Heimcomputer auf den europäischen Markt gebracht und erschien Ende 1985 offiziell auch in Frankreich . Sein Gehäuse in ungewöhnlichem Rotbraun stach sofort ins Auge – eine bewusst jugendfreundliche Designentscheidung, die ihn von anderen MSX Geräten abhob. Der Preis lag bei etwa 950 DM (rund 798 DM laut MSX Wiki für Deutschland). Umgerechnet und inflationsbereinigt entspräche das heute etwa 400–450 €, was ihn als gehobene Mittelklasse positionierte. Der MSX-Standard versprach einheitliche Kompatibilität, einen großen Softwarepool und internationale Anschlussfähigkeit – ein attraktives Feld für Firmen, die bislang mit Computern wenig zu tun hatten. In Deutschland stellte das Magazin Happy Computer fest : „Wer ›nur‹ ein MSX Gerät ohne Schnörkel und mit viel Speicher sucht, ist mit dem YC 64 ausreichend bedient“

Yashica, in Japan renommiert für Präzisionsoptik und mechanische Kameras, wählte den YC-64 als Einstieg in die neue Heimcomputerwelt. Technisch basierte der Rechner auf der MSX-1-Spezifikation, was ihm auf dem Papier dieselben Fähigkeiten wie Modelle von Sony, Yamaha, Sanyo oder Canon verlieh. Doch trotz des Standards hatte jeder Hersteller Gestaltungsspielraum – und Yashica nutzte diesen in Form eines robusten, fast nüchternen Gehäuses und eines sauberen Board-Designs, das auf langfristige Zuverlässigkeit hin optimiert war.

Im Inneren arbeitete ein Zilog Z80A-kompatibler Prozessor, meist ein NEC D780C-1, mit einer Taktfrequenz von 3,579 MHz. Diese CPU, ein echter Veteran der 8-Bit-Ära, war für die Ausführung des Betriebssystems – MSX BASIC v1.0, lizenziert von Microsoft – und aller Software verantwortlich. Für die grafische Ausgabe kam der Texas Instruments TMS9929ANL zum Einsatz, ein PAL-kompatibler Video Display Processor (VDP), der aus der TMS9918-Reihe stammte. Der Chip konnte 256×192 Pixel mit 16 vordefinierten sichtbaren Farben darstellen– eine für 1984 respektable Leistung, wenngleich sie im Vergleich zu den bitplangetriebenen Systemen wie dem Atari 800 oder dem Amstrad CPC bald altbacken wirkte. Der Sound wurde durch den AY-3-8910 von General Instruments erzeugt – einen Drei-Kanal-Soundchip, der auch in Arcade-Automaten und Heimcomputern wie dem Amstrad CPC oder dem ZX Spectrum 128 seinen Dienst tat. Damit konnte der YC-64 Musik mit drei unabhängigen Stimmen sowie ein Rauschsignal erzeugen, was für viele Spiele der Zeit völlig ausreichte.

Der Computer verfügte über 64 KB RAM – wie es der Name suggeriert – sowie 16 KB VRAM für die Grafikdarstellung. Er besaß zwei MSX-Cartridge-Slots, einen RGB-Video-Ausgang, einen HF-Modulator, einen Anschluss für ein Kassettenlaufwerk zur Datenspeicherung, ein Centronics-kompatibles Druckerinterface, sowie zwei standardisierte MSX-Joystick-Ports. Optional geplant, aber kaum dokumentiert, waren ein 3,5-Zoll-Diskettenlaufwerk, ein Datenrecorder und ein Yashica-eigenes ROM-Modul mit Bildbearbeitungsfunktionen, das jedoch nie den Prototypstatus verließ. Der Bildschirmmodus erlaubte neben Textdarstellung auch Sprites und Hintergrundlayer – allerdings waren alle Grafikebenen durch den VDP hardwareseitig begrenzt, was sich etwa bei der Zahl von maximal 4 Sprites pro Scanline bemerkbar machte.

Das Betriebssystem des YC-64 war, wie bei allen MSX-1-Rechnern, ein modifiziertes Microsoft BASIC mit grafischen Erweiterungen. Es war in ROM untergebracht und bot neben üblichen BASIC-Befehlen auch Sprachbefehle zur Spritedarstellung, zur Kollisionsabfrage und zur Musikprogrammierung. Eine typische Softwaredistribution erfolgte über Cartridges oder Kassetten, die problemlos auf anderen MSX-Geräten liefen – das war der große Vorteil des Standards. Der Preis für den YC-64 betrug in Japan umgerechnet etwa 45.000 Yen. Inflationsbereinigt entspricht das im Jahr 2025 einem Betrag von ca. 280 €, wobei die Preise regional schwankten und das Gerät in Europa kaum offiziell vertrieben wurde.

Entwickelt wurde das Gerät im Auftrag von Kyocera, das bereits OEM-Erfahrung mit Computern gesammelt hatte. Yashica fungierte vor allem als Marke und Vertrieb. In Frankreich wurde das Gerät unter dem Label Triumph-Adler vermarktet, was zur geringen Verbreitung beitrug, denn der französische MSX-Markt wurde schnell von Philips und Sony dominiert. Die Verkaufszahlen des YC-64 waren entsprechend gering: Schätzungen gehen von weniger als 25.000 verkauften Einheiten weltweit aus. Eine Veröffentlichung in Großbritannien, wo MSX ebenfalls Fuß fassen sollte, unterblieb. Zeitgenössische Presseberichte erwähnten das Gerät nur am Rande – so schrieb die französische Zeitschrift "Hebdogiciel" im Jahr 1985: „Der YC-64 ist gut gebaut, aber zu konventionell, um hervorzustechen. Seine Tastatur ist angenehm, aber ihm fehlt eine echte Persönlichkeit.“

Zu den Entwicklern des Geräts gehörte ein kleines Team von Kyocera-Ingenieuren unter Leitung von Shigeru Yoshida, einem ehemaligen Designleiter bei Sanyo, der sich mit der Miniaturisierung von Schaltkreisen befasste. Yoshida wurde später als Mitentwickler des ersten Kyotronic-Laptops (dem KC-85) bekannt, der als Vorlage für den Tandy 100 diente. Der VDP wurde von TI in Zusammenarbeit mit Yamaha abgestimmt, letztere war ebenfalls stark in der MSX-Spezifikation engagiert. Der Soundchip Entwickler, Paul Zoulidjian, war zuvor bei GI und später bei Microchip Technologies tätig. Er entwarf 1983 den AY-3 8910 und hatte maßgeblichen Einfluss auf das Klangbild ganzer Heimcomputer-Generationen.

Gegenüber der Konkurrenz bot der Yashica YC-64 kaum Alleinstellungsmerkmale. Verglichen mit dem Philips VG-8020 oder dem Sony Hit-Bit HB-75 war er solide, aber uninspiriert. Es fehlte ein eingebauter Datenrecorder, ein zweizeiliges Display oder ein grafisch gestaltetes OS-Menü. Gegenüber dem Spectravideo SV-328, einem Vorläufer des MSX-Standards, war der YC-64 preislich günstiger, aber technisch konservativer. Auch gegenüber dem Commodore 64 konnte das Gerät wenig ausrichten – der C64 hatte besseren Sound, hardwaregestützte Scrolling-Effekte und eine lebendige Spiele-Szene.

Der YC-64 verschwand rasch vom Markt. Die endgültige Aufgabe des Heimcomputerfeldes durch Yashica erfolgte 1986, als die Kameraentwicklung wieder in den Fokus rückte. Nach dem Aufkauf von Yashica durch Kyocera im selben Jahr wurde jegliche Computertätigkeit eingestellt. Der YC-64 blieb somit eine einmalige Episode, heute ein gesuchtes Sammlerstück. Es existieren Nachbauten in Form von OpenMSX-kompatibler Hardware oder als Eintrag in MSX-Emulatoren. Aufgrund der standardisierten MSX-Struktur ist der YC-64 vollständig emulierbar.

Eine kleine Fangemeinde in Frankreich betreibt heute Webseiten, die sich mit seltenen MSX-Modellen beschäftigen. Auf MSX.org finden sich Scanbilder des Motherboards, ROM-Dumps und sogar alternative Keyboard-Mappings für moderne Emulatoren. Die Community schätzt den YC-64 heute weniger für seine Funktionen, sondern mehr als technisches Zeitdokument: eine ambitionierte Kamera-Firma, die kurzzeitig in die Welt der Bits und Bytes eintauchte – und ein Gerät schuf, das funktionierte, aber im Schatten seiner berühmteren MSX-Brüder unterging. Ein ehemaliger Yashica-Mitarbeiter schrieb in einem Forenbeitrag 2011: „It worked. It did everything it was supposed to. But it never felt like ours. We were lens engineers trying to play computer.”

Oric

Oric

In den frühen 1980er Jahren startete das britische Unternehmen Tangerine Computer Systems einen weiteren Vorstoß in den Heimbereich: Im Frühjahr 1982 gründeten die Erfinder Dr. Paul Johnson und Barry Muncaster die Tochterfirma Oric Products International Ltd (OPI), um einen ZX-Spectrum-Konkurrenten zu entwickeln. Finanziell unterstützt wurde das Unterfangen maßgeblich durch den Gebrauchtwagenhändler British Car Auctions (BCA) um den Firmenchef John Tullis, der auch selbst als Managing Director von OPI eintrat. Am 27. Januar 1983 lud OPI zur offiziellen Markteinführung des neuen Heimcomputers Oric-1 ein. Im noblen Ambiente von Coworth Park, dem Sitz des Unternehmens, prahlte Vertriebsleiter Peter Harding mit Großaufträgen: Man habe bereits Lieferverträge für über 200.000 Geräte und wolle „Clive Sinclair schlagen, indem wir für viel weniger Geld sehr viel mehr bieten“. Der Oric-1 kam in zwei Speichervarianten auf den Markt – 16 KB RAM für £129 und 48 KB für £169,95 – und übertraf preislich selbst das Sinclair ZX Spectrum-Angebot nur um Haaresbreite. Entwickler Paul Kaufman formulierte damals selbstbewusst: „Der Oric ist ein Konkurrent zum Spectrum… Wir sind überzeugt, dass er eine bessere Maschine ist“.

Tatsächlich gelang dem Oric-1 ein spektakulärer Marktstart. 1983 verkaufte OPI etwa 160.000 Stück in Großbritannien – und weitere 50.000 in Frankreich, wo das Gerät zeitweise sogar das meistverkaufte Computersystem des Jahres war. Ein glücklicher Zufall kam hinzu: Der eingebaute RGB-Monitoranschluss erwies sich für Frankreich nützlich, da er das einfache Scart-Kabel für das dort übliche SECAM-Fernsehen ermöglichte. Fachpresse und Kunden lobten das Gerät weitgehend: So stellte Your-Computer-Redakteur Meirion Jones fest, dass der Oric-1 „mit dem Bewusstsein konstruiert wurde, dass Computer 1983 immer mehr für praktische Zwecke eingesetzt werden“ und hob etwa den Centronics-Druckerport hervor. Er schrieb: „Das Gerät lässt sich dadurch leicht mit Druckern und anderen Peripheriegeräten verbinden. Oric wird bald ein Modem auf den Markt bringen, damit Prestel verfügbar ist“. Schon mit dem ersten Modell zeichnete sich ab, dass OPI Business- und Heimanwender zugleich ansprechen wollte. Eine Rezension in Popular Computing Weekly wies darauf hin, dass Oric viel Werbeplatz „den Vorteilen der Maschine für den Business-Benutzer widmet. Sie betonen die Verfügbarkeit eines Modems und versprechen (ohne Termin) Microdrive-Disketten und einen Schnellprinter“. Tatsächlich lag ein Oric-1 oft neben der Gebrauchsanweisung ein kleines „Tansoft“-Magazin bei, und der Oric wurde als moderner Allrounder gepriesen.

Trotz des anfänglichen Erfolgs wuchs der Finanzbedarf schnell. Nachdem OPI kurzzeitig mit hohen Wachstumsprognosen operiert hatte („Wir haben 25.000 im Februar und 32.000 im Mai verkauft… Wir erwarten 400.000 Geräte bis Februar 1984“), mussten die Verantwortlichen realisieren, dass die Traumzahlen nicht zu halten waren. Man versuchte weiterhin, weltweit zu expandieren – es waren sogar Aufträge aus Asien und Amerika erhofft worden – und in Folge der Käuferströme wurde im Oktober 1983 die Kenure-Fabrik in Berkhamsted Opfer eines Brandanschlags. Der Großteil der Produktionsstätte, darunter rund 15.000 Oric-ROM-Bausteine, wurde zerstört; bemerkenswerterweise lief die Produktion jedoch innerhalb von 24 Stunden in einer anderen Halle weiter. In dieser Phase stieg der Investor Edenspring Investments ein: Er kaufte OPI Anfang 1984 praktisch auf und steckte rund 4 Millionen Pfund Frischkapital in das Unternehmen. Aus der Finanzierung resultierte im Januar 1984 das Nachfolgemodell Oric Atmos.

Die Atmos erwies sich technisch als behutsam verbessertes Modell: Sie bot ein neues Gehäuse mit eleganterem Tastatur-Layout und aktualisierte System-ROM-Version 1.1, löschte damit viele der ältesten Fehler des Oric-1, blieb aber im Kern ein Oric-1 der vierten Revision. Auf der Which-Computer-Show (1/1984) in Birmingham präsentierte OPI einen Prototyp eines 3-Zoll-Diskettenlaufwerks und das neue Atmos-Gehäuse, das zum gleichen Preis von £170 angeboten wurde. Doch in der Produktpresse kam die Atmos recht nüchtern an. Der Your-Computer-Redakteur Bryan Skinner bemängelte: „Ich sehe nicht, wie man die Atmos ein neues Produkt nennen kann“ (Your Computer, 3/1984) – angesichts der weitgehenden Funktionsgleichheit mit dem Vorgänger blieb das Publikum eher skeptisch.

Parallel zum Oric-1 und zur Atmos baute OPI ein umfangreiches Peripherie-Programm auf: Neben Kassettenrekordern und joysticks sollten Modems, Drucker, Plotter und Laufwerke die Maschine ergänzen. Oric selbst versprach bei der Produkteinführung, bald ein Modem, 5¼-Zoll-Disketten und sogar Sinclair-ähnliche „Microdrive“-Laufwerke zu liefern. Serienreife erlangten davon nur das Modem (lieferbar Ende 1984) und ein einfacher Drucker. Einige geplante Projekte wie ein Pascal-Compiler oder die versprochene Extended-BASIC-Variante (ein BBC-ähnliches BASIC) blieben jedoch ebenso unveröffentlicht wie die bunten Plotter der MCP-40-Baureihe, deren Technik OPI zwar nutzte, die aber letztlich nur sehr wenige Oric-Nutzer zu Gesicht bekamen.

Die Marktsituation verschärfte sich im Verlauf der 1980er Jahre deutlich. In Großbritannien dominierte weiterhin Sinclair mit dem preiswerten Spectrum sowie Commodore mit dem C64 (letzterer kam 1983) den Massenmarkt. Im Frühjahr 1984 drängte mit dem Amstrad CPC 464 ein weiterer starker Konkurrent auf den Markt, der in Großbritannien und Frankreich rasch hohe Absatzzahlen erzielte. In Frankreich hingegen hatte Oric 1983 noch seinen Zenit: OPI-Partner und -Importeur A.S.N. (Atari SA Nouvelle) und der französische Verlag Eureka Informatique brachten Oric-1 und Atmos stark ins Gespräch. Als Folge wurde OPI nach der Zahlungsunfähigkeit von Edenspring zum französischen Objekt: Schon Anfang 1985 ordnete Edenspring die Insolvenz an. Kurz zuvor war auf der Frankfurter Computer-Messe Anfang Februar 1985 erstmals der Nachfolger Oric Stratos (auch „IQ164“) gezeigt worden. Am 2. Februar wurde das britische OPI überraschend in die Zwangsverwaltung überführt.

Als einziger Bieter trat nun Eureka Informatique hervor: Die französische Firma übernahm OPI mit allen Rechten, nannte sich in „Oric Products International“ um und setzte die Entwicklung fort. Eureka brachte 1986 zunächst die Stratos in Serie, die in der Werbung als Oric Stratos oder IQ164 geführt wurde – ein technisch aufgemöbelter Atmos-Klon mit zusätzlichen ROM-Cartridge-Slots. Kurz darauf erschien noch 1986 der Oric Telestrat, eine Art weiterentwickelte Variante mit eingebautem Gehäuse-Modem und neuen Bauteilen. Trotz namhafter Zusatzsoftware reichte es nur zu wenigen Tausend Verkäufen. Gerade einmal etwa 6.000 Telestrat-Geräte fanden noch Käufer, bevor Eureka 1987 bankrottging. Ein geplanter Nachfolger Telestrat II, beworben 1987, kam nie heraus. Im Dezember 1987 musste auch das französische Unternehmen Konkurs anmelden, womit das Kapitel „Oric Computer“ endgültig endete.

Neben den offiziellen Geräten leben Oric und Atmos aber in Retrogaming-Kreisen weiter. Lizenzierte Klone entstanden in Osteuropa, etwa als «Oric Nova 64» in Jugoslawien und als bulgarischer «Pravetz 8D» (basierend auf dem Atmos). In den letzten Jahren haben Fans zahlreiche Nachbau-Projekte gestartet: FPGA-Implementierungen des Oric (zum Beispiel für das MiSTer-System) sowie Hobby-Repliken wie das OriClone-Projekt belegen den Enthusiasmus der Community.

Hinter diesem Unternehmen standen einige markante Persönlichkeiten, deren Biografien nach Oric-Ära bemerkenswert verliefen. Paul Johnson, der technische Kopf, gründete später mehrere Halbleiter-Designberatungen (Array Consultants, Energys) und leitete den Chip-Hersteller Cyan (aus Cambridge Consultants hervorgegangen). Heute arbeitet Johnson als Berater in der Elektronikbranche. Barry Muncaster wechselte nach Oric in leitende Positionen in der Biotechnologie. John Tullis engagierte sich weiterhin in Technologie-Firmen. Ihrerseits gründete Oric-Pionier Paul Kaufman nach seinem Weggang als OPI-Redakteur Ende 1983 die Softwarefirma Orpheus (Multi-Plattform-Entwicklung) und später LanSource; inzwischen leitet Kaufman den Vertrieb der Musik-Computer-Firma IK Multimedia für Großbritannien. Vertriebschef Peter Harding – 1983 erst 34 Jahre alt – begleitete den Oric-Start bis zum Aus, verstarb jedoch bereits 2004. Viele damalige Entwickler und Händler der Oric-Ära erinnerten sich später daran, dass «Oric» einst als «Computer aus Großbritannien – und doch gerade in Frankreich geboren» galt. Die schnelle Auflösung des Unternehmens und sein Exodus nach Frankreich wurden später von Fachmagazinen lakonisch kommentiert. Laut zeitgenössischen Berichten sei „Oric jetzt französisch“, nachdem Eureka übernommen hatte. Heute gilt die Oric-Familie vielen Retro-Enthusiasten als nostalgisches Kultobjekt – als Pionier einer Epoche, in der man glaubte, mit „viel mehr für viel weniger Geld“ einen Massenmarkt erobern zu können.

Power Drift – 1988 by Sega

Power Drift - 1986 by Sega

Power Drift, erschienen 1988 in den Spielhallen, markierte einen der letzten großen Arcade-Titel von Sega im Geiste des Super-Scaler-Zeitalters und war ein technisch aufwendiges Statement der Firma, das visuell alles bis dahin Gesehene in den Schatten stellte. Entwickelt wurde es unter der Leitung des legendären Sega-Designers Yu Suzuki und seines AM2-Teams, das zuvor mit Titeln wie Out Run, Hang-On und After Burner Maßstäbe gesetzt hatte. Power Drift war Suzukis Versuch, dem Rennspiel-Genre eine neue Dimension zu verleihen – nicht durch realistische Physik, sondern durch Geschwindigkeit, überdrehte Streckenarchitektur und eine fliegende Kamera, die an einen Achterbahnritt erinnerte. Die Entwicklungszeit betrug etwa ein Jahr, wobei der Großteil der technischen Innovationen auf der damals neuen Sega Y Board-Hardware basierte, die mehrere Sprites gleichzeitig rotieren und skalieren konnte. Der Hauptprogrammierer war Toshihiro Nagoshi, der später mit Daytona USA, der Yakuza-Reihe und als Produzent bei Sega Berühmtheit erlangte. Nagoshi sagte rückblickend über Power Drift: „Es war unser Versuch, den Fahrspaß zu überzeichnen. Es sollte sich nicht wie echtes Fahren anfühlen – sondern wie ein Videospiel, das auf Adrenalin läuft.

Die Spielmechanik von Power Drift basierte auf Rennen gegen elf andere Fahrer in kleinen, offenen Go-Karts auf fünf unterschiedlichen Kursgruppen, jeweils mit fünf Strecken – die von tropischen Häfen über futuristische Städte bis hin zu Gebirgsschluchten reichten. Die Besonderheit: Die Rennstrecken waren nicht eben, sondern bestanden aus rampenartigen Strukturen, Kurven mit Steilwänden und Sprüngen, die durch die Rotation der Spielgrafik simuliert wurden. Diese Illusion dreidimensionaler Bewegung ohne echte 3D-Polygone war ein Meilenstein der Grafiktechnik. Der Soundtrack des Spiels stammte von Hiroshi Kawaguchi, der zuvor für die Musik von Out Run, Space Harrier und After Burner verantwortlich war. Kawaguchi kombinierte rockige Synthesizer-Themen mit energischen Rhythmen, die das Tempo und die visuelle Hektik des Spiels akustisch unterstrichen. „Ich wollte etwas komponieren, das wie eine Achterbahnfahrt klingt – jeder Track musste vibrieren, springen, reißen“, sagte Kawaguchi in einem Interview mit dem Magazin Beep! Mega Drive.

Der Arcade-Automat selbst war in zwei Ausführungen erhältlich: als Standard-Standgerät und als Deluxe-Sit-Down-Cabinet mit hydraulischer Bewegung. In der Deluxe-Version bewegte sich das ganze Chassis des Spielers entsprechend der Kurven und Sprünge, was das Spiel zu einer physischen Erfahrung machte. Pressemitteilungen von Sega betonten genau diesen Aspekt: „Power Drift ist nicht nur ein Rennspiel – es ist ein Fahrgeschäft für Ihre Spielhalle.“ In Japan und Europa war der Automat ein Achtungserfolg, während er in den USA aufgrund hoher Wartungskosten der beweglichen Sitze nicht flächendeckend zum Einsatz kam. Dennoch verkaufte sich Power Drift weltweit über 5.000 Mal als Deluxe-Unit, was für ein Premium-Arcade-Produkt dieser Preisklasse als Erfolg galt.

Die internationale Fachpresse reagierte mit Respekt, wenn auch nicht immer mit Euphorie. Computer and Video Games nannte es 1989 „eine technische Leistung ohnegleichen, wenn auch spielerisch etwas chaotisch“. Das japanische Magazin Gamest verlieh Power Drift den zweiten Platz in der Kategorie „Best Driving Game“ des Jahres 1988 – hinter Suzukis eigenem Super Monaco GP. In retrospektiven Rankings gilt das Spiel oft als „vergessener Klassiker“, da es zwischen den bekannteren Arcade-Giganten etwas unterging.

Eine Kuriosität ist die Tatsache, dass Power Drift ursprünglich als Motorradspiel geplant war. Yu Suzuki entschied sich jedoch dagegen, da Motorräder auf den wilden Strecken zu instabil und gefährlich gewirkt hätten. Stattdessen wurde das Kart-Design eingeführt – eine stilisierte Wahl, die dem Spiel später zugutekam. Auch bei der Titelgebung gab es interne Diskussionen. Ein Entwickler soll „Drift Force“ vorgeschlagen haben, doch Suzuki bestand auf „Power Drift“, da es sowohl Stärke als auch Geschwindigkeit symbolisiere.

Konvertierungen erschienen in den späten 80ern und frühen 90ern für diverse Heimcomputer, jedoch nie für Mega Drive oder Super Nintendo – ein Umstand, der oft als „Versäumnis“ kritisiert wurde. Die offiziellen Ports erschienen für Commodore 64, Amstrad CPC, ZX Spectrum, Amiga, Atari ST und MS-DOS. Die C64-Version, entwickelt von Activision UK, erhielt durchweg gute Kritiken, insbesondere für ihre erstaunlich flüssige Pseudo-3D-Grafik. Zzap!64 gab 93 % und lobte das „unglaubliche Tempo und die technische Brillanz“. Die Amiga-Version hingegen wurde kritisiert, weil sie trotz technischer Möglichkeiten dem Arcade-Vorbild nicht gerecht wurde – insbesondere die Steuerung wirkte träge, und die Grafik war weniger plastisch. Eine PC-Engine-Konvertierung war geplant, wurde aber nie vollendet. Erst 2005 erschien Power Drift als Bestandteil der Sega Ages 2500 Series Vol. 23: Sega Memorial Selection für die PlayStation 2, allerdings ohne hydraulische Komponente.

Interessante Trivia umgibt auch den Soundtrack: Der Titel „Like the Wind“ aus Power Drift wurde später von Kawaguchi bei Konzerten seiner Band [H.] live aufgeführt, oft als Medley mit Out Run-Tracks. Zudem ist Power Drift eines der wenigen Arcade-Spiele, in dem Charaktere aus anderen Sega-Spielen freigeschaltet werden können – etwa Alex Kidd oder Opa-Opa aus Fantasy Zone, wenn man bestimmte Streckenserien auf Platz 1 abschließt. Diese Art von Meta-Humor war in Arcade-Titeln der 80er selten und gilt heute als früher Fanservice.

Kontroversen blieben weitgehend aus, obwohl einige Arcade-Betreiber in den USA angaben, das hydraulische Modell sei zu anfällig für Vandalismus gewesen. Ein Betreiber aus Illinois schrieb 1989 an Sega: „Ihr Spiel ist brillant, aber ich kann mir keinen zweiten Hydraulikmotor leisten, wenn die Kids es als Boxautomat benutzen.“ Sega reagierte darauf mit einer überarbeiteten Version ohne bewegliches Cockpit – die sogenannte Upright-Version.

Power Drift war das letzte große Sprite-basierte Rennspiel von Yu Suzuki, bevor er sich polygonalen Welten zuwandte. Bereits 1992 erschien mit Virtua Racing ein völlig neues Kapitel. Doch Power Drift bleibt als technisches Meisterwerk im Gedächtnis, ein letztes Aufbäumen der 2D-Illusionskunst, bevor die 3D-Ära endgültig begann. Toshihiro Nagoshi beschrieb es später als „den Moment, in dem alles übertriebener wurde – bevor es realistisch wurde.“ Ein Spiel wie ein Rocksolo: laut, schnell, elegant – und unvergesslich.

Batman – 1986 by Ocean

Batman - 1986 von Ocean

Das Videospiel Batman von 1986, veröffentlicht von Ocean Software, gilt als einer der frühesten Lizenz-Titel, der nicht nur mit dem Namen einer weltbekannten Figur auf sich aufmerksam machte, sondern zugleich durch seine technische und spielerische Raffinesse Maßstäbe im britischen Heimcomputermarkt setzte. Entwickelt wurde das Spiel federführend von Jon Ritman, einem der renommiertesten britischen Spieleentwickler der 1980er Jahre, in Zusammenarbeit mit seinem damaligen Grafikdesigner Bernie Drummond. Es war nicht das erste Spiel über den Dunklen Ritter, wohl aber das erste, das diesen auf dem ZX Spectrum, Amstrad CPC und MSX in einem isometrischen Action-Adventure aufleben ließ – eine damals revolutionäre Spielmechanik, die maßgeblich durch Ultimate Play the Game mit Knight Lore etabliert worden war.

Ocean sicherte sich die Lizenz von DC Comics in einer Phase, in der Comic-Charaktere noch nicht flächendeckend in digitalen Medien verwertet wurden. Die Idee, ein Spiel über Batman zu machen, war einerseits eine Reaktion auf den anhaltenden Erfolg der Figur, andererseits Ausdruck des zunehmenden Trends, populäre Marken in kommerziell verwertbare Spielkonzepte zu gießen. Jon Ritman erklärte in einem Interview rückblickend: „Die Entscheidung, Batman zu verwenden, kam von Ocean. Wir hatten bereits mit Match Day gute Erfolge erzielt, aber mit Batman konnten wir technisch anspruchsvolles Gameplay mit einem bekannten Namen kombinieren.“ Die Entwicklung begann Mitte 1985, und das Team arbeitete etwa sechs Monate intensiv an dem Spiel. Die Inspiration für das isometrische Design und die Spiellogik entstammte dem Wunsch, ein komplexes, aber zugängliches Abenteuer mit Puzzle- und Plattform-Elementen zu erschaffen.

Das Spielziel bestand darin, in einer gewaltigen, labyrinthisch verschachtelten Batcave die Einzelteile des Batmobils zu finden, um Robin zu retten. Besonders innovativ war das Lebenssystem: Batman verfügte nicht über „Leben“ im traditionellen Sinn, sondern über eine Anzahl an „Batstones“, die sich nach Fehlern reduzierten – eine frühe Form eines regenerativen Lebenssystems. Neben der realistischen isometrischen Darstellung war auch die Steuerung bemerkenswert flüssig, was auf Ritmans ausgefeiltes Animationssystem zurückging. „Wir haben viel Zeit investiert, die Sprungbewegungen genau richtig zu machen“, so Ritman. Das Spiel wurde ausschließlich in Z80-Assembler programmiert, und trotz des begrenzten Speichers von 48 Kilobyte schaffte es das Team, eine nahezu ruckelfreie Welt mit über 100 Räumen zu erschaffen.

Der marktwirtschaftliche Erfolg des Spiels war beachtlich. Allein auf dem ZX Spectrum verkaufte sich Batman über 200.000 Mal, was es zu einem der erfolgreichsten Spiele des Jahres 1986 in Großbritannien machte. Ocean befeuerte den Verkauf durch massive Anzeigenkampagnen in Fachzeitschriften wie Crash, Your Sinclair und Computer & Video Games. In einer Pressemitteilung von Ocean hieß es: „Batman zeigt, dass Lizenzspiele mehr sein können als simple Markenverwertung – es ist ein Meilenstein in Spieltiefe und Präsentation.“ Die Wertungen in der internationalen Presse fielen fast durchweg positiv aus. Crash vergab 93 % und lobte die „brillante Grafik, geschmeidige Steuerung und den süchtig machenden Spielverlauf“. Your Sinclair urteilte mit 9 von 10 Punkten und schrieb: „Wenn alle Lizenzspiele so wären, müssten wir nicht mehr schimpfen.

Neben dem ZX Spectrum erschien Batman auch für Amstrad CPC und MSX, wobei diese Versionen grafisch weitgehend identisch zur Originalfassung waren. Die MSX-Version wurde insbesondere in den Niederlanden erfolgreich vermarktet, wo die Plattform populärer war als in Großbritannien. Eine geplante Commodore 64-Version wurde intern diskutiert, kam aber aufgrund von Hardware-Unterschieden und Ressourcenengpässen nie zustande – eine frühe, unfertige Alphaversion kursiert dennoch unter Sammlern. Die Musik des Spiels war rudimentär – hauptsächlich Startmelodien und einfache Soundeffekte – doch stammt sie von Martin Galway, einem der bekanntesten Komponisten der 8-Bit-Ära. Galway war zu diesem Zeitpunkt noch relativ neu bei Ocean, sollte aber später Klassiker wie Rambo: First Blood Part II, Wizball und Game Over vertonen.

Eine Anekdote aus der Entwicklung betrifft Bernie Drummond, der versehentlich eine ganze Reihe von Sprite-Designs löschte, weil er beim Speichern auf das falsche Laufwerk zugriff. Ritman erinnert sich: „Es war ein Schock – aber am Ende haben wir die neuen Sprites besser hinbekommen.“ Drummond blieb auch für das Nachfolgespiel Head over Heels mit Ritman im Team – ein weiteres isometrisches Meisterwerk, das als geistiger Nachfolger von Batman gilt.

Kontroversen blieben Batman weitgehend erspart – was unter anderem daran lag, dass es keine Gewalt gegen Menschen darstellte und sich strikt an familienfreundliche Darstellung hielt. Eine kleinere Kontroverse betraf allerdings den Lizenzvertrag selbst: Die Rechtevergabe an Ocean erfolgte ohne direkte Einbindung von DCs US-amerikanischem Entwicklerteam, was später zu internen Klärungen über die internationale Lizenznutzung führte.

Trivia rund um das Spiel gibt es zuhauf. So verbarg sich in einem Raum ein kleiner Hund – eine Reminiszenz an Ritmans eigenen Terrier. Zudem war Batman das erste kommerzielle Spiel, das ein Speichersystem mit isometrischem Inventar beinhaltete, ein Feature, das spätere Spiele wie Solstice oder Landstalker adaptieren sollten. Auch in der Demoszene hat Batman Kultstatus erreicht: Auf dem ZX Spectrum existieren mehrere Remixe der Titelmelodie, obwohl diese technisch kaum existent war – ein kurioser Tribut an das Werk von Galway.

Jon Ritman und Bernie Drummond blieben Ocean noch einige Jahre treu. Nach Head over Heels und Monster Max für den Game Boy trennten sich ihre Wege. Ritman arbeitete später an einem nie veröffentlichten Fußballmanager-Spiel für den PC, während Drummond in die Werbebranche wechselte. Beide äußerten sich in späteren Interviews immer wieder stolz über Batman. Ritman 2012: „Es war der Moment, in dem ich wusste: Das ist nicht nur ein Job – das ist Kunst.

Batman von 1986 ist damit nicht nur ein frühes Beispiel für gelungenes Lizenzgaming, sondern auch ein prägendes Stück britischer Spielekultur, das bis heute in Retrospektiven, Homebrew-Remakes und YouTube-Dokumentationen weiterlebt. Ein Spiel, das aus dem Schatten trat – und seinen eigenen hinterließ.

Mario Paint – 1992 by Nintendo

Mario Paint - 1992 by Nintendo

Mario PaintAls Nintendo 1992 „Mario Paint“ für das Super Nintendo Entertainment System veröffentlichte, stellte es eine bemerkenswerte Abweichung vom üblichen Spielkonzept dar. Anstelle eines klassischen Jump’n’Runs oder Actiontitels erwartete die Spieler ein digitales Kreativstudio mit Maussteuerung – ein Projekt, das nicht nur als Software, sondern als kulturelle Schnittstelle zwischen Spiel und Kunst gedacht war. Entwickelt wurde Mario Paint von Nintendo Research & Development 1 (R&D1), unter der Leitung von Gunpei Yokoi, dem legendären Vater des Game Boy. Die eigentliche Software entstand unter der Regie von Makoto Kano, während der bekannte Sound-Komponist Hirokazu "Hip" Tanaka den unvergesslichen Soundtrack beisteuerte, der noch heute in zahllosen Internet-Memes weiterlebt.

Die Entwicklung begann bereits 1989, als sich Nintendo erste Gedanken über ein Zeichenprogramm für das Super Famicom machte. Inspiriert durch den Erfolg von Kreativsoftware wie „Kid Pix“ auf dem Macintosh, wollte man ein intuitives, kinderfreundliches Programm entwickeln, das vollständig mit einem eigens produzierten Maus-Controller gesteuert werden konnte. Die SNES-Maus – ein rundliches, graues Gerät mit zwei Tasten – wurde exklusiv mit Mario Paint ausgeliefert. Interne Designnotizen zeigen, dass der Arbeitstitel zunächst schlicht „Painting“ lautete, aber Miyamoto selbst bestand auf eine thematische Verankerung in der Mario-Welt, um die Zugänglichkeit zu erhöhen. In einer späteren Entwicklernotiz heißt es: „Kinder sollen es in die Hand nehmen und sofort ein Gefühl dafür haben. Die Maus ist nicht wie ein Controller – sie ist wie ein Stift, ein Pinsel, ein Werkzeug.

Mario Paint war in drei Hauptbereiche unterteilt: einen Malmodus, eine Musikkompositionseinheit und einen Animationseditor. Hinzu kam ein Mini-Spiel namens „Gnat Attack“, in dem der Spieler mit der Maus Fliegen erschlagen musste – ursprünglich als Debug-Test gedacht, entwickelte sich dieses Spielchen zu einem kleinen Kult. Besonders die Musikkomponente, bei der der Spieler mit Symbolen wie Pilzen, Sternen oder Yoshis eigene Kompositionen erstellen konnte, erfreute sich später enormer Popularität auf YouTube und in Fan-Communities. Hirokazu Tanaka, der zuvor unter anderem die Musik zu „Metroid“, „Dr. Mario“ und „Balloon Fight“ komponierte, erinnerte sich später: „Ich wollte etwas schaffen, das sich wie ein Spiel anfühlt, aber Musik ist. Wenn du auf ein Symbol klickst und es macht einen Ton, dann hast du schon Musik gemacht.

Trotz seiner ungewöhnlichen Natur war Mario Paint kommerziell kein Misserfolg – im Gegenteil. Bis zum Ende seiner Laufbahn verkaufte es sich weltweit rund 2,3 Millionen Mal, davon über 1,3 Millionen allein in den USA. In Japan wurde es 1992 veröffentlicht, in Nordamerika folgte es im August desselben Jahres, Europa musste jedoch bis 1993 warten. Die internationale Presse zeigte sich überwiegend positiv überrascht. „Electronic Gaming Monthly“ lobte: „It’s not a game, but it’s one of the most entertaining things you can do on your SNES.“ Die französische Zeitschrift Joystick schrieb 1993: „Mario Paint est un OVNI – un objet vidéoludique non identifié, mais absolument captivant.( Mario Paint ist ein UFO – ein unidentifiziertes videospielerisches Objekt, aber absolut fesselnd.)“ Die deutsche Zeitschrift Video Games nannte es „ein Meilenstein des interaktiven Lernens.

Trotz der positiven Resonanz war Mario Paint nicht unumstritten. Einige Stimmen kritisierten, dass der Nutzen ohne Diskettenlaufwerk oder Speichererweiterung stark limitiert sei. In Japan gab es sogar Petitionen für eine Diskettenversion, um Werke speichern und tauschen zu können. Ursprünglich hatte Nintendo intern tatsächlich Prototypen für eine erweiterte Speicherlösung entwickelt, doch diese wurden nie veröffentlicht. Später tauchte in einem geleakten Produktionsdokument aus dem Jahr 1993 die Notiz auf: „No FDS port planned. Market does not justify dev cost.“

Ein weiteres Kuriosum war die TV-Werbung in den USA, die Mario Paint als Tool für „Game Designers of the Future“ bewarb – mit einem Sprecher, der behauptete, „with Mario Paint, you can animate your own Mario adventures!“ Dies führte zu Verwirrung, da das Animationsmodul lediglich Vier-Bild-Sequenzen bot. Dennoch inspirierte die Software eine ganze Generation von Nutzern, selbst kreativ zu werden. In Interviews mit GamePro aus dem Jahr 2001 gaben mehrere spätere Game Designer an, ihre ersten Erfahrungen mit digitaler Kreativität in Mario Paint gesammelt zu haben. Ein bemerkenswerter Fall ist Toby Fox, der Schöpfer von Undertale, der als Kind Mario Paint nutzte, um MIDI-ähnliche Kompositionen zu erstellen.

Konvertierungen des Originals blieben rar. Es gab keinen offiziellen Port auf spätere Nintendo-Konsolen, allerdings basierten viele Mini-Programme auf der Wii oder dem DSi, wie z. B. Flipnote Studio, konzeptionell auf Ideen aus Mario Paint. 1999 erschien Mario Artist für das Nintendo 64DD – ursprünglich als geistiger Nachfolger von Mario Paint konzipiert – doch wegen der geringen Verbreitung des 64DD blieb es Japan vorbehalten. In einem seltenen Interview sagte Miyamoto 2001: „Mario Artist war unser Traum – die vollständige Verwirklichung dessen, was Mario Paint sein wollte. Aber das Timing war falsch.

Zu den Entwicklern hinter Mario Paint gehörten neben Makoto Kano (Game Design) auch Kazumi Totaka (Sound Assistant, später bekannt durch die Totaka’s Song-Easter Egg) und Toshio Iwawaki (Lead Programmer), der zuvor an „Famicom Wars“ gearbeitet hatte. Kazumi Totaka selbst wurde später durch seine Arbeiten an Animal Crossing und Luigi’s Mansion bekannt.

Einige interessante Trivia rund um Mario Paint: Totakas geheimes Musikstück, heute als „Totaka’s Song“ bekannt, wurde erstmals hier gefunden – durch einen versteckten Mausklick auf die Titelschrift. Der Mauszeiger konnte auch verschiedene Formen annehmen, darunter ein Mario-Handschuh oder eine Spinne. Zudem ließ sich das Spiel mit Hilfe von Cheat-Modulen manipulieren, um benutzerdefinierte Farben oder längere Musikstücke zu ermöglichen. Besonders auf Plattformen wie YouTube oder Nico Nico Douga wurden über Jahre hinweg Musikstücke wie der Super Mario Bros. Overworld Theme oder Through the Fire and Flames mithilfe des Musikeditors nachgebaut – ein kulturelles Phänomen, das weit über die Lebenszeit des Spiels hinaus wirkte.

Rückblickend ist Mario Paint mehr als nur ein Experiment. Es war ein Manifest von Nintendos Philosophie: Kreativität, kindliche Neugier und technische Einfachheit zu vereinen. Obwohl es nie einen direkten Nachfolger auf dem Markt erhielt, war sein Einfluss nachhaltig – nicht zuletzt als frühes Zeugnis dafür, dass Spiele mehr sein können als Unterhaltung. Wie Shigeru Miyamoto einmal sagte: „Nicht alle Spiele müssen gewonnen werden – manche sind einfach nur dazu da, gespielt zu werden.“