Chimera – 1985 by Firebird

Chimera - 1985 by Firebird

chimera coverChimera (1985) von Firebird Software ist ein isometrisches Action-Adventure mit Science-Fiction-Flair – man steuert einen einsamen Astronauten in den Korridoren eines riesigen außerirdischen Raumschiffs, das gerade dabei ist, die Erde zu grillen. Das Ziel ist klassisch, aber effektvoll: Waffen außer Gefecht setzen, vier Selbstzerstörungsmodi aktivieren und abhaun, bevor alles in die Luft fliegt. Entwickelt hat das Ganze Shahid Ahmad, der zwar nicht am Ursprungswerk Jet Set Willy beteiligt war, aber die knifflige Aufgabe übernahm, das Spiel für den Commodore 64 zu konvertieren. Inspiriert durch Knight Lore, war Chimera sein erstes eigenes Projekt, das von Firebird zunächst abgelehnt, aber nach nur zwei Wochen Nachbesserung veröffentlicht wurde.

Die Levels sind in eine isometrische 8×8 Bildschirmstruktur gegossen, in der man Items wie Schraubenschlüssel, Batterien oder Ersatzkondensatoren sammelt, um Hindernisse wie elektrische Zäune oder Heizkörper zu überwinden. Nahrung und Wasser müssen stets im Auge behalten werden – besonders Lust auf Radiatoren bekommt man bei Hitze, die Wasserreserven schneller schrumpfen lässt. Die Bedienung beschränkt sich auf Bewegen und „Interagieren“, unterstützt von einer Laufschrift für Statusmeldungen – simpel, aber effektiv.

Musikalisch untermalt wurde das Spiel (auf dem C64) von Rob Hubbard, einem der Titanen der SID-Musik, bekannt aus Monty on the Run oder Commando. Die Stimmung ist düster, spannungsgeladen und passt zur bedrückenden Atmosphäre der toten Raumstation. Die Programmierung, Grafik und Sound waren – je nach Plattform – unterschiedlich umgesetzt. Die ZX-Spectrum-, Amstrad-CPC- und C64-Versionen zeigen kleine Unterschiede in Farbwahl und Performance, aber immer derselbe Wurm (oder besser: Weltraumvirus). Auf dem Atari 8-Bit werkelte Shahid Ahmad neben C64 noch selbst.

Ein Bonus: Nach dem Abschluss des Spiels erhält man eine geheime Spielkombination, die ein Bonusminispiel freischaltet – eine kleine Space-Invaders-Sequenz. Angeblich stürzt diese auf dem Atari 800 manchmal ab – Shahid sagte aber, das Minigame sei bei Firebird in Ordnung angekommen. Pikanter Anekdote für die Nerdkiste.

Firebird selbst war Teil von Telecomsoft, dem Spielearm von British Telecom, und Chimera erschien unter der preisgünstigen "Super Silver"-Reihe. Das Spiel kostete etwa £3.99 im Budget-Segment und wurde in mehreren Ländern veröffentlicht – inklusive einer 1992er Portierung für die Watara Supervision.

Pressestimmen fielen überwiegend positiv aus. Sinclair User vergab inflationäre 100 %, Amstrad Action vergab 88 % und Amtix 86 %, während Zzap!64 eher moderate 70 % – im Budget-Sektor aber völlig in Ordnung. International erreichte das Spiel solide 79 % – ein Erfolg in Relation zu den damals gängigen Titanen auf ZX, C64 und CPC. Trotzdem war Chimera kein Millionenhit – es erreichte wohl nur einige zehntausend verkaufte Einheiten, genug, um Firebird’s Budget-Range zu stützen und Shahid Ahmad zum Aufstieg zu verhelfen.

Ein real unerfülltes Versprechen findet sich in der Spielwelt selbst: Laut World of Spectrum kündigt Chimera zum Abspann eine Fortsetzung namens Mission Pandora an – die aber nie erschien. Frühere Tests sollten Teleporter, Zeitschalter oder Storysequenzen enthalten, wurden aber aus Zeit- oder Speichergründen gestrichen – Shahid Ahmad gestand im späteren Interview, mehr narrative Tiefe oder einen Karteneditor gewünscht zu haben.

Chimera ist damit ein spannender Beleg für ambitionierte Budgetspiele der 80er: aus einem Ein-Mann-Projekt mit Sci-Fi-Setting, cleverem Leveldesign und musikalischem Hochglanz entstand ein Spiel, das heute in Retrospektiven als spaßige Nische glänzt – etwa wie ein versteckter Track auf einer Vinylplatte, den man erst nach dem dritten Hören richtig liebt. Die ungewöhnliche Kombination aus Survival-Elementen (Hunger, Ressourcen), Puzzle- und Timing-Spiel macht es zu einem frühen Herausforderer von Knight Lore und Alien 8 – bleibt dabei aber eigenständig genug, um seinen eigenen Charme zu versprühen.

Wenn du Fan von isometrischen Klassikern, Rob-Hubbard-Sound oder Survival-Mechaniken in flottem Pixelkleid bist, ist Chimera der Meilenstein, der dir immer zuflüstert: „Hier hätte noch Mission Pandora kommen sollen…“

 

Dunjunz – 1987 by Bug Byte

Dunjunz - 1987 by Bug Byte

dunjunz coverWenn vier Pixelhelden losziehen, um einen Kelch zu retten, den niemand je gesehen hat, dann ist das entweder der Auftakt zu einer Bibelverfilmung – oder zu Dunjunz. Letzteres trifft zu. Das 1987 von Bug-Byte veröffentlichte Spiel für BBC Micro und Acorn Electron ist im Prinzip das britische Pendant zu Gauntlet – nur mit mehr Charme, mehr Tastenchaos und weniger Amerikanismus. Der Titel klingt wie das Ergebnis einer nächtlichen DSA-Runde mit zu viel Bier und zu wenig Vokalen – und ist dabei eines der ambitioniertesten Projekte für BBC Micro überhaupt.

Die Geschichte des Spiels beginnt mit einem Mann namens Julian Avis. Kein Entwicklerteam, kein Studio, kein Hollywood-Produktionsbudget – einfach nur Julian und sein BBC Micro. Er programmierte Dunjunz in Eigenregie, was heutzutage etwa der digitalen Version von Selbstkasteiung gleichkommt. Was er auf die Beine stellte, war bemerkenswert: ein Dungeon-Crawler, in dem bis zu vier Spieler gleichzeitig spielen konnten – jeder in seinem eigenen Bildschirmsegment. Damals war das so revolutionär wie heute das WLAN-Passwort beim ersten Date zu bekommen.

Jeder Spieler übernahm eine eigene Figur – Ranger, Barbar, Zauberer oder Krieger – und machte sich daran, in 25 Leveln Monster zu verkloppen, Schlüssel einzusammeln, Falltüren auszulösen und mit etwas Glück nicht den Mitspieler über den Haufen zu schießen. Denn ja, Dunjunz hatte „friendly fire“ – also genau das Gegenteil. Das führte zu zahllosen zwischenmenschlichen Eskalationen, wenn der "versehentliche" Pfeil des Rangers den Barbar zur Geistererscheinung degradierte.

Ein Highlight war der Gruppenexit: Sobald ein Spieler das Portal erreichte, durften alle anderen mit – sofern sie noch lebten. Das förderte sowohl Teamgeist als auch strategischen Egoismus. Man konnte seine Freunde retten, musste aber nicht. Man konnte sie rächen – oder stehen lassen wie eine lauwarme Tasse Tee.

Das Spiel wurde auf BBC Micro und Electron veröffentlicht, wobei die Electron-Fassung technisch abgespeckt war – weniger Details, keine Ausgangsanimation, aber immer noch genug für epische Tastaturmassaker. Apropos: Da Dunjunz auf Tastatureingabe setzte, spielten bei vier Spielern meist acht Hände gleichzeitig auf einer Tastatur. Der Begriff „intuitives Interface“ wurde dabei großzügig interpretiert. Das gemeinsame Spielen erinnerte eher an Twister mit Buchstaben.

Presse und Spielerschaft reagierten wohlwollend, wenn auch nicht hysterisch. Computer Gamer vergab 75 % und lobte, dass das Spiel „sehr spielbar“ sei – was ungefähr das britischste Kompliment ist, das man sich vorstellen kann. Electron User pries den Arcade-Charakter, ließ aber durchblicken, dass man für das Spielen am besten auch eine orthopädische Betreuung bereithalten sollte.

In frühen Fassungen soll es Level gegeben haben, in denen man ausschließlich Fallen ausweichen musste – der Vorläufer des heutigen „Rage-Platformers“. Diese Designs wurden jedoch verworfen, vermutlich weil Julian Avis sich selbst damit zur Weißglut trieb. Auch Teleporter mit Zeitschleifen, Kreuzungspunkte mit variablen Ausgängen und ein Miniboss namens „Der Typ mit dem Schild“ sollen diskutiert, aber nie umgesetzt worden sein.

Bug-Byte war zu diesem Zeitpunkt bereits auf der Zielgeraden – wirtschaftlich gesehen. Dunjunz war eines ihrer letzten Spiele vor dem großen Abgang. Verkäufe? Nicht weltbewegend – wahrscheinlich einige zehntausend Einheiten. International? Eher so ein Flüstern im Gewitter. Das Spiel wurde nie für C64, ZX Spectrum oder andere Plattformen portiert – obwohl es das mit seinen Ideen verdient hätte. Aber vermutlich war Dunjunz einfach zu britisch. Zu klobig. Zu charmant.

Von größeren… sagen wir mal… Nachfragen hinsichtlich Designentscheidungen blieb Dunjunz weitgehend verschont. Einzig die freundliche Möglichkeit, seine Mitspieler versehentlich oder mutwillig ins Jenseits zu befördern, führte zu angeregten Diskussionen – und zu einem wahren Boom an „aus Versehen“-Tastendrücken im Wohnzimmer.

Ein besonderes Schmankerl für Technik-Nerds: Dunjunz schaffte es, auf einem 8-Bit-System mit weniger Speicher als eine mittelgroße GIF-Datei heute, vier voneinander unabhängige Viewports, 25 Level, Gegner-Logik und einen Wiedereinstieg mit Kreuzen unterzubringen. Die Diskettenversion enthielt sogar einen Level-Editor – vermutlich eine der frühesten Inkarnationen des „Mach dein eigenes Spiel“-Prinzips, Jahrzehnte vor Mario Maker.

Und wer jetzt denkt, das alles sei einfach nur ein nettes Relikt aus der Zeit von Fönfrisuren und Latzhosen: Dunjunz ist ein Paradebeispiel für kreative Lösungen in engen Grenzen, ein Vorläufer von Koop-Spielen, die heute selbstverständlich sind, und ein Zeugnis dafür, dass man keine Hollywood-Engine braucht, um Spaß zu machen – nur eine Tastatur, eine Prise Sadismus und ein Julian Avis.

Unterm Strich ist Dunjunz so etwas wie der schottische Single Malt unter den Dungeon-Crawlern: ein bisschen rau, nicht für jeden Gaumen gemacht, aber für Kenner ein echter Schatz.

 

Vizawrite – 1983 by Viza Software

Vizawrite - 1983 by Viza Software

vizawriteIm Jahr 1983, als der Commodore 64 gerade dabei war, den Heimcomputermarkt zu erobern, erschien ein Textverarbeitungsprogramm, das schon durch seinen Namen den Anspruch mitbrachte, professionelles Schreiben auf dem Heimcomputer möglich zu machen: VizaWrite 64. Es war nicht das erste Textverarbeitungsprogramm für den C64, wohl aber eines der ambitionierteren.

Gegründet von dem britischen Entwickler Kevin Lacy im britischen Maid Stone East, machte sich Viza Software schnell einen Namen als Anbieter leistungsfähiger Bürosoftware für den Heimgebrauch – allen voran mit dem Textverarbeitungsprogramm Vizawrite. Dieses bot bereits 1983 Features wie automatischen Zeilenumbruch, Makros, Tabulatoren und eine umfangreiche Druckerunterstützung – Funktionen, die später zum Standard wurden.

VizaWrite 64 wurde auf einer einzigen 5,25-Zoll-Diskette ausgeliefert und benötigte einen Commodore 64 mit einem 1541-Diskettenlaufwerk, sofern nicht die Modulversion vorlag (ein Laufwerk war aber auch dann mehr als sinnvoll) und ein optionales Druckerinterface. Vizawrite war modular aufgebaut. Viele Zusatzfunktionen – wie Makros, Formatvorlagen oder Druckertreiber – wurden von Diskette nachgeladen, sodass die tatsächliche Funktionalität weit über die Grundgröße hinausging. Die Software bot für damalige Verhältnisse ein beeindruckendes Funktionspaket: Fließtextverarbeitung, Wortzählung, Blockoperationen, Seitennummerierung, benutzerdefinierbare Ränder, Tabstopps und – man höre und staune – sogar einfache Formatierungsfunktionen wie Fett, Kursiv und Unterstreichen, sofern der angeschlossene Drucker dies unterstützte.

Die Textverarbeitungssoftware war ein echtes Herzensprojekt des britischen Programmierers Kevin Lacy. In einer Zeit, in der viele Programme rein funktional gedacht waren, verlieh er Vizawrite einen ganz persönlichen Touch – inklusive eines charmanten kleinen Easter Eggs. Denn Lacy hatte eine ausgeprägte Vorliebe für geometrische Formen, insbesondere Dreiecke. Da der ältere Commodore PET keine Zeichen für Dreiecke besaß, war Lacy begeistert, als der C64 diese endlich ermöglichte. Und so baute er in Vizawrite mehrere Dreiecke als Sonderzeichen ein – nicht mit technischer Bedeutung, sondern einfach als ästhetisches Augenzwinkern. In einem Interview im Happy Computer Magazin von 1987 sagte er dazu sinngemäß: „Ich mag einfach Dreiecke.“ Das Easter Egg ist also kein verstecktes Spiel oder eine geheime Botschaft, sondern vielmehr eine liebevolle Signatur eines Programmierers, der seinem Werk eine persönliche Note verleihen wollte.

Preislich lag VizaWrite bei etwa £49.95, was inflationsbereinigt rund 240 US-Dollar im heutigen Wert entspricht. Damit war es günstiger als viele Konkurrenzprodukte für Apple oder CP/M-Systeme, aber deutlich teurer als einfache Editor-Programme wie SpeedScript oder Paperclip. Dennoch fand sich eine treue Nutzerschaft, vor allem unter Lehrern, Hobbyautoren und Studenten. Laut einem Interview mit VizaSoft aus dem Jahr 1984 wurden in den ersten beiden Jahren über 60.000 Exemplare verkauft – für ein Nischenprodukt auf einer Spieleplattform eine beachtliche Zahl.

Doch Vizawrite hatte Konkurrenz. Besonders Textomat Plus von Data Becker sorgte für Aufmerksamkeit: Das Programm bot komplexe Formatierungsoptionen und ein durchdachtes Menüsystem, war jedoch in puncto Bedienung und Ladegeschwindigkeit nicht so benutzerfreundlich wie Vizawrite. Ein weiterer Mitstreiter war der StarTexter, Teil der bekannten Star-Software-Reihe. Seine Stärke lag in der Kompatibilität mit anderen Star-Produkten wie StarDatei und StarText, was die Datenverwaltung erleichterte. Für Nutzer, die sich nach einer grafisch orientierten Umgebung sehnten, war GeoWrite eine echte Alternative. Als Bestandteil des GEOS-Betriebssystems brachte es erstmals eine WYSIWYG-Oberfläche („What You See Is What You Get“) auf den C64 – inklusive Schriftarten und Layoutoptionen, wie man sie sonst nur von Bürorechnern kannte. Daneben gab es kleinere, aber interessante Programme wie Jasword, das vor allem durch Speicheroptimierung und Schnelligkeit punktete, sowie Mastertext, das sich mit hoher Textkapazität und vielseitiger Druckersteuerung einen Platz im Softwareregal sicherte. Für besonders anspruchsvolle Layout-Aufgaben setzte man auf Pagefox, ein DTP-Modul (Desktop Publishing) von Scanntronik, das grafische Textgestaltung ermöglichte – etwa für Vereinszeitungen oder Abi-Magazine.

Trotz dieser Vielfalt behauptete sich Vizawrite durch seine Balance aus Funktionsvielfalt, Benutzerfreundlichkeit und Modularität. Besonders beliebt war die Steckmodul-Version, mit der das Programm sofort nach dem Einschalten verfügbar war – eine echte Seltenheit in der C64-Welt.

Technisch arbeitete VizaWrite mit einem eigenen, rudimentären Dateiformat, das reine Textdaten mit eingebetteten Steuerzeichen speicherte – ähnlich wie später RTF. Es war daher nicht ohne Weiteres kompatibel mit anderen Textverarbeitungen, konnte jedoch ASCII-Dateien importieren und exportieren. Dies machte es auch für den Datenaustausch mit Universitätsrechnern oder Schreibmaschinen-Druckern nützlich.

Heute ist VizaWrite 64 vor allem ein Schatz für Retro-Computing-Fans. Es war nicht das schönste, schnellste oder funktionsreichste Textverarbeitungsprogramm für den C64 – aber eines der durchdachtesten. Und es war ein Statement: Der C64 war mehr als ein Spielecomputer.

Panzer General – 1994 by SSI

Panzer General - 1994 by SSI

panzer general coverPanzer General, veröffentlicht 1994 von SSI, war ein rundenbasiertes Strategiespiel, das mit seinen hexagonalen Karten zwar keineswegs eine Neuerfindung des Genres darstellte, wohl aber den entscheidenden Schritt wagte, das bis dahin als sperrig geltende Wargame-Genre massentauglich zu machen. In Japan waren Hexfeld-Kriegsspiele längst etabliert: Mit Titeln wie Daisenryaku, das seit 1985 auf Plattformen wie dem MSX oder PC-88 erschien, war das Prinzip bereits fester Bestandteil der dortigen Spielkultur. Auch auf westlichen Konsolen hatte man mit Nectaris (1989, PC-Engine) – später auch bekannt als Military Madness – einen beliebten Vertreter, der Taktik und Zugänglichkeit verband. Doch im Westen galt Hex-Strategie bis dahin als Domäne grauer DOS-Menüs und dicker Handbücher. Panzer General änderte das.

Der Spieler übernahm das Kommando über die deutsche Wehrmacht zu Beginn des Zweiten Weltkriegs und konnte seine Kernarmee durch eine ganze Kampagne führen – von Polen 1939 bis zu einem möglichen Sieg über die USA im Jahr 1945. Jede Schlacht brachte je nach Erfolg Prestige, das in neue Truppen, Upgrades oder Verstärkungen investiert werden konnte. Das Kampagnensystem war verzweigt, sodass alternative Pfade möglich wurden: Wer in Frankreich schnell genug siegte, konnte früher nach England übersetzen, wer Afrika dominierte, bekam andere Ziele. Durch diese Mechanik entstand ein Spielgefühl, das sich deutlich von den linearen Missionen früherer SSI-Titel abhob.

Die Entwicklung lag in den Händen von Paul Murray, der als Lead Programmer und Game Designer die technische und spielmechanische Basis schuf. Joel Billings, Gründer von SSI, war laut MobyGames ausdrücklich als Campaign Designer tätig und entwarf mit David Landrey die Struktur und Szenarien der Kampagne. Bret Berry übernahm als Producer die Gesamtkoordination, Doug Brandon steuerte den Soundtrack bei, der mit militärischen Marschthemen und orchestralen Akzenten für ungewohnt viel Atmosphäre sorgte. Die Benutzeroberfläche und Karten wurden von David Jensen gestaltet, während Ron Calonje für die Audio-Implementierung verantwortlich war.

Während der Entwicklung wurden mehrere Features konzipiert, aber letztlich gestrichen. Dazu gehörte ein Szenario-Editor, mit dem Spieler eigene Schlachten entwerfen sollten. Auch war eine zweite, sowjetische Kampagne angedacht, ebenso wie eine „Was-wäre-wenn“-Reihe um eine Invasion Großbritanniens oder eine ausführlichere Einbindung Italiens und Japans. Diese Entwürfe wurden aus Zeit- und Budgetgründen fallengelassen. In internen Design-Skizzen tauchten darüber hinaus alternative Karten für Afrika, die Kaukasusregion und sogar ein Seegefecht um Gibraltar auf – keine davon schaffte es ins finale Spiel.

Bei seiner Veröffentlichung wurde Panzer General zu einem gewaltigen Erfolg: Über 250.000 verkaufte Exemplare allein in der ersten Phase machten es zum erfolgreichsten SSI-Spiel überhaupt. Kritiken lobten das Spiel für seine intuitive Steuerung, die gelungene Verbindung aus taktischer Tiefe und Spielbarkeit sowie das motivierende Fortschrittssystem. Computer Gaming World nannte es das „beste Kriegsspiel seit Jahren“, PC Gamer urteilte: „So stellt man sich strategisches Gameplay mit Geschichte vor.“ In Deutschland vergaben Magazine wie PC Player bis zu 86 %.

Doch in Deutschland kam auch Kritik auf – und zwar nicht nur im Feuilleton. 1996 wurde Panzer General von der Bundesprüfstelle für jugendgefährdende Schriften indiziert. In der offiziellen Begründung heißt es:
Bedenklich ist das Angebot, durch geschicktes taktisches Verhalten den Ausgang einzelner Schlachten wie den Verlauf des ganzen (Zweiten Welt)Krieges zu beeinflussen und erfolgreicher zu sein als die Truppen Nazi-Deutschlands. Der ‚Endsieg‘ wird doch noch, wenigstens am Computer, möglich!“
Die Darstellung der Kampagne und das Verpackungsdesign wurden ebenfalls bemängelt. So hieß es im Text auf der Rückseite der Box, der Spieler könne als deutscher General „die Geschichte umschreiben“. Zwar wurde im Handbuch an einer Stelle erwähnt, dass man auch auf Seite der Alliierten „Krieg spielen“ könne, doch in der Realität spielten sich sämtliche Kampagnen ausschließlich aus deutscher Sicht. Italien und Japan tauchten nicht auf, und der gesamte Plot war auf die Perspektive der Wehrmacht ausgelegt. Besonders der fiktive Angriff auf Amerika am 1. Juni 1945 – als Finale der Kampagne – wurde als gefährlicher Revisionismus eingestuft.

Trotz dieser Kontroverse blieb der internationale Erfolg ungebrochen. Das Spiel wurde in mehreren Sprachen lokalisiert, 1995 erschien eine Windows-Version mit überarbeitetem Interface, eine PlayStation-Version folgte unter dem Titel Allied General. Eine Amiga-Version wurde nie entwickelt oder veröffentlicht, auch wenn dies manchmal fälschlich behauptet wird – Panzer General war ein reines DOS-Produkt und orientierte sich technisch und visuell bereits an der frühen Windows-Ästhetik.

In der Rückschau bleibt Panzer General ein Meilenstein. Es kombinierte das jahrzehntelang gewachsene Know-how klassischer Papier-und-Papp-Wargames mit der Benutzerfreundlichkeit eines modernen PC-Spiels. Es war ein taktisches Spiel, aber auch ein erzählerisches Experiment, das Geschichte nicht erklärte, sondern spielbar machte – mit allen Chancen und Abgründen. Der Erfolg beruhte nicht zuletzt auf der Entscheidung, Geschichte nicht als rein dokumentarischen Prozess zu sehen, sondern als interaktives Szenario mit Optionen. Für viele war das befreiend, für manche verstörend. Unabhängig davon hat Panzer General das Genre definiert wie kaum ein anderes Spiel zuvor. Es war nicht das erste Hexfeld-Spiel – aber das erste, das in der westlichen Welt ein Millionenpublikum mit kleinen, sechseckigen Feldern fesseln konnte. Und damit war es, ganz im Geiste von SSI, ein strategischer Sieg auf ganzer Linie.

Viele Jahre nach dem ursprünglichen Erfolg und mehreren offiziellen Fortsetzungen wie Allied General und Pacific General entstand schließlich das inoffizielle, aber offiziell lizenzierte Remake, das als würdiger Nachfolger gilt: Panzer Corps. Veröffentlicht 2011 von Slitherine und entwickelt von The Lordz Games Studio in Kooperation mit Flashback Games, präsentierte es sich als moderne Neuinterpretation von Panzer General, die sich nicht damit begnügte, nostalgische Gefühle zu wecken, sondern das Spielkonzept gezielt verbesserte. Die Grundlage war ein Fanprojekt – Panzer General Forever – das mit Unterstützung von Community und Entwicklern zur Vollversion ausgebaut wurde. Die Spielmechanik blieb dabei dem Original treu: rundenbasierte Kämpfe auf Hexfeldern, eine verzweigte Kampagne mit Prestige-System, langlebigen Eliteeinheiten und taktischer Vielfalt. Neu hinzu kamen eine hochauflösende 2D-Grafik, ein eigener Karteneditor, dutzende DLC-Erweiterungen – darunter Afrika Korps, Soviet Corps und eine Grand Campaign mit über 150 Szenarien – sowie Online-Multiplayer und Modding-Unterstützung. Die Kritik war fast durchweg positiv, das Spiel wurde als „Comeback des Generals“ gefeiert und auf Plattformen wie GOG, Steam und iPad veröffentlicht. Damit schloss sich der Kreis: Panzer Corps brachte jene Strategen zurück ins Feld, die 1994 mit VGA-Panzern durch Polen marschierten – diesmal in hübscherer Uniform und mit deutlich weniger Ladezeiten. 2020 folgte mit Panzer Corps 2 schließlich auch der Schritt in die 3D-Grafik und moderne Engine, aber der Takt bleibt derselbe: Prestige, Panzer, Plan – Zug für Zug.

Fiendish Freddy’s Big Top O‘ Fun – 1989 by Gray Matter / Mindscape

Fiendish Freddy's Big Top O' Fun - 1989 by Gray Matter / Mindscape

btof titleFiendish Freddy’s Big Top O’ Fun, entwickelt von Gray Matter Inc. unter Leitung von Chris Gray und veröffentlicht 1989 von Mindscape, ist ein grellbuntes, schwarzhumoriges Zirkusspiel, das mit sechs teils brutalen Minispielen in Folge für offene Münder und verkrampfte Joystickhände sorgte. Der Spieler übernimmt die Rolle eines Zirkusdirektors, der versucht, seinen heruntergekommenen Betrieb mit spektakulären Shows vor der endgültigen Schließung zu retten. 10.000 Dollar müssen verdient werden, doch da ist Fiendish Freddy – ein zynischer Saboteur mit Zylinder und Zigarrenschneidern, der nichts lieber tut, als den Artisten das Leben zur Hölle zu machen.

Bereits die Disziplinen selbst lesen sich wie eine Mischung aus Slapstick und Sadismus: Beim Turmsprung aus mehreren hundert Metern Höhe muss der Artist in immer kleinere Wasserbecken zielen, darunter ein winziges Planschbecken – das einzige, was zwischen ihm und der zersplitterten Wirbelsäule steht. Währenddessen greift Freddy schon mal zur Rakete, um den Springer abzuschießen. Beim Jonglieren versucht ein Propellerhut die Würfe zu sabotieren, bei der Seiltanznummer sägt Freddy mit Brecheisen und Kettensäge an der Stabilität des Seils. Besonders makaber: In der Messerwurf-Disziplin rotieren Zielscheibe und Assistentin, und wer danebenwirft, trifft sie ins Fleisch – begleitet von erstaunlich expliziten Bluteffekten für ein Spiel von 1989.

Diese Darstellung rief zwar keine öffentlichen Proteste hervor, sorgte aber bei manchen Eltern für hochgezogene Augenbrauen. Dass das Spiel überhaupt ungeschnitten auf Plattformen wie dem C64, Amiga oder Atari ST erscheinen konnte, lag wohl an der grellbunten Optik, die den Splatterhumor durch Slapstick entschärfte. Dennoch: Wenn in der Seiltanz-Disziplin der Artist vom Trapez segelt und Freddy mit einem Amboss hinterherwirft, blieb nicht viel Raum für Interpretation. Wie ein Spieler in einem späteren Forum treffend schrieb: „Fiendish Freddy war eigentlich das erste Mortal Kombat – nur mit Clowns.

Die Programmierung übernahm Simon Golding, der Soundtrack stammt von Barry Leitch, der später mit Top Gear, Lotus Turbo Challenge und Super Cars II berühmt wurde, und die Grafiken – sämtliche Sprites, Animationen und Szenenhintergründe – wurden komplett von Kristi-Louise Herd erstellt. Sie zeichnete alles selbst auf dem Atari ST, wie sie später in einem Interview erklärte. Für die 8-Bit-Portierungen – etwa für C64, Amstrad CPC, ZX Spectrum – war Imagitec Design verantwortlich, wobei jede Plattform ihre Eigenheiten hatte. Die Amiga-Version bot Sprachausgabe („Welcome to the Big Top!“), die Spectrum-Fassung dagegen eine reduzierte Farbpalette und keine Samples, aber flüssiges Gameplay. Der C64 wiederum verfügte über zwei verschiedene Versionen – Tape und Cartridge –, wobei Letztere aufgrund der berüchtigten Multiload-Zeiten deutlich bevorzugt wurde. In der Tape-Fassung dauerte das Nachladen zwischen den Disziplinen mitunter länger als die Disziplin selbst. Die Cartridge-Version war deshalb auch Teil des Commodore 64 Games System-Pakets – eine Ehre, die nur wenigen Spielen zuteilwurde und auf einen gewissen kommerziellen Erfolg schließen lässt.

Laut Pressematerial von Mindscape war das Spiel „das unterhaltsamste und abwechslungsreichste Zirkuserlebnis auf Heimcomputern“, und auch die Presse war weitgehend begeistert. Die britische Zzap!64 vergab 89 %, Crash ernannte die Spectrum-Fassung zum „Crash Smash“, Sinclair User verlieh den „Classic“-Award. Die Zeitschrift The One lobte vor allem den Humor und die technische Vielfalt – die unterschiedlichen Disziplinen seien wie eigenständige Spiele. Der einzige größere Kritikpunkt war die teils schwankende Steuerung bei Trapez und Kanonenritt – aber das gehörte fast schon zur absurden Show. Ein Leserbrief an Your Sinclair fasste das Spiel mit britischem Humor so zusammen: „Der einzige Zirkus, in dem Scheitern mehr Spaß macht als Gewinnen.“

Während der Entwicklung testete das Team auch andere Disziplinen: eine Parade mit Elefanten, ein Feuerspucker-Wettkampf, sogar eine Glaskugel-Balanciernummer, bei der der Artist auf rollenden Fässern jonglieren sollte. Letztlich fielen all diese Ideen dem knappen Speicher und den technischen Einschränkungen der 8-Bit-Zielplattformen zum Opfer. Besonders ärgerlich: Man hatte intern mit einem Kamera-Schwenk über das Publikum geplant, komplett mit Konfetti und Rufen – wurde aber gestrichen, um Ladezeiten zu sparen.

Das Spiel wurde weltweit vertrieben, erschien auch in einer französischen, deutschen und spanischen Fassung – auf dem Amiga mit übersetzten Texten, auf dem C64 in Multilanguage-ROMs. Verkaufszahlen liegen nicht exakt vor, doch durch die vielen Portierungen, die Aufnahme ins C64GS und zahlreiche Budget-Wiederveröffentlichungen (u. a. unter dem Label Kixx) kann man von weit über 50.000 verkauften Einheiten ausgehen – was für ein Spiel dieser Art im damaligen Umfeld beachtlich ist.

Musikalisch griff Barry Leitch tief in die Klamottenkiste: schrille Calliope-Klänge, nervöses Trompetengebläse und abruptes Staccato unterlegten die Chaosakte mit absurder Theatralik. Besonders die Eröffnungsfanfare hatte Ohrwurmpotenzial, das noch Wochen später in Schulpausen gepfiffen wurde. Die Soundeffekte stammten aus dem typischen Gray-Matter-Toolkit: Samples von Lachen, Schmerzensschreien und einer weiblichen Assistentin, die gelegentlich aufstöhnt, wenn ein Messer sie trifft – bizarr und kurios zugleich.

Fiendish Freddy’s Big Top O’ Fun bleibt bis heute ein Beispiel dafür, wie schräge Ideen, technische Cleverness und eine Prise bösen Humors zu einem einzigartigen Spielerlebnis führen können. Weder ein klassisches Sportspiel noch ein reines Partyspiel, balanciert es virtuos auf dem Drahtseil zwischen Mini-Game-Sammlung, Satire und Slapstick-Videotheater. Es ist ein Titel, der sich nicht einfach einordnen lässt – aber genau das macht ihn bis heute unvergessen. Und während Fiendish Freddy im Hintergrund seine Zigarre anzündet und grinst, wissen wir: Selbst wenn wir verlieren, unterhalten hat’s auf jeden Fall.

 

The Goonies – 1985 by Datasoft / U.S. Gold

The Goonies - 1985 by Datasoft / U.S. Gold

goonies coverThe Goonies, veröffentlicht 1985 in den USA von Datasoft und ein Jahr später in Europa von US Gold, war eine jener frühen Filmumsetzungen, die versuchten, das cineastische Abenteuerfeuerwerk ins pixelige 8‑Bit‑Universum zu übertragen – und das mit erstaunlich viel Charme, obwohl (oder gerade weil) man statt auf actionreiche Dauerballerei auf Puzzle-Kombinationen und Geschicklichkeit setzte. Das Spiel wurde von Scott Spanburg programmiert, der später noch durch Bruce Lee und Zorro auffiel, während Kelly Day die Grafik entwarf und Richard Mirsky (Apple II, Atari) sowie John A. Fitzpatrick (C64) sich um die Musik kümmerten – letztere teils mit eigenständigen Tape‑ und Diskettenversionen, was zur damaligen Zeit noch echte Unterschiede bedeutete.

Spielerisch begibt man sich in einem Mix aus Plattformspiel und Puzzler mit zwei Goonies gleichzeitig durch acht Level, die lose Szenen aus dem gleichnamigen Spielberg-Film aufgreifen. Im Solomodus kann man zwischen den Figuren hin- und herschalten, im Zwei-Spieler-Modus übernimmt jeder einen der Charaktere. Ziel in jedem Abschnitt: Schalter aktivieren, Schlüssel finden, Fallen vermeiden – und das möglichst synchron. Die grafische Umsetzung war je nach Plattform unterschiedlich detailreich, wobei besonders die C64- und Amstrad-Versionen sich durch etwas knackigere Farben und Musikuntermalung hervortaten, während die ZX Spectrum-Fassung mit spartanischer Darstellung auskommen musste, dafür aber flüssiger lief.

Der Entwicklungsprozess verlief vergleichsweise geordnet, wobei einige ursprünglich geplante Spielelemente und Level aus Speicherplatzgründen wieder gestrichen wurden. Laut Aussagen in späteren Entwicklerforen war unter anderem ein Level vorgesehen, in dem die Fratellis mit einer Lore durch das Bild rasten sollten – eine direkte Anspielung auf die dramatische Lorenfahrt aus dem Film. Auch experimentierte man mit einem Bildschirm, der bei bestimmten Aktionen zittern oder kollabieren sollte – eine Art primitiver Erdbebeneffekt, der durch flackernde Tiles und Soundeffekte simuliert werden sollte. Letztlich war die Technik auf den Zielplattformen dafür zu begrenzt, sodass man den Plan aufgab und das Ganze durch eher statische Levelbilder ersetzte. Ebenso wurden alternative Figuren wie Andy oder Brand als spielbare Charaktere verworfen, da die Zweierkonstellation mit Mikey & Mouth technisch am einfachsten zu realisieren war.

Was damals nur wenige wussten: Auf dem Amstrad CPC konnte man mit einem versteckten Tastendruck F5 tatsächlich das Startlevel ändern – eine Art inoffizieller Trainer-Modus, den man wohl ursprünglich zu Testzwecken eingebaut und nie entfernt hatte. Und in der CPC-Version startete man mit 8 Leben statt der üblichen 5 – möglicherweise ein Kompromiss an die damals als „etwas schwieriger“ geltende Tastensteuerung. In manchen Fassungen wie der Apple-II- und MSX-Version lassen sich beim Neustart sogar kleine Unterschiede im Levelverlauf und der Platzierung von Objekten feststellen – vermutlich bedingt durch leicht andere Portierungsbasen.

Besonders spannend ist der internationale Versionsvergleich: In Japan erschien 1986 bei Konami eine eigene Umsetzung für Famicom und MSX mit völlig anderem Spielprinzip, Musik und Mechanik. Diese Version wurde später mit dem bekannten The Goonies II auf dem NES fortgesetzt – viele europäische und US-Spieler gingen damals fälschlich davon aus, Goonies II wäre ein Sequel zur US Gold-Version, obwohl es sich um einen völlig anderen Ast der Lizenzgeschichte handelte.

Kritiken fielen meist positiv aus, wenn auch nicht euphorisch. Die C64-Version erhielt im Schnitt 68–75 % in Magazinen wie Zzap!64, der Spectrum pendelte um die 74 %, während der CPC immerhin auf respektable 70 % kam. Besonders gelobt wurde die Kombination aus Rätseldesign und Teamwork-Mechanik, aber man bemängelte die recht kurze Spieldauer und den manchmal frickeligen Schwierigkeitsgrad. Ein User-Kommentar aus dem Retro Gamer Forum brachte es auf den Punkt: „Ein Spiel, bei dem die Kooperation nicht hilft, sondern scheitert, wenn der zweite Spieler zu blöd ist – willkommen bei den echten Goonies!

Kommerziell gesehen war The Goonies ein veritabler Erfolg. Während genaue Verkaufszahlen schwer greifbar sind, tauchte es in mehreren Compilations auf, etwa in US Golds Kixx-Reihe oder auf Tape-Zusammenstellungen wie Hit Pak. Die Tatsache, dass es auf beinahe allen 8-Bit-Systemen erschien – von Apple II über Atari 8-Bit bis hin zu Amstrad CPC, ZX Spectrum und MSX – spricht für eine gute Marktverbreitung. Sogar eine PC-88-Version wurde in Japan realisiert, mit leicht verändertem Grafikstil und japanisch lokalisiertem Text, was im Westen kaum bekannt war.

Heute ist The Goonies ein Liebling der Abandonware-Szene und Emulationsfreunde. Die C64-Version ist rund 170 kB groß, die Amstrad-Version knapp 128 kB, die Spectrum-Fassung nur rund 46 kB – und dennoch steckt in diesen paar Kilobyte jede Menge Liebe, Timing und Trial & Error. Besonders Sammler schätzen die Tape-Editionen mit alternativen Artworks, z. B. die grüne Kixx-Label-Kassette, die in UK später einen gewissen Kultstatus erlangte.

Was bleibt, ist ein Spiel, das filmische Nostalgie mit cleverem Spieldesign verband. Keine überbordende Grafikorgie, kein revolutionäres Gameplay – aber ein liebevoll umgesetzter Lizenztitel, der den Charme des Films in ein kompaktes, forderndes Puzzle-Erlebnis für zwei kleine Pixelhelden übersetzte. Für Freunde klassischer Movie Games bleibt The Goonies auch heute noch ein kleiner, blinkender Goldschatz im Labyrinth der Retrogeschichte.

2400 A.D. – 1987 by Origin Systems

2400 A.D. – 1988 by Origin Systems

314527 2400 ad dos front cover2400 A.D. von Origin Systems war eines dieser Spiele, das mit großen Ambitionen gestartet wurde – und mit einem leisen „bitte vergessen“ im Firmenarchiv endete. Entwickelt von Chuck Bueche, besser bekannt als „Chuckles“, der zuvor als Entwickler bei Ultima I–IV sowie Autoduel tätig war, erschien der Titel 1988 für den Apple II und MS-DOS – und hätte eine neue Sci-Fi-Rollenspielreihe einläuten sollen. Stattdessen wurde er zum Paradebeispiel für verpasste Chancen bei einem eigentlich hochinteressanten Cyberpunk-Konzept.

Das Spiel versetzt den Spieler in die dystopische Stadt Metropolis auf dem Planeten XK-120, wo eine Roboterdiktatur das tägliche Leben unterjocht. Als Mitglied des Widerstands sollte man durch Gespräche, kleinere Aktionen und gelegentliche Gewaltakte das Regime nach und nach destabilisieren. Vom Gameplay erinnerte vieles an Ultima IV: Top-down-Ansicht, Tastenkürzel für Aktionen, ein rudimentärer Parser für Gespräche und eine offene Spielwelt, die man erkunden konnte, sobald man eine Ahnung hatte, was überhaupt zu tun war. Der Humor blitzte gelegentlich durch – etwa durch Bewohner mit Namen wie „Sven the Janitor“, der völlig belangloses Zeug von sich gab. Wer sich jedoch eine epische Story oder moralische Entscheidungsfreiheit erhoffte, wurde enttäuscht. Der Plot plätscherte dahin, und die immer gleichen Roboter-Patrouillen nervten schneller, als einem lieb war.

Chuck Bueche hatte ursprünglich größere Pläne. In internen Konzeptzeichnungen, die später auf Messen kursierten, war von mehreren Städten, einem Bahnnetz, Außenmissionen und sogar städtischen Bezirksaufständen die Rede. Auch ein erweitertes Dialogsystem mit thematischen Auswahloptionen wurde getestet – fiel aber wegen mangelnder Speicherressourcen weg. Der Parser blieb also dumm wie ein Toaster: Wer das richtige Schlagwort nicht tippte, bekam „I don't understand“ als Antwort. Das machte viele Quests zu Rätseln mit der Methode „raten und hoffen“.

Produziert wurde das Spiel mit für Origin typischem Aufwand: Es lag eine faltbare Stadtkarte bei, ein dickes Handbuch und – tatsächlich – kleine Metall-Miniaturen von Robotern, als wolle man ein Tabletop-Spiel simulieren. Diese Aufmachung war vielleicht auch nötig, um den Preis von knapp 50 Dollar zu rechtfertigen, was inflationsbereinigt etwa 130 Euro heute entspricht. Richard Garriott, Mitbegründer von Origin, stand hinter der Veröffentlichung, hatte aber mit der Entwicklung selbst wenig zu tun. Die Promotion war dennoch typisch großspurig: In Anzeigen hieß es, 2400 A.D. sei „the next evolution in science fiction role playing“, eine neue Dimension sei erreicht worden – der damals übliche Werbe-Overkill.

Doch die Verkaufszahlen blieben weit hinter den Erwartungen zurück. Weder Apple-II- noch PC-Spieler wollten sich auf das experimentelle Setting einlassen. Viele kritisierten die langsame Performance auf älteren Maschinen, das belanglose Missionsdesign und die seelenlose Welt. In einem seltenen Interview sagte Chuck Bueche später: „Wir haben die Essenz eines RPGs genommen, aber dabei vergessen, den Spieler auch zu motivieren.
Ein Spieletester der Computer Gaming World war noch direkter: „Wenn man sich bei 2400 A.D. langweilt, liegt das nicht an einem selbst – es liegt am Spiel.

Eine Portierung auf den Commodore 64 war zwar intern mal Thema, wurde aber nie über das Planungsstadium hinausgeführt. Entgegen mancher Mythen war John Romero nicht an einer C64-Version beteiligt – auch wenn er zu der Zeit bei Origin arbeitete. Stattdessen wurde recht bald das bereits begonnene Sequel 2500 A.D. eingestellt, nachdem klar war, dass Teil eins kommerziell gefloppt war. Bueche verließ Origin kurz darauf und widmete sich dem Studium. Rückblickend war 2400 A.D. so etwas wie sein letzter großer Alleingang.

Einige interessante Details zur Produktion: Die Stadt Metropolis basierte laut Designer-Skizzen auf einer Mischung aus sowjetischen Stadtentwürfen der 1970er-Jahre und texanischen Einkaufszentren – kein Witz. Die Robotertypen hatten interne Codenamen wie „Smashbot“, „Zapbot“ und „Snitchbot“, letzterer war ein besonders nerviger Denunziant, der in jeder Gasse zu stehen schien. Es gab ursprünglich auch eine moralische Skala für den Spieler – bei zu brutaler Vorgehensweise hätten sogar Mitkämpfer das Vertrauen verloren. Auch das fiel dem Rotstift zum Opfer.

Die Kritiken waren – höflich gesagt – mittelmäßig. MobyGames listet keine internationalen Wertungen, aber Fanreviews pendeln zwischen „nette Idee, langweilige Umsetzung“ und „mehr als eine Tech-Demo ist das nicht“. Besonders heftig war das Urteil in einem Rückblick der Amiga Power, die (sinngemäß) meinten: „2400 A.D. sieht aus wie ein Ultima, spielt sich wie ein Schachspiel ohne Regeln.
Ein Nutzer auf MyAbandonware schrieb trocken: „Ich wollte Widerstandskämpfer sein. Stattdessen habe ich Möbel umstellt und mit Robotern über Faxgeräte gesprochen.

Komponisten oder Sounddesigner wurden im Abspann nicht genannt – ein weiteres Indiz dafür, dass Musik und Atmosphäre bei diesem Titel nicht Priorität hatten. Soundeffekte gab es, aber sie waren rudimentär, und auf vielen Systemen sogar deaktiviert, wenn der Arbeitsspeicher zu knapp wurde.

Heute ist 2400 A.D. ein kurioses Relikt – nicht wirklich gut, aber in seiner Mischung aus ambitioniertem Worldbuilding und blutleerem Gameplay irgendwie charmant. Es ist ein Beispiel dafür, wie sich große Ideen im Labyrinth der Limitierungen verlieren können. Und es ist der Beweis, dass selbst bei Origin Systems nicht alles Gold war, was auf Klappkarte gedruckt wurde.

Wer möchte, kann es über DOSBox spielen. Die DOS-Version umfasst knapp 200 kB und läuft sogar auf 8088-kompatiblen Maschinen mit CGA. Und vielleicht, nur vielleicht, entdeckt man beim nächsten Durchspielen etwas, das die damalige Rebellion doch noch rechtfertigt. Wahrscheinlich aber nicht.

 

Hewlett-Packard HP-65

Hewlett-Packard HP-65

hp 65 white background

Von HP_65.jpg: teclasorg on flickrderivative work: Pittigrilli (talk) - HP_65.jpg, CC BY-SA 2.0, https://commons.wikimedia.org/w/index.php?curid=9710858

Der Hewlett-Packard HP-65, im Jahr 1974 eingeführt, war ein revolutionäres Gerät, das zwar äußerlich als Taschenrechner daherkam, in Wahrheit jedoch der weltweit erste programmierbare Taschenrechner mit magnetischem Massenspeicher war. Der HP-65 markierte einen echten Meilenstein in der Geschichte der mobilen Rechentechnik und leitete eine neue Ära ein – nicht nur für Hewlett-Packard, sondern für die gesamte Rechnerindustrie.

Die Geschichte des HP-65 beginnt bei HPs legendärer Calculator Division in Cupertino, Kalifornien, unter der Leitung von Bill Hewlett und Dave Packard, den beiden Unternehmensgründern. Die technische Projektleitung übernahm Tom Osborne, der schon maßgeblich am HP-35 beteiligt gewesen war – dem ersten wissenschaftlichen Taschenrechner überhaupt. Der HP-65 sollte nun ein Gerät werden, das nicht nur Zahlen verarbeiten, sondern auch ganze Programme speichern und ausführen konnte – ein „Personal Computer“ im Taschenformat, Jahre bevor dieser Begriff überhaupt in Umlauf kam. Osborne selbst beschrieb das Projekt später als „das komplexeste und aufregendste Produkt, das wir in den 70er Jahren je versucht haben“, und in der Retrospektive war der HP-65 nicht weniger als der Urahn aller heutigen programmierbaren Taschencomputer.

Der HP-65 verwendete einen speziell entwickelten, proprietären CMOS-Prozessor von HP selbst, der eng mit dem damaligen Logikdesign der HP-9800-Serie verwandt war. Eine „CPU“ im klassischen Sinn war es nicht – vielmehr bestand die Recheneinheit aus einem diskreten Mikroprogramm-Kontrollwerk, das speziell auf das RPN-Bedienschema (Reverse Polish Notation) und 19-stellige BCD-Arithmetik zugeschnitten war. Das Gerät besaß registerbasierten Speicher, und der Programmspeicher war streng limitiert: 100 Schritte, aufgeteilt in einem eigenen microcodebasierten Format, das spezielle Token für jede Funktion verwendete – zum Beispiel wurde die Tastenfolge SIN nicht als ASCII, sondern als 2-Bit-Kode gespeichert, um Speicherplatz zu sparen. Für damalige Verhältnisse war das eine Meisterleistung der Miniaturisierung, die selbst Großrechnerentwickler ins Staunen versetzte.

Was den HP-65 von allen Taschenrechnern seiner Zeit abhob – und warum er mit Recht als bahnbrechend gilt – war das integrierte Magnetkartenlaufwerk. Dieses konnte kleine, etwa daumengroße Karten einlesen und beschreiben, mit denen Programme gespeichert und wieder abgerufen werden konnten – ein Feature, das bis dahin nur stationäre Computer mit Magnetband oder Lochkarten besaßen. Die Karten wurden über einen Schlitz oben am Gehäuse eingeschoben und mit einem simplen Motorstreifen eingezogen. Jeder Streifen konnte zwei Programme speichern, eines auf jeder Seite. Das System war so gestaltet, dass man z. B. eigene numerische Routinen, Integrationsverfahren oder Maschinenbauformeln direkt unterwegs programmieren und wiederverwenden konnte – etwas völlig Neues im Jahr 1974.

Der ursprüngliche Verkaufspreis betrug 795 US-Dollar, was inflationsbereinigt im Jahr 2025 etwa 4.370 Euro entspricht. Damit war der HP-65 eindeutig ein Gerät für Profis – Ingenieure, Wissenschaftler, Raumfahrttechniker. Und tatsächlich wurde der HP-65 sogar von der NASA auf Apollo- und Skylab-Missionen mitgeführt. Eine Pressemitteilung von HP im Jahr 1975 betonte stolz: „Der HP-65 ist nun weltraumtauglich und wird als rechnergestütztes Backup an Bord für die Missionsplanung eingesetzt..“ NASA-Ingenieur Bruce P. Smith sagte dazu: „Es war das einzige Gerät unseres Vertrauens, das klein genug zum Tragen und intelligent genug war, um die Flugbahn neu zu berechnen, wenn die Bordsysteme ausfielen.“

Der HP-65 hatte ein rotes LED-Display mit 15 Stellen, kein Grafikdisplay, keine Farben, keine Auflösung im heutigen Sinne. Der Bildschirm bestand aus Segmentanzeigen, wie sie in Digitaluhren üblich waren. Eine besondere Raffinesse war der dynamische Scrolling-Effekt: Bei langen Zahlen oder Programmbefehlen scrollte die Anzeige von rechts nach links, um den gesamten Inhalt anzuzeigen – ein Kunstgriff, der durch ausgeklügeltes Timing im Controller-Chip ermöglicht wurde.

Ein Betriebssystem im klassischen Sinne besaß der HP-65 nicht – seine „Firmware“ war ein Satz von 51 festen mathematischen Funktionen plus einem interpreterähnlichen Mikrocode, der die Programmschritte ausführte. Die Bedienung erfolgte über 35 Tasten, die je nach Modus bis zu drei Funktionen aufwiesen. Durch die Nutzung von Tastenkombinationen konnte der Nutzer zwischen numerischen, programmierbaren und Steuerbefehlen umschalten. Auch eine Sprungbefehlsstruktur mit Labels und Subroutinen war implementiert – quasi ein Mini-BASIC ohne Texteditor.

Der Speicher bestand aus 9 Speicherregistern (R0 bis R8) plus einem Stack mit vier Ebenen (X, Y, Z, T), wie im RPN-Design üblich. Massenspeicher im heutigen Sinn war das Magnetkartenlaufwerk – langsamer als RAM, aber mobil und zuverlässig. Externe Anschlüsse hatte der HP-65 keine. Peripheriegeräte waren keine vorgesehen – das Gerät war vollständig stand-alone, kein Interface, keine Netzwerkanbindung, kein Netzteilanschluss. Strom kam ausschließlich über einen integrierten Akku, der allerdings als notorisch fehleranfällig galt. Viele Besitzer der ersten Serien berichten davon, dass die Ladeeinheit überhitzte und die Nickel-Cadmium-Zellen beschädigte. Ein Service Bulletin von HP aus dem Jahr 1975 warnte davor, das Netzteil bei entnommenem Akku anzuschließen – ein seltener Designfehler für ein ansonsten fast perfektes Gerät.

Größe und Gewicht des HP-65 waren für damalige Verhältnisse sensationell: mit 13 × 8 × 3 cm und rund 300 Gramm war das Gerät wirklich „tragbar“, auch wenn es im Jackett ein ziemlicher Klotz blieb. Der Soundchip bestand aus einem einzigen Piezo-Piepser, der bei Fehlern oder Tastentönen ein einfaches Signal ausgab. Musik, Sprache oder gar Soundausgabe im heutigen Sinne gab es selbstverständlich nicht.

Trotz des stolzen Preises verkaufte HP in den ersten drei Jahren über 100.000 Einheiten – was für ein Gerät dieser Klasse, ohne Spiele, ohne Bildschirm, ohne Tastatur im klassischen Sinn, eine gigantische Zahl war. Die US-Zeitschrift BusinessWeek nannte den HP-65 „die eleganteste Maschine, die ein Wissenschaftler ohne Labor tragen kann“, und die New York Times titelte 1975: „Vom Raketenlabor in die Hemdtasche: HPs Taschenrechner weist den Weg“.

Konkurrenz gab es wenig: Texas Instruments brachte erst 1977 den TI SR-52 auf den Markt, der erstmals ein ähnliches Funktionspaket bot. Der SR-52 war günstiger, aber weniger zuverlässig – das Magnetkartenlaufwerk war mechanisch anfälliger, die Programmierung nicht so elegant gelöst. Ein späterer Vergleichstest im Magazin BYTE (1979) kam zum Urteil: „Der HP-65 fühlt sich wie ein Präzisionsinstrument an – der TI wie ein Spielzeug, das sich zu sehr anstrengt.“

Der HP-65 war ein voller Erfolg – technisch, wirtschaftlich, symbolisch. Er veränderte Hewlett-Packard grundlegend: Die Calculator Division wurde nach dem Erfolg massiv ausgebaut, das Unternehmen wandelte sich vom Instrumentenhersteller zum Innovator für mobile Datenverarbeitung. Es war der HP-65, der das Fundament für spätere Geräte wie den HP-41C oder den legendären HP-71 legte. Tom Osborne blieb bis Mitte der 80er bei HP und entwickelte unter anderem den HP-67 und HP-97 – direkte Nachfolger des HP-65, aber mit alphanumerischen Displays und erweitertem Speicher.

Man kann mit Fug und Recht sagen: Der HP-65 war kein Taschenrechner – sondern der erste Taschencomputer, auch wenn er noch keine Bits und Bytes im heutigen Sinn verarbeitete. In seinem Innersten war er ein mikrocodiertes Rechenwerk im Taschenformat – das erste, das man im Flugzeug, im Labor oder im Weltall einsetzen konnte. Und genau das machte ihn unsterblich.

 

Amiga 600

Amiga 600

olympus digital cameraDer Commodore Amiga 600, intern zunächst als Amiga 300 entwickelt, war 1992 Commodores Versuch, einen modernen, kompakteren Heimcomputer für Einsteiger auf den Markt zu bringen. Ursprünglich geplant als günstiger, abgespeckter Amiga 500 für die untere Preisklasse, wurde das Gerät unter dem Projektnamen „June Bug“ (eine Anspielung auf den B-52’s Song, wie auch „Rock Lobster“ beim A500) entwickelt – mit dem Ziel, das Lebensende des Amiga 500 einzuläuten und einen kleinen, kosteneffizienten Amiga für Spiele, Multimedia und Einsteiger zu etablieren. Doch Commodores Management entschied sich in letzter Minute für eine Namensänderung: Statt Amiga 300 sollte das Gerät als Amiga 600 erscheinen, was vielen Kunden suggerierte, es handle sich um einen größeren technischen Sprung. Das Gegenteil war der Fall. David Pleasance, späterer Chef von Commodore UK, beschrieb die Entscheidung rückblickend trocken: „Der Amiga 600 war ein kompletter und absoluter Unsinn – ein Produkt, das niemand wirklich haben wollte.“ In einem Interview mit Retro Gamer ergänzte er: „Das war keine Marktentscheidung, das war ein politisches Manöver. Niemand bei Commodore UK hatte den A600 verlangt – wir wurden damit überrumpelt.

Der Entwickler George Robbins, ein Veteran, der zuvor schon maßgeblich an der A500-Hardware gearbeitet hatte, hatte ursprünglich ein ganz anderes Gerät im Sinn: „Mein Plan war es, ein kostengünstiges A500 zu bauen – etwas einfaches, günstigeres, aber kompatibles. Herausgekommen ist ein aufgeblasenes Durcheinander mit sinnlosen Funktionen..“ Seine Kritik zielte insbesondere auf das Eingreifen des neuen Technikchefs Bill Sydnes, der von IBM gekommen war. Sydnes hatte beim IBM PCjr bereits einen umstrittenen Heimcomputer verantwortet und versuchte nun, dem Amiga 600 Features aus der PC-Welt einzuverleiben – unter anderem den 44-poligen IDE-Port und den PCMCIA-Steckplatz. Robbins kommentierte trocken: „Die Hinzufügung dieser Funktionen führte zu höheren Kosten, größerer Komplexität und verletzte die Kompatibilität – all die Dinge, die ich vermeiden wollte.“

Commodores Hardware-Ikone Dave Haynie brachte es gewohnt direkt auf den Punkt: „Die A600 war eine völlig unnötige Maschine. Sie kostete mehr in der Herstellung als eine A500, leistete weniger und hatte keinen Upgrade-Weg. Es war im Grunde ein Beispiel interner Politik.“ In einer Usenet-Diskussion einige Jahre später führte Haynie weiter aus: „Wir hätten ein echtes, kostengünstiges Amiga machen können, wenn sie zugehört hätten. Der A600 war nichts anderes als die gleichen alten Teile in einem kleineren Gehäuse und kostete mehr. Es gab keine Möglichkeit, einen schnelleren CPU oder ein echtes Grafik-Upgrade einzubauen.“ Damit meinte er unter anderem die Tatsache, dass fast alle Chips nun als SMD-Variante direkt verlötet waren – eine Premiere bei Amigas, die Erweiterungen nahezu unmöglich machte. Geplant war laut internen Quellen sogar kurzzeitig eine Variante mit integriertem Netzteil, ähnlich dem Konzept eines C64C. Haynie sagte dazu in einem privaten Interview: „Das Gehäuse war bereits zu eng. Ein integriertes Netzteil hätte es in einen Toaster verwandelt.“ Er deutete damit die thermischen Probleme an, die das kompakte Gehäuse bei Hitzeentwicklung verursacht hätte. Stattdessen blieb Commodore beim klassischen externen Netzteil – zwar nicht elegant, aber bewährt.

Technisch basierte der A600 auf dem Motorola 68000 mit 7,14 MHz (PAL), wie schon beim A500. Der ECS-Chipsatz erlaubte 1 MB Chip-RAM (max. 2 MB mit Erweiterung), Bildschirmauflösungen von 320 × 256 bis 1280 × 512 (interlaced), 32 Farben standardmäßig, 64 mit Extra Half-Brite oder theoretisch 4096 mit HAM-Modus. In der Praxis nutzten Spiele weiterhin 320 × 200 mit 16 bis 32 Farben – die höhere Auflösung war meist dem Workbench-Betrieb vorbehalten. Der Soundchip „Paula“ blieb gegenüber dem A500 unverändert: vier 8-Bit-Kanäle in Stereo, DMA-gesteuert. Ein Highlight war der PCMCIA-Port, der jedoch in der Praxis kaum genutzt wurde – es gab 1992 nur sehr teure und inkompatible Karten. Auch der interne IDE-Anschluss für 2,5″-Festplatten wurde wegen Kompatibilitätsproblemen der ersten ROM-Versionen kritisch gesehen. Haynie fasste es so zusammen: „Sie haben neue Hardwarefunktionen hinzugefügt, aber vergessen, sie im ROM zu unterstützen. Das ist einfach dumm.

Der A600 wurde mit Kickstart 2.05 und Workbench 2.0 ausgeliefert, später auch mit 2.1. Erst spätere ROM-Versionen erlaubten Booten von Festplatte, Locale-Unterstützung und CrossDOS. Für den Amiga 600 bedeutete CrossDOS insbesondere im beruflichen Umfeld eine wichtige Erweiterung: Der kleine Rechner konnte damit erstmals ohne Zusatzsoftware Daten mit PCs austauschen – eine essenzielle Funktion im Übergang zur MS-DOS-dominierten Arbeitswelt der frühen 90er.Das System war moderner als das 1.3er des A500, aber weniger kompatibel zu älteren Spielen. Viele Magazine legten ein Tool wie Relokick bei, um Kickstart 1.3 in den RAM zu laden. Trotz modernerem OS blieb das System für viele Retrospiele-Fans ein Rückschritt.

Der Listenpreis lag bei ca. 800 DM, inflationsbereinigt rund 830 Euro (2025). Die Variante A600HD mit 20 MB-Festplatte kostete rund 1.200 DM, heute etwa 1.250 Euro. Verkaufszahlen weltweit werden auf etwa 190.000–250.000 Einheiten geschätzt, wobei Deutschland zu den stärkeren Märkten gehörte. Ein Bruchteil der über 4 Millionen verkauften Amiga 500 – und damit ein deutliches Zeichen: Dieses Modell konnte nicht an die Erfolge anknüpfen. Das Urteil der Fachpresse fiel durchwachsen aus: CU Amiga lobte 1992 das kompakte Design und die Festplattenoption, kritisierte aber die fehlende Zifferntastatur. Amiga Format nannte den A600 „eine merkwürdige Zwischen-Generation, nach der niemand gefragt hat“. In Deutschland schrieb 64’er trocken: „Wer vom A500 auf den A600 umsteigt, zahlt drauf – an Preis wie an Leistung.“ Im Rückblick wurde der A600 etwa von Ars Technica als „worst Amiga ever“ bezeichnet. Ein wirtschaftlicher Wendepunkt war der A600 nicht. Er markierte eher den Anfang vom Ende. Commodore verlor 1992 zunehmend Marktanteile an PC und Konsolen, der A600 verwirrte die Kundschaft, kostete zu viel und konnte nichts besser als sein Vorgänger. Der einzige nennenswerte Fortschritt: Die Nutzung von Laptop-Technologien wie PCMCIA und 2,5″-Festplatten wurde für spätere Modelle wie den A1200 übernommen.

Trotz all seiner Schwächen hat der A600 heute Kultstatus. Wegen seines platzsparenden Designs und moderner Erweiterungsmöglichkeiten via FPGA oder CF-Karten ist er heute bei Bastlern beliebt. Als Produkt seiner Zeit bleibt er dennoch: ein Kompromiss, geboren aus Unsicherheit, Fehlentscheidungen und zu viel Manager-Einfluss. Oder, wie Haynie es abschließend formulierte:
Wenn Commodore sich auf echte Innovationen anstatt auf interne Ego-Kriege konzentriert hätte, hätte der A600 etwas sein können. Aber was wir bekamen, war die Antwort auf eine Frage, die niemand gestellt hat.

 

CBM 500-Serie

CBM 500-Serie

b500

Image is taken from: https://vintagecomputer.net/cbm_b_prototypes.cfm

Die CBM 500-Serie war Teil der CBM-II-Familie, einer ambitionierten aber letztlich gescheiterten Neuausrichtung des Unternehmens Commodore Anfang der 1980er Jahre. Anders als ihre Namensvettern der 600er- und 700er-Modelle richtete sich die 500er-Linie nicht primär an den professionellen Büromarkt, sondern umfasste sowohl Business- als auch Personal-Modelle. Dabei war die Modellserie nicht ein einzelner Rechner, sondern eine vollständige Plattform mit unterschiedlicher Ausstattung und Zielsetzung. Zu den bekanntesten Modellen gehören der P500, B500, B505, B510 und der mit besonders großzügiger RAM-Bestückung versehene B520. Letzterer war bereits ab Werk mit 256 KB RAM ausgestattet – ein für 8-Bit-Systeme beachtlicher Wert und Ausdruck der Systemarchitektur, die Speicherbank-Umschaltung (Bank Switching) systemseitig unterstützte.

Die Gestaltung der Gehäuse war ein Bruch mit dem bis dahin kantigen Design der PET-Reihe. Verantwortlich für das elegante, flache Profil der 500er-Modelle war Ira Velinsky, ein Industrie-Designer, der sich unter anderem durch den PET-2001-Prototypen sowie den tragbaren Atari Stacy einen Namen gemacht hatte. Das Gehäuse war durchgehend flach, mit integrierter Tastatur und vorbereitetem Slot für externe Erweiterungen und Zubehör. Die CBM 500-Reihe war somit als modern wirkende Plattform für verschiedene Zielgruppen gedacht – ein Plan, der jedoch an Marktfragmentierung und strategischer Unsicherheit scheitern sollte.

Die gesamte Serie basierte auf dem MOS 6509-Prozessor, einer Weiterentwicklung des 6502, der durch einen integrierten Memory Management Controller in der Lage war, bis zu 1 MB RAM zu adressieren. Standardmäßig waren je nach Modell 64 KB (beim B505), 128 KB (u.a. beim P500) oder eben 256 KB (beim B520) verbaut. Der 6509 war mit 1 MHz beim P500 sowie 2 MHz bei den B-Modellen getaktet. Während der höhere Takt bei den Business-Geräten für mehr Rechenleistung sorgte, führte er zugleich zu gravierenden Kompatibilitätsproblemen bei der Verwendung des ebenfalls verbauten SID 6581 Soundchips, der ursprünglich für den C64 bei 1 MHz ausgelegt war. Im P500, dessen CPU mit 1 MHz lief, konnte der SID korrekt angesprochen werden und lieferte dieselben drei Kanäle und Filterfähigkeiten wie im C64. In den B-Modellen jedoch war der SID faktisch funktionslos, da der Bus-Zugriff durch die Taktinkompatibilität gestört wurde – ein Umstand, der in internen Entwicklerberichten offen eingeräumt wurde.

Ein wesentlicher Unterschied der P-Serie war der eingebaute VIC-II-Grafikchip, identisch mit dem des C64. Er ermöglichte eine Auflösung von 320×200 Pixeln bei 16 gleichzeitig darstellbaren Farben, mit den bekannten Sprites und Rasterinterrupt-Fähigkeiten. Die B-Serie hingegen verwendete einen Textmodus-Chip (MOS 6545 oder kompatibler CRTC), der für 80×25 Zeichen in Monochromdarstellung optimiert war – ideal für Tabellenkalkulation, Textverarbeitung oder Terminalemulation, aber ungeeignet für grafisch anspruchsvolle Aufgaben.

Ein oft übersehener technischer Fortschritt war die Integration eines echten RS-232-Ports, etwas, das bis dahin keinem anderen 8-Bit-Commodore-Computer zuteilwurde. Kombiniert mit den IEEE-488-Anschlüssen und dem klassischen User-Port standen dem System zahlreiche Kommunikations- und Erweiterungsmöglichkeiten offen. Der P500 bot zudem zwei Atari-kompatible Joystickports – ebenfalls ein klares Indiz für seine ursprünglich vorgesehene Rolle als gehobener Heimcomputer.

Als Betriebssystem diente Commodore BASIC 4.0, erweitert um Speicherbanking und Systemfunktionen. Neben BASIC stand ein Maschinenmonitor zur Verfügung, über den Speicherbereiche manuell angesprochen und programmiert werden konnten. Trotz der technischen Fähigkeiten mangelte es an kompatibler Software – insbesondere der P500, der nie offiziell in den Handel kam, verfügte lediglich über eine einfache Demo, die auf Messen und im Vertrieb gezeigt wurde. Aufgrund der mangelnden Kompatibilität zu C64-Software, des weitgehend geschlossenen Software-Ökosystems der CBM-II-Reihe und der sehr geringen Verbreitung wurden kaum Anwendungen entwickelt. Dies betraf sowohl die Heimcomputer-orientierten P-Modelle als auch die professionellen B-Modelle.

Preise lagen je nach Ausstattung zwischen rund 900 und 1.400 US-Dollar, was heute inflationsbereinigt rund 2.800 € bis 4.300 € entspricht – ein stolzer Preis für Geräte, die in Sachen Softwareunterstützung und Marktakzeptanz deutlich hinter den Erwartungen blieben. Die wenigen gefertigten Exemplare des P500 wurden nie offiziell verkauft, sondern meist an Entwickler oder internationale Händler gegeben, später teilweise zurückgerufen. Die B-Serie schaffte es hingegen in kleine Stückzahlen in den Vertrieb, insbesondere in Europa. Vom B520, dem Spitzenmodell der Serie, sind heute nur wenige erhaltene Geräte dokumentiert.

Die Entwicklerliste liest sich wie ein „Who’s Who“ der frühen Mikrocomputerzeit: Chuck Peddle, der Architekt des 6502 und des 6509, Bill Seiler, der mitverantwortlich für die Boardarchitektur war, sowie der junge Dave Haynie, der später zum zentralen Hardwarearchitekten der Amiga-Reihe wurde. Velinskys Designarbeit verlieh der Serie optisch ein modernes Gesicht – technisch jedoch blieb sie zwischen den Stühlen.

Verglichen mit dem C64 hatte die CBM 500-Serie zwar nominell mehr RAM, eine leistungsfähigere CPU und bessere Erweiterbarkeit – doch sie war nicht kompatibel zur gigantischen C64-Softwarebibliothek. Die CBM/PET-Reihe wiederum wurde ersetzt, ohne dass das neue System nahtlos anschloss. Gegenüber dem aufkommenden IBM-PC-Standard fehlte CP/M- oder MS-DOS-Kompatibilität. Und so wurde die CBM 500-Serie kein Retter, sondern ein Relikt – zu früh, zu teuer, zu isoliert.

Heute ist sie unter Sammlern ein seltenes Juwel. Funktionstüchtige Geräte – vor allem P500-Prototypen oder voll ausgestattete B520-Systeme – erzielen Höchstpreise und gelten als eine der technisch spannendsten, wenn auch kommerziell tragischsten Episoden der Commodore-Geschichte. Ein perfektes Beispiel dafür, wie ein Unternehmen gleichzeitig zu viele Ideen verfolgt – und dabei seine erfolgreichste Linie, den C64, fast aus den Augen verliert.