Vizawrite – 1983 by Viza Software

Vizawrite - 1983 by Viza Software

vizawriteIm Jahr 1983, als der Commodore 64 gerade dabei war, den Heimcomputermarkt zu erobern, erschien ein Textverarbeitungsprogramm, das schon durch seinen Namen den Anspruch mitbrachte, professionelles Schreiben auf dem Heimcomputer möglich zu machen: VizaWrite 64. Es war nicht das erste Textverarbeitungsprogramm für den C64, wohl aber eines der ambitionierteren.

Gegründet von dem britischen Entwickler Kevin Lacy im britischen Maid Stone East, machte sich Viza Software schnell einen Namen als Anbieter leistungsfähiger Bürosoftware für den Heimgebrauch – allen voran mit dem Textverarbeitungsprogramm Vizawrite. Dieses bot bereits 1983 Features wie automatischen Zeilenumbruch, Makros, Tabulatoren und eine umfangreiche Druckerunterstützung – Funktionen, die später zum Standard wurden.

VizaWrite 64 wurde auf einer einzigen 5,25-Zoll-Diskette ausgeliefert und benötigte einen Commodore 64 mit einem 1541-Diskettenlaufwerk, sofern nicht die Modulversion vorlag (ein Laufwerk war aber auch dann mehr als sinnvoll) und ein optionales Druckerinterface. Vizawrite war modular aufgebaut. Viele Zusatzfunktionen – wie Makros, Formatvorlagen oder Druckertreiber – wurden von Diskette nachgeladen, sodass die tatsächliche Funktionalität weit über die Grundgröße hinausging. Die Software bot für damalige Verhältnisse ein beeindruckendes Funktionspaket: Fließtextverarbeitung, Wortzählung, Blockoperationen, Seitennummerierung, benutzerdefinierbare Ränder, Tabstopps und – man höre und staune – sogar einfache Formatierungsfunktionen wie Fett, Kursiv und Unterstreichen, sofern der angeschlossene Drucker dies unterstützte.

Die Textverarbeitungssoftware war ein echtes Herzensprojekt des britischen Programmierers Kevin Lacy. In einer Zeit, in der viele Programme rein funktional gedacht waren, verlieh er Vizawrite einen ganz persönlichen Touch – inklusive eines charmanten kleinen Easter Eggs. Denn Lacy hatte eine ausgeprägte Vorliebe für geometrische Formen, insbesondere Dreiecke. Da der ältere Commodore PET keine Zeichen für Dreiecke besaß, war Lacy begeistert, als der C64 diese endlich ermöglichte. Und so baute er in Vizawrite mehrere Dreiecke als Sonderzeichen ein – nicht mit technischer Bedeutung, sondern einfach als ästhetisches Augenzwinkern. In einem Interview im Happy Computer Magazin von 1987 sagte er dazu sinngemäß: „Ich mag einfach Dreiecke.“ Das Easter Egg ist also kein verstecktes Spiel oder eine geheime Botschaft, sondern vielmehr eine liebevolle Signatur eines Programmierers, der seinem Werk eine persönliche Note verleihen wollte.

Preislich lag VizaWrite bei etwa £49.95, was inflationsbereinigt rund 240 US-Dollar im heutigen Wert entspricht. Damit war es günstiger als viele Konkurrenzprodukte für Apple oder CP/M-Systeme, aber deutlich teurer als einfache Editor-Programme wie SpeedScript oder Paperclip. Dennoch fand sich eine treue Nutzerschaft, vor allem unter Lehrern, Hobbyautoren und Studenten. Laut einem Interview mit VizaSoft aus dem Jahr 1984 wurden in den ersten beiden Jahren über 60.000 Exemplare verkauft – für ein Nischenprodukt auf einer Spieleplattform eine beachtliche Zahl.

Doch Vizawrite hatte Konkurrenz. Besonders Textomat Plus von Data Becker sorgte für Aufmerksamkeit: Das Programm bot komplexe Formatierungsoptionen und ein durchdachtes Menüsystem, war jedoch in puncto Bedienung und Ladegeschwindigkeit nicht so benutzerfreundlich wie Vizawrite. Ein weiterer Mitstreiter war der StarTexter, Teil der bekannten Star-Software-Reihe. Seine Stärke lag in der Kompatibilität mit anderen Star-Produkten wie StarDatei und StarText, was die Datenverwaltung erleichterte. Für Nutzer, die sich nach einer grafisch orientierten Umgebung sehnten, war GeoWrite eine echte Alternative. Als Bestandteil des GEOS-Betriebssystems brachte es erstmals eine WYSIWYG-Oberfläche („What You See Is What You Get“) auf den C64 – inklusive Schriftarten und Layoutoptionen, wie man sie sonst nur von Bürorechnern kannte. Daneben gab es kleinere, aber interessante Programme wie Jasword, das vor allem durch Speicheroptimierung und Schnelligkeit punktete, sowie Mastertext, das sich mit hoher Textkapazität und vielseitiger Druckersteuerung einen Platz im Softwareregal sicherte. Für besonders anspruchsvolle Layout-Aufgaben setzte man auf Pagefox, ein DTP-Modul (Desktop Publishing) von Scanntronik, das grafische Textgestaltung ermöglichte – etwa für Vereinszeitungen oder Abi-Magazine.

Trotz dieser Vielfalt behauptete sich Vizawrite durch seine Balance aus Funktionsvielfalt, Benutzerfreundlichkeit und Modularität. Besonders beliebt war die Steckmodul-Version, mit der das Programm sofort nach dem Einschalten verfügbar war – eine echte Seltenheit in der C64-Welt.

Technisch arbeitete VizaWrite mit einem eigenen, rudimentären Dateiformat, das reine Textdaten mit eingebetteten Steuerzeichen speicherte – ähnlich wie später RTF. Es war daher nicht ohne Weiteres kompatibel mit anderen Textverarbeitungen, konnte jedoch ASCII-Dateien importieren und exportieren. Dies machte es auch für den Datenaustausch mit Universitätsrechnern oder Schreibmaschinen-Druckern nützlich.

Heute ist VizaWrite 64 vor allem ein Schatz für Retro-Computing-Fans. Es war nicht das schönste, schnellste oder funktionsreichste Textverarbeitungsprogramm für den C64 – aber eines der durchdachtesten. Und es war ein Statement: Der C64 war mehr als ein Spielecomputer.

Panzer General – 1994 by SSI

Panzer General - 1994 by SSI

panzer general coverPanzer General, veröffentlicht 1994 von SSI, war ein rundenbasiertes Strategiespiel, das mit seinen hexagonalen Karten zwar keineswegs eine Neuerfindung des Genres darstellte, wohl aber den entscheidenden Schritt wagte, das bis dahin als sperrig geltende Wargame-Genre massentauglich zu machen. In Japan waren Hexfeld-Kriegsspiele längst etabliert: Mit Titeln wie Daisenryaku, das seit 1985 auf Plattformen wie dem MSX oder PC-88 erschien, war das Prinzip bereits fester Bestandteil der dortigen Spielkultur. Auch auf westlichen Konsolen hatte man mit Nectaris (1989, PC-Engine) – später auch bekannt als Military Madness – einen beliebten Vertreter, der Taktik und Zugänglichkeit verband. Doch im Westen galt Hex-Strategie bis dahin als Domäne grauer DOS-Menüs und dicker Handbücher. Panzer General änderte das.

Der Spieler übernahm das Kommando über die deutsche Wehrmacht zu Beginn des Zweiten Weltkriegs und konnte seine Kernarmee durch eine ganze Kampagne führen – von Polen 1939 bis zu einem möglichen Sieg über die USA im Jahr 1945. Jede Schlacht brachte je nach Erfolg Prestige, das in neue Truppen, Upgrades oder Verstärkungen investiert werden konnte. Das Kampagnensystem war verzweigt, sodass alternative Pfade möglich wurden: Wer in Frankreich schnell genug siegte, konnte früher nach England übersetzen, wer Afrika dominierte, bekam andere Ziele. Durch diese Mechanik entstand ein Spielgefühl, das sich deutlich von den linearen Missionen früherer SSI-Titel abhob.

Die Entwicklung lag in den Händen von Paul Murray, der als Lead Programmer und Game Designer die technische und spielmechanische Basis schuf. Joel Billings, Gründer von SSI, war laut MobyGames ausdrücklich als Campaign Designer tätig und entwarf mit David Landrey die Struktur und Szenarien der Kampagne. Bret Berry übernahm als Producer die Gesamtkoordination, Doug Brandon steuerte den Soundtrack bei, der mit militärischen Marschthemen und orchestralen Akzenten für ungewohnt viel Atmosphäre sorgte. Die Benutzeroberfläche und Karten wurden von David Jensen gestaltet, während Ron Calonje für die Audio-Implementierung verantwortlich war.

Während der Entwicklung wurden mehrere Features konzipiert, aber letztlich gestrichen. Dazu gehörte ein Szenario-Editor, mit dem Spieler eigene Schlachten entwerfen sollten. Auch war eine zweite, sowjetische Kampagne angedacht, ebenso wie eine „Was-wäre-wenn“-Reihe um eine Invasion Großbritanniens oder eine ausführlichere Einbindung Italiens und Japans. Diese Entwürfe wurden aus Zeit- und Budgetgründen fallengelassen. In internen Design-Skizzen tauchten darüber hinaus alternative Karten für Afrika, die Kaukasusregion und sogar ein Seegefecht um Gibraltar auf – keine davon schaffte es ins finale Spiel.

Bei seiner Veröffentlichung wurde Panzer General zu einem gewaltigen Erfolg: Über 250.000 verkaufte Exemplare allein in der ersten Phase machten es zum erfolgreichsten SSI-Spiel überhaupt. Kritiken lobten das Spiel für seine intuitive Steuerung, die gelungene Verbindung aus taktischer Tiefe und Spielbarkeit sowie das motivierende Fortschrittssystem. Computer Gaming World nannte es das „beste Kriegsspiel seit Jahren“, PC Gamer urteilte: „So stellt man sich strategisches Gameplay mit Geschichte vor.“ In Deutschland vergaben Magazine wie PC Player bis zu 86 %.

Doch in Deutschland kam auch Kritik auf – und zwar nicht nur im Feuilleton. 1996 wurde Panzer General von der Bundesprüfstelle für jugendgefährdende Schriften indiziert. In der offiziellen Begründung heißt es:
Bedenklich ist das Angebot, durch geschicktes taktisches Verhalten den Ausgang einzelner Schlachten wie den Verlauf des ganzen (Zweiten Welt)Krieges zu beeinflussen und erfolgreicher zu sein als die Truppen Nazi-Deutschlands. Der ‚Endsieg‘ wird doch noch, wenigstens am Computer, möglich!“
Die Darstellung der Kampagne und das Verpackungsdesign wurden ebenfalls bemängelt. So hieß es im Text auf der Rückseite der Box, der Spieler könne als deutscher General „die Geschichte umschreiben“. Zwar wurde im Handbuch an einer Stelle erwähnt, dass man auch auf Seite der Alliierten „Krieg spielen“ könne, doch in der Realität spielten sich sämtliche Kampagnen ausschließlich aus deutscher Sicht. Italien und Japan tauchten nicht auf, und der gesamte Plot war auf die Perspektive der Wehrmacht ausgelegt. Besonders der fiktive Angriff auf Amerika am 1. Juni 1945 – als Finale der Kampagne – wurde als gefährlicher Revisionismus eingestuft.

Trotz dieser Kontroverse blieb der internationale Erfolg ungebrochen. Das Spiel wurde in mehreren Sprachen lokalisiert, 1995 erschien eine Windows-Version mit überarbeitetem Interface, eine PlayStation-Version folgte unter dem Titel Allied General. Eine Amiga-Version wurde nie entwickelt oder veröffentlicht, auch wenn dies manchmal fälschlich behauptet wird – Panzer General war ein reines DOS-Produkt und orientierte sich technisch und visuell bereits an der frühen Windows-Ästhetik.

In der Rückschau bleibt Panzer General ein Meilenstein. Es kombinierte das jahrzehntelang gewachsene Know-how klassischer Papier-und-Papp-Wargames mit der Benutzerfreundlichkeit eines modernen PC-Spiels. Es war ein taktisches Spiel, aber auch ein erzählerisches Experiment, das Geschichte nicht erklärte, sondern spielbar machte – mit allen Chancen und Abgründen. Der Erfolg beruhte nicht zuletzt auf der Entscheidung, Geschichte nicht als rein dokumentarischen Prozess zu sehen, sondern als interaktives Szenario mit Optionen. Für viele war das befreiend, für manche verstörend. Unabhängig davon hat Panzer General das Genre definiert wie kaum ein anderes Spiel zuvor. Es war nicht das erste Hexfeld-Spiel – aber das erste, das in der westlichen Welt ein Millionenpublikum mit kleinen, sechseckigen Feldern fesseln konnte. Und damit war es, ganz im Geiste von SSI, ein strategischer Sieg auf ganzer Linie.

Viele Jahre nach dem ursprünglichen Erfolg und mehreren offiziellen Fortsetzungen wie Allied General und Pacific General entstand schließlich das inoffizielle, aber offiziell lizenzierte Remake, das als würdiger Nachfolger gilt: Panzer Corps. Veröffentlicht 2011 von Slitherine und entwickelt von The Lordz Games Studio in Kooperation mit Flashback Games, präsentierte es sich als moderne Neuinterpretation von Panzer General, die sich nicht damit begnügte, nostalgische Gefühle zu wecken, sondern das Spielkonzept gezielt verbesserte. Die Grundlage war ein Fanprojekt – Panzer General Forever – das mit Unterstützung von Community und Entwicklern zur Vollversion ausgebaut wurde. Die Spielmechanik blieb dabei dem Original treu: rundenbasierte Kämpfe auf Hexfeldern, eine verzweigte Kampagne mit Prestige-System, langlebigen Eliteeinheiten und taktischer Vielfalt. Neu hinzu kamen eine hochauflösende 2D-Grafik, ein eigener Karteneditor, dutzende DLC-Erweiterungen – darunter Afrika Korps, Soviet Corps und eine Grand Campaign mit über 150 Szenarien – sowie Online-Multiplayer und Modding-Unterstützung. Die Kritik war fast durchweg positiv, das Spiel wurde als „Comeback des Generals“ gefeiert und auf Plattformen wie GOG, Steam und iPad veröffentlicht. Damit schloss sich der Kreis: Panzer Corps brachte jene Strategen zurück ins Feld, die 1994 mit VGA-Panzern durch Polen marschierten – diesmal in hübscherer Uniform und mit deutlich weniger Ladezeiten. 2020 folgte mit Panzer Corps 2 schließlich auch der Schritt in die 3D-Grafik und moderne Engine, aber der Takt bleibt derselbe: Prestige, Panzer, Plan – Zug für Zug.

Fiendish Freddy’s Big Top O‘ Fun – 1989 by Gray Matter / Mindscape

Fiendish Freddy's Big Top O' Fun - 1989 by Gray Matter / Mindscape

btof titleFiendish Freddy’s Big Top O’ Fun, entwickelt von Gray Matter Inc. unter Leitung von Chris Gray und veröffentlicht 1989 von Mindscape, ist ein grellbuntes, schwarzhumoriges Zirkusspiel, das mit sechs teils brutalen Minispielen in Folge für offene Münder und verkrampfte Joystickhände sorgte. Der Spieler übernimmt die Rolle eines Zirkusdirektors, der versucht, seinen heruntergekommenen Betrieb mit spektakulären Shows vor der endgültigen Schließung zu retten. 10.000 Dollar müssen verdient werden, doch da ist Fiendish Freddy – ein zynischer Saboteur mit Zylinder und Zigarrenschneidern, der nichts lieber tut, als den Artisten das Leben zur Hölle zu machen.

Bereits die Disziplinen selbst lesen sich wie eine Mischung aus Slapstick und Sadismus: Beim Turmsprung aus mehreren hundert Metern Höhe muss der Artist in immer kleinere Wasserbecken zielen, darunter ein winziges Planschbecken – das einzige, was zwischen ihm und der zersplitterten Wirbelsäule steht. Währenddessen greift Freddy schon mal zur Rakete, um den Springer abzuschießen. Beim Jonglieren versucht ein Propellerhut die Würfe zu sabotieren, bei der Seiltanznummer sägt Freddy mit Brecheisen und Kettensäge an der Stabilität des Seils. Besonders makaber: In der Messerwurf-Disziplin rotieren Zielscheibe und Assistentin, und wer danebenwirft, trifft sie ins Fleisch – begleitet von erstaunlich expliziten Bluteffekten für ein Spiel von 1989.

Diese Darstellung rief zwar keine öffentlichen Proteste hervor, sorgte aber bei manchen Eltern für hochgezogene Augenbrauen. Dass das Spiel überhaupt ungeschnitten auf Plattformen wie dem C64, Amiga oder Atari ST erscheinen konnte, lag wohl an der grellbunten Optik, die den Splatterhumor durch Slapstick entschärfte. Dennoch: Wenn in der Seiltanz-Disziplin der Artist vom Trapez segelt und Freddy mit einem Amboss hinterherwirft, blieb nicht viel Raum für Interpretation. Wie ein Spieler in einem späteren Forum treffend schrieb: „Fiendish Freddy war eigentlich das erste Mortal Kombat – nur mit Clowns.

Die Programmierung übernahm Simon Golding, der Soundtrack stammt von Barry Leitch, der später mit Top Gear, Lotus Turbo Challenge und Super Cars II berühmt wurde, und die Grafiken – sämtliche Sprites, Animationen und Szenenhintergründe – wurden komplett von Kristi-Louise Herd erstellt. Sie zeichnete alles selbst auf dem Atari ST, wie sie später in einem Interview erklärte. Für die 8-Bit-Portierungen – etwa für C64, Amstrad CPC, ZX Spectrum – war Imagitec Design verantwortlich, wobei jede Plattform ihre Eigenheiten hatte. Die Amiga-Version bot Sprachausgabe („Welcome to the Big Top!“), die Spectrum-Fassung dagegen eine reduzierte Farbpalette und keine Samples, aber flüssiges Gameplay. Der C64 wiederum verfügte über zwei verschiedene Versionen – Tape und Cartridge –, wobei Letztere aufgrund der berüchtigten Multiload-Zeiten deutlich bevorzugt wurde. In der Tape-Fassung dauerte das Nachladen zwischen den Disziplinen mitunter länger als die Disziplin selbst. Die Cartridge-Version war deshalb auch Teil des Commodore 64 Games System-Pakets – eine Ehre, die nur wenigen Spielen zuteilwurde und auf einen gewissen kommerziellen Erfolg schließen lässt.

Laut Pressematerial von Mindscape war das Spiel „das unterhaltsamste und abwechslungsreichste Zirkuserlebnis auf Heimcomputern“, und auch die Presse war weitgehend begeistert. Die britische Zzap!64 vergab 89 %, Crash ernannte die Spectrum-Fassung zum „Crash Smash“, Sinclair User verlieh den „Classic“-Award. Die Zeitschrift The One lobte vor allem den Humor und die technische Vielfalt – die unterschiedlichen Disziplinen seien wie eigenständige Spiele. Der einzige größere Kritikpunkt war die teils schwankende Steuerung bei Trapez und Kanonenritt – aber das gehörte fast schon zur absurden Show. Ein Leserbrief an Your Sinclair fasste das Spiel mit britischem Humor so zusammen: „Der einzige Zirkus, in dem Scheitern mehr Spaß macht als Gewinnen.“

Während der Entwicklung testete das Team auch andere Disziplinen: eine Parade mit Elefanten, ein Feuerspucker-Wettkampf, sogar eine Glaskugel-Balanciernummer, bei der der Artist auf rollenden Fässern jonglieren sollte. Letztlich fielen all diese Ideen dem knappen Speicher und den technischen Einschränkungen der 8-Bit-Zielplattformen zum Opfer. Besonders ärgerlich: Man hatte intern mit einem Kamera-Schwenk über das Publikum geplant, komplett mit Konfetti und Rufen – wurde aber gestrichen, um Ladezeiten zu sparen.

Das Spiel wurde weltweit vertrieben, erschien auch in einer französischen, deutschen und spanischen Fassung – auf dem Amiga mit übersetzten Texten, auf dem C64 in Multilanguage-ROMs. Verkaufszahlen liegen nicht exakt vor, doch durch die vielen Portierungen, die Aufnahme ins C64GS und zahlreiche Budget-Wiederveröffentlichungen (u. a. unter dem Label Kixx) kann man von weit über 50.000 verkauften Einheiten ausgehen – was für ein Spiel dieser Art im damaligen Umfeld beachtlich ist.

Musikalisch griff Barry Leitch tief in die Klamottenkiste: schrille Calliope-Klänge, nervöses Trompetengebläse und abruptes Staccato unterlegten die Chaosakte mit absurder Theatralik. Besonders die Eröffnungsfanfare hatte Ohrwurmpotenzial, das noch Wochen später in Schulpausen gepfiffen wurde. Die Soundeffekte stammten aus dem typischen Gray-Matter-Toolkit: Samples von Lachen, Schmerzensschreien und einer weiblichen Assistentin, die gelegentlich aufstöhnt, wenn ein Messer sie trifft – bizarr und kurios zugleich.

Fiendish Freddy’s Big Top O’ Fun bleibt bis heute ein Beispiel dafür, wie schräge Ideen, technische Cleverness und eine Prise bösen Humors zu einem einzigartigen Spielerlebnis führen können. Weder ein klassisches Sportspiel noch ein reines Partyspiel, balanciert es virtuos auf dem Drahtseil zwischen Mini-Game-Sammlung, Satire und Slapstick-Videotheater. Es ist ein Titel, der sich nicht einfach einordnen lässt – aber genau das macht ihn bis heute unvergessen. Und während Fiendish Freddy im Hintergrund seine Zigarre anzündet und grinst, wissen wir: Selbst wenn wir verlieren, unterhalten hat’s auf jeden Fall.

 

The Goonies – 1985 by Datasoft / U.S. Gold

The Goonies - 1985 by Datasoft / U.S. Gold

goonies coverThe Goonies, veröffentlicht 1985 in den USA von Datasoft und ein Jahr später in Europa von US Gold, war eine jener frühen Filmumsetzungen, die versuchten, das cineastische Abenteuerfeuerwerk ins pixelige 8‑Bit‑Universum zu übertragen – und das mit erstaunlich viel Charme, obwohl (oder gerade weil) man statt auf actionreiche Dauerballerei auf Puzzle-Kombinationen und Geschicklichkeit setzte. Das Spiel wurde von Scott Spanburg programmiert, der später noch durch Bruce Lee und Zorro auffiel, während Kelly Day die Grafik entwarf und Richard Mirsky (Apple II, Atari) sowie John A. Fitzpatrick (C64) sich um die Musik kümmerten – letztere teils mit eigenständigen Tape‑ und Diskettenversionen, was zur damaligen Zeit noch echte Unterschiede bedeutete.

Spielerisch begibt man sich in einem Mix aus Plattformspiel und Puzzler mit zwei Goonies gleichzeitig durch acht Level, die lose Szenen aus dem gleichnamigen Spielberg-Film aufgreifen. Im Solomodus kann man zwischen den Figuren hin- und herschalten, im Zwei-Spieler-Modus übernimmt jeder einen der Charaktere. Ziel in jedem Abschnitt: Schalter aktivieren, Schlüssel finden, Fallen vermeiden – und das möglichst synchron. Die grafische Umsetzung war je nach Plattform unterschiedlich detailreich, wobei besonders die C64- und Amstrad-Versionen sich durch etwas knackigere Farben und Musikuntermalung hervortaten, während die ZX Spectrum-Fassung mit spartanischer Darstellung auskommen musste, dafür aber flüssiger lief.

Der Entwicklungsprozess verlief vergleichsweise geordnet, wobei einige ursprünglich geplante Spielelemente und Level aus Speicherplatzgründen wieder gestrichen wurden. Laut Aussagen in späteren Entwicklerforen war unter anderem ein Level vorgesehen, in dem die Fratellis mit einer Lore durch das Bild rasten sollten – eine direkte Anspielung auf die dramatische Lorenfahrt aus dem Film. Auch experimentierte man mit einem Bildschirm, der bei bestimmten Aktionen zittern oder kollabieren sollte – eine Art primitiver Erdbebeneffekt, der durch flackernde Tiles und Soundeffekte simuliert werden sollte. Letztlich war die Technik auf den Zielplattformen dafür zu begrenzt, sodass man den Plan aufgab und das Ganze durch eher statische Levelbilder ersetzte. Ebenso wurden alternative Figuren wie Andy oder Brand als spielbare Charaktere verworfen, da die Zweierkonstellation mit Mikey & Mouth technisch am einfachsten zu realisieren war.

Was damals nur wenige wussten: Auf dem Amstrad CPC konnte man mit einem versteckten Tastendruck F5 tatsächlich das Startlevel ändern – eine Art inoffizieller Trainer-Modus, den man wohl ursprünglich zu Testzwecken eingebaut und nie entfernt hatte. Und in der CPC-Version startete man mit 8 Leben statt der üblichen 5 – möglicherweise ein Kompromiss an die damals als „etwas schwieriger“ geltende Tastensteuerung. In manchen Fassungen wie der Apple-II- und MSX-Version lassen sich beim Neustart sogar kleine Unterschiede im Levelverlauf und der Platzierung von Objekten feststellen – vermutlich bedingt durch leicht andere Portierungsbasen.

Besonders spannend ist der internationale Versionsvergleich: In Japan erschien 1986 bei Konami eine eigene Umsetzung für Famicom und MSX mit völlig anderem Spielprinzip, Musik und Mechanik. Diese Version wurde später mit dem bekannten The Goonies II auf dem NES fortgesetzt – viele europäische und US-Spieler gingen damals fälschlich davon aus, Goonies II wäre ein Sequel zur US Gold-Version, obwohl es sich um einen völlig anderen Ast der Lizenzgeschichte handelte.

Kritiken fielen meist positiv aus, wenn auch nicht euphorisch. Die C64-Version erhielt im Schnitt 68–75 % in Magazinen wie Zzap!64, der Spectrum pendelte um die 74 %, während der CPC immerhin auf respektable 70 % kam. Besonders gelobt wurde die Kombination aus Rätseldesign und Teamwork-Mechanik, aber man bemängelte die recht kurze Spieldauer und den manchmal frickeligen Schwierigkeitsgrad. Ein User-Kommentar aus dem Retro Gamer Forum brachte es auf den Punkt: „Ein Spiel, bei dem die Kooperation nicht hilft, sondern scheitert, wenn der zweite Spieler zu blöd ist – willkommen bei den echten Goonies!

Kommerziell gesehen war The Goonies ein veritabler Erfolg. Während genaue Verkaufszahlen schwer greifbar sind, tauchte es in mehreren Compilations auf, etwa in US Golds Kixx-Reihe oder auf Tape-Zusammenstellungen wie Hit Pak. Die Tatsache, dass es auf beinahe allen 8-Bit-Systemen erschien – von Apple II über Atari 8-Bit bis hin zu Amstrad CPC, ZX Spectrum und MSX – spricht für eine gute Marktverbreitung. Sogar eine PC-88-Version wurde in Japan realisiert, mit leicht verändertem Grafikstil und japanisch lokalisiertem Text, was im Westen kaum bekannt war.

Heute ist The Goonies ein Liebling der Abandonware-Szene und Emulationsfreunde. Die C64-Version ist rund 170 kB groß, die Amstrad-Version knapp 128 kB, die Spectrum-Fassung nur rund 46 kB – und dennoch steckt in diesen paar Kilobyte jede Menge Liebe, Timing und Trial & Error. Besonders Sammler schätzen die Tape-Editionen mit alternativen Artworks, z. B. die grüne Kixx-Label-Kassette, die in UK später einen gewissen Kultstatus erlangte.

Was bleibt, ist ein Spiel, das filmische Nostalgie mit cleverem Spieldesign verband. Keine überbordende Grafikorgie, kein revolutionäres Gameplay – aber ein liebevoll umgesetzter Lizenztitel, der den Charme des Films in ein kompaktes, forderndes Puzzle-Erlebnis für zwei kleine Pixelhelden übersetzte. Für Freunde klassischer Movie Games bleibt The Goonies auch heute noch ein kleiner, blinkender Goldschatz im Labyrinth der Retrogeschichte.

2400 A.D. – 1987 by Origin Systems

2400 A.D. – 1988 by Origin Systems

314527 2400 ad dos front cover2400 A.D. von Origin Systems war eines dieser Spiele, das mit großen Ambitionen gestartet wurde – und mit einem leisen „bitte vergessen“ im Firmenarchiv endete. Entwickelt von Chuck Bueche, besser bekannt als „Chuckles“, der zuvor als Entwickler bei Ultima I–IV sowie Autoduel tätig war, erschien der Titel 1988 für den Apple II und MS-DOS – und hätte eine neue Sci-Fi-Rollenspielreihe einläuten sollen. Stattdessen wurde er zum Paradebeispiel für verpasste Chancen bei einem eigentlich hochinteressanten Cyberpunk-Konzept.

Das Spiel versetzt den Spieler in die dystopische Stadt Metropolis auf dem Planeten XK-120, wo eine Roboterdiktatur das tägliche Leben unterjocht. Als Mitglied des Widerstands sollte man durch Gespräche, kleinere Aktionen und gelegentliche Gewaltakte das Regime nach und nach destabilisieren. Vom Gameplay erinnerte vieles an Ultima IV: Top-down-Ansicht, Tastenkürzel für Aktionen, ein rudimentärer Parser für Gespräche und eine offene Spielwelt, die man erkunden konnte, sobald man eine Ahnung hatte, was überhaupt zu tun war. Der Humor blitzte gelegentlich durch – etwa durch Bewohner mit Namen wie „Sven the Janitor“, der völlig belangloses Zeug von sich gab. Wer sich jedoch eine epische Story oder moralische Entscheidungsfreiheit erhoffte, wurde enttäuscht. Der Plot plätscherte dahin, und die immer gleichen Roboter-Patrouillen nervten schneller, als einem lieb war.

Chuck Bueche hatte ursprünglich größere Pläne. In internen Konzeptzeichnungen, die später auf Messen kursierten, war von mehreren Städten, einem Bahnnetz, Außenmissionen und sogar städtischen Bezirksaufständen die Rede. Auch ein erweitertes Dialogsystem mit thematischen Auswahloptionen wurde getestet – fiel aber wegen mangelnder Speicherressourcen weg. Der Parser blieb also dumm wie ein Toaster: Wer das richtige Schlagwort nicht tippte, bekam „I don't understand“ als Antwort. Das machte viele Quests zu Rätseln mit der Methode „raten und hoffen“.

Produziert wurde das Spiel mit für Origin typischem Aufwand: Es lag eine faltbare Stadtkarte bei, ein dickes Handbuch und – tatsächlich – kleine Metall-Miniaturen von Robotern, als wolle man ein Tabletop-Spiel simulieren. Diese Aufmachung war vielleicht auch nötig, um den Preis von knapp 50 Dollar zu rechtfertigen, was inflationsbereinigt etwa 130 Euro heute entspricht. Richard Garriott, Mitbegründer von Origin, stand hinter der Veröffentlichung, hatte aber mit der Entwicklung selbst wenig zu tun. Die Promotion war dennoch typisch großspurig: In Anzeigen hieß es, 2400 A.D. sei „the next evolution in science fiction role playing“, eine neue Dimension sei erreicht worden – der damals übliche Werbe-Overkill.

Doch die Verkaufszahlen blieben weit hinter den Erwartungen zurück. Weder Apple-II- noch PC-Spieler wollten sich auf das experimentelle Setting einlassen. Viele kritisierten die langsame Performance auf älteren Maschinen, das belanglose Missionsdesign und die seelenlose Welt. In einem seltenen Interview sagte Chuck Bueche später: „Wir haben die Essenz eines RPGs genommen, aber dabei vergessen, den Spieler auch zu motivieren.
Ein Spieletester der Computer Gaming World war noch direkter: „Wenn man sich bei 2400 A.D. langweilt, liegt das nicht an einem selbst – es liegt am Spiel.

Eine Portierung auf den Commodore 64 war zwar intern mal Thema, wurde aber nie über das Planungsstadium hinausgeführt. Entgegen mancher Mythen war John Romero nicht an einer C64-Version beteiligt – auch wenn er zu der Zeit bei Origin arbeitete. Stattdessen wurde recht bald das bereits begonnene Sequel 2500 A.D. eingestellt, nachdem klar war, dass Teil eins kommerziell gefloppt war. Bueche verließ Origin kurz darauf und widmete sich dem Studium. Rückblickend war 2400 A.D. so etwas wie sein letzter großer Alleingang.

Einige interessante Details zur Produktion: Die Stadt Metropolis basierte laut Designer-Skizzen auf einer Mischung aus sowjetischen Stadtentwürfen der 1970er-Jahre und texanischen Einkaufszentren – kein Witz. Die Robotertypen hatten interne Codenamen wie „Smashbot“, „Zapbot“ und „Snitchbot“, letzterer war ein besonders nerviger Denunziant, der in jeder Gasse zu stehen schien. Es gab ursprünglich auch eine moralische Skala für den Spieler – bei zu brutaler Vorgehensweise hätten sogar Mitkämpfer das Vertrauen verloren. Auch das fiel dem Rotstift zum Opfer.

Die Kritiken waren – höflich gesagt – mittelmäßig. MobyGames listet keine internationalen Wertungen, aber Fanreviews pendeln zwischen „nette Idee, langweilige Umsetzung“ und „mehr als eine Tech-Demo ist das nicht“. Besonders heftig war das Urteil in einem Rückblick der Amiga Power, die (sinngemäß) meinten: „2400 A.D. sieht aus wie ein Ultima, spielt sich wie ein Schachspiel ohne Regeln.
Ein Nutzer auf MyAbandonware schrieb trocken: „Ich wollte Widerstandskämpfer sein. Stattdessen habe ich Möbel umstellt und mit Robotern über Faxgeräte gesprochen.

Komponisten oder Sounddesigner wurden im Abspann nicht genannt – ein weiteres Indiz dafür, dass Musik und Atmosphäre bei diesem Titel nicht Priorität hatten. Soundeffekte gab es, aber sie waren rudimentär, und auf vielen Systemen sogar deaktiviert, wenn der Arbeitsspeicher zu knapp wurde.

Heute ist 2400 A.D. ein kurioses Relikt – nicht wirklich gut, aber in seiner Mischung aus ambitioniertem Worldbuilding und blutleerem Gameplay irgendwie charmant. Es ist ein Beispiel dafür, wie sich große Ideen im Labyrinth der Limitierungen verlieren können. Und es ist der Beweis, dass selbst bei Origin Systems nicht alles Gold war, was auf Klappkarte gedruckt wurde.

Wer möchte, kann es über DOSBox spielen. Die DOS-Version umfasst knapp 200 kB und läuft sogar auf 8088-kompatiblen Maschinen mit CGA. Und vielleicht, nur vielleicht, entdeckt man beim nächsten Durchspielen etwas, das die damalige Rebellion doch noch rechtfertigt. Wahrscheinlich aber nicht.

 

Hewlett-Packard HP-65

Hewlett-Packard HP-65

hp 65 white background

Von HP_65.jpg: teclasorg on flickrderivative work: Pittigrilli (talk) - HP_65.jpg, CC BY-SA 2.0, https://commons.wikimedia.org/w/index.php?curid=9710858

Der Hewlett-Packard HP-65, im Jahr 1974 eingeführt, war ein revolutionäres Gerät, das zwar äußerlich als Taschenrechner daherkam, in Wahrheit jedoch der weltweit erste programmierbare Taschenrechner mit magnetischem Massenspeicher war. Der HP-65 markierte einen echten Meilenstein in der Geschichte der mobilen Rechentechnik und leitete eine neue Ära ein – nicht nur für Hewlett-Packard, sondern für die gesamte Rechnerindustrie.

Die Geschichte des HP-65 beginnt bei HPs legendärer Calculator Division in Cupertino, Kalifornien, unter der Leitung von Bill Hewlett und Dave Packard, den beiden Unternehmensgründern. Die technische Projektleitung übernahm Tom Osborne, der schon maßgeblich am HP-35 beteiligt gewesen war – dem ersten wissenschaftlichen Taschenrechner überhaupt. Der HP-65 sollte nun ein Gerät werden, das nicht nur Zahlen verarbeiten, sondern auch ganze Programme speichern und ausführen konnte – ein „Personal Computer“ im Taschenformat, Jahre bevor dieser Begriff überhaupt in Umlauf kam. Osborne selbst beschrieb das Projekt später als „das komplexeste und aufregendste Produkt, das wir in den 70er Jahren je versucht haben“, und in der Retrospektive war der HP-65 nicht weniger als der Urahn aller heutigen programmierbaren Taschencomputer.

Der HP-65 verwendete einen speziell entwickelten, proprietären CMOS-Prozessor von HP selbst, der eng mit dem damaligen Logikdesign der HP-9800-Serie verwandt war. Eine „CPU“ im klassischen Sinn war es nicht – vielmehr bestand die Recheneinheit aus einem diskreten Mikroprogramm-Kontrollwerk, das speziell auf das RPN-Bedienschema (Reverse Polish Notation) und 19-stellige BCD-Arithmetik zugeschnitten war. Das Gerät besaß registerbasierten Speicher, und der Programmspeicher war streng limitiert: 100 Schritte, aufgeteilt in einem eigenen microcodebasierten Format, das spezielle Token für jede Funktion verwendete – zum Beispiel wurde die Tastenfolge SIN nicht als ASCII, sondern als 2-Bit-Kode gespeichert, um Speicherplatz zu sparen. Für damalige Verhältnisse war das eine Meisterleistung der Miniaturisierung, die selbst Großrechnerentwickler ins Staunen versetzte.

Was den HP-65 von allen Taschenrechnern seiner Zeit abhob – und warum er mit Recht als bahnbrechend gilt – war das integrierte Magnetkartenlaufwerk. Dieses konnte kleine, etwa daumengroße Karten einlesen und beschreiben, mit denen Programme gespeichert und wieder abgerufen werden konnten – ein Feature, das bis dahin nur stationäre Computer mit Magnetband oder Lochkarten besaßen. Die Karten wurden über einen Schlitz oben am Gehäuse eingeschoben und mit einem simplen Motorstreifen eingezogen. Jeder Streifen konnte zwei Programme speichern, eines auf jeder Seite. Das System war so gestaltet, dass man z. B. eigene numerische Routinen, Integrationsverfahren oder Maschinenbauformeln direkt unterwegs programmieren und wiederverwenden konnte – etwas völlig Neues im Jahr 1974.

Der ursprüngliche Verkaufspreis betrug 795 US-Dollar, was inflationsbereinigt im Jahr 2025 etwa 4.370 Euro entspricht. Damit war der HP-65 eindeutig ein Gerät für Profis – Ingenieure, Wissenschaftler, Raumfahrttechniker. Und tatsächlich wurde der HP-65 sogar von der NASA auf Apollo- und Skylab-Missionen mitgeführt. Eine Pressemitteilung von HP im Jahr 1975 betonte stolz: „Der HP-65 ist nun weltraumtauglich und wird als rechnergestütztes Backup an Bord für die Missionsplanung eingesetzt..“ NASA-Ingenieur Bruce P. Smith sagte dazu: „Es war das einzige Gerät unseres Vertrauens, das klein genug zum Tragen und intelligent genug war, um die Flugbahn neu zu berechnen, wenn die Bordsysteme ausfielen.“

Der HP-65 hatte ein rotes LED-Display mit 15 Stellen, kein Grafikdisplay, keine Farben, keine Auflösung im heutigen Sinne. Der Bildschirm bestand aus Segmentanzeigen, wie sie in Digitaluhren üblich waren. Eine besondere Raffinesse war der dynamische Scrolling-Effekt: Bei langen Zahlen oder Programmbefehlen scrollte die Anzeige von rechts nach links, um den gesamten Inhalt anzuzeigen – ein Kunstgriff, der durch ausgeklügeltes Timing im Controller-Chip ermöglicht wurde.

Ein Betriebssystem im klassischen Sinne besaß der HP-65 nicht – seine „Firmware“ war ein Satz von 51 festen mathematischen Funktionen plus einem interpreterähnlichen Mikrocode, der die Programmschritte ausführte. Die Bedienung erfolgte über 35 Tasten, die je nach Modus bis zu drei Funktionen aufwiesen. Durch die Nutzung von Tastenkombinationen konnte der Nutzer zwischen numerischen, programmierbaren und Steuerbefehlen umschalten. Auch eine Sprungbefehlsstruktur mit Labels und Subroutinen war implementiert – quasi ein Mini-BASIC ohne Texteditor.

Der Speicher bestand aus 9 Speicherregistern (R0 bis R8) plus einem Stack mit vier Ebenen (X, Y, Z, T), wie im RPN-Design üblich. Massenspeicher im heutigen Sinn war das Magnetkartenlaufwerk – langsamer als RAM, aber mobil und zuverlässig. Externe Anschlüsse hatte der HP-65 keine. Peripheriegeräte waren keine vorgesehen – das Gerät war vollständig stand-alone, kein Interface, keine Netzwerkanbindung, kein Netzteilanschluss. Strom kam ausschließlich über einen integrierten Akku, der allerdings als notorisch fehleranfällig galt. Viele Besitzer der ersten Serien berichten davon, dass die Ladeeinheit überhitzte und die Nickel-Cadmium-Zellen beschädigte. Ein Service Bulletin von HP aus dem Jahr 1975 warnte davor, das Netzteil bei entnommenem Akku anzuschließen – ein seltener Designfehler für ein ansonsten fast perfektes Gerät.

Größe und Gewicht des HP-65 waren für damalige Verhältnisse sensationell: mit 13 × 8 × 3 cm und rund 300 Gramm war das Gerät wirklich „tragbar“, auch wenn es im Jackett ein ziemlicher Klotz blieb. Der Soundchip bestand aus einem einzigen Piezo-Piepser, der bei Fehlern oder Tastentönen ein einfaches Signal ausgab. Musik, Sprache oder gar Soundausgabe im heutigen Sinne gab es selbstverständlich nicht.

Trotz des stolzen Preises verkaufte HP in den ersten drei Jahren über 100.000 Einheiten – was für ein Gerät dieser Klasse, ohne Spiele, ohne Bildschirm, ohne Tastatur im klassischen Sinn, eine gigantische Zahl war. Die US-Zeitschrift BusinessWeek nannte den HP-65 „die eleganteste Maschine, die ein Wissenschaftler ohne Labor tragen kann“, und die New York Times titelte 1975: „Vom Raketenlabor in die Hemdtasche: HPs Taschenrechner weist den Weg“.

Konkurrenz gab es wenig: Texas Instruments brachte erst 1977 den TI SR-52 auf den Markt, der erstmals ein ähnliches Funktionspaket bot. Der SR-52 war günstiger, aber weniger zuverlässig – das Magnetkartenlaufwerk war mechanisch anfälliger, die Programmierung nicht so elegant gelöst. Ein späterer Vergleichstest im Magazin BYTE (1979) kam zum Urteil: „Der HP-65 fühlt sich wie ein Präzisionsinstrument an – der TI wie ein Spielzeug, das sich zu sehr anstrengt.“

Der HP-65 war ein voller Erfolg – technisch, wirtschaftlich, symbolisch. Er veränderte Hewlett-Packard grundlegend: Die Calculator Division wurde nach dem Erfolg massiv ausgebaut, das Unternehmen wandelte sich vom Instrumentenhersteller zum Innovator für mobile Datenverarbeitung. Es war der HP-65, der das Fundament für spätere Geräte wie den HP-41C oder den legendären HP-71 legte. Tom Osborne blieb bis Mitte der 80er bei HP und entwickelte unter anderem den HP-67 und HP-97 – direkte Nachfolger des HP-65, aber mit alphanumerischen Displays und erweitertem Speicher.

Man kann mit Fug und Recht sagen: Der HP-65 war kein Taschenrechner – sondern der erste Taschencomputer, auch wenn er noch keine Bits und Bytes im heutigen Sinn verarbeitete. In seinem Innersten war er ein mikrocodiertes Rechenwerk im Taschenformat – das erste, das man im Flugzeug, im Labor oder im Weltall einsetzen konnte. Und genau das machte ihn unsterblich.

 

Amiga 600

Amiga 600

olympus digital cameraDer Commodore Amiga 600, intern zunächst als Amiga 300 entwickelt, war 1992 Commodores Versuch, einen modernen, kompakteren Heimcomputer für Einsteiger auf den Markt zu bringen. Ursprünglich geplant als günstiger, abgespeckter Amiga 500 für die untere Preisklasse, wurde das Gerät unter dem Projektnamen „June Bug“ (eine Anspielung auf den B-52’s Song, wie auch „Rock Lobster“ beim A500) entwickelt – mit dem Ziel, das Lebensende des Amiga 500 einzuläuten und einen kleinen, kosteneffizienten Amiga für Spiele, Multimedia und Einsteiger zu etablieren. Doch Commodores Management entschied sich in letzter Minute für eine Namensänderung: Statt Amiga 300 sollte das Gerät als Amiga 600 erscheinen, was vielen Kunden suggerierte, es handle sich um einen größeren technischen Sprung. Das Gegenteil war der Fall. David Pleasance, späterer Chef von Commodore UK, beschrieb die Entscheidung rückblickend trocken: „Der Amiga 600 war ein kompletter und absoluter Unsinn – ein Produkt, das niemand wirklich haben wollte.“ In einem Interview mit Retro Gamer ergänzte er: „Das war keine Marktentscheidung, das war ein politisches Manöver. Niemand bei Commodore UK hatte den A600 verlangt – wir wurden damit überrumpelt.

Der Entwickler George Robbins, ein Veteran, der zuvor schon maßgeblich an der A500-Hardware gearbeitet hatte, hatte ursprünglich ein ganz anderes Gerät im Sinn: „Mein Plan war es, ein kostengünstiges A500 zu bauen – etwas einfaches, günstigeres, aber kompatibles. Herausgekommen ist ein aufgeblasenes Durcheinander mit sinnlosen Funktionen..“ Seine Kritik zielte insbesondere auf das Eingreifen des neuen Technikchefs Bill Sydnes, der von IBM gekommen war. Sydnes hatte beim IBM PCjr bereits einen umstrittenen Heimcomputer verantwortet und versuchte nun, dem Amiga 600 Features aus der PC-Welt einzuverleiben – unter anderem den 44-poligen IDE-Port und den PCMCIA-Steckplatz. Robbins kommentierte trocken: „Die Hinzufügung dieser Funktionen führte zu höheren Kosten, größerer Komplexität und verletzte die Kompatibilität – all die Dinge, die ich vermeiden wollte.“

Commodores Hardware-Ikone Dave Haynie brachte es gewohnt direkt auf den Punkt: „Die A600 war eine völlig unnötige Maschine. Sie kostete mehr in der Herstellung als eine A500, leistete weniger und hatte keinen Upgrade-Weg. Es war im Grunde ein Beispiel interner Politik.“ In einer Usenet-Diskussion einige Jahre später führte Haynie weiter aus: „Wir hätten ein echtes, kostengünstiges Amiga machen können, wenn sie zugehört hätten. Der A600 war nichts anderes als die gleichen alten Teile in einem kleineren Gehäuse und kostete mehr. Es gab keine Möglichkeit, einen schnelleren CPU oder ein echtes Grafik-Upgrade einzubauen.“ Damit meinte er unter anderem die Tatsache, dass fast alle Chips nun als SMD-Variante direkt verlötet waren – eine Premiere bei Amigas, die Erweiterungen nahezu unmöglich machte. Geplant war laut internen Quellen sogar kurzzeitig eine Variante mit integriertem Netzteil, ähnlich dem Konzept eines C64C. Haynie sagte dazu in einem privaten Interview: „Das Gehäuse war bereits zu eng. Ein integriertes Netzteil hätte es in einen Toaster verwandelt.“ Er deutete damit die thermischen Probleme an, die das kompakte Gehäuse bei Hitzeentwicklung verursacht hätte. Stattdessen blieb Commodore beim klassischen externen Netzteil – zwar nicht elegant, aber bewährt.

Technisch basierte der A600 auf dem Motorola 68000 mit 7,14 MHz (PAL), wie schon beim A500. Der ECS-Chipsatz erlaubte 1 MB Chip-RAM (max. 2 MB mit Erweiterung), Bildschirmauflösungen von 320 × 256 bis 1280 × 512 (interlaced), 32 Farben standardmäßig, 64 mit Extra Half-Brite oder theoretisch 4096 mit HAM-Modus. In der Praxis nutzten Spiele weiterhin 320 × 200 mit 16 bis 32 Farben – die höhere Auflösung war meist dem Workbench-Betrieb vorbehalten. Der Soundchip „Paula“ blieb gegenüber dem A500 unverändert: vier 8-Bit-Kanäle in Stereo, DMA-gesteuert. Ein Highlight war der PCMCIA-Port, der jedoch in der Praxis kaum genutzt wurde – es gab 1992 nur sehr teure und inkompatible Karten. Auch der interne IDE-Anschluss für 2,5″-Festplatten wurde wegen Kompatibilitätsproblemen der ersten ROM-Versionen kritisch gesehen. Haynie fasste es so zusammen: „Sie haben neue Hardwarefunktionen hinzugefügt, aber vergessen, sie im ROM zu unterstützen. Das ist einfach dumm.

Der A600 wurde mit Kickstart 2.05 und Workbench 2.0 ausgeliefert, später auch mit 2.1. Erst spätere ROM-Versionen erlaubten Booten von Festplatte, Locale-Unterstützung und CrossDOS. Für den Amiga 600 bedeutete CrossDOS insbesondere im beruflichen Umfeld eine wichtige Erweiterung: Der kleine Rechner konnte damit erstmals ohne Zusatzsoftware Daten mit PCs austauschen – eine essenzielle Funktion im Übergang zur MS-DOS-dominierten Arbeitswelt der frühen 90er.Das System war moderner als das 1.3er des A500, aber weniger kompatibel zu älteren Spielen. Viele Magazine legten ein Tool wie Relokick bei, um Kickstart 1.3 in den RAM zu laden. Trotz modernerem OS blieb das System für viele Retrospiele-Fans ein Rückschritt.

Der Listenpreis lag bei ca. 800 DM, inflationsbereinigt rund 830 Euro (2025). Die Variante A600HD mit 20 MB-Festplatte kostete rund 1.200 DM, heute etwa 1.250 Euro. Verkaufszahlen weltweit werden auf etwa 190.000–250.000 Einheiten geschätzt, wobei Deutschland zu den stärkeren Märkten gehörte. Ein Bruchteil der über 4 Millionen verkauften Amiga 500 – und damit ein deutliches Zeichen: Dieses Modell konnte nicht an die Erfolge anknüpfen. Das Urteil der Fachpresse fiel durchwachsen aus: CU Amiga lobte 1992 das kompakte Design und die Festplattenoption, kritisierte aber die fehlende Zifferntastatur. Amiga Format nannte den A600 „eine merkwürdige Zwischen-Generation, nach der niemand gefragt hat“. In Deutschland schrieb 64’er trocken: „Wer vom A500 auf den A600 umsteigt, zahlt drauf – an Preis wie an Leistung.“ Im Rückblick wurde der A600 etwa von Ars Technica als „worst Amiga ever“ bezeichnet. Ein wirtschaftlicher Wendepunkt war der A600 nicht. Er markierte eher den Anfang vom Ende. Commodore verlor 1992 zunehmend Marktanteile an PC und Konsolen, der A600 verwirrte die Kundschaft, kostete zu viel und konnte nichts besser als sein Vorgänger. Der einzige nennenswerte Fortschritt: Die Nutzung von Laptop-Technologien wie PCMCIA und 2,5″-Festplatten wurde für spätere Modelle wie den A1200 übernommen.

Trotz all seiner Schwächen hat der A600 heute Kultstatus. Wegen seines platzsparenden Designs und moderner Erweiterungsmöglichkeiten via FPGA oder CF-Karten ist er heute bei Bastlern beliebt. Als Produkt seiner Zeit bleibt er dennoch: ein Kompromiss, geboren aus Unsicherheit, Fehlentscheidungen und zu viel Manager-Einfluss. Oder, wie Haynie es abschließend formulierte:
Wenn Commodore sich auf echte Innovationen anstatt auf interne Ego-Kriege konzentriert hätte, hätte der A600 etwas sein können. Aber was wir bekamen, war die Antwort auf eine Frage, die niemand gestellt hat.

 

CBM 500-Serie

CBM 500-Serie

b500

Image is taken from: https://vintagecomputer.net/cbm_b_prototypes.cfm

Die CBM 500-Serie war Teil der CBM-II-Familie, einer ambitionierten aber letztlich gescheiterten Neuausrichtung des Unternehmens Commodore Anfang der 1980er Jahre. Anders als ihre Namensvettern der 600er- und 700er-Modelle richtete sich die 500er-Linie nicht primär an den professionellen Büromarkt, sondern umfasste sowohl Business- als auch Personal-Modelle. Dabei war die Modellserie nicht ein einzelner Rechner, sondern eine vollständige Plattform mit unterschiedlicher Ausstattung und Zielsetzung. Zu den bekanntesten Modellen gehören der P500, B500, B505, B510 und der mit besonders großzügiger RAM-Bestückung versehene B520. Letzterer war bereits ab Werk mit 256 KB RAM ausgestattet – ein für 8-Bit-Systeme beachtlicher Wert und Ausdruck der Systemarchitektur, die Speicherbank-Umschaltung (Bank Switching) systemseitig unterstützte.

Die Gestaltung der Gehäuse war ein Bruch mit dem bis dahin kantigen Design der PET-Reihe. Verantwortlich für das elegante, flache Profil der 500er-Modelle war Ira Velinsky, ein Industrie-Designer, der sich unter anderem durch den PET-2001-Prototypen sowie den tragbaren Atari Stacy einen Namen gemacht hatte. Das Gehäuse war durchgehend flach, mit integrierter Tastatur und vorbereitetem Slot für externe Erweiterungen und Zubehör. Die CBM 500-Reihe war somit als modern wirkende Plattform für verschiedene Zielgruppen gedacht – ein Plan, der jedoch an Marktfragmentierung und strategischer Unsicherheit scheitern sollte.

Die gesamte Serie basierte auf dem MOS 6509-Prozessor, einer Weiterentwicklung des 6502, der durch einen integrierten Memory Management Controller in der Lage war, bis zu 1 MB RAM zu adressieren. Standardmäßig waren je nach Modell 64 KB (beim B505), 128 KB (u.a. beim P500) oder eben 256 KB (beim B520) verbaut. Der 6509 war mit 1 MHz beim P500 sowie 2 MHz bei den B-Modellen getaktet. Während der höhere Takt bei den Business-Geräten für mehr Rechenleistung sorgte, führte er zugleich zu gravierenden Kompatibilitätsproblemen bei der Verwendung des ebenfalls verbauten SID 6581 Soundchips, der ursprünglich für den C64 bei 1 MHz ausgelegt war. Im P500, dessen CPU mit 1 MHz lief, konnte der SID korrekt angesprochen werden und lieferte dieselben drei Kanäle und Filterfähigkeiten wie im C64. In den B-Modellen jedoch war der SID faktisch funktionslos, da der Bus-Zugriff durch die Taktinkompatibilität gestört wurde – ein Umstand, der in internen Entwicklerberichten offen eingeräumt wurde.

Ein wesentlicher Unterschied der P-Serie war der eingebaute VIC-II-Grafikchip, identisch mit dem des C64. Er ermöglichte eine Auflösung von 320×200 Pixeln bei 16 gleichzeitig darstellbaren Farben, mit den bekannten Sprites und Rasterinterrupt-Fähigkeiten. Die B-Serie hingegen verwendete einen Textmodus-Chip (MOS 6545 oder kompatibler CRTC), der für 80×25 Zeichen in Monochromdarstellung optimiert war – ideal für Tabellenkalkulation, Textverarbeitung oder Terminalemulation, aber ungeeignet für grafisch anspruchsvolle Aufgaben.

Ein oft übersehener technischer Fortschritt war die Integration eines echten RS-232-Ports, etwas, das bis dahin keinem anderen 8-Bit-Commodore-Computer zuteilwurde. Kombiniert mit den IEEE-488-Anschlüssen und dem klassischen User-Port standen dem System zahlreiche Kommunikations- und Erweiterungsmöglichkeiten offen. Der P500 bot zudem zwei Atari-kompatible Joystickports – ebenfalls ein klares Indiz für seine ursprünglich vorgesehene Rolle als gehobener Heimcomputer.

Als Betriebssystem diente Commodore BASIC 4.0, erweitert um Speicherbanking und Systemfunktionen. Neben BASIC stand ein Maschinenmonitor zur Verfügung, über den Speicherbereiche manuell angesprochen und programmiert werden konnten. Trotz der technischen Fähigkeiten mangelte es an kompatibler Software – insbesondere der P500, der nie offiziell in den Handel kam, verfügte lediglich über eine einfache Demo, die auf Messen und im Vertrieb gezeigt wurde. Aufgrund der mangelnden Kompatibilität zu C64-Software, des weitgehend geschlossenen Software-Ökosystems der CBM-II-Reihe und der sehr geringen Verbreitung wurden kaum Anwendungen entwickelt. Dies betraf sowohl die Heimcomputer-orientierten P-Modelle als auch die professionellen B-Modelle.

Preise lagen je nach Ausstattung zwischen rund 900 und 1.400 US-Dollar, was heute inflationsbereinigt rund 2.800 € bis 4.300 € entspricht – ein stolzer Preis für Geräte, die in Sachen Softwareunterstützung und Marktakzeptanz deutlich hinter den Erwartungen blieben. Die wenigen gefertigten Exemplare des P500 wurden nie offiziell verkauft, sondern meist an Entwickler oder internationale Händler gegeben, später teilweise zurückgerufen. Die B-Serie schaffte es hingegen in kleine Stückzahlen in den Vertrieb, insbesondere in Europa. Vom B520, dem Spitzenmodell der Serie, sind heute nur wenige erhaltene Geräte dokumentiert.

Die Entwicklerliste liest sich wie ein „Who’s Who“ der frühen Mikrocomputerzeit: Chuck Peddle, der Architekt des 6502 und des 6509, Bill Seiler, der mitverantwortlich für die Boardarchitektur war, sowie der junge Dave Haynie, der später zum zentralen Hardwarearchitekten der Amiga-Reihe wurde. Velinskys Designarbeit verlieh der Serie optisch ein modernes Gesicht – technisch jedoch blieb sie zwischen den Stühlen.

Verglichen mit dem C64 hatte die CBM 500-Serie zwar nominell mehr RAM, eine leistungsfähigere CPU und bessere Erweiterbarkeit – doch sie war nicht kompatibel zur gigantischen C64-Softwarebibliothek. Die CBM/PET-Reihe wiederum wurde ersetzt, ohne dass das neue System nahtlos anschloss. Gegenüber dem aufkommenden IBM-PC-Standard fehlte CP/M- oder MS-DOS-Kompatibilität. Und so wurde die CBM 500-Serie kein Retter, sondern ein Relikt – zu früh, zu teuer, zu isoliert.

Heute ist sie unter Sammlern ein seltenes Juwel. Funktionstüchtige Geräte – vor allem P500-Prototypen oder voll ausgestattete B520-Systeme – erzielen Höchstpreise und gelten als eine der technisch spannendsten, wenn auch kommerziell tragischsten Episoden der Commodore-Geschichte. Ein perfektes Beispiel dafür, wie ein Unternehmen gleichzeitig zu viele Ideen verfolgt – und dabei seine erfolgreichste Linie, den C64, fast aus den Augen verliert.

Windows 2.0

Windows 2.0

windwos 2 titleIm Dezember 1987 veröffentlichte Microsoft mit Windows 2.0 ein Betriebssystem, das auf den ersten Blick wie eine unspektakuläre Weiterentwicklung wirkte, tatsächlich aber ein entscheidender Meilenstein in der Geschichte grafischer Benutzeroberflächen auf dem PC war. Nach dem mäßigen Erfolg von Windows 1.01, das Ende 1985 erschienen war, erkannte man bei Microsoft schnell, dass man noch einen langen Weg vor sich hatte, um im GUI-Markt Fuß zu fassen. Bill Gates äußerte sich dazu bereits im Frühjahr 1986 in einem internen Memo: „Die grafische Benutzeroberfläche ist die Zukunft. Wir haben es beim ersten Mal nicht richtig gemacht, aber wir können es uns nicht leisten, es nicht noch einmal zu versuchen.“

Die Entwicklung von Windows 2.0 startete kurz nach der Veröffentlichung von Version 1.01. Die Leitung übernahm erneut Tandy Trower, der bereits beim Vorgänger an vorderster Front stand. Unterstützt wurde er u. a. von David Weise und Nathan Myhrvold. Weise schilderte seine Motivation rückblickend: „Windows 1.0 war nicht meine Vorstellung von einer Fensterumgebung. Ich wollte noch einmal von vorn anfangen und es diesmal richtig machen.

Windows 2.0 wurde rund anderthalb Jahre lang entwickelt und existierte intern in mehreren Zwischenversionen, die allerdings nie öffentlich zugänglich waren. OEM-Partner wie Compaq und Zenith erhielten Vorabfassungen, um die Kompatibilität zu testen und Feedback zu liefern. Besonders Compaq spielte eine zentrale Rolle, da sie Microsoft drängten, den neuen Intel 80386-Prozessor voll auszunutzen. So entstand neben der regulären Windows-2.0-Version auch Windows/386, eine technisch deutlich fortgeschrittenere Variante.

windows 2.0Diese Version nutzte erstmals den „Virtual 8086 Mode“ des 386ers, um mehrere gleichzeitige DOS-Sitzungen in voneinander isolierten Speicherbereichen auszuführen – ein Vorläufer heutiger Virtualisierung. Die Entwickler bei Microsoft bezeichneten das Feature intern scherzhaft als „multiboxing“. In einer späteren Pressemitteilung beschrieb Microsoft diese Fähigkeit als „den bedeutendsten Fortschritt im PC-Multitasking seit der Erfindung des Timesharing-Systems.“

Windows/386 unterstützte sowohl den sogenannten Extended Memory als auch den Expanded Memory (EMS nach LIM-Standard), der über spezielle Speicher-Hardware wie Intel Above Board realisiert wurde. Das berühmte 640-KB-Limit von DOS konnte so auf raffinierte Weise umgangen werden. David Weise erklärte das Konzept so: „Wir mussten DOS austricksen, damit es denkt, es wäre allein. Es war, als hätte man mehrere kleine DOS-Maschinen innerhalb einer großen.“

Das Betriebssystem erschien am 9. Dezember 1987 in zwei Hauptvarianten: Windows 2.03 (Standard) und Windows/386 2.01. Weitere Zwischenupdates folgten 1988 (u. a. Version 2.1x), vor allem zur Fehlerbehebung und um neue Hardware wie VGA-Grafikchips zu unterstützen. Microsoft veröffentlichte diese Versionen meist stillschweigend, da sie primär OEMs wie IBM und Compaq zugedacht waren.

Ausgeliefert wurde Windows 2.0 je nach Format auf fünf 5,25-Zoll-Disketten oder drei 3,5-Zoll-Disketten. Der Speicherbedarf auf der Festplatte betrug je nach Konfiguration zwischen 1,2 und 1,5 MB. Die Mindestanforderungen: ein IBM-kompatibler PC mit 8086/88- oder 286-Prozessor, 512 KB RAM, MS-DOS 3.0 oder höher, monochrome oder CGA-, EGA-, Hercules-Grafik, Diskettenlaufwerk – eine Festplatte und Maus wurden empfohlen, waren aber nicht zwingend.

Microsoft lieferte Windows 2.0 mit einer ganzen Reihe von Zusatzprogrammen aus, darunter:

  • Write (einfache Textverarbeitung)

  • Paint (ursprünglich „Paintbrush“ – simples Malprogramm)

  • Notepad

  • Kalender, Uhr, Rechner, Clipboard

  • Control Panel für Systemeinstellungen

  • sowie frühe Versionen von Dynamic Data Exchange (DDE), mit dem Programme erstmals miteinander kommunizieren konnten

windows 2.0So konnte zum Beispiel ein in Write eingefügter Wert aus einer Excel-Tabelle automatisch aktualisiert werden – eine Funktion, die später als OLE (Object Linking and Embedding) weiterentwickelt wurde.

Die Einführung von überlappenden Fenstern – vorher war nur ein Nebeneinander möglich – löste jedoch nicht nur technische Begeisterung, sondern auch rechtlichen Ärger aus. Im April 1988 reichte Apple eine Klage gegen Microsoft und Hewlett-Packard ein. Der Vorwurf: Windows 2.0 habe das Erscheinungsbild („Look & Feel“) des Macintosh unrechtmäßig kopiert, insbesondere Fenster mit Titelleisten, Icons, Menüleisten und überlappende Darstellungen. Microsoft verteidigte sich mit Verweis auf ein Abkommen von 1985, in dem Apple Microsoft die Nutzung bestimmter GUI-Elemente für Windows 1.0 gestattet hatte. Microsoft argumentierte, dass diese Vereinbarung auch für Windows 2.0 gelte – was Apple anders sah.

Ein Apple-Manager schrieb später in einer während des Verfahrens veröffentlichten E-Mail resigniert: „Wir haben ihnen den Stift gegeben – und sie haben den Rest des Bildes damit gezeichnet.“

Nach jahrelangem Rechtsstreit entschied ein US-Bundesgericht 1993 endgültig zugunsten von Microsoft. Die Begründung: Grafische Bedienkonzepte wie Fenster, Icons und Menüs seien funktionale Elemente und daher nicht urheberrechtlich schützbar. Dieses Urteil hatte weitreichende Folgen und prägte die GUI-Rechtslage für Jahrzehnte. Bill Gates kommentierte das Ergebnis später in einem Interview trocken: „Wir haben nichts gestohlen. Wir haben das gemacht, was Xerox schon vorher gemacht hatte, nur besser.

In Sachen Markterfolg war Windows 2.0 ein verhaltener Fortschritt. Microsoft konnte schätzungsweise etwa zwei Millionen Einheiten bis zur Einführung von Windows 3.0 im Jahr 1990 absetzen. Der Einführungspreis lag bei rund 99 US-Dollar, was inflationsbereinigt heute etwa 270 bis 280 Dollar entspräche. Microsoft selbst sah Windows 2.0 weniger als Endprodukt, sondern als strategische Brücke. Bill Gates äußerte damals: „Es geht nicht darum, den Markt sofort zu erobern. Wir legen nur die Puzzlestücke aus.“ Und David Weise ergänzte: „Wir haben nicht einfach ein Betriebssystem gebaut – wir haben eine Brücke zwischen Vergangenheit und Zukunft geschaffen.

Im Vergleich zur Konkurrenz war Windows 2.0 eine Art Chamäleon: Apples System 5.0 auf dem Macintosh war eleganter, schneller und konsistenter – aber nur auf Apple-Hardware nutzbar. Commodores GEOS bot sogar auf dem C64 eine grafische Oberfläche auf zwei Disketten mit 64 KB RAM. IBM OS/2, das mit Microsoft gemeinsam entwickelt wurde, war ambitionierter, aber schwerfälliger – und litt darunter, dass Microsoft mit Windows parallel ein konkurrierendes System aufbaute. Bei IBM nannte man Windows damals intern „eine unkontrollierte Nebenstraße“.

Heute ist Windows 2.0 vor allem ein Stück Technikgeschichte – ein Bindeglied zwischen dem wenig erfolgreichen Windows 1.x und dem großen Durchbruch mit Windows 3.0. Ohne seine Einführung hätte es weder die „3.x“-Reihe noch Windows 95 in dieser Form gegeben. Auch wenn es nie das Rampenlicht erhielt, das spätere Versionen genossen, war es doch ein entscheidender Mosaikstein in Microsofts Plan, den PC-Markt zu dominieren. Wie Gates selbst es einst sagte: „Das hier ist kein Sprint. Es ist ein Marathon. Und Windows 2.0 ist unser erster Schritt mit richtigen Laufschuhen.

Vector 1

Vector 1

vector1Im Jahr 1976, als der Begriff "Personal Computer" noch mit Schraubenzieher und Lötzinn gleichgesetzt wurde, gründeten Lore Harp McGovern, Carole Ely und Robert Harp im sonnigen Kalifornien das Unternehmen Vector Graphic Inc. Die Vision: nicht nur leistungsfähige Computer zu bauen, sondern auch solche, die benutzerfreundlich und optisch ansprechend waren. Während Harp als Ingenieur die technische Leitung übernahm, trieb Harp McGovern als CEO die strategische Entwicklung voran. Ihre Mission war klar: Technik aus dem Bastelkeller in den Büroalltag zu bringen. Mit Mut zur Farbe, strukturiertem Design und klarem Fokus auf Bedienbarkeit stach Vector Graphic schnell aus der damaligen Nerd-Nische heraus.

Ursprünglich konzentrierte sich das Unternehmen auf Erweiterungskarten für den populären S-100-Bus, insbesondere RAM-Module und Grafikkarten. Diese wurden bald für ihre hohe Qualität und gute Dokumentation bekannt, was Vector Graphic rasch einen guten Ruf unter Early-Adopters und Systemintegratoren einbrachte. Erst als der Bedarf an kompletten Systemen stieg – insbesondere solchen, die man nicht erst aus 20 Einzelteilen zusammensetzen musste –, entschied man sich, ein eigenes Komplettsystem zu entwickeln: den Vector 1.

vector1 topless1977 stellte das Unternehmen schließlich diesen Vector 1 vor – einen S-100-Bus-basierten Mikrocomputer, der für professionelle Anwendungen gedacht war und die rohe Bastelästhetik des Altair 8800 oder IMSAI 8080 hinter sich ließ. In einem robusten Metallgehäuse, erhältlich in den Farben Grün oder "Rust", steckte ein Intel 8080A-Prozessor mit 2 MHz, gepaart mit einem Kilobyte RAM. Das klang nach wenig – war aber über den S-100-Bus, dem damals führenden Industriestandard, auf bis zu 64 KB erweiterbar. Der S-100-Bus, ursprünglich von MITS für den Altair entwickelt, war ein Steckplatzsystem mit 100 Kontakten, über die CPU-, Speicher- und Peripheriekarten miteinander kommunizierten. Vector Graphic nutzte dieses System voll aus und stattete den Vector 1 mit bis zu 18 dieser Slots aus – eine Plattform, die mit dem Unternehmen und den Anforderungen der Nutzer wachsen konnte.

Anders als viele seiner Zeitgenossen verzichtete der Vector 1 auf eine batterielose Kippschalter-Programmierung und setzte stattdessen auf eine einfache Benutzeroberfläche mit nur zwei Tasten: Reset und Start. "Two-touch computing" nannte das Lore Harp in Werbematerialien – ein mutiger Marketingansatz in einer Ära, in der das Programmieren von Bootsequenzen per Hand als Männlichkeitsritual galt.

Zum Preis von 849 US-Dollar (bzw. 619 Dollar als Bausatz) bot der Vector 1 ein solides Angebot. Inflationsbereinigt entspricht das heute etwa 3.300 Euro. Geliefert wurde der Rechner mit einem einfachen Monitor-ROM zur Basiskontrolle, doch über ein optionales Tarbell-Kassetteninterface oder spätere Diskettencontroller ließ sich CP/M laden – das populärste Betriebssystem seiner Zeit. Auch firmeneigene Textverarbeitungssysteme wie Flashwriter oder Memorite wurden angeboten und machten den Vector 1 zu einem echten Büroarbeitsplatz.

Im Inneren des Gehäuses steckte eine robuste Metallrahmenstruktur mit einem integrierten Netzteil (mit +8V, +16V, -16V Spannungen), einer Backplane für S-100-Karten und den erwähnten Einsteckkarten – CPU, RAM und serielle Schnittstellen gehörten zur Grundausstattung. Erweiterungskarten für parallele I/O, Floppycontroller oder auch grafische Terminals konnten einfach nachgerüstet werden. Der später erschienene Vector 1+ verfügte sogar über ein integriertes Diskettenlaufwerk – eine Seltenheit im S-100-Segment und ein klarer Hinweis auf den Office-Fokus der Entwickler.

Die Ausgabe erfolgte über externe Terminals wie das ADM-3A – 80 Zeichen auf 24 Zeilen, monochrom in grün oder bernstein. Grafikausgabe im eigentlichen Sinne gab es nicht. Ebenso wenig wie Sound. Der Vector 1 war kein Spielzeug, sondern ein ernstzunehmendes Werkzeug – und das war auch gut so. Wer einen Piepton wollte, konnte sich über S-100-Karten behelfen, doch Multimedia war hier kein Thema.

Vector Graphic schaffte es mit dem Vector 1, mehrere tausend Einheiten abzusetzen – vor allem an Universitäten, kleine Unternehmen und technische Bildungseinrichtungen. Der jährliche Umsatz stieg bis 1982 auf rund 36 Millionen US-Dollar. Man wurde an der NASDAQ gelistet, beschäftigte etwa 400 Mitarbeiterinnen und Mitarbeiter und war kurzzeitig einer der erfolgreichsten unabhängigen Computerhersteller in den USA. Doch der Markt veränderte sich rasant. Der IBM-PC dominierte ab 1981 das Geschäft, und S-100-Systeme gerieten ins Hintertreffen.

Carole Ely and Lore Harp

Carole Ely and Lore Harp - erkennbar ist die Größe des Vector 1

Technisch war der Vector 1 gegenüber Altair und IMSAI überlegen: stabiler Aufbau, integriertes Netzteil, klares Design, bessere Dokumentation. Gegenüber dem IBM PC, Atari ST oder Amiga jedoch fehlten Grafik, Sound und ein integriertes Betriebssystem mit grafischer Oberfläche. Doch der Vector 1 hatte nie den Anspruch, ein Heimcomputer zu sein – er war Bürogerät mit System.

Die Gründer prägten das Unternehmen maßgeblich. Lore Harp McGovern, später Mitbegründerin der McGovern-Stiftung für neurowissenschaftliche Forschung, war eine der wenigen weiblichen CEOs im Silicon Valley der späten 70er. Carole Ely leitete Marketing und Vertrieb. Robert Harp war Chefentwickler und verantwortete unter anderem das Design der frühen RAM-Module.

Der Vector 1 öffnete Vector Graphic den Weg zu größeren Systemen wie dem Vector 3 und Vector 4 – doch mit dem Ende der S-100-Ära und dem Aufstieg des IBM-kompatiblen Standards verlor das Unternehmen an Relevanz. 1987 folgte schließlich die Insolvenz.

Trotzdem bleibt der Vector 1 ein wichtiger Meilenstein: als frühes Beispiel für benutzerfreundliches Hardwaredesign, als Wegbereiter für Bürocomputer und als Zeugnis einer Ära, in der Computer langsam aus der Heimwerkernische ins Licht der Öffentlichkeit traten – geführt von einem Team, das technisches Gespür mit Mut zum Design verband. Und das ganz ohne blinkende Schalterparade.