Power Mac G4 Cube – Apples lautloser Würfel und das Risiko einer neuen Geräteklasse

Source: https://www.mac27.net/power-mac-g4-cube

Es war einer dieser Momente, wie sie Steve Jobs über Jahre hinweg perfektioniert hatte. Apple-Präsentationen waren für ihn nie bloße Produktvorstellungen gewesen – sie waren Inszenierungen, bewusst aufgebaute Dramaturgien, bei denen das Publikum nicht nur informiert, sondern regelrecht verführt werden sollte.

Die Zuschauer wussten das. Und sie erwarteten es auch. Wenn Jobs die Bühne betrat, ging es nicht allein um technische Daten oder Modellpflege. Es ging um den nächsten Schritt, um die Frage, welchen Stempel Cupertino der Computerwelt diesmal aufdrücken würde.

Der berühmte Moment, das kurze Innehalten, die scheinbar beiläufige Ankündigung – „but there’s one more thing“ – war längst zu einem Ritual geworden. Ein Versprechen, dass hinter dem Vorhang noch etwas wartete, das über das Erwartbare hinausging.

Genau in diesem Spannungsfeld wurde im Sommer 2000 der Apple Power Mac G4 Cube vorgestellt.

Es war einer dieser Momente, wie sie Steve Jobs nur selten inszenierte – und wenn, dann mit maximaler Wirkung. Auf der Bühne der Macworld im Sommer 2000 stand zunächst nichts weiter als eine Idee im Raum, formuliert in einem jener Sätze, die zugleich Vision und Versprechen waren:

„we are combining the power of the Power Mac G4 […] with the desktop elegance, the silence and the miniaturization that we learned from doing the iMac to make a whole new class of machine“
(„Wir kombinieren die Leistung des Power Mac G4 mit der Eleganz, der Lautlosigkeit und der Miniaturisierung des iMac, um eine völlig neue Klasse von Computern zu schaffen.“)

Es war mehr als nur eine Produktankündigung. Jobs sprach nicht von einem neuen Modell, sondern ausdrücklich von einer „new class of machine“ – ein Anspruch, der weit über die Technik hinausging. Apple wollte hier keinen bestehenden Markt bedienen, sondern ihn erweitern.

Dann folgte die Verdichtung dieser Idee in eine physische Form:

„we have miniaturized all that power into something this size […] an 8 inch cube“
(„Wir haben all diese Leistung in etwas von dieser Größe miniaturisiert […] einen 8-Zoll-Würfel.“)

Ein kompletter Power Mac G4, reduziert auf ein Volumen, das eher an ein Designobjekt erinnerte als an einen klassischen Rechner. Und als wäre das nicht genug, setzte Jobs noch einen weiteren Akzent:

„all this power in an 8 inch cube has cooled without a fan […] so it runs in virtual silence“
(„All diese Leistung in einem 8-Zoll-Würfel wird ohne Lüfter gekühlt […] und läuft praktisch lautlos.“)

Als der Rechner schließlich enthüllt wurde, fiel der vielleicht programmatischste Satz des gesamten Auftritts:

„quite possibly the most beautiful product we’ve ever designed“
(„Möglicherweise das schönste Produkt, das wir je entworfen haben.“)

Und tatsächlich – der Cube war weniger ein Computer im klassischen Sinne als vielmehr ein bewusst inszeniertes Objekt. Ein System, das nicht unter dem Schreibtisch verschwand, sondern sichtbar wurde.

Während der Applaus noch nachhallte, begann hinter den Kulissen jedoch bereits eine Geschichte, die deutlich weniger makellos verlief.

Die Form selbst war kein Zufall. Wer genau hinsah, erkannte eine Linie zurück zu NeXT – jenem Unternehmen, das Jobs nach seinem Weggang von Apple gegründet hatte. Dessen Rechner, später als NeXTcube bekannt, folgten bereits einer ähnlichen geometrischen Klarheit. Jobs bestätigte später knapp: „Yes, we did one before.“

Doch der Unterschied war entscheidend. Während der NeXTcube noch als klassisches Arbeitsgerät gedacht war, wurde der Cube bewusst als Objekt gestaltet – als ein System, das sichtbar auf dem Schreibtisch stand. Jobs beschrieb ihn sinngemäß als „brain in a beaker“ – ein sichtbar gemachtes, konzentriertes System.

Der Weg dorthin war jedoch alles andere als trivial. Die transparente Hülle war das Ergebnis monatelanger Entwicklung. Jobs ließ durchblicken, dass es ein halbes Jahr dauerte, allein die exakte Materialzusammensetzung für das Gehäuse zu entwickeln. Statt klassischem Spritzguss setzte Apple zusätzlich auf präzise Nachbearbeitung – Bohrungen und Lüftungsöffnungen wurden nachträglich gefräst, um die gewünschte optische Klarheit zu erreichen.

Dieser Aufwand war kein Selbstzweck. Apple hatte bereits mit dem iMac gelernt, dass Material und Erscheinung Teil der Produktidentität waren. Der Cube führte diesen Ansatz konsequent fort.

Und doch zeigte sich bereits in dieser Phase ein grundlegendes Problem. Kurz vor der Präsentation wurde intern deutlich, dass sich der geplante Preis nicht halten ließ. Der Rechner würde deutlich teurer werden als ursprünglich vorgesehen. Hier kollidierten erstmals Vision und Realität – ein Konflikt, der später entscheidend werden sollte.

So überzeugend die Inszenierung war – ihre eigentliche Bewährungsprobe fand die Konstruktion nicht auf der Bühne, sondern im Alltag statt.

Im Inneren arbeitete ein PowerPC G4 (Motorola 7400) mit integrierter Velocity Engine, unterstützt von einem dedizierten L2-Cache. Der Arbeitsspeicher ließ sich auf bis zu 1,5 GB ausbauen, womit das System technisch klar im oberen Bereich seiner Zeit lag. Auch die Ausstattung mit FireWire, USB, Ethernet und optionalem AirPort unterstrich, dass es sich nicht um ein abgespecktes System handelte.

Doch nicht die reine Leistung machte den Cube bemerkenswert, sondern seine Konstruktion. Apple verzichtete vollständig auf einen Lüfter. Stattdessen wurde die Wärme über einen zentralen Kühlkörper nach oben abgeführt – allein durch natürliche Luftzirkulation. In der Praxis bedeutete das einen nahezu lautlosen Betrieb, allerdings auch ein System, das thermisch näher an seinen Grenzen arbeitete als klassische Tower-Rechner.

Auch die äußere Gestaltung folgte diesem Prinzip der Reduktion. Sämtliche Anschlüsse befanden sich an der Unterseite des Geräts – eine Entscheidung, die das Erscheinungsbild klar hielt, im Alltag jedoch nicht immer praktisch war.

Mit dem Apple Display Connector ging Apple noch einen Schritt weiter. Video, Daten und Strom wurden über ein einziges Kabel geführt – elegant, aber zugleich proprietär. Ein Ansatz, der bereits erkennen ließ, wie stark Apple sein Ökosystem kontrollieren wollte.

Beim Thema Audio verzichtete man vollständig auf interne Lösungen. Stattdessen entwickelte Apple gemeinsam mit Harman Kardon externe Lautsprecher, die sowohl funktional als auch gestalterisch Teil des Systems waren.

Im Inneren blieb der Zugriff hingegen überraschend klassisch. Mit einem einfachen Mechanismus ließ sich der komplette Kern des Systems herausziehen. Komponenten waren schnell erreichbar – ein Detail, das besonders professionelle Anwender ansprach.

Doch genau hier lag die Grenze. Trotz dieser Zugänglichkeit war die Erweiterbarkeit eingeschränkt. Es fehlten PCI-Steckplätze, zusätzliche Laufwerksplätze und flexible Upgrade-Möglichkeiten. Im direkten Vergleich bot der klassische Power Mac G4 Tower mehr Leistungsspielraum – und das oft zu einem geringeren Preis.

Damit wurde die Position des Cube zunehmend unklar. Für Einsteiger war er zu teuer, für Profis zu eingeschränkt.

Die Zahlen folgten schnell. Statt der erwarteten Nachfrage wurden nur rund 150.000 Einheiten verkauft. Bereits wenige Monate nach Marktstart reagierte Apple mit Preisnachlässen. Intern galt das Projekt schon früh als gescheitert.

Später formulierte Tim Cook rückblickend:

„It was a spectacular failure commercially, from the first day almost.“
(„Es war wirtschaftlich ein spektakulärer Fehlschlag – praktisch vom ersten Tag an.“)

Auch Apples eigene Analyse fiel nüchtern aus. Phil Schiller erklärte, dass sich die meisten Kunden stattdessen für die Power-Mac-G4-Tower entschieden hätten – leistungsstärker, günstiger und vor allem flexibler.

Am 3. Juli 2001 setzte Apple den Cube offiziell aus und ließ die Tür bewusst offen – man sprach von einer möglichen Rückkehr, nicht von einer endgültigen Einstellung.

Und doch verschwand der Cube in seiner ursprünglichen Form.

Sein Einfluss blieb jedoch bestehen. Die Idee, leistungsfähige Hardware in kompakte, designorientierte Gehäuse zu integrieren, fand später in Geräten wie dem Mac mini oder dem Mac Studio eine neue Ausprägung – diesmal jedoch zu einem Preis und in einer Form, die der Markt besser aufnehmen konnte.

Rückblickend wirkt der Cube wie ein Produkt, das weniger für seine eigene Zeit entwickelt wurde als für eine Zukunft, die erst noch entstehen musste. Ein Rechner, der technisch funktionierte, gestalterisch überzeugte – und dennoch an seiner Einordnung scheiterte.

Vielleicht liegt gerade darin seine eigentliche Bedeutung.

 

Apple Performa 200 (1992) – Der klassische Macintosh als Einstiegsgerät neu verpackt

Apple Performa 200 im klassischen All-in-One-Design (Quelle: Wikimedia Commons, CC BY-SA 2.5)

Es gibt diese eigenartige Phase in Apples Geschichte Anfang der 1990er Jahre, in der sich der Konzern zwischen Tradition und Neuorientierung bewegte – und genau in diese Zeit fällt der Apple Macintosh Performa 200. Auf den ersten Blick wirkt er wie ein vertrauter Bekannter: kompakt, geschlossen, freundlich im Design. Und tatsächlich steckt unter der Haube nichts anderes als der bereits ein Jahr zuvor vorgestellte Macintosh Classic II, nahezu unverändert. Apple selbst hätte wohl gesagt: bewährt statt neu erfunden.

Der Performa 200 erschien am 14. September 1992 und war Teil einer neuen Vertriebsstrategie. Während klassische Macintosh-Modelle über autorisierte Fachhändler verkauft wurden, brachte Apple mit der Performa-Reihe Geräte gezielt in Kaufhäuser und Elektronikmärkte. Der Rechner selbst blieb identisch, doch Verpackung, Softwarebeigaben und Modellbezeichnungen änderten sich – ein Schritt, der intern weniger mit Technik als vielmehr mit Marketing zu tun hatte.

Im Inneren arbeitet ein Motorola 68030 mit 16 MHz, allerdings ohne mathematische Koprozessoreinheit. Das war kein Zufall, sondern klare Positionierung: Der Performa 200 sollte kein professionelles Werkzeug sein, sondern ein Einstiegsgerät für Privathaushalte. Die Grundausstattung mit 2 MB RAM war bereits zur Veröffentlichung knapp bemessen, insbesondere wenn man das mitgelieferte System 7 nutzte. Erst mit einer Erweiterung auf bis zu 10 MB – realisiert über zwei paarweise zu bestückende 30-Pin-SIMM-Steckplätze – konnte sich das System freier entfalten.

Ein oft übersehener, aber technisch entscheidender Punkt liegt in der Anbindung des Prozessors: Obwohl der 68030 intern als 32-Bit-CPU ausgelegt ist, wird er im Performa 200 über einen lediglich 16-Bit breiten Datenbus angebunden. Diese Architektur halbiert effektiv die verfügbare Speicherbandbreite und wirkt sich unmittelbar auf die Gesamtleistung aus. In der Praxis bedeutet das, dass der Rechner spürbar hinter dem zurückbleibt, was man von einem 68030-System erwarten würde. Besonders augenfällig wird dies im Vergleich zum Macintosh SE/30, der trotz seines früheren Erscheinungsdatums durch seinen vollwertigen 32-Bit-Datenpfad in vielen Anwendungen deutlich schneller arbeitet. Diese bewusste Einschränkung unterstreicht die klare Marktsegmentierung: Der Performa 200 sollte zugänglich sein, nicht leistungsführend.

Die verbaute SCSI-Festplatte, typischerweise mit 40 MB, gelegentlich auch 80 MB, arbeitete zuverlässig, aber nicht besonders schnell. Hier zeigte sich bereits ein technischer Rückstand gegenüber PC-Systemen mit moderneren Massenspeicherlösungen. Der integrierte 9-Zoll-Monitor mit einer Auflösung von 512 × 342 Pixeln war praktisch identisch mit dem ursprünglichen Macintosh von 1984. Während andere Plattformen längst Farbdisplays etabliert hatten, blieb Apple hier bewusst beim monochromen Konzept. Das hatte Vorteile in der Klarheit der Darstellung und der Systemintegration, schränkte jedoch den Einsatzbereich sichtbar ein – insbesondere im Spielebereich, wo farbige Konkurrenzsysteme wie der Amiga 1200 oder auch VGA-basierte PCs längst neue Maßstäbe setzten.

Preislich bewegte sich der Performa 200 je nach Bundle zwischen etwa 900 und 1.500 US-Dollar, was inflationsbereinigt heute grob einem Bereich von rund 2.000 bis über 3.000 Euro entspricht. Damit war er kein günstiger Heimcomputer im klassischen Sinne, sondern eher ein bewusst vereinfachter Zugang zur Macintosh-Welt. Apple kombinierte die Hardware häufig mit Softwarepaketen – Lernprogramme, einfache Grafiktools und gelegentlich auch Spiele –, um den Rechner als „Familiencomputer“ zu positionieren.

In der praktischen Nutzung zeigte sich schnell die Zweiteilung dieses Systems: Unter System 6 arbeitete der Rechner angenehm flüssig und reagierte direkt, während System 7 mit seinen erweiterten Funktionen die Grenzen der Hardware deutlich spürbar machte. Die Kombination aus begrenztem Arbeitsspeicher, fehlender FPU und vergleichsweise langsamer Festplatte führte dazu, dass der Performa 200 eher für einfache Anwendungen geeignet war – Textverarbeitung, Bildung, erste Schritte in der grafischen Benutzeroberfläche.

Im größeren Zusammenhang steht dieses Modell exemplarisch für eine Phase, in der Apple versuchte, seine Produktpalette breiter aufzustellen, ohne sie technisch grundlegend zu erneuern. Die Performa-Serie wuchs schnell an, oft mit nur minimalen Unterschieden zwischen den einzelnen Modellen. Für den Kunden bedeutete das nicht selten Verwirrung, für Apple hingegen war es ein Versuch, unterschiedliche Vertriebskanäle gezielt zu bedienen. Besonders deutlich wurde diese Entwicklung wenig später bei Systemen wie dem Apple Performa 630, das in zahlreichen Varianten erschien – teils mit identischer Hardwarebasis, aber unterschiedlichen Laufwerken, Speicherbestückungen oder Softwarepaketen. Zwei nahezu gleiche Geräte konnten unterschiedliche Modellnummern tragen, während sich hinter derselben Bezeichnung je nach Verkaufsregion verschiedene Konfigurationen verbargen. Der Performa 200 markiert damit nicht nur den Einstieg in den Heimmarkt, sondern auch den Beginn eines Modellnamenssystems, das später zu den bekanntesten Schwächen der Apple-Produktpolitik dieser Ära zählen sollte.

Rückblickend ist der Performa 200 weniger ein Meilenstein als vielmehr ein Zeitdokument. Er zeigt, wie Apple noch einmal auf die ursprüngliche Macintosh-Idee setzte – ein geschlossenes, einfach zu bedienendes System –, bevor sich mit der PowerPC-Generation und später dem iMac eine deutlich modernere und klarer strukturierte Produktstrategie durchsetzte. Gerade diese konservative Haltung macht ihn heute interessant: nicht als Höhepunkt der Technik, sondern als Moment des Übergangs.

 

NEC PC-6001A (TREK) – Der gescheiterte US-Export des PC-6001

Als NEC Anfang der 1980er Jahre mit dem NEC PC-6001 in Japan einen vergleichsweise günstigen und bewusst einfach zugänglichen Heimcomputer etablierte, lag ein Schritt nahe, der aus heutiger Sicht fast selbstverständlich wirkt: der Blick über den eigenen Markt hinaus. Der daraus entstandene NEC PC-6001A, in den USA unter dem Namen NEC TREK vertrieben, war dabei weniger ein neues System als vielmehr ein Versuch, ein bestehendes Konzept in einen völlig anderen Markt zu übertragen – mit bemerkenswert ernüchterndem Ergebnis.

Technisch blieb der Rechner weitgehend identisch mit seinem japanischen Vorbild. Die Z80-kompatible Architektur, der AY-3-8910-Soundchip sowie die bekannten Grafikmodi wurden unverändert übernommen. Auch das Cartridge-Konzept, das bereits beim ursprünglichen PC-6001 eine gewisse Nähe zur Konsolenwelt erkennen ließ, blieb erhalten. Wer den japanischen Artikel kennt, findet hier also keine Überraschung – und genau das ist bereits Teil der Geschichte dieses Systems. NEC verzichtete bewusst darauf, die Plattform für den westlichen Markt grundlegend anzupassen.

Die sichtbarste Veränderung fand sich stattdessen an einer Stelle, die oft unterschätzt wird: der Tastatur. Während das japanische Modell mit einer eher spielzeughaften Chiclet-Tastatur ausgeliefert wurde, erhielt der PC-6001A eine klassische Schreibmaschinentastatur. Es war ein klares Signal, dass man sich an den Erwartungen amerikanischer Nutzer orientieren wollte – weniger Wohnzimmergerät, mehr ernstzunehmender Heimcomputer. Doch diese Anpassung blieb letztlich kosmetischer Natur.

Denn der eigentliche Unterschied lag nicht im Gerät selbst, sondern in seinem Umfeld. Als der PC-6001A in den USA erschien, war der Markt bereits in Bewegung. Systeme wie der Commodore VIC-20, der Atari 400 oder der TRS-80 Model I hatten sich etabliert, verfügten über wachsende Softwarebibliotheken und waren fest im Handel verankert. NEC hingegen trat als vergleichsweise unbekannter Anbieter auf – mit einem System, das zwar solide war, aber kaum exklusive Argumente mitbrachte.

Besonders deutlich zeigte sich das beim Thema Software. Während der PC-6001 in Japan zumindest ein überschaubares Ökosystem aus Spielen und BASIC-Programmen vorweisen konnte, blieb der PC-6001A in den USA weitgehend isoliert. Es fehlte an lokaler Softwareentwicklung, an Vertriebspartnern und nicht zuletzt an Sichtbarkeit. Ohne ein funktionierendes Softwareangebot aber war ein Heimcomputer Anfang der 1980er Jahre kaum mehr als ein technisches Versprechen.

Hinzu kam ein strategischer Aspekt, der rückblickend fast zwangsläufig wirkt: NEC versuchte, ein System zu exportieren, das stark auf seinen Heimatmarkt zugeschnitten war. Anders als etwa Commodore oder Atari verfügte das Unternehmen im Westen weder über ein vergleichbares Vertriebsnetz noch über eine etablierte Markenwahrnehmung. Der PC-6001A wurde so zu einem Produkt, das zwischen den Stühlen stand – zu technisch für den reinen Spielemarkt, aber ohne die Tiefe und Unterstützung, die ernsthafte Anwender erwarteten.

Die Folge war ein stilles Verschwinden. Während der PC-6001 in Japan zumindest als Einstiegsgerät in Erinnerung blieb, hinterließ der PC-6001A im US-Markt kaum Spuren. Verkaufszahlen sind nur fragmentarisch überliefert, zeitgenössische Berichte rar – ein deutliches Indiz dafür, dass das System nie wirklich Fuß fassen konnte.

Rückblickend lässt sich der PC-6001A daher weniger als eigenständiger Heimcomputer begreifen, sondern vielmehr als Momentaufnahme einer Übergangszeit. Er zeigt, wie schwierig es war, frühe Heimcomputerkonzepte über kulturelle und wirtschaftliche Grenzen hinweg zu übertragen. Und er ergänzt das Bild seines japanischen Pendants um eine Perspektive, die oft übersehen wird: Erfolg in einem Markt bedeutete noch lange keinen Erfolg in einem anderen.

Gerade in dieser Gegenüberstellung liegt heute sein eigentlicher Wert. Der PC-6001A ist kein Klassiker im klassischen Sinne, kein System mit großer Nutzerbasis oder prägendem Einfluss. Aber er ist ein lehrreiches Beispiel dafür, wie eng Technik, Markt und Timing miteinander verwoben sind – und wie schnell ein durchaus solides System im falschen Umfeld nahezu bedeutungslos werden kann.

Panasonic FS-A1 – kompakter Einstieg in die MSX2-Welt

Source: MSX.org

Es ist ein eigenartiger Moment, wenn man einen japanischen Heimcomputer der mittleren achtziger Jahre zum ersten Mal einschaltet und nicht sofort ein blinkender Cursor erscheint, sondern eine Art kleiner Alltagshelfer: Uhr, Kalender, Notizen. Genau so beginnt die Begegnung mit dem Panasonic FS-A1 – nicht als reines Spielgerät, sondern als Maschine, die ganz selbstverständlich auch ein Stück Organisation in den Alltag bringen wollte. Und doch steckt hinter dieser unscheinbaren Oberfläche ein vollwertiges MSX2-System, das die technischen Möglichkeiten seiner Zeit durchaus beherrschte, sie aber bewusst anders einsetzte als viele seiner Konkurrenten.

Hinter dem Gerät steht Panasonic, beziehungsweise die Muttergesellschaft Matsushita Electric, die Mitte der 1980er Jahre längst zu den prägenden Elektronikherstellern Japans gehörte. Der FS-A1 erschien um 1986 zu einem Preis von rund 49.800 Yen, was inflationsbereinigt heute etwa 300 bis 350 Euro entspricht. Damit positionierte sich das Gerät klar als Einstieg in die MSX2-Welt – nicht als High-End-System, sondern als bewusst zugänglicher Heimcomputer für Haushalte, Schüler und Einsteiger. Es war ein Ansatz, der in Japan häufig zu beobachten war: Man kaufte nicht gleich das größte Modell, sondern begann mit einer Basis, die sich später erweitern ließ.

Technisch betrachtet wirkt der FS-A1 auf den ersten Blick vertraut. Im Inneren arbeitet ein Zilog Z80 mit etwa 3,58 MHz, flankiert vom Grafikchip Yamaha V9938, der für die MSX2-Generation typische Grafikmodi mit bis zu 256 Farben aus einer 512er-Palette ermöglicht. 64 Kilobyte Arbeitsspeicher und 128 Kilobyte Videospeicher bilden die Grundlage, wobei gerade die asymmetrische Verteilung – doppelt so viel VRAM wie RAM – bereits andeutet, wo die Prioritäten lagen: Darstellung statt Datenverarbeitung. Doch das eigentliche Herzstück des Systems ist weniger offensichtlich. Der sogenannte S1985-Systemcontroller übernimmt zentrale Aufgaben der gesamten Architektur – von der Slot-Verwaltung über die Ansteuerung von Joysticks, Drucker und Kassette bis hin zur Tastaturmatrix und sogar der Einbindung einer batteriegepufferten Echtzeituhr. Was bei früheren Rechnern noch aus vielen Einzelbausteinen bestand, ist hier bereits deutlich integriert – ein Hinweis auf die zunehmende Rationalisierung der Hardwareentwicklung in der zweiten Hälfte der achtziger Jahre.

Gerade diese Integration erklärt, warum der FS-A1 im Inneren vergleichsweise aufgeräumt wirkt. Große, zentrale Chips dominieren das Layout, während diskrete Logikbausteine in den Hintergrund treten. Dennoch bleibt die klassische MSX-Struktur erhalten: Der Grafikchip arbeitet unabhängig vom Systemcontroller, und die CPU kommuniziert über ein klar definiertes Bus-System. Es handelt sich also nicht um ein Ein-Chip-System, sondern um eine bereits stark verdichtete Form eines modular gedachten Rechners.

Im Alltag zeigt sich schnell, dass der FS-A1 nicht für jede Aufgabe gleichermaßen gedacht war. Seine größte Stärke liegt eindeutig im Cartridge-Betrieb. Spiele wie Gradius, Knightmare oder Penguin Adventure starten ohne Ladezeiten und laufen stabil, flüssig und in einer Qualität, die dem MSX2-Standard entspricht. In diesen Momenten wirkt das Gerät beinahe wie eine Konsole: einschalten, Modul einstecken, spielen. Auch Titel wie Metal Gear profitieren von dieser direkten Zugriffsmethode, wobei zusätzliche Hardware wie FM-Soundmodule das Erlebnis weiter verbessern konnten.

Ganz anders verhält es sich mit kassettenbasierter Software. Zwar ist die entsprechende Schnittstelle vorhanden, doch die Ladezeiten und die Anfälligkeit gegenüber Störungen wirken im Kontext eines MSX2-Systems bereits veraltet. Noch deutlicher wird die Einschränkung beim Thema Disketten: Ein internes Laufwerk fehlt vollständig. Damit bleiben viele größere Programme und Spiele außen vor, sofern keine externe Lösung angeschlossen wird. Gerade in einer Zeit, in der Disketten zunehmend zum Standard wurden, markiert dies eine klare Grenze der Einsatzmöglichkeiten.

Die Konkurrenz war in dieser Hinsicht nicht untätig. Geräte wie der Sony HB-F1 oder der Philips NMS 8250 boten häufig mehr Arbeitsspeicher oder bereits integrierte Laufwerke und richteten sich stärker an Anwender, die den MSX2 als ernsthafte Arbeitsplattform nutzen wollten. Panasonic hingegen verfolgte eine andere Strategie. Der FS-A1 bildete den Einstiegspunkt in ein System, das sich über Erweiterungen entwickeln ließ. Das nächsthöhere Modell, der FS-A1F, integrierte bereits ein Diskettenlaufwerk und eröffnete damit deutlich mehr Möglichkeiten, ohne die grundlegende Architektur zu verändern.

Ein Detail, das den Charakter des FS-A1 besonders gut einfängt, ist die erwähnte Echtzeituhr mit Batterie. Sie ermöglicht nicht nur die Anzeige von Datum und Uhrzeit, sondern unterstützt auch die integrierten Utility-Funktionen des Systems. In Verbindung mit der speziellen Tastatur – inklusive japanischer Kana-Belegung und einer hardwareseitigen Pause-Funktion, die das gesamte System einfrieren kann – entsteht ein Gerät, das sich nicht ausschließlich über Spiele definiert. Es ist ein Computer, der im Wohnzimmer stehen sollte, bereit für kleine Programme, Notizen oder einfache Organisation, ohne dabei den Zugang zur Unterhaltung zu verlieren.

Rückblickend lässt sich der FS-A1 nur schwer in die üblichen Kategorien einordnen. Er ist weder das leistungsstärkste noch das vielseitigste MSX2-System seiner Zeit. Stattdessen verkörpert er eine andere Idee: einen kompakten, integrierten und sofort nutzbaren Heimcomputer, der seine Stärken dort ausspielt, wo Software direkt verfügbar ist – insbesondere im Cartridge-Bereich – und der gleichzeitig die Tür zu einem größeren Ökosystem offenhält. Gerade diese Mischung aus Begrenzung und Erweiterbarkeit macht ihn heute zu einem interessanten Vertreter seiner Generation, auch wenn er im Schatten seiner besser ausgestatteten Zeitgenossen stand.

Philips VG5000 (1984) – Frankreichs vergessener Heimcomputer

Quelle: https://www.system-cfg.com/detailcollection.php?ident=93

Es ist ein eigenartiger Widerspruch der frühen Heimcomputerjahre, dass gerade in einer Phase zunehmender Standardisierung einzelne Systeme bewusst eigene Wege gingen – Wege, die sich im Rückblick weniger als technische Experimente denn als strategische Sackgassen erweisen sollten. Der Philips VG5000 gehört zweifellos in diese Kategorie. Als er am 1. Oktober 1984 zu einem Preis von 1590 französischen Francs auf den Markt kam – inflationsbereinigt heute etwa 600 bis 700 Euro – war er als günstiger Einstieg in die Welt der Heimcomputer gedacht. Ein Gerät für Einsteiger, für Schüler, für jene, die programmieren lernen wollten. Doch schon bei seiner Einführung stand er im Schatten stärkerer, besser vernetzter Systeme.

Entwickelt wurde der Rechner von Philips, gefertigt jedoch in Frankreich durch die Tochtergesellschaft Radiotechnique (RTC) in Le Mans und unter verschiedenen Marken vertrieben – darunter Radiola und Schneider. Diese Vielfalt an Namen darf nicht missverstanden werden: Technisch handelt es sich stets um dasselbe System. Radiola war dabei keine eigenständige Entwicklerfirma, sondern ein traditionsreiches französisches Markenlabel innerhalb des Philips-Konzerns, das gezielt für den lokalen Markt genutzt wurde. Diese regionale Ausrichtung erklärt auch die Nähe zum französischen Minitel. Diese Verbindung ist jedoch kultureller und industrieller Natur, nicht technischer. Zwar erinnern Tastatur und Bedienkonzept an Minitel-Terminals, doch der VG5000 ist ein klassischer Heimcomputer – mit all den Vor- und Nachteilen dieser Kategorie.

Im Zentrum der Hardware arbeitet ein Zilog Z80A mit 4 MHz, ein Prozessor, der auch im ZX Spectrum oder in MSX-Systemen Verwendung fand. Entscheidend ist jedoch nicht der Prozessor allein, sondern die Art, wie er eingebettet ist. Der VG5000 verfügt über 24 KB RAM, von denen effektiv nur etwa 16 KB für Programme zur Verfügung stehen, während 8 KB fest als Videospeicher reserviert sind. Nach dem Einschalten bleiben dem Anwender rund 13,7 KB freier BASIC-Speicher – ein Wert, der die Grenzen des Systems bereits deutlich macht. Ergänzt wird dies durch 18 KB ROM mit integriertem BASIC auf Basis von Microsoft BASIC-80, was den Rechner sofort einsatzbereit machte und seine Ausrichtung als Lernsystem unterstreicht.

Die eigentliche Besonderheit liegt im Grafiksystem. Der eingesetzte EF9345-Videochip arbeitet nicht mit einer klassischen Bitmap, sondern mit einem Zeichensatzsystem. Der Bildschirm besteht aus einzelnen Zeichen, die sich zwar umdefinieren lassen, jedoch keine freie Pixelmanipulation erlauben. Das Ergebnis ist eine Form der „Semigraphik“, die für Textdarstellung hervorragend geeignet ist, bei bewegten Szenen jedoch schnell an ihre Grenzen stößt. Sprites existieren nicht, flüssiges Scrolling ist nur eingeschränkt möglich, und der Zugriff auf den Videochip erfolgt vergleichsweise langsam. Hinzu kommt, dass die Soundausgabe die CPU blockiert – ein Detail, das sich in Spielen unmittelbar bemerkbar macht, wenn die Action für kurze Momente einfriert.

Die Softwarebibliothek spiegelt diese technischen Gegebenheiten wider. Mit rund drei Dutzend kommerziellen Titeln blieb das Angebot überschaubar und stark auf Frankreich konzentriert. Viele Programme wurden direkt von Philips selbst veröffentlicht, ergänzt durch einige wenige lokale Entwickler sowie zahlreiche Lernprogramme. Internationale Unterstützung fehlte nahezu vollständig – ein Umstand, der vor allem der fehlenden Kompatibilität zum MSX-Standard geschuldet war, den Philips parallel mit dem Philips VG8000 verfolgte. Während sich MSX als offene Plattform etablierte, blieb der VG5000 ein proprietäres System ohne Anschluss.

Zu den bekanntesten Spielen gehört Glouton, ein Titel, der auf dem Spielprinzip von Munchkin der Philips Videopac G7000 basiert. Gerade dieses Spiel zeigt exemplarisch, wie gut der VG5000 funktionieren konnte, wenn Software und Hardware aufeinander abgestimmt waren. Das Labyrinth-Prinzip, die rasterbasierte Bewegung und die begrenzte Anzahl beweglicher Elemente passen ideal zur Architektur des Systems. Glouton wirkt daher vergleichsweise flüssig und spielbar – nicht trotz, sondern wegen der Einschränkungen. Andere Titel wie La Moto Infernale oder Le Fou Volant versuchten, mehr Dynamik darzustellen, stießen jedoch schnell an Grenzen. Scrollende Szenen führten zu Flackern, komplexere Abläufe zu Verlangsamungen. Besonders deutlich wird dies bei BASIC-basierten Spielen, deren Geschwindigkeit zusätzlich durch den Interpreter reduziert wurde.

Auch das Zubehör zeigt ein ambivalentes Bild. Philips plante durchaus ein vollständiges Ökosystem: Kassettenrekorder (VY0030) für die Datenspeicherung, ein Joystick-Interface (VG5200) mit Unterstützung für Atari-kompatible Controller, RAM-Erweiterungen wie das VG5216-Modul, Drucker sowie ein Erweiterungsbus. Innerhalb der VG5000-Familie – also zwischen Philips-, Radiola- und Schneider-Geräten – war dieses Zubehör vollständig kompatibel. Doch diese Offenheit blieb weitgehend theoretisch. Es entstanden kaum Drittanbieterlösungen, Diskettenlaufwerke wurden nie realisiert, und die Erweiterungsmöglichkeiten wurden in der Praxis selten genutzt. Der Rechner wirkte damit offen konstruiert, blieb aber wirtschaftlich isoliert.

Im Vergleich zur Konkurrenz wird die Position des VG5000 deutlich. Der Commodore 64 bot nicht nur eine echte Bitmap-Grafik mit Sprites, sondern auch den leistungsfähigen SID-Soundchip und eine enorme Softwarebasis. Der Amstrad CPC überzeugte durch integrierte Komplettlösungen, während MSX-Systeme durch ihre Standardisierung und internationale Verbreitung punkteten. Selbst im eigenen Haus stand der VG5000 mit dem VG8000 in direkter Konkurrenz zu einer Plattform, die langfristig die deutlich besseren Perspektiven bot.

Zeitgenössische Rezensionen spiegeln diese Situation wider. Gelobt wurden die klare Textdarstellung, die einfache Bedienung und das sofort verfügbare BASIC. Kritisiert wurden hingegen die eingeschränkten Grafikmöglichkeiten, die wenig ergonomische Tastatur und vor allem die geringe Softwareverfügbarkeit. Das Fazit fiel entsprechend nüchtern aus: ein solider Lerncomputer, der jedoch gegen die technisch und softwareseitig überlegene Konkurrenz kaum bestehen konnte.

So bleibt der VG5000 ein bemerkenswertes Beispiel für einen Rechner, der technisch keineswegs unbrauchbar war, dessen Konzept jedoch nicht in die Richtung des Marktes wies. Sein vergleichsweise niedriger Preis konnte die strukturellen Schwächen nicht kompensieren, und seine starke regionale Ausrichtung isolierte ihn in einer Zeit, in der sich der Heimcomputermarkt zunehmend international vernetzte. Der VG5000 war kein schlechtes System – er war lediglich ein System ohne überzeugenden Grund, sich gegen die Alternativen zu entscheiden.

TRS-80 Model I – Der Moment, in dem der Computer den Alltag erreichte

Foto: Flominator (CC BY-SA 3.0)

Es war ein Jahr, in dem sich die Welt in viele Richtungen zugleich bewegte. Während Star Wars die Kinos füllte, die Voyager Program-Sonden ihren Weg ins Unbekannte antraten und mit der Atari 2600 Videospiele erstmals in großer Zahl den Weg in die Wohnzimmer fanden, erschien beinahe unscheinbar ein Gerät, das langfristig mindestens ebenso prägend werden sollte: der TRS-80 Model I. Ein vormontierter Heimcomputer ab 399 US-Dollar, der den Zugang zur Rechentechnik aus der Nische der Bastler herauslöste und in den Alltag überführte. Und doch unterschied sich dieser Rechner in einem entscheidenden Punkt von vielem, was zuvor existierte: Er war nicht für Tüftler gedacht, sondern für Menschen, die ihn einschalten und unmittelbar nutzen wollten.

Die Tandy Corporation, deren Vertriebsarm Radio Shack in tausenden Filialen präsent war, traf damit eine strategische Entscheidung, die sich als ebenso mutig wie folgenreich erweisen sollte. Während Systeme wie der Altair 8800 noch als Bausätze verkauft wurden, setzte man bewusst auf ein vormontiertes Komplettsystem. Interne Skepsis blieb nicht aus – ein Computer für den Durchschnittskunden erschien vielen als gewagtes Unterfangen. Doch die Entwicklungskosten hielten sich mit rund 150.000 US-Dollar in bemerkenswert engen Grenzen, und die Zielsetzung war klar umrissen: ein möglichst günstiger, sofort nutzbarer Rechner.

Als das System im August 1977 vorgestellt wurde, lag der Einstiegspreis bei etwa 399 US-Dollar für die Basiseinheit, realistisch jedoch bei rund 599 US-Dollar im Bundle mit Monitor und Kassettenlaufwerk. Inflationsbereinigt entspricht dies heute etwa 3.500 bis 4.500 Euro – kein beiläufiger Kauf, aber erreichbar für ambitionierte Privatanwender und kleinere Unternehmen. Mit wachsender Ausstattung – insbesondere 16 KB RAM und erweitertem BASIC – konnte der Preis rasch auf über 800 US-Dollar ansteigen. Der günstige Einstieg war damit durchaus real, die eigentlichen Kosten begannen jedoch erst mit der praktischen Nutzung.

Technisch basierte das System auf dem Zilog Z80, der mit rund 1,77 MHz getaktet wurde – ein Wert, der auf dem Papier unspektakulär erscheint, in der Praxis jedoch durch den erweiterten Befehlssatz effizient genutzt wurde. Gegenüber dem MOS Technology 6502 der Konkurrenz bot der Z80 zusätzliche Register und Instruktionen, was insbesondere bei komplexeren Programmen Vorteile brachte. Der Rechner war konsequent als memory-mapped System ausgelegt: Bildschirm, Tastatur und Peripherie erschienen aus Sicht der CPU schlicht als adressierbare Speicherbereiche. Der Bildschirminhalt entsprach direkt dem Inhalt eines definierten Adressraums – eine Lösung, die es Programmierern erlaubte, Inhalte unmittelbar zu manipulieren und die Entwicklung eigener Anwendungen erheblich vereinfachte.

Die CPU fungierte dabei als zentrale Vermittlungsinstanz zwischen sämtlichen Komponenten – ein Prinzip, das auch im technischen Handbuch hervorgehoben wurde und der Architektur eine klare Struktur verlieh. In der Praxis bedeutete dies allerdings ebenso, dass jede Ein- und Ausgabeoperation über die CPU lief – ein Umstand, der bei steigender Komplexität zunehmend zum limitierenden Faktor werden konnte.

Die Darstellung erfolgte über eine separate Video-Logik, die der CPU die zeitkritische Bildaufbereitung abnahm. Dieses Detail verdeutlicht, dass der TRS-80 keineswegs als improvisiertes Minimaldesign zu verstehen ist. Im Gegenteil: Die gesamte Konstruktion folgte einer klar nachvollziehbaren Linie aus Standardbausteinen der 74LS-Serie, ohne den Einsatz proprietärer Spezialchips. Das machte den Rechner nicht nur kostengünstig, sondern auch transparent und vergleichsweise leicht zu warten – ein nicht zu unterschätzender Vorteil in einer Zeit, in der technischer Support keineswegs selbstverständlich war.

Ein besonders aufschlussreiches Detail zeigt sich beim Monitor. Dieser war im Kern kein dedizierter Computermonitor, sondern ein modifizierter Fernseher, bei dem der Tuner entfernt worden war. Technisch brachte dies jedoch eine Herausforderung mit sich: das sogenannte „Hot Chassis“, bei dem Teile der Elektronik direkt mit der Netzspannung verbunden waren. Um den Computer selbst davon zu isolieren, setzte man auf einen optischen Isolator – eine frühe Form galvanischer Trennung. In der Praxis war dies weniger Komfortmerkmal als notwendige Sicherheitsmaßnahme, verdeutlicht jedoch den pragmatischen und zugleich sorgfältigen ingenieurtechnischen Ansatz der Konstruktion.

Die Speicherung von Programmen erfolgte zunächst über handelsübliche Kassettenrekorder. Daten wurden dabei nicht digital im heutigen Sinne gespeichert, sondern als analoge Tonsignale kodiert – ein Verfahren, das Geduld erforderte und fehleranfällig sein konnte, dafür jedoch die Einstiegskosten niedrig hielt. Erst mit dem optionalen Expansion Interface eröffnete sich der Weg zu Diskettenlaufwerken, erweitertem Speicher und zusätzlicher Peripherie wie Druckern. Damit wandelte sich der TRS-80 vom Heimcomputer zu einem ernstzunehmenden Arbeitsgerät. Zugleich zeigte sich hier eine typische Schwäche früher Erweiterungssysteme: Steckverbindungen und Timing-Probleme führten im Alltag zu einer gewissen Empfindlichkeit.

Und dennoch – oder gerade deshalb – setzte sich das System durch. Die ursprünglich geplanten 3.000 Einheiten im ersten Jahr wurden deutlich übertroffen; bereits 1978 bewegte man sich im Bereich von 100.000 verkauften Geräten. Zeitweise war die Nachfrage so hoch, dass Kunden mehrere Wochen auf ihre Bestellung warten mussten. Ausschlaggebend war dabei weniger eine technische Überlegenheit als vielmehr die Verfügbarkeit: Während Systeme wie der Apple II oder der Commodore PET ebenfalls wichtige Rollen spielten, war es der TRS-80, der flächendeckend im Handel präsent war.

Erst rückblickend wurde dieser Moment als „Trinity“ bezeichnet – die gleichzeitige Präsenz von TRS-80, Apple II und Commodore PET als erste vollständig vormontierte Heimcomputer. Gemeint war dabei weniger eine Gleichwertigkeit als vielmehr ein Wendepunkt: Zum ersten Mal standen mehrere Systeme zur Verfügung, die sich direkt an Privatkunden richteten und ohne technisches Vorwissen nutzbar waren.

Ein entscheidender Faktor war die Software. Das zunächst einfache Level-I-BASIC wurde bald durch eine erweiterte Version ersetzt, die von Microsoft entwickelt wurde. Dieses Level-II-BASIC erweiterte die Möglichkeiten des Systems deutlich, brachte jedoch auch erste Kompatibilitätsprobleme mit sich – ein Phänomen, das die Computerwelt noch über Jahrzehnte begleiten sollte. Parallel dazu wuchs das Angebot an Anwendungen und Spielen stetig, wodurch sich rund um das System rasch ein eigenständiges Ökosystem entwickelte.

Mit der zunehmenden Verbreitung entwickelte sich auch ein vielfältiger Softwaremarkt. Besonders im Bereich der Spiele zeigte sich früh, welches Potenzial in dem vergleichsweise schlichten System steckte. Titel wie Adventureland von Scott Adams, eines der ersten kommerziellen Textadventures, oder die in zahlreichen Varianten verbreitete Simulation Star Trek gehörten zu den prägenden Erfahrungen vieler Nutzer. Auch einfache Arcade-Umsetzungen, Breakout-ähnliche Spiele oder Schachprogramme erfreuten sich großer Beliebtheit – weniger aufgrund technischer Raffinesse als vielmehr durch ihre unmittelbare Verfügbarkeit und den praktischen Nutzen des Systems.

Die Preise für Software bewegten sich in der Praxis meist im Bereich von etwa 10 bis 30 US-Dollar pro Programm, abhängig von Umfang und Vertriebsweg. Inflationsbereinigt entspricht dies heute grob 80 bis 250 Euro – ein Betrag, der verdeutlicht, dass Software bereits damals eine bewusste Investition darstellte. Gleichzeitig entstand durch Magazine, Listings und Nutzergruppen eine frühe Form der Do-it-yourself-Kultur, bei der Programme selbst abgetippt oder angepasst wurden. Nicht die Hardware allein machte den TRS-80 attraktiv, sondern die Möglichkeit, ihn aktiv mit Inhalt zu füllen.

Die zeitgenössische Presse war sich dabei nicht immer einig. Jerry Pournelle schrieb 1983 im BYTE-Magazin rückblickend, er habe den Model I zunächst als „Maschine der Zukunft“ betrachtet, merkte jedoch an, dass die Konstruktion nie vollständig ausgereift gewesen sei und die Qualitätssicherung mit dem schnellen Wachstum nicht Schritt gehalten habe. Solche Einschätzungen spiegeln weniger eine grundsätzliche Schwäche wider als vielmehr die Dynamik eines Marktes, der schneller wuchs, als selbst die Hersteller erwartet hatten.

Auch der Spitzname „Trash-80“, der gelegentlich kursierte, ist in diesem Kontext zu verstehen. Er entstand nicht aus grundsätzlicher Ablehnung, sondern aus der Kombination aus aggressiver Kostenoptimierung und praktischen Eigenheiten des Systems – etwa der bekannten „Keyboard Bounce“-Problematik, bei der mechanische Tasten mehrere Signale auslösen konnten. Solche Effekte waren jedoch keineswegs ungewöhnlich, sondern typisch für viele frühe Tastaturlösungen jener Zeit.

Am Ende bleibt ein Rechner, der vielleicht nicht der eleganteste oder leistungsfähigste seiner Generation war, der jedoch etwas Entscheidendes leistete: Er brachte den Computer aus der Werkstatt in den Alltag. Nicht durch technische Überlegenheit, sondern durch Verfügbarkeit, Nachvollziehbarkeit und ein klares Verständnis dafür, was Nutzer tatsächlich benötigten. Damit wurde der TRS-80 Model I weniger zu einer einzelnen Maschine als zu einem Wendepunkt – einem System, das den Computer nicht neu erfand, sondern ihn erstmals in die Breite trug.

Ohio Challenger 1P – Der schnelle Außenseiter der frühen Heimcomputerzeit

Ohio Challenger 1P – Quelle: computinghistory.org.uk

Der Ohio Challenger 1P kam 1978 auf den Markt, zu einem Zeitpunkt, als Heimcomputer bereits ihren Weg in Büros und Privathaushalte gefunden hatten. Systeme wie der Apple II, der Commodore PET 2001 und der TRS-80 Model I hatten ein Jahr zuvor gezeigt, wie ein solcher Rechner aussehen konnte: einschalten, BASIC sehen, arbeiten. Der Challenger 1P wirkt daneben zunächst unscheinbar, ordnet sich aber nicht einfach unter – er verfolgt einen Ansatz, der deutlich stärker aus der Welt der Einplatinencomputer heraus gedacht ist.

Im Kern steckt das bekannte Superboard II, das hier in ein Gehäuse integriert wurde. Das war kein rein kosmetischer Schritt. Während viele Systeme dieser Zeit noch offen betrieben wurden oder mehrere Komponenten benötigten, wirkte der Challenger 1P wie ein geschlossenes Gerät. Gleichzeitig blieb die Architektur nachvollziehbar und direkt zugänglich. Genau diese Mischung zieht sich durch das gesamte System.

Als Prozessor kommt ein MOS Technology 6502 mit rund 1 MHz zum Einsatz. Damit bewegt sich der Rechner auf Augenhöhe mit der Konkurrenz, unterscheidet sich aber in der praktischen Nutzung. Das im ROM integrierte BASIC von Microsoft gehört zu den schnelleren Vertretern seiner Zeit. Zeitgenössische Tests im Compute!-Magazin zeigen, dass Programme auf dem Challenger 1P zügiger ausgeführt werden als auf vielen vergleichbaren Systemen. Dieser Unterschied ist nicht spektakulär, aber spürbar – gerade bei wiederholten Berechnungen oder einfachen grafischen Ausgaben.

Die Grundausstattung umfasst 4 KB RAM und lässt sich auf 8 KB sowie mit zusätzlicher Hardware auf bis zu 32 KB erweitern . Das System ist damit von Anfang an nicht als statische Lösung gedacht. Erweiterungen erfolgen über zusätzliche Platinen und den OSI-Bus, wodurch sich der Rechner an wachsende Anforderungen anpassen lässt. Allerdings setzt das auch voraus, dass man sich mit der Technik beschäftigt – eine Eigenschaft, die man heute fast schon vermisst.

Bei der Darstellung zeigt sich ein typisches Bild der Zeit. Der Challenger 1P liefert ein Composite-Videosignal, das technisch sauber ist, aber nicht direkt für den Anschluss an einen Fernseher gedacht war. In der Praxis wurde daher meist ein HF-Modulator eingesetzt, wodurch das Signal über den Antenneneingang eingespeist wurde. Das führte zu einer weicheren Darstellung und verstärkte die bekannten Randprobleme. Intern sind 32 × 32 Zeichen möglich, sichtbar sind auf einem üblichen Fernseher jedoch meist nur etwa 24 × 24 . Dieser Unterschied fällt besonders dann auf, wenn Programme für größere Darstellungsflächen ausgelegt sind.

Die Tastatur fällt im positiven Sinne auf. Mit 53 Tasten und einer vollständigen ASCII-Belegung eignet sie sich deutlich besser für ernsthafte Eingaben als viele vereinfachte Lösungen der Zeit. Gerade bei längeren BASIC-Programmen oder strukturierten Eingaben zeigt sich der Vorteil schnell.

Grafisch arbeitet das System nicht mit einem klassischen Pixelmodus, sondern mit einem erweiterten Zeichensatz. Dieser enthält neben Buchstaben und Zahlen auch grafische Elemente, die sich direkt nutzen lassen. Dadurch entstehen einfache Spiele und Visualisierungen, die über reine Textdarstellung hinausgehen, ohne dass zusätzliche Hardware notwendig ist.

Als Massenspeicher dient zunächst ein Kassettensystem mit 300 Baud nach dem Kansas-City-Standard . Das Laden von Programmen erfordert Geduld, entspricht aber dem damaligen Standard. Mit den optionalen Mini-Floppy-Laufwerken ändert sich das deutlich. Programme stehen schneller zur Verfügung, und der Umgang mit Daten wird wesentlich komfortabler.

Über die 610-Erweiterungsplatine lassen sich neben zusätzlichem Speicher auch Diskettencontroller sowie Schnittstellen für Drucker und Modem integrieren . Damit entwickelt sich der Challenger 1P von einem einfachen Einstiegssystem zu einer flexiblen Arbeitsumgebung, die sich an unterschiedliche Anforderungen anpassen lässt.

Preislich lag der Rechner bei rund 349 US-Dollar. Inflationsbereinigt entspricht das heute etwa 1.600 bis 2.000 Euro. Ein vollständiges System mit Monitor oder geeigneter Peripherie lag entsprechend darüber, sodass auch dieser Rechner eine bewusste Anschaffung darstellte.

Im direkten Vergleich positioniert sich der Challenger 1P zwischen den etablierten Systemen seiner Zeit. Der Apple II bietet mehr Flexibilität durch sein Steckkartensystem, der Commodore PET 2001 überzeugt durch seine geschlossene Bauweise, und der TRS-80 Model I richtet sich klar an Einsteiger. Der Challenger 1P ist in vielen Bereichen schneller, bleibt dabei aber technischer und weniger komfortorientiert.

Genau so wurde er auch beschrieben. Das Compute!-Magazin sieht in ihm eine ernstzunehmende Option für Anwender, die programmieren möchten und dabei auf ein gutes Preis-Leistungs-Verhältnis achten. Dieser Eindruck passt auch heute noch.

Der Challenger 1P ist kein System, das versucht, den Nutzer zu entlasten. Er bleibt nah an seiner technischen Basis, lässt sich nachvollziehen und erweitern, verlangt dafür aber auch ein gewisses Maß an Verständnis. Gerade darin liegt seine Besonderheit.

 

Unitron U-2200: Ein Apple-II-Klon mit integrierter CP/M-Doppelarchitektur

Der Unitron U-2200 gehört zu jener Generation von Mikrocomputern der frühen 1980er-Jahre, die in einer Phase entstanden, als sich noch keine einheitliche Architektur im Personal-Computer-Markt durchgesetzt hatte. Neben Systemen wie dem Apple II, verschiedenen CP/M-Rechnern und den ersten IBM-PC-Kompatiblen experimentierten zahlreiche kleinere Hersteller mit Maschinen, die mehrere Softwarewelten gleichzeitig unterstützen sollten. Der U-2200 wurde von der Firma Unitron in Taiwan produziert und über Händler unter anderem in Großbritannien, Australien und Teilen Europas vertrieben. Anzeigen aus Fachzeitschriften wie Personal Computer World aus dem Jahr 1984 bewarben das System ausdrücklich mit seiner Kombination aus Apple-II- und CP/M-Kompatibilität.

Technisch basierte der Rechner auf einer Dual-Prozessor-Architektur, die zwei damals wichtige Plattformen miteinander verband. Neben dem für Apple-II-Computer typischen MOS 6502 besaß das System zusätzlich einen Zilog Z80. Während der 6502 die Apple-kompatible Betriebsart ermöglichte, diente der Z80 vor allem zum Betrieb des weit verbreiteten CP/M-Betriebssystems. Anders als beim originalen Apple II, bei dem ein Z80 üblicherweise über eine Steckkarte ergänzt werden musste, war diese Kombination beim Unitron bereits Teil der Grundkonfiguration. Zeitgenössische Werbung stellte diese Eigenschaft entsprechend als zentrales Merkmal heraus.

Die übrigen technischen Eigenschaften orientierten sich deutlich am Apple-II-Design. Der Rechner verfügte über 64 KB Arbeitsspeicher, der auf 128 KB erweitert werden konnte, sowie über etwa 24 KB ROM. Der Textmodus bot eine Darstellung von 40 × 24 Zeichen, während mit einer Erweiterungskarte auch eine 80-Zeichen-Darstellung möglich war. Für grafische Anwendungen standen zwei klassische Apple-Formate zur Verfügung: ein Low-Resolution-Modus mit 40 × 48 Bildpunkten und bis zu 16 Farben sowie ein High-Resolution-Modus mit 280 × 192 Pixeln und sechs Farben.

Auch die Schnittstellen spiegelten die typische Ausstattung eines Mikrocomputers dieser Zeit wider. Der U-2200 bot Anschlüsse für externe 5¼-Zoll-Diskettenlaufwerke, ein Kassetteninterface, Joystick- bzw. Game-Paddle-Ports sowie einen Videoausgang zum Anschluss eines Monitors. Ein einfacher interner Lautsprecher sorgte für akustische Signale.

In der äußeren Gestaltung unterschied sich das System etwas von vielen Apple-II-Klonen. Die Tastatur war als separates Gerät ausgeführt und wurde über ein Spiralkabel mit dem Hauptgehäuse verbunden. Das Gehäuse selbst war schlicht gestaltet und trug auf der Vorderseite lediglich den Anschluss für die Tastatur sowie eine Betriebs-LED. Intern standen mehrere Erweiterungssteckplätze zur Verfügung, die mit Apple-kompatiblen Karten bestückt werden konnten, etwa für Diskettencontroller oder eine 80-Zeichen-Karte. Die Zahl dieser Steckplätze war jedoch geringer als beim originalen Apple II.

Der Unitron U-2200 wurde Anfang der 1980er über Händler vertrieben und unter anderem in Anzeigen der britischen Fachzeitschrift Personal Computer World beworben. Diese Anzeigen nennen die technischen Eigenschaften des Rechners – darunter die Dual-Prozessor-Architektur aus MOS 6502 und Zilog Z80, die Apple-II-Kompatibilität sowie die CP/M-Fähigkeit –, enthalten jedoch keine konkrete Preisangabe. Ein eindeutig belegbarer Verkaufspreis des Systems ist in den derzeit verfügbaren Quellen bislang nicht nachweisbar. Zum Vergleich: Ein Apple IIe kostete im Vereinigten Königreich um 1983/84 typischerweise etwa £1.200 bis £1.400 als Basissystem. Viele Apple-II-kompatible Rechner lagen darunter und bewegten sich je nach Ausstattung häufig im Bereich von etwa £700 bis £1.100. In welchem exakten Preisbereich der Unitron U-2200 angeboten wurde, lässt sich aus den bekannten Quellen jedoch nicht eindeutig rekonstruieren.

 

Fujitsu FM-77AV40: Erweiterte Variante der AV-Generation

Als Fujitsu im Oktober 1986 seine neue Generation der sogenannten „Audio-Visual Computer“ vorstellte, erschien neben dem Basismodell auch eine höher ausgestattete Variante. Der Fujitsu FM‑77AV40 gehörte zur gleichen Gerätefamilie wie der Fujitsu FM‑77AV20 und basierte auf derselben technischen Plattform. Architektur, Grafiksystem und Klangtechnik entsprechen daher im Wesentlichen dem bereits beschriebenen FM-77AV20; eine ausführliche Darstellung der zugrunde liegenden Technik findet sich im entsprechenden Artikel zu diesem Modell. Der AV40 wurde von Fujitsu als leistungsstärkere Ausstattungsvariante innerhalb derselben Generation positioniert.

Äußerlich unterschieden sich die beiden Modelle kaum voneinander. Das Gehäuse, die Anschlussanordnung sowie die separate Tastatureinheit entsprachen dem gleichen Design, das Fujitsu für die AV-Serie eingeführt hatte. Auch die grundlegende Systemarchitektur blieb unverändert: Beide Rechner verwendeten weiterhin das für die FM-Reihe typische Dual-CPU-Konzept mit zwei Prozessoren der 6809-Familie, bei dem eine Haupt-CPU die Programmlogik ausführt, während eine zweite CPU bestimmte Steuer- und Grafikaufgaben übernimmt. Ebenso identisch waren die grundlegenden Grafikmodi der AV-Generation, darunter der 320×200-Modus mit bis zu 4096 gleichzeitig darstellbaren Farben sowie der 640×200-Modus mit acht Farben. Auch das FM-Sound-Subsystem mit zusätzlichen PSG-Kanälen entsprach der Ausstattung des AV20.

Die Unterschiede zwischen beiden Geräten lagen vor allem in der Speicher- und Laufwerksausstattung. Während der FM-77AV20 mit 128 KB Arbeitsspeicher ausgeliefert wurde und auf 192 KB erweitert werden konnte, verfügte der FM-77AV40 bereits ab Werk über 256 KB RAM. Diese Erweiterung war keineswegs trivial, denn sie erlaubte umfangreicheren Programmen sowie grafikintensiveren Anwendungen mehr Spielraum im Hauptspeicher. Gerade bei komplexeren Spielen oder bei Software, die mehrere Grafikpuffer nutzte, war zusätzlicher RAM ein spürbarer Vorteil.

Auch bei der Diskettenausstattung positionierte Fujitsu das Modell höher. Während beim AV20 Varianten mit einem oder zwei Laufwerken existierten, wurde der AV40 typischerweise mit zwei 3,5-Zoll-Diskettenlaufwerken ausgeliefert. Diese arbeiteten mit 640 KB pro Diskette, ein Format, das sich im japanischen Heimcomputermarkt bereits etabliert hatte. Für Anwender bedeutete diese Ausstattung einen komfortableren Umgang mit Software und Datenträgern, da Programme nicht mehr ständig zwischen verschiedenen Disketten gewechselt werden mussten.

Preislich lag das Modell entsprechend über dem Basissystem. Der FM-77AV40 wurde bei seiner Einführung zu einem deutlich höheren Preis angeboten als der AV20 und richtete sich damit eher an ambitionierte Nutzer oder an Käufer, die ihren Computer nicht nur für einfache BASIC-Programme, sondern auch für anspruchsvollere Anwendungen einsetzen wollten. Fujitsu verfolgte damit eine Strategie, die im japanischen Heimcomputermarkt jener Zeit durchaus üblich war: Eine gemeinsame Plattform wurde in mehreren Ausstattungsvarianten angeboten, um unterschiedliche Preis- und Leistungssegmente abzudecken.

Innerhalb der FM-77AV-Serie markiert der AV40 somit die ausgebautere Konfiguration derselben Architektur. Technisch handelte es sich nicht um ein völlig neues System, sondern um eine Erweiterung der bestehenden Plattform mit mehr Speicher und einer vollständigeren Standardausstattung. Gerade diese Modellpolitik – identische Architektur, aber unterschiedliche Ausstattungsstufen – war in der japanischen Computerindustrie der 1980er-Jahre weit verbreitet und findet sich ebenso bei konkurrierenden Systemfamilien wie der NEC PC‑8801 oder der Sharp X1.

Der FM-77AV40 lässt sich daher am besten als komfortabler ausgestattete Variante des FM-77AV20 verstehen: ein Rechner mit derselben technischen Grundlage, jedoch erweitertem Arbeitsspeicher und einer umfangreicheren Diskettenkonfiguration, der innerhalb der AV-Generation die obere Ausstattungsstufe repräsentierte.

Fujitsu FM-77AV20: 4096 Farben im japanischen Heimcomputer

Fujitsu FM-77AV20: 4096 Farben im japanischen Heimcomputer

Mitte der 1980er-Jahre befand sich der japanische Heimcomputermarkt in einer besonders lebhaften Phase. Während in Europa Systeme wie Commodore 64, ZX Spectrum oder Amstrad CPC die Wohnzimmer prägten und sich in den USA zunehmend IBM-kompatible PCs durchsetzten, entwickelte sich in Japan eine eigenständige Computerlandschaft mit mehreren konkurrierenden Plattformen. In den Elektronikgeschäften von Tokio oder Osaka standen unterschiedliche Systeme nebeneinander: NEC bot seine populäre PC-8801-Serie an, Sharp vermarktete die X1-Reihe, und zahlreiche Hersteller unterstützten den MSX-Standard. In diesem Umfeld positionierte Fujitsu seine FM-Computer als leistungsfähige Heimrechner mit erweiterten Grafik- und Klangfähigkeiten.

Die Grundlage dieser Plattform bildete der FM-7, den Fujitsu 1982 vorgestellt hatte. Sein auffälligstes Merkmal war eine ungewöhnliche Architektur mit zwei Prozessoren, die unterschiedliche Aufgaben übernahmen. Dieses Konzept blieb auch bei späteren Modellen der Reihe erhalten und wurde in der FM-77AV-Generation weitergeführt. Der FM-77AV20 gehört zu dieser Familie und wurde von Fujitsu am 23. Oktober 1986 vorgestellt. Die Geräte dieser Serie vermarktete der Hersteller ausdrücklich als „Audio-Visual Computer“, also als Systeme, die Grafik, Klang und audiovisuelle Erweiterungen stärker betonen sollten als frühere Heimcomputer derselben Linie.

Im Zentrum des Systems steht weiterhin die charakteristische Dual-CPU-Architektur der FM-Reihe. Als Hauptprozessor arbeitet ein MBL68B09E mit 2 MHz, ergänzt durch einen zweiten MBL68B09E, der ebenfalls mit 2 MHz betrieben wird und bestimmte Steuer- und Grafikaufgaben übernimmt. Diese Aufgabenteilung war innerhalb der FM-Familie ein markantes Konstruktionsmerkmal: Während die Haupt-CPU die Programmlogik ausführte, konnte die Sub-CPU Teile der Bildverarbeitung und Systemsteuerung übernehmen. Für Entwickler bedeutete dies eine leistungsfähige, aber auch anspruchsvolle Architektur, die ein sorgfältiges Zusammenspiel beider Prozessoren erforderte.

Zur Grundausstattung gehörten 128 KB Hauptspeicher, ausbaubar auf 192 KB, sowie 96 KB Videospeicher. Für einen 8-Bit-Heimcomputer der Mitte der 1980er-Jahre war dies eine durchaus großzügige Ausstattung und unterstrich den Anspruch der AV-Serie, grafisch anspruchsvollere Anwendungen zu ermöglichen.

Besonders auffällig war die Grafikarchitektur des Systems. Zu den zentralen Grafikmodi gehörten 640 × 200 Pixel mit acht gleichzeitig darstellbaren Farben sowie 320 × 200 Pixel mit bis zu 4096 gleichzeitig sichtbaren Farben. Diese Fähigkeit war für einen Heimcomputer dieser Klasse ungewöhnlich. Das Computer Museum der Information Processing Society of Japan (IPSJ) – einer der wichtigsten japanischen Fachgesellschaften für Informatik – hebt die FM77AV-Reihe ausdrücklich als ein System hervor, das im Heimcomputerbereich die bis dahin typische „8-Farben-Grenze“ überschritt. Im Vergleich dazu arbeiteten viele bekannte Heimcomputer jener Jahre mit deutlich kleineren Farbpaletten: Der Commodore 64 verfügte über eine Palette von 16 Farben, der ZX Spectrum über acht Grundfarben mit Helligkeitsvariante, und auch viele frühe japanische Systeme blieben im Alltag näher an klassischen 8- oder 16-Farben-Konzepten. Vor diesem Hintergrund war die 4096-Farben-Darstellung der FM-77AV-Serie ein bemerkenswertes Merkmal und ein wichtiger Bestandteil von Fujitsus Marketingstrategie.

Auch im Klangbereich erhielt die AV-Generation ein deutliches Upgrade. Der Rechner bot FM-Sound und PSG-Sound mit jeweils drei Stimmen und acht Oktaven, ergänzt durch einen einfachen System-Beeper. Diese Kombination ermöglichte sowohl klassische Rechteckklänge als auch komplexere FM-Synthese und verlieh vielen Anwendungen einen deutlich reichhaltigeren Klang als bei früheren Heimcomputern der FM-Serie. Angaben zu dieser Ausstattung finden sich unter anderem im Oh!FM-7 Museum, einem umfangreichen Online-Archiv zur Fujitsu-FM-Computerfamilie, das aus der historischen japanischen Computerzeitschrift Oh!FM hervorgegangen ist.

Als BASIC-Umgebung stand im ROM F-BASIC V3.02 zur Verfügung; zusätzlich wurde F-BASIC V3.3 L20 auf einer Einführungsdiskette ausgeliefert. BASIC spielte im japanischen Heimcomputermarkt weiterhin eine zentrale Rolle, da viele Programme aus Computerzeitschriften oder Lehrbüchern abgetippt und anschließend verändert oder erweitert wurden. Auch die FM-Serie lebte stark von dieser Kultur des Experimentierens und Lernens.

Zur Massenspeicherung verwendete der FM-77AV20 3,5-Zoll-Diskettenlaufwerke mit 640 KB Kapazität. Das Modell erschien in zwei Varianten: als FM-77AV20-1 mit einem Laufwerk und als FM-77AV20-2 mit zwei Laufwerken. Diese Kapazität wird häufig mit älteren Angaben aus der ursprünglichen FM77AV-Generation verwechselt, deren Laufwerke teilweise noch mit 320 KB arbeiteten. Beim AV20 gehörten jedoch 640-KB-Disketten bereits zur Standardausstattung.

Ein weiteres Merkmal der AV-Serie war die Unterstützung von Superimposition- und Video-Digitalisierungsfunktionen. Dabei konnte der Computer sein Bild über ein externes Videosignal legen oder Videobilder digital erfassen. Diese Funktionen waren allerdings nicht zwingend Bestandteil der Grundkonfiguration, sondern wurden über entsprechende Erweiterungen realisiert. Gerade diese Möglichkeit, Computer- und Videobild zu kombinieren, erklärt den von Fujitsu gewählten Begriff „Audio-Visual Computer“.

Die Tastatur des Systems war als separate Einheit ausgeführt und vom Hauptgerät abgesetzt. Hinweise auf besondere Eingabetechniken oder drahtlose Varianten existieren in der Sammler- und Restaurationsszene, doch für den FM-77AV20 selbst ist in erster Linie diese klassische, getrennte Tastatureinheit gesichert dokumentiert.

Preislich bewegte sich der Rechner im gehobenen Segment des Heimcomputermarktes. Zeitgenössische Angaben nennen 138.000 Yen für den FM-77AV20-1 und 168.000 Yen für den FM-77AV20-2 (inflationsbereinigt etwa 2300 – 2400 € im Jahr 2026). Damit war das System deutlich teurer als viele einfache Heimcomputer, bot jedoch auch eine entsprechend erweiterte Ausstattung.

In technischen Unterlagen und Datenträgern taucht für das Modell außerdem der interne Codename „Leo“ auf; im Umfeld des FM-77AV20 wird häufig die Bezeichnung „LEO1“ vermutet. Solche internen Projektnamen waren bei japanischen Herstellern der Zeit keineswegs ungewöhnlich und dienten vor allem der Entwicklung und Dokumentation innerhalb der jeweiligen Produktlinien.

Der FM-77AV20 steht damit innerhalb der FM-77AV-Familie für eine Variante, die die bestehende Architektur der Plattform nicht grundlegend veränderte, sie jedoch in wichtigen Punkten ausbaute. Die Kombination aus Dual-CPU-Konzept, erweiterten Grafikmodi, FM-Sound, 3,5-Zoll-Diskettenlaufwerken und optionalen Video-Funktionen zeigt deutlich, wie eigenständig sich der japanische Heimcomputermarkt in der zweiten Hälfte der 1980er-Jahre entwickelte – mit Systemen, die oft ganz andere technische Schwerpunkte setzten als ihre westlichen Gegenstücke.