Video Technology Laser 50 – Wenn BASIC in die Jackentasche wanderte

Es ist Mitte der 1980er Jahre, und während Systeme wie der Commodore 64 oder der ZX Spectrum den heimischen Schreibtisch erobern, verfolgt ein Hersteller aus Hongkong einen anderen Ansatz: Computer sollen nicht nur zu Hause stehen, sondern überallhin mitgenommen werden können – und vor allem eines tun: Programmieren lehren. In genau diesem Spannungsfeld entsteht der Video Technology Laser 50, ein Gerät, das sich selbstbewusst als „BASIC learning tool that teaches you BASIC“ bezeichnete.

Hergestellt wurde der Rechner von VTech, einem Unternehmen, das in den 1980er Jahren sowohl im Bereich preisgünstiger Lernsysteme als auch bei kompatiblen Heimcomputern aktiv war. Der Laser 50 erschien um 1984/85 und wurde je nach Markt unterschiedlich vertrieben – in Frankreich etwa unter der Bezeichnung „Laser One“. Technisch blieb das System dabei unverändert, doch die Umbenennung unterstreicht die Positionierung als Einsteigergerät.

Auf den ersten Blick wirkt der Laser 50 eigenwillig. Statt eines klassischen Bildschirms besitzt er ein einzeiliges LCD mit lediglich 16 Zeichen. Programme müssen daher horizontal durch den Text scrollen, was die Arbeit verlangsamt und eine gewisse Disziplin beim Programmieren erfordert. Im Inneren arbeitet ein Z80-kompatibler Prozessorkern, allerdings nicht als klassischer Einzelchip. Während Systeme wie der Sinclair ZX81 noch klar getrennte Komponenten für CPU, RAM und ROM zeigen, setzt der Laser 50 auf eine stark integrierte Bauweise. Prozessorfunktion, Tastatursteuerung und Displaylogik sind in wenigen spezialisierten Bausteinen zusammengefasst – ein Ansatz, der Kosten spart, aber zugleich Einblicke und Erweiterungen erschwert.

Der Arbeitsspeicher beträgt lediglich 2 Kilobyte RAM, was den verfügbaren Spielraum deutlich begrenzt. Über einen Erweiterungsanschluss lässt sich der Speicher jedoch auf bis zu 16 Kilobyte ausbauen, wodurch sich komplexere Programme realisieren lassen. Trotz dieser Einschränkung war das System in der Lage, bis zu zehn BASIC-Programme gleichzeitig zu verwalten. Diese blieben im Speicher erhalten, solange die Stromversorgung nicht vollständig unterbrochen wurde – ein Detail, das im Alltag überraschend praktisch war.

Der Laser 50 versteht sich klar als Lernsystem. Das Handbuch wird in zeitgenössischen Beschreibungen als besonders zugänglich und praxisnah geschildert, mit zahlreichen Beispielprogrammen und erklärenden Abschnitten. Ergänzt wird dies durch einen Trace-Modus, der Programme schrittweise ausführt und so den Ablauf einzelner Befehle sichtbar macht. Variablen lassen sich dabei beobachten, was das Verständnis von Programmstrukturen erleichtert. Für ein Gerät dieser Größenklasse ist das bemerkenswert konsequent umgesetzt.

Im praktischen Einsatz treten jedoch schnell die Grenzen zutage. Die Tastatur ist vollständig, aber ungewöhnlich angeordnet; insbesondere die Position der Leertaste verlangt Eingewöhnung. Hinzu kommt eine technische Einschränkung, die sich im Alltag bemerkbar macht: Das System verarbeitet Eingaben nur bis zu einer Geschwindigkeit von etwa 20 Wörtern pro Minute zuverlässig. Schnellere Eingaben führen zu ausgelassenen oder doppelt registrierten Zeichen – ein Effekt, der den Arbeitsfluss spürbar beeinflussen kann.

Neben dem Computerbetrieb verfügt der Laser 50 über einen integrierten Taschenrechner-Modus mit wissenschaftlichen Funktionen. Diese Kombination aus Programmierumgebung und Rechenwerkzeug verdeutlicht die Zielgruppe: Schüler, Einsteiger und Anwender, die unterwegs einfache Berechnungen durchführen oder kleine Programme nutzen wollten. Zubehör wie Kassettenrekorder, Thermodrucker oder sogar ein vierfarbiger Plotter erweiterten die Einsatzmöglichkeiten, auch wenn solche Peripherie vermutlich nur von einem kleinen Teil der Nutzer tatsächlich eingesetzt wurde.

Preislich bewegte sich der Laser 50 nach zeitgenössischen Einschätzungen im Bereich von etwa 100 bis 150 US-Dollar, was inflationsbereinigt heute ungefähr 280 bis 450 Euro entspricht. Damit lag er deutlich unter klassischen Heimcomputern, aber über einfachen Taschenrechnern – eine Zwischenposition, die seine Rolle im Markt treffend beschreibt.

Im Vergleich zu tragbaren Systemen wie dem TRS-80 Pocket Computer zeigt sich, dass der Laser 50 zwar komfortabler zu bedienen war, jedoch nicht die Leistungsfähigkeit eines vollwertigen Heimcomputers erreichte. Gleichzeitig fehlte ihm eine breitere Softwarebasis, was seine langfristige Nutzung einschränkte.

Über das Gerät selbst ist heute nur wenig dokumentiert. Zeitgenössische Testberichte sind selten, technische Unterlagen nur fragmentarisch erhalten. Ein Großteil des Wissens basiert auf erhaltenen Geräten, Handbüchern und späteren Analysen durch Sammler. Diese lückenhafte Quellenlage ist jedoch kein Zufall, sondern typisch für eine Geräteklasse, die eher als Lernwerkzeug denn als Plattform für eine wachsende Softwarekultur gedacht war.

Der Laser 50 ist damit kein System, das durch Leistung oder Verbreitung auffiel, sondern eines, das einen sehr spezifischen Ansatz verfolgte: Programmieren zugänglich zu machen, ohne die Hürde eines großen, teuren Heimcomputers. Gerade diese Zwischenstellung macht ihn heute interessant – als Zeugnis einer Phase, in der Computer klein genug wurden, um sie mitzunehmen, aber noch weit davon entfernt waren, universell einsetzbar zu sein.

Apple II: Als der Computer plötzlich Farbe bekam – und einen Platz auf dem Schreibtisch

FozzTexx, CC BY-SA 4.0 (Wikimedia Commons)

Ein leises Klicken von Steckkontakten, der Geruch erhitzten Lötzinns, ein Schaltplan, der über Stunden hinweg auf einem Zeichenbrett wächst – doch in diesem Moment ist es mehr als nur Technik. Es ist die Vorstellung eines Computers, der nicht hinter Glasscheiben in Laboren steht, sondern auf einem Schreibtisch, erreichbar, verständlich, unmittelbar. So beginnt die Geschichte des Apple II nicht als Produktidee, sondern als persönliche Obsession. Steve Wozniak war kein Unternehmer im klassischen Sinn, sondern ein Ingenieur, der sich seit seiner Jugend mit dem Entwurf eigener Computersysteme beschäftigte. Während andere Systeme der Mitte der 1970er Jahre aus Schaltern, Leuchtdioden und Frontpanels bestanden, verfolgte er eine andere Vorstellung: ein Rechner, den man direkt bedienen konnte, mit Tastatur, Bildschirm und einer Programmiersprache, die ohne Umwege reagierte.

Der erste greifbare Schritt in diese Richtung war der Apple I, ein handverdrahteter Rechner, den Wozniak im Umfeld des Homebrew Computer Club präsentierte. Dort zeigte sich jedoch schnell, dass das Interesse über die reine Bastlerszene hinausging. Wozniak selbst trat zurückhaltend auf; er brachte seine Geräte mit, stellte sie auf einen Tisch und ließ andere die Fragen stellen. Erst das Feedback von Gleichgesinnten bestätigte ihm, dass seine Ideen auch außerhalb seiner eigenen Werkbank Relevanz hatten. Parallel erkannte Steve Jobs, dass sich aus diesen Konstruktionen ein Geschäft entwickeln ließ. Die oft zitierte Episode um Paul Terrell markiert dabei einen entscheidenden Wendepunkt: Statt einzelner Platinen wollte der Händler vollständig aufgebaute Computer verkaufen.

Doch gerade in diesem Moment zeigte sich auch die Grenze des Apple I. Für Wozniak war er ein Zwischenschritt. Als er begann, mit Farbgrafik zu experimentieren, wurde deutlich, dass sich diese nicht sinnvoll in das bestehende Design integrieren ließ. Die Konsequenz war ein vollständiger Neuentwurf – ein Rechner, dessen Zentrum nicht der Prozessor, sondern die Videoerzeugung war.

Diese Entscheidung prägte den Apple II fundamental. Während konkurrierende Systeme wie der Commodore PET oder der TRS-80 Model I auf Monochromdarstellung setzten, nutzte der Apple II gezielt die Eigenschaften des NTSC-Signals zur Farberzeugung. Das sogenannte Artifact Coloring ermöglichte es, mit minimaler Hardware farbige Darstellung zu erreichen – ein Ansatz, der weniger auf zusätzliche Chips als auf präzises Timing setzte.

Ein Detail, das dabei oft übersehen wird, ist die enge Kopplung zwischen Systemtakt und Videoerzeugung. Der Apple II arbeitete mit einer MOS 6502 CPU, die mit etwa 1,023 MHz getaktet war – genauer gesagt ein Bruchteil der NTSC-Farbträgerfrequenz. Dieser Takt bestimmte nicht nur die Rechengeschwindigkeit, sondern auch die Videogenerierung und sogar Teile des Diskettenzugriffs.

Besonders bemerkenswert ist dabei die Rolle des Grafiksystems selbst. Der Apple II besaß keinen klassischen Grafikchip. Stattdessen war der Grafikgenerator so aufgebaut, dass er gleichzeitig den Refresh des dynamischen RAMs übernahm. Speicher und Bildausgabe waren damit untrennbar miteinander verbunden – eine Konstruktion, die Hardware sparte, aber höchste Präzision erforderte.

Was in der damaligen Außendarstellung oft nur am Rande erwähnt wurde, zeigt sich in technischen Dokumenten deutlich konkreter: Der Apple II war kein einheitlich konfiguriertes System, sondern eine Plattform, deren Leistungsfähigkeit stark von der jeweiligen Bestückung abhing. Bereits frühe Modelle konnten sowohl mit 4 KB als auch mit bis zu 48 KB RAM ausgeliefert werden.

Interessant ist dabei, dass Apple früh zwischen verschiedenen Speicherlösungen wechselte. Dynamischer RAM ermöglichte niedrigere Preise, erforderte jedoch zusätzliche Logik. Die Architektur blieb bewusst offen: Erweiterungsslots erlaubten es, Speicher, Schnittstellen oder Controllerkarten direkt zu integrieren.

Diese Ausrichtung blieb auch der Fachpresse nicht verborgen. BYTE Magazine beschrieb den Apple II als „one of the most complete microcomputer systems available“ („eines der vollständigsten Mikrocomputersysteme, die verfügbar sind“) – eine Einschätzung, die vor allem die ungewöhnliche Kombination aus Bedienbarkeit und Erweiterbarkeit widerspiegelt.

Was diese technische Eleganz im Alltag bedeutete, lässt sich in den Handbüchern der Zeit beinahe greifen. Das System startete ohne Umwege: Einschalten, ein kurzer Ton – und der Rechner ist bereit. „an asterisk (‘’) prompt character … and a flashing white square“ („ein Sternchen (‘’) als Eingabeaufforderung … und ein blinkendes weißes Quadrat“) erscheinen auf dem Bildschirm. Kein Bootmenü, kein Betriebssystem im heutigen Sinne – nur ein Cursor und die Erwartung, dass man etwas damit tut.

Die Tastatur war vollständig integriert, aber bewusst reduziert. Großbuchstaben, direkte Eingabe, unmittelbare Rückmeldung. „The Apple II has a built-in 52-key typewriter-like keyboard…“ („Der Apple II besitzt eine eingebaute, schreibmaschinenähnliche Tastatur mit 52 Tasten…“) beschreibt nüchtern, was in der Praxis ein entscheidender Unterschied war: Der Rechner wartete nicht – er reagierte.

Creative Computing brachte diesen Eindruck auf den Punkt: „Apple has produced a machine that is both powerful and easy to use.“ („Apple hat eine Maschine geschaffen, die sowohl leistungsfähig als auch einfach zu bedienen ist.“)

Auch der Textmodus blieb funktional. 24 Zeilen mit je 40 Zeichen, weiße Schrift auf schwarzem Hintergrund, keine Kleinbuchstaben – eine Einschränkung, die gleichzeitig Klarheit schuf. Erst spätere Modelle erweiterten diesen Bereich.

Die Grafik hingegen war der eigentliche Sprung nach vorn. Neben einfacher Farbdarstellung bot der Apple II hochauflösende Grafik mit 280×192 Pixeln. Die Farben entstanden nicht direkt, sondern durch die Position einzelner Bits im Videosignal. Aus technischer Sicht ein Kompromiss – aus praktischer Sicht ein Durchbruch.

Besonders deutlich wurde die physische Nähe zwischen Mensch und Maschine beim Umgang mit Speichermedien. Der Kassettenbetrieb war hörbar, spürbar, fehleranfällig. „the Apple II needs a signal of about 2 1/2 to 5 volts peak-to-peak“ („der Apple II benötigt ein Signal von etwa 2,5 bis 5 Volt Spitze-zu-Spitze“) – eine technische Angabe, die im Alltag bedeutete: Lautstärke einstellen, Band prüfen, hoffen, dass es funktioniert.

Tape recorder head alignment is the most common source of tape recorder problems.“ („Die Ausrichtung des Tonbandkopfes ist die häufigste Ursache für Probleme mit Kassettenrekordern.“) – der Computer funktionierte nicht allein, er verlangte Aufmerksamkeit.

Vor diesem Hintergrund wurde das Disk-II-System zu einem Wendepunkt. Es war schneller, zuverlässiger und technisch ungewöhnlich elegant. Während andere Systeme komplexe Controller benötigten, verlagerte Wozniak große Teile der Logik in die Software. Die Kapazität lag bei etwa 143 Kilobyte pro Diskettenseite – ein Wert, der damals deutlich über vielen konkurrierenden Heimlösungen lag.

Die zugehörigen Schaltpläne zeigen eine reduzierte, fast minimalistische Architektur. Kilobaud Microcomputing brachte es treffend auf den Punkt: „a very sophisticated piece of engineering“ („ein sehr ausgeklügeltes Stück Ingenieurskunst“).

Ein Blick auf die Hauptplatine bestätigt diesen Eindruck. Funktionen greifen ineinander, statt getrennt zu sein. CPU, Speicher und Video sind Teil eines gemeinsamen Systems.

Die Erweiterbarkeit war dabei kein Detail, sondern ein Grundprinzip. Acht Steckplätze erlaubten Anpassungen, Erweiterungen, Experimente – gegen den ursprünglichen Widerstand von Jobs.

An dieser Stelle wird auch die Einordnung im Markt greifbar. Gemeinsam mit dem Commodore PET und dem TRS-80 Model I bildet der Apple II die sogenannte „1977 Trinity“.

Doch die Unterschiede waren entscheidend:
Der PET war geschlossen.
Der TRS-80 war günstig und funktional.
Der Apple II war offen.

Diese Offenheit machte ihn zu einer Plattform. Erweiterungskarten wie die Z80 SoftCard ermöglichten sogar den Betrieb von CP/M und damit Zugang zu professioneller Software wie WordStar oder dBASE.

Ein oft unterschätztes Detail ist das Fehlen komfortabler, standardisierter Timer- und Interrupt-Mechanismen im Grundsystem. Zwar konnten Interrupts über Erweiterungskarten realisiert werden, doch im Auslieferungszustand musste vieles exakt berechnet werden. Sound entstand durch präzises Schalten des Lautsprechers, Diskettenzugriffe durch exakt abgestimmte CPU-Zyklen.

Der Apple II war kein komfortables System – er war ein präzises.

Parallel zu dieser technischen und spielerischen Nutzung entwickelte sich jedoch eine Anwendung, die den Apple II in eine völlig neue Kategorie verschob. Mit VisiCalc erschien 1979 ein Programm, das rückblickend häufig als erste echte „Killerapplikation“ des Personal-Computer-Zeitalters bezeichnet wird.

VisiCalc war mehr als nur Software – es war ein Perspektivwechsel. Tabellenkalkulationen, die zuvor auf Papier, mit Taschenrechnern oder auf teuren Großrechnern erstellt wurden, konnten plötzlich direkt auf einem Personal Computer berechnet und verändert werden. Jede Eingabe wirkte sich sofort auf das gesamte Modell aus. Zahlen wurden nicht mehr nur festgehalten – sie wurden beweglich.

Für viele Anwender war dies der erste Moment, in dem ein Computer nicht als Maschine, sondern als Werkzeug erschien. Ein Werkzeug, das Denken beschleunigte. Ein Werkzeug, das Entscheidungen sichtbar machte.

Zeitgenössische Berichte sind in dieser Hinsicht eindeutig: Unternehmen kauften den Apple II nicht wegen seiner Grafikfähigkeiten, nicht wegen seiner Erweiterbarkeit und auch nicht wegen seiner technischen Eleganz – sie kauften ihn wegen VisiCalc. Der Rechner wurde zur Trägerplattform für eine Anwendung.

Damit kehrte sich das Verhältnis von Hardware und Software erstmals spürbar um. Nicht mehr der Computer bestimmte, welche Programme sinnvoll waren – sondern ein Programm bestimmte, welcher Computer gekauft wurde.

In diesem Zusammenhang entstand die bis heute zitierte Einschätzung, VisiCalc sei „the first killer application“ („die erste Killerapplikation“). Doch diese Bezeichnung greift fast zu kurz. VisiCalc war nicht nur ein Verkaufsargument – es war ein Beweis. Ein Beweis dafür, dass Personal Computer wirtschaftlich sinnvoll eingesetzt werden konnten.

Die Auswirkungen waren unmittelbar. Der Apple II fand seinen Weg in Büros, in Buchhaltungen, in Planungsabteilungen. Aufgaben, die zuvor Tage oder Wochen beanspruchten, ließen sich nun innerhalb von Minuten durchspielen. Szenarien konnten verändert, Zahlen angepasst, Konsequenzen sofort sichtbar gemacht werden.

In der Rückschau markiert VisiCalc damit einen Wendepunkt, der über das System selbst hinausgeht. Der Apple II wurde nicht einfach erfolgreicher – er wurde relevant. Oder anders formuliert: Zum ersten Mal wurde ein Computer nicht gekauft, weil man ihn haben wollte, sondern weil man ihn brauchte.

Doch gerade in diesem Moment zeigt sich eine zweite Dimension, die über die unmittelbare Wirkung von VisiCalc hinausgeht. Der Apple II war kein kurzlebiges Produkt einer frühen Experimentierphase, sondern entwickelte sich zu einer der langlebigsten Plattformen der gesamten Mikrocomputerära. Zwischen 1977 und 1993 blieb die Architektur – in verschiedenen Ausprägungen – im Markt präsent.

Der ursprüngliche Einführungspreis lag bei rund 1.298 US-Dollar, während stärker ausgebaute Systeme deutlich darüber lagen. Über die gesamte Baureihe hinweg wurden mehrere Millionen Geräte verkauft.

Noch greifbarer wird diese Entwicklung anhand typischer Systemkonfigurationen. Ein arbeitsfähiger Apple II bestand selten nur aus dem Rechner selbst.

Ein typisches Business-System um 1980 umfasste:
– Apple II / II+
– Diskettenlaufwerk
– VisiCalc (ca. 150 US-Dollar)

Ein solches System bewegte sich im Bereich von etwa 1.800 bis über 2.400 US-Dollar. Mit zunehmender Verbreitung kamen weitere Komponenten hinzu. Textverarbeitungssysteme wurden für rund 129,95 US-Dollar angeboten und erweiterten den Rechner zu einem vielseitigen Arbeitsgerät. Bis Anfang der 1980er Jahre entstand daraus ein vollständiger Arbeitsplatz mit Software, Erweiterungen und Peripherie – oft mit Gesamtpreisen von mehreren tausend US-Dollar. In Europa, insbesondere in Deutschland, verstärkten Importkosten diesen Effekt zusätzlich. Apple-II-Systeme kosteten häufig mehrere tausend D-Mark und wurden eher als Investition denn als Konsumprodukt wahrgenommen. Im Vergleich dazu stand der Commodore 64 für den Heimgebrauch, während der IBM PC sich im professionellen Umfeld etablierte. Der Apple II bewegte sich zwischen diesen Welten.

Doch bevor der Apple II zu einem Werkzeug wurde, war er bereits etwas anderes – ein Experimentierfeld. Ein Ort, an dem sich nicht nur Programme, sondern Ideen entwickeln konnten. In dieser Umgebung entstand etwas, das sich erst Jahre später vollständig greifen ließ: Der Apple II wurde zur Geburtsstätte ganzer Spielgenres. Ein besonders prägnantes Beispiel ist die Entstehung von Sierra On-Line. Ken Williams und Roberta Williams entwickelten mit Mystery House das erste Grafik-Adventure. Parallel dazu entstand mit Akalabeth: World of Doom ein früher Vertreter des Rollenspielgenres. Mit zunehmender Reife des Systems folgten Titel wie Wizardry, Lode Runner oder Karateka. Auch Castle Wolfenstein und The Oregon Trail erweiterten das Spektrum. Zeitgenössische Magazine beobachteten diese Entwicklung genau. In der ersten Ausgabe von Softline wird offen beschrieben, dass Computer in der Praxis vor allem für Spiele genutzt wurden – und dass gerade diese Programme entscheidend zur Weiterentwicklung von Benutzerfreundlichkeit und Grafik beitrugen. Spiele waren damit nicht nur Unterhaltung, sondern ein Experimentierfeld für neue Ideen.

Der Apple II bot dafür ideale Bedingungen. Direkter Zugriff auf Speicher, flexible Grafik und eine offene Architektur ermöglichten es Entwicklern, die Grenzen des Systems auszureizen.

Der Rechner bot keine Abstraktion – er verlangte Verständnis. Der Apple II war kein fertiges Produkt im heutigen Sinn. Er war ein Angebot. Ein System, das den Benutzer nicht abschirmte, sondern einbezog. Ein Computer, den man nicht nur benutzte, sondern verstand. Oder, wie Apple es selbst formulierte: „the first personal computer you’ll actually enjoy using.“ („der erste Personal Computer, den man tatsächlich gern benutzt.“)

Und vielleicht liegt genau darin sein eigentlicher Wendepunkt: Nicht darin, was er konnte – sondern darin, dass er es dem Benutzer zutraute, es herauszufinden.

 

TRS-80 Model II – Tandys konsequenter Schritt ins professionelle Büro

Der TRS-80 Model II erschien zu einem Zeitpunkt, als sich der Computermarkt bereits in zwei klar unterscheidbare Richtungen entwickelte. Systeme wie der TRS-80 Model I, der Apple II oder die frühen Rechner von Commodore International etablierten sich zunehmend im Heim- und Hobbybereich. Parallel dazu entstand jedoch ein wachsender Bedarf in Büros, Werkstätten und kleinen Unternehmen – nach Systemen, die nicht zum Experimentieren gedacht waren, sondern für den täglichen Einsatz in der Datenverarbeitung.

Genau hier positionierte die Tandy Corporation das Model II. Der Rechner war keine Weiterentwicklung des Model I, sondern eine eigenständige Plattform mit klar definierter Aufgabe. Statt Kassettenbetrieb setzte er vollständig auf Diskettenlaufwerke, statt sofort verfügbarem BASIC auf ein geladenes Betriebssystem, und statt Softwarekompatibilität auf funktionale Trennung. Das Ergebnis war ein System, das weniger auf Vielseitigkeit als auf Struktur, Planbarkeit und Zuverlässigkeit ausgelegt war.

Technisch präsentiert sich das Model II als geschlossenes, integriertes System. Die Displayeinheit beherbergt nicht nur den Monitor, sondern auch das Diskettenlaufwerk sowie wesentliche Teile der zentralen Elektronik. Die Tastatur ist als separates Gehäuse ausgeführt und wird über ein Kabel angeschlossen – eine Lösung, die sowohl ergonomischen als auch praktischen Anforderungen im professionellen Umfeld entgegenkommt. Im Inneren arbeitet ein Zilog Z80A mit 4 MHz, kombiniert mit zunächst 32 KB RAM, erweiterbar auf 64 KB. Die interne Organisation folgt dabei einer klar strukturierten Bauweise: CPU-Logik, Videoeinheit und Controllerfunktionen sind auf mehrere Steckkarten verteilt, die über ein internes Bussystem miteinander verbunden sind. Diese Konstruktion erleichterte Wartung und Austausch einzelner Komponenten und orientierte sich in ihrer Denkweise eher an professionellen Systemen als an typischen Heimcomputern, ohne jedoch deren vollständige Modularität zu erreichen.

Ein besonders aufschlussreiches Detail liefert die Videoarchitektur. Die Bildschirmausgabe wird von dedizierter Logik übernommen, wodurch der Hauptprozessor entlastet wird. Die Darstellung erfolgt standardmäßig in 80×24 Zeichen – ein Format, das sich direkt an professionellen Terminals orientiert und für Textverarbeitung sowie Datenbankanwendungen optimiert ist. Alternativ steht ein 40-Zeichen-Modus zur Verfügung. Der integrierte 12-Zoll-Monochrommonitor mit grünem Phosphor stellt den vollständigen ASCII-Zeichensatz sowie zusätzliche Grafikzeichen dar und erlaubt auch invertierte Darstellungen einzelner Zeichen.

Noch deutlicher wird die Zielrichtung beim Speichermedium. Das Model II ist konsequent auf den Diskettenbetrieb ausgelegt. Ein Kassettenanschluss fehlt vollständig, stattdessen kommt standardmäßig ein integriertes 8-Zoll-Diskettenlaufwerk zum Einsatz, dessen Kapazität je nach Formatierung typischerweise im Bereich von etwa 500 KB pro Diskette liegt. Über externe Einheiten konnten zusätzliche Laufwerke ergänzt werden. Der Arbeitsablauf ist entsprechend klar strukturiert: Nach dem Einschalten wartet das System auf das Einlegen einer Systemdiskette, von der ein Bootstrap-Programm geladen wird. Anschließend führt der Rechner interne Routinen aus, bevor schließlich das Betriebssystem startet und sich mit „TRSDOS-II Ready“ meldet. Ohne eingelegte Diskette bleibt das System im praktischen Betrieb nicht nutzbar – ein Verhalten, das im professionellen Alltag schnell zur Selbstverständlichkeit wurde.

Diese Arbeitsweise verweist auf eine grundlegende Designentscheidung: Es gibt kein fest integriertes BASIC im ROM, keine sofort verfügbare Programmierumgebung. Stattdessen beginnt jede Sitzung mit dem Laden eines Betriebssystems von Diskette. Diese klare Trennung von Hardware und Software erhöhte die Flexibilität und ermöglichte unterschiedliche Einsatzszenarien, die über das hinausgingen, was viele Heimcomputer leisten konnten.

Das primäre Betriebssystem war TRSDOS-II, ein speziell auf die Architektur des Systems zugeschnittenes Disk Operating System. Es bot eine strukturierte Dateiverwaltung, ein klar definiertes Kommandointerface und umfangreiche Routinen für die Programmentwicklung. Dateien konnten entweder dynamisch wachsen oder mit fest reservierten Bereichen angelegt werden, wodurch sich je nach Anwendung Geschwindigkeit oder Speichereffizienz optimieren ließ. Gleichzeitig trennte das System konsequent zwischen physikalischer Datenträgerstruktur und logischer Datenorganisation. Entwickler arbeiteten mit Datensätzen („Records“), während die physikalische Speicherung im Hintergrund abstrahiert wurde.

Auch die Zugriffsmöglichkeiten zeigen deutlich die professionelle Ausrichtung. TRSDOS-II unterstützte sowohl sequenziellen als auch direkten Zugriff auf Dateien. Daten konnten gezielt angesprochen oder in festgelegter Reihenfolge verarbeitet werden – eine grundlegende Voraussetzung für Anwendungen wie Buchhaltung, Lagerverwaltung oder Datenbanken. Die praktische Arbeit folgte dabei einer klaren Routine: Disketten wurden formatiert, Daten gesichert, Programme geladen und ausgeführt. Der Kopiervorgang kompletter Disketten konnte mehrere Minuten dauern, gehörte im Arbeitsalltag jedoch zum Standard.

Programme selbst wurden über Interpreter oder Compiler von Diskette geladen. Ein häufiger Einstieg erfolgte über einen BASIC-Interpreter, während für professionelle Anwendungen zusätzliche Programmiersprachen wie COBOL, FORTRAN oder Pascal zur Verfügung standen, die in der Regel separat bezogen wurden. Das Softwareangebot spiegelte diese Ausrichtung wider. Anwendungen wie Scripsit etablierten sich als frühe Textverarbeitungssysteme, während spezialisierte Programme für Buchhaltung und Verwaltung das Model II zu einem vielseitigen Werkzeug im Büro machten.

Gelegentlich wird auch die Unterstützung von CP/M erwähnt. Entsprechende Lösungen existierten, spielten jedoch im praktischen Einsatz eine untergeordnete Rolle. Die enge Abstimmung zwischen Hardware und TRSDOS-II machte das native System in vielen Fällen zur effizienteren Wahl.

Ein zeitgenössisches Einführungsvideo von Radio Shack beschreibt das System als „business, scientific and engineering oriented microcomputer“ und hebt hervor, dass es Aufgaben übernehmen könne, für die wenige Jahre zuvor deutlich größere Rechner erforderlich gewesen wären. Diese Einschätzung spiegelt den Optimismus der frühen Mikrocomputerära wider, verweist jedoch zugleich auf eine reale Entwicklung: Das Model II brachte Strukturen und Arbeitsweisen aus der Welt der Minicomputer in ein kompakteres, erschwinglicheres Format.

Unterhaltung spielte dabei kaum eine Rolle. Spiele waren auf dem Model II selten und beschränkten sich meist auf textbasierte Anwendungen oder einfache Logikprogramme. Die Hardware war nicht auf grafikintensive Anwendungen ausgelegt, sondern auf effiziente Datenverarbeitung. Auch verfügbare Programme unter CP/M blieben funktional und zweckorientiert.

Mit dem optionalen Graphics Package konnte das System jedoch erweitert werden. Damit waren grafische Darstellungen mit einer Auflösung von bis zu 640×240 Pixeln möglich, etwa für Diagramme, Tabellen oder einfache Visualisierungen. Grafik wurde dabei nicht als Selbstzweck verstanden, sondern als Werkzeug zur Darstellung von Informationen im wissenschaftlichen und kaufmännischen Kontext.

Preislich positionierte sich das Model II klar oberhalb des Heimmarktes. Mit rund 3.450 US-Dollar für die Basiskonfiguration und etwa 3.899 US-Dollar für erweiterte Varianten richtete sich das System gezielt an Unternehmen. Inflationsbereinigt entspricht dies heute etwa 14.000 bis 18.000 Euro. Im Vergleich zu deutlich teureren Systemen von IBM bot das Model II damit einen vergleichsweise erschwinglichen Einstieg in die elektronische Datenverarbeitung für kleinere Betriebe.

Exakte Verkaufszahlen sind schwer zu isolieren, da das Model II häufig zusammen mit anderen Systemen der TRS-80-Reihe betrachtet wird. Bekannt ist jedoch, dass bereits im ersten Jahr nach der Einführung eine vierstellige Stückzahl ausgeliefert wurde und sich das System rasch im professionellen Umfeld etablierte. Seine eigentliche Bedeutung liegt weniger in absoluten Zahlen als in seiner Rolle als Ausgangspunkt einer eigenständigen Business-Produktlinie. Diese wurde später mit Modellen wie dem Model 12 und dem TRS-80 Model 16 fortgeführt, letzteres mit zusätzlichem Prozessor und Unterstützung für das UNIX-Derivat Xenix.

Der Vergleich mit dem Model I verdeutlicht die Unterschiede besonders klar. Während das frühere System im Heim- und Hobbybereich verwurzelt war, richtete sich das Model II explizit an professionelle Anwender. Schnellere Verarbeitung, größere Speicherkapazität, konsequenter Disketteneinsatz und eine strukturierte Systemarchitektur machten es zu einem Werkzeug für organisierte Datenverarbeitung. Gleichzeitig bestand keine Softwarekompatibilität zum Model I – ein bewusster Schnitt, der die neue Zielrichtung unterstreicht.

Auch die physische Gestaltung folgt dieser Philosophie. Die kompakte Einheit aus Monitor, Laufwerk und Elektronik wirkt auf den ersten Blick massiv, offenbart jedoch eine funktionale Konstruktion. Die Tastatur lässt sich unter das Hauptgehäuse schieben, wodurch das System platzsparender wirkt. Intern dominiert eine klar strukturierte, busorientierte Architektur mit mehreren Steckplätzen für Erweiterungskarten, die Wartung und Anpassung erleichtert.

Selbst Details wie die Tastatur verdeutlichen den professionellen Anspruch. Sie ist als vollwertige, abgesetzte Einheit ausgeführt, mit numerischem Block und funktionaler Tastenanordnung, ausgelegt für effiziente Dateneingabe im Arbeitsalltag. Ihre Gestaltung orientiert sich deutlich an Schreibmaschinen und professionellen Terminals jener Zeit.

In der Gesamtschau ergibt sich ein klares Bild: Das Model II war kein erweitertes Heimgerät, sondern ein eigenständig konzipiertes System mit klar definierter Aufgabe. Wer experimentieren oder spielen wollte, griff zu anderen Rechnern. Wer jedoch Abläufe strukturieren, Daten verwalten und Prozesse zuverlässig abbilden musste, fand hier ein Werkzeug, das genau für diesen Zweck geschaffen wurde.

Sinclair ZX Spectrum+ (1984): Der Spectrum mit der Tastatur, die endlich jeder wollte

Als der Sinclair ZX Spectrum+ im Oktober 1984 erschien, war die eigentliche Sensation längst geschehen. Der ursprüngliche ZX Spectrum hatte sich seit 1982 in Großbritannien zu einem der erfolgreichsten Heimcomputer seiner Zeit entwickelt und eine Generation von Nutzern erstmals mit Programmierung, Spielen und digitaler Kreativität in Berührung gebracht. Doch mit diesem Erfolg wuchsen auch die Erwartungen. Zeitgenössische Magazine beschrieben diesen Wandel treffend: Der Spectrum war nicht mehr nur ein Einstiegssystem, sondern wurde zunehmend als Plattform verstanden, mit der sich Anwender ernsthaft auseinandersetzten.

Der Spectrum+ entstand genau aus diesem Spannungsfeld heraus. Entwickelt von Sinclair Research unter Leitung von Clive Sinclair, stellte er keine technische Neuentwicklung dar, sondern eine bewusste Überarbeitung eines etablierten Systems. Im Inneren blieb die Architektur praktisch unverändert: Ein Zilog Z80A mit 3,5 MHz, 48 KB RAM, 16 KB ROM mit Sinclair BASIC, die bekannte Bildschirmauflösung von 256 × 192 Pixeln sowie die charakteristische Farbattributlogik, die zwar lebendige Farben ermöglichte, jedoch auch das berüchtigte „Color Clash“-Phänomen mit sich brachte. Der Sound wurde weiterhin über einen einfachen Ein-Bit-Lautsprecher erzeugt – funktional, aber im Vergleich zu spezialisierten Soundchips anderer Systeme deutlich eingeschränkt.

Gerade im Vergleich mit zeitgenössischen Konkurrenten wie dem Commodore 64 oder dem Amstrad CPC 464 wird deutlich, welchen Weg Sinclair einschlug. Während diese Systeme auf dedizierte Grafik- und Soundhardware setzten – etwa Hardware-Sprites und den SID-Soundchip beim Commodore oder ein echtes Bitmap-Display ohne Attributbeschränkung beim CPC – blieb der Spectrum+ technisch konservativ. Sein entscheidender Vorteil lag weiterhin im Preis und in der enormen Softwarebasis, die vollständig kompatibel blieb.

Die auffälligste Veränderung des Spectrum+ betraf das Gehäuse – und damit insbesondere die Tastatur. Die Gummitasten des Originals, so ikonisch sie heute erscheinen mögen, waren bereits in den frühen 1980er Jahren Gegenstand anhaltender Kritik. Sie galten als unpräzise, wenig ergonomisch und für längeres Tippen ungeeignet. Der Spectrum+ ersetzte diese durch flache Kunststofftasten mit Druckpunkt, die sich stärker an klassischen Schreibmaschinen orientierten. Zeitgenössisch wurde diese Änderung als deutliche Verbesserung wahrgenommen, wenn auch mit Einschränkungen: Die Tasten lagen dicht beieinander, der Hub blieb kurz, und ein echtes Schreibmaschinengefühl wurde nicht erreicht. Dennoch stellte die neue Tastatur im Alltag einen klaren Fortschritt dar.

Die Werbekampagnen machten dabei keinen Hehl aus der eigentlichen Zielsetzung. Anzeigen stellten den Rechner mit Formulierungen wie „The new Sinclair ZX Spectrum+. With the type of keyboard you've been asking for.“ in den Mittelpunkt und griffen damit direkt die Kritik der Nutzer auf. Gleichzeitig versuchte Sinclair, den Rechner stärker als ernstzunehmendes Arbeitsgerät zu positionieren und sich vom Image des reinen Spielecomputers zu lösen. Auch gestalterisch näherte sich das neue Gehäuse dem deutlich teureren Sinclair QL an, dessen sachlich-flache Formensprache nun in abgeschwächter Form übernommen wurde.

Das grundlegende Bedienkonzept blieb jedoch erhalten und prägte weiterhin den Charakter des Systems. Sinclair BASIC nutzte nach wie vor die bekannte Ein-Tasten-Befehlseingabe, bei der komplette Befehle über einzelne Tastendrücke erzeugt wurden. Das Handbuch beschrieb diesen Ansatz als bewusstes Hilfsmittel für den Anwender und betonte, dass der Computer den Benutzer aktiv bei der Eingabe unterstütze. Dieses Konzept erleichterte insbesondere Einsteigern den Zugang zur Programmierung, erforderte jedoch eine gewisse Umgewöhnung für erfahrene Nutzer.

Neben der Tastatur reagierte der Spectrum+ auch auf einen weiteren praktischen Kritikpunkt: das Fehlen einer Reset-Funktion beim ursprünglichen Modell. Während ein Absturz zuvor häufig nur durch Ziehen des Netzsteckers behoben werden konnte, erhielt der Spectrum+ erstmals einen dedizierten Reset-Knopf, der einen unmittelbaren Neustart des Systems ermöglichte und damit den Alltag deutlich erleichterte.

An den Anschlüssen änderte sich hingegen wenig. Der Rechner wurde weiterhin über einen RF-Modulator mit dem Fernseher verbunden, Programme wurden über Kassettenrekorder mittels EAR- und MIC-Buchsen geladen und gespeichert, und der Expansion-Port blieb die zentrale Schnittstelle für Erweiterungen wie Joystick-Interfaces, Drucker oder das Microdrive-System. Auch das externe Netzteil blieb erhalten, ebenso wie das Fehlen eines Netzschalters – eine Entscheidung, die Sinclairs konsequent kostenorientierte Entwicklungsphilosophie widerspiegelt.

Preislich lag der Spectrum+ bei seiner Einführung mit rund £179,95 über dem ursprünglichen 48K-Modell und bewegte sich inflationsbereinigt im Bereich von etwa 500 bis 600 Euro. Damit blieb das Gerät zwar erschwinglich, positionierte sich jedoch bewusst etwas höher als sein Vorgänger. Parallel bot Sinclair bestehenden Besitzern eines ZX Spectrum 48K eine Upgrade-Möglichkeit an: Für rund £19,95 konnte die vorhandene Hardware in das neue Gehäuse des Spectrum+ übertragen werden. Anstatt Geräte einzuschicken, erhielten die Käufer ein Komplettpaket zur Selbstmontage – ein Ansatz, der nicht nur die Bastlerkultur jener Zeit widerspiegelt, sondern auch Sinclairs ausgeprägtes Kostenbewusstsein zeigt.

Die Verkaufszahlen des Spectrum+ spiegeln seine Rolle innerhalb der Baureihe deutlich wider. Während die Spectrum-Familie insgesamt auf mehrere Millionen verkaufte Einheiten kam, profitierte das Plus-Modell zunächst von einem sehr starken Marktstart. Die Nachfrage konzentrierte sich dabei vor allem auf die verbesserte Tastatur, die viele Käufer als längst überfällige Weiterentwicklung wahrnahmen. Gleichzeitig traten bei frühen Geräten Qualitätsprobleme auf, über die insbesondere Händler berichteten. Diese betrafen vor allem die neue Tastaturmechanik sowie die darunterliegende Membran, was in Einzelfällen zu erhöhten Ausfallraten führte.

Im praktischen Einsatz erwies sich der Spectrum+ als das, was er sein sollte: eine stabilisierte und ergonomisch verbesserte Version eines erfolgreichen Systems. Besonders Nutzer, die regelmäßig programmierten oder längere Texte eingaben, profitierten von der neuen Tastatur und der verbesserten Bedienbarkeit. Gleichzeitig blieb die vollständige Kompatibilität zur bestehenden Softwarebibliothek erhalten – ein entscheidender Faktor für die anhaltende Popularität der Plattform.

Rückblickend lässt sich der Spectrum+ weniger als eigenständiger Meilenstein verstehen, sondern vielmehr als gezielte Übergangslösung. Er verlängerte die Lebensdauer der Spectrum-Reihe in einer Phase wachsender Konkurrenz und bereitete den Boden für spätere Modelle wie den Sinclair ZX Spectrum 128 sowie die unter Amstrad entstandenen Nachfolger. In einer Zeit, in der viele Hersteller auf technische Innovation setzten, entschied sich Sinclair bewusst für Kontinuität – und traf damit eine Entscheidung, die weniger spektakulär, aber wirtschaftlich effektiv war.

So bleibt der Spectrum+ ein Beispiel für eine Form von Weiterentwicklung, die nicht auf radikale Neuerungen setzt, sondern auf gezielte Verbesserung bestehender Konzepte. Oder, in der nüchternen Sprache der damaligen Fachpresse gedacht: kein neuer Computer, sondern derselbe – nur endlich so gestaltet, wie ihn viele Nutzer von Anfang an erwartet hatten.

 

Atari 130 ST (1985): Der nie erschienene Preisbrecher der ST-Reihe

Source: https://www.atari-computermuseum.de/520st.htm#gen1

Als Atari im Januar 1985 auf der Winter Consumer Electronics Show in Las Vegas seine neue ST-Reihe enthüllte, sorgte das Unternehmen für einen jener Messemomente, die sich tief in die Computergeschichte einbrannten. Während viele Besucher noch damit rechneten, dass der einstige VCS- und 8-Bit-Hersteller zunächst lediglich einen Nachfolger für seine XL/XE-Linie vorstellen würde, präsentierte Atari plötzlich einen vollständig grafischen 16-Bit-Computer mit Maussteuerung, Farbgrafik und integrierten MIDI-Schnittstellen. Im Mittelpunkt stand dabei nicht nur der spätere Serienstar 520 ST, sondern auch ein Modell, das nie den Weg in den Handel finden sollte: der Atari 130 ST. Heute wirkt er wie eine kuriose Fußnote, tatsächlich aber war dieser Prototyp der radikalste Ausdruck von Ataris ursprünglicher ST-Strategie – und ein Symbol für den erbitterten Wettlauf um die 16-Bit-Zukunft.

Um seine Bedeutung zu verstehen, muss man einige Monate zurückgehen. Im Sommer 1984 hatte Jack Tramiel Commodore nach einem Machtkampf verlassen und kurz darauf die Consumer-Sparte von Atari übernommen. Sein Ziel war klar: So schnell wie möglich einen bezahlbaren 16-Bit-Computer auf den Markt bringen, noch bevor Commodore selbst den Übergang in die nächste Generation schaffen konnte. Die Ironie der Geschichte bestand darin, dass Commodore kurz darauf Amiga Corporation übernahm – just jenes Unternehmen, an dem Atari zuvor selbst finanziell interessiert gewesen war. Was folgte, war eines der bemerkenswertesten Wettrennen der Heimcomputergeschichte: Tramiel musste binnen weniger Monate eine komplett neue Plattform aus dem Boden stampfen, während Commodore hinter verschlossenen Türen am späteren Amiga 1000 arbeitete.

Ganz unvorbereitet traf Atari die Konkurrenz jedoch nicht. Zwar zeigte Commodore auf der CES 1985 offiziell vor allem den Commodore 128, während der Amiga noch nicht öffentlich auf dem Messestand zu sehen war, doch in Branchenkreisen kursierten bereits Berichte über nichtöffentliche Demonstrationen der von Commodore übernommenen Amiga-/Lorraine-Hardware. Ausgewählte Händler und Partner erhielten hinter verschlossenen Türen Einblicke in jene Technologie, aus der wenige Monate später der Amiga 1000 hervorgehen sollte. Atari wirkte damit zwar öffentlich wie der sichtbare Vorreiter der 16-Bit-Generation – hinter den Kulissen wusste man jedoch, dass Commodore bereits an deutlich ambitionierterer Hardware arbeitete.

Unter dem internen Motto „Rock Bottom Price“ entstand die ST-Reihe in erstaunlicher Geschwindigkeit. Atari plante zunächst drei Modelle: den 130 ST, den 260 ST und den 520 ST, benannt nach ihrer jeweiligen Speicherklasse. Der 130 ST sollte dabei das absolute Einstiegsmodell werden – ein vollwertiger 16-Bit-Rechner für Käufer, die bislang nur 8-Bit-Preisklassen gewohnt waren. Bereits dieser Plan zeigt, wie aggressiv Atari kalkulierte: Der Konzern wollte nicht bloß einen leistungsfähigen Computer bauen, sondern den günstigsten denkbaren 16-Bit-Rechner mit grafischer Oberfläche.

Technisch war der 130 ST dabei keineswegs ein kastriertes Sparmodell. Im Kern entsprach er bereits weitgehend den späteren Serien-STs. Herzstück war ein Motorola 68000 mit 8 MHz, flankiert vom Yamaha YM2149F als Soundgenerator und der frühen ST-Grafiklogik mit Auflösungen von 320 × 200 Pixeln bei 16 Farben, 640 × 200 bei 4 Farben sowie 640 × 400 Pixeln im Monochrommodus. Auch die später legendären MIDI-Schnittstellen gehörten bereits zum festen Ausstattungspaket; zur Ansteuerung kam – wie in den Seriengeräten – ein Motorola 6850 ACIA zum Einsatz. Damit besaß selbst das kleinste geplante ST-Modell schon jene Merkmale, die die Plattform später in Musikstudios und semiprofessionellen Umgebungen populär machen sollten.

Seine Achillesferse war der Arbeitsspeicher. Die Modellbezeichnung „130“ stand für rund 128 KB RAM, und genau hier zeigte sich schnell die Kehrseite von Ataris Preisoffensive. Früheste ST-Prototypen luden Teile von TOS/GEM noch von Diskette, was bereits einen erheblichen Teil des verfügbaren Speichers verschlang. Doch selbst unabhängig davon erwies sich die Kapazität als schlicht zu knapp für einen GUI-basierten 16-Bit-Rechner. Anwendungen ließen sich nur stark eingeschränkt nutzen, und was auf dem Papier nach einem revolutionären Billig-ST aussah, wirkte in der Praxis schnell wie ein System an der Grenze seiner Nutzbarkeit. Atari erkannte das Problem rasch und strich den 130 ST bereits wenige Monate nach seiner öffentlichen Vorstellung wieder aus den Planungen.

Dass der Rechner nie erschien, schmälert seine historische Bedeutung jedoch kaum. Denn auf der CES 1985 erfüllte er bereits seinen Zweck: Atari wirkte plötzlich wie der technologische Vorreiter der Branche. Während Commodore auf derselben Messe primär den Commodore 128 und den später eingestellten Commodore LCD zeigte, präsentierte Atari der Öffentlichkeit bereits eine komplette 16-Bit-Plattform. Selbst wenn Brancheninsider wussten, dass Commodore mit dem Amiga etwas deutlich Ambitionierteres vorbereitete, gewann Atari kurzfristig den Kampf um die öffentliche Wahrnehmung.

Der 130 ST war damit nicht nur Hardwareprototyp, sondern auch ein strategisches Signal an Markt und Presse. Atari demonstrierte: Man war bereit für die 16-Bit-Ära, und man würde sie zu einem Preis betreten, den die Konkurrenz nur schwer unterbieten konnte. Selbst wenn das kleinste Modell letztlich nie erschien, zeigte es unmissverständlich, wie kompromisslos Tramiels Team kalkulierte.

Spuren des 130 ST blieben sogar in der Hardwareentwicklung erhalten. Auf frühen ST-Platinen finden sich noch Bezeichnungen wie „130/520ST“, was zeigt, wie eng die Entwicklungsphasen der Modelle miteinander verzahnt waren. Der 130 ST war keine isolierte Sackgasse, sondern ein echter Vorläufer der gesamten Serienplattform. In gewisser Weise lebte er in jedem späteren ST weiter – nur eben mit realistischerer Speicherausstattung.

Rückblickend war der Atari 130 ST kein gescheitertes Produkt, sondern ein Lehrstück über die Grenzen radikaler Preispolitik. Atari wollte einen vollwertigen grafischen 16-Bit-Computer zum Kampfpreis liefern und trieb dieses Konzept so weit, bis selbst die eigene Hardware an ihre Grenzen stieß. Dass man letztlich zurückruderte, war weniger Niederlage als pragmatische Einsicht.

Gerade deshalb bleibt der 130 ST einer der spannendsten nie erschienenen Atari-Rechner überhaupt: nicht weil er technisch revolutionär gewesen wäre, sondern weil er wie kaum ein anderes System zeigt, mit welcher Entschlossenheit Atari Mitte der 1980er versuchte, die Konkurrenz zu überholen. Der 130 ST war der erste sichtbare Vorbote einer Plattform, die wenige Monate später den Heimcomputermarkt nachhaltig prägen sollte – und zugleich der vielleicht deutlichste Beweis dafür, dass selbst Jack Tramiels berühmtes Motto „Business is War“ manchmal an den physikalischen Grenzen des Arbeitsspeichers scheiterte.

 

Pravetz 8D (1985): Bulgariens Heimcomputer zwischen Oric-Technik und Planwirtschaft

Als Mitte der 1980er-Jahre in westlichen Kinderzimmern bereits hitzig darüber diskutiert wurde, ob nun der Commodore 64, der ZX Spectrum oder vielleicht doch ein Amstrad CPC die bessere Wahl sei, sah die Lage hinter dem Eisernen Vorhang grundlegend anders aus. In der Volksrepublik Bulgarien war Heimcomputing kein frei umkämpfter Konsummarkt, sondern Teil staatlich gelenkter Technologiepolitik. Wer dort einen Computer erwerben wollte, bekam keinen bunten Wettbewerb dutzender Hersteller geboten, sondern meist Produkte aus einer einzigen nationalen Marke: Pravetz. Unter diesen Maschinen nimmt der Pravetz 8D eine Sonderstellung ein, denn er war nicht nur der wohl zugänglichste Heimcomputer der Reihe, sondern zugleich ihr technisch ungewöhnlichstes Mitglied.

Die Marke Pravetz war nach der bulgarischen Stadt Pravets benannt, in deren staatlichen Elektronikwerken ein Großteil der bulgarischen Computerproduktion konzentriert wurde. Bulgarien hatte sich innerhalb des RGW beziehungsweise COMECON zum wichtigsten Computerhersteller des Ostblocks entwickelt und fertigte große Stückzahlen an Schul-, Büro- und Industriesystemen. Die meisten dieser Maschinen – etwa Pravetz 82, 8A oder 8M – orientierten sich eng am Apple II und waren primär für Behörden, Bildungseinrichtungen und staatliche Organisationen gedacht. Für Privatpersonen blieben sie meist unerschwinglich. Genau hier setzte der Pravetz 8D an.

Schon seine Modellbezeichnung deutet seine Zielgruppe an: Das „D“ wird gemeinhin als Kürzel für „Domaschen“ beziehungsweise „Domashen“ interpretiert – bulgarisch für „Heim-“ oder „Haus-“. Das offizielle Handbuch bezeichnet den Rechner ausdrücklich als „Domashniy Kompyutŭr Pravets 8D“, also Heimcomputer Pravetz 8D. Damit positionierte Bulgarien den Rechner erstmals klar als System für den privaten Einsatz im Haushalt und nicht nur für institutionelle Umgebungen.

Technisch brach der 8D mit der bisherigen Pravetz-Tradition. Während fast alle anderen Modelle der Reihe Apple-kompatible Systeme waren, basierte der 8D stattdessen weitgehend auf dem britischen Oric Atmos. Bulgarien entschied sich hier also bewusst gegen eine weitere Apple-Variante und übernahm stattdessen die Architektur eines kompakteren, kostengünstigeren Heimcomputers. Der Rechner nutzte einen CM630, einen bulgarischen 6502-kompatiblen Prozessor, der mit rund 1 MHz arbeitete. Hinzu kamen 48 KB RAM und 16 KB ROM, letzteres mit integriertem BASIC-Interpreter. Für Grafik sorgte eine weitgehend Oric-identische Implementierung mit 240 × 200 Pixeln in bis zu acht Farben, ergänzt durch Text- und Niedrigauflösungsmodi. Klanglich war der 8D vielen Budgetsystemen überlegen, denn mit seinem AY-3-8912-Soundchip bot er echten dreistimmigen Sound statt bloßer Pieptöne.

Obwohl die interne Technik eng am Oric Atmos lag, handelte es sich nicht um eine reine 1:1-Kopie. Das größere weiße Gehäuse wirkte deutlich erwachsener als das britische Vorbild und beherbergte eine robuste mechanische Volltastatur statt der kompakteren Oric-Bauform. Hinzu kamen ein integriertes Netzteil und eine insgesamt massivere Konstruktion. Viele heutige Sammler empfinden den Pravetz 8D deshalb sogar als ergonomisch gelungenere Interpretation des Oric-Designs. Zudem wurde das ROM lokalisiert und um kyrillische Zeichensätze erweitert, sodass der Rechner für den heimischen Markt angepasst war und nicht bloß ein unveränderter Importklon blieb.

Ein wesentlicher Vorteil dieser Architekturentscheidung war die Softwarebasis. Da der Pravetz 8D weitgehend kompatibel zum Oric Atmos blieb, konnte er auf eine bereits existierende Bibliothek westlicher Software zurückgreifen. Ein Großteil der verfügbaren Oric-Programme und Spiele ließ sich ohne größere Anpassungen nutzen, wodurch bulgarische Käufer nicht auf ein erst mühsam aufzubauendes nationales Softwareangebot warten mussten. Das war ein erheblicher Vorteil gegenüber vielen anderen osteuropäischen Heimcomputern, deren Nutzer oft mit sehr begrenzter lokaler Softwareauswahl leben mussten. Programme wurden üblicherweise über handelsübliche Kassettenrekorder geladen, während der Anschluss an den heimischen Fernseher per RF-Modulator erfolgte – ganz so, wie westliche Heimcomputer einige Jahre zuvor ebenfalls betrieben worden waren.

Auch wirtschaftlich war der Pravetz 8D klar anders positioniert als seine großen Brüder. Mit einem Verkaufspreis von rund 420 bis 450 Lewa kostete er ungefähr zwei durchschnittliche Monatsgehälter eines bulgarischen Arbeiters oder Angestellten. Das war noch immer ein erheblicher Betrag und machte den Rechner keineswegs zum Impulskauf. Verglichen mit einem Pravetz 82, der inklusive Monitor bis zu 1.600 Lewa oder mehr kosten konnte, war der 8D jedoch dramatisch günstiger. Besonders wichtig war dabei, dass kein spezieller Monitor benötigt wurde – der Fernseher im Wohnzimmer genügte. Gerade diese Entscheidung reduzierte die Einstiegshürde erheblich und machte den 8D erstmals zu einem realistisch erreichbaren Heimcomputer für Familien, Studenten und technikbegeisterte Jugendliche.

Obwohl die größeren Apple-basierten Pravetz-Systeme weiterhin das Rückgrat vieler bulgarischer Computerkabinette bildeten, fand auch der 8D seinen Weg in einfachere Bildungsumgebungen. Seine robuste Tastatur, das integrierte BASIC und die kyrillische Lokalisierung machten ihn geeignet für elementaren Informatikunterricht und häusliches Programmieren. Das entsprach auch der offiziellen Darstellung im Handbuch, das den Rechner nicht primär als Spielzeug, sondern als Werkzeug zur Entwicklung logischen Denkens und technischer Fähigkeiten präsentierte – ein typisches Beispiel für die bildungsorientierte Computerpropaganda des Ostblocks.

Historisch ist der Pravetz 8D deshalb weit mehr als nur ein weiterer Ostblock-Klon. Er war Bulgariens Versuch, innerhalb einer zentral geplanten Computerindustrie erstmals einen echten Heimcomputer für private Nutzer zu etablieren – einen Rechner, der technisch auf westlicher Architektur basierte, wirtschaftlich jedoch auf die Realitäten des sozialistischen Binnenmarktes zugeschnitten wurde. Während der Westen Heimcomputer zunehmend als Unterhaltungsplattform verstand, blieb der 8D zugleich Bildungsinstrument, Statussymbol und Einstieg in die Informatik.

Technisch war er nie ein Konkurrent für einen Commodore 64 oder Atari 800XL, und selbst gegenüber westlichen Mittelklasse-Systemen wirkte seine Oric-basierte Architektur Mitte der 1980er bereits etwas konservativ. Doch das war auch nicht seine Aufgabe. Der Pravetz 8D sollte keinen internationalen Wettbewerb gewinnen, sondern einen bezahlbaren Zugang zur Computertechnik schaffen – unter Bedingungen, die mit westlichen Märkten nur schwer vergleichbar waren.

Gerade deshalb ist der Pravetz 8D heute einer der interessantesten Heimcomputer des Ostblocks: nicht wegen seiner reinen Leistungsdaten, sondern weil er exemplarisch zeigt, wie sich Heimcomputing in einer völlig anderen wirtschaftlichen und politischen Realität entwickelte. Wo westliche Käufer zwischen dutzenden Marken wählen konnten, stand in Bulgarien ein staatlich entwickelter Heimcomputer im Wohnzimmer – technisch westlich inspiriert, aber politisch, wirtschaftlich und kulturell ein Produkt seiner ganz eigenen Welt.

 

VTech Laser 200 (1983): Der günstige Farbcomputer für den Einstieg

Source: https://www.amibay.com/threads/vtech-laser-200-color-computer-1983.62390/

Als Anfang der 1980er-Jahre der Heimcomputermarkt regelrecht explodierte, wollten plötzlich zahllose Hersteller ein Stück vom Kuchen abhaben – vom etablierten Elektronikkonzern bis zum Taschenrechnerproduzenten. Einer davon war die in Hongkong ansässige Firma VTech beziehungsweise Video Technology, die sich zuvor vor allem mit elektronischem Spielzeug und Lernsystemen einen Namen gemacht hatte. 1983 wagte das Unternehmen mit dem Laser 200 den Einstieg in den Heimcomputermarkt und positionierte das Gerät konsequent als günstigen Farbcomputer für Einsteiger. In verschiedenen Ländern erschien der Rechner unter anderen Namen, am bekanntesten als Dick Smith VZ-200 in Australien oder als Texet TX8000 in Großbritannien.

Technisch war der Laser 200 ein klassischer Budget-Homecomputer seiner Zeit. Herzstück war ein Zilog Z80A mit 3,58 MHz, kombiniert mit einem Motorola 6847 Video Display Generator, einem Videobaustein, der auch in anderen preisgünstigen Heimcomputern jener Ära Verwendung fand. Je nach Modellvariante standen zwischen 2 und 6 KB nutzbarer Arbeitsspeicher zur Verfügung, hinzu kamen 2 KB Videospeicher sowie 16 KB ROM mit integriertem BASIC-Interpreter. Die Grafik bot einen Textmodus mit 32 × 16 Zeichen sowie einen einfachen Grafikmodus mit 128 × 64 Pixeln und reduzierter Farbdarstellung – ausreichend für Lernprogramme, einfache Spiele und BASIC-Grafikexperimente, aber natürlich weit entfernt von dem, was ein Commodore 64 oder Atari 800 leisten konnte.

Schon optisch machte der Rechner keinen Hehl daraus, dass er in erster Linie über den Preis verkauft werden sollte: Das flache Gehäuse mit seiner Gummitastatur erinnerte nicht zufällig an zeitgenössische Sinclair-Systeme. Die Tastatur galt als brauchbar, blieb aber typisch für ihre Klasse ein Kompromiss – längere Texte wollte darauf niemand freiwillig verfassen. Rückseitig standen RF- und Composite-Ausgänge, Kassettenanschluss sowie Erweiterungsports für RAM-Module, Drucker- und Disketteninterfaces bereit. Damit ließ sich das System durchaus ausbauen, wenngleich die meisten Käufer den Laser 200 wohl schlicht mit Datasettenrekorder und Fernseher betrieben.

Interessant war vor allem die Marktpositionierung: In Großbritannien wurde der Rechner offensiv als einer der billigsten Farbcomputer beworben, doch dort hatte er gegen den populären Sinclair ZX Spectrum und den aggressiv bepreisten Commodore 64 einen schweren Stand. In Australien hingegen entwickelte sich der als Dick Smith VZ-200 vertriebene Ableger zu einem regelrechten Volkscomputer. Dick Smith Electronics bewarb das Gerät massiv, und innerhalb kurzer Zeit gingen zehntausende Einheiten über die Ladentheke – für viele Australier war der VZ-200 tatsächlich der erste eigene Computer im Haushalt. Zeitgenössische Werbeanzeigen sprachen stolz von einem „Personal Colour Computer“ für unter 200 Dollar, und die australische Presse zeigte sich für die Preisklasse durchaus angetan. Das Magazin Australian Personal Computer bezeichnete ihn sogar als „great little machine“.

Die Softwarebibliothek bestand vor allem aus preiswerten Kassettenprogrammen, häufig Arcade-inspirierten Klonen mit leicht verfremdeten Namen – ein damals ganz normaler Vorgang in der Frühzeit der Heimcomputer. Titel wie Hoppy (Frogger), VZ Invaders (Space Invaders), Cosmic Rescue (Scramble) oder Moon Patrol sollten zeigen, dass auch ein Budgetrechner Spielspaß liefern konnte, selbst wenn grafische und akustische Pracht eher nicht seine Kernkompetenz waren. Der eingebaute Piezo-Lautsprecher sorgte für den typischen piepsenden Minimalismus jener Jahre – charmant für Nostalgiker, gewöhnungsbedürftig für alle anderen.

Historisch interessant ist der Laser 200 vor allem deshalb, weil er exemplarisch für jene zweite Reihe von Heimcomputern steht, die heute oft vergessen wird: Systeme, die nie den Ruhm eines C64, Spectrum oder Atari 800 erreichten, aber dennoch tausenden Menschen den Einstieg in die Computerwelt ermöglichten. Gerade in Märkten wie Australien oder Teilen Europas war der Laser 200/VZ-200 ein ernstzunehmendes Einsteigergerät und damit ein wichtiger Türöffner für eine ganze Generation junger Programmierer.

Sein Nachfolger, der VTech Laser 310 beziehungsweise Dick Smith VZ-300, beseitigte später einige der größten Schwächen – insbesondere durch mehr RAM und eine deutlich bessere Tastatur. Doch der Laser 200 bleibt das puristischere, typischere Kind der frühen 80er: günstig, bunt beworben, technisch limitiert und dennoch für viele der Beginn einer lebenslangen Computerleidenschaft.

Mit einem Einführungspreis von rund 99 US-Dollar beziehungsweise etwa 98 Pfund in Großbritannien war der Rechner inflationsbereinigt heute ungefähr im Bereich von 300 bis 350 Euro angesiedelt – also klar als Budgetsystem positioniert. Damit konkurrierte er eher mit Maschinen wie dem Mattel Aquarius, dem Tandy MC-10 oder späten ZX81-Bundles als mit den technisch stärkeren Mittelklasse-Heimcomputern.

Rückblickend ist der VTech Laser 200 kein technischer Meilenstein – aber ein schönes Beispiel dafür, wie breit und experimentierfreudig der Heimcomputermarkt 1983 geworden war. Zwischen den großen Namen existierte eine ganze Klasse günstiger Einsteigerrechner, die heute oft nur noch Sammler und Enthusiasten kennen. Und genau dort gehört der Laser 200 hin: nicht in die erste Liga der Heimcomputer-Geschichte, wohl aber in die Fußnoten eines faszinierenden Computerbooms, in dem selbst die kleinen Maschinen ihre ganz eigene Geschichte schrieben.

 

Power Mac G4 Cube – Apples lautloser Würfel und das Risiko einer neuen Geräteklasse

Source: https://www.mac27.net/power-mac-g4-cube

Es war einer dieser Momente, wie sie Steve Jobs über Jahre hinweg perfektioniert hatte. Apple-Präsentationen waren für ihn nie bloße Produktvorstellungen gewesen – sie waren Inszenierungen, bewusst aufgebaute Dramaturgien, bei denen das Publikum nicht nur informiert, sondern regelrecht verführt werden sollte.

Die Zuschauer wussten das. Und sie erwarteten es auch. Wenn Jobs die Bühne betrat, ging es nicht allein um technische Daten oder Modellpflege. Es ging um den nächsten Schritt, um die Frage, welchen Stempel Cupertino der Computerwelt diesmal aufdrücken würde.

Der berühmte Moment, das kurze Innehalten, die scheinbar beiläufige Ankündigung – „but there’s one more thing“ – war längst zu einem Ritual geworden. Ein Versprechen, dass hinter dem Vorhang noch etwas wartete, das über das Erwartbare hinausging.

Genau in diesem Spannungsfeld wurde im Sommer 2000 der Apple Power Mac G4 Cube vorgestellt.

Es war einer dieser Momente, wie sie Steve Jobs nur selten inszenierte – und wenn, dann mit maximaler Wirkung. Auf der Bühne der Macworld im Sommer 2000 stand zunächst nichts weiter als eine Idee im Raum, formuliert in einem jener Sätze, die zugleich Vision und Versprechen waren:

„we are combining the power of the Power Mac G4 […] with the desktop elegance, the silence and the miniaturization that we learned from doing the iMac to make a whole new class of machine“
(„Wir kombinieren die Leistung des Power Mac G4 mit der Eleganz, der Lautlosigkeit und der Miniaturisierung des iMac, um eine völlig neue Klasse von Computern zu schaffen.“)

Es war mehr als nur eine Produktankündigung. Jobs sprach nicht von einem neuen Modell, sondern ausdrücklich von einer „new class of machine“ – ein Anspruch, der weit über die Technik hinausging. Apple wollte hier keinen bestehenden Markt bedienen, sondern ihn erweitern.

Dann folgte die Verdichtung dieser Idee in eine physische Form:

„we have miniaturized all that power into something this size […] an 8 inch cube“
(„Wir haben all diese Leistung in etwas von dieser Größe miniaturisiert […] einen 8-Zoll-Würfel.“)

Ein kompletter Power Mac G4, reduziert auf ein Volumen, das eher an ein Designobjekt erinnerte als an einen klassischen Rechner. Und als wäre das nicht genug, setzte Jobs noch einen weiteren Akzent:

„all this power in an 8 inch cube has cooled without a fan […] so it runs in virtual silence“
(„All diese Leistung in einem 8-Zoll-Würfel wird ohne Lüfter gekühlt […] und läuft praktisch lautlos.“)

Als der Rechner schließlich enthüllt wurde, fiel der vielleicht programmatischste Satz des gesamten Auftritts:

„quite possibly the most beautiful product we’ve ever designed“
(„Möglicherweise das schönste Produkt, das wir je entworfen haben.“)

Und tatsächlich – der Cube war weniger ein Computer im klassischen Sinne als vielmehr ein bewusst inszeniertes Objekt. Ein System, das nicht unter dem Schreibtisch verschwand, sondern sichtbar wurde.

Während der Applaus noch nachhallte, begann hinter den Kulissen jedoch bereits eine Geschichte, die deutlich weniger makellos verlief.

Die Form selbst war kein Zufall. Wer genau hinsah, erkannte eine Linie zurück zu NeXT – jenem Unternehmen, das Jobs nach seinem Weggang von Apple gegründet hatte. Dessen Rechner, später als NeXTcube bekannt, folgten bereits einer ähnlichen geometrischen Klarheit. Jobs bestätigte später knapp: „Yes, we did one before.“

Doch der Unterschied war entscheidend. Während der NeXTcube noch als klassisches Arbeitsgerät gedacht war, wurde der Cube bewusst als Objekt gestaltet – als ein System, das sichtbar auf dem Schreibtisch stand. Jobs beschrieb ihn sinngemäß als „brain in a beaker“ – ein sichtbar gemachtes, konzentriertes System.

Der Weg dorthin war jedoch alles andere als trivial. Die transparente Hülle war das Ergebnis monatelanger Entwicklung. Jobs ließ durchblicken, dass es ein halbes Jahr dauerte, allein die exakte Materialzusammensetzung für das Gehäuse zu entwickeln. Statt klassischem Spritzguss setzte Apple zusätzlich auf präzise Nachbearbeitung – Bohrungen und Lüftungsöffnungen wurden nachträglich gefräst, um die gewünschte optische Klarheit zu erreichen.

Dieser Aufwand war kein Selbstzweck. Apple hatte bereits mit dem iMac gelernt, dass Material und Erscheinung Teil der Produktidentität waren. Der Cube führte diesen Ansatz konsequent fort.

Und doch zeigte sich bereits in dieser Phase ein grundlegendes Problem. Kurz vor der Präsentation wurde intern deutlich, dass sich der geplante Preis nicht halten ließ. Der Rechner würde deutlich teurer werden als ursprünglich vorgesehen. Hier kollidierten erstmals Vision und Realität – ein Konflikt, der später entscheidend werden sollte.

So überzeugend die Inszenierung war – ihre eigentliche Bewährungsprobe fand die Konstruktion nicht auf der Bühne, sondern im Alltag statt.

Im Inneren arbeitete ein PowerPC G4 (Motorola 7400) mit integrierter Velocity Engine, unterstützt von einem dedizierten L2-Cache. Der Arbeitsspeicher ließ sich auf bis zu 1,5 GB ausbauen, womit das System technisch klar im oberen Bereich seiner Zeit lag. Auch die Ausstattung mit FireWire, USB, Ethernet und optionalem AirPort unterstrich, dass es sich nicht um ein abgespecktes System handelte.

Doch nicht die reine Leistung machte den Cube bemerkenswert, sondern seine Konstruktion. Apple verzichtete vollständig auf einen Lüfter. Stattdessen wurde die Wärme über einen zentralen Kühlkörper nach oben abgeführt – allein durch natürliche Luftzirkulation. In der Praxis bedeutete das einen nahezu lautlosen Betrieb, allerdings auch ein System, das thermisch näher an seinen Grenzen arbeitete als klassische Tower-Rechner.

Auch die äußere Gestaltung folgte diesem Prinzip der Reduktion. Sämtliche Anschlüsse befanden sich an der Unterseite des Geräts – eine Entscheidung, die das Erscheinungsbild klar hielt, im Alltag jedoch nicht immer praktisch war.

Mit dem Apple Display Connector ging Apple noch einen Schritt weiter. Video, Daten und Strom wurden über ein einziges Kabel geführt – elegant, aber zugleich proprietär. Ein Ansatz, der bereits erkennen ließ, wie stark Apple sein Ökosystem kontrollieren wollte.

Beim Thema Audio verzichtete man vollständig auf interne Lösungen. Stattdessen entwickelte Apple gemeinsam mit Harman Kardon externe Lautsprecher, die sowohl funktional als auch gestalterisch Teil des Systems waren.

Im Inneren blieb der Zugriff hingegen überraschend klassisch. Mit einem einfachen Mechanismus ließ sich der komplette Kern des Systems herausziehen. Komponenten waren schnell erreichbar – ein Detail, das besonders professionelle Anwender ansprach.

Doch genau hier lag die Grenze. Trotz dieser Zugänglichkeit war die Erweiterbarkeit eingeschränkt. Es fehlten PCI-Steckplätze, zusätzliche Laufwerksplätze und flexible Upgrade-Möglichkeiten. Im direkten Vergleich bot der klassische Power Mac G4 Tower mehr Leistungsspielraum – und das oft zu einem geringeren Preis.

Damit wurde die Position des Cube zunehmend unklar. Für Einsteiger war er zu teuer, für Profis zu eingeschränkt.

Die Zahlen folgten schnell. Statt der erwarteten Nachfrage wurden nur rund 150.000 Einheiten verkauft. Bereits wenige Monate nach Marktstart reagierte Apple mit Preisnachlässen. Intern galt das Projekt schon früh als gescheitert.

Später formulierte Tim Cook rückblickend:

„It was a spectacular failure commercially, from the first day almost.“
(„Es war wirtschaftlich ein spektakulärer Fehlschlag – praktisch vom ersten Tag an.“)

Auch Apples eigene Analyse fiel nüchtern aus. Phil Schiller erklärte, dass sich die meisten Kunden stattdessen für die Power-Mac-G4-Tower entschieden hätten – leistungsstärker, günstiger und vor allem flexibler.

Am 3. Juli 2001 setzte Apple den Cube offiziell aus und ließ die Tür bewusst offen – man sprach von einer möglichen Rückkehr, nicht von einer endgültigen Einstellung.

Und doch verschwand der Cube in seiner ursprünglichen Form.

Sein Einfluss blieb jedoch bestehen. Die Idee, leistungsfähige Hardware in kompakte, designorientierte Gehäuse zu integrieren, fand später in Geräten wie dem Mac mini oder dem Mac Studio eine neue Ausprägung – diesmal jedoch zu einem Preis und in einer Form, die der Markt besser aufnehmen konnte.

Rückblickend wirkt der Cube wie ein Produkt, das weniger für seine eigene Zeit entwickelt wurde als für eine Zukunft, die erst noch entstehen musste. Ein Rechner, der technisch funktionierte, gestalterisch überzeugte – und dennoch an seiner Einordnung scheiterte.

Vielleicht liegt gerade darin seine eigentliche Bedeutung.

 

Apple Performa 200 (1992) – Der klassische Macintosh als Einstiegsgerät neu verpackt

Apple Performa 200 im klassischen All-in-One-Design (Quelle: Wikimedia Commons, CC BY-SA 2.5)

Es gibt diese eigenartige Phase in Apples Geschichte Anfang der 1990er Jahre, in der sich der Konzern zwischen Tradition und Neuorientierung bewegte – und genau in diese Zeit fällt der Apple Macintosh Performa 200. Auf den ersten Blick wirkt er wie ein vertrauter Bekannter: kompakt, geschlossen, freundlich im Design. Und tatsächlich steckt unter der Haube nichts anderes als der bereits ein Jahr zuvor vorgestellte Macintosh Classic II, nahezu unverändert. Apple selbst hätte wohl gesagt: bewährt statt neu erfunden.

Der Performa 200 erschien am 14. September 1992 und war Teil einer neuen Vertriebsstrategie. Während klassische Macintosh-Modelle über autorisierte Fachhändler verkauft wurden, brachte Apple mit der Performa-Reihe Geräte gezielt in Kaufhäuser und Elektronikmärkte. Der Rechner selbst blieb identisch, doch Verpackung, Softwarebeigaben und Modellbezeichnungen änderten sich – ein Schritt, der intern weniger mit Technik als vielmehr mit Marketing zu tun hatte.

Im Inneren arbeitet ein Motorola 68030 mit 16 MHz, allerdings ohne mathematische Koprozessoreinheit. Das war kein Zufall, sondern klare Positionierung: Der Performa 200 sollte kein professionelles Werkzeug sein, sondern ein Einstiegsgerät für Privathaushalte. Die Grundausstattung mit 2 MB RAM war bereits zur Veröffentlichung knapp bemessen, insbesondere wenn man das mitgelieferte System 7 nutzte. Erst mit einer Erweiterung auf bis zu 10 MB – realisiert über zwei paarweise zu bestückende 30-Pin-SIMM-Steckplätze – konnte sich das System freier entfalten.

Ein oft übersehener, aber technisch entscheidender Punkt liegt in der Anbindung des Prozessors: Obwohl der 68030 intern als 32-Bit-CPU ausgelegt ist, wird er im Performa 200 über einen lediglich 16-Bit breiten Datenbus angebunden. Diese Architektur halbiert effektiv die verfügbare Speicherbandbreite und wirkt sich unmittelbar auf die Gesamtleistung aus. In der Praxis bedeutet das, dass der Rechner spürbar hinter dem zurückbleibt, was man von einem 68030-System erwarten würde. Besonders augenfällig wird dies im Vergleich zum Macintosh SE/30, der trotz seines früheren Erscheinungsdatums durch seinen vollwertigen 32-Bit-Datenpfad in vielen Anwendungen deutlich schneller arbeitet. Diese bewusste Einschränkung unterstreicht die klare Marktsegmentierung: Der Performa 200 sollte zugänglich sein, nicht leistungsführend.

Die verbaute SCSI-Festplatte, typischerweise mit 40 MB, gelegentlich auch 80 MB, arbeitete zuverlässig, aber nicht besonders schnell. Hier zeigte sich bereits ein technischer Rückstand gegenüber PC-Systemen mit moderneren Massenspeicherlösungen. Der integrierte 9-Zoll-Monitor mit einer Auflösung von 512 × 342 Pixeln war praktisch identisch mit dem ursprünglichen Macintosh von 1984. Während andere Plattformen längst Farbdisplays etabliert hatten, blieb Apple hier bewusst beim monochromen Konzept. Das hatte Vorteile in der Klarheit der Darstellung und der Systemintegration, schränkte jedoch den Einsatzbereich sichtbar ein – insbesondere im Spielebereich, wo farbige Konkurrenzsysteme wie der Amiga 1200 oder auch VGA-basierte PCs längst neue Maßstäbe setzten.

Preislich bewegte sich der Performa 200 je nach Bundle zwischen etwa 900 und 1.500 US-Dollar, was inflationsbereinigt heute grob einem Bereich von rund 2.000 bis über 3.000 Euro entspricht. Damit war er kein günstiger Heimcomputer im klassischen Sinne, sondern eher ein bewusst vereinfachter Zugang zur Macintosh-Welt. Apple kombinierte die Hardware häufig mit Softwarepaketen – Lernprogramme, einfache Grafiktools und gelegentlich auch Spiele –, um den Rechner als „Familiencomputer“ zu positionieren.

In der praktischen Nutzung zeigte sich schnell die Zweiteilung dieses Systems: Unter System 6 arbeitete der Rechner angenehm flüssig und reagierte direkt, während System 7 mit seinen erweiterten Funktionen die Grenzen der Hardware deutlich spürbar machte. Die Kombination aus begrenztem Arbeitsspeicher, fehlender FPU und vergleichsweise langsamer Festplatte führte dazu, dass der Performa 200 eher für einfache Anwendungen geeignet war – Textverarbeitung, Bildung, erste Schritte in der grafischen Benutzeroberfläche.

Im größeren Zusammenhang steht dieses Modell exemplarisch für eine Phase, in der Apple versuchte, seine Produktpalette breiter aufzustellen, ohne sie technisch grundlegend zu erneuern. Die Performa-Serie wuchs schnell an, oft mit nur minimalen Unterschieden zwischen den einzelnen Modellen. Für den Kunden bedeutete das nicht selten Verwirrung, für Apple hingegen war es ein Versuch, unterschiedliche Vertriebskanäle gezielt zu bedienen. Besonders deutlich wurde diese Entwicklung wenig später bei Systemen wie dem Apple Performa 630, das in zahlreichen Varianten erschien – teils mit identischer Hardwarebasis, aber unterschiedlichen Laufwerken, Speicherbestückungen oder Softwarepaketen. Zwei nahezu gleiche Geräte konnten unterschiedliche Modellnummern tragen, während sich hinter derselben Bezeichnung je nach Verkaufsregion verschiedene Konfigurationen verbargen. Der Performa 200 markiert damit nicht nur den Einstieg in den Heimmarkt, sondern auch den Beginn eines Modellnamenssystems, das später zu den bekanntesten Schwächen der Apple-Produktpolitik dieser Ära zählen sollte.

Rückblickend ist der Performa 200 weniger ein Meilenstein als vielmehr ein Zeitdokument. Er zeigt, wie Apple noch einmal auf die ursprüngliche Macintosh-Idee setzte – ein geschlossenes, einfach zu bedienendes System –, bevor sich mit der PowerPC-Generation und später dem iMac eine deutlich modernere und klarer strukturierte Produktstrategie durchsetzte. Gerade diese konservative Haltung macht ihn heute interessant: nicht als Höhepunkt der Technik, sondern als Moment des Übergangs.

 

NEC PC-6001A (TREK) – Der gescheiterte US-Export des PC-6001

Als NEC Anfang der 1980er Jahre mit dem NEC PC-6001 in Japan einen vergleichsweise günstigen und bewusst einfach zugänglichen Heimcomputer etablierte, lag ein Schritt nahe, der aus heutiger Sicht fast selbstverständlich wirkt: der Blick über den eigenen Markt hinaus. Der daraus entstandene NEC PC-6001A, in den USA unter dem Namen NEC TREK vertrieben, war dabei weniger ein neues System als vielmehr ein Versuch, ein bestehendes Konzept in einen völlig anderen Markt zu übertragen – mit bemerkenswert ernüchterndem Ergebnis.

Technisch blieb der Rechner weitgehend identisch mit seinem japanischen Vorbild. Die Z80-kompatible Architektur, der AY-3-8910-Soundchip sowie die bekannten Grafikmodi wurden unverändert übernommen. Auch das Cartridge-Konzept, das bereits beim ursprünglichen PC-6001 eine gewisse Nähe zur Konsolenwelt erkennen ließ, blieb erhalten. Wer den japanischen Artikel kennt, findet hier also keine Überraschung – und genau das ist bereits Teil der Geschichte dieses Systems. NEC verzichtete bewusst darauf, die Plattform für den westlichen Markt grundlegend anzupassen.

Die sichtbarste Veränderung fand sich stattdessen an einer Stelle, die oft unterschätzt wird: der Tastatur. Während das japanische Modell mit einer eher spielzeughaften Chiclet-Tastatur ausgeliefert wurde, erhielt der PC-6001A eine klassische Schreibmaschinentastatur. Es war ein klares Signal, dass man sich an den Erwartungen amerikanischer Nutzer orientieren wollte – weniger Wohnzimmergerät, mehr ernstzunehmender Heimcomputer. Doch diese Anpassung blieb letztlich kosmetischer Natur.

Denn der eigentliche Unterschied lag nicht im Gerät selbst, sondern in seinem Umfeld. Als der PC-6001A in den USA erschien, war der Markt bereits in Bewegung. Systeme wie der Commodore VIC-20, der Atari 400 oder der TRS-80 Model I hatten sich etabliert, verfügten über wachsende Softwarebibliotheken und waren fest im Handel verankert. NEC hingegen trat als vergleichsweise unbekannter Anbieter auf – mit einem System, das zwar solide war, aber kaum exklusive Argumente mitbrachte.

Besonders deutlich zeigte sich das beim Thema Software. Während der PC-6001 in Japan zumindest ein überschaubares Ökosystem aus Spielen und BASIC-Programmen vorweisen konnte, blieb der PC-6001A in den USA weitgehend isoliert. Es fehlte an lokaler Softwareentwicklung, an Vertriebspartnern und nicht zuletzt an Sichtbarkeit. Ohne ein funktionierendes Softwareangebot aber war ein Heimcomputer Anfang der 1980er Jahre kaum mehr als ein technisches Versprechen.

Hinzu kam ein strategischer Aspekt, der rückblickend fast zwangsläufig wirkt: NEC versuchte, ein System zu exportieren, das stark auf seinen Heimatmarkt zugeschnitten war. Anders als etwa Commodore oder Atari verfügte das Unternehmen im Westen weder über ein vergleichbares Vertriebsnetz noch über eine etablierte Markenwahrnehmung. Der PC-6001A wurde so zu einem Produkt, das zwischen den Stühlen stand – zu technisch für den reinen Spielemarkt, aber ohne die Tiefe und Unterstützung, die ernsthafte Anwender erwarteten.

Die Folge war ein stilles Verschwinden. Während der PC-6001 in Japan zumindest als Einstiegsgerät in Erinnerung blieb, hinterließ der PC-6001A im US-Markt kaum Spuren. Verkaufszahlen sind nur fragmentarisch überliefert, zeitgenössische Berichte rar – ein deutliches Indiz dafür, dass das System nie wirklich Fuß fassen konnte.

Rückblickend lässt sich der PC-6001A daher weniger als eigenständiger Heimcomputer begreifen, sondern vielmehr als Momentaufnahme einer Übergangszeit. Er zeigt, wie schwierig es war, frühe Heimcomputerkonzepte über kulturelle und wirtschaftliche Grenzen hinweg zu übertragen. Und er ergänzt das Bild seines japanischen Pendants um eine Perspektive, die oft übersehen wird: Erfolg in einem Markt bedeutete noch lange keinen Erfolg in einem anderen.

Gerade in dieser Gegenüberstellung liegt heute sein eigentlicher Wert. Der PC-6001A ist kein Klassiker im klassischen Sinne, kein System mit großer Nutzerbasis oder prägendem Einfluss. Aber er ist ein lehrreiches Beispiel dafür, wie eng Technik, Markt und Timing miteinander verwoben sind – und wie schnell ein durchaus solides System im falschen Umfeld nahezu bedeutungslos werden kann.