Commodore Amiga 500: Die Alltagsmaschine, die zur Legende wurde

Ist es wirklich notwendig, über den Amiga 500 zu schreiben? Über einen Computer, den viele als ihren ersten „echten“ Rechner erlebt haben, über den sich Mythen ranken, dessen Name noch heute nostalgische Reflexe auslöst? Vielleicht ist es genau deshalb notwendig. Denn der Amiga 500 war nicht nur ein Erfolgsmodell, sondern ein kulturelles Phänomen – eines, dessen Bedeutung sich erst im Rückblick vollständig erschließt. Wir sprechen von einem Computer, der millionenfach verkauft wurde, der Generationen prägte und dennoch wirtschaftlich nie jene Stabilität erreichte, die sein Einfluss vermuten ließe. Zeit also, den Amiga 500 in Ruhe einzuordnen. Der Amiga 500 war weniger Neuentwicklung als bewusste Neupositionierung.

Nachdem der technisch revolutionäre, aber teure Amiga 1000 den Markt kaum erreichte, wurde bei Commodore früh klar, dass die Zukunft der Plattform nicht in einem weiteren Prestigeobjekt lag, sondern in einem erschwinglichen, massentauglichen System. Ziel war es, die außergewöhnlichen Fähigkeiten der Amiga-Architektur in ein kompaktes Gerät zu überführen, das näher an der Lebensrealität der Nutzer lag. Der Amiga 500 sollte kein Demonstrator sein, sondern ein Alltagsrechner – wohnzimmertauglich, preislich erreichbar und vielseitig einsetzbar. Diese Pragmatik war kein Rückschritt, sondern Voraussetzung des Erfolgs.

Dabei spiegelte sich auch eine unterschiedliche Entwicklungsphilosophie innerhalb des Commodore-Konzerns wider. Beide Modelle wurden bei Commodore in West Chester entwickelt, verfolgten jedoch von Beginn an unterschiedliche Zielsetzungen. Während der Amiga 500 konsequent auf den Heim- und Massenmarkt ausgerichtet war, wurde der Amiga 2000 auf eine modularere, professionell erweiterbare Nutzung hin konzipiert. Anforderungen aus dem internationalen Umfeld – insbesondere aus Europa – beeinflussten dabei vor allem die Auslegung des Amiga 2000, etwa im Hinblick auf Steckplätze, Videoanbindung. Dort standen Erweiterbarkeit, Steckplätze, Videoanwendungen und Studioeinsätze im Vordergrund. Beide Modelle nutzten dieselbe Grundarchitektur, verkörperten jedoch unterschiedliche Antworten auf dieselbe Frage: Was sollte ein Amiga sein? Der Amiga 500 beantwortete sie aus Sicht des Heimcomputers, der Amiga 2000 aus Sicht der Workstation.

Technisch basierte der Amiga 500 auf derselben grundlegenden Architektur wie der zuvor erschienene Amiga 1000. Herzstück war der Motorola 68000, intern mit rund 7,14 MHz im NTSC- und etwa 7,09 MHz im PAL-Betrieb getaktet. Für sich genommen war dieser Prozessor kein Hochleistungswunder, doch das Zusammenspiel mit den spezialisierten Custom-Chips machte den Unterschied. Agnus übernahm Speicherverwaltung und DMA-Zugriffe, Denise war für die Grafik zuständig, Paula kümmerte sich um Audio, Diskettensteuerung und Interrupts. Ergänzt wurde dieses Trio durch Gary, der Bus-Logik und zentrale Teile der Adressdekodierung kontrollierte.

Diese Aufgabenteilung erlaubte es dem Amiga, viele audiovisuelle Prozesse parallel zur CPU auszuführen – ein Ansatz, der ihn im Heimcomputerbereich der Mitte der 1980er-Jahre durch die Kombination aus Grafik-, Sound- und Multitasking-Fähigkeiten deutlich von zeitgenössischen Systemen abhob.

Diese Architektur zahlte sich besonders in der Praxis aus. Während zeitgenössische Rechner viele Aufgaben vollständig der CPU überließen, konnte der Amiga Grafik- und Soundoperationen auslagern, ohne den Hauptprozessor zu blockieren. Das Ergebnis war eine Leistungsfähigkeit, die sich unmittelbar in Spielen, Demos und Multimedia-Anwendungen zeigte. Grafikmodi mit bis zu 4096 Farben (HAM), vier unabhängige 8-Bit-Audiokanäle und echtes präemptives Multitasking waren im Heimcomputerbereich Mitte der 1980er-Jahre nahezu konkurrenzlos.

Zwar beruhte auch der Amiga 1000 auf derselben Architektur, erwies sich im Auslieferungszustand jedoch als deutlich unpraktischer im Alltag. Da das Kickstart noch nicht im ROM vorlag, musste das Betriebssystem beim Start von Diskette in den Arbeitsspeicher geladen werden, wodurch ein erheblicher Teil der ursprünglich nur 256 KB RAM bereits belegt war, bevor Anwendungen oder Spiele überhaupt beginnen konnten. Technisch war der Amiga 1000 keineswegs eingeschränkt – mit Speichererweiterungen ließ er sich leistungsfähig ausbauen –, doch erst der Amiga 500 beseitigte diese Einstiegshürden konsequent und machte die Architektur im Serienzustand wirklich alltagstauglich.

Mit dem A500 wanderte Kickstart fest ins ROM. Der Rechner war nach dem Einschalten sofort funktionsfähig – kürzere Bootzeiten, höhere Robustheit, geringere Einstiegshürden. Der Preis: Updates erforderten ROM-Tausch.

Während der Amiga 1000 sein Betriebssystem bei jedem Start von Diskette laden musste, stand dem Amiga 500 nach dem Einschalten sofort eine lauffähige Systembasis zur Verfügung. Das verkürzte Startzeiten, erhöhte die Zuverlässigkeit und senkte die Einstiegshürde erheblich. Diese Entscheidung war jedoch nicht unumstritten. Teile des Entwicklerumfelds sahen im festgeschriebenen Kickstart-ROM eine Einschränkung, da frühe Designentscheidungen damit schwerer korrigierbar wurden und Weiterentwicklungen einen physischen Austausch des ROMs erforderten. Was für den Alltag ein Gewinn war, konnte langfristig zur Fixierung werden – ein klassischer Zielkonflikt zwischen Benutzerfreundlichkeit und technischer Flexibilität.

Auf Kickstart aufbauend stellte die Workbench die grafische Arbeitsumgebung des Amiga dar. Sie folgte bewusst nicht der damals verbreiteten Desktop-Metapher, sondern setzte auf eigene Begriffe und Konzepte. Verzeichnisse hießen „Drawer“, Programme „Tools“, Dateien „Projects“. Parallel dazu existierte mit der CLI von Beginn an eine vollwertige Kommandozeile, die nicht als Notlösung, sondern als gleichberechtigter Zugang zum System gedacht war. Der Amiga war nie ein reines GUI-System, sondern ein Rechner, der grafische und textbasierte Arbeitsweisen selbstverständlich miteinander verband. Besonders bemerkenswert war, dass das Betriebssystem bereits früh präemptives Multitasking bot – nicht als Demonstration, sondern als Alltagsfunktion, selbst auf Systemen mit begrenztem Speicher.

Ein zentrales Merkmal der Amiga-Architektur war das differenzierte Speicherkonzept. Chip-RAM bildete den gemeinsamen Arbeitsbereich von CPU und Custom-Chips und war essenziell für Grafik und Sound. Slow-RAM, häufig über den Trapdoor-Slot unter der Gehäuseklappe realisiert, konnte zwar von der CPU genutzt werden, lief jedoch über den Chip-Bus und unterlag dessen Busarbitration, wodurch der Zugriff langsamer war als auf echtes Fast-RAM. Erst mit späteren Agnus-Revisionen oder beim Amiga 500 Plus ließ sich dieser Speicher direkt als Chip-RAM einbinden. Fast-RAM schließlich war ausschließlich der CPU vorbehalten und deutlich effizienter, da es nicht am Chip-Bus hing und somit keine Wartezyklen durch den Chipsatz entstehen konnten. Im Amiga 500 wurde solches Fast-RAM vor allem über den seitlichen Expansionsport realisiert.

Vereinfacht lässt sich das so verstehen: Chip-RAM ist eine Hauptverkehrsstraße, auf der sich CPU, Grafik und Sound den Zugriff teilen. Slow-RAM ist eine Nebenstraße mit Wartezeiten. Fast-RAM hingegen ist eine exklusive Schnellstraße nur für die CPU. Für Spiele war Chip-RAM entscheidend, für Anwendungen Fast-RAM – ein Spannungsfeld, das den Ausbau des Amiga 500 prägte.

Frühe A500 mit dem Agnus 8370/8371 boten 512 KB Chip (plus 512 KB Slow über Trapdoor). Spätere Revisionen erhöhten auf 1 MB Chip; mit dem 8375 konnten in entsprechend bestückten Systemen bis 2 MB Chip genutzt werden (z. B. A500 Plus).

Ergänzend dazu konnten über den seitlichen Expansionsport mehrere Megabyte Fast-RAM nachgerüstet werden – in der Praxis meist bis zu acht Megabyte –, während zusätzliches Slow-RAM in bestimmten Konfigurationen ebenfalls genutzt werden konnte.
In der Alltagspraxis blieben solche Maximalbestückungen jedoch die Ausnahme. Die meisten Anwender begnügten sich mit moderaten Speichererweiterungen und investierten eher in Komfortzubehör wie Festplattenlösungen. Turbokarten mit 68020- oder 68030-Prozessoren existierten zwar bereits, waren jedoch teuer, nicht immer vollständig kompatibel und boten für viele Spiele kaum einen spürbaren Vorteil. Der typische Amiga-500-Nutzer investierte daher weniger in rohe Rechenleistung als in Speicher und Bedienkomfort. Genau hier zeigte sich, wo die Erweiterbarkeit des Amiga 500 an ihre Grenzen stieß. Mehr Speicher machte das System angenehmer, aber nicht grundlegend moderner. Die CPU und der Chipsatz blieben unverändert, während sich der PC-Markt über stetige Prozessor-Upgrades weiterentwickelte. Der Amiga 500 ließ sich optimieren, aber nicht beliebig weiterdenken. Erweiterbarkeit wurde zur Feinarbeit, nicht mehr zur Zukunftsperspektive.

Mit seiner Markteinführung 1987 traf der Amiga 500 auf einen Markt im Umbruch. In Großbritannien hatte sich der ZX Spectrum etabliert, in Deutschland war der Commodore 64 allgegenwärtig. Der A500 trat nicht an, um diese Systeme direkt zu ersetzen, sondern um sie abzulösen. Besonders in Europa wurde er rasch als der „neue C64“ wahrgenommen – leistungsfähiger, moderner, aber ähnlich zugänglich. Diese Rolle als natürlicher Nachfolger des klassischen Heimcomputers erwies sich als außerordentlich erfolgreich.

In Deutschland entwickelte sich der Amiga 500 zur dominierenden Heimcomputerplattform der späten 1980er-Jahre. Er fand seinen Weg in Kinder- und Jugendzimmer, in Wohngemeinschaften und Hobbykeller. Spiele wie Shadow of the Beast, Turrican, Speedball 2 oder The Secret of Monkey Island zeigten eindrucksvoll, wozu die Maschine fähig war. Action-, Sport- und Arcade-Titel dominierten dabei zahlenmäßig den Markt, während Adventures vor allem kulturell und erzählerisch prägend waren.

Bemerkenswert war, dass der Amiga 500 nicht nur Spieler ansprach. Er wurde zugleich zum kreativen Werkzeug für Musik, Grafik, Textverarbeitung und Programmierung. Programme wie Deluxe Paint oder ProTracker machten ihn zur Produktionsplattform. Diese Offenheit war gewollt – und sie hatte Konsequenzen. Die einfache Kopierbarkeit von Disketten, das Fehlen wirksamer Schutzmechanismen und eine schnell wachsende Cracker-Szene führten dazu, dass Softwareverkäufe oft weit hinter der tatsächlichen Nutzung zurückblieben.

Aus diesem Umfeld entwickelte sich auch die legendäre Demoszene. Was als technische Spielerei begann, wuchs zu einer eigenständigen Kunstform heran, in der Gruppen nicht um Verkaufszahlen konkurrierten, sondern um Effizienz, Kreativität und das Ausloten technischer Grenzen. Der Amiga 500 wurde zur Bühne für audiovisuelle Experimente, deren Einfluss bis heute spürbar ist. Die wirtschaftlichen Folgen für Softwarehersteller resultierten dabei jedoch weniger aus der Demoszene selbst als aus dem weiteren Umfeld der Cracker-Szene, aus dem viele Gruppen hervorgingen und das insgesamt ein Klima schuf, in dem Software vielfach unentgeltlich verbreitet wurde.

Für Commodore selbst war der Erfolg des Amiga 500 ein zweischneidiges Schwert. Der Rechner verkaufte sich hervorragend, doch das Unternehmen verdiente fast ausschließlich an der Hardware. Anders als Konsolenhersteller verfügte Commodore über kein geschlossenes Lizenzsystem, das kontinuierliche Einnahmen aus Software generiert hätte. Die aggressive Preispolitik sicherte Marktanteile, reduzierte jedoch die Margen. Der Amiga 500 hielt Commodore am Leben, stabilisierte das Unternehmen jedoch nicht nachhaltig.

International zeigte sich ein deutliches Gefälle. Während der Amiga in Europa kulturell dominierte, blieb er in den USA ein Nischenprodukt. Dort setzten sich IBM-kompatible PCs zunehmend durch, getragen von Standardisierung, beruflicher Nutzung und klaren Upgrade-Pfaden. Der Amiga gewann Herzen, aber keine Märkte. Diese Diskrepanz zwischen kultureller Bedeutung und wirtschaftlicher Realität wurde im Laufe der Jahre immer deutlicher.

Ein entscheidender Faktor für diese Entwicklung lag außerhalb der reinen Technik. Der Amiga setzte sich nie als Büro- oder Unternehmensstandard durch. Dafür fehlte ihm weniger Leistungsfähigkeit als vielmehr eine zwingende Anwendung – eine sogenannte Killer-App. Während andere Systeme durch einzelne Programme quasi institutionalisiert wurden, blieb der Amiga in dieser Hinsicht fragmentiert. Der IBM-PC etablierte sich im Geschäftsalltag nicht primär wegen einer technischen Überlegenheit im Heimcomputer-Sinn, sondern weil Anwendungen wie Tabellenkalkulationen, Textverarbeitung und Datenbanken dort früh zu De-facto-Standards wurden. Wer im Büro arbeitete, arbeitete mit diesen Programmen – und damit zwangsläufig mit der zugrunde liegenden Plattform.

Auf dem Amiga existierten zwar leistungsfähige Alternativen, doch keine davon erreichte eine vergleichbare Marktdominanz oder institutionelle Verbindlichkeit. Selbst spezialisierte Erfolge wie Cinema 4D blieben auf klar umrissene Zielgruppen beschränkt und eigneten sich nicht als Fundament für eine allgemeine Büro-IT. Hinzu kam, dass Microsoft als zentraler Softwarelieferant kein strategisches Interesse daran hatte, eine konkurrierende Plattform zu stärken, während man parallel das eigene Betriebssystem-Ökosystem für den IBM-PC aufbaute. Der Amiga blieb dadurch ein freier, kreativer Rechner – aber ohne die softwareseitige Verankerung, die für eine nachhaltige Präsenz in Büros, Verwaltungen und Unternehmen notwendig gewesen wäre.

Wie sich diese wachsende Diskrepanz zwischen technischer Leistungsfähigkeit, kultureller Bedeutung und fehlender institutioneller Verankerung entwickelte, lässt sich gut an der zeitgenössischen Fachpresse ablesen. Magazine wie Power Play begleiteten den Amiga 500 über Jahre hinweg und stellten ihn regelmäßig in Vergleichsübersichten neuen Systemen gegenüber. Anfang der 1990er-Jahre veränderte sich der Tonfall spürbar. Der Amiga 500 wurde zunehmend als etablierter Klassiker betrachtet, dessen Stärken bekannt, dessen Grenzen aber ebenso offensichtlich geworden waren. Dieser Wandel erfolgte nicht abrupt, sondern schleichend – und gerade darin lag seine Aussagekraft.

Auch auf Hardware-Ebene spiegelte sich die besondere Entwicklerkultur wider. Auf mehreren Mainboard-Revisionen des Amiga 500 findet sich der interne Codename „Rock Lobster“ beziehungsweise „B52“ direkt auf der Leiterplatte aufgedruckt – eine Referenz an den gleichnamigen Song der B-52’s. Solche Codenamen waren Ausdruck einer informellen, kreativen Ingenieurskultur, wie sie für das Amiga-Team typisch war.

Ein weiteres stilles Detail dieser Kultur findet sich in der Workbench selbst. Das Uhr-Icon, das ab späteren Versionen verwendet wurde, zeigt eine Zeigerstellung, die in der Amiga-Community häufig als stilles Gedenken an die Challenger-Katastrophe von 1986 interpretiert wird. Dabei handelt es sich um eine verbreitete, jedoch nicht belegte Deutung, für die es keine offizielle Bestätigung gibt. Gleichwohl fügt sie sich stimmig in den zeitgeschichtlichen Kontext einer Ära ein, in der Raumfahrt, Technikoptimismus und Computerentwicklung eng miteinander verknüpft waren. Bleibt die Frage der historischen Einordnung: War der Amiga 500 noch ein Homecomputer? Nach klassischer Definition ja: ein erschwinglicher Rechner für den privaten Gebrauch, mit integrierter Tastatur, offen für Spiel, Lernen und Kreativität. War er der letzte seiner Art? Nicht absolut. Systeme wie der Atari ST oder spätere Amiga-Modelle existierten parallel. Doch der Amiga 500 markiert einen Endpunkt – einen der letzten Heimcomputer, der diese Rolle kulturell, technisch und wirtschaftlich vollständig ausfüllte, bevor sich der Markt endgültig auf PC und Konsole aufteilte.

Gerade darin liegt seine historische Bedeutung. Der Amiga 500 war kein perfektes System, aber ein offenes. Er ermöglichte eine Form von Computerkultur, die Experiment, Spiel, Kreativität und Gemeinschaft miteinander verband. Dass er wirtschaftlich nicht dauerhaft bestehen konnte, schmälert diesen Einfluss nicht – es erklärt ihn. Der Amiga 500 war ein Rechner seiner Zeit, und zugleich einer, der ihr in vielerlei Hinsicht voraus war.

Oric Atmos (1984): Ein Heimcomputer zwischen Spectrum, C64 und CPC

Picture from: http://blog.tynemouthsoftware.co.uk/2019/08/oric-atmos-and-oric-1-repairs.html

Der Oric Atmos erschien Anfang 1984, in einer Phase, die sich im Rückblick weniger als abrupter Umbruch denn als Übergang beschreiben lässt. Am 24. Januar desselben Jahres stellte Apple den Macintosh vor und präsentierte damit ein Bedienkonzept, das sich deutlich von den bis dahin verbreiteten Heimcomputern unterschied. Die grafische Oberfläche, Maussteuerung und das Prinzip der visuellen Text- und Layoutbearbeitung deuteten an, in welche Richtung sich professionelle Computersysteme entwickeln könnten. Für die Mehrheit der Nutzer blieb dies jedoch zunächst ein Ausblick. Der praktische Alltag spielte sich weiterhin in BASIC, mit Kassettenlaufwerken und am heimischen Fernseher ab. In diesem Umfeld positionierte sich der Oric Atmos – nicht als Vorgriff auf kommende Paradigmen, sondern als Vertreter einer etablierten 8-Bit-Heimcomputerklasse.

Der Atmos war keine Neuentwicklung, sondern eine Weiterentwicklung des Oric-1. Ziel war es, bekannte Schwächen des Vorgängers zu beheben und den Rechner im täglichen Gebrauch robuster zu gestalten, ohne das grundlegende Konzept zu verändern. Die Überarbeitung betraf zahlreiche Details, die zusammen ein technisch konsistenteres System ergaben. Auffällige Neuerungen oder singuläre Leistungsmerkmale standen dabei nicht im Vordergrund.

Auch äußerlich unterschied sich der Atmos klar vom Oric-1. Das dunkle Gehäuse wirkte zurückhaltend, die Tastatur war klar strukturiert. Schwarze alphanumerische Tasten wurden durch rote Funktionstasten ergänzt, die eine visuelle Orientierung boten. Für den praktischen Einsatz war jedoch weniger die Optik als die Tastaturauslegung relevant. Längere Programme oder Texte ließen sich über längere Zeit hinweg eingeben, was den Rechner auch für Anwendungen jenseits kurzer Spielsitzungen nutzbar machte.

Die technische Architektur blieb bewusst überschaubar. Der Arbeitsspeicher wurde zugleich als Bildschirmspeicher verwendet, wodurch Grafikoperationen direkt, jedoch speicherintensiv waren. Diese Konstruktion erforderte ein Verständnis der internen Zusammenhänge, da es keine hardwareseitigen Abstraktionen gab, die dem Nutzer Arbeit abnahmen. Der Rechner stellte seine Funktionsweise offen dar und verlangte entsprechende Planung.

Als Prozessor kam ein MOS Technology 6502A zum Einsatz. Diese Variante des 6502 war für höhere Taktfrequenzen spezifiziert und wurde Anfang der achtziger Jahre in verschiedenen Heimcomputern und Embedded-Systemen eingesetzt. Der Oric Atmos betrieb den Prozessor mit einer nominellen Taktfrequenz von rund 1,75 MHz und ordnete sich damit technisch klar in die verbreitete 8-Bit-Architektur seiner Zeit ein.

Die grafischen Möglichkeiten entsprachen dem zeitüblichen Rahmen. Im hochauflösenden Modus arbeitete der Atmos mit 240 × 200 Bildpunkten und einer festen Palette aus acht Farben. Auflösung und Farbanzahl unterschieden sich damit nicht grundlegend von vergleichbaren Systemen. Charakteristisch war jedoch die Art der Farbzuweisung: Farbwechsel konnten gezielt innerhalb einzelner Bildzeilen vorgenommen werden, was eine flexible Gestaltung erlaubte, jedoch eine sorgfältige Planung erforderte. Gestalterische Entscheidungen wirkten sich unmittelbar auf das Bild aus. Über den RGB-Ausgang ließ sich zudem ein stabiles und scharfes Bild ausgeben, was den Rechner auch für längere Nutzungsszenarien geeignet machte.

Für die Klangerzeugung setzte der Oric Atmos auf den AY-3-8912, einen zu dieser Zeit weit verbreiteten Drei-Kanal-Soundchip. Er kam unter anderem im Amstrad CPC, im MSX-Umfeld sowie in verschiedenen Arcade-Systemen zum Einsatz. Mehrstimmige Musik und strukturierte Soundeffekte waren damit möglich, allerdings ohne Filter oder komplexe Klangmodulationen. Die Klangerzeugung blieb direkt und klar. Gegenüber einfachen 1-Bit-Lösungen bot der Chip erweiterte Möglichkeiten der Mehrkanal-Ausgabe. Ein integrierter Lautsprecher stellte sicher, dass der Rechner auch ohne externes Audiogerät akustische Signale ausgeben konnte.

Die Anschlussausstattung spiegelte den Anspruch wider, mehr als ein reines Spielsystem zu sein. Neben dem Kassettenanschluss standen verschiedene Monitoroptionen, eine Druckerschnittstelle sowie ein Erweiterungsport zur Verfügung. Mit einem angeschlossenen Diskettenlaufwerk veränderte sich die Arbeitsweise deutlich und erlaubte effizientere Abläufe, ohne den grundlegenden Charakter des Systems zu verändern.

Als Arbeitsumgebung diente das im ROM enthaltene Oric Extended BASIC, ein lizenzierter Microsoft-BASIC-Dialekt. Nutzer mit Erfahrung auf anderen Heimcomputern fanden sich schnell zurecht. Nach dem Einschalten stand das System unmittelbar zur Verfügung, ohne vorgelagerte Menüs oder Startprogramme. Grafik- und Soundbefehle konnten direkt angesprochen werden, was den Rechner insbesondere für Lernzwecke und eigene Programme zugänglich machte.

Im Marktumfeld war die Position des Oric Atmos schwierig. In Großbritannien war der Sinclair ZX Spectrum bereits fest etabliert, während sich in vielen anderen europäischen Märkten zunehmend der Commodore 64 durchsetzte. Der Amstrad CPC, der 1984 nahezu zeitgleich erschien, verfolgte ein stärker auf Komplettausstattung ausgelegtes Konzept und gewann insbesondere in Frankreich und Südeuropa rasch Marktanteile. Der Oric Atmos bewegte sich zwischen diesen Systemen, ohne in einem der großen Absatzmärkte eine dominante Stellung zu erreichen.

Der Preis entsprach dieser Positionierung. In Großbritannien lag der Einführungspreis bei etwa 170 bis 179 Pfund, was inflationsbereinigt heute rund 770 bis 820 Pfund entspricht. In Deutschland kostete die 64-Kilobyte-Variante offiziell 748 DM; zeitgenössische Berichte, unter anderem in der Zeitschrift Telematch, nannten jedoch auch Straßenpreise um 600 DM. Das entspricht heute etwa 1 330 Euro beziehungsweise rund 1 070 Euro. Der Oric Atmos lag damit preislich nicht im unteren Segment, sondern stellte eine bewusste Anschaffung dar.

Rückblickend steht der Oric Atmos weniger für hohe Verkaufszahlen als für ein klar umrissenes technisches Konzept. Er führte die Linie des Oric-1 fort, beseitigte bekannte Schwächen und blieb dabei innerhalb der etablierten 8-Bit-Heimcomputertradition seiner Zeit.

 

NCR PC4 (1984): Der All-in-One-Business-PC zwischen IBM-Standard und Bankenwelt

Als der NCR Personal Computer Model 4 Mitte der 1980er Jahre erschien, stand dahinter kein Newcomer, sondern eines der traditionsreichsten Unternehmen der Datenverarbeitung. NCR – ursprünglich National Cash Register – war bereits seit dem späten 19. Jahrhundert im Bereich mechanischer und später elektronischer Rechen- und Kassensysteme aktiv und hatte sich im Laufe des 20. Jahrhunderts zu einem globalen Anbieter von Banktechnik, Transaktionssystemen und Großrechner-Peripherie entwickelt. Lange bevor der Personal Computer den Büromarkt eroberte, prägten NCR-Systeme bereits den Alltag von Banken, Verwaltungen und Handelsketten. Der Einstieg in den PC-Markt war daher weniger ein Experiment als der Versuch, diese gewachsene Erfahrung in eine neue Geräteklasse zu übertragen.

Der NCR PC4 erschien 1984/85 in einer Phase, in der sich der IBM-PC-Standard zwar etabliert hatte, der Markt aber noch offen genug war, um eigene Akzente zu setzen. NCR verstand den Rechner von Beginn an als professionelles Arbeitsgerät und positionierte ihn bewusst als Business-PC, nicht als günstigen Heimcomputer. Technisch basierte der PC4 auf einem Intel 8088 mit 4,77 MHz und entsprach damit der Leistungsklasse eines IBM PC XT. Die Grundausstattung umfasste 128 KB Arbeitsspeicher, erweiterbar bis auf 640 KB. Als Massenspeicher dienten ein oder zwei 5,25-Zoll-Diskettenlaufwerke mit 360 KB, alternativ war ein integriertes 10-MB-Festplattensystem erhältlich.

Ungewöhnlich für einen XT-Klon war das All-in-One-Design. Rechner und Monitor bildeten eine massive, geschlossene Einheit. Je nach Ausführung kam ein monochromer Grünmonitor oder ein Farbmonitor zum Einsatz, jeweils mit 80 × 25 Zeichen. In der späteren Revision PC4/i bot NCR zusätzlich einen hochauflösenden Monochrom-Grafikmodus mit 640 × 400 Pixeln, der es erlaubte, grafikbasierte Anwendungen auch ohne Farbmonitor sinnvoll zu nutzen – ein klarer technischer Mehrwert gegenüber klassischen MDA-Lösungen.

Trotz des integrierten Aufbaus war der PC4 intern erstaunlich flexibel. Laut Handbuch war das System „available in six different models“ und unterschied sich je nach Konfiguration durch Laufwerksausstattung, Monitorvariante und das Vorhandensein eines festen Datenträgers. Speichererweiterungen, zusätzliche Controller- und Funktionskarten sowie Monitoradapter ließen sich nachrüsten. Bemerkenswert ist, dass NCR ausdrücklich auf die Unterstützung von Erweiterungskarten von Drittanbietern verwies – ein klares Signal an professionelle Anwender, dass man nicht auf ein proprietäres Ökosystem setzte, sondern bewusst auf Offenheit.

Der PC4 war dabei nicht NCRs erster Schritt in Richtung Personal Computer. Bereits zuvor hatte das Unternehmen mit dem NCR Decision Mate V Erfahrungen im Bereich personenbezogener Computersysteme gesammelt – einem eher eigenständigen, noch nicht vollständig IBM-kompatiblen Rechner. Der Model 4 markierte somit den bewussten Übergang von proprietären Lösungen hin zum offenen IBM-Standard und kann als direkte Konsequenz dieser frühen Erfahrungen gelesen werden.

Auch bei der Software zeigte sich NCRs professioneller Anspruch. Ausgeliefert wurde der PC4 mit NCR-DOS (kompatibel zu MS-DOS 2.11), GW-BASIC, Diagnose- und Dienstprogrammen sowie einer Reihe speziell entwickelter Lernwerkzeuge. Anders als viele Konkurrenten begnügte sich NCR nicht damit, ein Betriebssystem beizulegen, sondern investierte erheblich in die Einführung und Schulung der Anwender. Bereits im Handbuch wird der Einstieg bewusst niedrigschwellig beschrieben: „You already found out how easy it is to start using your NCR Personal Computer. You spent time using the NCR PAL diskette to develop familiarity with the NCR Personal Computer. You learned software concepts. You explored various types of applications.“ („Du hast bereits erfahren, wie einfach es ist, mit deinem NCR Personal Computer zu beginnen. Du hast Zeit mit der NCR-PAL-Diskette verbracht, um dich mit dem NCR Personal Computer vertraut zu machen. Du hast Software-Konzepte gelernt. Du hast verschiedene Arten von Anwendungen erkundet.“).

Zentral für diesen Ansatz war die NCR PAL-Diskette, die als interaktive Einführung grundlegende Konzepte vermittelte. Darauf aufbauend folgte NCR TUTOR, ein grafisch unterstütztes Lernprogramm zur Vertiefung des Betriebssystem-Umgangs: „NCR TUTOR graphically reviews what you have studied so far and helps you feel more comfortable with the use of NCR-DOS.“ „NCR TUTOR graphically reviews what you have studied so far and helps you feel more comfortable with the use of NCR-DOS.“
(NCR TUTOR wiederholt grafisch, was du bisher gelernt hast, und hilft dir, dich im Umgang mit NCR-DOS sicherer zu fühlen.). Ergänzt wurde dieses Konzept durch eine integrierte HELP-Funktion, die zu DOS-Befehlen kontextbezogene Erläuterungen lieferte – für die Mitte der 1980er Jahre ein bemerkenswert fortschrittlicher Ansatz.

Das Handbuch selbst unterstreicht diese Philosophie durch eine klare Differenzierung der Zielgruppen. Einsteiger werden ausdrücklich angeleitet: „If you are relatively new to computing, you should now read through the Information for Beginners chapter of this manual.“ (Wenn du im Umgang mit Computern relativ neu bist, solltest du jetzt das Kapitel ‚Information for Beginners‘ in diesem Handbuch lesen.“). Erfahrene Nutzer dürfen Grundlagen überspringen und direkt in die technischen Kapitel einsteigen. Der PC4 sollte nicht bevormunden, sondern begleiten – ein Ansatz, der sich deutlich von der oft spröden Dokumentation vieler PC-Klone abhob.

In der zeitgenössischen Fachpresse wurde dieser Ansatz positiv aufgenommen. Tests bescheinigten dem PC4 eine sehr hohe IBM-Kompatibilität, gängige Software lief ohne Anpassungen. Gelobt wurden die Bildqualität des Monitors, die saubere Verarbeitung und die außergewöhnliche Robustheit des Gehäuses. Der Rechner galt als schwer, massiv und nahezu unverwüstlich – Eigenschaften, die im Büroalltag eher Vertrauen schufen als störten. Gerade in Banken, Verwaltungen und Filialbetrieben fand der PC4 daher Einsatz, häufig über Jahre hinweg im Dauerbetrieb.

Im Vergleich zur Konkurrenz positionierte sich der PC4 klar zwischen den Welten. Gegenüber dem IBM PC XT bot er ein kompakteres Design und ein moderneres Erscheinungsbild, gegenüber leistungsstärkeren Systemen wie dem Olivetti M24 oder frühen Compaq-Modellen wirkte er konservativer. NCR setzte nicht auf maximale Rechenleistung, sondern auf Zuverlässigkeit, Bedienbarkeit und Service. Diese Prioritäten spiegelten die Herkunft des Unternehmens wider und passten zu dessen angestammter Kundschaft.

Auch die Service-Philosophie war entsprechend ausgeprägt. Für technisch versierte Anwender stellte NCR ein eigenes Hardware Maintenance and Service Manual bereit; das Owner’s Manual verweist ausdrücklich auf detaillierte Diagnose- und Wartungsinformationen. Gleichzeitig ermutigte NCR die Nutzer, Rückmeldungen zu geben – inklusive frankierter Feedback-Karten im Handbuch. Qualitätssicherung und Anwenderzufriedenheit waren erklärter Bestandteil des Produktkonzepts.

Wirtschaftlich war der PC4 kein Billigsystem. Der Einstiegspreis lag bei rund 2.400 US-Dollar, voll ausgestattet deutlich darüber – inflationsbereinigt ein Betrag, der heute klar im Premium-Segment läge. Der PC4 war damit weniger für den freien Massenmarkt gedacht als für Geschäftskunden, die ein Komplettpaket aus Hardware, Software, Schulung und Service suchten. Mit späteren Modellen wie dem PC6 und dem PC8 entwickelte NCR diese Linie weiter, verabschiedete sich dabei jedoch vom integrierten All-in-One-Design.

Rückblickend ist der NCR PC4 Teil einer längeren, kontinuierlichen Entwicklung. Zwar zog sich NCR in den folgenden Jahren schrittweise aus dem klassischen PC-Massenmarkt zurück, doch das Unternehmen verschwand keineswegs aus der digitalen Welt. Aus NCR gingen später eigenständige Unternehmensbereiche hervor, die sich auf Geldautomaten, Self-Service-Terminals, Point-of-Sale-Technik und digitale Transaktionssysteme spezialisierten – Bereiche, in denen NCR bis heute international präsent ist. Der PC4 markiert damit eine Übergangsphase: ein klassischer Arbeitsplatz-PC, der zugleich bereits die Denkweise eines Unternehmens widerspiegelt, das Computer als verlässliche Infrastruktur für kritische Geschäftsprozesse verstand. In dieser Rolle war der NCR PC4 weniger ein Star der PC-Geschichte als ein stiller Arbeiter – und genau darin liegt heute sein historischer Wert.

Jupiter Ace (1982): Der kompromisslose FORTH-Computer, der seiner Zeit voraus war

Als der Jupiter Ace im Herbst 1982 erschien, war er zugleich ein Produkt seiner Zeit und ein bewusster Gegenentwurf zu ihr. Entwickelt wurde der Rechner von Richard Altwasser und Steven Vickers, zwei Ingenieuren, die zuvor maßgeblich für Sinclair Research gearbeitet hatten. Altwasser war bereits an der Entwicklung des ZX81 beteiligt und wirkte später an der Hardwarearchitektur des ZX Spectrum mit, während Vickers das ROM-Upgrade des ZX80 zum ZX81 verantwortete und eine zentrale Rolle bei der Gestaltung des Spectrum-ROMs spielte. Mit der Gründung von Jupiter Cantab Ltd. verließen beide bewusst den etablierten Pfad und versuchten, ihre eigenen technischen Überzeugungen in einem eigenständigen System umzusetzen.

Schon der Name des Rechners war programmatisch. „ACE“ bezog sich nicht auf eine Marketingfloskel, sondern auf den Pilot ACE, einen frühen britischen Computer, der auf Entwürfe von Alan Turing aus den späten vierziger Jahren zurückging. Die Namenswahl sollte beim Käufer die Assoziation eines intelligent konzipierten, technisch fortschrittlichen Systems wecken – und zugleich andeuten, dass hier kein weiteres BASIC-Einsteigergerät, sondern ein ernsthaftes Werkzeug für effiziente Programmierung vorlag. Diese Haltung bestimmte das gesamte Design des Jupiter Ace.

Im Inneren arbeitete ein Zilog Z80A mit rund 3,25 MHz, eine damals bewährte Wahl. Die eigentliche Besonderheit lag jedoch in der Speicherorganisation. Der Jupiter Ace verfügte in der Grundausstattung über lediglich 3 KB RAM, aufgeteilt in etwa 1 KB Programmspeicher, 1 KB Bildschirmspeicher und 1 KB für den Zeichensatz, ergänzt durch 8 KB ROM, das die komplette Systemsoftware enthielt. Über Erweiterungen ließ sich der Arbeitsspeicher auf bis zu 48 KB zusätzlich ausbauen. Entscheidend war dabei weniger die absolute Größe als die Nutzung: Durch den separaten Videospeicher stand der Prozessor nahezu vollständig für die Programmausführung zur Verfügung – ein klarer Vorteil gegenüber dem ZX81, dessen Z80 im Normalbetrieb regelmäßig zugunsten der Bildausgabe angehalten wurde.

Grafisch blieb der Rechner strikt monochrom. Der Bildschirm zeigte 32 Zeichen pro Zeile bei 24 Zeilen, hochauflösende Bitmap-Grafik existierte nicht. Stattdessen setzte das System auf ein zeichenorientiertes Konzept mit frei definierbarem Zeichensatz, wodurch pseudo-grafische Darstellungen und einfache Animationen möglich wurden. Für die Tonausgabe besaß der Jupiter Ace einen internen Lautsprecher, der direkt vom Prozessor angesteuert wurde; Frequenz und Dauer ließen sich frei programmieren – eine Funktion, die dem ZX81 vollständig fehlte. Die Videoausgabe erfolgte über einen handelsüblichen Fernseher, die Datenspeicherung über einen Kassettenrekorder.

Äußerlich präsentierte sich der Jupiter Ace funktional und kompromisslos kostensensitiv. Das leichte Kunststoffgehäuse wurde nicht verschraubt, sondern vernietet, die Tastatur bestand aus gummierten Tasten mit Leiterbahnkontakt – spürbar besser als beim ZX81, aber ohne professionellen Anspruch. Zwei Erweiterungsports auf der Rückseite deuteten zukünftige Ausbaumöglichkeiten an, von denen jedoch nur ein Teil realisiert wurde.

Der eigentliche Kern des Systems lag in der konsequenten Entscheidung für FORTH. Statt BASIC befand sich ein vollständiges FORTH-System im ROM, inklusive Editor, Interpreter, Compiler und zahlreicher Systemwörter. FORTH erlaubte extrem kompanten Code und hohe Ausführungsgeschwindigkeit und förderte eine modulare Arbeitsweise mit wiederverwendbaren Wortdefinitionen. Für ein System mit minimalem Speicher war dies technisch logisch und elegant umgesetzt.

Zeitgenössische Fachartikel würdigten diese Eigenschaften ausdrücklich. In der französischen Zeitschrift Micro-Systèmes wurde 1983 beschrieben, dass selbst komplexe Arcade-Spiele auf dem Jupiter Ace realisierbar seien, die in herkömmlichem BASIC an Geschwindigkeitsgrenzen scheitern würden. Besonders hervorgehoben wurde die Kombination aus FORTH-Effizienz, getrenntem Video-RAM und der Möglichkeit, im FAST-Modus zu arbeiten, ohne den Bildschirm vollständig zu verlieren.

Gleichzeitig zeigte sich hier das zentrale Dilemma des Systems. Die Effizienz von FORTH ging mit einer hohen Einstiegshürde einher. Die stackbasierte Arbeitsweise, die umgekehrte polnische Notation und das abstrakte Denken in Wortdefinitionen unterschieden sich grundlegend von der gewohnten BASIC-Logik. Selbst ein gut strukturiertes Handbuch konnte diesen Bruch nur teilweise abfedern. Der Jupiter Ace sprach damit weniger den Massenmarkt als eine kleine, technisch interessierte Zielgruppe an.

Im direkten Vergleich mit dem ZX81 war der Jupiter Ace technisch klar überlegen: bessere Prozessorverfügbarkeit, integrierter Sound, stabileres Laufzeitverhalten. Gegenüber dem ZX Spectrum jedoch setzte er andere Prioritäten. Während der Spectrum auf Farbe, Zugänglichkeit und ein schnell wachsendes Software-Ökosystem setzte, blieb der Jupiter Ace ein Spezialist – präzise, effizient, aber konzeptionell anspruchsvoll.

Diese Positionierung erklärt letztlich auch das wirtschaftliche Scheitern. Der Einführungspreis lag über dem vieler Konkurrenten, die monochrome Darstellung wirkte zunehmend altmodisch, und FORTH schloss einen Großteil potenzieller Käufer faktisch aus. Hinzu kam ein ungünstiger Marktzeitpunkt: 1982 hatte sich der Heimcomputermarkt bereits klar in Richtung farbfähiger, spieleorientierter Systeme verschoben.

So lässt sich das Ende des Jupiter Ace weniger als technisches Scheitern denn als strategische Fehlkalkulation lesen. Das System setzte auf Effizienz, Eleganz und konzeptionelle Strenge in einem Markt, der Zugänglichkeit und Unterhaltung bevorzugte. In der Rückschau bleibt der Jupiter Ace ein Rechner, der seiner Zeit in mancher Hinsicht voraus war – und ihr zugleich in entscheidenden Punkten widersprach.

https://www.youtube.com/watch?v=wXFyigkvq38

Commodore 64 (1982) – Der Heimcomputer, der eine Generation prägte

Ist es wirklich notwendig, noch über den Commodore 64 zu schreiben? Über einen Rechner, den viele als ihren ersten Computer erlebt haben. Über einen Namen, um den sich seit Jahrzehnten Mythen, Überhöhungen und nostalgische Rückblicke ranken. Vielleicht ist es gerade deshalb notwendig, noch einmal innezuhalten. Nicht, um diese Mythen zu wiederholen, sondern um sie einzuordnen. Denn wir sprechen hier über einen Computer, der angeblich zwanzig oder gar dreißig Millionen Mal verkauft wurde – Zahlen, die in dieser Form nicht belastbar sind. Sicher ist: Es waren sehr viele, und genug, um eine ganze Ära zu prägen. Aber statt mit Superlativen zu beginnen, lohnt es sich, den Weg in Ruhe nachzuzeichnen.

Der C64 war kein Wunderwerk und kein Zufallstreffer. Er war das Ergebnis einer Zeit, eines Marktes und einer spezifischen Denkweise. Für viele Haushalte war er der erste Computer, der nicht im Arbeitszimmer verschwand, sondern selbstverständlich im Wohnzimmer stand – oft am einzigen Fernseher der Familie. Spätestens mit Spielen wie Summer Games wurde er zum Gemeinschaftsgerät. Nicht selten standen mehrere Generationen gemeinsam vor dem Bildschirm: Kinder mit Ehrgeiz, Eltern mit Neugier, und manchmal griff sogar die Großmutter zum Joystick – und erreichte beim Stabhochsprung Höhen, die man ihr mit Gehstock im Flur nicht zugetraut hätte. Der C64 war einer der ersten Computer, bei dem man niemandem erklären musste, warum er eingeschaltet wurde. Er funktionierte als gemeinsamer Bezugspunkt.

Entstehung unter Zeitdruck und mit klarer Agenda

Geprägt wurde der Ansatz durch Jack Tramiel, dessen Ziel es war, Computer aus der Nische zu holen. Sein Leitsatz „Computers for the masses, not the classes“ war weniger Werbespruch als Geschäftsgrundlage. Für Tramiel war Technik kein Selbstzweck, sondern eine Ressource, die man so lange zuschnitt, bis sie sich verkaufen ließ. Erfahrungen mit dem VIC-20 hatten gezeigt, dass ein Markt für günstige Rechner existierte – doch der Schritt zu einem deutlich leistungsfähigeren System war intern umstritten. Erst die rapide fallenden RAM-Preise Anfang der 1980er-Jahre machten es realistisch, einen Computer mit 64 Kilobyte Arbeitsspeicher wirtschaftlich zu kalkulieren.

Unter erheblichem Zeitdruck – im Vorfeld der CES 1982 – entstand der C64 in ungewöhnlich kurzer Entwicklungszeit. In der Commodore-Organisation wurde das Projekt von Führung und Technik koordiniert; als zentrale Figur gilt Charles Winterble, der als Leiter des weltweiten Engineering-Bereichs die Linie stützte, das System konsequent auf Commodores hauseigene MOS-Technologie und eigens entwickelte Spezialbausteine auszurichten – Grafik, Sound und Systemlogik als Kern einer Plattform, nicht als austauschbare Standardkomponenten. Die Systemarchitektur wird häufig Robert „Bob“ Russell zugeschrieben, der bereits am VIC-20 mitgewirkt hatte und KERNAL-Anteile sowie die BASIC-Integration prägte. David A. Ziembicki gilt als treibende Kraft beim Prototypenbau unter extremem Termindruck. Ebenfalls aus diesem Umfeld stammt Shiraz Shivji, der später eine zentrale Rolle beim Atari ST spielen sollte. Zeitzeugenberichte betonen den enormen Einsatz dieses kleinen Teams – bis hin zu Feiertagen, die im Labor verbracht wurden. Der C64 entstand nicht aus Forschung im Elfenbeinturm, sondern aus Pragmatismus, Tempo und einer klaren Marktstrategie.

Technische und konzeptionelle Altlasten – warum der C64 so wurde, wie er war

Der C64 war kein Rechner vom weißen Reißbrett. Viele seiner Eigenheiten versteht man erst, wenn man ihn als Ergebnis von Kostenentscheidungen, Lagerrealitäten und Zeitdruck betrachtet. So wurde aus Produktions- und Werkzeuggründen zunächst ein Gehäusekonzept weitergeführt, das Commodore bereits kannte – nicht, weil es ideal war, sondern weil Formen, Prozesse und Zulieferketten vorhanden waren. Der Rechner sollte günstiger produzierbar sein als die Konkurrenz; jede vermiedene Neuentwicklung zählte.

Ein ähnliches Prinzip zeigte sich bei der Peripherie. Das Diskettenlaufwerk 1541 war leistungsfähig, wurde aber berüchtigt für vergleichsweise langsame Ladezeiten. Häufig wird dies mit einer Mischung aus Kompatibilitätszielen, engen Zeitplänen und bewusst konservativen Schnittstellenentscheidungen erklärt: Commodore hielt an einer seriellen Philosophie fest, die in der Praxis durch Implementationsdetails und spätere Software-Workarounds deutlich weniger Tempo lieferte, als viele Anwender erwarteten. Der Markt reagierte, wie Märkte reagieren: Turbo-Loader, Fastloader-Cartridges und neue Routinen wurden nicht zur Ausnahme, sondern zum Standardrepertoire der Szene.

Auch auf Software-Ebene war der C64 von Altlasten geprägt. Commodore lizenzierte sein BASIC von Microsoft, setzte aber weiterhin auf BASIC V2 – eine Version, die bereits bei Erscheinen des C64 als schlicht galt. Grafik- und Soundbefehle fehlten vollständig. Was zunächst wie ein Makel wirkt, prägte den Umgang mit dem Rechner nachhaltig: Wer die Fähigkeiten der Hardware ausschöpfen wollte, musste direkt in Speicher und Register greifen. PEEK und POKE wurden dadurch zu Alltagsvokabeln. Der C64 lehrte keine Bequemlichkeit – er belohnte Neugier mit Kontrolle.

Technisches Fundament: stark, eigenwillig, beherrschbar

Im Zentrum arbeitete der MOS 6510, eine angepasste Variante des 6502 mit integriertem I/O-Port, der das Umschalten von Speicherbereichen erleichterte. Dieser Baustein ist ein gutes Beispiel dafür, wie Commodore Technik pragmatisch nutzte: nicht „mehr Leistung um jeden Preis“, sondern „Funktionalität, die das Gesamtsystem vereinfachte“. Dass spätere Systeme ebenfalls 6502-Verwandtschaft nutzten – etwa der 65C816 als CPU-Familienabkömmling in späteren Konsolenwelten – zeigt, wie langlebig diese Architekturidee war, ohne den C64 damit gleichsetzen zu wollen.

Für die Grafik war der VIC-II verantwortlich: Hardware-Sprites, feines Scrolling, Timing-Eigenheiten, die Programmierer liebten und fürchteten. Für den Klang sorgte der SID, der bis heute als Instrument wahrgenommen wird – mit Charakter, Eigenheiten und einem Klangbild, das selten „neutral“, aber oft unverwechselbar war. Ergänzt wurde das Ganze durch die CIA 6526, die mit Timing, Ports und I/O im Alltag mitbestimmte, was am Ende stabil lief – oder eben nicht, wenn am Joystickport elektrisch unsauber experimentiert wurde.

Diese Architektur war nicht elegant, nicht bequem und schon gar nicht zukunftssicher im klassischen Sinn. Aber sie war beherrschbar. Und genau diese Beherrschbarkeit machte den C64 für Millionen von Nutzern produktiv – im Spiel, im Lernen und im Experimentieren.

Revisionen, C64C und der Mythos vom „neuen“ C64

So konstant der C64 nach außen wirkte, so deutlich veränderte sich sein Inneres. Über die lange Produktionszeit entstanden zahlreiche Platinenrevisionen, deren Ziel weniger „neue Features“ als Kostenreduktion, Integrationsgrad und Fertigungsstabilität war. Commodores Leitlinie blieb dabei kompromisslos: maximale Softwarekompatibilität bei sinkenden Produktionskosten.

Frühe Geräte basierten auf großformatigen Platinen, später verschwanden viele TTL-Bausteine, Funktionen wurden zusammengefasst, die Fertigung wurde effizienter. Beim Prozessor findet sich in späteren Modellen häufig der stromsparendere MOS 8500 statt des 6510 – ohne dass der Rechner dadurch „schneller“ würde. Beim Sound kam es zu einem Wechsel vom SID 6581 zum 8580: weniger Grundrauschen, saubereres Verhalten, aber auch ein anderer Charakter. Wer beide kennt, weiß: „besser“ ist hier keine objektive Kategorie – es ist eine Frage des Klangbilds und der jeweiligen Schaltungsauslegung.

Mit dem C64C (umgangssprachlich oft C64 II) wurde diese stille Evolution sichtbar. Das flachere Gehäuse signalisierte Modernisierung, doch der Rechner blieb „ganz der Alte“: kompatibel, vertraut, berechenbar. Dass manche ihn als „leiser“ wahrnahmen, hat nichts mit Lüftern zu tun – es geht um thermische Eigenschaften, Abschirmung, Netzteil- und Bauteilverhalten. In Deutschland wurde das Thema Modellpflege zusätzlich durch den legendären Massenverkauf geprägt: Der Aldi-C64 steht sinnbildlich für den Moment, in dem ein Heimcomputer endgültig im Alltag ankam – inklusive kleiner Varianten-Details, die den Normalanwender kaum störten, Bastler aber bis heute diskutieren.

Markt und Konkurrenz: gleiche Epoche, unterschiedliche Realitäten

Entscheidender als bloße Marktanteile war, wie früh ein System in einem Land verfügbar war – und zu welchem Preis. In Großbritannien hatte der ZX Spectrum am 23. April 1982 einen deutlichen Vorsprung und dominierte dort lange Zeit das Bild des Heimcomputers: günstiger, kulturell verankert, früh verfügbar. Der C64 war in UK erfolgreich, blieb aber oft die Nummer zwei – nicht weil er technisch schwach gewesen wäre, sondern weil der Markt bereits besetzt war.

Auf dem Kontinent verschoben sich die Kräfte. In Deutschland konnte der C64 seine Stärken bei Grafik und Sound gut ausspielen und profitierte von einer ungewöhnlich breiten Verfügbarkeit: Fachhandel, Versandhäuser, Kaufhäuser – später sogar Discounter. Erst 1984 trat mit dem Amstrad CPC 464 ein weiterer starker Gegner auf, der mit Monitor-Bundle, „Komplettpaket“-Denke und einer anderen Positionierung punktete. In Frankreich wurde der CPC besonders populär; in Deutschland trat er als Schneider-CPC auf. Das sind keine Randdetails, sondern erklärt, warum „der“ europäische Heimcomputermarkt nie einheitlich war.

Preislich ist der C64 zugleich Paradebeispiel für Commodores aggressive Strategie. Zum UK-Start lag der Preis bei 399 £ (inflationsbereinigt grob etwa £ 1.500; rund € 1.750). In Deutschland startete er bei 1.495 DM (inflationsbereinigt grob etwa € 1.757; rund £ 1.500). In Frankreich wurden zur Einführung etwa 4.500–5.000 FF genannt (inflationsbereinigt grob etwa € 1.650; rund £ 1.400). In den USA startete er bei 595 US-Dollar (inflationsbereinigt grob etwa £ 1.550; rund € 1.800). Diese Preislandschaft war dynamisch: rasche Preissenkungen machten den C64 in kurzer Zeit vom Luxusgerät zum Massenprodukt. In den USA eskalierte dies zum Preiskrieg, der Konkurrenten wie Texas Instruments in die Knie zwang – ein seltener Moment, in dem aggressive Preispolitik den Markt tatsächlich neu sortierte.

Software, die den Rechner zum Wohnzimmergerät machte

Das Software-Ökosystem war der Hebel, mit dem der C64 seine Hardware in Alltagsrelevanz verwandelte. Spiele wie Summer Games machten den Rechner zum Familiengerät, weil sie ohne große Schwelle verstanden wurden – und gleichzeitig genug Tiefe hatten, um Ehrgeiz auszulösen. Andere Titel wurden zu Symbolen einer „reifen“ 8-Bit-Ära: International Karate zeigte internationale Schlagkraft europäischer Entwickler, The Last Ninja wurde zum Synonym für aufwendige Präsentation und atmosphärische Dichte auf dem C64. Bei einzelnen, später oft zitierten Millionenzahlen ist Vorsicht geboten; wichtiger ist die Relation: Bei einer installierten Basis im zweistelligen Millionenbereich bedeutete bereits ein siebenstelliger Absatz eine Marktdurchdringung, die man in der damaligen Zeit nur bei wenigen Produkten sah.

Für die Langlebigkeit des Systems war jedoch nicht nur Spiele-Software entscheidend. Mit GEOS zog eine grafische Oberfläche ein, die den C64 in eine neue Rolle rücken konnte: Maus, Desktop-Metapher, Programme wie GeoWrite und GeoPaint. Zeitgenössische Einschätzungen betonten dabei gerade, dass die Hardware im Kern gleich blieb – und dass genau das den Reiz ausmachte. GEOS war kein „neuer C64“, sondern ein neuer Blick auf denselben Rechner.

Szene, Raubkopien und die kulturelle Aneignung

Für viele Jugendliche war die Szene kein Beiwerk, sondern der eigentliche Zugang zur Technik. Software wurde getauscht, Disketten wurden kopiert, katalogisiert, weitergereicht. Das war soziale Realität und wirtschaftlicher Streitpunkt zugleich. Statt moralisch zu urteilen, muss man historisch nüchtern feststellen: Diese informellen Verbreitungswege erhöhten die Reichweite des Systems, hielten Nutzer am C64 und schufen eine kritische Masse, die Entwickler, Magazine und Zubehör anlockte.

Aus Kopierpraxis wurde Technikpraxis. Kopierschutz wurde analysiert, Cracks verbreitet, Cracktros entstanden als Signatur – später als Wettbewerb. Aus frühen Einzelakteuren und losen Zusammenschlüssen wuchs eine international vernetzte Gruppenlandschaft mit klaren Rollen: Cracker, Supplier, Intro-Coder, Grafiker, Musiker. Der Übergang von Cracktro zu Demo war fließend: Rastereffekte, Scroller, Soundroutinen und präzises Timing wurden zur eigenen Kunstform. Wer das einmal ernsthaft gesehen hat, versteht: Die Demokultur war nicht nur „Show“, sondern ein Beweis, wie tief diese Szene die Maschine verstand.

Magazinen kam dabei eine Schlüsselrolle zu. Listings waren nicht nur Unterhaltung, sondern eine Form von Wissensverbreitung: abtippen, Fehler suchen, Speicheradressen verstehen – und lernen, wie ein Computer „denkt“. Genau diese Mischung aus offener Maschine, stabiler Hardwarebasis und kultureller Praxis erklärt, warum der C64 nicht nur benutzt, sondern angeeignet wurde.

Langlebigkeit, Auslaufen, Erbe

Der C64 verschwand nicht einfach, als er technisch überholt war. Er blieb präsent, weil er wirtschaftlich billig produzierbar wurde, weil er eine riesige Softwarebasis hatte und weil die Szene das System als Herausforderung weitertrug. Weltweit werden die Verkäufe meist im Bereich von 12,5 bis 17 Millionen verortet; höhere Zahlen kursieren, sind aber weniger belastbar. Entscheidend ist nicht die letzte Nachkommastelle, sondern die Wirkung: Der C64 war ein industrielles Massenprodukt – und zugleich ein kulturelles Ereignis.

Der Übergang zum Commodore Amiga erfolgte nicht als harter Schnitt. Beide Systeme existierten lange nebeneinander: Der Amiga stand für den technischen Sprung, der C64 für Verbreitung, Verlässlichkeit und das, was man heute „installierte Basis“ nennt. Als der C64 schließlich auslief, blieb sein Abdruck: in der Demokultur, in der Retro-Hardware-Szene, in Remakes, Emulatoren, Neuauflagen – und in der Erinnerung daran, dass Computer einmal Geräte waren, die man nicht nur konsumierte, sondern verstand.

Und vielleicht liegt genau darin der Grund, warum man auch heute noch über ihn schreiben kann, ohne sich zu wiederholen.

 

Atari 7800 ProSystem (1986) – Wie GCC und Steve Golson Ataris letzte klassische Konsole prägten

Als Atari Anfang der achtziger Jahre noch immer vom Erfolg des Atari 2600 lebte, hatte sich die Welt der Videospiele bereits spürbar verändert. Das VCS hatte eine ganze Generation geprägt, Wohnzimmer erobert und das Medium Heimvideospiel überhaupt erst gesellschaftsfähig gemacht. Doch der anhaltende Erfolg hatte auch träge gemacht. Technische Entscheidungen wurden verschleppt, der Markt unterschätzt, und mit dem Atari 5200 brachte das Unternehmen schließlich ein System auf den Markt, das zwar leistungsfähiger war, sich jedoch konzeptionell gegen seinen eigenen Vorgänger stellte. Fehlende Abwärtskompatibilität, ein unglücklicher Controller und eine unklare Positionierung sorgten dafür, dass Atari erstmals ernsthaft an Bindung und Vertrauen verlor – ein Warnsignal, das intern zu spät erkannt wurde.

Während im Konzern selbst Hierarchien, Budgets und politische Abwägungen dominierten, entstand an einem ganz anderen Ort eine grundlegend andere Denkweise. In Cambridge, Massachusetts, arbeiteten junge Entwickler, viele von ihnen Studenten oder Studienabbrecher aus dem Umfeld des MIT, an Arcade-Automaten – allerdings nicht im Auftrag eines großen Herstellers. Sie hackten, modifizierten und verbesserten bestehende Spiele, oft aus dem simplen Antrieb heraus, dass sie glaubten, es besser machen zu können. Aus diesem Umfeld heraus entstand die General Computer Corporation, ein kleiner Zusammenschluss technisch versierter Enthusiasten ohne offizielle Entwicklungsaufträge, aber mit einem ausgeprägten Gespür für Spielmechanik und Hardware.

Bevor GCC überhaupt an eine eigene Konsole dachte, hatten sich ihre Entwickler bereits einen Namen gemacht. Mit Super Missile Attack, einer Modifikation von Missile Command, entwickelten sie ein Erweiterungsboard, das das Spiel beschleunigte und für Arcade-Betreiber wieder wirtschaftlich attraktiv machte. Diese Modifikation wurde nicht nur gebaut, sondern aktiv verkauft – günstiger als ein neuer Automat und entsprechend erfolgreich. Noch folgenreicher war Crazy Otto, ein Umbau von Pac-Man, der neue Animationen, eine weibliche Spielfigur und ein verändertes Gegnerverhalten einführte. Atari reagierte zunächst juristisch, erkannte dann jedoch das Potenzial der Arbeit. Crazy Otto wurde lizenziert, überarbeitet und als Ms. Pac-Man veröffentlicht – einer der größten Arcade-Erfolge seiner Zeit. Rückblickend beschrieb Steve Golson diese Phase selbstironisch: „We were just a bunch of kids who thought we could improve things“ („Wir waren einfach ein Haufen Kids, die glaubten, sie könnten Dinge verbessern.“).

Ausgerechnet diese Gruppe ehemaliger Hacker wurde wenig später zum Hoffnungsträger für Ataris Konsolengeschäft. Unter der technischen Leitung von Steve Golson entwickelte das GCC-Team ein System, das die Fehler des 5200 vermeiden und zugleich das Erbe des 2600 bewahren sollte. Wichtig ist dabei: Der Atari 7800 war zu diesem Zeitpunkt noch keine große Vision. „We weren’t trying to build a new Atari, we were just solving problems the way we thought they should be solved“ („Wir wollten kein neues Atari bauen, wir haben einfach Probleme so gelöst, wie wir meinten, dass man sie lösen sollte.“). GCC verstand sich eher als technische Eingreiftruppe denn als Systemarchitekt – ein Umstand, der erklärt, warum der 7800 später so durchdacht, aber nie als geschlossenes Gesamtkonzept vermarktet wurde.

Herzstück des Entwurfs war der neu entwickelte Grafikchip MARIA, der die komplette Bildausgabe übernahm und per DMA auf eine zeilenweise organisierte Line-RAM-Struktur zugriff. Anders als bei klassischen Tile-Systemen entschied hier eine Display-List darüber, welche Objekte auf welcher Scanline erscheinen sollten. MARIA war dabei bewusst als reiner Bildgenerator konzipiert – eine direkte Reaktion auf frühere Atari-Designs. Golson beschrieb später offen, dass der ANTIC-Chip zwar leistungsfähig, aber unnötig kompliziert gewesen sei: „ANTIC was clever, but it forced programmers to think like the hardware“ („ANTIC war clever, aber er zwang Programmierer dazu, wie die Hardware zu denken.“). MARIA sollte genau das vermeiden und stattdessen eine stärker arcade-orientierte Arbeitsweise ermöglichen.

Als Prozessor kam weiterhin ein 6502-Derivat zum Einsatz, intern als SALLY bezeichnet, das mit rund 1,79 MHz arbeitete. Da MARIA die Grafikarbeit übernahm, stand dem Prozessor deutlich mehr Zeit für Spiellogik zur Verfügung. Ergänzt wurde das System durch 4 KB RAM, ein festes BIOS sowie einen erweiterten Cartridge-Port mit zusätzlichen Steuer- und Datenleitungen – ein Hinweis darauf, dass das System von Beginn an als modular und erweiterbar gedacht war. Intern war den GCC-Ingenieuren durchaus bewusst, dass sie Atari technisch voraus waren. „Atari didn’t really have anything comparable on the table at that point,“ bemerkte Golson nüchtern („Atari hatte zu diesem Zeitpunkt nichts Vergleichbares in der Pipeline.“).

Klanglich blieb der Atari 7800 konservativ. Standardmäßig setzte Atari weiterhin auf den TIA, bekannt aus dem 2600, mit lediglich zwei Audiokanälen. Diese Entscheidung war kein Versehen, sondern ein bewusster Kostenkompromiss. Ursprünglich hatte GCC mit GUMBY und später Mini-Gumby eigenständige Soundlösungen vorgesehen, die jedoch gestrichen wurden. Stattdessen sah das Design ausdrücklich vor, leistungsfähigere Audiolösungen direkt in die Module zu integrieren. Über zusätzliche Leitungen im Cartridge-Port konnte der bewährte POKEY-Chip verbaut werden, womit der 7800 klanglich auf dem Niveau des 5200 lag. Dass diese Lösung nur in wenigen Spielen wie Ballblazer oder Commando genutzt wurde, war keine technische Grenze, sondern eine Folge späterer Managemententscheidungen. Golson stellte rückblickend klar: „Cost cutting wasn’t part of the original design goals“ („Kostensenkung gehörte nicht zu den ursprünglichen Designzielen.“).

Eine Besonderheit des Systems war seine vollständige Abwärtskompatibilität zum Atari 2600 auf echter Hardware-Ebene. Der TIA blieb nicht nur für den Klang, sondern auch für den klassischen Grafikmodus erhalten. Beim Start prüfte das System das eingelegte Modul und schaltete entweder in den neuen MARIA-Modus oder in einen vollständig authentischen 2600-Betrieb. Damit war der 7800 die erste Konsole, die ihren Vorgänger nicht emulierte, sondern vollständig integrierte.

Aus diesem Nebeneinander zweier Generationen entstand auch eine Entwickleranekdote. Da MARIA für die Grafik und TIA weiterhin für den Ton zuständig war, sprachen die Entwickler intern scherzhaft von „TIA-MARIA“, benannt nach dem gleichnamigen Likör. Der Spitzname war mehr als ein Wortspiel: Ursprünglich war sogar geplant, beide Funktionen in einem kombinierten Chip zu vereinen – ein Vorhaben, das jedoch nie realisiert wurde.

Auch die Namensgebung des Systems spiegelt diesen Übergangscharakter wider. Intern lief das Projekt zunächst unter der Bezeichnung 3600. Mit der späteren Markteinführung als Atari 7800 ProSystem entschied sich Atari für eine markantere Positionierung. Eine offizielle Erklärung existiert nicht. Belegt ist lediglich die interne Aussage, dass 7800 als „doppelt so viel wie 3600“ verstanden wurde. Daneben liegt eine weitere, logisch nachvollziehbare Vermutung nahe: Als technischer Erbe des 2600 und konzeptioneller Nachfolger des 5200 lässt sich die Zahl auch als symbolische Vereinigung beider Linien lesen – eine Deutung, die sich zwar nicht belegen lässt, aber auffallend gut zur Architektur passt.

Im Vergleich zu seinen Vorgängern stellte der Atari 7800 einen klaren Generationssprung gegenüber dem 2600 dar und war dem 5200 grafisch deutlich überlegen. Akustisch blieb er ohne POKEY-Module hinter den Erwartungen zurück. Gegenüber Nintendo Entertainment System und Sega Master System konnte der 7800 grafisch durchaus mithalten, wirkte jedoch klanglich überholt und konzeptionell weniger geschlossen. Während Nintendo und Sega ihre Plattformen streng führten und kontinuierlich weiterentwickelten, blieb der Atari 7800 stark von der Qualität einzelner Implementierungen abhängig.

Als das System 1986 schließlich erschien, hatte sich der Markt bereits neu formiert. Nintendo dominierte den Konsolenmarkt, Sega etablierte sich als Arcade-nahe Alternative, und Atari hatte seine frühere Vormachtstellung verloren. Trotz zeitweise respektabler Verkaufszahlen, insbesondere in den USA, gelang es dem 7800 nicht, eine nachhaltige Marktposition aufzubauen. In Europa blieb er eine Randerscheinung. In der Rückschau jedoch gilt der Atari 7800 als unterschätzte Konsole mit bemerkenswerter Grafikarchitektur, deren Potenzial nur selten vollständig ausgeschöpft wurde. Spiele wie Ballblazer, Xevious, Midnight Mutants oder Ninja Golf zeigen bis heute, wozu das System fähig war.

So steht der Atari 7800 weniger für ein Scheitern als für eine verpasste Chance. Er ist das Produkt technischer Kompetenz, entstanden aus dem Selbstbewusstsein einer Gruppe junger Entwickler, und zugleich geprägt von wirtschaftlichen Zwängen und strategischer Unentschlossenheit. Gerade deshalb bleibt er ein faszinierendes Kapitel der Videospielgeschichte – nicht als Sieger seiner Generation, sondern als eines der interessantesten Systeme, die ihr Versprechen nie ganz einlösen durften.

ZPA IQ-151

ZPA IQ-151 – Schulcomputer, Überhitzungskünstler und Ostblock-Ikone

Der ZPA IQ-151 gehört zu den markantesten Bildungscomputern des sozialistischen Ostblocks, ein Rechner, der weniger durch technische Brillanz als durch seine Entstehungsbedingungen und seine Rolle im tschechoslowakischen Schulsystem in Erinnerung geblieben ist. Entwickelt und produziert wurde er ab 1985 vom Betrieb ZPA Nový Bor, einem Unternehmen, das ursprünglich auf Mess- und Automatisierungstechnik spezialisiert war. Der IQ-151 war dabei nie als klassischer Heimcomputer gedacht; er wurde überwiegend an Schulen und Bildungseinrichtungen ausgegeben, die in den 1980er-Jahren erstmals systematisch mit Informatikunterricht experimentierten. Seinen Namen erhielt der Rechner von der eingesetzten CPU, der Tesla MHB8080A, einem lokalen Nachbau des Intel-8080-Prozessors, der mit 2 MHz lief und dem Gerät eine für Bildungszwecke ausreichende, wenn auch bescheidene Rechenleistung verlieh.

Sein modularer Aufbau machte den IQ-151 zu einem der ungewöhnlichsten Systeme seiner Zeit. Im Gegensatz zu westlichen All-in-One-Lösungen besaß er kaum integrierte Funktionen; stattdessen wurden entscheidende Komponenten über steckbare Erweiterungskarten bereitgestellt. Zu den verbreiteten Modulen gehörten u. a. die einfachen Videokarten Video 32 oder Video 64, die reine Textdarstellung ermöglichten, sowie weiterentwickelte Module für Grafikbetrieb oder Programmiersprachen wie BASIC oder Pascal. Diese Architektur war teilweise eine pragmatische Antwort auf Materialknappheit und Produktionsbeschränkungen: Funktionen konnten so flexibel ergänzt, ersetzt oder nur bei Bedarf installiert werden. Gleichzeitig war dieses Konzept anfällig für Kontaktprobleme, und viele Benutzer erinnern sich an Geräte, die im laufenden Unterricht ausfielen oder nach kurzer Betriebszeit einen deutlich warmen Metallkorpus entwickelten. Solche Berichte sind gut dokumentiert, auch wenn manche der kursierenden Anekdoten im Rückblick eher humoristisch gefärbt sind als technisch belastbar.

Die grafischen Fähigkeiten des IQ-151 hingen stark vom eingesetzten Videomodul ab. Während die Grundkarten kaum mehr als Text in 32 bzw. 64 Zeichen pro Zeile und 8 Zeilen Höhe darstellen konnten, bot das optionale Grafikmodul eine höhere Auflösung – dennoch blieb das Bild insgesamt weit hinter westlichen Computern wie dem Sinclair ZX Spectrum, dem Atari 800XL oder dem Amstrad CPC 464 zurück. Trotz dieser Beschränkungen erfüllte der Rechner seinen Zweck: Er bot eine Plattform, auf der Schüler erste Erfahrungen in BASIC-Programmierung, algorithmischem Denken und strukturierten Aufgabenproblemen sammeln konnten. Dass Programme oft von Hand gesichert oder abgeschrieben werden mussten, bevor ein überhitztes Gerät den Dienst quittierte, gehört heute zu den charakteristischen Erinnerungen seiner damaligen Nutzer.

In der ostdeutschen Computerlandschaft hätte der IQ-151 gegen Systeme wie den Robotron KC 85/2 oder den späteren KC 87 kaum bestehen können, die robuster und praxisnäher waren. Doch im tschechoslowakischen Kontext besetzte er eine Nische, die ihm rückblickend einen gewissen Kultstatus eingebracht hat. Während der Westen in denselben Jahren bereits mit erschwinglichen, grafikstarken Heimcomputern arbeitete, symbolisiert der IQ-151 jene Mischung aus Improvisation, staatlich gelenkter Produktion und technischem Pragmatismus, die für viele Rechner des sozialistischen Ostblocks prägend war.

Heute sind funktionstüchtige IQ-151-Einheiten selten geworden, vor allem vollständige Systeme mit mehreren Originalmodulen. Auf dem Sammlermarkt erzielen sie aufgrund ihres kulturhistorischen Werts und ihrer ungewöhnlichen Architektur beachtliche Aufmerksamkeit. Der Rechner steht nicht für technologische Spitzenleistung, sondern für eine Zeit, in der Informatikbildung in weiten Teilen Europas noch experimentell war und selbst einfache Maschinen für viele Lernende ein Tor zu einer neuen Denkweise öffneten. Genau darin liegt seine eigentliche Bedeutung.

NEC APC

NEC APC – Der übersehene Profi-Computer aus Japan

https://vintagecomputer.ca/nec-apc-advanced-personal-computer-for-business/

Der NEC APC wirkt auf den ersten Blick wie ein Fremdkörper im klassischen 16-Bit-Reigen der frühen Achtziger: ein wuchtiger, fast terminalartiger Kasten mit integrierter 12-Zoll-Bildröhre, 8-Zoll-Diskettenlaufwerken und einer Tastatur, die eher an eine Mini-Mainframe-Konsole erinnert als an einen Heim- oder Bürorechner. Tatsächlich war der „Advanced Personal Computer“, den NEC 1982 zunächst in den USA und Europa einführte, ein Exportableger der japanischen N5200-Reihe und damit so etwas wie der „Westvertreter“ jener Architektur, aus der später die dominierende PC-98-Familie hervorging. Während andere Anbieter IBM möglichst dicht kopierten, versuchte NEC, mit einer eigenen, hochintegrierten 8086-Plattform in den 16-Bit-Markt vorzustoßen – und positionierte den APC ganz bewusst zwischen Terminal und Personal Computer. Computerworld betitelte die Markteinführung 1982 entsprechend als Versuch, „in die 16-Bit-Auktion einzusteigen“, als NEC Information Systems das System in den USA vorstellte.

Technisch war der NEC APC für seine Zeit ausgesprochen ambitioniert. Im Kern arbeitet ein 16-Bit-NEC-µPD8086-Prozessor mit 5 MHz Taktfrequenz, dazu kamen 128 KB RAM in der Grundausstattung, ausbaubar auf 256 KB auf dem Mainboard, plus 8 KB ROM und 4 KB batteriegepufferter CMOS-RAM für Konfiguration und Uhrzeit. Die Massenspeicherung erfolgte über ein oder zwei integrierte 8-Zoll-Floppylaufwerke, die sowohl einfache Single-Density-Medien (rund 243 KB) als auch doppelseitige Double-Density-Disketten bis etwa 1 MB verarbeiten konnten; externe Subsysteme mit 10-MB-Festplatte waren als Option vorgesehen. Schon in dieser Grundkonfiguration wurde deutlich, dass NEC kein typisches „Desktopkästchen“ nach IBM-Vorbild anstrebte, sondern einen ernsthaften „Schreibtischterminal-Ersatz“ mit eigener Rechenleistung, der sowohl standalone wie auch als Frontend an ACOS-Mainframes eingesetzt werden konnte.

Besonders auffällig war das Anzeigesystem. Der APC integrierte eine 12-Zoll-Bildröhre und nutzte als Grafik- und Textcontroller den hauseigenen NEC-µPD7220, einen der ersten spezialisierten High-End-Grafikcontroller der PC-Geschichte. Standardmäßig lieferte die Maschine einen Textbildschirm von 80×25 Zeichen, intern umgesetzt über eine 8×19-Punktmatrix pro Zeichen zirka auf eine Auflösung von 640×475 Bildpunkten, dazu eine Statuszeile, Attributbytes für Farben, Unter- und Überstreichung, Blinken und Reverse-Video. Mit einer optionalen zweiten µPD7220-Grafikkarte ließ sich das System um bis zu 512 KB Bildspeicher erweitern und auf 640×494 Grafikauflösung bringen, wobei Text und Grafik überlagert werden konnten – inklusive Panning, Zoom und Light-Pen-Unterstützung. In einer Welt, in der IBM-PCs sich zunächst mit CGA-Grafik und 40- oder 80-Spalten-Text begnügen mussten, war das eine bemerkenswert professionelle Lösung, die den APC klar als „High-End-Terminal-Ersatz plus Personal Computer“ positionierte.

Das mechanische Konzept folgte derselben Philosophie. Der APC war als schweres, aber modulares Desktop-System ausgelegt, dessen Elektronik auf mehrere Platinen und Einschübe verteilt war. Für den Bediener sichtbar war vor allem die abgesetzte Tastatur mit 86 Tasten plus 22 Funktionstasten – deutlich mehr als die meisten zeitgenössischen Systeme boten. Schnittstellenseitig brachte NEC bereits ab Werk eine parallele Centronics-Schnittstelle und eine RS-232-Seriellbuchse mit, dazu die Möglichkeit, über optionale Karten weitere Anschlüsse und Speichercontroller nachzurüsten. Als Betriebssysteme standen CP/M-86 und – besonders für den westlichen Markt wichtig – MS-DOS zur Verfügung, womit der APC grundsätzlich in die damals entstehende Softwarelandschaft eingebunden war, auch wenn er hardwareseitig keineswegs IBM-kompatibel war.

Entwicklungsgeschichtlich spielt der APC vor allem als Exportbruder der japanischen N5200-Reihe eine Rolle. NEC war zu Beginn der Achtziger stark vertikal organisiert; unterschiedliche Unternehmensbereiche durften eigene Computersysteme für verschiedene Zielmärkte entwickeln. Während die PC-98-Reihe von der „Small Systems Division“ als eigenständige Unternehmensplattform konzipiert wurde, ging die N5200/APC-Architektur auf die Terminal Units Division zurück, die zuvor hauptsächlich intelligente Terminals für Großrechner gebaut hatte. Der APC ist damit ein Produkt jener Übergangszeit, in der Terminaltechnik und Personal-Computer-Technik ineinandergriffen: ein eigenständiger 16-Bit-Rechner, der aber von seiner Ergonomie und seinem Monolith-Design her noch wie ein „Superterminal“ wirkt. Konkrete Namen einzelner Ingenieure sind in den überlieferten Unterlagen nicht sauber dokumentiert; zeitgenössische Handbücher und technische Referenzen nennen ausschließlich NEC Information Systems als verantwortliche Einheit, weshalb eine neutrale Zuschreibung an das Entwicklungsteam von NEC sachlich korrekter ist als jede spekulative Namensliste.

Die Presse nahm den NEC APC als interessanten, aber klar spezialisierten Vertreter der 16-Bit-Klasse wahr. Besonders schön lässt sich das in der neuseeländischen Zeitschrift New Zealand Bits & Bytes nachzeichnen, die 1983 einen ausführlichen Test veröffentlichte und den Bericht mit der programmatischen Feststellung einleitete: „We will look at both aspects here and concentrate on the features that make the NEC APC stand out from its rivals.“ („Wir werden beide Aspekte betrachten und uns auf die Eigenschaften konzentrieren, die den NEC APC von seinen Rivalen abheben.“) Genau diese Doppelnatur – Hochleistungs-Textsystem und Grafikarbeitsplatz – war es, die die Rezensenten interessierte. In britischen Magazinen wie Personal Computer World taucht der APC in Benchtests und Preislisten als hochpreisiger Bürorechner mit starker Bildschirmdarstellung, aber exotischer Peripherie auf; besonders die 8-Zoll-Laufwerke und die proprietäre Bus-Architektur wurden immer wieder als Hürde für Standardsoftware und Drittanbieter-Hardware erwähnt. Gleichzeitig wird in Anzeigen und Marktübersichten klar, dass NEC den APC als Gegenentwurf zu Systemen wie dem IBM PC 5150, dem Victor 9000/Sirius 1, dem DEC Rainbow 100 oder dem Epson QX-10 verstand – allesamt 16-Bit- oder Hybridrechner, die den noch jungen Bürocomputermarkt unter sich aufzuteilen schienen.

Aus Nutzersicht war die Softwarelage zweischneidig. Dank CP/M-86 und MS-DOS standen klassische Business-Programme und Entwicklungsumgebungen zur Verfügung; besonders interessant ist aus heutiger Sicht, dass Infocom seine Textadventures offiziell für den NEC APC anbot – inklusive Zork-Trilogie, Deadline und Suspended, mit speziellen Bestellcodes für die APC-Plattform. Damit wurde der eigentlich streng geschäftlich positionierte Rechner in die kleine, aber feine Welt der interaktiven Fiktion eingebunden. AutoCAD-86 konnte auf dem APC bis zu 512 KB Speicher und Farbgrafik nutzen, wie Bits & Bytes später notierte; das unterstreicht den Anspruch, mit dem System ernsthafte technische und CAD-Aufgaben zu bedienen. Gleichzeitig blieb die Zahl wirklich auf den APC zugeschnittener Programme begrenzt, und das Fehlen vollständiger IBM-Kompatibilität setzte dem Softwareangebot enge Grenzen, sobald der PC-Standard sich am Markt durchsetzte.

Wirtschaftlich bewegte sich der NEC APC klar im oberen Preissegment. Laut zeitgenössischen Quellen lag der Einstiegspreis 1982 in den USA bei rund 3.298 US-Dollar für ein Monochrom-System mit einem 8-Zoll-Floppylaufwerk und bei etwa 4.998 US-Dollar für die Doppelfloppy-Variante mit Farbbildschirm. Das britische Magazin Personal Computer World listete den APC im Herbst 1983 mit einer unverbindlichen Preisempfehlung von 1.985 Pfund Sterling ohne Mehrwertsteuer – eine Summe, mit der man auch einen gut ausgestatteten IBM PC oder Konkurrenzsysteme wie den Olivetti M24 ins Auge fassen konnte. Rechnet man die US-Preise mit den heute üblichen Inflationsfaktoren hoch, entsprechen 3.298 US-Dollar von 1982 ungefähr 11.000 US-Dollar Kaufkraft im Jahr 2025, während die teurere Konfiguration mit 4.998 US-Dollar auf etwa 16.800 US-Dollar käme. Umgerechnet mit aktuellen Wechselkursen ergibt das grob Größenordnungen von rund 9.500 Euro bzw. 8.300 Pfund für das Einstiegsmodell und etwa 14.400 Euro bzw. 12.600 Pfund für die farbfähige Doppellaufwerks-Variante. Klassische „Budget-Releases“ wie im späteren Softwaremarkt gab es für den APC naturgemäß nicht; die Preisreduktion vollzog sich eher in Form von Abverkaufs Konditionen, wenn Nachfolgemodelle wie APC II und APC III in den Vordergrund rückten.

Konkrete Verkaufszahlen des NEC APC sind in der zugänglichen Literatur kaum exakt beziffert. Während über die PC-98-Reihe bekannt ist, dass sie bis Ende der Neunziger mehr als 18 Millionen Einheiten in Japan absetzte, bleibt der APC in westlichen Quellen eine eher randständige Größe – erwähnt in Tests, Preislisten und Kompatibilitätstabellen, aber ohne große Marktanteilsstatistiken. Indirekt lässt sich aus der kurzen Lebensdauer der Plattform (bald abgelöst durch APC II und APC III) und der raschen Hinwendung NECs zu IBM-kompatiblen Architekturen schließen, dass der APC im Exportmarkt eher ein Nischenprodukt blieb, dessen technische Stärken durch seine Eigenheiten beim Bus, den 8-Zoll-Medien und der fehlenden IBM-Kompatibilität konterkariert wurden.

Seine Nachwirkungen sind dennoch spürbar – wenn auch eher in technikhistorischer Perspektive als in der Erinnerung breiter Anwenderkreise. Zum einen zeigt der APC sehr schön, wie eng die japanische Bürorechnerentwicklung mit eigenen Grafikchips, Busstandards und Terminal-Konzepten verwoben war, bevor sich der IBM-PC-Standard auch in Japan langsam durchsetzte. Die µPD7220-Grafiklösung, die im APC eingesetzt wurde, findet sich in verwandter Form auch im PC-98-Umfeld wieder und gilt heute als Meilenstein spezialisierter Grafikcontroller im Mikrocomputerbereich. Zum anderen ist die Plattform aus Sicht von Retro-Fans eine der wenigen „Westtüren“ in die Welt der ansonsten eher exotischen japanischen Business-Computer – mit englischsprachigen Handbüchern, CP/M-86 und MS-DOS, aber japanischer Ingenieurs-DNA unter der Haube. In Foren und auf Sammlerseiten wird der APC heute gern als „technologischer Kraken“ beschrieben, dessen Kartenträger an Multibus-Systeme erinnert und dessen 8-Zoll-Laufwerke eine ganz eigene Aura verströmen.

Nicht zuletzt markiert der NEC APC auch die Brücke zur Welt der Textadventures und frühen professionellen Anwendungen: Die Tatsache, dass Infocom seine Klassiker offiziell auf den APC portierte und CAD-Software wie AutoCAD-86 die erweiterten Grafikfähigkeiten nutzen konnte, zeigt, dass der Rechner zwar nie zum Massenstandard wurde, aber durchaus ernstgenommen wurde – als Werkzeug für Büros, Ingenieurbüros und Technikenthusiasten, die bereit waren, für ein in vielerlei Hinsicht überdurchschnittliches System auch überdurchschnittlich viel Geld zu bezahlen. Heute steht der NEC APC damit stellvertretend für einen alternativen Weg, wie Personal Computing Anfang der Achtziger hätte aussehen können, wenn sich IBM-Kompatibilität nicht so kompromisslos durchgesetzt hätte.

 

Atari Touch Me

Atari Touch Me – Das Gedächtnisspiel, das Simon berühmt machte.

Wenn man alten Spielhallenstaub abklopft, findet man manchmal Geräte, bei denen man sich fragt, ob sie wirklich zum Spielen gedacht waren oder ob da jemand einfach zu lange an einer Platine geschnüffelt hat. Atari Touch Me gehört definitiv in diese Kategorie. Vier Knöpfe, vier Töne, ein kleiner Digitalzähler und keinerlei Grafik. Atari selbst nannte das 1974 ernsthaft „TOUCH ME – A MIND BOGGLER!“ („Touch Me – ein Gehirnverdreher!“). Wir nennen es: das wahrscheinlich minimalistischste Gedächtnistraining der Arcade-Geschichte.

Das Prinzip ist schnell erklärt: Der Automat spielt ein „Beep“. Sie drücken den entsprechenden Knopf. Danach kommt „Beep–bloop“, Sie tippen nach. Runde drei: „Beep–bloop–beep“, und so weiter. Atari versprach im Werbeflyer sogar „the first computer game that challenges the mind as well as eye-to-hand coordination skills“ („das erste Computerspiel, das sowohl Geist als auch die Hand-Auge-Koordination herausfordert“). Klingt nach Fitnessstudio fürs Hirn, sieht aber eher aus wie ein wissenschaftliches Prüfgerät, das versehentlich den Weg in die Spielhalle gefunden hat.

Historisch spannend wird Touch Me jedoch durch die Person, die das Ding sah und dachte: Idee gut, Umsetzung mies. Ralph H. Baer – und jetzt aufgepasst – ist nicht irgendwer. Baer gilt als „Vater der Heimvideospiele“, Schöpfer der Magnavox Odyssey und einer der prägenden Erfinder der gesamten Branche. Der Mann steht in einer Reihe mit den großen Ingenieursköpfen der Unterhaltungselektronik und hat mehr zum Thema „Videospiel“ beigetragen, als viele Firmen heute ahnen. Und genau dieser Baer sah Touch Me auf einer Messe und schrieb später: „Good idea but lousy execution“ („Gute Idee, aber schlechte Umsetzung“).

Was folgte, ist Spielzeuggeschichte. Baer und Howard Morrison nahmen das Grundprinzip, polierten es auf und entwickelten 1978 Simon – ja, das Simon, mit den vier farbigen Feldern, harmonischen Tönen und dem legendären „Fang den Rhythmus“-Gefühl. Simon wurde ein riesiger Erfolg, in zeitgenössischen Rückblicken sogar als „one of the top-selling toys“ („eines der meistverkauften Spielzeuge“) bezeichnet. Kinderzimmer weltweit hatten plötzlich eine elektronische Wundertrommel, die Tonfolgen auswarf, und Atari stand ein bisschen so da, als hätte man das Originalrezept erfunden, aber jemand anderes den Kuchen gebacken – und dafür den Preis bekommen.

Der Touch-Me-Automat selbst blieb dagegen eine Randerscheinung. Kein Bildschirm, keine bunte Optik, nur vier Knöpfe und ein Holzdekor, das eher nach Vaters Stereoanlage aussieht. In den Branchenblättern jener Zeit tauchte immerhin ein kurzer Hinweis auf: „Atari introduces Touch Me, an electronic skill game using illuminated push-buttons. Players follow the pattern as it grows.“ („Atari stellt Touch Me vor, ein elektronisches Geschicklichkeitsspiel mit beleuchteten Drucktasten. Die Spieler folgen dem Muster, während es länger wird.“). Begeisterungsstürme klingen anders.

Atari versuchte später, mit einem Handheld nachzuziehen. Das Ding hieß BH-100, lief mit einer 9-Volt-Batterie und sah aus wie die Kreuzung aus Taschenrechner und Frühzeit-Elektronikspiel. Mehrere Spielmodi, vier Schwierigkeitsstufen, Farben, Töne – alles solide, aber nicht annähernd so elegant wie das runde Simon-Design. Wer eines der Geräte heute auf dem Flohmarkt findet, kann sich glücklich schätzen – nicht wegen des Spielspaßes, sondern wegen der Seltenheit.

Unter dem Strich bleibt Touch Me ein sympathischer Dinosaurier: ein kleines, elektronisches Experiment mit großer Wirkung, das die richtige Idee hatte, aber erst der falschen Person über den Weg laufen musste, damit etwas Weltbewegendes daraus wurde. Simon bekam Ruhm, Fernsehwerbung und Millionenverkäufe. Touch Me bekam… na ja, ein paar Archiv-Einträge, einen Museumsplatz und eine Fanbasis aus Retro-Sammlern, die wissen, dass selbst die stillsten Geräte der Spielgeschichte manchmal die lautesten Nachfahren haben.

Oric 1

Oric-1: Der ehrgeizige Heimcomputer aus der zweiten Reihe der 80er Jahre

Source: https://www.computinghistory.org.uk/det/526/Oric-1-48k/

Als der Oric-1 im Jahr 1983 in Großbritannien erschien, traf er in einen Markt, der durch schnelle technische Entwicklungen und wachsenden Preisdruck geprägt war. Tangerine Computer Systems, bis dahin vor allem durch den Microtan 65 in der Bastlerszene bekannt, wollte mit diesem neuen Modell den Schritt vom Baukastenrechner zum vollwertigen Heimcomputer schaffen. Für die Vermarktung wurde Oric Products International Ltd gegründet, denn man plante bewusst ein Gerät, das im Massenmarkt bestehen sollte, mit einem klaren Ziel: eine Alternative zum ZX Spectrum zu bieten, die preislich konkurrenzfähig blieb, aber in mehreren Punkten technisch überzeugender wirken sollte. Die gesamte Entwicklung wird heute dem britischen Tangerine-Team zugeschrieben; einzelne namentliche Hauptentwickler sind in zeitgenössischen Dokumenten nicht gesichert überliefert.

Der Rechner basierte auf dem MOS Technology 6502A mit 1 MHz, einem Prozessor, der sich in zahlreichen erfolgreichen Heimcomputern der Zeit bewährt hatte. Der Oric-1 erschien in zwei RAM-Varianten, 16 KB und 48 KB, wobei die größere Version den Markt dominierte. Das 16-KB-ROM enthielt das Betriebssystem und ein speziell an den Rechner angepasstes BASIC. Die Tastatur bestand aus einzelnen Hartplastiktasten; zeitgenössische Berichte beurteilten sie unterschiedlich, von „funktionell“ bis „gewöhnungsbedürftig“, jedoch war sie klar getrennt beweglich und unterschied sich damit deutlich vom Gummitastatursystem des Spectrum. Für die interne Logik nutzte Oric einen kundenspezifischen Gate-Array-Baustein, der mehrere Funktionen bündelte und für die Kostenoptimierung eine entscheidende Rolle spielte.

Die Grafikmodi boten 240 × 200 Pixel bei acht Farben sowie 40-Zeichen-Textmodi, jeweils mit bestimmten Einschränkungen durch Farbblockbildung, die für Heimcomputer dieser Generation typisch waren. Der AY-3-8912 als dreikanaliger Tonchip stellte eine echte Mehrstimmigkeit bereit und wurde in Testberichten positiv erwähnt, besonders im Vergleich zu einfacheren Tonausgaben anderer preisgünstiger Geräte. Die Kassetten­schnittstelle war offiziell für Datenraten zwischen 300 und 2400 Baud ausgelegt, wobei Testberichte eher von mittleren, zuverlässigeren Werten ausgingen. Diese Angaben entsprechen dem, was aus britischen und französischen Magazinen des Jahres 1983 dokumentiert ist.

Auf dem britischen Markt erhielt der Oric-1 zunächst beachtliche Aufmerksamkeit, doch das Softwareangebot wuchs langsamer als bei seinen direkten Konkurrenten. Die Spectrum-Plattform hatte bereits einen deutlichen Vorsprung, und auch der Preisvorteil im unteren Marktsegment spielte Sinclair weiterhin in die Hände. Auffällig erfolgreich entwickelte sich dagegen der französische Markt, wo Oric durch lokale Vertriebsstrukturen deutlich präsenter war und eine engagierte Anwenderszene entstand. Der Rechner blieb dennoch im Schatten des Spectrum und des Commodore 64, deren Marktanteile schneller stiegen und deren Softwarebibliotheken durch größere Verlage und etablierte Entwicklerstudios erweitert wurden.

Preislich positionierte sich der Oric-1 aggressiv. Zeitgenössische Anzeigen führen für die Markteinführung rund £99.95 für die 16-KB-Version und £169.95 für die 48-KB-Variante auf. Inflationsbereinigt entspricht dies heute ungefähr 370 Euro beziehungsweise etwa 630 Euro. Dieser Preisrahmen zeigt klar, wie Oric seine Rolle sah: preislich näher beim Spectrum, technisch näher an Geräten wie dem VC-20 oder dem Atari 400, aber ohne deren teils höheren Endverbraucherpreise. Die frühen Produktionsreihen des Oric-1 sind in einigen Testberichten durch Hinweise auf bestimmte ROM-Revisionen und vereinzelt Tape-Handling-Probleme dokumentiert, doch darüber hinausgehende Aussagen zu systematischen Fertigungsfehlern lassen sich nicht belegen.

Bereits 1984 wurde der Oric-1 durch den Oric Atmos abgelöst, der ein überarbeitetes ROM und eine verbesserte Tastatur erhielt. Rückblickend bleibt der Oric-1 ein Beispiel für die Vielfalt der britischen Heimcomputerentwicklung zu Beginn der achtziger Jahre: technisch solide, klar strukturiert und mit einem Leistungsspektrum, das ihn theoretisch gut zwischen seinen Wettbewerbern hätte positionieren können. Dass er letztlich nicht die gleiche Marktdurchdringung erreichte, lag weniger an seiner technischen Basis als an der Dynamik eines Marktes, in dem Sinclair, Commodore und zunehmend auch internationale Hersteller bereits dominierende Rollen einnahmen. Dennoch markiert der Oric-1 einen wichtigen Moment dieser Ära, in der mehrere britische Firmen versuchten, eigene Architekturen zu etablieren und damit ihre Unabhängigkeit gegenüber der wachsenden Konkurrenz zu bewahren.