Vom QDOS zu MS-DOS: Wie ein improvisiertes Betriebssystem zur Grundlage der PC-Ära wurde

Seattle, Frühjahr 1980. In den Büroräumen von Seattle Computer Products sitzt ein junger Entwickler über einem neuen Projekt. Die Firma hat gerade eine Prozessorplatine für den Intel 8086 entwickelt – eine leistungsfähige 16-Bit-CPU, die auf dem damals verbreiteten S-100-Bus eingesetzt werden soll. Doch ohne ein Betriebssystem bleibt die Hardware kaum nutzbar. Also beginnt der Ingenieur Tim Paterson, ein eigenes System zu schreiben. In wenigen Wochen entsteht ein funktionierendes System, das intern den pragmatischen Namen „Quick and Dirty Operating System“ erhält. Jahrzehnte später erinnerte sich Paterson nüchtern an diese Situation: Er habe das System schlicht geschrieben, „weil wir ein Betriebssystem für die 8086-Karte brauchten“, und damals nicht gedacht, dass daraus einmal etwas Bedeutendes entstehen würde.

Als im August 1981 der IBM PC vorgestellt wurde, lief bereits eine weiterentwickelte Version dieses Systems auf der neuen Maschine. In den folgenden Jahren verbreiteten sich Varianten dieses Systems auf hunderten Millionen Personal Computern weltweit. Bis Anfang der 1990er-Jahre hatte Microsoft bereits rund 100 Millionen Lizenzen von MS-DOS verkauft. Hinzu kamen kompatible Varianten wie IBM PC-DOS oder DR-DOS sowie die später auf DOS aufbauenden Systeme Windows 95, Windows 98 und Windows Me, deren installierte Basis die tatsächliche Verbreitung noch erheblich vergrößerte. In vielen Regionen kamen zudem große Mengen nicht lizenzierter Kopien hinzu. Der Ursprung dieser Entwicklung lag jedoch nicht bei IBM und auch nicht bei Microsoft, sondern bei einem kleinen Hardwareunternehmen im Bundesstaat Washington. Dort entstand 1980 ein Betriebssystem namens 86-DOS, das ursprünglich nur dazu gedacht war, eine neue Prozessorplattform überhaupt nutzbar zu machen.

Seattle Computer Products war zu dieser Zeit ein vergleichsweise kleines Unternehmen aus der Region Seattle, das vor allem Erweiterungskarten und Prozessorboards für den S-100-Bus herstellte. Gegründet wurde die Firma 1978 von Rod Brock. Der Markt für Mikrocomputer befand sich damals in einer Phase rasanten Wachstums, doch die Softwarelandschaft war stark fragmentiert. Der De-facto-Standard war CP/M von Digital Research, ein Betriebssystem für 8-Bit-Prozessoren wie den Intel 8080 oder Zilog Z80. Viele Hersteller warteten auf eine angekündigte 16-Bit-Variante namens CP/M-86, doch deren Entwicklung verzögerte sich.

Für Unternehmen wie Seattle Computer Products stellte das ein praktisches Problem dar. Die neue 8086-Hardware konnte zwar technisch überzeugen, doch ohne ein Betriebssystem war sie für Entwickler und Anwender kaum attraktiv. In dieser Situation begann Tim Paterson im Frühjahr 1980 mit der Entwicklung eines eigenen Systems.

Das Projekt erhielt intern zunächst den Namen QDOS, eine Abkürzung für „Quick and Dirty Operating System“. In frühen Anzeigen und Produktinformationen von Seattle Computer Products wurde diese Bezeichnung zeitweise auch öffentlich verwendet. Schon bald entschied sich das Unternehmen jedoch für den Namen 86-DOS, der sich direkt auf den verwendeten Intel-Prozessor bezog und professioneller wirkte.

Technisch war das System bemerkenswert kompakt. Der ursprüngliche Kernel bestand aus nur etwa sechs Kilobyte Assemblercode, eine Größe, die selbst für damalige Verhältnisse ungewöhnlich klein war. Dennoch enthielt das System bereits die grundlegenden Funktionen eines Diskettenbetriebssystems: einen Kommandointerpreter, Dateiverwaltung sowie eine Programmierschnittstelle, über die Anwendungen mit dem Betriebssystem kommunizieren konnten.

Bei der Gestaltung orientierte sich Paterson teilweise an CP/M, das damals praktisch der Industriestandard für Mikrocomputer darstellte. Viele Befehle und Strukturen wurden bewusst ähnlich gehalten, um Entwicklern den Übergang zu erleichtern und die Portierung bestehender Programme zu vereinfachen. Gleichzeitig versuchte er jedoch, einige Schwächen des Vorbilds zu vermeiden. Besonders kritisch sah er die Art und Weise, wie CP/M Diskettenzugriffe organisierte. Das System benötigte oft mehrere Umdrehungen der Diskette, um alle benötigten Daten eines Tracks einzulesen, was den Zugriff vergleichsweise langsam machte. Paterson versuchte deshalb, die Diskettenorganisation effizienter zu gestalten und unnötige Rotationen zu vermeiden.

Eine wichtige technische Entscheidung war die Nutzung einer File Allocation Table (FAT) zur Verwaltung von Dateien. Diese Struktur hatte Paterson zuvor aus Microsofts Disk-BASIC kennengelernt und adaptierte sie für sein Betriebssystem. Das FAT-Dateisystem erlaubte eine flexiblere Organisation von Dateien und wurde später zu einem der langlebigsten technischen Elemente der gesamten DOS-Familie.

Die ersten Versionen von 86-DOS waren bewusst minimalistisch gehalten. Das System bot nur eine begrenzte Zahl grundlegender Befehle – etwa zwanzig interne und externe Kommandos –, mit denen Dateien verwaltet und Programme gestartet werden konnten. Für Entwickler reichte diese Umgebung jedoch aus, um erste Anwendungen für den neuen 16-Bit-Prozessor zu schreiben.

Seattle Computer Products begann 1980 damit, seine 8086-Hardware zusammen mit 86-DOS anzubieten. Anzeigen aus dieser Zeit zeigen Komplettpakete aus CPU-Karte, Support-Board und Betriebssystem für Entwickler und Systembauer. Für das Unternehmen selbst war die Software jedoch vor allem ein praktisches Werkzeug, um die eigene Hardware überhaupt nutzbar zu machen.

Während diese Entwicklung im Nordwesten der USA stattfand, arbeitete IBM an einem Projekt, das später als IBM PC bekannt werden sollte. Um die Entwicklung zu beschleunigen, entschied sich das Unternehmen bewusst gegen eine vollständig proprietäre Architektur. Stattdessen sollten möglichst viele Komponenten aus bereits verfügbaren Standardbausteinen bestehen. Für den Prozessor fiel die Wahl auf den Intel 8088, eine Variante des 8086 mit 8-Bit-Datenbus.

Auch beim Betriebssystem wollte IBM auf vorhandene Lösungen zurückgreifen. Der naheliegendste Kandidat war Digital Research, dessen CP/M damals den Markt für Mikrocomputer dominierte. Im Sommer 1980 nahmen IBM-Vertreter daher Kontakt mit dem Unternehmen auf, um über eine Version namens CP/M-86 für den neuen Rechner zu sprechen.

Die Gespräche verliefen jedoch nicht wie geplant. Verschiedene Berichte schildern unterschiedliche Details, doch fest steht, dass keine Einigung zustande kam. Eine häufig erzählte Version besagt, dass Gary Kildall, der Gründer von Digital Research, an diesem Tag nicht persönlich an den Verhandlungen teilnahm und die Gespräche zunächst von seiner Frau Dorothy McEwen geführt wurden. Sie weigerte sich, eine von IBM verlangte Geheimhaltungsvereinbarung zu unterschreiben, ohne sie vorher juristisch prüfen zu lassen. Als Kildall später zurückkehrte, war die Situation bereits festgefahren. Ob es danach noch weitere Gespräche gab, ist unter Historikern umstritten. Am Ende kam jedoch kein Vertrag zustande.

IBM suchte daher nach einer Alternative und wandte sich an ein kleines Unternehmen aus Seattle, das bereits Software für verschiedene Mikrocomputer geliefert hatte: Microsoft.

Microsoft war zu diesem Zeitpunkt vor allem als Hersteller von Programmiersprachen bekannt. Besonders Microsoft BASIC war auf zahlreichen Mikrocomputern der späten 1970er-Jahre im Einsatz. IBM beauftragte das Unternehmen daher zunächst damit, eine BASIC-Version für den neuen Personal Computer bereitzustellen. Erst im Verlauf dieser Zusammenarbeit entstand auch die Frage nach einem geeigneten Betriebssystem.

Microsoft selbst besaß jedoch noch keines. Hier kam eine Erinnerung von Paul Allen, dem Mitgründer des Unternehmens, ins Spiel. Allen wusste von dem Betriebssystem, das bei Seattle Computer Products für den 8086 entwickelt worden war. Für Microsoft bot sich damit eine Möglichkeit, schnell eine Grundlage für ein neues PC-Betriebssystem zu erhalten.

Ende 1980 erwarb Microsoft zunächst eine Lizenz für 86-DOS von Seattle Computer Products. Kurz darauf entschied sich das Unternehmen jedoch, sämtliche Rechte an der Software vollständig zu übernehmen. Durch diesen Schritt erhielt Microsoft die Kontrolle über die Weiterentwicklung des Systems und konnte es auch unabhängig an andere Hersteller lizenzieren.

Um das System rasch an die Anforderungen des IBM-PC-Projekts anzupassen, holte Microsoft schließlich auch Tim Paterson selbst ins Unternehmen. Der Entwickler wechselte 1981 von Seattle Computer Products nach Redmond und arbeitete dort an der Anpassung seines Systems für den Intel 8088 des neuen Personal Computers.

Erst im Laufe dieser Arbeit wurde ihm klar, für welchen Kunden das Projekt tatsächlich bestimmt war. In späteren Interviews erinnerte sich Paterson, dass Microsoft intern zunächst lediglich von einem neuen Computer eines großen Herstellers gesprochen habe. Erst nach und nach wurde deutlich, dass es sich um den geplanten Personal Computer von IBM handelte. Für Paterson, der wenige Monate zuvor noch ein Betriebssystem für eine S-100-Prozessorplatine geschrieben hatte, bedeutete diese Erkenntnis eine unerwartete Wendung: Aus einem improvisierten Werkzeug für eine einzelne Hardwareplattform wurde plötzlich das Betriebssystem eines Rechners, der kurz darauf zu einer neuen Standardplattform der Personal-Computer-Industrie werden sollte.

Als der IBM PC im August 1981 schließlich vorgestellt wurde, erschien das Betriebssystem unter dem Namen PC-DOS. Parallel dazu behielt Microsoft jedoch das Recht, das System auch unabhängig von IBM zu lizenzieren und unter eigener Bezeichnung zu vertreiben.

Diese Vertragsstruktur erwies sich im Rückblick als entscheidend. Während IBM seine eigene Variante des Systems verwendete, konnte Microsoft das Betriebssystem an die wachsende Zahl von IBM-PC-kompatiblen Computern lizenzieren. Als in den folgenden Jahren immer mehr Hersteller sogenannte PC-Klone auf den Markt brachten, wurde MS-DOS zum gemeinsamen Softwarefundament dieser neuen Computerplattform.

Aus dem kleinen Projekt, das Tim Paterson ursprünglich als pragmatische Lösung für eine einzelne Prozessorplatine geschrieben hatte, entstand so die Grundlage für MS-DOS. In den folgenden Jahren wurde dieses System zum dominierenden Betriebssystem der PC-Welt und prägte eine ganze Generation von Personal Computern.

Die Geschichte von 86-DOS zeigt damit eine typische Konstellation der frühen PC-Industrie: Ein kleines Hardwareunternehmen löst ein unmittelbares technisches Problem, ein Softwareanbieter erkennt das größere Marktpotenzial – und aus einer pragmatischen Zwischenlösung entsteht schließlich eine der prägendsten Plattformen der Computergeschichte.

 

688 Attack Sub (1989): U-Boot-Simulation im Kalten Krieg

Als Ende der 1980er-Jahre mehrere militärische Simulationen auf Heimcomputern erschienen, war das Interesse an moderner U-Boot-Technik plötzlich ungewöhnlich groß. Einen wichtigen Anteil daran hatte der internationale Erfolg von Tom Clancys Roman The Hunt for Red October aus dem Jahr 1984, der erstmals einem breiten Publikum erklärte, wie Sonar, Jagd-U-Boote und taktische Manöver unter Wasser funktionieren. Gleichzeitig wurden Heimcomputer wie IBM-PC, Amiga und Atari ST leistungsfähig genug, um Instrumente, Karten und taktische Anzeigen gleichzeitig darzustellen. In dieses Umfeld hinein veröffentlichte Electronic Arts im Jahr 1989 die U-Boot-Simulation 688 Attack Sub, die den Spieler in die Rolle eines Kommandanten eines modernen nuklearen Jagd-U-Bootes versetzte.

Der Titel verweist direkt auf die Los-Angeles-Klasse (SSN-688) der US-Navy, eines der wichtigsten Jagd-U-Boote der späten Phase des Kalten Krieges. Alternativ kann der Spieler ein sowjetisches Boot der Alfa-Klasse steuern. Diese Wahl spiegelt die militärische Konfrontation der damaligen Zeit wider und erzeugt zugleich unterschiedliche Spielstile. Während das amerikanische Boot über fortschrittlichere Sensorik und mehr elektronische Unterstützung verfügt, erreicht das sowjetische Modell höhere Geschwindigkeiten, besitzt jedoch weniger technische Hilfsmittel. Selbst optisch unterscheiden sich beide Varianten: In der sowjetischen Version erscheinen einige Anzeigen mit kyrillischen Schriftzeichen, obwohl die Spieltexte weiterhin englisch bleiben.

Statt spektakulärer Außenansichten konzentriert sich 688 Attack Sub ganz auf die Instrumente im Inneren eines Jagd-U-Bootes. Der Spieler bewegt sich zwischen verschiedenen Stationen der Kommandozentrale – etwa Sonarraum, Navigationskonsole, Waffensteuerung und Periskop – und bedient dort die Systeme des Bootes.

Die Jagd beginnt meist unspektakulär: Auf dem Sonar taucht zunächst nur eine unklare Geräuschsignatur auf. Ist es ein Handelsschiff, ein Zerstörer oder ein feindliches U-Boot? Erst durch längere Beobachtung oder aktives Sonar lässt sich der Kontakt identifizieren. Gleichzeitig muss der Spieler darauf achten, selbst möglichst unentdeckt zu bleiben.

Geschwindigkeit, Kurs und Tiefe beeinflussen, wie leicht das eigene Boot geortet werden kann. Fährt man zu schnell, entsteht Kavitation – Luftblasen an den Propellern erzeugen Geräusche, die gegnerisches Sonar leicht aufspüren kann. Auch Thermoklinen, Temperaturschichten im Wasser, können die Ausbreitung von Schall verändern. Ein zusätzliches Schleppsonar, das sogenannte Towed Array, verbessert zwar die Hörfähigkeit, reduziert aber die Geschwindigkeit des Bootes.

Erst wenn Position und Ziel eindeutig sind, beginnt der Angriff. Torpedos müssen geladen, ausgerichtet und im richtigen Moment abgefeuert werden. Danach verfolgt der Spieler auf der taktischen Karte, ob der Angriff erfolgreich ist – während gegnerische Schiffe versuchen, mit Täuschkörpern oder eigenen Torpedos zu reagieren. Viele Missionen bestehen deshalb weniger aus schnellen Gefechten als aus nervenaufreibender Geduld unter Wasser.

Die ursprüngliche Version des Spiels wurde für MS-DOS entwickelt und setzte stark auf Mausbedienung. Instrumente und Anzeigen konnten direkt angeklickt werden, was eine präzise Steuerung der verschiedenen Systeme ermöglichte. Auch die Versionen für Amiga und Atari ST übernahmen dieses Konzept weitgehend, da diese Systeme ebenfalls standardmäßig mit einer Maus betrieben wurden. Bei der späteren Mega-Drive-Fassung musste die Benutzeroberfläche hingegen an die Steuerung eines Gamepads angepasst werden. Statt direkter Mausinteraktion bewegt der Spieler dort einen Cursor mit dem Steuerkreuz zwischen den einzelnen Stationen des U-Boots und aktiviert sie per Tastendruck. Dadurch blieb die Struktur der Simulation erhalten, obwohl die Bedienung vereinfacht werden musste.

Zeitgenössische Magazine reagierten überwiegend positiv auf die Simulation. Die französische Zeitschrift Génération 4 bezeichnete das Spiel als „la plus belle et la plus complète jamais sortie sur compatibles“ und vergab hohe Bewertungen für Grafik und Realismus. In deutschen Magazinen wurde besonders die Atmosphäre der Unterwasserjagd hervorgehoben. Ein Test im Happy Computer Special 5/89 beschreibt die Situation etwa so: „Der Horchposten lauscht gespannt auf die Schraubengeräusche des Zerstörers…“. Das Magazin lobte vor allem die taktischen Möglichkeiten der Simulation.

Internationale Wertungen lagen meist im Bereich zwischen etwa 80 und 90 Prozent. Magazine wie Commodore Computing International, The Games Machine oder Amiga Format vergaben entsprechend hohe Bewertungen und bestätigten damit den Eindruck einer technisch anspruchsvollen Simulation.

Die Entwicklung des Spiels wurde von John W. Ratcliff geleitet, der gemeinsam mit Paul Grace und Randall Breen auch das Design verantwortete. Für die grafische Gestaltung waren Michael Kosaka und Wilfredo J. Aguilar zuständig. Die Soundeffekte stammen von Rob Hubbard, einem der bekanntesten Komponisten der Heimcomputerära.

Auch die Präsentation des Spiels war ungewöhnlich. Die Verpackung der PC-Version war im Stil eines militärischen Geheimdokuments gestaltet und trug entsprechende Hinweise wie „CLASSIFIED“. Obwohl auf der Box ausdrücklich stand, dass das Spiel nicht kopiergeschützt sei, musste der Spieler vor Beginn einer Mission einen Sicherheitscode eingeben. Dieser Code befand sich im Handbuch und musste durch das Nachschlagen eines bestimmten U-Boot-Namens gefunden werden. Die Codes waren über das gesamte Handbuch verteilt und dienten damit als indirekter Kopierschutz.

Die Erstauflage enthielt außerdem ein kleines Extra: einen „688 Hunter/Killer“-Patch, der unter der Schrumpffolie der Verpackung lag. Weitere Besonderheiten waren die Möglichkeit, zwei Spieler über Modem oder Null-Modem-Kabel gegeneinander antreten zu lassen, sowie eine Installation, bei der der Spieler seinen Vornamen eingeben musste. Dieser Name wurde anschließend auf der Diskette gespeichert und erschien in späteren Spielsitzungen automatisch wieder.

Rückblickend gilt 688 Attack Sub als einer der frühen Vertreter moderner U-Boot-Simulationen auf Heimcomputern. Viele der hier verwendeten Ideen – insbesondere die Kombination aus Sonaranalyse, taktischer Navigation und realistischen Sensoren – wurden später weiterentwickelt. Hauptentwickler John W. Ratcliff arbeitete in den folgenden Jahren an weiteren Titeln dieses Genres, darunter SSN-21 Seawolf und schließlich Jane’s 688(I) Hunter/Killer, die das Konzept deutlich ausbauten.

 

Unitron U-2200: Ein Apple-II-Klon mit integrierter CP/M-Doppelarchitektur

Der Unitron U-2200 gehört zu jener Generation von Mikrocomputern der frühen 1980er-Jahre, die in einer Phase entstanden, als sich noch keine einheitliche Architektur im Personal-Computer-Markt durchgesetzt hatte. Neben Systemen wie dem Apple II, verschiedenen CP/M-Rechnern und den ersten IBM-PC-Kompatiblen experimentierten zahlreiche kleinere Hersteller mit Maschinen, die mehrere Softwarewelten gleichzeitig unterstützen sollten. Der U-2200 wurde von der Firma Unitron in Taiwan produziert und über Händler unter anderem in Großbritannien, Australien und Teilen Europas vertrieben. Anzeigen aus Fachzeitschriften wie Personal Computer World aus dem Jahr 1984 bewarben das System ausdrücklich mit seiner Kombination aus Apple-II- und CP/M-Kompatibilität.

Technisch basierte der Rechner auf einer Dual-Prozessor-Architektur, die zwei damals wichtige Plattformen miteinander verband. Neben dem für Apple-II-Computer typischen MOS 6502 besaß das System zusätzlich einen Zilog Z80. Während der 6502 die Apple-kompatible Betriebsart ermöglichte, diente der Z80 vor allem zum Betrieb des weit verbreiteten CP/M-Betriebssystems. Anders als beim originalen Apple II, bei dem ein Z80 üblicherweise über eine Steckkarte ergänzt werden musste, war diese Kombination beim Unitron bereits Teil der Grundkonfiguration. Zeitgenössische Werbung stellte diese Eigenschaft entsprechend als zentrales Merkmal heraus.

Die übrigen technischen Eigenschaften orientierten sich deutlich am Apple-II-Design. Der Rechner verfügte über 64 KB Arbeitsspeicher, der auf 128 KB erweitert werden konnte, sowie über etwa 24 KB ROM. Der Textmodus bot eine Darstellung von 40 × 24 Zeichen, während mit einer Erweiterungskarte auch eine 80-Zeichen-Darstellung möglich war. Für grafische Anwendungen standen zwei klassische Apple-Formate zur Verfügung: ein Low-Resolution-Modus mit 40 × 48 Bildpunkten und bis zu 16 Farben sowie ein High-Resolution-Modus mit 280 × 192 Pixeln und sechs Farben.

Auch die Schnittstellen spiegelten die typische Ausstattung eines Mikrocomputers dieser Zeit wider. Der U-2200 bot Anschlüsse für externe 5¼-Zoll-Diskettenlaufwerke, ein Kassetteninterface, Joystick- bzw. Game-Paddle-Ports sowie einen Videoausgang zum Anschluss eines Monitors. Ein einfacher interner Lautsprecher sorgte für akustische Signale.

In der äußeren Gestaltung unterschied sich das System etwas von vielen Apple-II-Klonen. Die Tastatur war als separates Gerät ausgeführt und wurde über ein Spiralkabel mit dem Hauptgehäuse verbunden. Das Gehäuse selbst war schlicht gestaltet und trug auf der Vorderseite lediglich den Anschluss für die Tastatur sowie eine Betriebs-LED. Intern standen mehrere Erweiterungssteckplätze zur Verfügung, die mit Apple-kompatiblen Karten bestückt werden konnten, etwa für Diskettencontroller oder eine 80-Zeichen-Karte. Die Zahl dieser Steckplätze war jedoch geringer als beim originalen Apple II.

Der Unitron U-2200 wurde Anfang der 1980er über Händler vertrieben und unter anderem in Anzeigen der britischen Fachzeitschrift Personal Computer World beworben. Diese Anzeigen nennen die technischen Eigenschaften des Rechners – darunter die Dual-Prozessor-Architektur aus MOS 6502 und Zilog Z80, die Apple-II-Kompatibilität sowie die CP/M-Fähigkeit –, enthalten jedoch keine konkrete Preisangabe. Ein eindeutig belegbarer Verkaufspreis des Systems ist in den derzeit verfügbaren Quellen bislang nicht nachweisbar. Zum Vergleich: Ein Apple IIe kostete im Vereinigten Königreich um 1983/84 typischerweise etwa £1.200 bis £1.400 als Basissystem. Viele Apple-II-kompatible Rechner lagen darunter und bewegten sich je nach Ausstattung häufig im Bereich von etwa £700 bis £1.100. In welchem exakten Preisbereich der Unitron U-2200 angeboten wurde, lässt sich aus den bekannten Quellen jedoch nicht eindeutig rekonstruieren.

 

Fujitsu FM-77AV40: Erweiterte Variante der AV-Generation

Als Fujitsu im Oktober 1986 seine neue Generation der sogenannten „Audio-Visual Computer“ vorstellte, erschien neben dem Basismodell auch eine höher ausgestattete Variante. Der Fujitsu FM‑77AV40 gehörte zur gleichen Gerätefamilie wie der Fujitsu FM‑77AV20 und basierte auf derselben technischen Plattform. Architektur, Grafiksystem und Klangtechnik entsprechen daher im Wesentlichen dem bereits beschriebenen FM-77AV20; eine ausführliche Darstellung der zugrunde liegenden Technik findet sich im entsprechenden Artikel zu diesem Modell. Der AV40 wurde von Fujitsu als leistungsstärkere Ausstattungsvariante innerhalb derselben Generation positioniert.

Äußerlich unterschieden sich die beiden Modelle kaum voneinander. Das Gehäuse, die Anschlussanordnung sowie die separate Tastatureinheit entsprachen dem gleichen Design, das Fujitsu für die AV-Serie eingeführt hatte. Auch die grundlegende Systemarchitektur blieb unverändert: Beide Rechner verwendeten weiterhin das für die FM-Reihe typische Dual-CPU-Konzept mit zwei Prozessoren der 6809-Familie, bei dem eine Haupt-CPU die Programmlogik ausführt, während eine zweite CPU bestimmte Steuer- und Grafikaufgaben übernimmt. Ebenso identisch waren die grundlegenden Grafikmodi der AV-Generation, darunter der 320×200-Modus mit bis zu 4096 gleichzeitig darstellbaren Farben sowie der 640×200-Modus mit acht Farben. Auch das FM-Sound-Subsystem mit zusätzlichen PSG-Kanälen entsprach der Ausstattung des AV20.

Die Unterschiede zwischen beiden Geräten lagen vor allem in der Speicher- und Laufwerksausstattung. Während der FM-77AV20 mit 128 KB Arbeitsspeicher ausgeliefert wurde und auf 192 KB erweitert werden konnte, verfügte der FM-77AV40 bereits ab Werk über 256 KB RAM. Diese Erweiterung war keineswegs trivial, denn sie erlaubte umfangreicheren Programmen sowie grafikintensiveren Anwendungen mehr Spielraum im Hauptspeicher. Gerade bei komplexeren Spielen oder bei Software, die mehrere Grafikpuffer nutzte, war zusätzlicher RAM ein spürbarer Vorteil.

Auch bei der Diskettenausstattung positionierte Fujitsu das Modell höher. Während beim AV20 Varianten mit einem oder zwei Laufwerken existierten, wurde der AV40 typischerweise mit zwei 3,5-Zoll-Diskettenlaufwerken ausgeliefert. Diese arbeiteten mit 640 KB pro Diskette, ein Format, das sich im japanischen Heimcomputermarkt bereits etabliert hatte. Für Anwender bedeutete diese Ausstattung einen komfortableren Umgang mit Software und Datenträgern, da Programme nicht mehr ständig zwischen verschiedenen Disketten gewechselt werden mussten.

Preislich lag das Modell entsprechend über dem Basissystem. Der FM-77AV40 wurde bei seiner Einführung zu einem deutlich höheren Preis angeboten als der AV20 und richtete sich damit eher an ambitionierte Nutzer oder an Käufer, die ihren Computer nicht nur für einfache BASIC-Programme, sondern auch für anspruchsvollere Anwendungen einsetzen wollten. Fujitsu verfolgte damit eine Strategie, die im japanischen Heimcomputermarkt jener Zeit durchaus üblich war: Eine gemeinsame Plattform wurde in mehreren Ausstattungsvarianten angeboten, um unterschiedliche Preis- und Leistungssegmente abzudecken.

Innerhalb der FM-77AV-Serie markiert der AV40 somit die ausgebautere Konfiguration derselben Architektur. Technisch handelte es sich nicht um ein völlig neues System, sondern um eine Erweiterung der bestehenden Plattform mit mehr Speicher und einer vollständigeren Standardausstattung. Gerade diese Modellpolitik – identische Architektur, aber unterschiedliche Ausstattungsstufen – war in der japanischen Computerindustrie der 1980er-Jahre weit verbreitet und findet sich ebenso bei konkurrierenden Systemfamilien wie der NEC PC‑8801 oder der Sharp X1.

Der FM-77AV40 lässt sich daher am besten als komfortabler ausgestattete Variante des FM-77AV20 verstehen: ein Rechner mit derselben technischen Grundlage, jedoch erweitertem Arbeitsspeicher und einer umfangreicheren Diskettenkonfiguration, der innerhalb der AV-Generation die obere Ausstattungsstufe repräsentierte.

Fujitsu FM-77AV20: 4096 Farben im japanischen Heimcomputer

Fujitsu FM-77AV20: 4096 Farben im japanischen Heimcomputer

Mitte der 1980er-Jahre befand sich der japanische Heimcomputermarkt in einer besonders lebhaften Phase. Während in Europa Systeme wie Commodore 64, ZX Spectrum oder Amstrad CPC die Wohnzimmer prägten und sich in den USA zunehmend IBM-kompatible PCs durchsetzten, entwickelte sich in Japan eine eigenständige Computerlandschaft mit mehreren konkurrierenden Plattformen. In den Elektronikgeschäften von Tokio oder Osaka standen unterschiedliche Systeme nebeneinander: NEC bot seine populäre PC-8801-Serie an, Sharp vermarktete die X1-Reihe, und zahlreiche Hersteller unterstützten den MSX-Standard. In diesem Umfeld positionierte Fujitsu seine FM-Computer als leistungsfähige Heimrechner mit erweiterten Grafik- und Klangfähigkeiten.

Die Grundlage dieser Plattform bildete der FM-7, den Fujitsu 1982 vorgestellt hatte. Sein auffälligstes Merkmal war eine ungewöhnliche Architektur mit zwei Prozessoren, die unterschiedliche Aufgaben übernahmen. Dieses Konzept blieb auch bei späteren Modellen der Reihe erhalten und wurde in der FM-77AV-Generation weitergeführt. Der FM-77AV20 gehört zu dieser Familie und wurde von Fujitsu am 23. Oktober 1986 vorgestellt. Die Geräte dieser Serie vermarktete der Hersteller ausdrücklich als „Audio-Visual Computer“, also als Systeme, die Grafik, Klang und audiovisuelle Erweiterungen stärker betonen sollten als frühere Heimcomputer derselben Linie.

Im Zentrum des Systems steht weiterhin die charakteristische Dual-CPU-Architektur der FM-Reihe. Als Hauptprozessor arbeitet ein MBL68B09E mit 2 MHz, ergänzt durch einen zweiten MBL68B09E, der ebenfalls mit 2 MHz betrieben wird und bestimmte Steuer- und Grafikaufgaben übernimmt. Diese Aufgabenteilung war innerhalb der FM-Familie ein markantes Konstruktionsmerkmal: Während die Haupt-CPU die Programmlogik ausführte, konnte die Sub-CPU Teile der Bildverarbeitung und Systemsteuerung übernehmen. Für Entwickler bedeutete dies eine leistungsfähige, aber auch anspruchsvolle Architektur, die ein sorgfältiges Zusammenspiel beider Prozessoren erforderte.

Zur Grundausstattung gehörten 128 KB Hauptspeicher, ausbaubar auf 192 KB, sowie 96 KB Videospeicher. Für einen 8-Bit-Heimcomputer der Mitte der 1980er-Jahre war dies eine durchaus großzügige Ausstattung und unterstrich den Anspruch der AV-Serie, grafisch anspruchsvollere Anwendungen zu ermöglichen.

Besonders auffällig war die Grafikarchitektur des Systems. Zu den zentralen Grafikmodi gehörten 640 × 200 Pixel mit acht gleichzeitig darstellbaren Farben sowie 320 × 200 Pixel mit bis zu 4096 gleichzeitig sichtbaren Farben. Diese Fähigkeit war für einen Heimcomputer dieser Klasse ungewöhnlich. Das Computer Museum der Information Processing Society of Japan (IPSJ) – einer der wichtigsten japanischen Fachgesellschaften für Informatik – hebt die FM77AV-Reihe ausdrücklich als ein System hervor, das im Heimcomputerbereich die bis dahin typische „8-Farben-Grenze“ überschritt. Im Vergleich dazu arbeiteten viele bekannte Heimcomputer jener Jahre mit deutlich kleineren Farbpaletten: Der Commodore 64 verfügte über eine Palette von 16 Farben, der ZX Spectrum über acht Grundfarben mit Helligkeitsvariante, und auch viele frühe japanische Systeme blieben im Alltag näher an klassischen 8- oder 16-Farben-Konzepten. Vor diesem Hintergrund war die 4096-Farben-Darstellung der FM-77AV-Serie ein bemerkenswertes Merkmal und ein wichtiger Bestandteil von Fujitsus Marketingstrategie.

Auch im Klangbereich erhielt die AV-Generation ein deutliches Upgrade. Der Rechner bot FM-Sound und PSG-Sound mit jeweils drei Stimmen und acht Oktaven, ergänzt durch einen einfachen System-Beeper. Diese Kombination ermöglichte sowohl klassische Rechteckklänge als auch komplexere FM-Synthese und verlieh vielen Anwendungen einen deutlich reichhaltigeren Klang als bei früheren Heimcomputern der FM-Serie. Angaben zu dieser Ausstattung finden sich unter anderem im Oh!FM-7 Museum, einem umfangreichen Online-Archiv zur Fujitsu-FM-Computerfamilie, das aus der historischen japanischen Computerzeitschrift Oh!FM hervorgegangen ist.

Als BASIC-Umgebung stand im ROM F-BASIC V3.02 zur Verfügung; zusätzlich wurde F-BASIC V3.3 L20 auf einer Einführungsdiskette ausgeliefert. BASIC spielte im japanischen Heimcomputermarkt weiterhin eine zentrale Rolle, da viele Programme aus Computerzeitschriften oder Lehrbüchern abgetippt und anschließend verändert oder erweitert wurden. Auch die FM-Serie lebte stark von dieser Kultur des Experimentierens und Lernens.

Zur Massenspeicherung verwendete der FM-77AV20 3,5-Zoll-Diskettenlaufwerke mit 640 KB Kapazität. Das Modell erschien in zwei Varianten: als FM-77AV20-1 mit einem Laufwerk und als FM-77AV20-2 mit zwei Laufwerken. Diese Kapazität wird häufig mit älteren Angaben aus der ursprünglichen FM77AV-Generation verwechselt, deren Laufwerke teilweise noch mit 320 KB arbeiteten. Beim AV20 gehörten jedoch 640-KB-Disketten bereits zur Standardausstattung.

Ein weiteres Merkmal der AV-Serie war die Unterstützung von Superimposition- und Video-Digitalisierungsfunktionen. Dabei konnte der Computer sein Bild über ein externes Videosignal legen oder Videobilder digital erfassen. Diese Funktionen waren allerdings nicht zwingend Bestandteil der Grundkonfiguration, sondern wurden über entsprechende Erweiterungen realisiert. Gerade diese Möglichkeit, Computer- und Videobild zu kombinieren, erklärt den von Fujitsu gewählten Begriff „Audio-Visual Computer“.

Die Tastatur des Systems war als separate Einheit ausgeführt und vom Hauptgerät abgesetzt. Hinweise auf besondere Eingabetechniken oder drahtlose Varianten existieren in der Sammler- und Restaurationsszene, doch für den FM-77AV20 selbst ist in erster Linie diese klassische, getrennte Tastatureinheit gesichert dokumentiert.

Preislich bewegte sich der Rechner im gehobenen Segment des Heimcomputermarktes. Zeitgenössische Angaben nennen 138.000 Yen für den FM-77AV20-1 und 168.000 Yen für den FM-77AV20-2 (inflationsbereinigt etwa 2300 – 2400 € im Jahr 2026). Damit war das System deutlich teurer als viele einfache Heimcomputer, bot jedoch auch eine entsprechend erweiterte Ausstattung.

In technischen Unterlagen und Datenträgern taucht für das Modell außerdem der interne Codename „Leo“ auf; im Umfeld des FM-77AV20 wird häufig die Bezeichnung „LEO1“ vermutet. Solche internen Projektnamen waren bei japanischen Herstellern der Zeit keineswegs ungewöhnlich und dienten vor allem der Entwicklung und Dokumentation innerhalb der jeweiligen Produktlinien.

Der FM-77AV20 steht damit innerhalb der FM-77AV-Familie für eine Variante, die die bestehende Architektur der Plattform nicht grundlegend veränderte, sie jedoch in wichtigen Punkten ausbaute. Die Kombination aus Dual-CPU-Konzept, erweiterten Grafikmodi, FM-Sound, 3,5-Zoll-Diskettenlaufwerken und optionalen Video-Funktionen zeigt deutlich, wie eigenständig sich der japanische Heimcomputermarkt in der zweiten Hälfte der 1980er-Jahre entwickelte – mit Systemen, die oft ganz andere technische Schwerpunkte setzten als ihre westlichen Gegenstücke.

 

Macintosh LC II: Apples günstiger Farbrechner zwischen Schulmarkt, Spararchitektur und Modellpflege

Pratyeka, eigenes Werk (CC BY-SA 4.0), via Wikimedia Commons.

Der Macintosh LC II, vorgestellt im März 1992, entstand in einer Phase, in der Apple seine Macintosh-Produktlinie deutlich ausweitete und stärker auf unterschiedliche Marktsegmente ausrichtete. Der ursprüngliche Macintosh LC von 1990 hatte gezeigt, dass ein vergleichsweise preisgünstiger Macintosh mit Farbgrafik besonders im Bildungssektor auf großes Interesse stieß. Schulen, Universitäten und kleinere Büros suchten zunehmend nach Systemen mit grafischer Benutzeroberfläche, die dennoch unterhalb der Preisregion der professionellen Macintosh-II-Modelle lagen. Der LC II stellte deshalb keine völlig neue Architektur dar, sondern eine Weiterentwicklung dieses Einstiegs-Macintosh. Während der Entwicklungsphase trug das Projekt innerhalb von Apple mehrere interne Codenamen, darunter „Vail“ und „Foster’s“, was der damaligen Praxis entsprach, Entwicklungsprojekte nach Skigebieten oder Getränken zu benennen.

Äußerlich blieb das System nahezu unverändert. Das flache Desktop-Gehäuse – später häufig als „Pizza-Box“-Mac bezeichnet – war dafür gedacht, unter einem Monitor auf dem Schreibtisch zu stehen. Apple hatte das Gehäuse so dimensioniert, dass der vergleichsweise leichte Apple 12-inch RGB Display direkt darauf platziert werden konnte. Dieser Monitor bot eine Auflösung von 512 × 384 Pixeln und stellte für viele Anwender den Einstieg in die Farbgrafik der Macintosh-Plattform dar.

Die Basiskonfiguration des LC II bestand aus einem Motorola 68030-Prozessor mit 16 MHz, 4 MB Arbeitsspeicher, einem 1,44-MB-SuperDrive-Diskettenlaufwerk sowie einer SCSI-Festplatte mit typischerweise 40 MB Kapazität. Als Betriebssystem wurde meist System 7 ausgeliefert, das zu Beginn der 1990er-Jahre Funktionen wie virtuellen Speicher einführte. Der 68030 verfügte im Gegensatz zum Vorgängermodell über eine integrierte Paged Memory Management Unit (PMMU), wodurch diese Funktion erstmals auch auf einem LC-System genutzt werden konnte.

Eine Eigenheit des Rechners lag in seiner kostenorientierten Speicherarchitektur. Obwohl der Motorola 68030 für ein 32-Bit-System ausgelegt war, verband Apple ihn im LC II weiterhin mit einem 16-Bit-Datenbus. Dadurch reduzierte sich die Speicherbandbreite erheblich. In Benchmarks zeigte sich deshalb ein ungewöhnliches Bild: In manchen Anwendungen arbeitete der LC II kaum schneller oder gelegentlich sogar geringfügig langsamer als der ursprüngliche LC mit 68020-Prozessor. Zeitgenössische Tests stellten fest, dass der modernere Prozessor zwar zusätzliche Funktionen ermögliche, seine Leistungsfähigkeit jedoch durch den schmalen Datenpfad begrenzt werde.

Auch beim Arbeitsspeicher zeigte sich eine ungewöhnliche Konstruktion. Der Rechner besaß 4 MB RAM fest auf der Hauptplatine sowie zwei Steckplätze für zusätzliche SIMM-Module. Obwohl physisch bis zu 12 MB installiert werden konnten, war die Adresslogik so gestaltet, dass maximal 10 MB tatsächlich genutzt werden konnten. Zwei Megabyte blieben daher für das Betriebssystem unerreichbar.

Die Grafik wurde von einem integrierten Video-Controller erzeugt. Standardmäßig verfügte der Rechner über 256 KB VRAM, ausreichend für 256 Farben bei 512 × 384 Pixeln. Auf der Hauptplatine befand sich ein VRAM-Sockel, über den der Videospeicher mit einem zusätzlichen 256-KB-VRAM-SIMM auf 512 KB erweitert werden konnte. Erst mit dieser Erweiterung waren bei höheren Auflösungen – etwa 640 × 480 Pixeln – ebenfalls 256 Farben möglich; ohne Upgrade standen dort nur 16 Farben zur Verfügung.

Trotz seiner preisorientierten Konstruktion blieb der LC II erweiterbar. Apple integrierte den LC Processor Direct Slot (LC-PDS), einen Steckplatz, der direkt mit dem Prozessor verbunden war. Über diesen Anschluss konnten Erweiterungskarten wie Ethernet-Adapter, Video-Erweiterungen oder Spezialhardware installiert werden.

Eine weitere Erweiterungsmöglichkeit war die Apple-IIe-Emulationskarte. Anders als reine Software-Emulatoren enthielt diese Karte einen W65C02-Prozessor, also die CPU des Apple IIe. Über ein spezielles Anschlusskabel konnten originale Apple-Diskettenlaufwerke sowie Eingabegeräte angeschlossen werden. In vielen Bildungseinrichtungen erleichterte diese Lösung den Übergang von der Apple-II-Plattform zur Macintosh-Architektur, da vorhandene Software weiterhin genutzt werden konnte.

Preislich positionierte Apple den LC II weiterhin im unteren Bereich seiner Macintosh-Palette. Der Einführungspreis lag bei etwa 1.699 US-Dollar für eine typische Konfiguration mit 4 MB RAM und 40-MB-Festplatte. Inflationsbereinigt entspricht dies heute ungefähr 3.500 Euro. Im Vergleich zum ursprünglichen LC von 1990, der rund 2.499 US-Dollar kostete, stellte dies eine deutliche Preissenkung dar und unterstrich Apples Strategie, den Bildungsmarkt stärker zu erschließen.

Innerhalb der Produktlinie bildete der LC II eine Zwischenstufe. Er ersetzte den ursprünglichen LC und bereitete gleichzeitig den Weg für leistungsfähigere Varianten der Reihe. Bereits 1993 erschien mit dem Macintosh LC III ein deutlich schnelleres Modell.

Die Hardware des LC II wurde später auch in mehreren Performa-Modellen weiterverwendet. Im Konsumentenmarkt erschienen Varianten des Systems unter anderem als Performa 400, Performa 405, Performa 410 und Performa 430, was ein typisches Beispiel für Apples umfangreiche Modellpalette der frühen 1990er-Jahre darstellt.

Kompakte Spezifikationen

Hersteller: Apple Computer, Inc.
Vorstellung: März 1992
CPU: Motorola 68030, 16 MHz
Bus: 16-Bit-Datenbus
RAM: 4 MB Standard, maximal adressierbar 10 MB
VRAM: 256 KB, erweiterbar auf 512 KB
Grafik: bis 512 × 384 Pixel (256 Farben), 640 × 480 mit VRAM-Upgrade
Massenspeicher: 1,44-MB-SuperDrive, optionale SCSI-Festplatte (typisch 40 MB)
Erweiterung: LC Processor Direct Slot (LC-PDS)
Schnittstellen: SCSI, ADB, serielle Ports, Videoanschluss
Betriebssystem: System 7
Vorgänger: Macintosh LC
Nachfolger: Macintosh LC III

 

Piggybacking: Huckepack zum Speicher-Upgrade in der frühen Mikrocomputerzeit

In den frühen 1980er-Jahren stieg der Bedarf an Arbeitsspeicher deutlich schneller, als es die Entwickler vieler Heim- und Mikrocomputer vorgesehen hatten. Die Hürden für Upgrades waren hoch: RAM-Bausteine waren kostspielig, passende Erweiterungskarten oft nicht lieferbar oder im Gehäuse schlicht nicht vorgesehen. In dieser Situation etablierte sich unter Bastlern und Servicetechnikern eine pragmatische Lösung, die als Piggybacking bekannt wurde: Ein zusätzlicher Speicherchip wurde direkt auf einen vorhandenen Baustein gelötet – gewissermaßen „Huckepack“.

Technisch war dieses Verfahren möglich, da identische Speicherchips denselben Satz an Daten-, Adress- und Versorgungsleitungen nutzen. Diese Signale konnten problemlos parallel an beide Chips geführt werden. Die Herausforderung lag allein darin, zu steuern, welcher Baustein zu einem bestimmten Zeitpunkt aktiv sein sollte.

Beim Piggybacking wurden daher fast alle Pins des oberen Chips direkt mit dem darunterliegenden verbunden. Lediglich die Aktivierungsleitung – etwa der „Chip Select“ (CS) – wurde ausgespart. Man bog das entsprechende Beinchen des oberen Chips leicht nach außen und verband es über einen separaten Draht mit der Speicherlogik. So nutzten beide Bausteine denselben Bus, konnten aber getrennt angesprochen werden, ohne sich gegenseitig zu stören.

Besonders verbreitet war diese Methode bei Systemen mit DRAM-Bausteinen der 16- oder 64-Kilobit-Generation, etwa Chips wie dem 4116 (16 K × 1) oder später dem 4164 (64 K × 1). Statt ein komplett neues Platinenlayout zu entwerfen, ließ sich die Speicherkapazität so mit überschaubarem Aufwand erweitern.

Doch Piggybacking diente nicht nur der Aufrüstung: In Werkstätten war es auch ein bewährter Diagnose-Trick. Ein Techniker setzte dazu einen funktionierenden Speicherchip testweise direkt auf einen verdächtigen Baustein. Lief der Rechner plötzlich stabil, galt der darunterliegende Chip meist als identifiziertes Problem. Solche Diagnosemethoden finden sich bereits in der Elektronikliteratur der Zeit, etwa in Don Lancasters „TTL Cookbook“, das praktische Test- und Servicetechniken für integrierte Schaltungen beschreibt.

Auch prominente Systeme blieben von solchen Modifikationen nicht unberührt. Als Techniker Mitte der 1980er-Jahre versuchten, den Macintosh 128K auf 512 KB Arbeitsspeicher zu erweitern, tauchten in Bastler- und Werkstattkreisen verschiedene improvisierte Lösungen auf. Eine davon bestand darin, zusätzliche 4164-DRAMs direkt auf die vorhandenen Speicherchips zu setzen und die Aktivierungslogik entsprechend anzupassen. Larry Pina dokumentierte solche Eingriffe später ausführlich in seinem Werk „Macintosh Repair & Upgrade Secrets“ (1987).

Trotz ihrer Effizienz hatte die Methode Grenzen. Die zusätzliche elektrische Last auf den Leitungen stellte höhere Anforderungen an die Treiberbausteine, und bereits kleine Unterschiede im Timing konnten zu Instabilitäten führen. In der Serienproduktion blieb Piggybacking daher meist eine Übergangslösung, bis eine neue Platinenrevision mit optimierter Speicherarchitektur verfügbar war.

Piggybacking war damit weniger eine offizielle Designstrategie als eine praktische Werkstattlösung. Wenn Erweiterungshardware fehlte oder ein defekter Baustein schnell identifiziert werden musste, genügte oft ein identischer Chip und ein Stück Draht. In vielen Fällen funktionierte diese einfache Methode erstaunlich zuverlässig.

Motorola 6800: Der 8-Bit-Baukasten, der Steuerungen und Terminals prägte

Motorola-6800-Mikroprozessor aus einer CPU-Sammlung. Foto: Konstantin Lanzet, CC BY-SA 3.0.

Als Motorola Mitte der 1970er-Jahre begann, seine Mikroprozessorstrategie zu formulieren, befand sich die Halbleiterindustrie in einer Phase rascher Experimente. Rechnerleistung wanderte gerade aus Großrechnern und Minicomputern in immer kleinere Bauformen, doch eine klare Architektur für Mikrocomputer existierte noch nicht. Firmen wie Intel, MOS Technology und Motorola tasteten sich an die Möglichkeiten heran. In diese Situation hinein stellte Motorola 1974 seinen neuen Prozessor vor: den Motorola 6800, der ab etwa 1975 in größeren Stückzahlen verfügbar wurde. Er war weniger als isolierter Chip gedacht, sondern als Herzstück einer ganzen Systemfamilie, die Entwicklern den Aufbau kompletter Steuer- oder Rechnersysteme erleichtern sollte.

Motorola kam aus einer anderen Tradition als viele der später berühmten Heimcomputerhersteller. Das Unternehmen hatte seine Wurzeln in der Funktechnik der 1920er-Jahre und entwickelte sich über Jahrzehnte zu einem bedeutenden Hersteller von Halbleitern für Industrie, Militärtechnik und Kommunikation. Mikroprozessoren wurden daher zunächst vor allem als Bausteine für Steueranlagen, Terminals oder Messgeräte betrachtet – weniger als Grundlage für Heimcomputer. Genau aus dieser Perspektive entstand der 6800.

Technisch handelte es sich um einen 8-Bit-Prozessor mit einem 16-Bit-Adressraum, der also bis zu 64 Kilobyte Speicher ansprechen konnte – ein für die damalige Zeit typischer Wert. Die Taktfrequenz lag meist bei etwa 1 MHz, wobei reale Systeme je nach Speicher und Busdesign geringfügig darunter arbeiteten. Intern verfügte der Prozessor über zwei Akkumulatorregister (A und B), ein Indexregister, einen Program Counter sowie einen 16-Bit-Stack Pointer. Diese Struktur war übersichtlich und für Entwickler relativ leicht nachvollziehbar. Viele Ingenieure schätzten besonders, dass der Stack Pointer direkt adressierbar war – eine Eigenschaft, die bei Softwareentwicklung und Unterprogrammen praktische Vorteile brachte.

Wichtiger als die CPU selbst war jedoch Motorolas Konzept einer kompletten Mikroprozessorfamilie. Statt nur einen Prozessor anzubieten, entwickelte das Unternehmen eine Reihe passender Peripheriechips, die zusammen ein vollständiges System bildeten. Dazu gehörten etwa der 6820 PIA (Peripheral Interface Adapter) für parallele Ein- und Ausgaben, der 6850 ACIA (Asynchronous Communications Interface Adapter) für serielle Kommunikation sowie Timer- und Taktbausteine wie der 6840 Programmable Timer Module. Motorola stellte damit eine Art Baukasten bereit, aus dem Entwickler komplette Steuerrechner zusammensetzen konnten – ein Ansatz, der besonders in industriellen Anwendungen und frühen Embedded-Systemen großen Anklang fand.

Um diese Architektur praktisch nutzbar zu machen, bot Motorola auch eigene Entwicklungsgeräte an. Eines der bekanntesten war das MEK6800D2 Microprocessor Evaluation Kit, ein Single-Board-System, das in vielen Labors, Ausbildungsstätten und Entwicklungsabteilungen eingesetzt wurde. Das Board besaß eine einfache Hexadezimal-Tastatur, LED-Anzeige und Monitorprogramme im ROM, sodass Ingenieure Programme direkt eingeben und testen konnten. In Universitäten und technischen Schulen gehörten solche Systeme bald zur Standardausrüstung, weil sie einen relativ unkomplizierten Einstieg in die Mikroprozessorprogrammierung ermöglichten. Ergänzt wurde dies durch größere Entwicklungsstationen wie das Motorola EXORciser-System, auf dem Software komfortabler erstellt und anschließend auf Zielhardware übertragen werden konnte.

Aus heutiger Sicht fällt auf, dass die Chips der 6800-Familie relativ stromhungrig waren. Ein einzelner Prozessor benötigte typischerweise etwa 150 bis 300 Milliampere bei fünf Volt Versorgungsspannung. Im Vergleich zu späteren Designs – etwa dem deutlich effizienteren MOS Technology 6502 – wirkte dies recht hoch, entsprach jedoch durchaus dem Stand der frühen Mikroprozessorentwicklung. Viele Systeme jener Zeit waren ohnehin nicht auf minimale Leistungsaufnahme optimiert, sondern auf robuste Funktion in industriellen Umgebungen.

Ein interessanter Aspekt der Geschichte des 6800 liegt in seiner indirekten Rolle bei der Entstehung eines seiner größten Konkurrenten. Mehrere Ingenieure, die an der Entwicklung der Motorola-Architektur beteiligt gewesen waren, verließen das Unternehmen später und arbeiteten bei MOS Technology an einer neuen CPU. Daraus entstand der berühmte MOS Technology 6502, dessen Architektur teilweise an Konzepte des 6800 erinnerte, aber deutlich kostengünstiger produziert werden konnte. Während Motorola seinen Prozessor zunächst für rund 175 Dollar anbot, wurde der 6502 kurz nach seiner Vorstellung 1975 für etwa 25 Dollar verkauft – ein Preissturz, der später Heimcomputer wie den Apple II, den Commodore PET oder den Commodore 64 ermöglichte.

Der 6800 selbst fand dagegen vor allem in professionellen Anwendungen Verwendung. In der Industrie tauchte er in Steuerungen, Messsystemen und Terminals auf, häufig in Kombination mit Motorolas eigener Entwicklungsumgebung. Auch im Bereich der Unterhaltungselektronik war die Architektur präsent. Besonders in den elektronisch gesteuerten Flipperautomaten der späten 1970er und frühen 1980er Jahre gehörten Prozessoren der 6800-Familie zu den zentralen Steuerkomponenten. Hersteller wie Williams Electronics oder Bally Manufacturing verwendeten entsprechende CPUs etwa in ihren Steuerplatinen-Systemen. Williams setzte beispielsweise im sogenannten System-3- und System-4-Pinball-Design der Jahre 1977 bis 1979 Mikroprozessoren der 6800-Familie ein, während Bally mit seinem MPU-17- und später MPU-35-Controller ähnliche Architekturen nutzte. Diese Rechner steuerten Spielregeln, Punktanzeigen, Lampen und Soundeffekte – Aufgaben, die zuvor mit diskreter Logik realisiert worden waren.

Auch in der Arcade-Industrie tauchten Varianten dieser Architektur auf. Einige Spielautomaten nutzten Prozessoren wie den Motorola 6802 oder 6808, die technisch eng mit dem ursprünglichen 6800 verwandt waren. Besonders frühe mikroprozessorbasierte Arcade-Steuerungen profitierten davon, dass die CPU zusammen mit den Peripheriechips ein relativ vollständiges Steuerungssystem bildete. Die Kombination aus CPU, I/O-Bausteinen und Timer-Chips machte es möglich, komplexere Spielmechaniken zu programmieren, ohne umfangreiche Spezialhardware entwickeln zu müssen.

Obwohl der Prozessor selbst nie die enorme Verbreitung späterer Heimcomputer-CPUs erreichte, spielte er in der technischen Entwicklung eine wichtige Rolle. Viele Konzepte, die später in Mikrocontrollern oder System-on-Chip-Lösungen selbstverständlich wurden – etwa die enge Zusammenarbeit von CPU und standardisierten Peripheriebausteinen – lassen sich bereits in der Architektur der 6800-Familie erkennen.

Während der 6800 vor allem in industriellen Steuerungen, Messsystemen und elektronischen Spielautomaten eingesetzt wurde, arbeitete Motorola gegen Ende der 1970er-Jahre bereits an einer deutlich leistungsfähigeren Prozessorarchitektur. Diese sollte sich nicht mehr nur an Steuerrechnern orientieren, sondern an der Leistungsfähigkeit kleiner Minicomputer.

Das Ergebnis dieser Entwicklung erschien 1979 unter dem Namen Motorola 68000. Trotz der ähnlichen Bezeichnung handelte es sich dabei nicht um eine direkte Weiterentwicklung des 6800, sondern um eine neue Architektur mit intern 32-Bit-Struktur, erweitertem Registersatz und deutlich größerem Adressraum. Motorola wählte den Namen bewusst so, dass er an die erfolgreiche 6800-Reihe erinnerte und gleichzeitig eine neue Generation von Mikroprozessoren einleitete.

Mit dem 68000 begann eine Prozessorfamilie, die in den folgenden Jahren zu den bedeutendsten CPU-Architekturen der Computerindustrie zählen sollte. Rechner wie der Apple Macintosh, der Commodore Amiga oder der Atari ST nutzten später Varianten dieser sogenannten 68k-Familie. Die Entwicklung dieser Architektur bildet daher ein eigenes Kapitel der Mikroprozessorgeschichte – eines, das unmittelbar an die frühen Erfahrungen anknüpfte, die Motorola mit dem 6800 gesammelt hatte.

 

Tektronix 4051 – Der Laborrechner, der Hollywood die Zukunft zeigte

Kein Requisiten-Fake, sondern echte Labortechnik: Systeme der Tektronix-4050-Reihe dienten in den späten 1970ern häufig als glaubwürdige „Zukunftscomputer“ in Film- und Fernsehproduktionen.

Manchmal verrät ein Fernsehbild mehr über die technische Gegenwart seiner Entstehungszeit als über die Zukunft, die es darstellen soll. Als 1978 die Zuschauer erstmals die Kommandozentrale der Battlestar Galactica sahen, stand dort kein futuristischer Fantasierechner, sondern ein real existierendes wissenschaftliches Instrument aus Oregon: ein System der Tektronix-4050-Serie. In einer Zeit, in der Mikrocomputer meist als Bausätze, Terminals oder experimentelle Systeme auftraten, verkörperten diese Geräte eine andere Tradition – die des Laborrechners, der aus der Messtechnik kam und die Brücke zwischen Oszilloskop, Grafikterminal und programmierbarem Rechner schlug.

Tektronix hatte den 4051 nicht als Heimcomputer entwickelt, sondern als wissenschaftliches Werkzeug. Wie es im Service-Handbuch formuliert wird, vereinte das System „die visuelle Darstellung eines Grafikterminals mit der Rechenleistung eines wissenschaftlichen programmierbaren Rechners“ und konnte sowohl eigenständig arbeiten als auch als intelligentes Grafikterminal dienen.

Im Inneren arbeitete ein Motorola-6800-Acht-Bit-Mikroprozessor, der Mitte der siebziger Jahre zu den frühen Standardprozessoren für Mikrocomputersysteme und industrielle Steuertechnik gehörte. Im Tektronix-Rechner übernahm er die Ausführung des BASIC-Interpreters, die Steuerung der Grafiklogik sowie die Kommunikation mit angeschlossenen Geräten. Der Standardausbau umfasste acht Kilobyte Arbeitsspeicher, von denen etwa sechs Kilobyte dem Anwender zur Verfügung standen. Durch optionale Erweiterungen ließ sich der Speicher auf bis zu 32 Kilobyte ausbauen, was für einen Desktop-Rechner dieser Zeit ein beachtlicher Wert war.

Die Firmware befand sich in einem umfangreichen ROM-System mit mehreren Dutzend Kilobyte Kapazität und enthielt neben dem Interpreter eine erweiterte BASIC-Variante. Diese unterstützte numerische Berechnungen ebenso wie Grafikbefehle, Matrizenoperationen, String-Verarbeitung und die Steuerung externer Geräte. Erweiterungs-ROMs konnten über Steckmodule eingebunden werden, wodurch sich der Rechner funktional an unterschiedliche Aufgaben anpassen ließ – ein Konzept, das stärker an wissenschaftliche Instrumente als an spätere Heimcomputer erinnerte.

Als Massenspeicher diente ein integriertes Magnetband-Cartridge-System mit einer Kapazität von rund 300 Kilobyte. Die Daten wurden sequenziell gespeichert, was zwar langsamer als spätere Diskettenlösungen war, jedoch als robust und zuverlässig galt. Für Labore, in denen Messdaten archiviert werden mussten, entsprach dies den praktischen Anforderungen der Zeit.

Der vielleicht markanteste Unterschied zu späteren Personal Computern lag im Bildschirm. Der 4051 verwendete keine rasterbasierte Videodarstellung, sondern eine sogenannte Direct-View-Storage-Tube-Röhre. Ein einmal gezeichneter Vektor blieb sichtbar, ohne ständig neu aufgebaut werden zu müssen. Linien wurden direkt geschrieben und blieben stabil stehen, bis der Bildschirm gelöscht wurde. Dadurch entstand eine außergewöhnlich ruhige und flimmerfreie Darstellung technischer Grafiken, Diagramme und Messkurven. Für wissenschaftliche Visualisierung war diese Technik ideal, auch wenn sie dynamische Animationen nur eingeschränkt zuließ.

Gerade deshalb gehörten Tektronix-Displays in vielen Laboren fast ebenso selbstverständlich zur Ausstattung wie Oszilloskope. Der 4051 verband diese präzise Anzeige mit eigener Rechenleistung und konnte über den General Purpose Interface Bus – später als IEEE-488 standardisiert – mit Plottern, Messgeräten, Druckern oder Speicherlösungen kommunizieren. Damit wurde er Teil größerer Instrumentationssysteme, ohne selbst ein komplexes Rechnernetz zu benötigen.

Auch wirtschaftlich gehörte der Rechner nicht in die Welt der Heimcomputer. Der Basispreis lag bei seiner Einführung bei rund 5.995 US-Dollar, während einzelne Quellen für das Jahr 1976 auch etwa 6.995 US-Dollar nennen, abhängig von Ausstattung und Erweiterungen. Inflationsbereinigt entspricht dies heute einer Kaufkraft von ungefähr 35.900 US-Dollar und unterstreicht die Position des Systems als professionelles Instrument für Forschung, Industrie und Ausbildung – deutlich günstiger als komplette Minicomputer-Grafikinstallationen, aber weit entfernt vom entstehenden Heimcomputermarkt.

Nicht nur in Forschungseinrichtungen, sondern auch vor der Kamera wurden Systeme der Tektronix-4050-Reihe zu einem vertrauten Anblick. In den späten siebziger und frühen achtziger Jahren griffen Ausstattungsabteilungen von Film- und Fernsehproduktionen regelmäßig auf Geräte dieser Bauart zurück, wenn moderne Labore, Kontrollzentren oder technische Einrichtungen dargestellt werden sollten. Ihre klare Vektorgrafik, die ruhige Darstellung und das instrumentelle Erscheinungsbild vermittelten genau jene technische Glaubwürdigkeit, die Studiodesigner suchten.

So tauchten Geräte der Serie in verschiedenen Science-Fiction-Produktionen und Thrillern auf, darunter Moonraker oder D.A.R.Y.L., wo sie als scheinbar hochentwickelte Rechentechnik inszeniert wurden. Doch nicht nur ernste Zukunftsvisionen machten sich ihre Wirkung zunutze. Auch in Komödien fanden sie Verwendung. In Airplane! (Die unglaubliche Reise in einem verrückten Flugzeug, 1980) ist in der Flugleitzentrale deutlich die markante Silhouette eines Systems der Tektronix-4050-Serie zu erkennen, das dort als moderner Radarbildschirm dient und die Flugbewegungen in typischer Vektorgrafik darstellt – ein Requisitenwitz, der gerade deshalb funktionierte, weil das Gerät real existierte und überzeugend wirkte.

Bis zur Einführung grafischer Desktop-Computer mit rasterbasierter Benutzeroberfläche gehörten Tektronix-Systeme dieser Art zu den besonders häufig verwendeten Rechnern vor der Kamera. Erst mit dem Auftreten von Systemen wie dem Macintosh, deren grafische Oberfläche eine neue visuelle Vorstellung von Computern prägte, verlor diese Form der Darstellung allmählich ihre Wirkung als Zukunftsbild. Innerhalb der Tektronix-Produktpalette blieb der 4051 dennoch nur ein Teil einer größeren Entwicklung. Für anspruchsvollere Visualisierungsaufgaben entstanden parallel leistungsfähigere Systeme, darunter der Tektronix 4081, der einen deutlich anderen technischen Ansatz verfolgte und damit ein eigenes Kapitel in der Geschichte grafischer Computersysteme bildet.

Während der 4051 den grafischen Laborarbeitsplatz verkörperte, entwickelte Tektronix mit dem 4081 parallel ein deutlich leistungsfähigeres Visualisierungssystem, das nicht mehr primär als eigenständiger Desktop-Rechner gedacht war, sondern als Bestandteil größerer Rechenumgebungen. Der 4081 zielte auf anspruchsvollere grafische Anwendungen in Wissenschaft, Technik und Simulation und knüpfte damit stärker an die Tradition von Hochleistungs-Grafikterminals und spezialisierten Visualisierungsstationen an als an die kompakten Instrumentenrechner der 4050-Serie.

Olympia System BOSS (um 1980): Bürocomputer zwischen Büromaschinen-Tradition und Mikrocomputer-Ära

Olympia System BOSS: professioneller Bürocomputer um 1980, ausgelegt für Textverarbeitung, Verwaltung und Unternehmensanwendungen.

Als sich die deutsche Bürotechnikindustrie um 1980 neu orientieren musste, befand sich auch Olympia in einer Phase tiefgreifender Umbrüche. Der Markt verlangte längst nicht mehr nur zuverlässige Schreibmaschinen oder Rechengeräte, sondern integrierte Informationsverarbeitung direkt am Arbeitsplatz. Computer hielten Einzug in Verwaltungen, Ingenieurbüros und mittelständische Unternehmen – allerdings nicht als experimentelle Technik, sondern als betriebliche Werkzeuge, die Stabilität, Service und langfristige Verfügbarkeit bieten mussten. Olympia, über Jahrzehnte eng mit mechanischer Bürotechnik verbunden, versuchte in dieser Situation, den Übergang zur elektronischen Datenverarbeitung mit Systemlösungen zu gestalten, die sich in bestehende Arbeitsabläufe einfügen konnten, statt sie radikal zu verändern.

Wer sich mit Olympia-Rechnern jener Zeit beschäftigt, stößt dabei rasch auf eine begriffliche Besonderheit. Die Bezeichnung „Boss“ war bei Olympia kein einzelner Modellname, sondern über mehrere Jahre hinweg ein Sammelbegriff für professionelle Datentechniksysteme. Bereits gegen Ende der siebziger Jahre erschienen unter diesem Namen unterschiedliche Rechnerlösungen, die teils auf variierenden Prozessorplattformen beruhten und häufig projektbezogen ausgeliefert wurden. Das hier behandelte Olympia System BOSS gehört zu jener Phase um 1980, in der Olympia versuchte, aus dieser heterogenen Produktlandschaft eine stärker standardisierte Mikrocomputerplattform zu formen. Damit markierte die Serie den Übergang von individuell konfigurierten Datentechniklösungen zu serienmäßigen Arbeitsplatzrechnern innerhalb der Olympia-Palette.

Vor diesem Hintergrund erschien das System BOSS nicht als experimentelles Mikrocomputermodell, sondern als bewusst positioniertes Arbeitsinstrument für Unternehmen, die fertige Lösungen suchten. Olympia verstand den Rechner als integrierten Arbeitsplatz mit Bildschirm, Tastatur, Massenspeicher und branchenspezifischer Software – ein Konzept, das stärker an klassische Bürosysteme erinnerte als an die aufkommenden Heimcomputer jener Jahre. Ziel war nicht, Technik zu demonstrieren, sondern Prozesse zu stabilisieren: Buchhaltung, Textverarbeitung, Datenverwaltung und technische Anwendungen sollten unmittelbar am Arbeitsplatz ausgeführt werden können, ohne dass dafür größere Rechenzentren oder Minicomputer notwendig waren.

Technisch war die BOSS-Serie weniger einheitlich, als es der Serienname zunächst vermuten lässt. In der Praxis sind sowohl Z80-basierte als auch Intel-kompatible Konfigurationen (Intel 8085) dokumentiert, was auf eine heterogene Architektur innerhalb der Serie hinweist. Die Systeme lagen leistungsmäßig im Bereich professioneller Mikrocomputer jener Zeit, führten jedoch dazu, dass Software teilweise für unterschiedliche Plattformen gepflegt werden musste. Der Arbeitsspeicher bewegte sich typischerweise im Bereich der für CP/M-Systeme üblichen Größenordnung von bis zu 64 KB RAM. Die Bildschirmtechnik war klar auf Textarbeit ausgelegt und unterstützte die klassische Darstellung von 80 Zeichen pro Zeile, womit sich der Rechner eindeutig an strukturierten Büroanwendungen orientierte. Grafische Funktionen waren vorhanden, spielten jedoch nur eine untergeordnete Rolle. Auch die interne Systemstruktur folgte einem modularen Ansatz, bei dem Ein- und Ausgabesteuerung, Massenspeicher und Anzeigeeinheiten klar voneinander getrennt waren – eine Bauweise, die eher an Minicomputerarchitekturen erinnerte als an die hochintegrierten Heimcomputerplatinen der Zeit. Mit seinen rund 31 Kilogramm Lebendgewicht war der BOSS jedenfalls kein Rechner, den man wie einen Apple II oder TRS-80 kurzerhand zu einem Kollegen hinübertrug; wer dies dennoch versuchte, hätte vermutlich weniger die EDV-Infrastruktur erweitert als vielmehr die physikalischen Grenzen seines Fahrrads ausgelotet.

Softwareseitig war das System zweigleisig ausgelegt. Während CP/M als verbreitete Zusatzplattform verfügbar war und Zugriff auf ein breites Angebot vorhandener Programme erlaubte, stellte das in Frankreich entwickelte Betriebssystem Prologue die eigentliche professionelle Systembasis dar. Prologue war stärker auf Mehrplatzumgebungen und Systemhauslösungen ausgerichtet und brachte mit BAL sogar eine eigene BASIC-ähnliche Programmiersprache mit. Diese Struktur zeigt deutlich, dass Olympia den Rechner nicht primär als offenen Mikrocomputer verstand, sondern als Bestandteil größerer EDV-Lösungen, in denen Software, Hardware und Service als Gesamtsystem gedacht waren.

Besonders deutlich zeigte sich Olympias Marktstrategie in der Staffelung der Modellvarianten. Die Geräte unterschieden sich weniger in der Rechenleistung als in ihrer Massenspeicherausstattung und damit in ihrer praktischen Einsatzrolle. Das Modell A stellte die einfachste Konfiguration dar und arbeitete mit Diskettenlaufwerken, geeignet für kleinere Büros mit überschaubarem Datenvolumen. Modell B und C boten größere Diskettenkapazitäten und richteten sich an anspruchsvollere Verwaltungs- und Programmieraufgaben. Erst das Modell D ergänzte die Diskettenlaufwerke um eine Winchester-Festplatte von mehreren Megabyte und war damit eindeutig auf Arbeitsplätze mit kontinuierlichem Datenzugriff ausgelegt, etwa im Rechnungswesen oder in größeren Organisationseinheiten.

Im praktischen Einsatz war das System vor allem für kaufmännische Anwendungen, Textverarbeitung, technische Berechnungen und branchenspezifische Softwarelösungen vorgesehen. Olympia vertrieb den Rechner nicht als isoliertes Gerät, sondern als vollständige Lösung inklusive Softwarepaketen, Installation und Wartung. Diese Vermarktungsstrategie entsprach der Tradition klassischer Büromaschinenhersteller: Der Computer sollte nicht nur funktionieren, sondern als langfristig betreute Infrastrukturkomponente verstanden werden.

Ein Basisgerät der Serie wurde um 1980 für etwa 8000 DM angeboten, wobei vollständig ausgestattete Installationen je nach Ausstattung deutlich höhere Investitionen erfordern konnten. Damit lag das System im Bereich ernsthafter Unternehmensanschaffungen, blieb jedoch unter den Kosten größerer Minicomputeranlagen und war somit als Einstiegslösung für die betriebliche Datenverarbeitung positioniert. Diese Preisstruktur unterstreicht den Charakter des Systems als planbares Arbeitsmittel und nicht als experimentelles Mikrocomputermodell.

Historisch betrachtet steht die Olympia-BOSS-Serie exemplarisch für eine Übergangsphase der frühen Mikrocomputerära. Während Heimcomputer gerade begannen, neue Märkte zu erschließen, richteten sich Systeme wie dieses an konservative Unternehmensstrukturen, die Planungssicherheit höher gewichteten als technische Experimentierfreude. Der Rechner war damit weniger Symbol eines digitalen Aufbruchs als Ausdruck einer evolutionären Entwicklung, in der bestehende Bürotraditionen Schritt für Schritt in elektronische Arbeitsweisen überführt wurden. So erscheint das System BOSS heute als Bindeglied zwischen zwei Welten: auf der einen Seite die mechanische Büromaschinenkultur, aus der Olympia hervorgegangen war; auf der anderen die kommende PC-Ära, in der standardisierte Personal Computer den Markt dominieren sollten.