Video Technology Laser 50 – Wenn BASIC in die Jackentasche wanderte

Es ist Mitte der 1980er Jahre, und während Systeme wie der Commodore 64 oder der ZX Spectrum den heimischen Schreibtisch erobern, verfolgt ein Hersteller aus Hongkong einen anderen Ansatz: Computer sollen nicht nur zu Hause stehen, sondern überallhin mitgenommen werden können – und vor allem eines tun: Programmieren lehren. In genau diesem Spannungsfeld entsteht der Video Technology Laser 50, ein Gerät, das sich selbstbewusst als „BASIC learning tool that teaches you BASIC“ bezeichnete.

Hergestellt wurde der Rechner von VTech, einem Unternehmen, das in den 1980er Jahren sowohl im Bereich preisgünstiger Lernsysteme als auch bei kompatiblen Heimcomputern aktiv war. Der Laser 50 erschien um 1984/85 und wurde je nach Markt unterschiedlich vertrieben – in Frankreich etwa unter der Bezeichnung „Laser One“. Technisch blieb das System dabei unverändert, doch die Umbenennung unterstreicht die Positionierung als Einsteigergerät.

Auf den ersten Blick wirkt der Laser 50 eigenwillig. Statt eines klassischen Bildschirms besitzt er ein einzeiliges LCD mit lediglich 16 Zeichen. Programme müssen daher horizontal durch den Text scrollen, was die Arbeit verlangsamt und eine gewisse Disziplin beim Programmieren erfordert. Im Inneren arbeitet ein Z80-kompatibler Prozessorkern, allerdings nicht als klassischer Einzelchip. Während Systeme wie der Sinclair ZX81 noch klar getrennte Komponenten für CPU, RAM und ROM zeigen, setzt der Laser 50 auf eine stark integrierte Bauweise. Prozessorfunktion, Tastatursteuerung und Displaylogik sind in wenigen spezialisierten Bausteinen zusammengefasst – ein Ansatz, der Kosten spart, aber zugleich Einblicke und Erweiterungen erschwert.

Der Arbeitsspeicher beträgt lediglich 2 Kilobyte RAM, was den verfügbaren Spielraum deutlich begrenzt. Über einen Erweiterungsanschluss lässt sich der Speicher jedoch auf bis zu 16 Kilobyte ausbauen, wodurch sich komplexere Programme realisieren lassen. Trotz dieser Einschränkung war das System in der Lage, bis zu zehn BASIC-Programme gleichzeitig zu verwalten. Diese blieben im Speicher erhalten, solange die Stromversorgung nicht vollständig unterbrochen wurde – ein Detail, das im Alltag überraschend praktisch war.

Der Laser 50 versteht sich klar als Lernsystem. Das Handbuch wird in zeitgenössischen Beschreibungen als besonders zugänglich und praxisnah geschildert, mit zahlreichen Beispielprogrammen und erklärenden Abschnitten. Ergänzt wird dies durch einen Trace-Modus, der Programme schrittweise ausführt und so den Ablauf einzelner Befehle sichtbar macht. Variablen lassen sich dabei beobachten, was das Verständnis von Programmstrukturen erleichtert. Für ein Gerät dieser Größenklasse ist das bemerkenswert konsequent umgesetzt.

Im praktischen Einsatz treten jedoch schnell die Grenzen zutage. Die Tastatur ist vollständig, aber ungewöhnlich angeordnet; insbesondere die Position der Leertaste verlangt Eingewöhnung. Hinzu kommt eine technische Einschränkung, die sich im Alltag bemerkbar macht: Das System verarbeitet Eingaben nur bis zu einer Geschwindigkeit von etwa 20 Wörtern pro Minute zuverlässig. Schnellere Eingaben führen zu ausgelassenen oder doppelt registrierten Zeichen – ein Effekt, der den Arbeitsfluss spürbar beeinflussen kann.

Neben dem Computerbetrieb verfügt der Laser 50 über einen integrierten Taschenrechner-Modus mit wissenschaftlichen Funktionen. Diese Kombination aus Programmierumgebung und Rechenwerkzeug verdeutlicht die Zielgruppe: Schüler, Einsteiger und Anwender, die unterwegs einfache Berechnungen durchführen oder kleine Programme nutzen wollten. Zubehör wie Kassettenrekorder, Thermodrucker oder sogar ein vierfarbiger Plotter erweiterten die Einsatzmöglichkeiten, auch wenn solche Peripherie vermutlich nur von einem kleinen Teil der Nutzer tatsächlich eingesetzt wurde.

Preislich bewegte sich der Laser 50 nach zeitgenössischen Einschätzungen im Bereich von etwa 100 bis 150 US-Dollar, was inflationsbereinigt heute ungefähr 280 bis 450 Euro entspricht. Damit lag er deutlich unter klassischen Heimcomputern, aber über einfachen Taschenrechnern – eine Zwischenposition, die seine Rolle im Markt treffend beschreibt.

Im Vergleich zu tragbaren Systemen wie dem TRS-80 Pocket Computer zeigt sich, dass der Laser 50 zwar komfortabler zu bedienen war, jedoch nicht die Leistungsfähigkeit eines vollwertigen Heimcomputers erreichte. Gleichzeitig fehlte ihm eine breitere Softwarebasis, was seine langfristige Nutzung einschränkte.

Über das Gerät selbst ist heute nur wenig dokumentiert. Zeitgenössische Testberichte sind selten, technische Unterlagen nur fragmentarisch erhalten. Ein Großteil des Wissens basiert auf erhaltenen Geräten, Handbüchern und späteren Analysen durch Sammler. Diese lückenhafte Quellenlage ist jedoch kein Zufall, sondern typisch für eine Geräteklasse, die eher als Lernwerkzeug denn als Plattform für eine wachsende Softwarekultur gedacht war.

Der Laser 50 ist damit kein System, das durch Leistung oder Verbreitung auffiel, sondern eines, das einen sehr spezifischen Ansatz verfolgte: Programmieren zugänglich zu machen, ohne die Hürde eines großen, teuren Heimcomputers. Gerade diese Zwischenstellung macht ihn heute interessant – als Zeugnis einer Phase, in der Computer klein genug wurden, um sie mitzunehmen, aber noch weit davon entfernt waren, universell einsetzbar zu sein.

Power Mac G4 Cube – Apples lautloser Würfel und das Risiko einer neuen Geräteklasse

Source: https://www.mac27.net/power-mac-g4-cube

Es war einer dieser Momente, wie sie Steve Jobs über Jahre hinweg perfektioniert hatte. Apple-Präsentationen waren für ihn nie bloße Produktvorstellungen gewesen – sie waren Inszenierungen, bewusst aufgebaute Dramaturgien, bei denen das Publikum nicht nur informiert, sondern regelrecht verführt werden sollte.

Die Zuschauer wussten das. Und sie erwarteten es auch. Wenn Jobs die Bühne betrat, ging es nicht allein um technische Daten oder Modellpflege. Es ging um den nächsten Schritt, um die Frage, welchen Stempel Cupertino der Computerwelt diesmal aufdrücken würde.

Der berühmte Moment, das kurze Innehalten, die scheinbar beiläufige Ankündigung – „but there’s one more thing“ – war längst zu einem Ritual geworden. Ein Versprechen, dass hinter dem Vorhang noch etwas wartete, das über das Erwartbare hinausging.

Genau in diesem Spannungsfeld wurde im Sommer 2000 der Apple Power Mac G4 Cube vorgestellt.

Es war einer dieser Momente, wie sie Steve Jobs nur selten inszenierte – und wenn, dann mit maximaler Wirkung. Auf der Bühne der Macworld im Sommer 2000 stand zunächst nichts weiter als eine Idee im Raum, formuliert in einem jener Sätze, die zugleich Vision und Versprechen waren:

„we are combining the power of the Power Mac G4 […] with the desktop elegance, the silence and the miniaturization that we learned from doing the iMac to make a whole new class of machine“
(„Wir kombinieren die Leistung des Power Mac G4 mit der Eleganz, der Lautlosigkeit und der Miniaturisierung des iMac, um eine völlig neue Klasse von Computern zu schaffen.“)

Es war mehr als nur eine Produktankündigung. Jobs sprach nicht von einem neuen Modell, sondern ausdrücklich von einer „new class of machine“ – ein Anspruch, der weit über die Technik hinausging. Apple wollte hier keinen bestehenden Markt bedienen, sondern ihn erweitern.

Dann folgte die Verdichtung dieser Idee in eine physische Form:

„we have miniaturized all that power into something this size […] an 8 inch cube“
(„Wir haben all diese Leistung in etwas von dieser Größe miniaturisiert […] einen 8-Zoll-Würfel.“)

Ein kompletter Power Mac G4, reduziert auf ein Volumen, das eher an ein Designobjekt erinnerte als an einen klassischen Rechner. Und als wäre das nicht genug, setzte Jobs noch einen weiteren Akzent:

„all this power in an 8 inch cube has cooled without a fan […] so it runs in virtual silence“
(„All diese Leistung in einem 8-Zoll-Würfel wird ohne Lüfter gekühlt […] und läuft praktisch lautlos.“)

Als der Rechner schließlich enthüllt wurde, fiel der vielleicht programmatischste Satz des gesamten Auftritts:

„quite possibly the most beautiful product we’ve ever designed“
(„Möglicherweise das schönste Produkt, das wir je entworfen haben.“)

Und tatsächlich – der Cube war weniger ein Computer im klassischen Sinne als vielmehr ein bewusst inszeniertes Objekt. Ein System, das nicht unter dem Schreibtisch verschwand, sondern sichtbar wurde.

Während der Applaus noch nachhallte, begann hinter den Kulissen jedoch bereits eine Geschichte, die deutlich weniger makellos verlief.

Die Form selbst war kein Zufall. Wer genau hinsah, erkannte eine Linie zurück zu NeXT – jenem Unternehmen, das Jobs nach seinem Weggang von Apple gegründet hatte. Dessen Rechner, später als NeXTcube bekannt, folgten bereits einer ähnlichen geometrischen Klarheit. Jobs bestätigte später knapp: „Yes, we did one before.“

Doch der Unterschied war entscheidend. Während der NeXTcube noch als klassisches Arbeitsgerät gedacht war, wurde der Cube bewusst als Objekt gestaltet – als ein System, das sichtbar auf dem Schreibtisch stand. Jobs beschrieb ihn sinngemäß als „brain in a beaker“ – ein sichtbar gemachtes, konzentriertes System.

Der Weg dorthin war jedoch alles andere als trivial. Die transparente Hülle war das Ergebnis monatelanger Entwicklung. Jobs ließ durchblicken, dass es ein halbes Jahr dauerte, allein die exakte Materialzusammensetzung für das Gehäuse zu entwickeln. Statt klassischem Spritzguss setzte Apple zusätzlich auf präzise Nachbearbeitung – Bohrungen und Lüftungsöffnungen wurden nachträglich gefräst, um die gewünschte optische Klarheit zu erreichen.

Dieser Aufwand war kein Selbstzweck. Apple hatte bereits mit dem iMac gelernt, dass Material und Erscheinung Teil der Produktidentität waren. Der Cube führte diesen Ansatz konsequent fort.

Und doch zeigte sich bereits in dieser Phase ein grundlegendes Problem. Kurz vor der Präsentation wurde intern deutlich, dass sich der geplante Preis nicht halten ließ. Der Rechner würde deutlich teurer werden als ursprünglich vorgesehen. Hier kollidierten erstmals Vision und Realität – ein Konflikt, der später entscheidend werden sollte.

So überzeugend die Inszenierung war – ihre eigentliche Bewährungsprobe fand die Konstruktion nicht auf der Bühne, sondern im Alltag statt.

Im Inneren arbeitete ein PowerPC G4 (Motorola 7400) mit integrierter Velocity Engine, unterstützt von einem dedizierten L2-Cache. Der Arbeitsspeicher ließ sich auf bis zu 1,5 GB ausbauen, womit das System technisch klar im oberen Bereich seiner Zeit lag. Auch die Ausstattung mit FireWire, USB, Ethernet und optionalem AirPort unterstrich, dass es sich nicht um ein abgespecktes System handelte.

Doch nicht die reine Leistung machte den Cube bemerkenswert, sondern seine Konstruktion. Apple verzichtete vollständig auf einen Lüfter. Stattdessen wurde die Wärme über einen zentralen Kühlkörper nach oben abgeführt – allein durch natürliche Luftzirkulation. In der Praxis bedeutete das einen nahezu lautlosen Betrieb, allerdings auch ein System, das thermisch näher an seinen Grenzen arbeitete als klassische Tower-Rechner.

Auch die äußere Gestaltung folgte diesem Prinzip der Reduktion. Sämtliche Anschlüsse befanden sich an der Unterseite des Geräts – eine Entscheidung, die das Erscheinungsbild klar hielt, im Alltag jedoch nicht immer praktisch war.

Mit dem Apple Display Connector ging Apple noch einen Schritt weiter. Video, Daten und Strom wurden über ein einziges Kabel geführt – elegant, aber zugleich proprietär. Ein Ansatz, der bereits erkennen ließ, wie stark Apple sein Ökosystem kontrollieren wollte.

Beim Thema Audio verzichtete man vollständig auf interne Lösungen. Stattdessen entwickelte Apple gemeinsam mit Harman Kardon externe Lautsprecher, die sowohl funktional als auch gestalterisch Teil des Systems waren.

Im Inneren blieb der Zugriff hingegen überraschend klassisch. Mit einem einfachen Mechanismus ließ sich der komplette Kern des Systems herausziehen. Komponenten waren schnell erreichbar – ein Detail, das besonders professionelle Anwender ansprach.

Doch genau hier lag die Grenze. Trotz dieser Zugänglichkeit war die Erweiterbarkeit eingeschränkt. Es fehlten PCI-Steckplätze, zusätzliche Laufwerksplätze und flexible Upgrade-Möglichkeiten. Im direkten Vergleich bot der klassische Power Mac G4 Tower mehr Leistungsspielraum – und das oft zu einem geringeren Preis.

Damit wurde die Position des Cube zunehmend unklar. Für Einsteiger war er zu teuer, für Profis zu eingeschränkt.

Die Zahlen folgten schnell. Statt der erwarteten Nachfrage wurden nur rund 150.000 Einheiten verkauft. Bereits wenige Monate nach Marktstart reagierte Apple mit Preisnachlässen. Intern galt das Projekt schon früh als gescheitert.

Später formulierte Tim Cook rückblickend:

„It was a spectacular failure commercially, from the first day almost.“
(„Es war wirtschaftlich ein spektakulärer Fehlschlag – praktisch vom ersten Tag an.“)

Auch Apples eigene Analyse fiel nüchtern aus. Phil Schiller erklärte, dass sich die meisten Kunden stattdessen für die Power-Mac-G4-Tower entschieden hätten – leistungsstärker, günstiger und vor allem flexibler.

Am 3. Juli 2001 setzte Apple den Cube offiziell aus und ließ die Tür bewusst offen – man sprach von einer möglichen Rückkehr, nicht von einer endgültigen Einstellung.

Und doch verschwand der Cube in seiner ursprünglichen Form.

Sein Einfluss blieb jedoch bestehen. Die Idee, leistungsfähige Hardware in kompakte, designorientierte Gehäuse zu integrieren, fand später in Geräten wie dem Mac mini oder dem Mac Studio eine neue Ausprägung – diesmal jedoch zu einem Preis und in einer Form, die der Markt besser aufnehmen konnte.

Rückblickend wirkt der Cube wie ein Produkt, das weniger für seine eigene Zeit entwickelt wurde als für eine Zukunft, die erst noch entstehen musste. Ein Rechner, der technisch funktionierte, gestalterisch überzeugte – und dennoch an seiner Einordnung scheiterte.

Vielleicht liegt gerade darin seine eigentliche Bedeutung.

 

Ohio Challenger 1P – Der schnelle Außenseiter der frühen Heimcomputerzeit

Ohio Challenger 1P – Quelle: computinghistory.org.uk

Der Ohio Challenger 1P kam 1978 auf den Markt, zu einem Zeitpunkt, als Heimcomputer bereits ihren Weg in Büros und Privathaushalte gefunden hatten. Systeme wie der Apple II, der Commodore PET 2001 und der TRS-80 Model I hatten ein Jahr zuvor gezeigt, wie ein solcher Rechner aussehen konnte: einschalten, BASIC sehen, arbeiten. Der Challenger 1P wirkt daneben zunächst unscheinbar, ordnet sich aber nicht einfach unter – er verfolgt einen Ansatz, der deutlich stärker aus der Welt der Einplatinencomputer heraus gedacht ist.

Im Kern steckt das bekannte Superboard II, das hier in ein Gehäuse integriert wurde. Das war kein rein kosmetischer Schritt. Während viele Systeme dieser Zeit noch offen betrieben wurden oder mehrere Komponenten benötigten, wirkte der Challenger 1P wie ein geschlossenes Gerät. Gleichzeitig blieb die Architektur nachvollziehbar und direkt zugänglich. Genau diese Mischung zieht sich durch das gesamte System.

Als Prozessor kommt ein MOS Technology 6502 mit rund 1 MHz zum Einsatz. Damit bewegt sich der Rechner auf Augenhöhe mit der Konkurrenz, unterscheidet sich aber in der praktischen Nutzung. Das im ROM integrierte BASIC von Microsoft gehört zu den schnelleren Vertretern seiner Zeit. Zeitgenössische Tests im Compute!-Magazin zeigen, dass Programme auf dem Challenger 1P zügiger ausgeführt werden als auf vielen vergleichbaren Systemen. Dieser Unterschied ist nicht spektakulär, aber spürbar – gerade bei wiederholten Berechnungen oder einfachen grafischen Ausgaben.

Die Grundausstattung umfasst 4 KB RAM und lässt sich auf 8 KB sowie mit zusätzlicher Hardware auf bis zu 32 KB erweitern . Das System ist damit von Anfang an nicht als statische Lösung gedacht. Erweiterungen erfolgen über zusätzliche Platinen und den OSI-Bus, wodurch sich der Rechner an wachsende Anforderungen anpassen lässt. Allerdings setzt das auch voraus, dass man sich mit der Technik beschäftigt – eine Eigenschaft, die man heute fast schon vermisst.

Bei der Darstellung zeigt sich ein typisches Bild der Zeit. Der Challenger 1P liefert ein Composite-Videosignal, das technisch sauber ist, aber nicht direkt für den Anschluss an einen Fernseher gedacht war. In der Praxis wurde daher meist ein HF-Modulator eingesetzt, wodurch das Signal über den Antenneneingang eingespeist wurde. Das führte zu einer weicheren Darstellung und verstärkte die bekannten Randprobleme. Intern sind 32 × 32 Zeichen möglich, sichtbar sind auf einem üblichen Fernseher jedoch meist nur etwa 24 × 24 . Dieser Unterschied fällt besonders dann auf, wenn Programme für größere Darstellungsflächen ausgelegt sind.

Die Tastatur fällt im positiven Sinne auf. Mit 53 Tasten und einer vollständigen ASCII-Belegung eignet sie sich deutlich besser für ernsthafte Eingaben als viele vereinfachte Lösungen der Zeit. Gerade bei längeren BASIC-Programmen oder strukturierten Eingaben zeigt sich der Vorteil schnell.

Grafisch arbeitet das System nicht mit einem klassischen Pixelmodus, sondern mit einem erweiterten Zeichensatz. Dieser enthält neben Buchstaben und Zahlen auch grafische Elemente, die sich direkt nutzen lassen. Dadurch entstehen einfache Spiele und Visualisierungen, die über reine Textdarstellung hinausgehen, ohne dass zusätzliche Hardware notwendig ist.

Als Massenspeicher dient zunächst ein Kassettensystem mit 300 Baud nach dem Kansas-City-Standard . Das Laden von Programmen erfordert Geduld, entspricht aber dem damaligen Standard. Mit den optionalen Mini-Floppy-Laufwerken ändert sich das deutlich. Programme stehen schneller zur Verfügung, und der Umgang mit Daten wird wesentlich komfortabler.

Über die 610-Erweiterungsplatine lassen sich neben zusätzlichem Speicher auch Diskettencontroller sowie Schnittstellen für Drucker und Modem integrieren . Damit entwickelt sich der Challenger 1P von einem einfachen Einstiegssystem zu einer flexiblen Arbeitsumgebung, die sich an unterschiedliche Anforderungen anpassen lässt.

Preislich lag der Rechner bei rund 349 US-Dollar. Inflationsbereinigt entspricht das heute etwa 1.600 bis 2.000 Euro. Ein vollständiges System mit Monitor oder geeigneter Peripherie lag entsprechend darüber, sodass auch dieser Rechner eine bewusste Anschaffung darstellte.

Im direkten Vergleich positioniert sich der Challenger 1P zwischen den etablierten Systemen seiner Zeit. Der Apple II bietet mehr Flexibilität durch sein Steckkartensystem, der Commodore PET 2001 überzeugt durch seine geschlossene Bauweise, und der TRS-80 Model I richtet sich klar an Einsteiger. Der Challenger 1P ist in vielen Bereichen schneller, bleibt dabei aber technischer und weniger komfortorientiert.

Genau so wurde er auch beschrieben. Das Compute!-Magazin sieht in ihm eine ernstzunehmende Option für Anwender, die programmieren möchten und dabei auf ein gutes Preis-Leistungs-Verhältnis achten. Dieser Eindruck passt auch heute noch.

Der Challenger 1P ist kein System, das versucht, den Nutzer zu entlasten. Er bleibt nah an seiner technischen Basis, lässt sich nachvollziehen und erweitern, verlangt dafür aber auch ein gewisses Maß an Verständnis. Gerade darin liegt seine Besonderheit.

 

Vom QDOS zu MS-DOS: Wie ein improvisiertes Betriebssystem zur Grundlage der PC-Ära wurde

Seattle, Frühjahr 1980. In den Büroräumen von Seattle Computer Products sitzt ein junger Entwickler über einem neuen Projekt. Die Firma hat gerade eine Prozessorplatine für den Intel 8086 entwickelt – eine leistungsfähige 16-Bit-CPU, die auf dem damals verbreiteten S-100-Bus eingesetzt werden soll. Doch ohne ein Betriebssystem bleibt die Hardware kaum nutzbar. Also beginnt der Ingenieur Tim Paterson, ein eigenes System zu schreiben. In wenigen Wochen entsteht ein funktionierendes System, das intern den pragmatischen Namen „Quick and Dirty Operating System“ erhält. Jahrzehnte später erinnerte sich Paterson nüchtern an diese Situation: Er habe das System schlicht geschrieben, „weil wir ein Betriebssystem für die 8086-Karte brauchten“, und damals nicht gedacht, dass daraus einmal etwas Bedeutendes entstehen würde.

Als im August 1981 der IBM PC vorgestellt wurde, lief bereits eine weiterentwickelte Version dieses Systems auf der neuen Maschine. In den folgenden Jahren verbreiteten sich Varianten dieses Systems auf hunderten Millionen Personal Computern weltweit. Bis Anfang der 1990er-Jahre hatte Microsoft bereits rund 100 Millionen Lizenzen von MS-DOS verkauft. Hinzu kamen kompatible Varianten wie IBM PC-DOS oder DR-DOS sowie die später auf DOS aufbauenden Systeme Windows 95, Windows 98 und Windows Me, deren installierte Basis die tatsächliche Verbreitung noch erheblich vergrößerte. In vielen Regionen kamen zudem große Mengen nicht lizenzierter Kopien hinzu. Der Ursprung dieser Entwicklung lag jedoch nicht bei IBM und auch nicht bei Microsoft, sondern bei einem kleinen Hardwareunternehmen im Bundesstaat Washington. Dort entstand 1980 ein Betriebssystem namens 86-DOS, das ursprünglich nur dazu gedacht war, eine neue Prozessorplattform überhaupt nutzbar zu machen.

Seattle Computer Products war zu dieser Zeit ein vergleichsweise kleines Unternehmen aus der Region Seattle, das vor allem Erweiterungskarten und Prozessorboards für den S-100-Bus herstellte. Gegründet wurde die Firma 1978 von Rod Brock. Der Markt für Mikrocomputer befand sich damals in einer Phase rasanten Wachstums, doch die Softwarelandschaft war stark fragmentiert. Der De-facto-Standard war CP/M von Digital Research, ein Betriebssystem für 8-Bit-Prozessoren wie den Intel 8080 oder Zilog Z80. Viele Hersteller warteten auf eine angekündigte 16-Bit-Variante namens CP/M-86, doch deren Entwicklung verzögerte sich.

Für Unternehmen wie Seattle Computer Products stellte das ein praktisches Problem dar. Die neue 8086-Hardware konnte zwar technisch überzeugen, doch ohne ein Betriebssystem war sie für Entwickler und Anwender kaum attraktiv. In dieser Situation begann Tim Paterson im Frühjahr 1980 mit der Entwicklung eines eigenen Systems.

Das Projekt erhielt intern zunächst den Namen QDOS, eine Abkürzung für „Quick and Dirty Operating System“. In frühen Anzeigen und Produktinformationen von Seattle Computer Products wurde diese Bezeichnung zeitweise auch öffentlich verwendet. Schon bald entschied sich das Unternehmen jedoch für den Namen 86-DOS, der sich direkt auf den verwendeten Intel-Prozessor bezog und professioneller wirkte.

Technisch war das System bemerkenswert kompakt. Der ursprüngliche Kernel bestand aus nur etwa sechs Kilobyte Assemblercode, eine Größe, die selbst für damalige Verhältnisse ungewöhnlich klein war. Dennoch enthielt das System bereits die grundlegenden Funktionen eines Diskettenbetriebssystems: einen Kommandointerpreter, Dateiverwaltung sowie eine Programmierschnittstelle, über die Anwendungen mit dem Betriebssystem kommunizieren konnten.

Bei der Gestaltung orientierte sich Paterson teilweise an CP/M, das damals praktisch der Industriestandard für Mikrocomputer darstellte. Viele Befehle und Strukturen wurden bewusst ähnlich gehalten, um Entwicklern den Übergang zu erleichtern und die Portierung bestehender Programme zu vereinfachen. Gleichzeitig versuchte er jedoch, einige Schwächen des Vorbilds zu vermeiden. Besonders kritisch sah er die Art und Weise, wie CP/M Diskettenzugriffe organisierte. Das System benötigte oft mehrere Umdrehungen der Diskette, um alle benötigten Daten eines Tracks einzulesen, was den Zugriff vergleichsweise langsam machte. Paterson versuchte deshalb, die Diskettenorganisation effizienter zu gestalten und unnötige Rotationen zu vermeiden.

Eine wichtige technische Entscheidung war die Nutzung einer File Allocation Table (FAT) zur Verwaltung von Dateien. Diese Struktur hatte Paterson zuvor aus Microsofts Disk-BASIC kennengelernt und adaptierte sie für sein Betriebssystem. Das FAT-Dateisystem erlaubte eine flexiblere Organisation von Dateien und wurde später zu einem der langlebigsten technischen Elemente der gesamten DOS-Familie.

Die ersten Versionen von 86-DOS waren bewusst minimalistisch gehalten. Das System bot nur eine begrenzte Zahl grundlegender Befehle – etwa zwanzig interne und externe Kommandos –, mit denen Dateien verwaltet und Programme gestartet werden konnten. Für Entwickler reichte diese Umgebung jedoch aus, um erste Anwendungen für den neuen 16-Bit-Prozessor zu schreiben.

Seattle Computer Products begann 1980 damit, seine 8086-Hardware zusammen mit 86-DOS anzubieten. Anzeigen aus dieser Zeit zeigen Komplettpakete aus CPU-Karte, Support-Board und Betriebssystem für Entwickler und Systembauer. Für das Unternehmen selbst war die Software jedoch vor allem ein praktisches Werkzeug, um die eigene Hardware überhaupt nutzbar zu machen.

Während diese Entwicklung im Nordwesten der USA stattfand, arbeitete IBM an einem Projekt, das später als IBM PC bekannt werden sollte. Um die Entwicklung zu beschleunigen, entschied sich das Unternehmen bewusst gegen eine vollständig proprietäre Architektur. Stattdessen sollten möglichst viele Komponenten aus bereits verfügbaren Standardbausteinen bestehen. Für den Prozessor fiel die Wahl auf den Intel 8088, eine Variante des 8086 mit 8-Bit-Datenbus.

Auch beim Betriebssystem wollte IBM auf vorhandene Lösungen zurückgreifen. Der naheliegendste Kandidat war Digital Research, dessen CP/M damals den Markt für Mikrocomputer dominierte. Im Sommer 1980 nahmen IBM-Vertreter daher Kontakt mit dem Unternehmen auf, um über eine Version namens CP/M-86 für den neuen Rechner zu sprechen.

Die Gespräche verliefen jedoch nicht wie geplant. Verschiedene Berichte schildern unterschiedliche Details, doch fest steht, dass keine Einigung zustande kam. Eine häufig erzählte Version besagt, dass Gary Kildall, der Gründer von Digital Research, an diesem Tag nicht persönlich an den Verhandlungen teilnahm und die Gespräche zunächst von seiner Frau Dorothy McEwen geführt wurden. Sie weigerte sich, eine von IBM verlangte Geheimhaltungsvereinbarung zu unterschreiben, ohne sie vorher juristisch prüfen zu lassen. Als Kildall später zurückkehrte, war die Situation bereits festgefahren. Ob es danach noch weitere Gespräche gab, ist unter Historikern umstritten. Am Ende kam jedoch kein Vertrag zustande.

IBM suchte daher nach einer Alternative und wandte sich an ein kleines Unternehmen aus Seattle, das bereits Software für verschiedene Mikrocomputer geliefert hatte: Microsoft.

Microsoft war zu diesem Zeitpunkt vor allem als Hersteller von Programmiersprachen bekannt. Besonders Microsoft BASIC war auf zahlreichen Mikrocomputern der späten 1970er-Jahre im Einsatz. IBM beauftragte das Unternehmen daher zunächst damit, eine BASIC-Version für den neuen Personal Computer bereitzustellen. Erst im Verlauf dieser Zusammenarbeit entstand auch die Frage nach einem geeigneten Betriebssystem.

Microsoft selbst besaß jedoch noch keines. Hier kam eine Erinnerung von Paul Allen, dem Mitgründer des Unternehmens, ins Spiel. Allen wusste von dem Betriebssystem, das bei Seattle Computer Products für den 8086 entwickelt worden war. Für Microsoft bot sich damit eine Möglichkeit, schnell eine Grundlage für ein neues PC-Betriebssystem zu erhalten.

Ende 1980 erwarb Microsoft zunächst eine Lizenz für 86-DOS von Seattle Computer Products. Kurz darauf entschied sich das Unternehmen jedoch, sämtliche Rechte an der Software vollständig zu übernehmen. Durch diesen Schritt erhielt Microsoft die Kontrolle über die Weiterentwicklung des Systems und konnte es auch unabhängig an andere Hersteller lizenzieren.

Um das System rasch an die Anforderungen des IBM-PC-Projekts anzupassen, holte Microsoft schließlich auch Tim Paterson selbst ins Unternehmen. Der Entwickler wechselte 1981 von Seattle Computer Products nach Redmond und arbeitete dort an der Anpassung seines Systems für den Intel 8088 des neuen Personal Computers.

Erst im Laufe dieser Arbeit wurde ihm klar, für welchen Kunden das Projekt tatsächlich bestimmt war. In späteren Interviews erinnerte sich Paterson, dass Microsoft intern zunächst lediglich von einem neuen Computer eines großen Herstellers gesprochen habe. Erst nach und nach wurde deutlich, dass es sich um den geplanten Personal Computer von IBM handelte. Für Paterson, der wenige Monate zuvor noch ein Betriebssystem für eine S-100-Prozessorplatine geschrieben hatte, bedeutete diese Erkenntnis eine unerwartete Wendung: Aus einem improvisierten Werkzeug für eine einzelne Hardwareplattform wurde plötzlich das Betriebssystem eines Rechners, der kurz darauf zu einer neuen Standardplattform der Personal-Computer-Industrie werden sollte.

Als der IBM PC im August 1981 schließlich vorgestellt wurde, erschien das Betriebssystem unter dem Namen PC-DOS. Parallel dazu behielt Microsoft jedoch das Recht, das System auch unabhängig von IBM zu lizenzieren und unter eigener Bezeichnung zu vertreiben.

Diese Vertragsstruktur erwies sich im Rückblick als entscheidend. Während IBM seine eigene Variante des Systems verwendete, konnte Microsoft das Betriebssystem an die wachsende Zahl von IBM-PC-kompatiblen Computern lizenzieren. Als in den folgenden Jahren immer mehr Hersteller sogenannte PC-Klone auf den Markt brachten, wurde MS-DOS zum gemeinsamen Softwarefundament dieser neuen Computerplattform.

Aus dem kleinen Projekt, das Tim Paterson ursprünglich als pragmatische Lösung für eine einzelne Prozessorplatine geschrieben hatte, entstand so die Grundlage für MS-DOS. In den folgenden Jahren wurde dieses System zum dominierenden Betriebssystem der PC-Welt und prägte eine ganze Generation von Personal Computern.

Die Geschichte von 86-DOS zeigt damit eine typische Konstellation der frühen PC-Industrie: Ein kleines Hardwareunternehmen löst ein unmittelbares technisches Problem, ein Softwareanbieter erkennt das größere Marktpotenzial – und aus einer pragmatischen Zwischenlösung entsteht schließlich eine der prägendsten Plattformen der Computergeschichte.

 

Piggybacking: Huckepack zum Speicher-Upgrade in der frühen Mikrocomputerzeit

In den frühen 1980er-Jahren stieg der Bedarf an Arbeitsspeicher deutlich schneller, als es die Entwickler vieler Heim- und Mikrocomputer vorgesehen hatten. Die Hürden für Upgrades waren hoch: RAM-Bausteine waren kostspielig, passende Erweiterungskarten oft nicht lieferbar oder im Gehäuse schlicht nicht vorgesehen. In dieser Situation etablierte sich unter Bastlern und Servicetechnikern eine pragmatische Lösung, die als Piggybacking bekannt wurde: Ein zusätzlicher Speicherchip wurde direkt auf einen vorhandenen Baustein gelötet – gewissermaßen „Huckepack“.

Technisch war dieses Verfahren möglich, da identische Speicherchips denselben Satz an Daten-, Adress- und Versorgungsleitungen nutzen. Diese Signale konnten problemlos parallel an beide Chips geführt werden. Die Herausforderung lag allein darin, zu steuern, welcher Baustein zu einem bestimmten Zeitpunkt aktiv sein sollte.

Beim Piggybacking wurden daher fast alle Pins des oberen Chips direkt mit dem darunterliegenden verbunden. Lediglich die Aktivierungsleitung – etwa der „Chip Select“ (CS) – wurde ausgespart. Man bog das entsprechende Beinchen des oberen Chips leicht nach außen und verband es über einen separaten Draht mit der Speicherlogik. So nutzten beide Bausteine denselben Bus, konnten aber getrennt angesprochen werden, ohne sich gegenseitig zu stören.

Besonders verbreitet war diese Methode bei Systemen mit DRAM-Bausteinen der 16- oder 64-Kilobit-Generation, etwa Chips wie dem 4116 (16 K × 1) oder später dem 4164 (64 K × 1). Statt ein komplett neues Platinenlayout zu entwerfen, ließ sich die Speicherkapazität so mit überschaubarem Aufwand erweitern.

Doch Piggybacking diente nicht nur der Aufrüstung: In Werkstätten war es auch ein bewährter Diagnose-Trick. Ein Techniker setzte dazu einen funktionierenden Speicherchip testweise direkt auf einen verdächtigen Baustein. Lief der Rechner plötzlich stabil, galt der darunterliegende Chip meist als identifiziertes Problem. Solche Diagnosemethoden finden sich bereits in der Elektronikliteratur der Zeit, etwa in Don Lancasters „TTL Cookbook“, das praktische Test- und Servicetechniken für integrierte Schaltungen beschreibt.

Auch prominente Systeme blieben von solchen Modifikationen nicht unberührt. Als Techniker Mitte der 1980er-Jahre versuchten, den Macintosh 128K auf 512 KB Arbeitsspeicher zu erweitern, tauchten in Bastler- und Werkstattkreisen verschiedene improvisierte Lösungen auf. Eine davon bestand darin, zusätzliche 4164-DRAMs direkt auf die vorhandenen Speicherchips zu setzen und die Aktivierungslogik entsprechend anzupassen. Larry Pina dokumentierte solche Eingriffe später ausführlich in seinem Werk „Macintosh Repair & Upgrade Secrets“ (1987).

Trotz ihrer Effizienz hatte die Methode Grenzen. Die zusätzliche elektrische Last auf den Leitungen stellte höhere Anforderungen an die Treiberbausteine, und bereits kleine Unterschiede im Timing konnten zu Instabilitäten führen. In der Serienproduktion blieb Piggybacking daher meist eine Übergangslösung, bis eine neue Platinenrevision mit optimierter Speicherarchitektur verfügbar war.

Piggybacking war damit weniger eine offizielle Designstrategie als eine praktische Werkstattlösung. Wenn Erweiterungshardware fehlte oder ein defekter Baustein schnell identifiziert werden musste, genügte oft ein identischer Chip und ein Stück Draht. In vielen Fällen funktionierte diese einfache Methode erstaunlich zuverlässig.

Intel 8088

Von Konstantin Lanzet - CPU collection Konstantin Lanzet, CC BY-SA 3.0, https://commons.wikimedia.org/w/index.php?curid=6692144

Der Intel 8088 gehört zu jenen Prozessoren, deren historische Bedeutung sich weniger aus ihren reinen Leistungsdaten ergibt als aus den Entscheidungen, die um ihn herum getroffen wurden. Als Intel ihn 1979 vorstellte, wirkte er auf dem Papier wie ein Kompromiss: intern ein vollwertiger 16-Bit-Prozessor, nach außen jedoch mit einem 8-Bit-Datenbus ausgestattet. Genau dieser scheinbare Rückschritt sollte sich jedoch als strategischer Glücksfall erweisen – nicht nur für Intel selbst, sondern für die gesamte Personal-Computer-Industrie der frühen 1980er-Jahre.

Technisch basiert der 8088 auf derselben Architektur wie der ein Jahr zuvor erschienene Intel 8086. Beide Prozessoren verfügen über identische Register, denselben Befehlssatz und das segmentierte Speicheradressmodell mit 20-Bit-Adressraum, das theoretisch bis zu ein Megabyte Arbeitsspeicher erlaubt. Der entscheidende Unterschied liegt ausschließlich in der Bus-Anbindung: Während der 8086 Daten extern mit 16 Bit überträgt, beschränkt sich der 8088 auf 8 Bit. Diese Entscheidung erlaubte den Einsatz günstigerer Speicherbausteine, einfacherer Platinenlayouts und vorhandener 8-Bit-Peripherie. Typische Taktfrequenzen lagen anfangs bei 4,77 MHz, später folgten Varianten mit 5, 8 und bis zu 10 MHz.

Diese Auslegung war kein Zufall, sondern Ausdruck einer klaren Systemstrategie. Intel verstand den 8088 nicht als abgespeckte Notlösung, sondern als Brücke zwischen der etablierten 8-Bit-Welt und der kommenden 16-Bit-Generation. Aus Sicht des Programmierers verhielten sich 8086 und 8088 identisch; Unterschiede zeigten sich erst auf der Ebene der Speicheranbindung. Dass der 8088 in der Praxis oft langsamer wirkte als sein 16-Bit-Pendant, lag weniger am Rechenkern selbst als an der kleineren Vorlade-Warteschlange und dem schmaleren Datenbus, die den Instruktionsnachschub begrenzten. Moderne Analysen zeigen, dass dieser Leistungsnachteil stark vom jeweiligen Programmcode abhing und nicht pauschal war.

Historisch untrennbar verbunden ist der Intel 8088 mit dem IBM PC 5150 aus dem Jahr 1981. IBM entschied sich bewusst gegen den technisch leistungsfähigeren 8086 und wählte den 8088 aus pragmatischen Gründen. Ausschlaggebend waren die kürzere Entwicklungszeit, die Nutzung bewährter 8-Bit-Supportchips und eine insgesamt geringere Systemkomplexität. Leistungsreserven spielten eine untergeordnete Rolle; entscheidend war ein robustes, schnell realisierbares Gesamtsystem. Mit dieser Wahl legte IBM den Grundstein für eine Plattform, die sich rasch zum industriellen Standard entwickelte.

Die Entwicklung des 8088 fällt in eine Phase, in der Intel sich endgültig vom reinen Speicherhersteller zum Prozessoranbieter wandelte. Nach dem Erfolg des 8080 sollte die 8086-Architektur den technologischen Schritt in die Zukunft markieren. Der 8088 war dabei die marktfähige Variante, die es erlaubte, neue Architekturkonzepte in bestehende Produktionsrealitäten einzubetten. Zeitgenössische Industrieberichte zeigen, dass Intel diesen Ansatz bewusst verfolgte: Architekturkontinuität und Skalierbarkeit wurden höher bewertet als maximale Rohleistung.

In der praktischen Anwendung zeigte der Prozessor ein ambivalentes Bild. Gegenüber klassischen 8-Bit-CPUs bot er klare Vorteile: größere Register, leistungsfähigere Befehle und einen deutlich erweiterten Adressraum. Gleichzeitig sorgte der 8-Bit-Bus dafür, dass viele Programme kaum schneller liefen als auf hochgetakteten Z80-Systemen. Frühere Magazinberichte wiesen daher häufig darauf hin, dass das theoretische Potenzial der Architektur im Alltag noch nicht vollständig ausgeschöpft wurde. Dennoch eröffnete der 8088 neue Einsatzfelder, insbesondere für komplexere Betriebssysteme und professionelle Anwendungen wie Textverarbeitung, Tabellenkalkulation und Datenbanken.

Zeitgenössische Fachzeitschriften beschrieben den 8088 entsprechend nüchtern. In der deutschsprachigen Presse galt er als zukunftssicher, aber teuer. Gelobt wurden die klare Architektur und das professionelle Umfeld, kritisch gesehen wurden Geschwindigkeit und Preisniveau. Ein 8088-System wirkte weniger wie ein Heimcomputer und mehr wie ein Arbeitsgerät – ein Eindruck, der das Image des IBM-PC und seiner zahlreichen Nachbauten lange prägte.

Wirtschaftlich bewegte sich der Intel 8088 im klassischen Business-Segment. Der Prozessor selbst war deutlich teurer als zeitgenössische 8-Bit-CPUs, rechtfertigte diesen Preis jedoch durch seine Positionierung in professionellen Systemen. Komplettrechner auf 8088-Basis lagen inflationsbereinigt schnell im Bereich mehrerer tausend Euro. Erst mit dem Aufkommen kompatibler PC-Clones sanken die Preise allmählich, ohne den grundsätzlichen Charakter der Plattform zu verändern.

Die Nachwirkung des 8088 ist kaum zu überschätzen. Obwohl er technisch bald vom 80286 und später vom 80386 überholt wurde, definierte er zentrale Grundlagen der PC-Architektur: das Zusammenspiel von Prozessor, BIOS, Peripherie und Betriebssystem ebenso wie das segmentierte Speichermodell. Selbst Jahrzehnte später mussten Entwickler Rücksicht auf diese frühen Entscheidungen nehmen. Der 8088 gilt daher weniger als technischer Höhepunkt, sondern vielmehr als Fundament einer bis heute fortgeführten Architektur.

Rückblickend erscheint der Intel 8088 als Prozessor mit enormer Systemwirkung. Er war nicht der eleganteste Chip seiner Zeit und auch nicht der schnellste. Doch durch die Kombination aus technischer Solidität, industrieller Akzeptanz und dem richtigen Zeitpunkt wurde er zum Ausgangspunkt einer Entwicklung, die den Personal Computer aus einer Nische in den Alltag von Büros und Verwaltungen führte. In diesem Sinne steht der 8088 exemplarisch für eine zentrale Erkenntnis der Computergeschichte: Entscheidend ist nicht allein die maximale Leistung, sondern die Fähigkeit, ein tragfähiges System zu ermöglichen.

 

Oric 1

Oric-1: Der ehrgeizige Heimcomputer aus der zweiten Reihe der 80er Jahre

Source: https://www.computinghistory.org.uk/det/526/Oric-1-48k/

Als der Oric-1 im Jahr 1983 in Großbritannien erschien, traf er in einen Markt, der durch schnelle technische Entwicklungen und wachsenden Preisdruck geprägt war. Tangerine Computer Systems, bis dahin vor allem durch den Microtan 65 in der Bastlerszene bekannt, wollte mit diesem neuen Modell den Schritt vom Baukastenrechner zum vollwertigen Heimcomputer schaffen. Für die Vermarktung wurde Oric Products International Ltd gegründet, denn man plante bewusst ein Gerät, das im Massenmarkt bestehen sollte, mit einem klaren Ziel: eine Alternative zum ZX Spectrum zu bieten, die preislich konkurrenzfähig blieb, aber in mehreren Punkten technisch überzeugender wirken sollte. Die gesamte Entwicklung wird heute dem britischen Tangerine-Team zugeschrieben; einzelne namentliche Hauptentwickler sind in zeitgenössischen Dokumenten nicht gesichert überliefert.

Der Rechner basierte auf dem MOS Technology 6502A mit 1 MHz, einem Prozessor, der sich in zahlreichen erfolgreichen Heimcomputern der Zeit bewährt hatte. Der Oric-1 erschien in zwei RAM-Varianten, 16 KB und 48 KB, wobei die größere Version den Markt dominierte. Das 16-KB-ROM enthielt das Betriebssystem und ein speziell an den Rechner angepasstes BASIC. Die Tastatur bestand aus einzelnen Hartplastiktasten; zeitgenössische Berichte beurteilten sie unterschiedlich, von „funktionell“ bis „gewöhnungsbedürftig“, jedoch war sie klar getrennt beweglich und unterschied sich damit deutlich vom Gummitastatursystem des Spectrum. Für die interne Logik nutzte Oric einen kundenspezifischen Gate-Array-Baustein, der mehrere Funktionen bündelte und für die Kostenoptimierung eine entscheidende Rolle spielte.

Die Grafikmodi boten 240 × 200 Pixel bei acht Farben sowie 40-Zeichen-Textmodi, jeweils mit bestimmten Einschränkungen durch Farbblockbildung, die für Heimcomputer dieser Generation typisch waren. Der AY-3-8912 als dreikanaliger Tonchip stellte eine echte Mehrstimmigkeit bereit und wurde in Testberichten positiv erwähnt, besonders im Vergleich zu einfacheren Tonausgaben anderer preisgünstiger Geräte. Die Kassetten­schnittstelle war offiziell für Datenraten zwischen 300 und 2400 Baud ausgelegt, wobei Testberichte eher von mittleren, zuverlässigeren Werten ausgingen. Diese Angaben entsprechen dem, was aus britischen und französischen Magazinen des Jahres 1983 dokumentiert ist.

Auf dem britischen Markt erhielt der Oric-1 zunächst beachtliche Aufmerksamkeit, doch das Softwareangebot wuchs langsamer als bei seinen direkten Konkurrenten. Die Spectrum-Plattform hatte bereits einen deutlichen Vorsprung, und auch der Preisvorteil im unteren Marktsegment spielte Sinclair weiterhin in die Hände. Auffällig erfolgreich entwickelte sich dagegen der französische Markt, wo Oric durch lokale Vertriebsstrukturen deutlich präsenter war und eine engagierte Anwenderszene entstand. Der Rechner blieb dennoch im Schatten des Spectrum und des Commodore 64, deren Marktanteile schneller stiegen und deren Softwarebibliotheken durch größere Verlage und etablierte Entwicklerstudios erweitert wurden.

Preislich positionierte sich der Oric-1 aggressiv. Zeitgenössische Anzeigen führen für die Markteinführung rund £99.95 für die 16-KB-Version und £169.95 für die 48-KB-Variante auf. Inflationsbereinigt entspricht dies heute ungefähr 370 Euro beziehungsweise etwa 630 Euro. Dieser Preisrahmen zeigt klar, wie Oric seine Rolle sah: preislich näher beim Spectrum, technisch näher an Geräten wie dem VC-20 oder dem Atari 400, aber ohne deren teils höheren Endverbraucherpreise. Die frühen Produktionsreihen des Oric-1 sind in einigen Testberichten durch Hinweise auf bestimmte ROM-Revisionen und vereinzelt Tape-Handling-Probleme dokumentiert, doch darüber hinausgehende Aussagen zu systematischen Fertigungsfehlern lassen sich nicht belegen.

Bereits 1984 wurde der Oric-1 durch den Oric Atmos abgelöst, der ein überarbeitetes ROM und eine verbesserte Tastatur erhielt. Rückblickend bleibt der Oric-1 ein Beispiel für die Vielfalt der britischen Heimcomputerentwicklung zu Beginn der achtziger Jahre: technisch solide, klar strukturiert und mit einem Leistungsspektrum, das ihn theoretisch gut zwischen seinen Wettbewerbern hätte positionieren können. Dass er letztlich nicht die gleiche Marktdurchdringung erreichte, lag weniger an seiner technischen Basis als an der Dynamik eines Marktes, in dem Sinclair, Commodore und zunehmend auch internationale Hersteller bereits dominierende Rollen einnahmen. Dennoch markiert der Oric-1 einen wichtigen Moment dieser Ära, in der mehrere britische Firmen versuchten, eigene Architekturen zu etablieren und damit ihre Unabhängigkeit gegenüber der wachsenden Konkurrenz zu bewahren.

CP/M

CP/M: Die Vision eines Mannes, die zur Blaupause des PCs wurde

 

 

Gary Kildall war einer jener frühen Computerpioniere, die sich selbst kaum als solche betrachteten und dennoch eine ganze Ära prägten. Geboren 1942 in Seattle und später Professor an der Naval Postgraduate School in Monterey, galt er als technisch brillanter Kopf, der lieber experimentierte als sich mit geschäftlichen Formalitäten aufzuhalten. Zeitzeugen beschrieben ihn häufig als außergewöhnlich kreativ, aber nicht als jemanden, der sich besonders für harte Verhandlungen begeisterte – ein Charakterzug, der seine spätere Rolle in der Geschichte der Mikrocomputerindustrie mitprägte.

Seine Karriere begann bei Intel, wo er sich früh mit dem brandneuen 8080-Prozessor beschäftigte, dort die höhere Programmiersprache PL/M entwickelte und Werkzeuge schuf, die er später als „die ersten richtigen Werkzeuge des Mikrocomputerzeitalters“ bezeichnete. Diese Arbeit bildete die Grundlage für seine späteren Betriebssystemexperimente. Doch Intel interessierte sich wenig für eine eigene Betriebssystemlinie. Die Lücke nutzte Kildall – oder genauer gesagt: sie ließ sich durch seine Neugier schließen. Nach Feierabend experimentierte er zuhause mit Diskettencontrollern und schrieb ab 1973 an den ersten Fassungen dessen, was später CP/M werden sollte.

Für Laien lässt sich die Entstehung von CP/M leicht erklären: In den frühen 1970er-Jahren existierten Mikrocomputer meist nur als Prozessoren mit rudimentärer Software. Jeder Hersteller entwickelte eigene Lösungen, Programme ließen sich kaum übertragen, und ein gemeinsamer Standard war nicht in Sicht. CP/M war das erste wirklich weit verbreitete Mikrocomputer-Betriebssystem, das Ordnung in einen Markt brachte, der zuvor aus hunderten nicht miteinander kommunizierenden Inseln bestanden hatte. Es machte die frühen Rechner vergleichbar und erlaubte es, identische Programme auf völlig unterschiedlichen Maschinen zu nutzen. Was heute selbstverständlich ist – ein Betriebssystem, das Dateien verwaltet, den Startvorgang steuert und Programme lädt – war damals ein fundamentaler Fortschritt. Viele Historiker bezeichnen CP/M daher als das erste professionelle Betriebssystem der Personalcomputer-Ära.

CP/M entstand aus Kildalls Arbeit bei Intel, wo er PL/M entwickelte und Werkzeuge für den 8080 schrieb. Nach Feierabend experimentierte er zu Hause mit frühen Diskettensteuerungen und begann ab 1973 an der ersten Version zu arbeiten. Der entscheidende Schritt gelang ihm, als er eine effiziente Methode fand, Diskettenlaufwerke mit Mikroprozessoren anzusteuern – ein technisches Problem, das bis dahin als schwierig galt. Intel zeigte an einem eigenen Betriebssystem wenig Interesse, doch für Kildall war dies der Ausgangspunkt einer neuen Ära.

Gemeinsam mit seiner Frau Dorothy McEwen gründete er Digital Research, jene Firma, die CP/M kommerzialisierte und zur dominierenden Plattform der späten 1970er- und frühen 1980er-Jahre machte. Die Struktur von CP/M war ebenso einfach wie genial. Es bestand aus drei Komponenten: dem BIOS, das alle hardwarespezifischen Routinen enthielt; dem BDOS, der den Zugriff auf Dateien, Laufwerke und Systemdienste regelte; und dem CCP, dem Console Command Processor, der die Kommandozeile bereitstellte. Für Nichtfachleute lässt sich diese Architektur so beschreiben: Das BIOS sprach die Hardware, der BDOS bildete den Kern des Betriebssystems, und der CCP war die sichtbare Benutzerschnittstelle. Gerade diese klare Aufteilung machte CP/M extrem portierbar: Hersteller mussten lediglich ein eigenes BIOS schreiben, während der Rest unverändert blieb.

Die Arbeitsweise war einfach, aber effizient. Nach dem Einschalten erschien das bekannte „A>“-Prompt. Befehle wie DIR oder ERA wurden direkt ausgeführt, externe Programme lagen als .COM-Dateien vor und kehrten nach ihrem Ablauf wieder an das Betriebssystem zurück. Das Dateiformat mit acht Zeichen Dateiname und drei Zeichen Erweiterung, später als „8.3-Format“ bekannt, wanderte später direkt in MS-DOS. Ebenso die Laufwerksbuchstaben A:, B: und C:, die viele heute fälschlich ausschließlich mit Microsoft verbinden.

Wirtschaftlich war CP/M ein Meilenstein. Es gilt heute als das erste kommerziell erfolgreiche 8-Bit-Betriebssystem und lief auf mehreren hundert unterschiedlichen Computern – von North Star und Osborne über Kaypro bis zu Amstrad und zahlreichen industriellen Modellen. Konservative Schätzungen sprechen von über 300 Modellen, einige Archive nennen sogar zwischen 400 und 500, je nach Zählweise. Die enorme Verbreitung war möglich, weil CP/M erstmals portable Software ermöglichte: WordStar, dBASE II oder SuperCalc wurden zu industriellen Standards und prägten ganze Berufsgruppen. Wer CP/M unterstützte, konnte sofort auf einen großen Softwarepool zugreifen, was den Erfolg vieler Hersteller überhaupt erst ermöglichte.

Technisch lief CP/M üblicherweise auf Intel-8080- oder Zilog-Z80-Prozessoren mit 16 bis 64 KB RAM und einem oder zwei 5,25-Zoll-Diskettenlaufwerken. Spätere Versionen wie CP/M Plus (CP/M 3.0) unterstützten durch Bankswitching mehr Speicher und erweiterten den Funktionsumfang deutlich. Ein entscheidender Vorteil gegenüber proprietären Systemen wie Apple DOS oder dem TRS-80-Betriebssystem war die Offenheit: Hersteller konnten ihre Maschinen schnell CP/M-fähig machen, ohne selbst ein komplettes Betriebssystem entwickeln zu müssen.

Einer der am häufigsten diskutierten Momente der Computergeschichte ist die gescheiterte Verhandlung zwischen IBM und Digital Research über eine Lizenz für den IBM PC. Zeitgenössische Dokumente und mehrere Interviews – darunter Tom Rolander im Gespräch für die 1995 ausgestrahlte Folge „The Computer Chronicles: A Tribute to Gary Kildall“ – belegen, dass es zu Missverständnissen kam, teils durch juristische Unklarheiten, teils durch die ungewöhnlich hastig angesetzten Termine. IBM verließ das Treffen ohne Vertrag, Microsoft sprang ein, und MS-DOS wurde zum Standard der PC-Ära. Viele Historiker sehen darin den Punkt, an dem CP/M vom dominierenden System zum „verlorenen Standard“ wurde.

Preislich bewegte sich CP/M in einem Bereich, der je nach Lizenzmodell und Jahr variierte. Typische OEM-Lizenzen lagen zwischen 70 und 100 US-Dollar, was inflationsbereinigt etwa 230–330 US-Dollar im Jahr 2025 entspricht. Umfangreichere Produkte wie CP/M-86 kosteten als Einzelversion zwischen 250 und 400 US-Dollar, inflationsbereinigt ungefähr 780–1250 US-Dollar. Für kleine Firmen und Privatanwender waren dies spürbare Summen, doch angesichts der Stabilität und Portabilität erhielten sie erstmals eine professionelle Softwareumgebung.

Die Nachfolger von CP/M waren ehrgeizig: MP/M brachte Multitasking auf Mikrocomputer, CP/M-86 leitete den Übergang in die 16-Bit-Welt ein, und DR-DOS wurde später zum direkten Konkurrenten von MS-DOS. Doch der Markt hatte sich längst zugunsten der IBM-PC-Kompatibilität entschieden. Was blieb, war ein technisches Fundament, dessen Konzepte – das BIOS-Modell, das 8.3-Dateiformat und die Kommandozeilenarchitektur – in vielen Systemen bis heute weiterleben.

Damit steht CP/M als Monument einer Zeit, in der Mikrocomputer noch wagemutige Experimente waren und jeder Fortschritt eine ganze Branche verändern konnte. Ohne CP/M hätte die junge Personalcomputerwelt keinen einheitlichen Standard besessen – und ohne Gary Kildall wäre diese entscheidende Weiche nie gestellt worden. Er schrieb die Regeln einer Industrie, ohne je das Bedürfnis zu verspüren, sie anderen aufzuzwingen. Genau darin liegt sein Vermächtnis.

 

NCR Decision Mate V

Zwei Prozessoren, eine Mission: Der erstaunliche NCR Decision Mate V

Der Rechner basierte in der Grundversion auf einem Zilog Z80A, konnte jedoch durch ein optionales Intel-8088-Modul zu einem echten Dualprozessor-System erweitert werden. Einige Konfigurationen wurden bereits ab Werk mit dieser Erweiterung ausgeliefert, ein Umstand, den die Werbung ausdrücklich hervorhob und mit Formulierungen wie „You shouldn’t have to choose between 8-bit and 16-bit operating systems.“ sowie „With our dual processing system you can have the benefits of both.“ unterstrich. Diese modulare Architektur stützte sich auf eine proprietäre Backplane mit sieben Steckplätzen, wie es auch Prospekte und technische Unterlagen zeigen, und war typisch für die modulare NCR-Philosophie jener Zeit.

Zum Standardumfang gehörten zwei 5,25-Zoll-DS/DD-Diskettenlaufwerke, die optional durch eine 10-MB-Winchesterfestplatte ergänzt werden konnten. Die kompakte Bauweise mit integriertem 12-Zoll-Monitor verlieh dem Gerät eine professionelle Erscheinung, die sich bewusst von den damals üblichen, eher kastenförmigen IBM-PC-Konfigurationen unterschied. In Anzeigen wurde dieser Ansatz emotionalisiert: „The personal computer with a heart.“ und „We designed it with a heart.“ waren Slogans, die den Anspruch unterstreichen sollten, ein durchdachtes, langlebiges System zu liefern.

Eine der stärksten Eigenschaften des Systems lag im Grafikbereich. Der verbaute NEC µPD7220 gehörte zu den fortschrittlichsten Grafikprozessoren seiner Zeit und war auch in deutlich teureren Maschinen wie dem NEC APC III oder frühen CAD-Workstations zu finden. Zeitgenössische Tests wie Creative Computing oder InfoWorld betonten regelmäßig, dass die Grafikleistung dem IBM PC klar überlegen war. Die Architektur des Systems erklärt die auffällig flexible Speicheraufteilung: Im Monochrommodus genügten 32 KB, während im Farbmodus drei planare Ebenen – Rot, Grün und Blau – parallel arbeiteten und damit 96 KB belegten (32 KB pro Ebene). Die Werbung stellte dies als selbstverständlich dar und betonte: „Graphics are built into every machine.“

Eher zwiespältig fiel die Rückmeldung zur Tastatur aus. Zwar bewarb NCR sie als „detachable low-profile keyboard“ und mit „advanced ergonomic design“, doch einige Tester der Zeit empfanden den Anschlag als weicher und weniger präzise als bei den mechanischen Tastaturen von IBM oder Cherry. Die Tastenform unterschied sich sichtbar vom Industrie­standard, und die zwanzig programmierbaren Funktionstasten, mit denen „boring repetitive tasks“ vermieden werden sollten, konnten für anspruchsvolle Vielschreiber nicht alle Kritikpunkte ausgleichen. Gleichwohl blieb die Tastatur voll funktionsfähig und entsprach in ihrer Verarbeitung den übrigen Qualitätsmerkmalen des Systems – sie war schlicht kein besonderes Highlight.

Die Softwareunterstützung war für ein nicht-IBM-kompatibles System ungewöhnlich breit: CP/M-80, CP/M-86 und – bei installiertem 8088-Modul – auch MS-DOS 2.11 standen zur Verfügung. Vollständige PC-Kompatibilität bestand zwar nicht, doch viele textorientierte Programme liefen problemlos, sofern sie BIOS-konform arbeiteten. Creative Computing nannte die damaligen gängigen Preise: Das 16-Bit-Upgrade kostete rund 500 Dollar, MS-DOS etwa 50 Dollar, CP/M-86 rund 60 Dollar und WordStar 495 Dollar. Eine typische, gut ausgestattete Konfiguration lag damit bei etwa 5.040 Dollar – inflationsbereinigt ungefähr 15.500 Dollar –, womit klar war, dass der Decision Mate V primär für professionelle Anwender gedacht war.

Auch in Deutschland bestätigte sich dieses Bild. Die Basisversion wurde zu etwa 7.350 DM angeboten, ein Wert, der in mehreren Anzeigen dieser Zeit genannt wird. Voll ausgebaute Systeme mit Festplatte, Farboption und erweitertem Speicher lagen deutlich höher; zeitgenössische Berichte sprechen von Preisen im Bereich gut ausgestatteter Bürorechner zwischen 18.000 und über 20.000 DM, je nach Händler und Konfiguration. NCR selbst hob in europäischen Anzeigen seine lange Unternehmensgeschichte hervor und unterstrich seinen Anspruch mit Slogans wie: „NCR has been making computers for as long as there have been computers.“ und „We’ve been doing business in Europe since 1885.“ Die Betonung auf Erfahrung, Technologie und Service zielte klar auf Unternehmen und Behörden, die eher Wert auf Zuverlässigkeit als auf die sich erst langsam etablierende IBM-PC-Kompatibilität legten.

Dass sich der Decision Mate V dennoch nicht dauerhaft behaupten konnte, lag weniger an seinen technischen Eigenschaften als an der rasanten Marktentwicklung ab 1983/84. Die IBM-PC-Kompatibilität setzte sich unaufhaltsam durch, und Hersteller mit proprietären Lösungen verloren zunehmend an Boden. NCR selbst stellte bald auf voll kompatible Systeme um. Der Decision Mate V bleibt jedoch ein beeindruckendes Beispiel jener Übergangszeit – ein Rechner, der, wie die Werbung vollmundig versprach, „A relationship you won’t outgrow.“ sein sollte und heute gerade wegen seiner Eigenständigkeit und konstruktiven Sorgfalt fasziniert.

 

Amstrad CPC 464

Amstrad CPC 464

Amstrad CPC 464Der Amstrad CPC (Colour Personal Computer), eine Heimcomputer-Serie aus Großbritannien, wurde 1984 von Amstrad unter der Leitung von Alan Michael Sugar veröffentlicht. Die Serie war Amstrads Antwort auf die Dominanz von Commodore, Sinclair und Acorn im britischen Heimcomputermarkt der frühen 1980er Jahre. Sugar, ein britischer Unternehmer aus einfachen Verhältnissen, hatte sich bis dahin mit billigen Stereoanlagen und Haushaltsgeräten einen Namen gemacht. Mit dem CPC wollte er in den expandierenden Heimcomputermarkt einsteigen, allerdings mit einer radikal anderen Herangehensweise: statt einem nackten Motherboard wie beim Sinclair ZX Spectrum oder modularen Komponenten wie beim Commodore 64 sollte der CPC als komplettes, benutzerfreundliches Paket daherkommen – inklusive Monitor und eingebautem Massenspeicher.

Der ursprüngliche CPC 464 erschien im Juni 1984 zu einem Preis von etwa £199 mit Monochrommonitor oder £299 mit Farbmonitor. Inflationsbereinigt entspricht das heute etwa 770 bis 1.160 Euro. Diese Strategie – ein Komplettsystem ohne das sonst übliche Kabelgewirr und externe Netzteile – war eine durchschlagende Innovation. Die ersten Modelle verkauften sich hervorragend, was nicht zuletzt am aggressiven Marketing lag: Die Werbekampagnen stellten den CPC als stilvolle, moderne Alternative zu den alternden Heimcomputern der Konkurrenz dar. In der „Your Computer“-Ausgabe vom August 1984 hieß es: „Der CPC ist ein Statement: Endlich ein Computer, der wie ein Gerät für Menschen aussieht und nicht wie ein Spielzeug für Bastler.“

Technisch war der CPC 464 um den Zilog Z80A-Prozessor herum aufgebaut, der mit 4 MHz getaktet war. Der Z80 war zu dieser Zeit ein populärer 8-Bit-Prozessor, der ursprünglich von Zilog entwickelt worden war, einer Firma, die von ehemaligen Intel-Mitarbeitern gegründet wurde. Der Z80 war binärkompatibel zum Intel 8080, aber mit erweitertem Befehlssatz und zusätzlichen Registern. Dies machte ihn für viele Entwickler attraktiv, da er sowohl leistungsfähig als auch kostengünstig war. Der Z80 verarbeitete Daten in 8-Bit-Schritten und adressierte bis zu 64 KB RAM direkt. Der CPC 464 verfügte standardmäßig über 64 KB RAM, später gab es Modelle mit 128 KB.

Die Grafikeinheit des CPC bot drei verschiedene Bildschirmmodi: Mode 0 mit 160×200 Pixeln bei 16 Farben, Mode 1 mit 320×200 Pixeln bei 4 Farben, und Mode 2 mit 640×200 Pixeln bei nur 2 Farben. Damit bot der CPC eine enorme Flexibilität – und schlug den ZX Spectrum in Farbdarstellung und Auflösung deutlich. Die Palette umfasste 27 Farben, wobei je nach Modus eine bestimmte Auswahl gleichzeitig darstellbar war. Der Bildschirm wurde über einen eingebauten Gate Array Chip angesteuert, der die Zusammenarbeit zwischen dem Prozessor und dem CRTC (Cathode Ray Tube Controller, ein Hitachi 6845) regelte.

Die Tonerzeugung übernahm der AY-3-8912 Soundchip von General Instrument. Dieser dreistimmige PSG (Programmable Sound Generator) war auch im MSX-Standard, dem Atari ST und im ZX Spectrum 128 enthalten. Er ermöglichte komplexe Klangstrukturen und war fähig, einfache Musik sowie Soundeffekte für Spiele zu generieren. Der AY-3-8912 verfügte über drei unabhängige Kanäle mit steuerbarer Lautstärke und Rauschgenerator, was ihn dem SID-Chip des C64 zwar unterlegen, aber dem simplen Beeper des Spectrum weit überlegen machte.

Das Betriebssystem des CPC war AMSDOS, ein in ROM eingebettetes Dateisystem, das mit dem ebenfalls enthaltenen Locomotive BASIC eng verzahnt war. Dieses BASIC galt damals als eines der leistungsfähigsten auf Heimcomputern. Es ermöglichte strukturierte Programmierung, hatte viele Befehle für Grafik und Sound, und nutzte die Hardware effizient aus. Locomotive Software Ltd., die dieses BASIC entwickelte, bestand aus einer kleinen Gruppe talentierter Entwickler, angeführt von Richard Clayton. Sie arbeiteten eng mit Amstrad zusammen, um ein konsistentes Benutzererlebnis zu garantieren.

Der Aufbau des CPC war ein Alleinstellungsmerkmal: Der Computer war in die Tastatureinheit integriert, ein Bandlaufwerk (bzw. später ein 3-Zoll-Diskettenlaufwerk beim CPC 664/6128) war eingebaut, und ein Monitor diente gleichzeitig als Netzteil für das System – ein cleveres Design, das Kabelsalat und Kompatibilitätsprobleme minimierte. Der Massenspeicher war zunächst das Kassettenlaufwerk, später ersetzte Amstrad es durch ein 3-Zoll-Diskettenlaufwerk, das von Hitachi stammte. Diese Disketten boten eine Kapazität von 178 KB pro Seite und galten als zuverlässig, waren jedoch teurer und weniger verbreitet als die 5,25-Zoll- oder 3,5-Zoll-Diskettenformate der Konkurrenz. Dies führte dazu, dass viele Anwender Adapter oder Zusatzlaufwerke verwendeten.

Anschlusstechnisch verfügte der CPC über einen Expansion-Port, Joystick-Anschluss, Audio-Ausgang, Druckeranschluss und einen RGB-Monitoranschluss. Viele Peripheriegeräte wurden geplant oder tatsächlich produziert, darunter Plotter, externe Laufwerke, Speichererweiterungen, Maus-Interfaces, Lightguns und sogar MIDI-Erweiterungen. Amstrad versuchte auch, den CPC als Bildungsrechner in Schulen zu etablieren – mit begrenztem Erfolg, da BBC Micro und Acorn hier stärker waren.

Mit über drei Millionen verkauften Einheiten war die CPC-Serie kommerziell ein großer Erfolg, insbesondere in Frankreich, Spanien und Großbritannien. Der CPC wurde nicht nur im Handel stark beworben, sondern auch als „Volkscomputer“ im Schulsystem einiger Länder eingeführt. Die CPC 464, 664 und 6128 bildeten die Kernfamilie, später folgten kompakte Varianten wie der CPC 464+ und 6128+ im Jahr 1990, die sich jedoch nicht mehr gut verkauften. In einem Artikel der französischen Zeitschrift Tilt wurde 1985 geschrieben: „Der CPC hat das geschafft, was der Thomson MO5 nicht konnte: Schüler begeistern, Eltern überzeugen und Entwickler motivieren.“

Zu den Nachteilen des CPC gehörten die proprietären 3-Zoll-Disketten, die begrenzte Softwarekompatibilität mit anderen Plattformen, sowie die etwas schwerfällige Grafikprogrammierung in BASIC. Auch wenn die Hardware solide war, wurden viele Spiele nur in Modus 1 mit 4 Farben portiert, um die Speicherkapazität nicht zu überlasten – ein Punkt, der die visuelle Qualität vieler Titel gegenüber C64- oder ST-Versionen schmälert. Dafür punktete der CPC mit Zuverlässigkeit, einfacher Bedienung und gutem BASIC.

Im Vergleich zur Konkurrenz war der C64 klanglich überlegen (dank SID), der Spectrum billiger (aber technisch deutlich unterlegen), und der BBC Micro besser für Bildungseinrichtungen ausgestattet, aber teurer. Der CPC versuchte sich dazwischen zu positionieren – mit einem gewissen Maß an Erfolg. Alan Sugar selbst bemerkte einmal süffisant: „Wir bauen keine Computer für Freaks. Wir bauen Maschinen für Menschen, die einfach einen funktionierenden Computer wollen.“

Zwar war der Amstrad CPC nie so stark mit prominenten Fans verbunden wie der Commodore 64 oder der ZX Spectrum, doch gibt es einige bekannte Persönlichkeiten aus der Technik-, Musik- oder Gameszene, die sich öffentlich als Fans oder frühere Nutzer des Amstrad CPC geäußert haben. Hier sind einige davon, darunter auch solche, die heute in der Retro- oder Games-Community einen gewissen Bekanntheitsgrad besitzen, beispielsweise Ben Daglish – Der bekannte britische Komponist von 8-Bit-Musik (u.a. The Last Ninja, Krakout) arbeitete zwar vorrangig für den C64, äußerte aber mehrfach in Interviews seine Sympathie für den CPC-Soundchip AY-3-8912 und nannte ihn „eleganter als man glaubt“. In einem Interview mit Retro Gamer sagte er: „Mit ein bisschen Liebe und technischem Verständnis ließ sich dem CPC-Soundchip fast so viel Gefühl entlocken wie dem SID.“

Auch John Romero war von der CPC Reihe angetan. Der Mitbegründer von id Software (Doom, Quake) erwähnte in einem Twitter-Beitrag, dass er nie selbst einen CPC besaß, aber ein Fan von CPC-Demos geworden sei, nachdem er sie auf Retro-Festivals gesehen hatte: „Demos auf dem CPC zeigen, wie viel man aus limitierter Hardware herausholen kann – echtes Kunsthandwerk.

Heute gilt der Amstrad CPC als einer der stilvollsten und durchdachtesten Heimcomputer der 80er Jahre. Eine aktive Retro-Community pflegt sein Erbe, entwickelt neue Spiele, Hardware-Erweiterungen und Emulatoren. Der CPC war nie der revolutionärste Computer – aber er war einer der solidesten, und sein Erfolg zeigt, dass durchdachtes Design und kluge Marktstrategie selbst gegen technisch überlegene Konkurrenten bestehen konnten.