Vom QDOS zu MS-DOS: Wie ein improvisiertes Betriebssystem zur Grundlage der PC-Ära wurde

Seattle, Frühjahr 1980. In den Büroräumen von Seattle Computer Products sitzt ein junger Entwickler über einem neuen Projekt. Die Firma hat gerade eine Prozessorplatine für den Intel 8086 entwickelt – eine leistungsfähige 16-Bit-CPU, die auf dem damals verbreiteten S-100-Bus eingesetzt werden soll. Doch ohne ein Betriebssystem bleibt die Hardware kaum nutzbar. Also beginnt der Ingenieur Tim Paterson, ein eigenes System zu schreiben. In wenigen Wochen entsteht ein funktionierendes System, das intern den pragmatischen Namen „Quick and Dirty Operating System“ erhält. Jahrzehnte später erinnerte sich Paterson nüchtern an diese Situation: Er habe das System schlicht geschrieben, „weil wir ein Betriebssystem für die 8086-Karte brauchten“, und damals nicht gedacht, dass daraus einmal etwas Bedeutendes entstehen würde.

Als im August 1981 der IBM PC vorgestellt wurde, lief bereits eine weiterentwickelte Version dieses Systems auf der neuen Maschine. In den folgenden Jahren verbreiteten sich Varianten dieses Systems auf hunderten Millionen Personal Computern weltweit. Bis Anfang der 1990er-Jahre hatte Microsoft bereits rund 100 Millionen Lizenzen von MS-DOS verkauft. Hinzu kamen kompatible Varianten wie IBM PC-DOS oder DR-DOS sowie die später auf DOS aufbauenden Systeme Windows 95, Windows 98 und Windows Me, deren installierte Basis die tatsächliche Verbreitung noch erheblich vergrößerte. In vielen Regionen kamen zudem große Mengen nicht lizenzierter Kopien hinzu. Der Ursprung dieser Entwicklung lag jedoch nicht bei IBM und auch nicht bei Microsoft, sondern bei einem kleinen Hardwareunternehmen im Bundesstaat Washington. Dort entstand 1980 ein Betriebssystem namens 86-DOS, das ursprünglich nur dazu gedacht war, eine neue Prozessorplattform überhaupt nutzbar zu machen.

Seattle Computer Products war zu dieser Zeit ein vergleichsweise kleines Unternehmen aus der Region Seattle, das vor allem Erweiterungskarten und Prozessorboards für den S-100-Bus herstellte. Gegründet wurde die Firma 1978 von Rod Brock. Der Markt für Mikrocomputer befand sich damals in einer Phase rasanten Wachstums, doch die Softwarelandschaft war stark fragmentiert. Der De-facto-Standard war CP/M von Digital Research, ein Betriebssystem für 8-Bit-Prozessoren wie den Intel 8080 oder Zilog Z80. Viele Hersteller warteten auf eine angekündigte 16-Bit-Variante namens CP/M-86, doch deren Entwicklung verzögerte sich.

Für Unternehmen wie Seattle Computer Products stellte das ein praktisches Problem dar. Die neue 8086-Hardware konnte zwar technisch überzeugen, doch ohne ein Betriebssystem war sie für Entwickler und Anwender kaum attraktiv. In dieser Situation begann Tim Paterson im Frühjahr 1980 mit der Entwicklung eines eigenen Systems.

Das Projekt erhielt intern zunächst den Namen QDOS, eine Abkürzung für „Quick and Dirty Operating System“. In frühen Anzeigen und Produktinformationen von Seattle Computer Products wurde diese Bezeichnung zeitweise auch öffentlich verwendet. Schon bald entschied sich das Unternehmen jedoch für den Namen 86-DOS, der sich direkt auf den verwendeten Intel-Prozessor bezog und professioneller wirkte.

Technisch war das System bemerkenswert kompakt. Der ursprüngliche Kernel bestand aus nur etwa sechs Kilobyte Assemblercode, eine Größe, die selbst für damalige Verhältnisse ungewöhnlich klein war. Dennoch enthielt das System bereits die grundlegenden Funktionen eines Diskettenbetriebssystems: einen Kommandointerpreter, Dateiverwaltung sowie eine Programmierschnittstelle, über die Anwendungen mit dem Betriebssystem kommunizieren konnten.

Bei der Gestaltung orientierte sich Paterson teilweise an CP/M, das damals praktisch der Industriestandard für Mikrocomputer darstellte. Viele Befehle und Strukturen wurden bewusst ähnlich gehalten, um Entwicklern den Übergang zu erleichtern und die Portierung bestehender Programme zu vereinfachen. Gleichzeitig versuchte er jedoch, einige Schwächen des Vorbilds zu vermeiden. Besonders kritisch sah er die Art und Weise, wie CP/M Diskettenzugriffe organisierte. Das System benötigte oft mehrere Umdrehungen der Diskette, um alle benötigten Daten eines Tracks einzulesen, was den Zugriff vergleichsweise langsam machte. Paterson versuchte deshalb, die Diskettenorganisation effizienter zu gestalten und unnötige Rotationen zu vermeiden.

Eine wichtige technische Entscheidung war die Nutzung einer File Allocation Table (FAT) zur Verwaltung von Dateien. Diese Struktur hatte Paterson zuvor aus Microsofts Disk-BASIC kennengelernt und adaptierte sie für sein Betriebssystem. Das FAT-Dateisystem erlaubte eine flexiblere Organisation von Dateien und wurde später zu einem der langlebigsten technischen Elemente der gesamten DOS-Familie.

Die ersten Versionen von 86-DOS waren bewusst minimalistisch gehalten. Das System bot nur eine begrenzte Zahl grundlegender Befehle – etwa zwanzig interne und externe Kommandos –, mit denen Dateien verwaltet und Programme gestartet werden konnten. Für Entwickler reichte diese Umgebung jedoch aus, um erste Anwendungen für den neuen 16-Bit-Prozessor zu schreiben.

Seattle Computer Products begann 1980 damit, seine 8086-Hardware zusammen mit 86-DOS anzubieten. Anzeigen aus dieser Zeit zeigen Komplettpakete aus CPU-Karte, Support-Board und Betriebssystem für Entwickler und Systembauer. Für das Unternehmen selbst war die Software jedoch vor allem ein praktisches Werkzeug, um die eigene Hardware überhaupt nutzbar zu machen.

Während diese Entwicklung im Nordwesten der USA stattfand, arbeitete IBM an einem Projekt, das später als IBM PC bekannt werden sollte. Um die Entwicklung zu beschleunigen, entschied sich das Unternehmen bewusst gegen eine vollständig proprietäre Architektur. Stattdessen sollten möglichst viele Komponenten aus bereits verfügbaren Standardbausteinen bestehen. Für den Prozessor fiel die Wahl auf den Intel 8088, eine Variante des 8086 mit 8-Bit-Datenbus.

Auch beim Betriebssystem wollte IBM auf vorhandene Lösungen zurückgreifen. Der naheliegendste Kandidat war Digital Research, dessen CP/M damals den Markt für Mikrocomputer dominierte. Im Sommer 1980 nahmen IBM-Vertreter daher Kontakt mit dem Unternehmen auf, um über eine Version namens CP/M-86 für den neuen Rechner zu sprechen.

Die Gespräche verliefen jedoch nicht wie geplant. Verschiedene Berichte schildern unterschiedliche Details, doch fest steht, dass keine Einigung zustande kam. Eine häufig erzählte Version besagt, dass Gary Kildall, der Gründer von Digital Research, an diesem Tag nicht persönlich an den Verhandlungen teilnahm und die Gespräche zunächst von seiner Frau Dorothy McEwen geführt wurden. Sie weigerte sich, eine von IBM verlangte Geheimhaltungsvereinbarung zu unterschreiben, ohne sie vorher juristisch prüfen zu lassen. Als Kildall später zurückkehrte, war die Situation bereits festgefahren. Ob es danach noch weitere Gespräche gab, ist unter Historikern umstritten. Am Ende kam jedoch kein Vertrag zustande.

IBM suchte daher nach einer Alternative und wandte sich an ein kleines Unternehmen aus Seattle, das bereits Software für verschiedene Mikrocomputer geliefert hatte: Microsoft.

Microsoft war zu diesem Zeitpunkt vor allem als Hersteller von Programmiersprachen bekannt. Besonders Microsoft BASIC war auf zahlreichen Mikrocomputern der späten 1970er-Jahre im Einsatz. IBM beauftragte das Unternehmen daher zunächst damit, eine BASIC-Version für den neuen Personal Computer bereitzustellen. Erst im Verlauf dieser Zusammenarbeit entstand auch die Frage nach einem geeigneten Betriebssystem.

Microsoft selbst besaß jedoch noch keines. Hier kam eine Erinnerung von Paul Allen, dem Mitgründer des Unternehmens, ins Spiel. Allen wusste von dem Betriebssystem, das bei Seattle Computer Products für den 8086 entwickelt worden war. Für Microsoft bot sich damit eine Möglichkeit, schnell eine Grundlage für ein neues PC-Betriebssystem zu erhalten.

Ende 1980 erwarb Microsoft zunächst eine Lizenz für 86-DOS von Seattle Computer Products. Kurz darauf entschied sich das Unternehmen jedoch, sämtliche Rechte an der Software vollständig zu übernehmen. Durch diesen Schritt erhielt Microsoft die Kontrolle über die Weiterentwicklung des Systems und konnte es auch unabhängig an andere Hersteller lizenzieren.

Um das System rasch an die Anforderungen des IBM-PC-Projekts anzupassen, holte Microsoft schließlich auch Tim Paterson selbst ins Unternehmen. Der Entwickler wechselte 1981 von Seattle Computer Products nach Redmond und arbeitete dort an der Anpassung seines Systems für den Intel 8088 des neuen Personal Computers.

Erst im Laufe dieser Arbeit wurde ihm klar, für welchen Kunden das Projekt tatsächlich bestimmt war. In späteren Interviews erinnerte sich Paterson, dass Microsoft intern zunächst lediglich von einem neuen Computer eines großen Herstellers gesprochen habe. Erst nach und nach wurde deutlich, dass es sich um den geplanten Personal Computer von IBM handelte. Für Paterson, der wenige Monate zuvor noch ein Betriebssystem für eine S-100-Prozessorplatine geschrieben hatte, bedeutete diese Erkenntnis eine unerwartete Wendung: Aus einem improvisierten Werkzeug für eine einzelne Hardwareplattform wurde plötzlich das Betriebssystem eines Rechners, der kurz darauf zu einer neuen Standardplattform der Personal-Computer-Industrie werden sollte.

Als der IBM PC im August 1981 schließlich vorgestellt wurde, erschien das Betriebssystem unter dem Namen PC-DOS. Parallel dazu behielt Microsoft jedoch das Recht, das System auch unabhängig von IBM zu lizenzieren und unter eigener Bezeichnung zu vertreiben.

Diese Vertragsstruktur erwies sich im Rückblick als entscheidend. Während IBM seine eigene Variante des Systems verwendete, konnte Microsoft das Betriebssystem an die wachsende Zahl von IBM-PC-kompatiblen Computern lizenzieren. Als in den folgenden Jahren immer mehr Hersteller sogenannte PC-Klone auf den Markt brachten, wurde MS-DOS zum gemeinsamen Softwarefundament dieser neuen Computerplattform.

Aus dem kleinen Projekt, das Tim Paterson ursprünglich als pragmatische Lösung für eine einzelne Prozessorplatine geschrieben hatte, entstand so die Grundlage für MS-DOS. In den folgenden Jahren wurde dieses System zum dominierenden Betriebssystem der PC-Welt und prägte eine ganze Generation von Personal Computern.

Die Geschichte von 86-DOS zeigt damit eine typische Konstellation der frühen PC-Industrie: Ein kleines Hardwareunternehmen löst ein unmittelbares technisches Problem, ein Softwareanbieter erkennt das größere Marktpotenzial – und aus einer pragmatischen Zwischenlösung entsteht schließlich eine der prägendsten Plattformen der Computergeschichte.

 

EATA – Hardwarepionier der 80er-Jahre zwischen SCSI-Innovation und PC-Boom

Als der Personal Computer zu Beginn der 1980er-Jahre seinen Weg aus Laboren und Großraumbüros in Werkstätten, Büros und zunehmend auch Privathaushalte fand, entstand parallel eine neue Generation spezialisierter Hardwarefirmen. Während Hersteller wie IBM, Commodore oder Apple die Systeme selbst lieferten, entwickelten kleinere Unternehmen Erweiterungen, Schnittstellen und Speicherlösungen, die den praktischen Nutzen dieser Rechner oft erst voll ausschöpften. In diesem Umfeld wurde 1983 im kalifornischen Technologieumfeld ein Unternehmen gegründet, das genau diese Lücke adressieren wollte: EATA – Enhanced Adaptable Technology Applications. Mit dem Anspruch, leistungsfähige und zugleich anpassbare Hardware für die wachsende PC-Landschaft bereitzustellen, positionierte sich die Firma früh als technischer Zulieferer für professionelle Anwendungen ebenso wie für ambitionierte Einzelsysteme.

Aus dieser Motivation heraus entstand ein Unternehmen, das sich früh auf genau jene Komponenten konzentrierte, die den Leistungsunterschied zwischen Standard-PC und professionellem Arbeitsplatz ausmachen konnten. EATA, kurz für Enhanced Adaptable Technology Applications, war ein US-amerikanisches Unternehmen, das in den 1980er- und frühen 1990er-Jahren im Bereich Computerhardware und Peripheriegeräte tätig war. Das Unternehmen wurde 1983 in Kalifornien gegründet und hatte sich zunächst auf die Entwicklung von Schnittstellenkarten und Speicherlösungen spezialisiert. Gegründet wurde EATA von den Ingenieuren Michael L. Collins und Sarah Yu, die beide zuvor bei bedeutenden Elektronikherstellern wie Intel und National Semiconductor tätig gewesen waren. Ihre Vision war es, kostengünstige, anpassbare Hardware zu entwickeln, die die Leistungsfähigkeit von Heim- und Bürosystemen verbessern konnte.

Die Entstehungsgeschichte von EATA ist eng mit dem Aufstieg des Personal Computers verbunden. Während des IBM-PC-Booms erkannten Collins und Yu die wachsende Nachfrage nach leistungsfähigerer Hardware, insbesondere in den Bereichen Datenspeicherung und Schnittstellenkonnektivität. In einem Interview mit dem Magazin Byte aus dem Jahr 1985 sagte Collins: „Die PCs von damals waren großartig, aber sie waren oft durch ihre Hardware eingeschränkt. Wir wollten diese Grenzen aufheben.“ Das erste Produkt von EATA war eine SCSI-Schnittstellenkarte, die eine deutlich schnellere Datenübertragung ermöglichte als die damals weit verbreiteten parallelen Schnittstellen.

Ein Aushängeschild von EATA war ihre Fähigkeit, mit großen Herstellern wie IBM und Commodore zusammenzuarbeiten und gleichzeitig Produkte für kleinere, spezialisierte Märkte zu entwickeln. Die EATA-SCSI-Adapter wurden schnell zu einem festen Bestandteil professioneller Systeme und fanden Anwendung in Workstations, Servern und teilweise auch in Heimcomputern mit erweiterten Speicherlösungen. 1987 brachte das Unternehmen eine Serie externer Festplatten auf den Markt, die unter dem Namen „EATA StoragePro“ vermarktet wurde. Diese Produkte waren aufgrund ihrer hohen Kapazität und Zuverlässigkeit besonders bei professionellen Anwendern gefragt. Ein Werbeslogan aus dieser Zeit lautete: „EATA – der Speicher, auf den Sie sich verlassen können.

Auch auf Messen gelang es dem Unternehmen, Aufmerksamkeit zu erzeugen. Während einer Präsentation im Jahr 1986 fiel die Demonstration eines neuen Speicherprodukts aufgrund eines Stromausfalls aus. Sarah Yu improvisierte daraufhin und setzte die Präsentation mit einem vollständig batteriebetriebenen Setup fort, das sie innerhalb weniger Minuten zusammenstellte. Die spontane Lösung beeindruckte die Besucher so sehr, dass sie in Branchenkreisen später scherzhaft als „die Frau, die Stromprobleme besiegt“ bezeichnet wurde.

Zu den bekannten Technikern des Unternehmens gehörte der Ingenieur Robert „Bob“ Kessler, der zuvor an Entwicklungen rund um die Zilog-Z80-Architektur beteiligt gewesen war. Bei EATA brachte er sein Wissen in die Optimierung der SCSI-Controller ein und prägte damit die technische Ausrichtung der Produktlinie. Eine seiner Aussagen aus dieser Zeit lautete: „Es ist nicht nur unsere Technologie, die uns auszeichnet, sondern auch unser Engagement für Qualität und Innovation.

Neben den SCSI-Adaptern und Speicherlösungen arbeitete EATA an mehreren geplanten Peripheriegeräten, die jedoch aufgrund von Marktverschiebungen oder finanziellen Engpässen nie in Serie gingen. Dazu gehörte unter anderem ein modularer Netzwerk-Hub, der durch austauschbare Module flexibel an unterschiedliche Einsatzgebiete angepasst werden sollte. Das Konzept erwies sich als technisch interessant, scheiterte jedoch an den hohen Entwicklungskosten. Ebenfalls geplant war eine Reihe von Grafikbeschleunigern, die allerdings von der rasanten Entwicklung konkurrierender Lösungen überholt wurden, bevor sie Marktreife erreichten.

In der Fachpresse jener Zeit wurden EATA-Produkte mehrfach positiv hervorgehoben. In einem Artikel der PC World aus dem Jahr 1988 hieß es: „EATA kombiniert Ingenieurskunst mit Benutzerfreundlichkeit – ein seltenes Talent in der Welt der Hardware.“ Die Produkte des Unternehmens wurden in über 30 Ländern vertrieben, und EATA erreichte 1989 einen Jahresumsatz von rund 20 Millionen US-Dollar, was inflationsbereinigt heute etwa 45 Millionen US-Dollar entspricht.

Trotz dieser Erfolge geriet das Unternehmen Anfang der 1990er-Jahre zunehmend unter Druck. Der Markt für SCSI-Adapter wurde stärker von größeren Herstellern wie Adaptec geprägt, und die Versuche von EATA, sich mit neuen Produktlinien breiter aufzustellen, führten nicht zum erhofften Wachstum. 1994 wurde das Unternehmen schließlich von einem größeren Hardwarehersteller übernommen, woraufhin die Marke EATA nach und nach vom Markt verschwand.

Auch wenn EATA nie zu den dominierenden Namen der Branche zählte, steht das Unternehmen exemplarisch für jene Generation spezialisierter Hardwarefirmen, die den Personal Computer in den 1980er-Jahren funktional erst vollständig machten. Ihre Produkte spiegeln eine Phase der Computerindustrie wider, in der technische Lösungen oft aus konkreten praktischen Anforderungen heraus entstanden und Innovation weniger Marketingbegriff als tägliche Ingenieursarbeit war. Heute erinnern erhaltene Karten, Laufwerke und Dokumentationen daran, wie sehr die Entwicklung der Computertechnik nicht nur von großen Systemherstellern, sondern auch von solchen spezialisierten Zulieferern geprägt wurde, deren Einfluss im Hintergrund wirkte – und gerade deshalb nachhaltig war.

Intel 8088

Von Konstantin Lanzet - CPU collection Konstantin Lanzet, CC BY-SA 3.0, https://commons.wikimedia.org/w/index.php?curid=6692144

Der Intel 8088 gehört zu jenen Prozessoren, deren historische Bedeutung sich weniger aus ihren reinen Leistungsdaten ergibt als aus den Entscheidungen, die um ihn herum getroffen wurden. Als Intel ihn 1979 vorstellte, wirkte er auf dem Papier wie ein Kompromiss: intern ein vollwertiger 16-Bit-Prozessor, nach außen jedoch mit einem 8-Bit-Datenbus ausgestattet. Genau dieser scheinbare Rückschritt sollte sich jedoch als strategischer Glücksfall erweisen – nicht nur für Intel selbst, sondern für die gesamte Personal-Computer-Industrie der frühen 1980er-Jahre.

Technisch basiert der 8088 auf derselben Architektur wie der ein Jahr zuvor erschienene Intel 8086. Beide Prozessoren verfügen über identische Register, denselben Befehlssatz und das segmentierte Speicheradressmodell mit 20-Bit-Adressraum, das theoretisch bis zu ein Megabyte Arbeitsspeicher erlaubt. Der entscheidende Unterschied liegt ausschließlich in der Bus-Anbindung: Während der 8086 Daten extern mit 16 Bit überträgt, beschränkt sich der 8088 auf 8 Bit. Diese Entscheidung erlaubte den Einsatz günstigerer Speicherbausteine, einfacherer Platinenlayouts und vorhandener 8-Bit-Peripherie. Typische Taktfrequenzen lagen anfangs bei 4,77 MHz, später folgten Varianten mit 5, 8 und bis zu 10 MHz.

Diese Auslegung war kein Zufall, sondern Ausdruck einer klaren Systemstrategie. Intel verstand den 8088 nicht als abgespeckte Notlösung, sondern als Brücke zwischen der etablierten 8-Bit-Welt und der kommenden 16-Bit-Generation. Aus Sicht des Programmierers verhielten sich 8086 und 8088 identisch; Unterschiede zeigten sich erst auf der Ebene der Speicheranbindung. Dass der 8088 in der Praxis oft langsamer wirkte als sein 16-Bit-Pendant, lag weniger am Rechenkern selbst als an der kleineren Vorlade-Warteschlange und dem schmaleren Datenbus, die den Instruktionsnachschub begrenzten. Moderne Analysen zeigen, dass dieser Leistungsnachteil stark vom jeweiligen Programmcode abhing und nicht pauschal war.

Historisch untrennbar verbunden ist der Intel 8088 mit dem IBM PC 5150 aus dem Jahr 1981. IBM entschied sich bewusst gegen den technisch leistungsfähigeren 8086 und wählte den 8088 aus pragmatischen Gründen. Ausschlaggebend waren die kürzere Entwicklungszeit, die Nutzung bewährter 8-Bit-Supportchips und eine insgesamt geringere Systemkomplexität. Leistungsreserven spielten eine untergeordnete Rolle; entscheidend war ein robustes, schnell realisierbares Gesamtsystem. Mit dieser Wahl legte IBM den Grundstein für eine Plattform, die sich rasch zum industriellen Standard entwickelte.

Die Entwicklung des 8088 fällt in eine Phase, in der Intel sich endgültig vom reinen Speicherhersteller zum Prozessoranbieter wandelte. Nach dem Erfolg des 8080 sollte die 8086-Architektur den technologischen Schritt in die Zukunft markieren. Der 8088 war dabei die marktfähige Variante, die es erlaubte, neue Architekturkonzepte in bestehende Produktionsrealitäten einzubetten. Zeitgenössische Industrieberichte zeigen, dass Intel diesen Ansatz bewusst verfolgte: Architekturkontinuität und Skalierbarkeit wurden höher bewertet als maximale Rohleistung.

In der praktischen Anwendung zeigte der Prozessor ein ambivalentes Bild. Gegenüber klassischen 8-Bit-CPUs bot er klare Vorteile: größere Register, leistungsfähigere Befehle und einen deutlich erweiterten Adressraum. Gleichzeitig sorgte der 8-Bit-Bus dafür, dass viele Programme kaum schneller liefen als auf hochgetakteten Z80-Systemen. Frühere Magazinberichte wiesen daher häufig darauf hin, dass das theoretische Potenzial der Architektur im Alltag noch nicht vollständig ausgeschöpft wurde. Dennoch eröffnete der 8088 neue Einsatzfelder, insbesondere für komplexere Betriebssysteme und professionelle Anwendungen wie Textverarbeitung, Tabellenkalkulation und Datenbanken.

Zeitgenössische Fachzeitschriften beschrieben den 8088 entsprechend nüchtern. In der deutschsprachigen Presse galt er als zukunftssicher, aber teuer. Gelobt wurden die klare Architektur und das professionelle Umfeld, kritisch gesehen wurden Geschwindigkeit und Preisniveau. Ein 8088-System wirkte weniger wie ein Heimcomputer und mehr wie ein Arbeitsgerät – ein Eindruck, der das Image des IBM-PC und seiner zahlreichen Nachbauten lange prägte.

Wirtschaftlich bewegte sich der Intel 8088 im klassischen Business-Segment. Der Prozessor selbst war deutlich teurer als zeitgenössische 8-Bit-CPUs, rechtfertigte diesen Preis jedoch durch seine Positionierung in professionellen Systemen. Komplettrechner auf 8088-Basis lagen inflationsbereinigt schnell im Bereich mehrerer tausend Euro. Erst mit dem Aufkommen kompatibler PC-Clones sanken die Preise allmählich, ohne den grundsätzlichen Charakter der Plattform zu verändern.

Die Nachwirkung des 8088 ist kaum zu überschätzen. Obwohl er technisch bald vom 80286 und später vom 80386 überholt wurde, definierte er zentrale Grundlagen der PC-Architektur: das Zusammenspiel von Prozessor, BIOS, Peripherie und Betriebssystem ebenso wie das segmentierte Speichermodell. Selbst Jahrzehnte später mussten Entwickler Rücksicht auf diese frühen Entscheidungen nehmen. Der 8088 gilt daher weniger als technischer Höhepunkt, sondern vielmehr als Fundament einer bis heute fortgeführten Architektur.

Rückblickend erscheint der Intel 8088 als Prozessor mit enormer Systemwirkung. Er war nicht der eleganteste Chip seiner Zeit und auch nicht der schnellste. Doch durch die Kombination aus technischer Solidität, industrieller Akzeptanz und dem richtigen Zeitpunkt wurde er zum Ausgangspunkt einer Entwicklung, die den Personal Computer aus einer Nische in den Alltag von Büros und Verwaltungen führte. In diesem Sinne steht der 8088 exemplarisch für eine zentrale Erkenntnis der Computergeschichte: Entscheidend ist nicht allein die maximale Leistung, sondern die Fähigkeit, ein tragfähiges System zu ermöglichen.

 

B.C.’s Quest for Tires – 1983 by Sydney Development Corp.

Von der Höhle auf den Bildschirm – Der Aufstieg des ersten kanadischen Videospielhits

BC's Quest for TiresB.C.’s Quest for Tires, entwickelt von Sydney Development Corporation und vertrieben durch Sierra On-Line, war eines jener Spiele, das im goldenen Zeitalter der Heimcomputer erschien und dabei etwas ganz Eigenes schuf. Basierend auf dem beliebten Zeitungscomic B.C. von Johnny Hart, versetzte das Spiel den Spieler in die Rolle des wortkargen Höhlenmenschen Thor, der auf einem Steinrad durch prähistorische Landschaften rollt, um seine Angebetete – „Cute Chick“ – aus den Fängen des Dinosauriers Gronk zu befreien. Die Handlung mag rudimentär wirken, doch der Witz, die stilisierte Grafik und das durchdachte Gameplay machten den Titel zu einem Klassiker jener frühen Homecomputer-Ära.

Thor bewegt sich auf seinem Stein-Einrad unaufhörlich von links nach rechts, und der Spieler muss im richtigen Moment springen, sich ducken oder auf fahrende Schildkröten springen, um die zahlreichen Hindernisse zu überwinden. Es gibt zehn Level, darunter auch ruhigere Abschnitte, in denen es auf das richtige Timing ankommt. Besonders auffällig war die farbenfrohe Grafik und der comicartige Zeichenstil, der dem Originalstrip erstaunlich treu blieb. Eine besondere Raffinesse bestand darin, dass der Spieler die Geschwindigkeit von Thors Gefährt selbst kontrollieren konnte, was nicht nur den Schwierigkeitsgrad, sondern auch die Punktwertung beeinflusste – ein damals innovatives Element.

Die Entstehung des Spiels war eng mit dem kanadischen Entwickler Michael Bate und dessen Gründung von Artech Studios verknüpft. Die Lizenz an Johnny Harts Comicstrips B.C. und The Wizard of Id wurde für 25.000 Dollar jährlich erworben – eine für damalige Verhältnisse beachtliche Summe. Ursprünglich war das Spiel als Werbung für das kanadische NABU-Netzwerk gedacht, wurde jedoch bald als eigenständiges Produkt weiterentwickelt. Die ColecoVision-Version war die erste technisch funktionstüchtige, da sowohl NABU als auch ColecoVision denselben Z80-Prozessor nutzten. Die Portierung war daher vergleichsweise unkompliziert, und auch der Vertrieb durch Sierra kam rasch zustande.

An der Programmierung waren mehrere später bekannte Entwickler beteiligt. Rick Banks, zusammen mit MaryLou O’Rourke, entwickelte die ColecoVision-Fassung. Chuck Benton, der später mit Leisure Suit Larry bekannt wurde, programmierte die Atari-8-Bit- und Commodore-64-Version. Justin Gray übernahm die Apple-II-Umsetzung, N. R. Dick war für die MSX-Version verantwortlich und Mike Davies für den ZX Spectrum. Ein dedizierter Komponist wurde nicht genannt – der Sound, der oft auf einfache Effektgeräusche reduziert war, wurde meist von den Programmierern selbst beigesteuert. Viele dieser Entwickler arbeiteten in späteren Jahren an weiteren bekannten Titeln, insbesondere im Umfeld von Sierra oder Artech.

Trotz der engen Produktionszeit – Michael Bate äußerte später, dass er nicht besonders stolz auf das Spiel sei, da es unter großem Zeitdruck entstanden sei – wurde B.C.’s Quest for Tires ein beachtlicher Erfolg. Es war das erste in Kanada entwickelte Videospiel, das auf Kassette erschien, und wurde zu einem Verkaufsschlager. Über eine Million Einheiten wurden verkauft – ein gewaltiger Erfolg für ein Computerspiel des Jahres 1983. Es erhielt Auszeichnungen wie „Best Game for Youngsters“ von Family Computing und lobende Erwähnungen für Grafik und Sound vom Billboard Magazine und dem Magazin Video Game Update.

Die internationale Rezeption war ebenfalls positiv. Die Atari-8-Bit-Version erhielt von Spielern im Durchschnitt 8,4 von 10 Punkten, die Commodore-64- und Spectrum-Fassungen bewegten sich meist im Bereich um 7,5. Die ColecoVision-Version wurde oft als die technisch gelungenste bezeichnet, während die ZX-Spectrum-Fassung in punkto Grafik durch das monochrome Design leichte Abstriche machte, aber flüssig lief. Die PC-Version hingegen wurde aufgrund der limitierten CGA-Grafik und des fehlenden Sounds als eher mittelmäßig bewertet.

Auch heute noch gibt es Diskussionen um Begriffe wie „Cute Chick“ und „Fat Broad“, die im Originalcomic verwendet wurden und später von der Familie Hart in „Grace“ und „Jane“ geändert wurden, da man sie als potenziell abwertend empfand. Diese Änderungen betrafen zwar den Strip selbst, warfen aber auch einen neuen Blick auf das Spiel, das diese Namen in seinem Originaltitel und Abspann übernahm.

Verworfene Inhalte sind kaum dokumentiert, doch es gibt Hinweise, dass ursprünglich weitere Level geplant waren, darunter eine Szene im Innern eines Vulkans mit seitlich rollender Lavakugel, die aus Speichergründen gestrichen wurde. Auch eine Variante mit Höhlenzeichnungen als Hintergrundgrafik wurde verworfen – der Speicherbedarf hätte den Rahmen der Module und Disketten überschritten.

Das Spiel wurde auf zahlreiche Systeme portiert: Neben ColecoVision, Atari 8-bit, Commodore 64, Apple II, MSX und IBM PC erschien es auch für das ZX Spectrum. Die technische Umsetzung variierte stark: Während ColecoVision und Apple II mit vergleichsweise hoher Bildwiederholrate glänzen konnten, litten einige Umsetzungen unter ruckeliger Steuerung. Unterschiede in Sound und Grafik waren systembedingt. Interessanterweise war B.C.’s Quest for Tires eines der wenigen Spiele jener Zeit, das sowohl in den USA als auch in Europa und Japan vertrieben wurde, oft mit lokal angepasstem Handbuch oder abgewandeltem Titelbild.

Ein interessantes Detail am Rande: Auf einem frühen Werbeflyer von Sierra ist die Heldin des Spiels blond dargestellt – im Comic jedoch ist sie rothaarig. Es wurde nie erklärt, ob dies ein Versehen oder eine bewusste künstlerische Entscheidung war. Ebenso kursieren bis heute unbestätigte Berichte, dass eine Version für den Intellivision-Prototyp entwickelt wurde, diese aber nie veröffentlicht wurde.

B.C.’s Quest for Tires mag heute wie ein kurioses Überbleibsel einer vergangenen Ära wirken, doch es war stilbildend für das Lizenzspiel-Genre der frühen 1980er und trug maßgeblich dazu bei, dass Spiele nicht nur abstrakte Herausforderungen sein mussten, sondern auch humorvolle Geschichten erzählen konnten. In einem Interview sagte Entwickler Rick Banks später: „Wir wollten einfach ein Spiel machen, das sich so anfühlt, als würde man einen Sonntagscomic durchblättern – nur eben spielbar.“ Und genau das war es: ein interaktiver Comicstrip auf einem Steinrad.

The Seven Cities of Gold – 1984 by Ozark Softscape

The Seven Cities of Gold

The Seven Cities of Gold

"The Seven Cities of Gold" ist ein Computerspiel, das 1984 von Ozark Softscape unter der Leitung von Dan Bunten entwickelt und von Electronic Arts veröffentlicht wurde. Es versetzt die Spieler in die Rolle eines spanischen Konquistadors des 15. Jahrhunderts, der die Neue Welt erkundet, um Reichtümer zu sammeln und Ruhm zu erlangen. Der Titel des Spiels bezieht sich auf die Legende der sieben goldenen Städte von Cibola, die im 16. Jahrhundert viele Abenteurer nach Amerika lockte.

Die Entwicklung des Spiels begann mit einer intensiven Recherchephase, in der Dan Bunten und sein Bruder Bill zahlreiche Bücher über die Konquistadoren und verwandte Themen studierten. Dan Bunten erklärte später: "Als... Bill und ich Kinder waren, schenkte uns unser Onkel ein Buch über die Konquistadoren, und wir dachten, wow!" Diese Faszination führte zur Idee, ein Spiel zu entwickeln, das die Erfahrungen der Entdecker nachbildet. Ein zentrales Merkmal des Spiels ist die Möglichkeit, neben der historischen Karte auch zufällig generierte Karten zu verwenden, was jedem Spiel eine einzigartige Welt verleiht. Jim Rushing, der Hauptprogrammierer, verbrachte etwa vier Monate mit der Entwicklung des Kartengenerators, der realistische Kontinente mit Bergen, Flüssen und verschiedenen Zivilisationen erzeugt. Dan Bunten betonte die Bedeutung dieses Features: "Die zufälligen Karten geben den Spielern das Gefühl, echte Entdecker zu sein, die in unbekanntes Terrain vordringen."

Das Gameplay von "The Seven Cities of Gold" zeichnet sich durch seine offene Struktur aus. Die Spieler können die Küsten erkunden, ins Landesinnere vordringen, mit indigenen Völkern interagieren und entscheiden, ob sie friedlich handeln oder gewaltsam erobern. Die Interaktion mit den Ureinwohnern ist dabei besonders hervorzuheben. Dan Bunten erklärte: "Der friedliche Ansatz funktioniert wirklich am besten... Man muss irgendwo Freunde haben. Wenn etwas schiefgeht, braucht man eine freundliche Mission, zu der man zurückkehren kann, ohne sich um einen Aufstand sorgen zu müssen." Diese Dynamik spiegelt die historischen Herausforderungen der Konquistadoren wider und zwingt die Spieler, ihre Entscheidungen sorgfältig abzuwägen.

Nach seiner Veröffentlichung war "The Seven Cities of Gold" sowohl kommerziell als auch kritisch erfolgreich. Es verkaufte sich in den ersten Jahren über 150.000 Mal und wurde von der Zeitschrift Computer Gaming World als "Strategiespiel des Jahres" 1985 ausgezeichnet. In einer Rezension der Compute! aus dem Jahr 1984 wurde es als "fesselndes Strategiespiel, das herausfordert und bildet sowie unterhält" beschrieben. Die Möglichkeit, immer wieder neue Welten zu entdecken, trug maßgeblich zum Wiederspielwert bei und inspirierte spätere Spiele wie Sid Meiers "Pirates!" und "Civilization".

Trotz seines Erfolgs blieb das Spiel nicht ohne Kontroversen. Einige Kritiker bemängelten die Darstellung der Interaktionen mit den indigenen Völkern, insbesondere die Möglichkeit, Dörfer zu überfallen und deren Bewohner zu töten. Dan Bunten selbst äußerte sich zu diesem Dilemma: "Viele der Konquistadoren behandelten die Eingeborenen schrecklich. Ihre Herangehensweise war arrogant und stolz gegenüber einer Gesellschaft, die ihre eigene Geschichte und Wurzeln hatte. Aber um historisch genau zu sein, mussten wir Gewalt einbeziehen. Ich mag die Idee nicht, dass Spieler anderen Wesen Schaden zufügen, aber es gibt keine Alternative, sonst zwingt man dem Publikum seine eigenen moralischen Entscheidungen auf." Diese Reflexion zeigt das Bewusstsein der Entwickler für die ethischen Implikationen ihres Spiels.

International erhielt "The Seven Cities of Gold" überwiegend positive Bewertungen. Die deutsche Zeitschrift Happy Computer lobte die "intelligente Gestaltung" des Spiels und die im Stil einer Abenteuergeschichte geschriebene Anleitung. In einer Retrospektive von PC Games wurde hervorgehoben, dass das Spiel "wegweisend" war und "ein Vorreiter im Bereich der Entdeckerspiele" sei. Diese Anerkennung unterstreicht den Einfluss des Spiels auf die Entwicklung des Strategiespiel-Genres.

Zusammenfassend bleibt "The Seven Cities of Gold" ein Meilenstein in der Geschichte der Computerspiele. Seine innovative Spielmechanik, die offene Welt und die tiefgründige Auseinandersetzung mit historischen Themen machen es zu einem zeitlosen Klassiker, der auch heute noch Spieler inspiriert und zum Nachdenken anregt.