AdLib Music Synthesizer Card (1987): Wie eine kanadische Soundkarte dem IBM-PC seine Stimme gab

Als die AdLib Music Synthesizer Card 1987 erschien, war der IBM-PC zwar längst als Arbeitsrechner etabliert, klanglich jedoch noch immer ein technisches Hinterland. Während Besitzer eines Commodore 64 bereits vom markanten Klang des SID-Chips begleitet wurden, der Atari ST mit seinem YM2149 mehrstimmige Musik beherrschte und der Amiga dank Paula sogar digitale Samples ausgeben konnte, musste sich der PC-Spieler weiterhin mit dem berüchtigten Systemlautsprecher begnügen – einem Piezo-Piepser, dessen akustische Ausdruckskraft irgendwo zwischen Taschenrechner und Rauchmelder lag. Zwar existierten bereits vereinzelte Soundlösungen für IBM-kompatible Rechner, doch erst die kanadische Firma Ad Lib, Inc. schuf mit ihrer AdLib-Karte jene Erweiterung, die sich erstmals als echter Audiostandard im PC-Bereich etablieren sollte.

Gegründet wurde Ad Lib in Québec von Martin Prevel, einem Musikpädagogen und Unternehmer, der überzeugt war, dass Personal Computer mehr sein müssten als bloße Arbeitsmaschinen. Seine Idee war ebenso einfach wie wirkungsvoll: eine bezahlbare Erweiterungskarte, die dem IBM-PC echte musikalische Fähigkeiten verleihen sollte, ohne den Rechner selbst zu verändern. Das Herzstück dieser Lösung war der Yamaha YM3812, besser bekannt als OPL2 – ein FM-Synthesechip, der ursprünglich für elektronische Musikinstrumente und Embedded-Anwendungen entwickelt worden war. Dieser Baustein sollte in den folgenden Jahren zum akustischen Fingerabdruck des DOS-PCs werden.

Technisch war die AdLib bemerkenswert schlicht konstruiert. Die Karte belegte einen 8-Bit-ISA-Slot und bestand im Wesentlichen aus dem Yamaha-Chip, der nötigen ISA-Logik, einem Wandler für das Ausgangssignal und einer einfachen Analogsektion. Auf zusätzliche Funktionen verzichtete Ad Lib bewusst: Es gab weder PCM-Digitalaudio noch Aufnahmefunktionen, keinen Gameport und keine Mischlogik. Die Karte war ein reiner FM-Synthesizer – gebaut ausschließlich für Musik und synthetische Soundeffekte. Technisch war die AdLib bemerkenswert schlicht konstruiert. Die Karte belegte einen 8-Bit-ISA-Slot und bestand im Wesentlichen aus dem Yamaha-Chip, der nötigen ISA-Logik, einem Wandler für das Ausgangssignal und einer einfachen Analogsektion. Auf zusätzliche Funktionen verzichtete Ad Lib bewusst: Es gab weder PCM-Digitalaudio noch Aufnahmefunktionen, keinen Gameport und keine Mischlogik. Die Karte war ein reiner FM-Synthesizer – gebaut ausschließlich für Musik und synthetische Soundeffekte. Selbst auf softwareseitige Lautstärkeregelung musste der Nutzer verzichten: Die originale AdLib besaß hierfür ein kleines analoges Potentiometer direkt an der Slotblende, sodass die Lautstärke physisch per Hand an der Karte selbst eingestellt werden musste – ein charmantes Detail, das heute fast archaisch wirkt, damals jedoch keineswegs ungewöhnlich war. Gerade diese Konzentration auf das Wesentliche hielt die Hardware überschaubar und den Preis im Rahmen. Gerade diese Konzentration auf das Wesentliche hielt die Hardware überschaubar und den Preis im Rahmen: Zum Marktstart kostete die Karte rund 219 US-Dollar, was inflationsbereinigt heute etwa 600 bis 650 Euro entspräche.

Der YM3812/OPL2 arbeitete mit Frequency Modulation Synthesis, kurz FM-Synthese. Anders als spätere Sample-basierte Soundkarten spielte er keine aufgezeichneten Instrumente ab, sondern erzeugte seine Klangfarben mathematisch in Echtzeit. Zwei sogenannte Operatoren modulierten dabei Sinuswellen zu komplexeren Klangstrukturen. Der Chip bot neun simultane Stimmen, alternativ einen Rhythmusmodus mit dedizierten Percussion-Kanälen. Das Resultat war kein realistischer Orchesterklang, sondern ein markant synthetischer, leicht metallischer Soundcharakter – unverwechselbar, prägnant und heute untrennbar mit der DOS-Ära verbunden.

Doch gute Technik allein genügt selten. In ihren ersten Monaten blieb die AdLib ein Nischenprodukt, dessen Potential nur wenige erkannten. Erst Sierra On-Line sorgte für den entscheidenden Durchbruch. Mit King’s Quest IV: The Perils of Rosella, veröffentlicht am 16. August 1988, erschien das erste große kommerzielle Spiel mit nativer AdLib-Unterstützung. Für viele PC-Spieler war dies ein Schlüsselmoment: Statt piepsender Signaltöne erklang plötzlich ein vollständiger, orchestrierter Soundtrack. Sierra engagierte hierfür sogar den Film- und TV-Komponisten William Goldstein, was eindrucksvoll zeigte, welchen Stellenwert man der neuen Audiotechnik beimaß. Der Erfolg des Spiels machte die AdLib über Nacht vom Spezialistenwerkzeug zur begehrten Gaming-Hardware.

Binnen kurzer Zeit wurde „AdLib Compatible“ zu einem festen Schlagwort auf PC-Spielverpackungen. Entwickler schätzten die einfache Programmierung über die Ports 388h und 389h, wodurch sich der OPL2-Chip direkt ansprechen ließ. Gleichzeitig wurde die Offenheit der Hardware jedoch zu einem zweischneidigen Schwert. Da Ad Lib außer dem Yamaha-Chip kaum proprietäre Technik einsetzte, konnten Konkurrenten die Karte vergleichsweise leicht nachbauen. Zahlreiche kompatible Clones erschienen auf dem Markt – und der Name „AdLib“ wandelte sich rasch vom konkreten Produktnamen zum generischen Synonym für FM-PC-Sound.

Wie weit sich der OPL2 klanglich ausreizen ließ, demonstrierten Anfang der 1990er Jahre besonders talentierte Komponisten. Zu den bekanntesten Beispielen zählt der Soundtrack von Dune (1992), komponiert von Stéphane Picq. Um diesen rankte sich über Jahre der Mythos, der AdLib-Chip habe dort „physikalisch unmögliche“ Klänge erzeugt oder gar versteckte Samples abgespielt. Tatsächlich beruhte die Wirkung auf meisterhaft programmierter FM-Synthese: Picq entwarf eigene Klang-Patches, verzichtete weitgehend auf Standard-Presets und reizte die Operator-Struktur des OPL-Chips ungewöhnlich konsequent aus. Das Ergebnis waren für FM-Verhältnisse bemerkenswert weiche, atmosphärische und fast organisch wirkende Klangflächen, die den Ruf des OPL-Chips nachhaltig prägten.

Ironischerweise wurde der Erfolg der AdLib zugleich zu ihrem größten Problem. 1989 brachte Creative Labs die erste Sound Blaster auf den Markt – vollständig AdLib-kompatibel, aber zusätzlich ausgestattet mit PCM-Digitalaudio, Sample-Wiedergabe, Sprachausgabe und Gameport. Für Käufer gab es damit kaum noch einen rationalen Grund, zur Original-AdLib zu greifen. Die Sound Blaster verdrängte ihren geistigen Vorgänger nicht durch Inkompatibilität, sondern gerade dadurch, dass sie dessen Standard vollständig übernahm und erweiterte.

Ad Lib reagierte mit der technisch ambitionierten AdLib Gold 1000, doch die Karte erschien zu spät, war teuer und traf auf einen Markt, der bereits klar von Creative dominiert wurde. 1992 meldete das Unternehmen Insolvenz an. Damit verschwand zwar die Originalhardware, nicht jedoch ihr Standard: Der OPL-basierte „AdLib-Sound“ blieb bis weit in die Mitte der 1990er Jahre fester Bestandteil zahlloser DOS-Spiele, selbst wenn im Rechner längst eine Sound Blaster oder kompatible OPL3-Karte arbeitete.

Bemerkenswert ist, wie lebendig dieses Erbe bis heute geblieben ist. Originale AdLib-Karten erzielen auf dem Sammlermarkt inzwischen teils Preise von mehreren hundert Euro, seltene Varianten sogar deutlich mehr. Gleichzeitig entstand eine aktive Retro-Hardware-Szene, die exakte Reproduktionen historischer Platinenlayouts fertigt oder moderne Lösungen entwickelt, um echten OPL-Sound erneut verfügbar zu machen. Projekte wie OPL2LPT oder OPL3LPT verlagern den klassischen Yamaha-Synthesizer auf den Parallelport und ermöglichen damit authentischen AdLib-Sound selbst an Laptops oder ISA-losen Systemen. Multifunktionslösungen wie PicoGUS emulieren daneben mehrere historische Audiostandards auf moderner Hardware und zeigen, wie gefragt originalgetreuer DOS-Sound noch immer ist.

Auch in der Musikszene lebt der OPL-Klang weiter. Bastler integrieren originale Yamaha-Chips in DIY-Synthesizer, während Software-Emulationen und VST-Instrumente den charakteristischen FM-Sound moderner Produktion zugänglich machen. Was einst als pragmatische Sounderweiterung für Bürorechner begann, entwickelte sich so über Jahrzehnte zu einer eigenen Klangästhetik – vergleichbar mit der anhaltenden Verehrung des SID-Chips oder klassischer Roland-Synthesizer.

Rückblickend war die AdLib nie die technisch mächtigste Soundlösung ihrer Zeit. Sie bot weder Samples noch Stereo noch die Flexibilität späterer Konkurrenzprodukte. Doch ihre historische Bedeutung liegt an anderer Stelle: Sie war die erste Soundkarte, die den IBM-PC akustisch aus seiner piepsenden Frühzeit führte und einen einheitlichen, breit akzeptierten Audio-Standard etablierte. Ohne die AdLib hätte die Sound Blaster keinen so einfachen Weg gehabt. Ohne den OPL2-Chip würde ein erheblicher Teil der DOS-Spielegeschichte heute schlicht anders klingen.

Wer heute den unverwechselbaren Klang von Monkey Island, Commander Keen, Wing Commander, Dune oder zahllosen anderen DOS-Klassikern hört, lauscht damit nicht einfach nur „altem PC-Sound“ – sondern dem Vermächtnis einer unscheinbaren kanadischen Steckkarte, die dem IBM-PC erstmals eine musikalische Identität verlieh.

Vom QDOS zu MS-DOS: Wie ein improvisiertes Betriebssystem zur Grundlage der PC-Ära wurde

Seattle, Frühjahr 1980. In den Büroräumen von Seattle Computer Products sitzt ein junger Entwickler über einem neuen Projekt. Die Firma hat gerade eine Prozessorplatine für den Intel 8086 entwickelt – eine leistungsfähige 16-Bit-CPU, die auf dem damals verbreiteten S-100-Bus eingesetzt werden soll. Doch ohne ein Betriebssystem bleibt die Hardware kaum nutzbar. Also beginnt der Ingenieur Tim Paterson, ein eigenes System zu schreiben. In wenigen Wochen entsteht ein funktionierendes System, das intern den pragmatischen Namen „Quick and Dirty Operating System“ erhält. Jahrzehnte später erinnerte sich Paterson nüchtern an diese Situation: Er habe das System schlicht geschrieben, „weil wir ein Betriebssystem für die 8086-Karte brauchten“, und damals nicht gedacht, dass daraus einmal etwas Bedeutendes entstehen würde.

Als im August 1981 der IBM PC vorgestellt wurde, lief bereits eine weiterentwickelte Version dieses Systems auf der neuen Maschine. In den folgenden Jahren verbreiteten sich Varianten dieses Systems auf hunderten Millionen Personal Computern weltweit. Bis Anfang der 1990er-Jahre hatte Microsoft bereits rund 100 Millionen Lizenzen von MS-DOS verkauft. Hinzu kamen kompatible Varianten wie IBM PC-DOS oder DR-DOS sowie die später auf DOS aufbauenden Systeme Windows 95, Windows 98 und Windows Me, deren installierte Basis die tatsächliche Verbreitung noch erheblich vergrößerte. In vielen Regionen kamen zudem große Mengen nicht lizenzierter Kopien hinzu. Der Ursprung dieser Entwicklung lag jedoch nicht bei IBM und auch nicht bei Microsoft, sondern bei einem kleinen Hardwareunternehmen im Bundesstaat Washington. Dort entstand 1980 ein Betriebssystem namens 86-DOS, das ursprünglich nur dazu gedacht war, eine neue Prozessorplattform überhaupt nutzbar zu machen.

Seattle Computer Products war zu dieser Zeit ein vergleichsweise kleines Unternehmen aus der Region Seattle, das vor allem Erweiterungskarten und Prozessorboards für den S-100-Bus herstellte. Gegründet wurde die Firma 1978 von Rod Brock. Der Markt für Mikrocomputer befand sich damals in einer Phase rasanten Wachstums, doch die Softwarelandschaft war stark fragmentiert. Der De-facto-Standard war CP/M von Digital Research, ein Betriebssystem für 8-Bit-Prozessoren wie den Intel 8080 oder Zilog Z80. Viele Hersteller warteten auf eine angekündigte 16-Bit-Variante namens CP/M-86, doch deren Entwicklung verzögerte sich.

Für Unternehmen wie Seattle Computer Products stellte das ein praktisches Problem dar. Die neue 8086-Hardware konnte zwar technisch überzeugen, doch ohne ein Betriebssystem war sie für Entwickler und Anwender kaum attraktiv. In dieser Situation begann Tim Paterson im Frühjahr 1980 mit der Entwicklung eines eigenen Systems.

Das Projekt erhielt intern zunächst den Namen QDOS, eine Abkürzung für „Quick and Dirty Operating System“. In frühen Anzeigen und Produktinformationen von Seattle Computer Products wurde diese Bezeichnung zeitweise auch öffentlich verwendet. Schon bald entschied sich das Unternehmen jedoch für den Namen 86-DOS, der sich direkt auf den verwendeten Intel-Prozessor bezog und professioneller wirkte.

Technisch war das System bemerkenswert kompakt. Der ursprüngliche Kernel bestand aus nur etwa sechs Kilobyte Assemblercode, eine Größe, die selbst für damalige Verhältnisse ungewöhnlich klein war. Dennoch enthielt das System bereits die grundlegenden Funktionen eines Diskettenbetriebssystems: einen Kommandointerpreter, Dateiverwaltung sowie eine Programmierschnittstelle, über die Anwendungen mit dem Betriebssystem kommunizieren konnten.

Bei der Gestaltung orientierte sich Paterson teilweise an CP/M, das damals praktisch der Industriestandard für Mikrocomputer darstellte. Viele Befehle und Strukturen wurden bewusst ähnlich gehalten, um Entwicklern den Übergang zu erleichtern und die Portierung bestehender Programme zu vereinfachen. Gleichzeitig versuchte er jedoch, einige Schwächen des Vorbilds zu vermeiden. Besonders kritisch sah er die Art und Weise, wie CP/M Diskettenzugriffe organisierte. Das System benötigte oft mehrere Umdrehungen der Diskette, um alle benötigten Daten eines Tracks einzulesen, was den Zugriff vergleichsweise langsam machte. Paterson versuchte deshalb, die Diskettenorganisation effizienter zu gestalten und unnötige Rotationen zu vermeiden.

Eine wichtige technische Entscheidung war die Nutzung einer File Allocation Table (FAT) zur Verwaltung von Dateien. Diese Struktur hatte Paterson zuvor aus Microsofts Disk-BASIC kennengelernt und adaptierte sie für sein Betriebssystem. Das FAT-Dateisystem erlaubte eine flexiblere Organisation von Dateien und wurde später zu einem der langlebigsten technischen Elemente der gesamten DOS-Familie.

Die ersten Versionen von 86-DOS waren bewusst minimalistisch gehalten. Das System bot nur eine begrenzte Zahl grundlegender Befehle – etwa zwanzig interne und externe Kommandos –, mit denen Dateien verwaltet und Programme gestartet werden konnten. Für Entwickler reichte diese Umgebung jedoch aus, um erste Anwendungen für den neuen 16-Bit-Prozessor zu schreiben.

Seattle Computer Products begann 1980 damit, seine 8086-Hardware zusammen mit 86-DOS anzubieten. Anzeigen aus dieser Zeit zeigen Komplettpakete aus CPU-Karte, Support-Board und Betriebssystem für Entwickler und Systembauer. Für das Unternehmen selbst war die Software jedoch vor allem ein praktisches Werkzeug, um die eigene Hardware überhaupt nutzbar zu machen.

Während diese Entwicklung im Nordwesten der USA stattfand, arbeitete IBM an einem Projekt, das später als IBM PC bekannt werden sollte. Um die Entwicklung zu beschleunigen, entschied sich das Unternehmen bewusst gegen eine vollständig proprietäre Architektur. Stattdessen sollten möglichst viele Komponenten aus bereits verfügbaren Standardbausteinen bestehen. Für den Prozessor fiel die Wahl auf den Intel 8088, eine Variante des 8086 mit 8-Bit-Datenbus.

Auch beim Betriebssystem wollte IBM auf vorhandene Lösungen zurückgreifen. Der naheliegendste Kandidat war Digital Research, dessen CP/M damals den Markt für Mikrocomputer dominierte. Im Sommer 1980 nahmen IBM-Vertreter daher Kontakt mit dem Unternehmen auf, um über eine Version namens CP/M-86 für den neuen Rechner zu sprechen.

Die Gespräche verliefen jedoch nicht wie geplant. Verschiedene Berichte schildern unterschiedliche Details, doch fest steht, dass keine Einigung zustande kam. Eine häufig erzählte Version besagt, dass Gary Kildall, der Gründer von Digital Research, an diesem Tag nicht persönlich an den Verhandlungen teilnahm und die Gespräche zunächst von seiner Frau Dorothy McEwen geführt wurden. Sie weigerte sich, eine von IBM verlangte Geheimhaltungsvereinbarung zu unterschreiben, ohne sie vorher juristisch prüfen zu lassen. Als Kildall später zurückkehrte, war die Situation bereits festgefahren. Ob es danach noch weitere Gespräche gab, ist unter Historikern umstritten. Am Ende kam jedoch kein Vertrag zustande.

IBM suchte daher nach einer Alternative und wandte sich an ein kleines Unternehmen aus Seattle, das bereits Software für verschiedene Mikrocomputer geliefert hatte: Microsoft.

Microsoft war zu diesem Zeitpunkt vor allem als Hersteller von Programmiersprachen bekannt. Besonders Microsoft BASIC war auf zahlreichen Mikrocomputern der späten 1970er-Jahre im Einsatz. IBM beauftragte das Unternehmen daher zunächst damit, eine BASIC-Version für den neuen Personal Computer bereitzustellen. Erst im Verlauf dieser Zusammenarbeit entstand auch die Frage nach einem geeigneten Betriebssystem.

Microsoft selbst besaß jedoch noch keines. Hier kam eine Erinnerung von Paul Allen, dem Mitgründer des Unternehmens, ins Spiel. Allen wusste von dem Betriebssystem, das bei Seattle Computer Products für den 8086 entwickelt worden war. Für Microsoft bot sich damit eine Möglichkeit, schnell eine Grundlage für ein neues PC-Betriebssystem zu erhalten.

Ende 1980 erwarb Microsoft zunächst eine Lizenz für 86-DOS von Seattle Computer Products. Kurz darauf entschied sich das Unternehmen jedoch, sämtliche Rechte an der Software vollständig zu übernehmen. Durch diesen Schritt erhielt Microsoft die Kontrolle über die Weiterentwicklung des Systems und konnte es auch unabhängig an andere Hersteller lizenzieren.

Um das System rasch an die Anforderungen des IBM-PC-Projekts anzupassen, holte Microsoft schließlich auch Tim Paterson selbst ins Unternehmen. Der Entwickler wechselte 1981 von Seattle Computer Products nach Redmond und arbeitete dort an der Anpassung seines Systems für den Intel 8088 des neuen Personal Computers.

Erst im Laufe dieser Arbeit wurde ihm klar, für welchen Kunden das Projekt tatsächlich bestimmt war. In späteren Interviews erinnerte sich Paterson, dass Microsoft intern zunächst lediglich von einem neuen Computer eines großen Herstellers gesprochen habe. Erst nach und nach wurde deutlich, dass es sich um den geplanten Personal Computer von IBM handelte. Für Paterson, der wenige Monate zuvor noch ein Betriebssystem für eine S-100-Prozessorplatine geschrieben hatte, bedeutete diese Erkenntnis eine unerwartete Wendung: Aus einem improvisierten Werkzeug für eine einzelne Hardwareplattform wurde plötzlich das Betriebssystem eines Rechners, der kurz darauf zu einer neuen Standardplattform der Personal-Computer-Industrie werden sollte.

Als der IBM PC im August 1981 schließlich vorgestellt wurde, erschien das Betriebssystem unter dem Namen PC-DOS. Parallel dazu behielt Microsoft jedoch das Recht, das System auch unabhängig von IBM zu lizenzieren und unter eigener Bezeichnung zu vertreiben.

Diese Vertragsstruktur erwies sich im Rückblick als entscheidend. Während IBM seine eigene Variante des Systems verwendete, konnte Microsoft das Betriebssystem an die wachsende Zahl von IBM-PC-kompatiblen Computern lizenzieren. Als in den folgenden Jahren immer mehr Hersteller sogenannte PC-Klone auf den Markt brachten, wurde MS-DOS zum gemeinsamen Softwarefundament dieser neuen Computerplattform.

Aus dem kleinen Projekt, das Tim Paterson ursprünglich als pragmatische Lösung für eine einzelne Prozessorplatine geschrieben hatte, entstand so die Grundlage für MS-DOS. In den folgenden Jahren wurde dieses System zum dominierenden Betriebssystem der PC-Welt und prägte eine ganze Generation von Personal Computern.

Die Geschichte von 86-DOS zeigt damit eine typische Konstellation der frühen PC-Industrie: Ein kleines Hardwareunternehmen löst ein unmittelbares technisches Problem, ein Softwareanbieter erkennt das größere Marktpotenzial – und aus einer pragmatischen Zwischenlösung entsteht schließlich eine der prägendsten Plattformen der Computergeschichte.

 

EATA – Hardwarepionier der 80er-Jahre zwischen SCSI-Innovation und PC-Boom

Als der Personal Computer zu Beginn der 1980er-Jahre seinen Weg aus Laboren und Großraumbüros in Werkstätten, Büros und zunehmend auch Privathaushalte fand, entstand parallel eine neue Generation spezialisierter Hardwarefirmen. Während Hersteller wie IBM, Commodore oder Apple die Systeme selbst lieferten, entwickelten kleinere Unternehmen Erweiterungen, Schnittstellen und Speicherlösungen, die den praktischen Nutzen dieser Rechner oft erst voll ausschöpften. In diesem Umfeld wurde 1983 im kalifornischen Technologieumfeld ein Unternehmen gegründet, das genau diese Lücke adressieren wollte: EATA – Enhanced Adaptable Technology Applications. Mit dem Anspruch, leistungsfähige und zugleich anpassbare Hardware für die wachsende PC-Landschaft bereitzustellen, positionierte sich die Firma früh als technischer Zulieferer für professionelle Anwendungen ebenso wie für ambitionierte Einzelsysteme.

Aus dieser Motivation heraus entstand ein Unternehmen, das sich früh auf genau jene Komponenten konzentrierte, die den Leistungsunterschied zwischen Standard-PC und professionellem Arbeitsplatz ausmachen konnten. EATA, kurz für Enhanced Adaptable Technology Applications, war ein US-amerikanisches Unternehmen, das in den 1980er- und frühen 1990er-Jahren im Bereich Computerhardware und Peripheriegeräte tätig war. Das Unternehmen wurde 1983 in Kalifornien gegründet und hatte sich zunächst auf die Entwicklung von Schnittstellenkarten und Speicherlösungen spezialisiert. Gegründet wurde EATA von den Ingenieuren Michael L. Collins und Sarah Yu, die beide zuvor bei bedeutenden Elektronikherstellern wie Intel und National Semiconductor tätig gewesen waren. Ihre Vision war es, kostengünstige, anpassbare Hardware zu entwickeln, die die Leistungsfähigkeit von Heim- und Bürosystemen verbessern konnte.

Die Entstehungsgeschichte von EATA ist eng mit dem Aufstieg des Personal Computers verbunden. Während des IBM-PC-Booms erkannten Collins und Yu die wachsende Nachfrage nach leistungsfähigerer Hardware, insbesondere in den Bereichen Datenspeicherung und Schnittstellenkonnektivität. In einem Interview mit dem Magazin Byte aus dem Jahr 1985 sagte Collins: „Die PCs von damals waren großartig, aber sie waren oft durch ihre Hardware eingeschränkt. Wir wollten diese Grenzen aufheben.“ Das erste Produkt von EATA war eine SCSI-Schnittstellenkarte, die eine deutlich schnellere Datenübertragung ermöglichte als die damals weit verbreiteten parallelen Schnittstellen.

Ein Aushängeschild von EATA war ihre Fähigkeit, mit großen Herstellern wie IBM und Commodore zusammenzuarbeiten und gleichzeitig Produkte für kleinere, spezialisierte Märkte zu entwickeln. Die EATA-SCSI-Adapter wurden schnell zu einem festen Bestandteil professioneller Systeme und fanden Anwendung in Workstations, Servern und teilweise auch in Heimcomputern mit erweiterten Speicherlösungen. 1987 brachte das Unternehmen eine Serie externer Festplatten auf den Markt, die unter dem Namen „EATA StoragePro“ vermarktet wurde. Diese Produkte waren aufgrund ihrer hohen Kapazität und Zuverlässigkeit besonders bei professionellen Anwendern gefragt. Ein Werbeslogan aus dieser Zeit lautete: „EATA – der Speicher, auf den Sie sich verlassen können.

Auch auf Messen gelang es dem Unternehmen, Aufmerksamkeit zu erzeugen. Während einer Präsentation im Jahr 1986 fiel die Demonstration eines neuen Speicherprodukts aufgrund eines Stromausfalls aus. Sarah Yu improvisierte daraufhin und setzte die Präsentation mit einem vollständig batteriebetriebenen Setup fort, das sie innerhalb weniger Minuten zusammenstellte. Die spontane Lösung beeindruckte die Besucher so sehr, dass sie in Branchenkreisen später scherzhaft als „die Frau, die Stromprobleme besiegt“ bezeichnet wurde.

Zu den bekannten Technikern des Unternehmens gehörte der Ingenieur Robert „Bob“ Kessler, der zuvor an Entwicklungen rund um die Zilog-Z80-Architektur beteiligt gewesen war. Bei EATA brachte er sein Wissen in die Optimierung der SCSI-Controller ein und prägte damit die technische Ausrichtung der Produktlinie. Eine seiner Aussagen aus dieser Zeit lautete: „Es ist nicht nur unsere Technologie, die uns auszeichnet, sondern auch unser Engagement für Qualität und Innovation.

Neben den SCSI-Adaptern und Speicherlösungen arbeitete EATA an mehreren geplanten Peripheriegeräten, die jedoch aufgrund von Marktverschiebungen oder finanziellen Engpässen nie in Serie gingen. Dazu gehörte unter anderem ein modularer Netzwerk-Hub, der durch austauschbare Module flexibel an unterschiedliche Einsatzgebiete angepasst werden sollte. Das Konzept erwies sich als technisch interessant, scheiterte jedoch an den hohen Entwicklungskosten. Ebenfalls geplant war eine Reihe von Grafikbeschleunigern, die allerdings von der rasanten Entwicklung konkurrierender Lösungen überholt wurden, bevor sie Marktreife erreichten.

In der Fachpresse jener Zeit wurden EATA-Produkte mehrfach positiv hervorgehoben. In einem Artikel der PC World aus dem Jahr 1988 hieß es: „EATA kombiniert Ingenieurskunst mit Benutzerfreundlichkeit – ein seltenes Talent in der Welt der Hardware.“ Die Produkte des Unternehmens wurden in über 30 Ländern vertrieben, und EATA erreichte 1989 einen Jahresumsatz von rund 20 Millionen US-Dollar, was inflationsbereinigt heute etwa 45 Millionen US-Dollar entspricht.

Trotz dieser Erfolge geriet das Unternehmen Anfang der 1990er-Jahre zunehmend unter Druck. Der Markt für SCSI-Adapter wurde stärker von größeren Herstellern wie Adaptec geprägt, und die Versuche von EATA, sich mit neuen Produktlinien breiter aufzustellen, führten nicht zum erhofften Wachstum. 1994 wurde das Unternehmen schließlich von einem größeren Hardwarehersteller übernommen, woraufhin die Marke EATA nach und nach vom Markt verschwand.

Auch wenn EATA nie zu den dominierenden Namen der Branche zählte, steht das Unternehmen exemplarisch für jene Generation spezialisierter Hardwarefirmen, die den Personal Computer in den 1980er-Jahren funktional erst vollständig machten. Ihre Produkte spiegeln eine Phase der Computerindustrie wider, in der technische Lösungen oft aus konkreten praktischen Anforderungen heraus entstanden und Innovation weniger Marketingbegriff als tägliche Ingenieursarbeit war. Heute erinnern erhaltene Karten, Laufwerke und Dokumentationen daran, wie sehr die Entwicklung der Computertechnik nicht nur von großen Systemherstellern, sondern auch von solchen spezialisierten Zulieferern geprägt wurde, deren Einfluss im Hintergrund wirkte – und gerade deshalb nachhaltig war.

Intel 8088

Von Konstantin Lanzet - CPU collection Konstantin Lanzet, CC BY-SA 3.0, https://commons.wikimedia.org/w/index.php?curid=6692144

Der Intel 8088 gehört zu jenen Prozessoren, deren historische Bedeutung sich weniger aus ihren reinen Leistungsdaten ergibt als aus den Entscheidungen, die um ihn herum getroffen wurden. Als Intel ihn 1979 vorstellte, wirkte er auf dem Papier wie ein Kompromiss: intern ein vollwertiger 16-Bit-Prozessor, nach außen jedoch mit einem 8-Bit-Datenbus ausgestattet. Genau dieser scheinbare Rückschritt sollte sich jedoch als strategischer Glücksfall erweisen – nicht nur für Intel selbst, sondern für die gesamte Personal-Computer-Industrie der frühen 1980er-Jahre.

Technisch basiert der 8088 auf derselben Architektur wie der ein Jahr zuvor erschienene Intel 8086. Beide Prozessoren verfügen über identische Register, denselben Befehlssatz und das segmentierte Speicheradressmodell mit 20-Bit-Adressraum, das theoretisch bis zu ein Megabyte Arbeitsspeicher erlaubt. Der entscheidende Unterschied liegt ausschließlich in der Bus-Anbindung: Während der 8086 Daten extern mit 16 Bit überträgt, beschränkt sich der 8088 auf 8 Bit. Diese Entscheidung erlaubte den Einsatz günstigerer Speicherbausteine, einfacherer Platinenlayouts und vorhandener 8-Bit-Peripherie. Typische Taktfrequenzen lagen anfangs bei 4,77 MHz, später folgten Varianten mit 5, 8 und bis zu 10 MHz.

Diese Auslegung war kein Zufall, sondern Ausdruck einer klaren Systemstrategie. Intel verstand den 8088 nicht als abgespeckte Notlösung, sondern als Brücke zwischen der etablierten 8-Bit-Welt und der kommenden 16-Bit-Generation. Aus Sicht des Programmierers verhielten sich 8086 und 8088 identisch; Unterschiede zeigten sich erst auf der Ebene der Speicheranbindung. Dass der 8088 in der Praxis oft langsamer wirkte als sein 16-Bit-Pendant, lag weniger am Rechenkern selbst als an der kleineren Vorlade-Warteschlange und dem schmaleren Datenbus, die den Instruktionsnachschub begrenzten. Moderne Analysen zeigen, dass dieser Leistungsnachteil stark vom jeweiligen Programmcode abhing und nicht pauschal war.

Historisch untrennbar verbunden ist der Intel 8088 mit dem IBM PC 5150 aus dem Jahr 1981. IBM entschied sich bewusst gegen den technisch leistungsfähigeren 8086 und wählte den 8088 aus pragmatischen Gründen. Ausschlaggebend waren die kürzere Entwicklungszeit, die Nutzung bewährter 8-Bit-Supportchips und eine insgesamt geringere Systemkomplexität. Leistungsreserven spielten eine untergeordnete Rolle; entscheidend war ein robustes, schnell realisierbares Gesamtsystem. Mit dieser Wahl legte IBM den Grundstein für eine Plattform, die sich rasch zum industriellen Standard entwickelte.

Die Entwicklung des 8088 fällt in eine Phase, in der Intel sich endgültig vom reinen Speicherhersteller zum Prozessoranbieter wandelte. Nach dem Erfolg des 8080 sollte die 8086-Architektur den technologischen Schritt in die Zukunft markieren. Der 8088 war dabei die marktfähige Variante, die es erlaubte, neue Architekturkonzepte in bestehende Produktionsrealitäten einzubetten. Zeitgenössische Industrieberichte zeigen, dass Intel diesen Ansatz bewusst verfolgte: Architekturkontinuität und Skalierbarkeit wurden höher bewertet als maximale Rohleistung.

In der praktischen Anwendung zeigte der Prozessor ein ambivalentes Bild. Gegenüber klassischen 8-Bit-CPUs bot er klare Vorteile: größere Register, leistungsfähigere Befehle und einen deutlich erweiterten Adressraum. Gleichzeitig sorgte der 8-Bit-Bus dafür, dass viele Programme kaum schneller liefen als auf hochgetakteten Z80-Systemen. Frühere Magazinberichte wiesen daher häufig darauf hin, dass das theoretische Potenzial der Architektur im Alltag noch nicht vollständig ausgeschöpft wurde. Dennoch eröffnete der 8088 neue Einsatzfelder, insbesondere für komplexere Betriebssysteme und professionelle Anwendungen wie Textverarbeitung, Tabellenkalkulation und Datenbanken.

Zeitgenössische Fachzeitschriften beschrieben den 8088 entsprechend nüchtern. In der deutschsprachigen Presse galt er als zukunftssicher, aber teuer. Gelobt wurden die klare Architektur und das professionelle Umfeld, kritisch gesehen wurden Geschwindigkeit und Preisniveau. Ein 8088-System wirkte weniger wie ein Heimcomputer und mehr wie ein Arbeitsgerät – ein Eindruck, der das Image des IBM-PC und seiner zahlreichen Nachbauten lange prägte.

Wirtschaftlich bewegte sich der Intel 8088 im klassischen Business-Segment. Der Prozessor selbst war deutlich teurer als zeitgenössische 8-Bit-CPUs, rechtfertigte diesen Preis jedoch durch seine Positionierung in professionellen Systemen. Komplettrechner auf 8088-Basis lagen inflationsbereinigt schnell im Bereich mehrerer tausend Euro. Erst mit dem Aufkommen kompatibler PC-Clones sanken die Preise allmählich, ohne den grundsätzlichen Charakter der Plattform zu verändern.

Die Nachwirkung des 8088 ist kaum zu überschätzen. Obwohl er technisch bald vom 80286 und später vom 80386 überholt wurde, definierte er zentrale Grundlagen der PC-Architektur: das Zusammenspiel von Prozessor, BIOS, Peripherie und Betriebssystem ebenso wie das segmentierte Speichermodell. Selbst Jahrzehnte später mussten Entwickler Rücksicht auf diese frühen Entscheidungen nehmen. Der 8088 gilt daher weniger als technischer Höhepunkt, sondern vielmehr als Fundament einer bis heute fortgeführten Architektur.

Rückblickend erscheint der Intel 8088 als Prozessor mit enormer Systemwirkung. Er war nicht der eleganteste Chip seiner Zeit und auch nicht der schnellste. Doch durch die Kombination aus technischer Solidität, industrieller Akzeptanz und dem richtigen Zeitpunkt wurde er zum Ausgangspunkt einer Entwicklung, die den Personal Computer aus einer Nische in den Alltag von Büros und Verwaltungen führte. In diesem Sinne steht der 8088 exemplarisch für eine zentrale Erkenntnis der Computergeschichte: Entscheidend ist nicht allein die maximale Leistung, sondern die Fähigkeit, ein tragfähiges System zu ermöglichen.

 

B.C.’s Quest for Tires – 1983 by Sydney Development Corp.

Von der Höhle auf den Bildschirm – Der Aufstieg des ersten kanadischen Videospielhits

BC's Quest for TiresB.C.’s Quest for Tires, entwickelt von Sydney Development Corporation und vertrieben durch Sierra On-Line, war eines jener Spiele, das im goldenen Zeitalter der Heimcomputer erschien und dabei etwas ganz Eigenes schuf. Basierend auf dem beliebten Zeitungscomic B.C. von Johnny Hart, versetzte das Spiel den Spieler in die Rolle des wortkargen Höhlenmenschen Thor, der auf einem Steinrad durch prähistorische Landschaften rollt, um seine Angebetete – „Cute Chick“ – aus den Fängen des Dinosauriers Gronk zu befreien. Die Handlung mag rudimentär wirken, doch der Witz, die stilisierte Grafik und das durchdachte Gameplay machten den Titel zu einem Klassiker jener frühen Homecomputer-Ära.

Thor bewegt sich auf seinem Stein-Einrad unaufhörlich von links nach rechts, und der Spieler muss im richtigen Moment springen, sich ducken oder auf fahrende Schildkröten springen, um die zahlreichen Hindernisse zu überwinden. Es gibt zehn Level, darunter auch ruhigere Abschnitte, in denen es auf das richtige Timing ankommt. Besonders auffällig war die farbenfrohe Grafik und der comicartige Zeichenstil, der dem Originalstrip erstaunlich treu blieb. Eine besondere Raffinesse bestand darin, dass der Spieler die Geschwindigkeit von Thors Gefährt selbst kontrollieren konnte, was nicht nur den Schwierigkeitsgrad, sondern auch die Punktwertung beeinflusste – ein damals innovatives Element.

Die Entstehung des Spiels war eng mit dem kanadischen Entwickler Michael Bate und dessen Gründung von Artech Studios verknüpft. Die Lizenz an Johnny Harts Comicstrips B.C. und The Wizard of Id wurde für 25.000 Dollar jährlich erworben – eine für damalige Verhältnisse beachtliche Summe. Ursprünglich war das Spiel als Werbung für das kanadische NABU-Netzwerk gedacht, wurde jedoch bald als eigenständiges Produkt weiterentwickelt. Die ColecoVision-Version war die erste technisch funktionstüchtige, da sowohl NABU als auch ColecoVision denselben Z80-Prozessor nutzten. Die Portierung war daher vergleichsweise unkompliziert, und auch der Vertrieb durch Sierra kam rasch zustande.

An der Programmierung waren mehrere später bekannte Entwickler beteiligt. Rick Banks, zusammen mit MaryLou O’Rourke, entwickelte die ColecoVision-Fassung. Chuck Benton, der später mit Leisure Suit Larry bekannt wurde, programmierte die Atari-8-Bit- und Commodore-64-Version. Justin Gray übernahm die Apple-II-Umsetzung, N. R. Dick war für die MSX-Version verantwortlich und Mike Davies für den ZX Spectrum. Ein dedizierter Komponist wurde nicht genannt – der Sound, der oft auf einfache Effektgeräusche reduziert war, wurde meist von den Programmierern selbst beigesteuert. Viele dieser Entwickler arbeiteten in späteren Jahren an weiteren bekannten Titeln, insbesondere im Umfeld von Sierra oder Artech.

Trotz der engen Produktionszeit – Michael Bate äußerte später, dass er nicht besonders stolz auf das Spiel sei, da es unter großem Zeitdruck entstanden sei – wurde B.C.’s Quest for Tires ein beachtlicher Erfolg. Es war das erste in Kanada entwickelte Videospiel, das auf Kassette erschien, und wurde zu einem Verkaufsschlager. Über eine Million Einheiten wurden verkauft – ein gewaltiger Erfolg für ein Computerspiel des Jahres 1983. Es erhielt Auszeichnungen wie „Best Game for Youngsters“ von Family Computing und lobende Erwähnungen für Grafik und Sound vom Billboard Magazine und dem Magazin Video Game Update.

Die internationale Rezeption war ebenfalls positiv. Die Atari-8-Bit-Version erhielt von Spielern im Durchschnitt 8,4 von 10 Punkten, die Commodore-64- und Spectrum-Fassungen bewegten sich meist im Bereich um 7,5. Die ColecoVision-Version wurde oft als die technisch gelungenste bezeichnet, während die ZX-Spectrum-Fassung in punkto Grafik durch das monochrome Design leichte Abstriche machte, aber flüssig lief. Die PC-Version hingegen wurde aufgrund der limitierten CGA-Grafik und des fehlenden Sounds als eher mittelmäßig bewertet.

Auch heute noch gibt es Diskussionen um Begriffe wie „Cute Chick“ und „Fat Broad“, die im Originalcomic verwendet wurden und später von der Familie Hart in „Grace“ und „Jane“ geändert wurden, da man sie als potenziell abwertend empfand. Diese Änderungen betrafen zwar den Strip selbst, warfen aber auch einen neuen Blick auf das Spiel, das diese Namen in seinem Originaltitel und Abspann übernahm.

Verworfene Inhalte sind kaum dokumentiert, doch es gibt Hinweise, dass ursprünglich weitere Level geplant waren, darunter eine Szene im Innern eines Vulkans mit seitlich rollender Lavakugel, die aus Speichergründen gestrichen wurde. Auch eine Variante mit Höhlenzeichnungen als Hintergrundgrafik wurde verworfen – der Speicherbedarf hätte den Rahmen der Module und Disketten überschritten.

Das Spiel wurde auf zahlreiche Systeme portiert: Neben ColecoVision, Atari 8-bit, Commodore 64, Apple II, MSX und IBM PC erschien es auch für das ZX Spectrum. Die technische Umsetzung variierte stark: Während ColecoVision und Apple II mit vergleichsweise hoher Bildwiederholrate glänzen konnten, litten einige Umsetzungen unter ruckeliger Steuerung. Unterschiede in Sound und Grafik waren systembedingt. Interessanterweise war B.C.’s Quest for Tires eines der wenigen Spiele jener Zeit, das sowohl in den USA als auch in Europa und Japan vertrieben wurde, oft mit lokal angepasstem Handbuch oder abgewandeltem Titelbild.

Ein interessantes Detail am Rande: Auf einem frühen Werbeflyer von Sierra ist die Heldin des Spiels blond dargestellt – im Comic jedoch ist sie rothaarig. Es wurde nie erklärt, ob dies ein Versehen oder eine bewusste künstlerische Entscheidung war. Ebenso kursieren bis heute unbestätigte Berichte, dass eine Version für den Intellivision-Prototyp entwickelt wurde, diese aber nie veröffentlicht wurde.

B.C.’s Quest for Tires mag heute wie ein kurioses Überbleibsel einer vergangenen Ära wirken, doch es war stilbildend für das Lizenzspiel-Genre der frühen 1980er und trug maßgeblich dazu bei, dass Spiele nicht nur abstrakte Herausforderungen sein mussten, sondern auch humorvolle Geschichten erzählen konnten. In einem Interview sagte Entwickler Rick Banks später: „Wir wollten einfach ein Spiel machen, das sich so anfühlt, als würde man einen Sonntagscomic durchblättern – nur eben spielbar.“ Und genau das war es: ein interaktiver Comicstrip auf einem Steinrad.

Apple III

Apple III

Apple IIIAls Apple im Mai 1980 den Apple III vorstellte, galt er als ambitioniertes Vorhaben, das den erfolgreichen Apple II beerben und das Unternehmen aus dem Heimcomputersegment in den lukrativeren Markt für Business-Computer führen sollte. Die Erwartungen waren immens, denn Apple hatte sich mit dem Apple II als führender Hersteller in der Bildungs- und Hobbyszene etabliert, doch um Unternehmen wie IBM und DEC herauszufordern, musste ein professionelleres Gerät entstehen – leistungsfähiger, robuster und mit echtem Betriebssystem. Der Apple III wurde somit von Anfang an als Business-Maschine positioniert, mit höherem Arbeitsspeicher, besseren Textdarstellungsfähigkeiten und einem professionelleren Gehäuse. Doch die Realität entwickelte sich anders: Der Apple III wurde später berüchtigt als eines der größten Technikdesaster der frühen Computerindustrie.

Im Kern des Apple III arbeitete ein Synertek 6502A-Prozessor mit 2 MHz, eine leicht übertaktete Variante des bekannten MOS 6502, der auch im Apple II, Commodore PET und später im Commodore 64 zu finden war. Der 6502 war ein 8-Bit-Prozessor mit 16-Bit-Adressraum und einfacher Architektur, die ihn für kostengünstige Systeme attraktiv machte. Er konnte mit sehr wenigen Transistoren arbeiten, was niedrige Produktionskosten und geringeren Stromverbrauch zur Folge hatte. Der 6502 verfügte über drei 8-Bit-Register (A, X, Y), einen 16-Bit-Program Counter, einen Stackpointer und einen Status-Register, was ihn sehr gut für kompakte Maschinenprogrammierung geeignet machte. Für den Apple III jedoch war dieser Prozessor ein Anachronismus: Während IBM für seinen 1981 vorgestellten PC auf einen 16-Bit-Prozessor (den Intel 8088) setzte, verblieb Apple bei 8-Bit-Technik, wenn auch mit cleverer Architektur. Der Apple III konnte über spezielle Speicherbankumschaltung bis zu 512 KB RAM adressieren, weit mehr als der Apple II. Dennoch wurde der Prozessor bald als Engpass empfunden.

Der Startpreis des Apple III betrug bei seiner Vorstellung 4.340 US-Dollar, was inflationsbereinigt im Jahr 2025 etwa 14.700 Euro entspricht. Für diese Summe erhielt man einen Rechner mit 128 KB RAM, eingebautem 5¼-Zoll-Diskettenlaufwerk, monochromem Textbildschirm mit 80×24 Zeichen und dem neuen Betriebssystem SOS – dem Sophisticated Operating System. Die Preise waren deutlich höher als beim Apple II, der zu dieser Zeit je nach Konfiguration zwischen 1.000 und 2.000 Dollar kostete. Apple wollte sich bewusst vom Heimcomputermarkt absetzen, doch das Preis-Leistungs-Verhältnis wurde von vielen Zeitgenossen als ungünstig kritisiert. In der InfoWorld vom Oktober 1981 hieß es: „Apple verlangt einen Premiumpreis für einen Computer, der in vielen Belangen kaum mehr bietet als sein Vorgänger.

Ein zentrales Problem des Apple III war sein Aufbau: Steve Jobs bestand darauf, dass der Rechner keine Lüfter oder Lüftungsschlitze enthalten dürfe – aus ästhetischen Gründen. Dies führte zu massiven Hitzeproblemen. Die Chips überhitzten häufig, der integrierte Diskettencontroller löste sich buchstäblich aus dem Sockel, und das System wurde instabil. Apple musste bereits Ende 1980 die gesamte erste Produktionsreihe zurückrufen. Etwa 14.000 Geräte wurden überarbeitet oder ausgetauscht. Dies führte zu einem enormen Imageverlust. In einem internen Memo bezeichnete ein Apple-Manager das Gerät als „technisch zu früh geboren“. Spätere Revisionen des Apple III (etwa ab 1982, oft informell als „Apple III+“ bezeichnet) verbesserten die Situation durch geänderte Sockel, optionale Lüfter und überarbeitete Platinen Layouts, doch das Vertrauen war bereits verloren.

Als Massenspeicher verwendete der Apple III zunächst ein integriertes 143-KB-Diskettenlaufwerk (Apple Disk III), später auch das externe Apple ProFile-Festplattenlaufwerk mit 5 MB Kapazität – eines der ersten Festplattenlaufwerke im Personal-Computer-Bereich. Die Apple ProFile war allerdings teuer (über 3.000 Dollar) und nur über spezielle Karten ansteuerbar. Der Apple III verfügte über mehrere Erweiterungssteckplätze, einen Centronics-kompatiblen Drucker Port, einen seriellen Port (RS-232) und konnte über ein spezielles Interface auch mit AppleTalk-Netzen verbunden werden. Vorgesehen waren zudem Mausunterstützung, Farbmonitore, SCSI-Controller und externe Laufwerke, doch viele dieser Geräte erschienen verspätet oder gar nicht.

Der Bildschirm des Apple III war standardmäßig monochrom und zeigte 560×192 Pixel, wobei durch besondere Tricks auch Bitmapped-Grafik mit Farbanpassung möglich war – in Farbe war jedoch eine externe Grafikkarte nötig. Die Farbfähigkeiten waren theoretisch vorhanden, aber stark eingeschränkt. Der Rechner konnte maximal 16 Farben anzeigen, allerdings nicht simultan im Hochauflösungsmodus. Da jedoch kaum Programme die Farbmöglichkeiten unterstützten, blieb der Apple III faktisch ein monochromes System. Seine physischen Abmessungen lagen bei etwa 38×45×13 cm mit einem Gewicht von rund 10 kg – für damalige Verhältnisse ein sehr kompakter Businesscomputer. Als Soundchip kam keine dedizierte Lösung zum Einsatz, sondern der interne Speaker wurde direkt über den CPU-Takt gesteuert. Klanglich blieb der Apple III damit auf dem Niveau des Apple II, das heißt: einfache Piepser ohne Mehrstimmigkeit oder Musikfähigkeiten.

Das Betriebssystem SOS, das Apple eigens für den Apple III entwickelte, war der eigentliche technische Höhepunkt des Systems. Es unterstützte Dateien mit Metadaten, ein echtes Device Management, Benutzerverzeichnisse, feste Dateitypen und ein modulares Treibersystem – Konzepte, die später im Macintosh wiederkehren sollten. Die API war objektorientiert und systematisch dokumentiert, was Programmierer sehr schätzten. Leider war die Einstiegshürde hoch, und viele Entwickler scheuten die Umstellung. Außerdem war der Softwaremarkt für den Apple III schwach. Nur rund 200 Programme erschienen, meist Buchhaltungs- und Datenbanksoftware wie VisiCalc III, Apple III Pascal, Profile Pascal, Word Juggler oder Apple III BASIC. Spiele existierten kaum.

Die Hauptentwickler des Apple III waren unter anderem Wendell Sander, ein früher Apple-Ingenieur, der bereits am Apple II beteiligt war und als Hauptarchitekt des Apple III gilt. Sander war bekannt für seine detailverliebte Arbeit an Systembussen und Speicherzugriffen, doch sein technisches Design wurde durch die Designvorgaben von Jobs und durch Zeitdruck eingeschränkt. Auch Jef Raskin, später bekannt durch seine Rolle beim Macintosh-Projekt, war beteiligt, zog sich jedoch bald zurück. Rod Holt, der für die Stromversorgung beim Apple II bekannt war, war ebenfalls involviert, allerdings nicht federführend.
Der Apple III verkaufte sich über die gesamte Laufzeit hinweg nur etwa 65.000-mal – ein Bruchteil der über zwei Millionen verkauften Apple II-Modelle. Im April 1984 stellte Apple die Produktion endgültig ein, nachdem der Macintosh angekündigt worden war. Die meisten Einheiten wurden an US-Firmen verkauft, insbesondere an Universitäten und kleinere Buchhaltungsfirmen. In Europa blieb der Apple III weitgehend unbekannt.
Gegenüber seinem Vorgänger, dem Apple II, bot der Apple III einen professionelleren Gesamteindruck, mehr RAM, eine höhere Auflösung, ein echtes Betriebssystem und integrierte Massenspeicheroptionen. Doch der Preis, die Hitzeprobleme, der Mangel an Software und die geringe Entwicklerunterstützung ließen ihn als Fehlschlag gelten. Gegenüber der IBM-PC-Familie, die ab 1981 den Markt dominierte, fehlte dem Apple III schlicht die Rechenleistung und Standardkompatibilität. Der 8-Bit-Prozessor, das fehlende Betriebssystem-Ökosystem und die hohen Preise machten ihn unattraktiv. Selbst gegenüber dem CP/M-Markt oder frühen MS-DOS-PCs war der Apple III technologisch und wirtschaftlich unterlegen.

Ein Artikel in Byte Magazine von 1982 fasste es trocken zusammen: „Der Apple III ist wie ein Sportwagen, der ständig überhitzt, nicht richtig startet und nur auf bestimmten Straßen fahren kann. Schön, aber unpraktisch.“ Heute gilt der Apple III als Lehrstück in der Technikgeschichte – ein ambitioniertes Projekt, das an Designidealen, Zeitdruck und Marktverkennung scheiterte. Gleichzeitig bereitete es mit SOS und seiner Architektur den Boden für die Entwicklung des Macintosh, der später Apples wahre Antwort auf den Businessmarkt wurde.

Auch wenn der Apple III als Büromaschine entwickelt wurde, gab es einige Spiele für das System, beispielsweise Apple III Chess, das speziell für das Apple III entwickelt wurde und unter SOS lief. Es bot im Vergleich zu Apple II-Versionen ein ausgefeilteres Interface, eine höhere Bildschirmauflösung (Textmodus mit 80×24 Zeichen) und eine stärkere KI-Routine, die auf den erweiterten Arbeitsspeicher zugreifen konnte. Es war aber sehr langsam in höheren Schwierigkeitsstufen, da der 6502-Prozessor trotz doppelter Taktung (2 MHz) gegenüber dem 8088 des IBM PC schwächelte.

Mit Star Thief III portierte man ein erweitertes Action Game, dass exklusiv für das neue Flaggschiff angepasst wurde. Im Vergleich zur Apple II-Version hatte es eine bessere Steuerung über die numerische Tastatur, zusätzliche Level und leicht erweiterte Grafik. Es wurde in wenigen Apple-Händlerkatalogen erwähnt, war aber kommerziell unbedeutend.

Einige Hobbyisten und kleinere Entwicklerstudios veröffentlichten einfache Spiele, die speziell in Apple III Business BASIC oder SOS BASIC geschrieben wurden. Darunter befanden sich Spiele wie Hangman III, Treasure Cave oder Space Courier, die in Apple-Usergruppen oder über Diskettenversand vertrieben wurden. Diese Titel waren technisch einfach, nutzten aber gelegentlich die strukturierte Dateiverwaltung und die 80-Zeichen-Darstellung von SOS.

Apple hatte mit dem Apple III einen Rechner geschaffen, der keine Marktdurchdringung geschaffen hatte. Die technischen Probleme und die fehlende Spielkultur im Businessbereich taten ihr Übriges. Zudem war das SOS-Betriebssystem mit seiner anspruchsvollen API nicht attraktiv für Spieleentwickler, die lieber die große installierte Basis des Apple II nutzten. Eine Rückwärtskompatibilität zum Apple II war zwar theoretisch vorhanden – der Apple III konnte in einen Apple II-Modus booten – aber dieser war hardwareseitig unvollständig und fehleranfällig, sodass viele Apple II-Spiele dort nicht funktionierten.

The Seven Cities of Gold – 1984 by Ozark Softscape

The Seven Cities of Gold

The Seven Cities of Gold

"The Seven Cities of Gold" ist ein Computerspiel, das 1984 von Ozark Softscape unter der Leitung von Dan Bunten entwickelt und von Electronic Arts veröffentlicht wurde. Es versetzt die Spieler in die Rolle eines spanischen Konquistadors des 15. Jahrhunderts, der die Neue Welt erkundet, um Reichtümer zu sammeln und Ruhm zu erlangen. Der Titel des Spiels bezieht sich auf die Legende der sieben goldenen Städte von Cibola, die im 16. Jahrhundert viele Abenteurer nach Amerika lockte.

Die Entwicklung des Spiels begann mit einer intensiven Recherchephase, in der Dan Bunten und sein Bruder Bill zahlreiche Bücher über die Konquistadoren und verwandte Themen studierten. Dan Bunten erklärte später: "Als... Bill und ich Kinder waren, schenkte uns unser Onkel ein Buch über die Konquistadoren, und wir dachten, wow!" Diese Faszination führte zur Idee, ein Spiel zu entwickeln, das die Erfahrungen der Entdecker nachbildet. Ein zentrales Merkmal des Spiels ist die Möglichkeit, neben der historischen Karte auch zufällig generierte Karten zu verwenden, was jedem Spiel eine einzigartige Welt verleiht. Jim Rushing, der Hauptprogrammierer, verbrachte etwa vier Monate mit der Entwicklung des Kartengenerators, der realistische Kontinente mit Bergen, Flüssen und verschiedenen Zivilisationen erzeugt. Dan Bunten betonte die Bedeutung dieses Features: "Die zufälligen Karten geben den Spielern das Gefühl, echte Entdecker zu sein, die in unbekanntes Terrain vordringen."

Das Gameplay von "The Seven Cities of Gold" zeichnet sich durch seine offene Struktur aus. Die Spieler können die Küsten erkunden, ins Landesinnere vordringen, mit indigenen Völkern interagieren und entscheiden, ob sie friedlich handeln oder gewaltsam erobern. Die Interaktion mit den Ureinwohnern ist dabei besonders hervorzuheben. Dan Bunten erklärte: "Der friedliche Ansatz funktioniert wirklich am besten... Man muss irgendwo Freunde haben. Wenn etwas schiefgeht, braucht man eine freundliche Mission, zu der man zurückkehren kann, ohne sich um einen Aufstand sorgen zu müssen." Diese Dynamik spiegelt die historischen Herausforderungen der Konquistadoren wider und zwingt die Spieler, ihre Entscheidungen sorgfältig abzuwägen.

Nach seiner Veröffentlichung war "The Seven Cities of Gold" sowohl kommerziell als auch kritisch erfolgreich. Es verkaufte sich in den ersten Jahren über 150.000 Mal und wurde von der Zeitschrift Computer Gaming World als "Strategiespiel des Jahres" 1985 ausgezeichnet. In einer Rezension der Compute! aus dem Jahr 1984 wurde es als "fesselndes Strategiespiel, das herausfordert und bildet sowie unterhält" beschrieben. Die Möglichkeit, immer wieder neue Welten zu entdecken, trug maßgeblich zum Wiederspielwert bei und inspirierte spätere Spiele wie Sid Meiers "Pirates!" und "Civilization".

Trotz seines Erfolgs blieb das Spiel nicht ohne Kontroversen. Einige Kritiker bemängelten die Darstellung der Interaktionen mit den indigenen Völkern, insbesondere die Möglichkeit, Dörfer zu überfallen und deren Bewohner zu töten. Dan Bunten selbst äußerte sich zu diesem Dilemma: "Viele der Konquistadoren behandelten die Eingeborenen schrecklich. Ihre Herangehensweise war arrogant und stolz gegenüber einer Gesellschaft, die ihre eigene Geschichte und Wurzeln hatte. Aber um historisch genau zu sein, mussten wir Gewalt einbeziehen. Ich mag die Idee nicht, dass Spieler anderen Wesen Schaden zufügen, aber es gibt keine Alternative, sonst zwingt man dem Publikum seine eigenen moralischen Entscheidungen auf." Diese Reflexion zeigt das Bewusstsein der Entwickler für die ethischen Implikationen ihres Spiels.

International erhielt "The Seven Cities of Gold" überwiegend positive Bewertungen. Die deutsche Zeitschrift Happy Computer lobte die "intelligente Gestaltung" des Spiels und die im Stil einer Abenteuergeschichte geschriebene Anleitung. In einer Retrospektive von PC Games wurde hervorgehoben, dass das Spiel "wegweisend" war und "ein Vorreiter im Bereich der Entdeckerspiele" sei. Diese Anerkennung unterstreicht den Einfluss des Spiels auf die Entwicklung des Strategiespiel-Genres.

Zusammenfassend bleibt "The Seven Cities of Gold" ein Meilenstein in der Geschichte der Computerspiele. Seine innovative Spielmechanik, die offene Welt und die tiefgründige Auseinandersetzung mit historischen Themen machen es zu einem zeitlosen Klassiker, der auch heute noch Spieler inspiriert und zum Nachdenken anregt.