Power Mac G4 Cube – Apples lautloser Würfel und das Risiko einer neuen Geräteklasse

Source: https://www.mac27.net/power-mac-g4-cube

Es war einer dieser Momente, wie sie Steve Jobs über Jahre hinweg perfektioniert hatte. Apple-Präsentationen waren für ihn nie bloße Produktvorstellungen gewesen – sie waren Inszenierungen, bewusst aufgebaute Dramaturgien, bei denen das Publikum nicht nur informiert, sondern regelrecht verführt werden sollte.

Die Zuschauer wussten das. Und sie erwarteten es auch. Wenn Jobs die Bühne betrat, ging es nicht allein um technische Daten oder Modellpflege. Es ging um den nächsten Schritt, um die Frage, welchen Stempel Cupertino der Computerwelt diesmal aufdrücken würde.

Der berühmte Moment, das kurze Innehalten, die scheinbar beiläufige Ankündigung – „but there’s one more thing“ – war längst zu einem Ritual geworden. Ein Versprechen, dass hinter dem Vorhang noch etwas wartete, das über das Erwartbare hinausging.

Genau in diesem Spannungsfeld wurde im Sommer 2000 der Apple Power Mac G4 Cube vorgestellt.

Es war einer dieser Momente, wie sie Steve Jobs nur selten inszenierte – und wenn, dann mit maximaler Wirkung. Auf der Bühne der Macworld im Sommer 2000 stand zunächst nichts weiter als eine Idee im Raum, formuliert in einem jener Sätze, die zugleich Vision und Versprechen waren:

„we are combining the power of the Power Mac G4 […] with the desktop elegance, the silence and the miniaturization that we learned from doing the iMac to make a whole new class of machine“
(„Wir kombinieren die Leistung des Power Mac G4 mit der Eleganz, der Lautlosigkeit und der Miniaturisierung des iMac, um eine völlig neue Klasse von Computern zu schaffen.“)

Es war mehr als nur eine Produktankündigung. Jobs sprach nicht von einem neuen Modell, sondern ausdrücklich von einer „new class of machine“ – ein Anspruch, der weit über die Technik hinausging. Apple wollte hier keinen bestehenden Markt bedienen, sondern ihn erweitern.

Dann folgte die Verdichtung dieser Idee in eine physische Form:

„we have miniaturized all that power into something this size […] an 8 inch cube“
(„Wir haben all diese Leistung in etwas von dieser Größe miniaturisiert […] einen 8-Zoll-Würfel.“)

Ein kompletter Power Mac G4, reduziert auf ein Volumen, das eher an ein Designobjekt erinnerte als an einen klassischen Rechner. Und als wäre das nicht genug, setzte Jobs noch einen weiteren Akzent:

„all this power in an 8 inch cube has cooled without a fan […] so it runs in virtual silence“
(„All diese Leistung in einem 8-Zoll-Würfel wird ohne Lüfter gekühlt […] und läuft praktisch lautlos.“)

Als der Rechner schließlich enthüllt wurde, fiel der vielleicht programmatischste Satz des gesamten Auftritts:

„quite possibly the most beautiful product we’ve ever designed“
(„Möglicherweise das schönste Produkt, das wir je entworfen haben.“)

Und tatsächlich – der Cube war weniger ein Computer im klassischen Sinne als vielmehr ein bewusst inszeniertes Objekt. Ein System, das nicht unter dem Schreibtisch verschwand, sondern sichtbar wurde.

Während der Applaus noch nachhallte, begann hinter den Kulissen jedoch bereits eine Geschichte, die deutlich weniger makellos verlief.

Die Form selbst war kein Zufall. Wer genau hinsah, erkannte eine Linie zurück zu NeXT – jenem Unternehmen, das Jobs nach seinem Weggang von Apple gegründet hatte. Dessen Rechner, später als NeXTcube bekannt, folgten bereits einer ähnlichen geometrischen Klarheit. Jobs bestätigte später knapp: „Yes, we did one before.“

Doch der Unterschied war entscheidend. Während der NeXTcube noch als klassisches Arbeitsgerät gedacht war, wurde der Cube bewusst als Objekt gestaltet – als ein System, das sichtbar auf dem Schreibtisch stand. Jobs beschrieb ihn sinngemäß als „brain in a beaker“ – ein sichtbar gemachtes, konzentriertes System.

Der Weg dorthin war jedoch alles andere als trivial. Die transparente Hülle war das Ergebnis monatelanger Entwicklung. Jobs ließ durchblicken, dass es ein halbes Jahr dauerte, allein die exakte Materialzusammensetzung für das Gehäuse zu entwickeln. Statt klassischem Spritzguss setzte Apple zusätzlich auf präzise Nachbearbeitung – Bohrungen und Lüftungsöffnungen wurden nachträglich gefräst, um die gewünschte optische Klarheit zu erreichen.

Dieser Aufwand war kein Selbstzweck. Apple hatte bereits mit dem iMac gelernt, dass Material und Erscheinung Teil der Produktidentität waren. Der Cube führte diesen Ansatz konsequent fort.

Und doch zeigte sich bereits in dieser Phase ein grundlegendes Problem. Kurz vor der Präsentation wurde intern deutlich, dass sich der geplante Preis nicht halten ließ. Der Rechner würde deutlich teurer werden als ursprünglich vorgesehen. Hier kollidierten erstmals Vision und Realität – ein Konflikt, der später entscheidend werden sollte.

So überzeugend die Inszenierung war – ihre eigentliche Bewährungsprobe fand die Konstruktion nicht auf der Bühne, sondern im Alltag statt.

Im Inneren arbeitete ein PowerPC G4 (Motorola 7400) mit integrierter Velocity Engine, unterstützt von einem dedizierten L2-Cache. Der Arbeitsspeicher ließ sich auf bis zu 1,5 GB ausbauen, womit das System technisch klar im oberen Bereich seiner Zeit lag. Auch die Ausstattung mit FireWire, USB, Ethernet und optionalem AirPort unterstrich, dass es sich nicht um ein abgespecktes System handelte.

Doch nicht die reine Leistung machte den Cube bemerkenswert, sondern seine Konstruktion. Apple verzichtete vollständig auf einen Lüfter. Stattdessen wurde die Wärme über einen zentralen Kühlkörper nach oben abgeführt – allein durch natürliche Luftzirkulation. In der Praxis bedeutete das einen nahezu lautlosen Betrieb, allerdings auch ein System, das thermisch näher an seinen Grenzen arbeitete als klassische Tower-Rechner.

Auch die äußere Gestaltung folgte diesem Prinzip der Reduktion. Sämtliche Anschlüsse befanden sich an der Unterseite des Geräts – eine Entscheidung, die das Erscheinungsbild klar hielt, im Alltag jedoch nicht immer praktisch war.

Mit dem Apple Display Connector ging Apple noch einen Schritt weiter. Video, Daten und Strom wurden über ein einziges Kabel geführt – elegant, aber zugleich proprietär. Ein Ansatz, der bereits erkennen ließ, wie stark Apple sein Ökosystem kontrollieren wollte.

Beim Thema Audio verzichtete man vollständig auf interne Lösungen. Stattdessen entwickelte Apple gemeinsam mit Harman Kardon externe Lautsprecher, die sowohl funktional als auch gestalterisch Teil des Systems waren.

Im Inneren blieb der Zugriff hingegen überraschend klassisch. Mit einem einfachen Mechanismus ließ sich der komplette Kern des Systems herausziehen. Komponenten waren schnell erreichbar – ein Detail, das besonders professionelle Anwender ansprach.

Doch genau hier lag die Grenze. Trotz dieser Zugänglichkeit war die Erweiterbarkeit eingeschränkt. Es fehlten PCI-Steckplätze, zusätzliche Laufwerksplätze und flexible Upgrade-Möglichkeiten. Im direkten Vergleich bot der klassische Power Mac G4 Tower mehr Leistungsspielraum – und das oft zu einem geringeren Preis.

Damit wurde die Position des Cube zunehmend unklar. Für Einsteiger war er zu teuer, für Profis zu eingeschränkt.

Die Zahlen folgten schnell. Statt der erwarteten Nachfrage wurden nur rund 150.000 Einheiten verkauft. Bereits wenige Monate nach Marktstart reagierte Apple mit Preisnachlässen. Intern galt das Projekt schon früh als gescheitert.

Später formulierte Tim Cook rückblickend:

„It was a spectacular failure commercially, from the first day almost.“
(„Es war wirtschaftlich ein spektakulärer Fehlschlag – praktisch vom ersten Tag an.“)

Auch Apples eigene Analyse fiel nüchtern aus. Phil Schiller erklärte, dass sich die meisten Kunden stattdessen für die Power-Mac-G4-Tower entschieden hätten – leistungsstärker, günstiger und vor allem flexibler.

Am 3. Juli 2001 setzte Apple den Cube offiziell aus und ließ die Tür bewusst offen – man sprach von einer möglichen Rückkehr, nicht von einer endgültigen Einstellung.

Und doch verschwand der Cube in seiner ursprünglichen Form.

Sein Einfluss blieb jedoch bestehen. Die Idee, leistungsfähige Hardware in kompakte, designorientierte Gehäuse zu integrieren, fand später in Geräten wie dem Mac mini oder dem Mac Studio eine neue Ausprägung – diesmal jedoch zu einem Preis und in einer Form, die der Markt besser aufnehmen konnte.

Rückblickend wirkt der Cube wie ein Produkt, das weniger für seine eigene Zeit entwickelt wurde als für eine Zukunft, die erst noch entstehen musste. Ein Rechner, der technisch funktionierte, gestalterisch überzeugte – und dennoch an seiner Einordnung scheiterte.

Vielleicht liegt gerade darin seine eigentliche Bedeutung.

 

Apple Performa 200 (1992) – Der klassische Macintosh als Einstiegsgerät neu verpackt

Apple Performa 200 im klassischen All-in-One-Design (Quelle: Wikimedia Commons, CC BY-SA 2.5)

Es gibt diese eigenartige Phase in Apples Geschichte Anfang der 1990er Jahre, in der sich der Konzern zwischen Tradition und Neuorientierung bewegte – und genau in diese Zeit fällt der Apple Macintosh Performa 200. Auf den ersten Blick wirkt er wie ein vertrauter Bekannter: kompakt, geschlossen, freundlich im Design. Und tatsächlich steckt unter der Haube nichts anderes als der bereits ein Jahr zuvor vorgestellte Macintosh Classic II, nahezu unverändert. Apple selbst hätte wohl gesagt: bewährt statt neu erfunden.

Der Performa 200 erschien am 14. September 1992 und war Teil einer neuen Vertriebsstrategie. Während klassische Macintosh-Modelle über autorisierte Fachhändler verkauft wurden, brachte Apple mit der Performa-Reihe Geräte gezielt in Kaufhäuser und Elektronikmärkte. Der Rechner selbst blieb identisch, doch Verpackung, Softwarebeigaben und Modellbezeichnungen änderten sich – ein Schritt, der intern weniger mit Technik als vielmehr mit Marketing zu tun hatte.

Im Inneren arbeitet ein Motorola 68030 mit 16 MHz, allerdings ohne mathematische Koprozessoreinheit. Das war kein Zufall, sondern klare Positionierung: Der Performa 200 sollte kein professionelles Werkzeug sein, sondern ein Einstiegsgerät für Privathaushalte. Die Grundausstattung mit 2 MB RAM war bereits zur Veröffentlichung knapp bemessen, insbesondere wenn man das mitgelieferte System 7 nutzte. Erst mit einer Erweiterung auf bis zu 10 MB – realisiert über zwei paarweise zu bestückende 30-Pin-SIMM-Steckplätze – konnte sich das System freier entfalten.

Ein oft übersehener, aber technisch entscheidender Punkt liegt in der Anbindung des Prozessors: Obwohl der 68030 intern als 32-Bit-CPU ausgelegt ist, wird er im Performa 200 über einen lediglich 16-Bit breiten Datenbus angebunden. Diese Architektur halbiert effektiv die verfügbare Speicherbandbreite und wirkt sich unmittelbar auf die Gesamtleistung aus. In der Praxis bedeutet das, dass der Rechner spürbar hinter dem zurückbleibt, was man von einem 68030-System erwarten würde. Besonders augenfällig wird dies im Vergleich zum Macintosh SE/30, der trotz seines früheren Erscheinungsdatums durch seinen vollwertigen 32-Bit-Datenpfad in vielen Anwendungen deutlich schneller arbeitet. Diese bewusste Einschränkung unterstreicht die klare Marktsegmentierung: Der Performa 200 sollte zugänglich sein, nicht leistungsführend.

Die verbaute SCSI-Festplatte, typischerweise mit 40 MB, gelegentlich auch 80 MB, arbeitete zuverlässig, aber nicht besonders schnell. Hier zeigte sich bereits ein technischer Rückstand gegenüber PC-Systemen mit moderneren Massenspeicherlösungen. Der integrierte 9-Zoll-Monitor mit einer Auflösung von 512 × 342 Pixeln war praktisch identisch mit dem ursprünglichen Macintosh von 1984. Während andere Plattformen längst Farbdisplays etabliert hatten, blieb Apple hier bewusst beim monochromen Konzept. Das hatte Vorteile in der Klarheit der Darstellung und der Systemintegration, schränkte jedoch den Einsatzbereich sichtbar ein – insbesondere im Spielebereich, wo farbige Konkurrenzsysteme wie der Amiga 1200 oder auch VGA-basierte PCs längst neue Maßstäbe setzten.

Preislich bewegte sich der Performa 200 je nach Bundle zwischen etwa 900 und 1.500 US-Dollar, was inflationsbereinigt heute grob einem Bereich von rund 2.000 bis über 3.000 Euro entspricht. Damit war er kein günstiger Heimcomputer im klassischen Sinne, sondern eher ein bewusst vereinfachter Zugang zur Macintosh-Welt. Apple kombinierte die Hardware häufig mit Softwarepaketen – Lernprogramme, einfache Grafiktools und gelegentlich auch Spiele –, um den Rechner als „Familiencomputer“ zu positionieren.

In der praktischen Nutzung zeigte sich schnell die Zweiteilung dieses Systems: Unter System 6 arbeitete der Rechner angenehm flüssig und reagierte direkt, während System 7 mit seinen erweiterten Funktionen die Grenzen der Hardware deutlich spürbar machte. Die Kombination aus begrenztem Arbeitsspeicher, fehlender FPU und vergleichsweise langsamer Festplatte führte dazu, dass der Performa 200 eher für einfache Anwendungen geeignet war – Textverarbeitung, Bildung, erste Schritte in der grafischen Benutzeroberfläche.

Im größeren Zusammenhang steht dieses Modell exemplarisch für eine Phase, in der Apple versuchte, seine Produktpalette breiter aufzustellen, ohne sie technisch grundlegend zu erneuern. Die Performa-Serie wuchs schnell an, oft mit nur minimalen Unterschieden zwischen den einzelnen Modellen. Für den Kunden bedeutete das nicht selten Verwirrung, für Apple hingegen war es ein Versuch, unterschiedliche Vertriebskanäle gezielt zu bedienen. Besonders deutlich wurde diese Entwicklung wenig später bei Systemen wie dem Apple Performa 630, das in zahlreichen Varianten erschien – teils mit identischer Hardwarebasis, aber unterschiedlichen Laufwerken, Speicherbestückungen oder Softwarepaketen. Zwei nahezu gleiche Geräte konnten unterschiedliche Modellnummern tragen, während sich hinter derselben Bezeichnung je nach Verkaufsregion verschiedene Konfigurationen verbargen. Der Performa 200 markiert damit nicht nur den Einstieg in den Heimmarkt, sondern auch den Beginn eines Modellnamenssystems, das später zu den bekanntesten Schwächen der Apple-Produktpolitik dieser Ära zählen sollte.

Rückblickend ist der Performa 200 weniger ein Meilenstein als vielmehr ein Zeitdokument. Er zeigt, wie Apple noch einmal auf die ursprüngliche Macintosh-Idee setzte – ein geschlossenes, einfach zu bedienendes System –, bevor sich mit der PowerPC-Generation und später dem iMac eine deutlich modernere und klarer strukturierte Produktstrategie durchsetzte. Gerade diese konservative Haltung macht ihn heute interessant: nicht als Höhepunkt der Technik, sondern als Moment des Übergangs.

 

Macintosh LC II: Apples günstiger Farbrechner zwischen Schulmarkt, Spararchitektur und Modellpflege

Pratyeka, eigenes Werk (CC BY-SA 4.0), via Wikimedia Commons.

Der Macintosh LC II, vorgestellt im März 1992, entstand in einer Phase, in der Apple seine Macintosh-Produktlinie deutlich ausweitete und stärker auf unterschiedliche Marktsegmente ausrichtete. Der ursprüngliche Macintosh LC von 1990 hatte gezeigt, dass ein vergleichsweise preisgünstiger Macintosh mit Farbgrafik besonders im Bildungssektor auf großes Interesse stieß. Schulen, Universitäten und kleinere Büros suchten zunehmend nach Systemen mit grafischer Benutzeroberfläche, die dennoch unterhalb der Preisregion der professionellen Macintosh-II-Modelle lagen. Der LC II stellte deshalb keine völlig neue Architektur dar, sondern eine Weiterentwicklung dieses Einstiegs-Macintosh. Während der Entwicklungsphase trug das Projekt innerhalb von Apple mehrere interne Codenamen, darunter „Vail“ und „Foster’s“, was der damaligen Praxis entsprach, Entwicklungsprojekte nach Skigebieten oder Getränken zu benennen.

Äußerlich blieb das System nahezu unverändert. Das flache Desktop-Gehäuse – später häufig als „Pizza-Box“-Mac bezeichnet – war dafür gedacht, unter einem Monitor auf dem Schreibtisch zu stehen. Apple hatte das Gehäuse so dimensioniert, dass der vergleichsweise leichte Apple 12-inch RGB Display direkt darauf platziert werden konnte. Dieser Monitor bot eine Auflösung von 512 × 384 Pixeln und stellte für viele Anwender den Einstieg in die Farbgrafik der Macintosh-Plattform dar.

Die Basiskonfiguration des LC II bestand aus einem Motorola 68030-Prozessor mit 16 MHz, 4 MB Arbeitsspeicher, einem 1,44-MB-SuperDrive-Diskettenlaufwerk sowie einer SCSI-Festplatte mit typischerweise 40 MB Kapazität. Als Betriebssystem wurde meist System 7 ausgeliefert, das zu Beginn der 1990er-Jahre Funktionen wie virtuellen Speicher einführte. Der 68030 verfügte im Gegensatz zum Vorgängermodell über eine integrierte Paged Memory Management Unit (PMMU), wodurch diese Funktion erstmals auch auf einem LC-System genutzt werden konnte.

Eine Eigenheit des Rechners lag in seiner kostenorientierten Speicherarchitektur. Obwohl der Motorola 68030 für ein 32-Bit-System ausgelegt war, verband Apple ihn im LC II weiterhin mit einem 16-Bit-Datenbus. Dadurch reduzierte sich die Speicherbandbreite erheblich. In Benchmarks zeigte sich deshalb ein ungewöhnliches Bild: In manchen Anwendungen arbeitete der LC II kaum schneller oder gelegentlich sogar geringfügig langsamer als der ursprüngliche LC mit 68020-Prozessor. Zeitgenössische Tests stellten fest, dass der modernere Prozessor zwar zusätzliche Funktionen ermögliche, seine Leistungsfähigkeit jedoch durch den schmalen Datenpfad begrenzt werde.

Auch beim Arbeitsspeicher zeigte sich eine ungewöhnliche Konstruktion. Der Rechner besaß 4 MB RAM fest auf der Hauptplatine sowie zwei Steckplätze für zusätzliche SIMM-Module. Obwohl physisch bis zu 12 MB installiert werden konnten, war die Adresslogik so gestaltet, dass maximal 10 MB tatsächlich genutzt werden konnten. Zwei Megabyte blieben daher für das Betriebssystem unerreichbar.

Die Grafik wurde von einem integrierten Video-Controller erzeugt. Standardmäßig verfügte der Rechner über 256 KB VRAM, ausreichend für 256 Farben bei 512 × 384 Pixeln. Auf der Hauptplatine befand sich ein VRAM-Sockel, über den der Videospeicher mit einem zusätzlichen 256-KB-VRAM-SIMM auf 512 KB erweitert werden konnte. Erst mit dieser Erweiterung waren bei höheren Auflösungen – etwa 640 × 480 Pixeln – ebenfalls 256 Farben möglich; ohne Upgrade standen dort nur 16 Farben zur Verfügung.

Trotz seiner preisorientierten Konstruktion blieb der LC II erweiterbar. Apple integrierte den LC Processor Direct Slot (LC-PDS), einen Steckplatz, der direkt mit dem Prozessor verbunden war. Über diesen Anschluss konnten Erweiterungskarten wie Ethernet-Adapter, Video-Erweiterungen oder Spezialhardware installiert werden.

Eine weitere Erweiterungsmöglichkeit war die Apple-IIe-Emulationskarte. Anders als reine Software-Emulatoren enthielt diese Karte einen W65C02-Prozessor, also die CPU des Apple IIe. Über ein spezielles Anschlusskabel konnten originale Apple-Diskettenlaufwerke sowie Eingabegeräte angeschlossen werden. In vielen Bildungseinrichtungen erleichterte diese Lösung den Übergang von der Apple-II-Plattform zur Macintosh-Architektur, da vorhandene Software weiterhin genutzt werden konnte.

Preislich positionierte Apple den LC II weiterhin im unteren Bereich seiner Macintosh-Palette. Der Einführungspreis lag bei etwa 1.699 US-Dollar für eine typische Konfiguration mit 4 MB RAM und 40-MB-Festplatte. Inflationsbereinigt entspricht dies heute ungefähr 3.500 Euro. Im Vergleich zum ursprünglichen LC von 1990, der rund 2.499 US-Dollar kostete, stellte dies eine deutliche Preissenkung dar und unterstrich Apples Strategie, den Bildungsmarkt stärker zu erschließen.

Innerhalb der Produktlinie bildete der LC II eine Zwischenstufe. Er ersetzte den ursprünglichen LC und bereitete gleichzeitig den Weg für leistungsfähigere Varianten der Reihe. Bereits 1993 erschien mit dem Macintosh LC III ein deutlich schnelleres Modell.

Die Hardware des LC II wurde später auch in mehreren Performa-Modellen weiterverwendet. Im Konsumentenmarkt erschienen Varianten des Systems unter anderem als Performa 400, Performa 405, Performa 410 und Performa 430, was ein typisches Beispiel für Apples umfangreiche Modellpalette der frühen 1990er-Jahre darstellt.

Kompakte Spezifikationen

Hersteller: Apple Computer, Inc.
Vorstellung: März 1992
CPU: Motorola 68030, 16 MHz
Bus: 16-Bit-Datenbus
RAM: 4 MB Standard, maximal adressierbar 10 MB
VRAM: 256 KB, erweiterbar auf 512 KB
Grafik: bis 512 × 384 Pixel (256 Farben), 640 × 480 mit VRAM-Upgrade
Massenspeicher: 1,44-MB-SuperDrive, optionale SCSI-Festplatte (typisch 40 MB)
Erweiterung: LC Processor Direct Slot (LC-PDS)
Schnittstellen: SCSI, ADB, serielle Ports, Videoanschluss
Betriebssystem: System 7
Vorgänger: Macintosh LC
Nachfolger: Macintosh LC III

 

The Dig – 1995 by LucasArts

The Dig - 1995 by LucasArts

the digEin Asteroiden-Abenteuer aus Spielberg’scher Feder? Klingt nach Hollywood-Kino, landete aber 1995 als Videospiel auf unseren Festplatten. The Dig blickt auf eine der verrücktesten Entstehungsgeschichten der LucasArts-Adventures zurück. Starregisseur Steven Spielberg hatte Mitte der 80er Jahre die Ursprungsidee zu dieser Sci-Fi-Story – ursprünglich als Episode der TV-Serie Amazing Stories, später sogar als Film angedacht. Doch das Konzept (Archäologen im All!) war für eine TV-Produktion zu teuer, also verschwand es vorerst in der Schublade. Einige Jahre und Blockbuster später – Spielberg hatte gerade mit Kumpel George Lucas Indiana Jones und der letzte Kreuzzug abgedreht – erinnerte er sich an die Idee und schlug sie LucasArts als Adventure-Spiel vor. Man traf sich 1989 im Skywalker Ranch Anwesen, ausgerechnet am Tag des San-Francisco-Erdbebens, um das Projekt aufzugleisen. Ein schlechtes Omen? Vielleicht. Jedenfalls sollte es bis zur Veröffentlichung noch über sechs Jahre dauern – länger als bei jedem anderen LucasArts-Adventure. In dieser Zeit wechselte das Spiel viermal den Projektleiter und drohte zwischenzeitlich zum Vapoware-Geist zu werden. „Es war, als müsste man für eine schwere Physikprüfung lernen, während rundherum eine Party tobt“, erinnerte sich Lead Designer Sean Clark augenzwinkernd an die schwierige Produktion inmitten der sonst spaßigen LucasArts-Truppe.

Den Anfang machte Branchenveteran Noah Falstein, doch ein Prestige-Projekt unter Aufsicht von Spielberg und Lucas erwies sich als zweischneidiges Lichtschwert. „Jeder wollte seinen Senf dazugeben, und das ist extrem schwer zu managen“, beschrieb Falstein die kreative Überfrachtung. Sein ursprüngliches Design sah zwei rivalisierende Archäologen-Teams auf einem Alien-Planeten vor, mit wählbarem Hauptcharakter und einer Story voller Konflikte. Viel blieb davon nicht übrig – Falstein wurde Anfang ’91 abgezogen, um Indy 4 (Fate of Atlantis) zu retten. Kurz darauf wurde er vollständig von LucasArts entlassen. In späteren Interviews erklärte Falstein, dass er nie explizit einen Grund genannt bekam, der Zusammenhang mit den Schwierigkeiten auf The Dig aber „ziemlich offensichtlich“ gewesen sei. Laut eigener Aussage: „Ich wurde von The Dig abgezogen, um Fate of Atlantis zu helfen, und wurde kurz danach entlassen. Es wurde mir nie explizit gesagt, dass es wegen der Probleme bei The Dig war, aber es war ziemlich offensichtlich.“ Diese Darstellung wird von Zeitzeugen und Entwicklerkollegen weitgehend bestätigt.

Nächster am Ruder: Loom-Schöpfer Brian Moriarty, bekannt als visionärer Geschichtenerzähler. Er war begeistert von der Idee, verlangte aber volle kreative Kontrolle. Kurzerhand warf er Falsteins Konzept über Bord und verlegte die Handlung ins Jahr 1998 mit NASA-Astronauten in einem Space Shuttle – im Prinzip schon die Prämisse des fertigen Spiels, inklusive der Sprengung eines drohenden Asteroiden. Doch Moriarty wollte mehr: ein düsteres, „erwachsenes“ Abenteuer mit Horror-Elementen, komplexen Themen und allerhand technischen Finessen. Er ließ einen zusätzlichen vierten Crew-Charakter einbauen (den japanischen Geschäftsmann Toshi Olema) und plante sogar ein Survival-Element mit Nahrungs- und Wasserknappheit. Toshi sollte einen grausigen Tod unter ätzendem Alien-Regen sterben – Spielberg fand diese härtere Gangart zunächst passend. Nach dem Kinostart von Jurassic Park kassierte er aber Protestbriefe empörter Eltern und bat darum, die Gewalt in The Dig doch zu entschärfen. Moriarty schraubte also zurück, doch es rumorte ohnehin im Team: Viele Entwickler mochten seine sprunghaften Visionen nicht. Er experimentierte mit einem komplett neuen Engine-Prototyp für revolutionäre Ideen wie veränderliche Labyrinthe und „tragbare Ideen“ im Inventar – was die Programmierer schier in den Wahnsinn trieb. Monate verstrichen, ohne dass greifbare Resultate sichtbar wurden. Der leitende Künstler Bill Eaken verließ frustriert die Firma, andere Teammitglieder tuschelten von einem „komplett außer Kontrolle geratenen“ Projekt. Mitte 1993 zog Moriarty die Reißleine und packte seine Sachen. Sein Anteil wurde im Abspann nur mit einem augenzwinkernden Eintrag bedacht: „Additional Additional Story by Brian Moriarty“ – doppelt hält besser.

Nun war guter Rat teuer, doch LucasArts wollte das Prestigeprojekt nicht aufgeben. Kurzzeitig übernahm Dave Grossman das Ruder, bevor schließlich Routinier Sean Clark – zuvor Co-Designer von Sam & Max Hit the RoadThe Dig über die Ziellinie brachte. Clark schrieb große Teile der Story neu, verschlankte das Team und kehrte zum bewährten SCUMM-System zurück. Tatsächlich basiert das veröffentlichte Spiel dann auf der SCUMM-Engine (inklusive INSANE-Modul für 3D-Zwischensequenzen und iMUSE-Soundsystem). Viele von Moriartys kühnen Einfällen fielen dem Rotstift zum Opfer – etwa der vierte Charakter Toshi, die Überlebenselemente oder ultrabrutale Szenen. Mit weiterem Feinschliff und Spielberg als Berater aus der Ferne („Der Mann hat wirklich Spaß an Games“ – so staunte Grafiker Bill Tiller) arbeitete man sich aus dem Entwicklungssumpf. Im Dezember 1995 – über drei Jahre später als ursprünglich angekündigt – erschien The Dig dann endlich für PC (MS-DOS) und Mac. Softgold brachte 1996 eine komplett deutsche Fassung auf den Markt, bei der Spielberg’s ursprünglicher Titel The Dig sinnigerweise wörtlich als „Der Bagger“ übersetzt wurde – natürlich nur im Handbuch als Gag erwähnt. Die Talkie-Version erhielt professionelle Sprecher, die deutsche Übersetzung ließ Brink z. B. vom Deutschen zum Dänen werden, um einen passenden Akzent zu erklären. Kurios: Robert Patrick, bekannt als böser T-1000 aus Terminator 2, lieh im Original dem Helden Boston Low seine markante Stimme. Das schreit geradezu nach Easter Eggs – und tatsächlich fragt Boston an einer Stelle augenzwinkernd: „Have you seen this boy?“ – genau jene Terminator-Zeile, mit der Patrick einst Jagd auf John Connor machte.

Solche Insider-Gags bleiben aber rar, denn The Dig gibt sich ansonsten sehr ernst. LucasArts brach hier bewusst mit dem Comedy-Klamauk seiner früheren Adventures und lieferte ein atmosphärisch dichteres Science-Fiction-Epos. The Dig versetzt den Spieler in die Stiefel von Commander Boston Low, der mit seinem fünfköpfigen Team einen drohenden Killer-Asteroiden – Spitzname „Attila“ – sprengen soll, bevor er die Erde pulverisiert. Kaum ist die Gefahr gebannt, entpuppt sich der Himmelskörper als außerirdisches Raumschiff, das unsere drei Protagonisten prompt auf einen fernen, verlassenen Planeten befördert. Was folgt, ist klassisches Point-&-Click-Adventure-Gameplay: Erforschen, kombinieren, Rätsel knacken. Spielerisch orientiert sich The Dig an der LucasArts-Tradition, allerdings mit vereinfachter Steuerung. Statt umständlichem Verb-Menü gibt es nur noch einen Allzweck-Cursor, der kontextabhängig agiert. Das Inventar ist stets griffbereit, denn es gibt reichlich Gegenstände zu finden und benutzen. Besonders stolz waren die Entwickler auf die sogenannten „Logik“- bzw. „Xenoarchäologie“-Rätsel: Viele Maschinen und Artefakte der Alien-Zivilisation müssen durch genaues Beobachten und Herumprobieren in Gang gesetzt werden. Diese Kopfnüsse fallen teils deutlich schwieriger und abstrakter aus als die Rätsel früherer LucasArts-Spiele. So verzweifelte mancher Spieler an einem Türmechanismus mit unklaren Symbolen oder an einem nervenaufreibenden Navigationspuzzle, bei dem ein kleiner Sonar-Roboter per Trial-and-Error über ein Display gesteuert werden will. The Dig straft Genre-Neulinge nicht gerade mit Nachsicht – einige Kopfnüsse sind echte harte Nüsse.

Immerhin: Sterben kann man hier (fast) nicht, ganz im Sinne der LucasArts-Philosophie. Nur in der Story darf gemordet werden: Einer der Crewkollegen segnet gleich zu Beginn das Zeitliche, und auch später gehen Brink und Maggie nicht zimperlich miteinander um. Die Dynamik der Figuren untereinander – vom anfänglichen Teamgeist bis zu Angst, Misstrauen und Machtgier – treibt die Handlung spannend voran. Dabei bleibt der Ton ernst und bisweilen melancholisch. Was The Dig an Gags eingebüßt hat, gewinnt es an „Sense of Wonder“: Der Spieler fühlt sich oft wie ein kleiner Mensch in einer überwältigend fremden Welt voller gigantischer Maschinen, kristalliner Lebensenergie und außerirdischer Geheimnisse. Diese fast schon mystische Atmosphäre wird durch die herausragende audiovisuelle Umsetzung erreicht. Die handgezeichneten VGA-Hintergründe glänzen mit liebevollen Details, Lichteffekten und fantasievollen Designs – trotz maximal 256 Farben wirkt die Kulisse lebendig und bildgewaltig. Zwischensequenzen wurden von Industrial Light & Magic vorgerendert und nahtlos eingefügt, um Schlüsselszenen filmreif zu inszenieren. Dazu ertönt ein orchestraler Soundtrack von Michael Land, der düstere Streicherklänge, chorale Sphären und heroische Melodien zu einem eindringlichen Ambient-Teppich verwoben hat. Ergänzt wird die Musik von subtilen Geräuscheffekten: Sound-Guru Clint Bajakian kreierte fremdartige Klänge wie summende Kristalle und verhallende Windspiele, die dem Planeten eine eigene akustische Identität geben. Auch die Sprachausgabe (englisch mit optionalen Untertiteln) kann sich hören lassen – neben Robert Patrick überzeugt Steve Blum als deutscher Wissenschaftler Brink mit authentischem Akzent.

Trotz kleinerer Abstriche überwog bei vielen Testern die Faszination: Die einzigartige Atmosphäre und der cineastische Anspruch suchten ihresgleichen im Adventure-Genre. Kein abgedrehter Slapstick-Trip, sondern ein ernstes Sci-Fi-Märchen – für manch einen Spieler war das genau die frische Abwechslung, für andere fehlte der gewohnte LucasArts-Witz. Verkaufstechnisch startete The Dig stark: Bereits kurz nach Release meldete LucasArts über 300.000 verkaufte Exemplare – damals der beste Verkaufsstart eines hauseigenen Adventures. Allerdings hatte man intern wohl mit noch höheren Zahlen gerechnet. Grafiker Bill Tiller erinnerte sich, dass das Management das Spiel trotz solider Verkäufe als Enttäuschung einstufte, da man nach all dem Hype „eine Bazillion Dollar“ erwartet hatte. Durch die lange Entwicklungszeit dürften auch die Kosten ungewöhnlich hoch gewesen sein. The Dig erschien zum typischen Vollpreis: Ca. 80 DM sollte man 1995 für die Big-Box auf den Ladentisch legen – inflationsbereinigt entspricht das heute ungefähr 60 €. In der Packung fand sich als Bonus sogar ein Taschenbuch-Roman zum Spiel, geschrieben von Alan Dean Foster. Dieser Autor hatte schon Alien und Star Wars als Bücher verewigt und machte aus The Dig einen spannenden Sci-Fi-Schmöker. Eine Verfilmung hat The Dig übrigens nie bekommen – Spielberg war als Produzent zwar beteiligt, aber auf der Kinoleinwand schlug das Konzept nie auf.

Dafür lebt das Abenteuer in Fan-Kreisen weiter: Bis heute gilt The Dig als Geheimtipp und Kultklassiker. Die Mischung aus Rätselspiel und ernsthafter Sci-Fi-Story hat ein eigenes Publikum gefunden. Dank ScummVM-Unterstützung kann man The Dig auch auf modernen Systemen problemlos spielen – und sollte es als Genre-Fan auch tun. Es mag nicht ganz die popkulturelle Strahlkraft von Monkey Island haben, aber The Dig bietet etwas, das nur wenige Spiele seiner Ära schaffen: das Gefühl, selbst Teil eines fesselnden Science-Fiction-Films zu sein. Oder um es mit einem Augenzwinkern zu sagen: The Dig ist das wahrscheinlich beste Spielberg-Abenteuer, das nie ins Kino kam – dafür aber in wohliger Retro-Pixelpracht auf unserem Bildschirm ein kleines Stück Videospielgeschichte schrieb.

Als kleines Schmankerl habe ich unten das Video des YouTubers Rickonami bereitgestellt, der ein Remake des Intros mit 1080p und 60 FPS erstellt hat. (Link zu Youtube)

 

Starflight I – 1986 by Binary Systems

Starflight I – 1986 by Binary Systems

Starflight

Im Jahr 1986 erschien mit Starflight eines der ambitioniertesten und innovativsten Computerspiele seiner Zeit. Entwickelt wurde es von Binary Systems, einem kleinen Studio unter der Leitung von Rod McConnell, Greg Johnson und Tim Lee. Die Veröffentlichung übernahm Electronic Arts, das mit dem Titel ein Experiment wagte – ein Spiel, das Rollenspiel-, Weltraum-Erkundungs- und Wirtschaftssimulationselemente miteinander verband, basierend auf einer eigenen Engine und völlig neuen technischen Lösungen. Der Titel wurde ursprünglich für IBM-PC-kompatible Rechner mit MS-DOS entwickelt, in einer Zeit, als diese Plattform spielerisch noch hinter dem C64 und Apple II stand. Starflight änderte das.

Die Entwicklungszeit betrug über fünf Jahre – ungewöhnlich lang für damalige Verhältnisse. Tim Lee und Rod McConnell arbeiteten ursprünglich an einem einfachen Asteroiden-Management-Spiel. Doch das Projekt wuchs rasch zu einem komplexen Simulations- und Storyuniversum mit über 800 zu erforschenden Planeten. Greg Johnson, der später mit ToeJam & Earl berühmt wurde, war maßgeblich für die narrative Gestaltung verantwortlich. Er verfasste die meisten der interaktiven Alien-Dialoge und das Hintergrunduniversum. „Wir wollten kein Spiel machen, das man einfach spielt – wir wollten ein Universum schaffen, das man bewohnt,“ erinnerte sich Johnson 2001 in einem Interview mit GameSpot.

Eine der größten technischen Besonderheiten von Starflight war seine Programmierung in FORTH und x86-Assembler – eine für damalige Spieleproduktionen sehr ungewöhnliche Wahl. Die Entwickler nutzten FORTH als Metasprache, um die komplexen Verhaltensroutinen und Systemsimulationen effizient zu organisieren, während Performance-kritische Routinen – etwa für die Raumfahrt, Oberflächendarstellung der Planeten oder die Kampfsysteme – in Assemblersprache geschrieben wurden. „Wir haben FORTH verwendet, weil es uns erlaubte, Ideen unglaublich schnell zu testen und zu iterieren – etwas, das in C oder Pascal viel länger gedauert hätte,“ erklärte Greg Johnson. Tim Lee ergänzte später: „Mit FORTH konnten wir eine eigene Umgebung bauen, die genau das tat, was wir wollten – und nichts darüber hinaus.“ Die Kombination machte den Code zwar extrem effizient, aber auch schwer wartbar, was sich später bei Portierungen als Hindernis erwies.

Die größte technische Leistung war die sogenannte fractal terrain generation – ein System, das Planeten mit realistischen Oberflächen aus einem minimalen Datensatz erzeugte. Dadurch konnten die Entwickler ein ganzes Universum mit über 270 Sonnensystemen und rund 800 Planeten erschaffen, ohne die Hardware-Speichergrenzen der Zeit zu sprengen. In einem internen Entwicklungsdokument von 1985 heißt es: „Starflight nutzt ein rekursives Generatorverfahren, das aus 16 Kilobyte Planetendaten mehrere hundert Megabyte an simulierten Geländeinformationen synthetisiert.

Die Hintergrundgeschichte von Starflight spielt im 47. Jahrhundert, auf dem Planeten Arth, einer einstigen Kolonie der Menschheit, deren Ursprünge weitgehend in Vergessenheit geraten sind. Die galaktische Zivilisation wurde vor Jahrhunderten durch eine Katastrophe ausgelöscht, von der man nur noch als die „Zerschlagung“ spricht. Nun liegt es am Spieler, im Auftrag der „Interstel Corporation“ ein neues Erkundungsprogramm zu starten. Das Ziel ist zunächst wirtschaftlicher Natur: den Wiederaufbau durch Rohstoffgewinnung zu sichern. Doch schon bald offenbart sich eine kosmische Bedrohung – eine mysteriöse Energie, die ganze Sterne kollabieren lässt. Im Verlauf des Spiels deckt man nach und nach die Wahrheit über die alte Zivilisation der „Ancients“ auf, die für das Gleichgewicht des Universums verantwortlich war – und erkennt, dass das eigene Volk selbst ein verlorener Teil dieser Zivilisation sein könnte. Die Bedrohung geht letztlich vom „Crystal Planet“ aus, einer künstlich geschaffenen Welt, die das galaktische Zentrum destabilisiert. Um das Universum zu retten, muss der Spieler Artefakte, Technologien und Allianzen finden und schließlich den Kristallplaneten vernichten – nicht mit Gewalt, sondern durch Wiederherstellung der Ordnung. Es ist eine tiefgründige Geschichte über Vergessen, Verantwortung und die Wiederentdeckung der eigenen Herkunft.

Spielerisch kombinierte Starflight Exploration, diplomatische Kommunikation mit außerirdischen Spezies, Ressourcenmanagement, Bergbau, Raumschiff-Upgrade und Echtzeit-Raumkämpfe. Die außerirdischen Rassen – darunter die humorvollen Spemin, die mysteriösen Thrynn, die kriegerischen Uhlek und die hochintelligenten Elowan – wurden per Textdialog beschrieben, deren Antworten sich je nach Spielverlauf und Sprachproben veränderten. Auch die Beziehung zwischen den Spezies – etwa der Konflikt zwischen Thrynn und Elowan – beeinflusste die diplomatischen Optionen des Spielers.

Die Musik im Spiel war spärlich, da die ursprüngliche PC-Version kaum Soundkarten nutzte. Dennoch wurde später eine Version für das Sega Mega Drive (Genesis) erstellt, in der Rob Hubbard, der legendäre Komponist von Monty on the Run und Sanxion, das Musikdesign übernahm. Diese Umsetzung erschien 1991, erhielt gute Kritiken und führte Starflight einem breiteren Publikum zu. Die Genesis-Version erhielt im Magazin GamePro 4 von 5 Sternen und wurde für ihre Tiefe und grafische Umsetzung gelobt.

Die internationale Rezeption der PC-Version war sehr positiv. Die Zeitschrift Computer Gaming World nannte es in ihrer März-Ausgabe 1987 ein „Meisterwerk interaktiven Worldbuildings“ und verlieh ihm eine seltene 5/5-Wertung. In Deutschland vergab die Zeitschrift ASM 11 von 12 Punkten und lobte vor allem die „tiefgreifende Spielmechanik, die sogar Elite in den Schatten stellt“. In Großbritannien wurde Starflight über Ariolasoft vertrieben, war jedoch kommerziell weniger erfolgreich, da dort Commodore- und Spectrum-Systeme dominierten.

Verkaufszahlenmäßig war Starflight für EA ein Überraschungserfolg: Über 500.000 Einheiten wurden bis Anfang der 1990er Jahre verkauft – eine beachtliche Zahl für ein nicht actionorientiertes PC-Spiel jener Zeit. Es zählte zu den meistverkauften Science-Fiction-Spielen vor der Veröffentlichung von Wing Commander. Eine Fortsetzung, Starflight II: Trade Routes of the Cloud Nebula, erschien 1989 und baute die Handels- und Diplomatiesysteme weiter aus, wurde jedoch weniger beachtet.

Produktionstechnisch war das Spiel ein Kraftakt. Der damalige EA-Produzent Joe Ybarra, der auch an M.U.L.E. und The Bard’s Tale mitwirkte, bezeichnete Starflight später als „das einzige Spiel, bei dem ich dachte, dass wir es nie fertigbekommen würden.“ In den internen Unterlagen von EA aus dem Jahr 1986 ist dokumentiert, dass der ursprüngliche Veröffentlichungstermin zweimal verschoben wurde – ein frühes Beispiel für die berüchtigten „Crunch“-Phasen der Spielebranche.

Trivia: Die erste Version des Spiels beinhaltete noch eine Religion namens „Zyphirianer“, die später entfernt wurde, weil man Konflikte mit religiösen Gruppen befürchtete. Ebenso wurde das originale Titelbild, das eine halb entkleidete Außerirdische zeigte, in der finalen Fassung zensiert und ersetzt. Außerdem war ursprünglich ein Koop-Modus geplant, bei dem ein zweiter Spieler die Scanner- oder Kommunikationskonsole übernehmen konnte – dieses Feature fiel den Speicherbeschränkungen zum Opfer.

Starflight inspirierte zahlreiche spätere Spiele – darunter Mass Effect, No Man’s Sky, Star Control und Out There. Die Entwickler Greg Johnson, Rod McConnell und Tim Lee blieben der Spielebranche verbunden. Johnson gründete ToeJam & Earl Productions, während McConnell an frühen Online-Spielen arbeitete. Die Rechte an Starflight lagen später bei EA, wurden aber 2018 temporär freigegeben, woraufhin ein inoffizielles Fanprojekt namens Starflight 3 gestartet wurde – unter Beteiligung von Greg Johnson. Dieses wurde jedoch 2021 aus rechtlichen Gründen eingestellt.

 

The Seven Cities of Gold – 1984 by Ozark Softscape

The Seven Cities of Gold

The Seven Cities of Gold

"The Seven Cities of Gold" ist ein Computerspiel, das 1984 von Ozark Softscape unter der Leitung von Dan Bunten entwickelt und von Electronic Arts veröffentlicht wurde. Es versetzt die Spieler in die Rolle eines spanischen Konquistadors des 15. Jahrhunderts, der die Neue Welt erkundet, um Reichtümer zu sammeln und Ruhm zu erlangen. Der Titel des Spiels bezieht sich auf die Legende der sieben goldenen Städte von Cibola, die im 16. Jahrhundert viele Abenteurer nach Amerika lockte.

Die Entwicklung des Spiels begann mit einer intensiven Recherchephase, in der Dan Bunten und sein Bruder Bill zahlreiche Bücher über die Konquistadoren und verwandte Themen studierten. Dan Bunten erklärte später: "Als... Bill und ich Kinder waren, schenkte uns unser Onkel ein Buch über die Konquistadoren, und wir dachten, wow!" Diese Faszination führte zur Idee, ein Spiel zu entwickeln, das die Erfahrungen der Entdecker nachbildet. Ein zentrales Merkmal des Spiels ist die Möglichkeit, neben der historischen Karte auch zufällig generierte Karten zu verwenden, was jedem Spiel eine einzigartige Welt verleiht. Jim Rushing, der Hauptprogrammierer, verbrachte etwa vier Monate mit der Entwicklung des Kartengenerators, der realistische Kontinente mit Bergen, Flüssen und verschiedenen Zivilisationen erzeugt. Dan Bunten betonte die Bedeutung dieses Features: "Die zufälligen Karten geben den Spielern das Gefühl, echte Entdecker zu sein, die in unbekanntes Terrain vordringen."

Das Gameplay von "The Seven Cities of Gold" zeichnet sich durch seine offene Struktur aus. Die Spieler können die Küsten erkunden, ins Landesinnere vordringen, mit indigenen Völkern interagieren und entscheiden, ob sie friedlich handeln oder gewaltsam erobern. Die Interaktion mit den Ureinwohnern ist dabei besonders hervorzuheben. Dan Bunten erklärte: "Der friedliche Ansatz funktioniert wirklich am besten... Man muss irgendwo Freunde haben. Wenn etwas schiefgeht, braucht man eine freundliche Mission, zu der man zurückkehren kann, ohne sich um einen Aufstand sorgen zu müssen." Diese Dynamik spiegelt die historischen Herausforderungen der Konquistadoren wider und zwingt die Spieler, ihre Entscheidungen sorgfältig abzuwägen.

Nach seiner Veröffentlichung war "The Seven Cities of Gold" sowohl kommerziell als auch kritisch erfolgreich. Es verkaufte sich in den ersten Jahren über 150.000 Mal und wurde von der Zeitschrift Computer Gaming World als "Strategiespiel des Jahres" 1985 ausgezeichnet. In einer Rezension der Compute! aus dem Jahr 1984 wurde es als "fesselndes Strategiespiel, das herausfordert und bildet sowie unterhält" beschrieben. Die Möglichkeit, immer wieder neue Welten zu entdecken, trug maßgeblich zum Wiederspielwert bei und inspirierte spätere Spiele wie Sid Meiers "Pirates!" und "Civilization".

Trotz seines Erfolgs blieb das Spiel nicht ohne Kontroversen. Einige Kritiker bemängelten die Darstellung der Interaktionen mit den indigenen Völkern, insbesondere die Möglichkeit, Dörfer zu überfallen und deren Bewohner zu töten. Dan Bunten selbst äußerte sich zu diesem Dilemma: "Viele der Konquistadoren behandelten die Eingeborenen schrecklich. Ihre Herangehensweise war arrogant und stolz gegenüber einer Gesellschaft, die ihre eigene Geschichte und Wurzeln hatte. Aber um historisch genau zu sein, mussten wir Gewalt einbeziehen. Ich mag die Idee nicht, dass Spieler anderen Wesen Schaden zufügen, aber es gibt keine Alternative, sonst zwingt man dem Publikum seine eigenen moralischen Entscheidungen auf." Diese Reflexion zeigt das Bewusstsein der Entwickler für die ethischen Implikationen ihres Spiels.

International erhielt "The Seven Cities of Gold" überwiegend positive Bewertungen. Die deutsche Zeitschrift Happy Computer lobte die "intelligente Gestaltung" des Spiels und die im Stil einer Abenteuergeschichte geschriebene Anleitung. In einer Retrospektive von PC Games wurde hervorgehoben, dass das Spiel "wegweisend" war und "ein Vorreiter im Bereich der Entdeckerspiele" sei. Diese Anerkennung unterstreicht den Einfluss des Spiels auf die Entwicklung des Strategiespiel-Genres.

Zusammenfassend bleibt "The Seven Cities of Gold" ein Meilenstein in der Geschichte der Computerspiele. Seine innovative Spielmechanik, die offene Welt und die tiefgründige Auseinandersetzung mit historischen Themen machen es zu einem zeitlosen Klassiker, der auch heute noch Spieler inspiriert und zum Nachdenken anregt.

Sim City – 1989 by Maxis

Sim City

Sim City

SimCity wurde 1989 von Maxis veröffentlicht und gilt als eines der einflussreichsten Computerspiele aller Zeiten. Entwickelt von Will Wright, entstand die Idee für das Spiel während der Entwicklung seines vorherigen Projekts Raid on Bungeling Bay, in dem der Spieler eine Stadt bombardierte. Wright bemerkte, dass ihm das Erstellen der Stadt mehr Spaß machte als das eigentliche Spiel, und begann, mit einem Stadtbausimulator zu experimentieren. Anfangs war SimCity schwer zu vermarkten, da es kein festes Ziel oder eine klassische "Gewinnbedingung" hatte. Die meisten Softwärehäuser lehnten es ab, bis Maxis sich 1987 entschied, es zu veröffentlichen.

Das Spielprinzip war revolutionär. Anstatt Feinde zu besiegen oder Highscores zu jagen, mussten Spieler eine Stadt von Grund auf errichten und verwalten. Zonen für Wohnen, Gewerbe und Industrie wurden festgelegt, Straßen gebaut, Stromversorgung sichergestellt und Steuern erhoben. Naturkatastrophen wie Brände, Überschwemmungen und sogar Monsterangriffe konnten unvorhersehbare Herausforderungen darstellen. Ein dynamisches Wirtschaftssystem bestimmte das Wachstum der Stadt, und der Spieler musste den Haushalt sorgfältig verwalten. SimCity wurde oft als ein Spiel ohne Ende beschrieben, das dem Spieler völlige kreative Freiheit ließ.

Die Reaktionen der Presse waren überwältigend. Computer Gaming World bezeichnete es als „die erste echte Städtebausimulation“ und lobte die Tiefe des Gameplays. The New York Times schrieb: „SimCity ist mehr als ein Spiel – es ist eine interaktive Erfahrung, die den Spieler in die Rolle eines Stadtplaners versetzt.“ Die britische Zeitschrift ACE bewertete es mit 95 % und hob besonders die offene Spielweise hervor, während Power Play in Deutschland 91 % vergab und es als „wegweisend für die Zukunft der Simulationen“ beschrieb.

Marktwirtschaftlich war SimCity ein voller Erfolg. Innerhalb des ersten Jahres wurden über 300.000 Einheiten verkauft, was für eine Simulation bemerkenswert war. Bis 1992 hatte das Spiel über eine Million Exemplare abgesetzt. Besonders in Bildungseinrichtungen wurde SimCity oft als Lehrmittel für Stadtplanung und Ökonomie genutzt. Die Popularität des Spiels führte zu zahlreichen Erweiterungen und Nachfolgern, darunter SimCity 2000 (1993), SimCity 3000 (1999) und SimCity 4 (2003).

Kontroversen entstanden insbesondere durch die Darstellung von Stadtpolitik. Einige Politiker kritisierten das Spiel als zu simplifiziert, während andere es als realitätsnahes Werkzeug für urbane Planung lobten. Ein berühmtes Beispiel war, als der damalige Bürgermeister von Oakland, Kalifornien, öffentlich erklärte, dass er SimCity nutzte, um seine Stadtpolitik zu planen. Ein weiterer kontroverser Punkt war die Möglichkeit, absichtlich Steuern zu maximieren, um Bürger aus bestimmten Vierteln zu vertreiben – eine ungewollte Parallele zu realer Gentrifizierungspolitik.

Das Spiel wurde auf zahlreiche Plattformen portiert. Neben der ursprünglichen Veröffentlichung auf Amiga, Atari ST und MS-DOS folgten Versionen für den Commodore 64, MacIntosh und Windows. Besonders bemerkenswert war die Super Nintendo-Version (1991), die von Nintendo selbst angepasst wurde und den Charakter „Dr. Wright“ einführte, der den Spielern als Berater zur Seite stand. Diese Version enthielt auch exklusive Elemente wie Bowser als Monster-Katastrophe. Weitere Konvertierungen erschienen für FM Towns und später Mobilgeräte.

SimCity beeinflusste das Genre der Aufbausimulationen maßgeblich und gilt als Wegbereiter für Spiele wie Cities: Skylines oder Tropico. Heute wird es als eines der innovativsten Spiele der 80er-Jahre betrachtet, das bewies, dass Games mehr sein können als nur Unterhaltung – sie konnten auch lehren, inspirieren und gesellschaftliche Diskussionen anregen.

The Bard‘s Tale – 1985 by Interplay

The Bard‘s Tale – 1985 by Interplay

The Bard‘s Tale – 1985 by Interplay

Bereits in den 1970ern erfreuten sich RPGs einer erstarkenden Beliebtheit, die sich, nicht zuletzt durch die stetig verbessernde Grafik, immer weiter ausbreitete. EA fehlte jedoch im Sortiment ein Titel, der es mit Schwergewichten wie Ultima und Wizardry aufnehmen konnte, zumal sich diese bereits seit 1981 auf etlichen Rechnern tummelten.

Michael Cranford, ein begeisterter Pen&Paper Spieler und Programmierer werkelte jedoch schon an einem passenden Konzept. Michael zeichnete sich zuvor für den C64 Port des Sega Shooters Super Zaxxon verantwortlich. Auch den Apple II Port des Welterfolges Donkey Kong konnte Michael sich auf die Fahne schreiben. Mit der Unterstützung des Gründers von Interplay, Brian Fargo, konnte das Design weiter verbessert werden. Brian gab dabei an, auf seine Spielerfahrungen mit Dungeon & Dragons zurückgegriffen zu haben. Ein Spiel, dass er häufig mit Michael spielte...

Weitere Unterstützung erhielten sie von Rebecca Heinemann, die zu dieser Zeit bei Interplay tätig war. Laut des Handbuches wurde sie aufgrund ihrer Datenkomprimierungsroutinen erwähnt, die eine große Anzahl an Animationen und Grafiken ermöglichten, ohne den kostbaren Diskettenplatz zu sprengen. Rebecca selbst gab an auch Entwicklungstools, unter anderem einen Grafikeditor, erschaffen und darüber alle Konvertierungen auf andere Systeme erschaffen zu haben.

The Bard’s Tale wurde über Nacht zu einem Erfolg. Bis 1993 konnten über 1 Million Kopien verkauft werden.

Police Quest 1: In pursuit of the Death Angel

Police Quest 1: In pursuit of the Death Angel

Zum Ende der 1980er und zum Beginn der 1990er war das Wort „Quest“ scheinbar ein eingetragenes Markenzeichen des Spieleherstellers Sierra Online. King's Quest, Space Quest, Quest for Glory, Hero’s Quest, The Colonels BeQUEST, ConQUESTS of Camelot oder EcoQuest seien da nur als Beispiele genannt. Hinzu kam ab 1987 Police Quest, dass dem gewöhnlichen Polizisten Sonny Bonds in seinem Arbeitsalltag auf den Straßen Lyttons im Bundesstaat Kalifornien folgt. Im Zuge des Abenteuers lernt der Spieler nicht nur typischen Alltag eines Polizisten kennen, sondern auch das Handbuch anzubeten. Dieses sollte man sich unbedingt vor Spielbeginn zu Gemüte gezogen und die Hinweise zu Eigen gemacht haben, sonst ist ein vorzeitiges Game Over unvermeidlich.

Sierra Präsident Ken Williams hatte die Idee einer „Polizei Saga“ und suchte hierfür einen Polizisten als technischen Berater, um die Authentizität und den Realismus zu gewährleisten. Donna Walls, Jims Ehefrau, arbeitete zu dieser Zeit als Frisörin und stellte ihm eines Tages Sierras Präsidenten Ken Williams vor, der für einen Haarschnitt bei Donna vorbeischaute. Schon nach kurzer Zeit wechselten die Gesprächsthemen und führte zu einer Partie Racquetball und später zu seinem neuen Job als Gamedesigner. Da Jim selbst keine Erfahrungen in diesem Bereich vorweisen konnte, halfen ihm namhafte Kollegen, beispielsweise Roberta Williams, Al Lowe, Mark Crowe oder Scott Murphy. Jim selbst sagte: „Als ich mich das erste Mal vor einen Computer setzte, um mit der Design-Geschichte des ursprünglichen Police Quest zu beginnen, musste man mir zeigen, wo der An-/Ausschalter war. Ich tippte die gesamte Geschichte mit zwei Fingern (schließlich bestand meine einzige Fähigkeit damals darin, Leute zu jagen und ins Gefängnis zu werfen).“ In der Regel enthalten Jim Walls Spiele auch Szenarien, die er selbst erlebt hatte.

In den ersten zwei Jahren nach der Veröffentlichung konnte Sierra 200.000 Einheiten verkaufen. Die gesamte Reihe, inklusive der späteren Police Quest SWAT Reihe, verkaufte sich bis 1996 1,2 Millionen Mal. Konvertierungen des ersten Teiles entstanden für Amiga, Atari ST, Apple II, Apple IIgs und Mac. Laut der deutschen Games Zeitschrift ASM (7/88) existierte auch eine Fassung für den C64, die allerdings nicht veröffentlicht wurde. Jim Walls, sowie Al Lowe, war diese Information bis vor wenigen Jahren neu. Möglicherweise war dies nur eine inoffizielle Konvertierung oder aber einfach nur Vaporware.