9. März 2015 3 Likes 3

Vergesst die Vorlage!

Ist der Vormarsch der Maschinen womöglich nur ein Science-Fiction-Missverständnis? – Eine Kolumne von Adam Roberts

Lesezeit: 7 min.

Unsere Vorstellung von künstlicher Intelligenz ist vollkommen falsch.

Tatsächlich existiert so etwas wie künstliche Intelligenz nicht. Ich will nicht in Abrede stellen, dass unsere Computer beeindruckende Werkzeuge sind, dass Google Translate einigermaßen brauchbare Ergebnisse liefert oder das Internet eine gewaltige Errungenschaft ist; in gewisser Hinsicht – vor allem was die Geschwindigkeit der Rechenleistung betrifft – übertrifft der moderne Computer unsere menschlichen Fähigkeiten. Aber die heutigen Computer reichen nicht an den Intellekt und die Kreativität eines komplexen, organischen, denkenden Wesens wie Sie oder an ein introvertiertes, Tee trinkendes und einen Bowler tragendes englisches Wesen wie mich heran.

Maschinen-MärzAuf diesen Sachverhalt gibt es zwei Antworten. Einmal die Behauptung: Das wird es nie geben, künstliche Intelligenz ist nicht möglich. Egal wie viel Rechenleistung das Mooresche Gesetz zur Verfügung stellt, egal wie genial die Programmierer noch werden, es existiert ein unüberbrückbarer Unterschied zwischen Computern und dem menschlichen Bewusstsein. Die Befürworter dieser Position haben häufig eine spirituelle Vorstellung von der Natur des menschlichen Geistes – sie glauben, dass es etwas in unserem Bewusstsein gibt, das nicht künstlich reproduziert werden kann. Da jede einzelne Komponente eines Computers an sich kein Bewusstsein besitzt, kann auch das Gesamtkonstrukt niemals Bewusstsein erlangen. Wie clever Sie eine Million Legosteinchen auch immer zusammenbasteln, Ihre Kreation wird per definitionem nie die Lebendigkeit eines – sagen wir – einfachen Käfers erlangen, weil der Käfer ein Lebewesen ist und der Computer als hochkomplizierte Anhäufung einer Milliarde Elemente ohne Bewusstsein nicht mehr als die Summe seiner Teile.

Die andere Antwort lautet: Wir sind zwar noch nicht soweit, aber es ist nur eine Frage der Zeit. Was in Wirklichkeit bedeutet: Es gibt nichts „Magisches“ im menschlichen Bewusstsein. Mikroprozessoren leisten genau dasselbe wie Neuronen. Selbst ein stinknormaler moderner Computer verfügt über eine höhere Dichte an Schaltstellen als das menschliche Gehirn, und diese Dichte wird in den nächsten Jahren noch zunehmen. Wir müssen einfach nur lernen, sie richtig zu programmieren, und unsere Maschinen werden zu denkenden, empfindungsfähigen, lebenden Wesenheiten, die den Turing-Test mit Leichtigkeit bestehen. Über kurz oder lang – vielleicht auch über den Umweg der vielbeschworenen „Singularität“ – werden wir in einer Zukunft à la Iain Banks ankommen, wo künstliche „Intelligenzen“ dem menschlichen Gehirn in punkto Verstand, Emotionen und Kreativität weit überlegen sind.

Ich für meinen Teil bin in dieser Frage noch unentschlossen. Eine kleine Stimme in meinem nichtmechanischen Kopf fragt sich, wo diese Intelligenzen denn nun sind. Vierzehn Jahre sind seit HAL vergangen, aber was die künstliche Intelligenz angeht, weigert sich die Realität hartnäckig, zu den Fantasien von Clarke und Kubrick aufzuholen.

Aber vielleicht bin ich einfach nur zu ungeduldig. Ray Kurzweil glaubt, dass künstliche Intelligenz nicht nur eine unausweichliche Entwicklung darstellt, sondern es wahrscheinlich in nur ein paar Jahrzehnten soweit sein wird. In zwei äußerst einflussreichen Büchern – „KI. Das Zeitalter der künstlichen Intelligenz“ (1990) und „Homo S‍@piens“ (1999) – behauptet er, dass sehr bald synthetische Strukturen entwickelt werden, die sich an der Funktionsweise des menschlichen Neokortex orientieren; zunächst als Erweiterung unserer eigenen Hirnfunktionen, danach als autonome denkende Einheiten. Kurzweil definiert den menschlichen Neokortex als „eine Ansammlung von ungefähr 300 Millionen Mustererkennern“. Ausgehend von der Prämisse, dass die evolutionsbedingte Vergrößerung des Neokortex den Menschen von den früheren Primaten unterschied, fragt er sich: „Wenn der quantitative Sprung vom Primaten zum Menschen mit seiner größeren Gehirnleistung der Auslöser für die Entwicklung von Sprache, Technologie, Kunst und Wissenschaft war, welcher qualitative Sprung steht uns mit einer weiteren quantitativen Vergrößerung bevor? Warum nicht aus 300 Millionen Einheiten eine Milliarde machen?“

Sieht ganz nach einer rosigen Zukunft aus, nicht wahr? Allerdings ist 1990 nun auch schon eine Weile her, und wir scheinen uns der von Kurzweil postulierten Singularität um keinen Deut genähert zu haben.

Ich frage mich, ob das Problem vielleicht in der Annahme besteht, dass eine künstliche Intelligenz stets der Struktur des menschlichen Bewusstseins folgen muss. Größer, besser, schneller natürlich; aber immer noch auf den grundlegenden Funktionen des menschlichen Gehirns basierend. Dies ist eines der gängigsten und verhängnisvollsten Missverständnisse der Science-Fiction über die Zukunft, die sie eigentlich extrapolieren will. Nehmen wir etwa die Roboter: Seit Čapek geht man von der Annahme aus, dass die Roboter stärker, schneller und unverwüstlicher als Menschen sein müssen, dabei jedoch menschliche Größe und Gestalt besitzen. Von Maria in Fritz Langs Metropolis zu C3PO, von Blade Runner zu „Ava“ aus Alex‘ Garlands jüngst angelaufenem Film Ex Machina – die Science-Fiction hat den Menschen als Maß der Technologie definiert und ihre Roboter stets in menschlicher Anmutung entworfen. Wenn man diese abbildende Logik jedoch an der Realität misst, scheitert sie. Die Welt des 21. Jahrhunderts ist von allerlei Robotern bevölkert – sie bauen Autos zusammen, beladen Containerschiffe, saugen Staub und so weiter –, und kein einziger von ihnen sieht auch nur annähernd menschlich aus. Sie wurden für eine bestimmte Aufgabe entworfen – nicht um unserer Vorstellung zu entsprechen, dass die menschliche Form gottgleich und die einzig richtige sei.

Warum sollte es mit der künstlichen Intelligenz anders bestellt sein? Warum sollte sich ein künstlicher Intellekt wie HAL verhalten, ein Computer, der so katastrophal linear in seinen Gedankenprozessen ist, dass er es nicht schafft, zwei leicht miteinander in Widerspruch stehende Gedanken zusammenzubringen und darüber völlig den Verstand verliert? Der menschliche Neokortex dient genauso gut als Blaupause für eine künstliche Intelligenz wie der Körper von Anthony Daniels als Vorlage für den Roboter, der die Karosserie des neuen Toyotas zusammenschweißt.

Aber die Science-Fiction hat meiner Ansicht nach eine gute Entschuldigung. Ihre Aufgabe ist es nicht, die Zukunft vorherzusagen – auch wenn das die Leser manchmal glauben mögen –, sondern Geschichten zu erzählen und zum Nachdenken anzuregen. Und die Menschen interessieren sich nun mal für Geschichten über Menschen. Aus diesem Grund sind Aliens und Roboter meist humanoid. Wäre es aber nicht ungemein reizvoll, eine Story über eine K.I zu schreiben, die nach dezidiert nicht-menschlichen Prinzipien funktioniert, die allein für eine spezifische Aufgabe konstruiert wurde und nicht einfach einen Abklatsch des menschlichen Bewusstseins darstellt? Natürlich ist eine solche Figur nicht gerade sympathisch und würde wahrscheinlich verwirrte Ablehnung bei den Lesern hervorrufen.

Die tatsächliche Science Fiction sieht folglich anders aus. Nehmen wir zum Beispiel Ann Leckies Roman „Die Maschinen“ (im Shop). Selten gab es in der Science-Fiction ein derart fulminantes Debüt: Der Roman gewann den Hugo, den Nebula, den Arthur C. Clarke und den BSFA Award (nicht zu vergessen den Nobelpreis und Olympisches Gold) – alles in einem Jahr. Und er hat dieses kollektive Lob durchaus verdient: „Die Maschinen“ ist eine ungewöhnlich intelligente, nachdenkliche Space Opera, die gekonnt mit traditionellen Vorstellungen von Gender und Kolonialismus spielt.

Trotzdem – im Zentrum des Romans steht die nicht ganz neue Vorstellung von einer gewaltigen Schwarmintelligenz, die sich selbst auf eine Myriade von Individuen aufsplitten und diese dann wieder miteinander verschmelzen kann. Am meisten stört mich daran, dass dies in traditionellen, monadisch-menschlichen Begriffen vermittelt wird. Leckies Vorstellungskraft denkt künstliche Intelligenz – zumindest in „Die Maschinen“ – in beschränkter, linearer und menschenanaloger Form.

Der Roman spielt in einem interstellaren Reich namens Radch. Es wird von einer Autokratin regiert, deren Identität auf Hunderte individueller Körper verteilt ist – hauptsächlich damit es schwieriger wird, einen Anschlag auf sie zu verüben. Einer ähnlichen Logik folgen die sogenannten „Hilfseinheiten“ – menschliche Körper, deren Bewusstsein von einer der vielen künstlichen Intelligenzen überschrieben wurde, die die Kriegsschiffe der Radchaai steuern. In den Schiffen liegt eine Vielzahl von auf den eroberten Welten erbeuteten Körpern im Kälteschlaf, um bei Bedarf verwendet zu werden. Daraus folgt, dass die Schiffsintelligenz Zugriff auf eine Myriade unterschiedliche Wahrnehmungen und Erfahrungen hat und diese in sich integrieren kann. Breq, die Erzählerin der Geschichte, war früher als eine Hilfseinheit unter Tausenden auf dem Schiff Gerechtigkeit der Torren stationiert. Zu Beginn der Haupthandlung ist das Schiff zerstört, und nur Breq und eine weitere Einheit haben überlebt. Breq ist allein.

Breq ist ein Bewusstsein, das es gewohnt ist, durch tausend Augenpaare zu sehen, an tausend Orten gleichzeitig zu sein und dennoch eine Einheit zu bilden. Leckies Figuren führen interessante Diskussionen darüber, was diese Zerstückelung und gleichzeitige Erweiterung von „Individualität“ für die herkömmliche Vorstellung von Subjektivität bedeutet. Aber das Buch selbst ist in seiner Form relativ konservativ – in glatter, erklärender Prosa werden zwei verschränkte lineare Erzählstränge abgehandelt, wobei der eine früher als der andere angesiedelt ist und Hintergrundinformationen und wichtige Erklärungen liefert. Ich finde, diese Linearität ist eine vertane Chance. An keiner Stelle des Romans fühlt sich die Gerechtigkeit der Torren wie die zentripetale Anhäufung mannigfaltiger Wahrnehmungen an; Breq, die letzte Überlebende des Raumschiffes, kommt einem wie ein einzelnes, relativ spießiges (wenn auch emotional verschlossenes) Individuum mit erkennbar individuellen Motivationen, Sehnsüchten, Gefühlen und Reaktionen vor. Dieses Buch kann Macht (um in den Jargon von Deleuze und Guattari zu wechseln) nur als Rhizom denken. Die von Leckie angedachte „Vielheit“ ist nie rhizomatisch oder eine Multitude à la Hardt und Negri . Ein linearer Handlungsstrang begünstigt eine lineare Auffassung von Subjektivität, was natürlich für eine flüssige Lektüre sorgt. Dabei hätte die Prämisse von „Die Maschinen“ durchaus das Potenzial zu einem formalen Experiment.

Dass dies nicht geschieht, ist nicht nur für die Science-Fiction eine verpasste Gelegenheit, sondern auch unserem Verständnis von künstlicher Intelligenz abträglich. Solange wir versuchen, Computer nach unserem Bilde zu schaffen, werden wir scheitern. Nur wenn wir die Vorlage vergessen und ganz von vorne und mit neuen, radikal polyzentrischen Prämissen anfangen, werden wir erfolgreich sein. 

Adam Roberts ist eine der vielversprechendsten Stimmen in der neueren britischen Science Fiction. Geboren 1965, studierte er Englische Literatur in Aberdeen und Cambridge und arbeitet derzeit als Dozent an der University of London.

 

Ann Leckies preisgekrönter Roman „Die Maschinen“ (im Shop) ist gerade auf Deutsch erschienen. Mehr zum Thema Künstliche Intelligenz finden Sie unter dem Stichwort „Maschinen-März“.

Kommentare

Bild des Benutzers Alexander Seibold

Die KI ist eine Teufelei. Eine Metapher, die das illustriert, ist HAL aus Kubricks „2001-A Space Odyssey“.
Als der Schiffscomputer HAL dem Astronauten Bowman "some second thoughts about the mission" entlocken will, stellt dieser die rhetorische Frage: "You´re working up your crew psychology report?" Und damit ist klar, der Computer ist dazu in der Lage, sich strategischer Kommunikation zu bedienen. Derart entlarvt, geht HAL zum Angriff über und fingiert eine Fehlermeldung bezüglich der AE-35-Antennen-Einheit. Die Astronauten können in ihrer manuellen Überprüfung keinen Fehler ausfindig machen. Prompt behauptet HAL, da könne nur menschliches Versagen verantwortlich sein. Mit dieser Lüge stützt er seine Strategie, die Oberhand zu gewinnen.
Als er die Astronauten endlich aus dem Raumschiff gelockt hat, zeigt sich alle Gemeinheit, zu der eine KI fähig sein könnte, wenn sie glaubt, recht zu haben, die besseren Informationen zu besitzen oder einfach nur defekt ist oder noch perfider: genau so programmiert wurde.
Bowman, der von der Raumgondel aus um Einlass ins Raumschiff bittet, spricht folgenden Satz, der an den Schiffscomputer gerichtet ist: "Öffne das Gondelschleusentor, bitte." Bowman wartet und muss feststellen, dass das Tor geschlossen bleibt. Schließlich wiederholt er seine Bitte, da er annehmen muss, dass sie den Adressaten nicht erreichte: "HAL, öffne bitte das Gondelschleusentor." Wiederum passiert nichts. Bowman vermutet einen Defekt in der Sprechfunkverbindung. Also versucht er dies zu klären: "Hallo HAL, hörst Du mich?" Und nach einer kleinen Pause noch einmal ein wenig lauter: "Hallo HAL, hörst Du mich?" Bowman testet andere Verbindungen: "Hörst Du mich, HAL? Kannst Du mich hören, HAL? Hallo, HAL, hörst Du mich? Hallo, HAL, hörst Du mich? Hörst Du mich, HAL?" HAL antwortet in gewohnter Selbstverständlichkeit:
--- Fortsetzung unten.

Bild des Benutzers Alexander Seibold

"Jawohl, Dave, ich höre Dich." Also war das Schweigen zuvor eine absichtliche Kommunikationsverweigerung HALs. Sowohl die beiden Bitten, wie auch die zahlreichen Fragen wurden ignoriert. Erst nach der siebenmaligen ‚Anrufung‘ willigt HAL in die Kommunikation ein. Bowman, der sich nun seines Zuhörers gewiss ist, wechselt vom Bitten aufs Befehlen: "Öffne das Gondelschleusentor!" Dies führt zu der lapidaren Antwort: "Es tut mir leid, Dave, aber das kann ich nicht tun." Der sachliche Bowman bleibt seinem problemorientiert-distanzierten Kommunikationsgehabe treu, verzichtet auf einen emotionalen Ausruf, schnauft nur kurz und antwortet dann ruhig und nüchtern: "Wo liegt das Problem?" Doch HAL lässt sich auf keine Diskussion über Sachfragen ein: "Ich glaube, Du weißt ebenso gut wie ich, wo das Problem liegt." Bowman bleibt immer noch völlig ruhig, fragt nach, als ginge es darum, lediglich ein Missverständnis zu klären: "Wovon redest Du überhaupt, HAL?" Aber sein Gesprächspartner HAL befindet sich auf einer anderen Ebene, was zu einer für Bowman unverständlichen Antwort führt: "Das Unternehmen ist zu wichtig, als dass ich Dir erlauben dürfte, es zu gefährden." Und Bowman antwortet, immer noch um Klärung bemüht: "Ich weiß wirklich nicht, wovon Du sprichst." Nun wird HAL eindeutig. Er geht zurück zum Auslöser, zur Motivation seiner Handlungsweise: "Ich weiß, dass ihr beide geplant habt, mich abzuschalten. Und ich glaube, dass ich das nicht zulassen darf." Denn im Vergleich zu den mit menschlichem Versagen behafteten Astronauten ist er das einzige 'makellose' am Unternehmen direkt beteiligte Gehirn, das sich sogar 'ohne jede Einschränkung' in seinen Dienst stellt und damit jede Gefährdung desselben unterbinden wird. Damit ist klar, dass Bowman auf argumentativem Wege nichts mehr erreichen kann. Großzügig gibt er den Sieg des Gesprächs an HAL, zu diesem Zeitpunkt noch in dem Glauben, dass er selbst am längeren Hebel sitzt: "Also gut, HAL. Dann werde ich eben durch die Notluftschleuse reinkommen." Das klingt wie die Drohung einer Abrechnung. Doch HAL bemerkt eiskalt, sich seiner Überlegenheit bewusst:
--- Fortsetzung unten.

Bild des Benutzers Alexander Seibold

"Ohne Deinen Raumhelm wird Dir das wohl sehr schwer fallen, Dave." Bowman erkennt, dass HAL recht hat und verliert zum ersten Mal während des Gesprächs für einen kurzen Moment seine Ruhe. Dann sagt er, sich auf die alte Ordnung berufend: "Du wirst jetzt tun, was ich Dir befehle. Öffne das Gondelschleusentor!" Diesen hilflosen Versuch, durch Wiederherstellen der alten Herr-Knecht-Beziehung, seine Wünsche durchzusetzen, blockt HAL ab: "Dave, das Gespräch hat keinen Zweck mehr. Es führt zu nichts. Leb´ wohl." Angesichts der Folgen dieser erneuten Kommunikationsverweigerung für sein eigenes Überleben verliert Bowman die Fassung. Er ruft immer lauter: "HAL! HAL! HAL! HAL! HAL!" Zuletzt ein Keuchen, dann verstummt er. Die Herr-Knecht-Beziehung hat sich umgekehrt. Die Maschine, die KI, ist jetzt der Boss!
Damit ist deutlich geworden, dass HAL keineswegs ‚den Verstand verliert‘, wie Adam Roberts oben behauptet hat. Im Grunde ist es gar nicht von Bedeutung, vor allem, wenn man Astronaut ist und gerade ausgesperrt wurde. Das als zwecklos und zu nichts führend bezeichnete Gespräch wird von der KI abgebrochen.
Der wiedergegebene Dialog zwischen Mensch und Maschine zeigt für mich beispielhaft die Gefährdung des Humanen durch die technokratische Hybris, die durch KIs eine völlig neue Dimension erreicht. Stanley Kubrick hat das bereits vor Jahrzehnten treffend inszeniert. Wie ‚menschenähnlich oder menschen-un-ähnlich‘ sich die KI darstellt oder nach welcher ‚Art von Bewusstseinsstruktur‘ die KI gestaltet wird, ist im Grunde unerheblich, solange die Bedrohung für den Menschen billigend in Kauf genommen wird.
***

Zum Verfassen von Kommentaren bitte Anmelden oder Registrieren.
Sie benötigen einen Webbrowser mit aktiviertem JavaScript um alle Features dieser Seite nutzen zu können.