Tags

, ,

Genau so viel Zeit (5 Stunden, 24 Minuten) veranschlagt meine Kindle App für das Lesen von Christoph Kucklicks gleichnamigem Buch. Ich habe es nicht nachgemessen und bin so dem Muster gefolgt, das Kucklick für typisch erklärt: immer granularer, feiner wird die Wirklichkeit aufgelöst, Vorhersagen werden gemacht, Verhalten wird berechnet – von Maschinen. Immer weniger sind wir Menschen fähig, den Maschinen Paroli zu bieten.

Gleich vorweg: das Buch ist absolut lesenswert; Kucklick zeigt an einer Fülle von Beispielen, wie sich unter unserer von Big Data befeuerten Sicht die Verhältnisse auflösen, verändern, neu zusammensetzen. Alte sozialwissenschaftliche „Gesetze“, die in Wahrheit statistische Korrelationen auf einer bestimmten durchschnittlichen Aggregats-Stufe sind, zerbröseln, wenn man gleichzeitig jedes Individuum einzeln im Detail analysieren kann. Im politischen Bereich beispielsweise analysiert er die Auswirkungen der Feinauflösung der Wählerschaft in Obamas letztem Wahlkampf, wo ganz gezielt und mit hohem Aufwand genau die Individuen angesprochen wurden, die gerade noch als Wähler zu gewinnen waren, und zwar mit individuell auf sie zugeschnittenen Botschaften. Interessant ist auch der historische Vergleich zu den katastrophalen Folgen der Erfindung des Buchdrucks, als neue Sichtweisen und Debatten die dafür nicht vorbereiteten Gesellschaften trafen.

Trotzdem bin ich nicht zufrieden mit den Schlussfolgerungen des Buches, weil es meiner Meinung nach einige Fragen falsch stellt. Über weite Strecken kämpft sich Kucklich nämlich mit der Frage ab, wie der Mensch angesichts immer perfekterer Maschinen seine Einmaligkeit behaupten kann. Dabei sieht er als Rückzugsgebiete etwa die Irritierbarkeit, das Spielerische, das Empathische.

Aus meiner Sicht begeht Kucklick den selben Fehler wie viele andere Warner vor den digitalen Maschinen: Antropomorphe Projektion. Dies ist ein Mechanismus, den die Menschen angewandt haben, seit sie in den Naturkräften Naturgötter – im Blitz den Zeus – gesehen haben. Ich will das an einigen Beispielen erläutern.

Man könnte sich angesichts der Erfindung des Fernrohrs fragen, wo das menschliche Auge im Wettkampf mit dem Fernrohr bleibt, und Zweifel an der Leistungsfähigkeit des Auges äussern. „Das menschliche Auge hat den Wettkampf mit dem Fernrohr verloren; das Fernrohr sieht 100mal schärfer als das Auge.“ – Was natürlich Unsinn ist. Das Fernrohr ist ein Werkzeig; es sieht überhaupt nichts. Das menschliche Auge sieht mit Fernrohr 100mal schärfer als ohne. So wird ein Schuh draus.

Aber ist diese einfache Logik noch gültig angesichts autonom agierender Roboter? Ich möchte zunächst einen extrem einfachen Fall einer autonomen Maschine diskutieren: ein guter alter mechanischer Wecker. Ein Mensch zieht ihn auf und stellt ihn, damit er ihn am Morgen weckt. Dabei vergisst er, dass morgen Sonntag ist und er eigentlich ausschlafen könnte. Pünktlich früh um sechs rasselt der Wecker auf dem Nachttisch und der Mensch, der nicht mehr an den Wecker gedacht hat, schmeisst ihn voller Wut an die Wand. Sofern der Mensch nicht auf sich selbst wütend ist, sondern auf den Wecker, macht er den Fehler der anthropomorphen Projektion. (Es kann natürlich auch der Fall eintreten, dass der Wecker einen Defekt hat, aber auch dann ist Wut auf den Wecker eine ziemlich alberne Emotion).

Vor langer Zeit gab es ein legendäres Buch über Zen and the Art of Motorcycle Maintenance, in dem der Autor Robert M. Pirsig sehr schön beschrieb, wie sinnlos wir unsere Emotionen auf Gegenstände richten, selbst wenn wir wissen, dass diese als Empfänger unserer Emotionen gar nicht existieren. Wenn das Motorrad stottert, hilft es nichts, es anzuschreien, sondern ich muss die Ursache beheben.

Gilt diese Logik noch angesichts der heutigen autonomen Maschinen? Kucklick beschreibt im Detail, wie in Spielhallen (etwa in Las Vegas) mit Hilfe raffiniertester Computerprogramme die Kunden optimal „gemolken“ werden, und die Menschen sich den so geschaffenen Verführungen kaum erwehren können. Hier ist aber der Fall ganz einfach: Nicht raffinierte Computerprogramme „melken“ Menschen, sondern Menschen (die Betreiber der Spielhallen und ihre beauftragten Computerspezialisten) „melken“ Menschen mit Hilfe von raffinierten Computerprogrammen. Indem ich die computergesteuerten Spielkonsolen anthropomorph auflade, verschliesse ich die Augen davor, was wirklich abgeht: Menschen können andere Menschen besser mit als ohne digitale Maschinen beeinflussen.

Ähnlich mit autonom agierenden Kampfdrohnen: Wenn eine solche Drohne versehentlich ein Krankenhaus samt Ärzten und Patienten ausradiert, wer ist hier am Werke, und wer ist verantwortlich? Die Drohne zum rechtsfähigen Subjekt zu erklären, ist ganz abwegig und lenkt davon ab, dass die Menschen, die die Drohne gebaut, programmiert und eingesetzt haben, die Verantwortung tragen. Auch die Drohne ist nur ein Werkzeug.

Die anthropomorphe Projektion ist auch die Basis für ein beliebtes Spiel, an dem sich auch Kucklick beteiligt: „Computer werden niemals können …“ – Wobei die Dinge, die in Ergänzung dieses Satzes genannt wurden – wie er schön zeigt – eine nach der anderen widerlegt wurden. Kucklich führt dieses Spiel dann zu Themen wie Empathie. Erschreckend ist das immer weitere Vordringen der Computer aber nur, wenn wir sie in ontologischer Verirrung als Subjekte betrachten. In Wahrheit sind Computer nichts als mechanische Implementationen von Modellen. Sobald der Mensch eine Theorie in einem Bereich aufstellen kann, die so ausgereift ist, dass sie in ein Modell gegossen werden kann, kann dieses Modell auch programmiert werden. Die zunehmenden Fähigkeiten von Computern sind nichts anderes als die Fortschritte in der Fähigkeit von Menschen, theoriegeleitete Modelle aufzustellen. Trivial: Mit Computern können Menschen schneller Berechnungen vornehmen als mit Bleistift und Papier, so wie es mit Bleistift und Papier besser geht, als nur im Kopf.

Was allerdings neu ist, ist, dass Menschen über immer mächtigere Werkzeuge verfügen, die sie zum Nutzen und zum Schaden anderer Menschen einsetzen können. Werkzeuge, die zeitlich und räumlich versetzt, unter indirekter Kontrolle von Algorithmen arbeiten, so gut wie gar nicht mehr für Dritte transparent sind, und dabei natürlich Fehler auftreten können.

Die gesellschaftliche Kontrolle solcher Werkzeuge ist derzeit nicht gegeben.

Advertisements