Belastende Details

Rationality: From AI to Zombies” ist Eine Abhandlung über Rationalität, übersetzt aus dem Englischen von Vegard Beyer.
Essays von Eliezer Yudkowsky, im englischen Original auf readthesequences.com

Ich werde die deutschen Übersetzungen hier jeweils verlinken, sobald sie fertiggestellt sind. Anmerkungen und englische Fachbegriffe stehen in eckigen Klammern. Definitionen und Längeres stehen teils im Mouseover, d.h. sie erscheinen, wenn man die Maus über das gepunktet unterstrichene Wort bewegt.


Belastende Details

Lediglich bekräftigende Details, die einer ansonsten kahlen und wenig überzeugenden Erzählung künstlerische Glaubwürdigkeit verleihen sollen…

Die Verknüpfungstäuschung ist, wenn Menschen die Wahrscheinlichkeit P(A, B) höher als die Wahrscheinlichkeit P(B) bewerten, obwohl es ein Theorem ist, dass P(A, B) ≤ P(B) ist.

Zum Beispiel:

In einem Experiment im Jahr 1981 fanden es 68% der Probanden wahrscheinlicher, dass “Reagan bundesstaatliche Unterstützung für unverheiratete Mütter bieten wird und bundesstaatliche Unterstützung für lokale Regierungen reduzieren wird” als dass “Reagan bundesstaatliche Unterstützung für unverheiratete Mütter bieten wird.”

[…dass also eine Behauptung mit zwei ungesicherten Bedingungen wahrscheinlicher zutreffend sei als eine Behauptung mit ZWEI ungesicherten Bedingungen.]

Eine lange Reihe von geschickt konstruierten Experimenten, die alternative Hypothesen aussortierten und die Standardinterpretation festnagelten, bestätigten, dass eine Verknüpfungstäuschung deshalb auftritt, weil wir “das Wahrscheinlichkeitsurteil durch das das Urteil der Repräsentativität ersetzen”. Durch das Hinzufügen von zusätzlichen Details kannst du ein Ergebnis erscheinen lassen als charakteristischer für den Prozess, der es erzeugt.

Du kannst es plausibler klingen lassen, dass Reagan unverheiratete Mütter unterstützen wird, indem du die Behauptung hinzufügst, dass Reagan außerdem die lokalen Regierungen unterstützen wird. Die Unplausibilität (das Unwahrscheinlichklingen) eines Anspruchs wird durch die Plausibilität (das Wahrscheinlichklingen) des anderen ausgeglichen; sie “gleichen sich aus”.

Das heißt: Das Hinzufügen von Details kann ein Szenario plausibler klingen lassen, obwohl das Ereignis erzwungenermaßen weniger wahrscheinlich wird .

Wenn dem so ist, dann könnten wir hypothetisch Futuristen finden, die unvorstellbar plausible und detaillierte Zukunftsgeschichten schaffen, oder Leute finden, die riesige Bündel von unbestätigter Behauptungen zusammen mit ein paar kräftig klingenden Aussagen in der Mitte schlucken.

Wenn dir die Verknüpfungstäuschung in einem nackten, direkten Vergleich präsentiert wird, dann kannst du dieses spezielle Problem erfolgreich lösen, indem du dich bewusst korrigierst. Aber das hieße, nur ein Pflaster auf das Problem zu klatschen, nicht, es im Allgemeinen zu beheben.

In einem Experiment im Jahr 1982 gaben professionelle Prognostiker systematisch höhere Wahrscheinlichkeiten für “Russland wird in Polen einmarschieren, gefolgt von einem Abbruch der diplomatischen Beziehungen zwischen den USA und der UdSSR” als “Abbruch der diplomatischen Beziehungen zwischen den USA und der UdSSR” an. Jede Experimentalgruppe bekam dabei jeweils nur einen der beiden Vorschläge.2

[Erneute Erklärung in klarerer Sprache nötig?]

Welche Strategie hätten diese Prognostiker als Gruppe verfolgen können, die die Verknüpfungstäuschung beseitigt hätte, wenn niemand von ihnen von dem Vergleich wusste?

Wenn überhaupt niemand auch nur wusste, dass sich das Experiment um die Verknüpfungstäuschung drehte? Wie hätten sie ihre Wahrscheinlichkeitsurteile verbessern können?

Das Ausbessern eines verbreiteten Fehlers, als Sonderfall, behebt das allgemeine Problem nicht. Der Fehler ist nur das Symptom, nicht die Krankheit.

Hätten die Prognostiker tun können, um die Verknüpfungstäuschung zu vermeiden, ohne den direkten Vergleich zu sehen, oder überhaupt zu wissen, dass irgendjemand sie auf die Verknüpfungstäuschung testen würde?

Es scheint mir, dass sie das Wort “und” bemerken müssten. Sie müssten argwöhnisch sein – nicht nur argwöhnisch, sondern sie müssten auch aufschrecken. Selbst ohne zu wissen, dass die Forscher sie später besonders auf die Verknüpfungstäuschung hin untersuchen würden.

Sie müßten die Verbindung zweier ganzer Details bemerken und erschrocken sein über die Kühnheit eines jeden, der sie um eine solche wahnsinnig komplizierte Vorhersage bittet. Und sie müssten die Wahrscheinlichkeit substantiell einschränken – zumindest um einen Faktor von vier, den experimentellen Details entsprechend.

Es hätte den Prognostikern auch helfen können, über mögliche Gründe nachzudenken, warum die USA und die Sowjetunion ihre diplomatischen Beziehungen aussetzen könnten. Das Szenario ist nicht “Die USA und die Sowjetunion suspendieren plötzlich ihre diplomatischen Beziehungen ohne Grund”, sondern “Die USA und die Sowjetunion suspendieren aus jeglichem erdenklichen Grund die diplomatischen Beziehungen”.

Und die Subjekte, die bewerteten, “Reagan stellt Bundesunterstützung für unverheiratete Mütter zur Verfügung und kürzt die Bundesunterstützung für Kommunalverwaltungen”? Erneut, sie müssten von dem Wort “und” schockiert sein. Außerdem müssten sie Absurditäten aufaddieren – wo die Absurdität die logarithmische Wahrscheinlichkeit ist, sodass du sie aufaddieren kannst -, anstatt sie zu mitteln.

Sie müssten denken: “Reagan würde vielleicht, oder auch nicht, die Unterstützung der lokalen Regierungen kürzen (1 Bit), aber es scheint sehr unwahrscheinlich, dass er unverheiratete Mütter unterstützen wird (4 Bits). Gesamt-Absurdität: 5 Bits.”

Oder vielleicht “Reagan wird keine unverheirateten Mütter unterstützen, Punkt. Ein Fehlschlag und schon ist’s aus. Die andere These macht es nur noch schlimmer. ”

Bedenke ebenso einen sechsseitigen Würfel mit vier grünen Seiten (g) und zwei roten Seiten (r). Die Probanden mussten darauf wetten, inwiefern die Reihenfolge

(1) rgrrr,

(2) grgrrr oder

(3) grrrrr

irgendwo in zwanzig Mal Würfeln auftreten würde.3

Fünfundsechzig Prozent der Probanden wählten grgrrr, das aber strikt von rgrrr übertroffen wird, da sich jede Sequenz, die grgrrr enthält, auch in rgrrr auswirkt.

Wie hätten es die Probanden besser machen können? Indem sie die Einschließung von rgrrr in grgrrr bemerkt hätten? Vielleicht; aber das ist nur ein Pflaster, es löst nicht das grundsätzliche Problem. Durch explizite Berechnung der Wahrscheinlichkeiten? Das würde sicherlich das grundlegende Problem lösen, aber man kann nicht immer eine genaue Wahrscheinlichkeit berechnen.

Die Versuchspersonen verloren heuristisch, indem sie dachten: “Aha! Sequenz 2 hat den höchsten Anteil von Grün zu Rot! Ich sollte auf Sequenz 2 wetten!” Um heuristisch zu gewinnen, müssten die Teilnehmer denken: “Aha! Sequenz 1 ist kurz! Ich sollte Sequenz 1 wählen!”

Sie würden eine stärkere emotionale Wirkung von Ockhams Rasiermesser [Occam’s Razor] spüren müssen – jedes zusätzliche Detail, sogar einen einzigen zusätzlichen Wurf der Würfel, als Belastung fühlen.

Ich sprach irgendwann mit jemandem, der von einem unvorsichtigen Futuristen fasziniert war (also so einem, der seinen Zukunftsprognosen viele Details hinzufügt, die echt toll klingen). Ich versuchte zu erklären, warum ich von diesen erstaunlichen, unglaublichen Theorien nicht ebenso fasziniert war. Also erklärte ich die Verknüpfungstäuschung, insbesondere das Experiment mit den zwei Bedingungen “Aussetzung der Beziehungen ± Russische Invasion in Polen”.

Und er sagte: “Okay, aber was hat das damit zu tun?” Und ich sagte: “Es ist wahrscheinlicher, dass sich Universen aus irgendeinem Grund replizieren, als dass sie sich aufgrund schwarzer Löcher replizieren, weil fortgeschrittene Zivilisationen ebensolche schwarze Löcher herstellen, weil sich Universen auf genau solch eine Art entwickeln, die die Zivilisationen dazu bewegt, es zu tun.” Und er sagte: “Oh.”

Bis dahin hatte er diese zusätzlichen Details nicht als zusätzlich belastend empfunden. Stattdessen waren sie für ihn bestätigende Details gewesen, die der Schilderung des Futuristen Glaubwürdigkeit verliehen.

Jemand präsentiert dir ein Paket mit seltsamen Ideen, von denen eine ist, dass sich Universen replizieren. Dann bietet die Person unterstützende Informationen alleinig für die Behauptung, dass sich Universen replizieren . Aber das ist keine Untermauerung für das gesamte Paket, obwohl es alles als eine Geschichte erzählt wird.

Du musst die Details entwirren. Du musst jedes einzeln hochhalten und fragen: “Woher wissen wir dieses Detail?” Jemand umreißt ein Bild des Abstiegs der Menschheit in die nanotechnologische Kriegsführung, worin China sich weigert, sich an ein internationales Kontrollabkommen zu halten, gefolgt von einem globalen Wettrüsten… Moment mal – woher weißt du, dass es China sein wird? Hast du da eine Kristallkugel in deiner Hosentasche oder bist du einfach gerne ein Futurist?

Woher kommen all diese Details? Woher kam dieses spezielle Detail?

Denn es steht geschrieben:

Wenn du deine Bürde verringern [deine Belastung erleichtern, siehe Titel] kannst, musst du dies tun.

Es gibt keinen Strohhalm, dem die Kraft fehlt, dir den Rücken zu brechen.

 


  1. William S. Gilbert und Arthur Sullivan, The Mikado, Opera, 1885. ↩︎
  2. Tversky und Kahneman, “Extensional Versus Intuitive Reasoning.” ↩︎
  3. Amos Tversky und Daniel Kahneman, “Judgments of and by Representativeness,” in Judgment Under Uncertainty: Heuristics and Biases, von Daniel Kahneman, Paul Slovic, und Amos Tversky (New York: Cambridge University Press, 1982), S. 84–98. ↩︎

Weiter:
Planungsfehler [planning fallacy]