Die Erwartung kurzer Inferenzabstände

Rationality: From AI to Zombies” ist Eine Abhandlung über Rationalität, übersetzt aus dem Englischen von Vegard Beyer.
Essays von Eliezer Yudkowsky, im englischen Original auf readthesequences.com

Ich werde die deutschen Übersetzungen hier jeweils verlinken, sobald sie fertiggestellt sind. Anmerkungen und englische Fachbegriffe stehen in eckigen Klammern. Definitionen und Längeres stehen teils im Mouseover, d.h. sie erscheinen, wenn man die Maus über das
gepunktet unterstrichene Wort bewegt.


Die Erwartung kurzer Inferenzabstände

Die Umgebung der evolutionären Angepasstheit (auch bekannt als ‘urzeitliche Umgebung’) des Homo sapiens bestand aus Jäger-Sammler-Stämmen von höchstens 200 Personen, ohne Schriftkultur. Alles ererbte Wissen wurde mittels gesprochener Sprache und Erinnerungen weitergegeben.

In einer solchen Welt ist alles Hintergrundwissen universelles Wissen. Alle Informationen, die nicht strikt privat sind, sind öffentlich bekannt. Punkt.

In der angestammten Umgebung war es unwahrscheinlich, dass du mehr als einen inferentiellen Schritt von allen anderen entfernt warst. Wenn du eine neue Oase entdeckst, musst du deinen Stammesmitgliedern nicht erklären, was eine Oase ist oder warum es eine gute Idee ist, Wasser zu trinken oder wie man läuft. Nur du weißt, wo die Oase liegt; das ist privates Wissen. Aber jeder hat den nötigen Hintergrund, um deine Beschreibung der Oase zu verstehen, die Konzepte, die zum Nachdenken über Wasser benötigt werden; das ist universelles Wissen.

Wenn du Dinge in einer solchen Umgebung erklärst, musst du deine Konzepte fast niemals erklären. Höchstens muss man ein neues Konzept erklären, nicht zwei oder mehr gleichzeitig.

In der Urzeit-Umgebung gab es keine abstrakten Disziplinen mit unermesslich großen Beständen sorgfältig zusammengetragener Beweise, in eleganten Theorien verallgemeinert, übermittelt in geschriebenen Büchern, deren Schlußfolgerungen hunderte Inferenzschritte entfernt von universellen Verstehensvoraussetzungen waren.

In der urzeitlichen Umgebung ist jeder, der etwas ohne offensichtliche Beweislage sagt, ein Lügner oder ein Idiot. Du würdest wahrscheinlich nicht denken: “Hey, vielleicht hat diese Person ein gut begründetes Hintergrundwissen, von dem noch niemand in meinem Stamm je gehört hat”, weil es eine verlässliche Invariante [eine Konstante – eine gleichbleibende Wahrheit] der uralten Umgebung war, dass so etwas einfach nicht vorkam.

Umgekehrt, wenn du etwas himmelschreiend Offensichtliches sagst und die andere Person es nicht versteht, ist der Andere der Idiot, oder er ist absichtlich starrköpfig, um dich zu ärgern.

Und um dem Ganzen die Krone aufzusetzen, wenn jemand etwas ohne offensichtliche Beweislage sagt und erwartet, dass du es glaubst – ganz empört reagiert, wenn du das nicht tust – dann muss derjenige geisteskrank sein.

Kombiniert mit der Illusion der Transparenz  und Selbstverankerung erklärt dies meiner Ansicht nach eine Menge über die legendären Schwierigkeiten, die die meisten Wissenschaftler haben, mit einem Laienpublikum zu kommunizieren – oder sogar mit Wissenschaftlern anderer Disziplinen.

Wenn ich erfolglose Erklärungsversuche beobachte, sehe ich normalerweise, dass der Erklärer einen Schritt zurück macht, wenn er zwei oder mehr Schritte zurück machen müsste. Oder Zuhörer nehmen an, dass Dinge in einem Schritt sichtbar werden sollten, wenn sie zwei oder mehr Schritte zur Erklärung benötigen. Beide Seiten verhalten sich so, als erwarten sie sehr kurze inferentielle Distanzen vom universellen Wissen zu jedem neuen Wissen.

Eine Biologin, die mit einem Physiker spricht, kann die Evolution damit begründen, dass sie die einfachste Erklärung ist. Aber nicht jedem auf der Erde wurde diese legendäre Wissenschaftsgeschichte eingeschärft, von Newton bis Einstein, die dem Ausdruck “einfachste Erklärung” seine gewaltige Bedeutung verleiht: ein Ausdruck großer Kraft, gesprochen bei der Geburt von Theorien und in ihre Grabsteine ​​gemeißelt wird.

Für jemand anderen klingt “aber es ist die einfachste Erklärung!” vielleicht nach einem interessanten, aber kaum kraftvollen Argument; es fühlt sich nicht nach einem allzu mächtigen Werkzeug dafür an, Arbeitsplatzdrama zu verstehen oder ein kaputtes Auto zu reparieren. Offensichtlich ist die Biologin von ihren eigenen Ideen fasziniert, zu arrogant, um sich alternativen Erklärungen zu öffnen, die ebenso plausibel klingen. (“Wenn es für mich plausibel klingt, sollte es für jedes vernünftige Mitglied meines Stamms plausibel klingen.”)

Und aus der Sicht der Biologin: Sie kann verstehen, wie die Evolution auf den ersten Blick etwas merkwürdig klingt – aber wenn jemand die Evolution ablehnt, selbst nachdem die Biologin erklärt hat, dass es die einfachste Erklärung ist, dann ist es klar, dass Nichtwissenschaftler nur Idioten sind und es keinen Sinn hat, mit ihnen zu reden.

Ein verständliches Argument, eine klare Erklärung, muss einen inferentiellen Pfad skizzieren, ausgehend von dem, was das Publikum bereits kennt oder akzeptiert . Wenn du nicht weit genug zurückgehst, sprichst du nur mit dir selbst.

Wenn du zu irgendeinem Zeitpunkt eine Erklärung abgibst, die nicht offensichtlich durch Argumente begründet ist, die du wiederum zuvor begründet hast, denkt das Publikum einfach, dass du verrückt bist.

Dies geschieht auch dann, wenn du es dir erlaubst, merklich dabei aufzufallen, dass du einem Argument mehr Gewicht beimisst als in den Augen des Publikums zu diesem Zeitpunkt gerechtfertigt ist. Zum Beispiel, wenn du so redest, als ob du denkst, “einfachere Erklärung” sei ein äußerst schlagkräftiges Argument für die Evolution (was es auch ist), anstatt eine “irgendwie einigermaßen interessante Idee” (wie es für jemanden klingt, der nicht mit Hochachtung für Ockhams Rasiermesser aufwuchs).

Oh, und du solltest besser keine Andeutung machen, dass du denkst, du seist ein Dutzend inferentielle Schritte entfernt vom Wissen der Zuschauer, oder dass du denkst, dass du spezielles Hintergrundwissen hast, das ihnen noch nicht zur Verfügung steht.

Das Publikum weiß nichts über ein evolutionspsychologisches Argument für eine kognitive Verzerrung, bei der wir systematisch Inferenzabstände unterschätzen, was dann wiederum zu kilometerlangen Verkehrsstaus in der Kommunikation führt. Sie werden einfach denken, dass dass du herablassend bist.

Und wenn du denkst, du könntest das Konzept der “systematisch unterschätzten Inferenzabstände” kurz erklären, in nur ein paar Worten, dann habe ich traurige Nachrichten für dich…


Weiter:
Die Linse, die ihre eigenen Mängel sieht