Wenn es jemals einen Fall gab, in dem dies klar wurde, dann mit dem Monty Hall-Problem. Sogar der große Paul Erdos ließ sich von diesem Problem täuschen. Meine Frage, die möglicherweise schwer zu beantworten ist, ist die Wahrscheinlichkeit, dass wir einer Antwort so sicher sein können, dass wir ein intuitives Argument erhalten und dennoch so falsch liegen. Das Benford-Gesetz über erste Ziffern und das Paradoxon der Wartezeit sind weitere berühmte Beispiele wie dieses.
probability
conditional-probability
paradox
heuristic
Michael R. Chernick
quelle
quelle
Antworten:
Es gibt zwei Hauptansätze, um diese Frage zu verstehen. Die erste (und meiner Meinung nach erfolgreichste) ist die Literatur zu kognitiven Vorurteilen (siehe diesen LessWrong-Link ).
Es wurde viel zu diesem Thema geschrieben und es wäre zu anmaßend, es hier zusammenzufassen. Im Allgemeinen bedeutet dies nur, dass die kognitive Maschinerie, mit der Menschen durch den Evolutionsprozess ausgestattet sind, viele Heuristiken und Abkürzungen verwendet, um Überlebensentscheidungen effizienter zu treffen. Diese Überlebensentscheidungen galten hauptsächlich für Ahnenumgebungen, mit denen wir selten mehr konfrontiert sind. Daher ist zu erwarten, dass die Häufigkeit, mit der wir mit Szenarien konfrontiert sind, in denen unsere Heuristiken versagen, zunimmt.
Menschen zum Beispiel sind großartig darin, Überzeugungen zu erzeugen. Wenn das Setzen eines neuen Glaubens sehr wenig kostet, aber das Versäumnis, einen Glauben anzuwenden, der zum Überleben geführt hätte, hohe Kosten verursacht (selbst wenn der Glaube im Allgemeinen falsch ist), dann würde man erwarten, dass es viele Rationalisierungen und geringe Evidenzbarrieren für den Glauben gibt Sätze (was wir mit Menschen sehen). Sie erhalten auch Verhaltensweisen wie Wahrscheinlichkeitsabgleich aus ähnlichen Gründen.
Man könnte ausführlich alle faszinierenden Wege beschreiben, die wir von der opimalen Entscheidungsfindung abweichen. In Kahnemans jüngstem Buch Thinking, Fast and Slow und in Dan Arielys Buch Predictably Irrational finden Sie beliebte, lesbare Berichte mit vielen Beispielen. Ich empfehle, einige der Sequenzen bei LessWrong zu lesen, um die kognitive Verzerrung grundlegender zu diskutieren, und viele interessante wissenschaftliche Literaturübersichten zu Schritten, die unternommen werden können, um diese Verzerrungen unter bestimmten Umständen zu vermeiden.
Die andere Herangehensweise an dieses Problem ist (glaube ich) weitaus schwieriger. Dies ist die Vorstellung, dass die Wahrscheinlichkeit selbst nicht die richtige normative Theorie für den Umgang mit Unsicherheit ist. Ich habe jetzt keine Zeit, einige Quellen dafür zu kommentieren, aber ich werde meine Antwort später mit einer Diskussion dieser Ansicht aktualisieren.
quelle