Versagen Der Vernunft: Warum Menschen Aufhören, Fakten Zu Glauben - Alternative Ansicht

Versagen Der Vernunft: Warum Menschen Aufhören, Fakten Zu Glauben - Alternative Ansicht
Versagen Der Vernunft: Warum Menschen Aufhören, Fakten Zu Glauben - Alternative Ansicht

Video: Versagen Der Vernunft: Warum Menschen Aufhören, Fakten Zu Glauben - Alternative Ansicht

Video: Versagen Der Vernunft: Warum Menschen Aufhören, Fakten Zu Glauben - Alternative Ansicht
Video: Vernunft und Glaube | 7über7 - Vortrag Josef Seifert 2024, April
Anonim

Die Wissenschaft hat erklärt, wie und warum sich das menschliche Gehirn weigert, die Wahrheit zu akzeptieren. Verstanden von der New Yorker Autorin Elizabeth Colbert.

1975 luden Stanford-Wissenschaftler eine Gruppe von Studenten ein, an einer Selbstmordstudie teilzunehmen. Den Teilnehmern wurden einige Selbstmordnotizen gezeigt. In jedem Paar war eine Notiz fiktiv und die andere wurde von einem echten Selbstmord geschrieben. Die Schüler wurden gebeten, zwischen echten und gefälschten Banknoten zu unterscheiden.

Einige Schüler haben bei dieser Aufgabe eine geniale Fähigkeit entdeckt. Von fünfundzwanzig Notenpaaren identifizierten sie die echte vierundzwanzig Mal korrekt. Andere zeigten völlige Hoffnungslosigkeit und identifizierten nur zehn Mal eine echte Notiz.

Wie so oft in der psychologischen Forschung wurde alles inszeniert. Während die Hälfte der Notizen tatsächlich echt war, waren die den Teilnehmern gemeldeten Ergebnisse falsch. Studenten, denen gesagt wurde, dass sie fast immer Recht hatten, gaben nicht viel korrektere Antworten als diejenigen, auf die ständig hingewiesen wurde.

In der zweiten Phase der Untersuchung wurde die Täuschung aufgedeckt. Den Schülern wurde gesagt, dass der eigentliche Zweck des Experiments darin bestand, ihre Reaktion darauf zu bestimmen, ob sie richtig oder falsch waren. (Wie sich herausstellte, war dies auch ein Betrug.) Schließlich wurden die Teilnehmer gebeten, zu bewerten, wie viele Selbstmordnotizen sie tatsächlich richtig klassifizierten und wie viele richtige Antworten sie glaubten, dass der durchschnittliche Schüler geben könnte. In diesem Moment passierte etwas Merkwürdiges. Die Schüler der Gruppe „Gute Ergebnisse“waren zuversichtlich, dass sie gut genug abgeschnitten hatten, deutlich besser als der durchschnittliche Schüler - obwohl ihnen gerade gesagt worden war, dass es keinen Grund gab, dies zu glauben. Umgekehrt waren diejenigen, die ursprünglich der Gruppe mit niedriger Punktzahl zugeordnet waren, der Meinung, dass sie signifikant schlechter abschnitten als der durchschnittliche Schüler, eine Schlussfolgerung, die ebenfalls unbegründet war.

"Einmal gebildete Eindrücke bleiben bemerkenswert stabil", stellen die Forscher trocken fest.

Einige Jahre später wurde eine neue Gruppe von Studenten der Stanford University für eine ähnliche Studie rekrutiert. Die Teilnehmer erhielten eine Auswahl an Informationen über ein Paar Feuerwehrleute - Frank K. und George H. Franks Biografie berichteten unter anderem, dass er eine kleine Tochter hatte und das Tauchen liebte. George hatte einen kleinen Sohn und spielte Golf. Es enthielt auch die Antworten der Männer auf den Risky-Conservative Choice Test. In einer Version der Daten war Frank ein erfolgreicher Feuerwehrmann, der nach den Testergebnissen fast immer die sicherste Option wählte. In einer anderen Version bevorzugte Frank auch die sicherste Option, aber er galt als wertloser Feuerwehrmann, der mehr als einmal Verweise von seinen Vorgesetzten erhielt.

Wiederum wurde den Studenten mitten in der Studie mitgeteilt, dass sie irregeführt worden waren und dass die Informationen, die sie erhielten, völlig falsch waren. Sie wurden dann gebeten, ihre eigenen Überzeugungen zu beschreiben. Was sollte ein erfolgreicher Feuerwehrmann über das Risiko denken? Die Schüler der ersten Gruppe waren der Meinung, dass er Risiken vermeiden sollte. Die Schüler der zweiten Gruppe entschieden, dass er im Gegenteil riskante Entscheidungen treffen muss.

Werbevideo:

Selbst nachdem die Beweise "ihre Überzeugungen vollständig widerlegt wurden, weigern sich die Menschen, sie zu überdenken", bemerken die Forscher. In diesem Fall war die Ablehnung "besonders beeindruckend", da die Rohdaten nicht ausreichten, um eine allgemeine Schlussfolgerung zu ziehen.

Diese Studien sind mittlerweile bekannt. Die Behauptung einer Gruppe von Wissenschaftlern, dass Menschen in den 1970er Jahren nicht vernünftig denken können, war schockierend. Nicht länger. Tausende nachfolgende Experimente haben diese Schlussfolgerung bestätigt (und verfeinert). Jeder Schüler kann zeigen, dass sich scheinbar vernünftige Menschen oft völlig irrational verhalten. Es bleibt jedoch eine ernste Frage: Wie sind wir dorthin gekommen?

In dem neuen Buch The Enigma of Reason versuchten die Kognitionswissenschaftler Hugo Mercier und Dan Sperber, diese Frage zu beantworten. Sie stellen fest, dass der Geist ein sich entwickelndes Merkmal wie eine aufrechte Haltung oder ein dreifarbiges Sehen ist. Es hat seinen Ursprung in den Savannen Afrikas und muss in diesem Zusammenhang gesehen werden.

Laut Wissenschaftlern ist der größte Vorteil des Menschen gegenüber anderen Arten unsere Fähigkeit zur Zusammenarbeit. Es ist schwer zu organisieren und fast genauso schwer zu pflegen. Für jede Person ist die Verwendung einer anderen immer die beste Aktivität. Es wird uns kein Grund gegeben, abstrakte logische Probleme zu lösen oder aus unbekannten Daten Schlussfolgerungen zu ziehen. Vielmehr ist es gegeben, um Probleme zu lösen, die während des Lebens in einem Team auftreten.

"Vernunft ist eine Anpassung an eine hypersoziale Nische, die die Menschheit für sich entwickelt", schreiben Mercier und Sperber. Vernünftige Tendenzen, die aus "intellektueller" Sicht seltsam, doof oder einfach nur dumm erscheinen, sehen aus sozialer, "interaktionistischer" Sicht sehr ausgewogen aus.

Betrachten Sie Bestätigungsvoreingenommenheit - die Tendenz einer Person, Informationen zu akzeptieren, die ihre Überzeugungen bestätigen, und Informationen abzulehnen, die ihnen widersprechen. Von den vielen Formen fehlerhaften Denkens, die entdeckt wurden, ist diese die am besten untersuchte, mit einer Menge Forschung, die ihr gewidmet ist. Eines der bekanntesten Experimente wurde erneut in Stanford durchgeführt. Die Forscher versammelten eine Gruppe von Studenten, die gegensätzliche Ansichten über die Todesstrafe hatten. Die Hälfte der Studenten war dafür und glaubte, dass sie Verbrechen verhinderte; Die andere Hälfte war dagegen und glaubte, dass es keinen Einfluss auf die Kriminalitätsrate hatte.

Die Studenten wurden gebeten, zwei Studien zu studieren. Der eine unterstützte das Argument, dass die Todesstrafe andere Menschen von Verbrechen abhielt, während der andere diese Logik in Frage stellte. Studenten, die anfänglich die Todesstrafe unterstützten, bewerteten die Zwangsdaten hoch, und die zweite Studie war nicht überzeugend. Studenten, die sich ursprünglich gegen die Todesstrafe aussprachen, taten das Gegenteil. Am Ende des Experiments wurden die Teilnehmer erneut nach ihren Ansichten gefragt. Diejenigen, die sich für die Todesstrafe aussprachen, unterstützten sie noch mehr, während diejenigen, die sich dagegen aussprachen, noch feindlicher waren.

Mercier und Sperber bevorzugen den Begriff "Myside Bias". Sie glauben, dass die Leute nicht jedem vertrauen. Wenn wir mit den Argumenten von jemandem konfrontiert werden, finden wir ihre Schwächen sehr geschickt. Und in Bezug auf unsere eigenen sind wir blind.

Ein kürzlich von Mercier in Zusammenarbeit mit europäischen Kollegen durchgeführtes Experiment zeigt deutlich diese Asymmetrie. Die Teilnehmer mussten eine Reihe einfacher logischer Probleme lösen. Sie wurden dann gebeten, ihre Antworten zu erläutern, und erhielten die Möglichkeit, sie zu ändern, wenn sie Fehler bemerkten. Die meisten Teilnehmer waren mit ihrer ursprünglichen Wahl zufrieden, nur weniger als 15% änderten ihre Meinung im zweiten Schritt.

In der dritten Phase wurde den Teilnehmern eines dieser Probleme zusammen mit ihrer Antwort und der Antwort eines anderen Teilnehmers gezeigt, der zu einem anderen Ergebnis kam. Wieder konnten sie ihre Antworten ändern. Aber es wurde ein Trick gemacht: Die Antworten, die präsentiert wurden, als hätte jemand anderes sie gegeben, waren tatsächlich ihre eigenen und umgekehrt. Etwa die Hälfte der Teilnehmer verstand, was geschah. Andere wurden plötzlich viel kritischer. Fast 60% lehnten die Antworten ab, mit denen sie zuvor zufrieden waren.

Diese Tendenz spiegelt laut Mercier und Sperber die Aufgabe wider, den Geist weiterzuentwickeln - um Probleme mit anderen Mitgliedern der Gruppe zu vermeiden. Unsere Vorfahren lebten in kleinen Gruppen von Jägern und Sammlern und befassten sich hauptsächlich mit ihrer sozialen Situation. Sie wollten nicht derjenige sein, der ihr Leben riskierte, während andere die Höhle durchstreiften. Es gab wenig Vorteil für den gesunden Menschenverstand, aber mit entscheidenden Argumenten konnte viel erreicht werden.

Unsere Vorfahren mussten sich unter anderem nicht um die abschreckende Wirkung der Todesstrafe und die idealen Eigenschaften von Feuerwehrleuten kümmern. Sie mussten sich auch nicht mit erfundenen Recherchen, gefälschten Nachrichten oder Twitter befassen. Es überrascht nicht, dass uns heute die Vernunft oft scheitert. Mercier und Sperber schreiben: "Dies ist einer von vielen Fällen, in denen sich die Umgebung für eine natürliche Selektion zu schnell verändert hat."

Stephen Sloman, Professor an der Brown University, und Philip Fernbach, Professor an der University of Colorado, sind ebenfalls Kognitionswissenschaftler. Auch sie glauben, dass Geselligkeit der Schlüssel zu den Funktionen oder besser gesagt zu Funktionsstörungen des menschlichen Geistes ist. Sie beginnen ihr Buch Die Illusion des Wissens: Warum wir niemals allein denken, indem sie die Toilette untersuchen.

In einer Studie der Yale University wurden die Studenten gebeten, ihr Verständnis für alltägliche Geräte wie Toiletten, Reißverschlüsse und Zylinderschlösser zu bewerten. Anschließend wurden sie gebeten, eine detaillierte schrittweise Erklärung der Funktionsweise dieser Geräte zu verfassen und ihr eigenes Verständnis erneut zu bewerten. Anscheinend wurden sich die Schüler dabei ihrer eigenen Unwissenheit bewusst, weil ihr Selbstwertgefühl sank. (Es stellt sich heraus, dass Toiletten viel komplizierter sind, als sie scheinen.)

Broken und Fernbach sehen diesen Effekt, den sie als "Illusion des tiefen Lernens" bezeichnen, fast überall. Die Leute denken, sie wissen viel mehr als sie wirklich wissen. Andere Leute erlauben uns, das zu glauben. Im Falle der Toilette hat jemand sie so entworfen, dass ich sie leicht handhaben kann. Darin haben sich die Leute ausgezeichnet. Seit wir gelernt haben, gemeinsam zu jagen, verlassen wir uns auf das gegenseitige Wissen - dies war wahrscheinlich ein Schlüsselereignis in unserer Evolutionsgeschichte. Wir arbeiten so gut zusammen, sagen Sloman und Fernbach, dass wir kaum sagen können, wo unser eigenes Verständnis endet und das eines anderen beginnt.

"Eine der Konsequenzen der Natürlichkeit, mit der wir geistige Arbeit teilen", schreiben sie, "ist das Fehlen einer scharfen Grenze zwischen den Ideen und dem Wissen einer Person und anderer Mitglieder der Gruppe."

Diese Grenzenlosigkeit oder Verwirrung, wenn Sie so wollen, ist auch wichtig für das, was wir als Fortschritt betrachten. Die Menschen erfanden neue Werkzeuge für eine neue Lebensweise und schufen gleichzeitig neue Königreiche der Unwissenheit. Wenn alle darauf bestehen würden, die Prinzipien der Metallbearbeitung zu beherrschen, bevor sie ein Messer herstellen, wäre die Bronzezeit keine solche Revolution.

Laut Sloman und Fernbach wirft dies ernsthafte politische Probleme auf. Es ist eine Sache, die Toilette zu benutzen, ohne zu wissen, wie sie funktioniert, und eine andere, ein Einwanderungsverbot zu befürworten (oder abzulehnen), ohne zu wissen, wovon Sie sprechen. Sloman und Fernbach zitieren Forschungen aus dem Jahr 2014, kurz nachdem Russland die Krim annektiert hatte. Die Befragten wurden gefragt, wie die Vereinigten Staaten ihrer Meinung nach reagieren sollten und ob sie die Ukraine auf der Karte identifizieren könnten. Je schlechter die Befragten über die Geographie Bescheid wussten, desto mehr sprachen sie sich für eine militärische Intervention aus. (Die Teilnehmer hatten eine so schlechte Vorstellung davon, wo sich die Ukraine befindet, dass sich der Median der Annahmen auf achtzehnhundert Meilen erstreckte - die ungefähre Entfernung von Kiew nach Madrid.)

Sloman und Fernbach führten ihre eigene Version des „Toilettenexperiments“durch und ersetzten Haushaltsgeräte durch Regierungspolitik. In einer Studie aus dem Jahr 2012 fragten sie die Menschen, ob sie ein Einzahlersystem für die Gesundheitsversorgung oder ein leistungsorientiertes Lehrerzahlungssystem benötigen. Die Teilnehmer wurden gebeten, ihre Positionen danach zu bewerten, wie stark sie den Vorschlägen zustimmten oder nicht zustimmten. Anschließend wurden sie gebeten, die Auswirkungen der Umsetzung jeder Entscheidung so detailliert wie möglich zu erläutern. Zu diesem Zeitpunkt hatten die meisten Menschen Probleme. Bei der Neubewertung ihrer Ansichten stimmten die Teilnehmer weniger nachdrücklich zu oder stimmten nicht zu.

Broken und Fernbach sehen das Ergebnis als flackerndes Licht am Ende des Tunnels. Wenn wir - oder unsere Freunde - weniger Zeit mit Predigen verbringen und versuchen, die Auswirkungen politischer Vorschläge besser zu verstehen, werden wir sehen, wie ignorant wir sind und unsere Ansichten mildern können. Dies, schreiben sie, "könnte die einzige Form des Denkens sein, die die Illusion von tiefem Wissen zerstören und die Einstellungen der Menschen im Leben verändern wird."

Es gibt eine Sichtweise, die die Wissenschaft als ein System betrachtet, das die natürlichen Neigungen der Menschen korrigiert. In einem gut geführten Labor ist kein Platz für persönliche Vorurteile. Die Ergebnisse müssen in anderen Labors von Forschern reproduzierbar sein, die keinen Grund haben, sie zu bestätigen. Und deshalb hat sich dieses System als so erfolgreich erwiesen. Sie kann sich jeden Moment in Intrigen festsetzen, aber am Ende wird sich die Methodik durchsetzen. Die Wissenschaft schreitet voran, selbst wenn wir festsitzen.

In Ablehnung des Grabes: Warum wir die Fakten ignorieren, die uns retten werden, untersuchen der Psychiater Jack Gorman und seine Tochter Sarah Gorman, eine Fachkraft des öffentlichen Gesundheitswesens, die Kluft zwischen dem, was die Wissenschaft sagt, und unseren Überzeugungen. Sie appellieren an eine anhaltende Überzeugung, die nicht nur offensichtlich falsch, sondern möglicherweise tödlich ist, dass Impfstoffe gefährlich sind. Was gefährlich ist, ist nicht geimpft zu werden; Deshalb wurden Impfstoffe entwickelt. "Immunisierung ist einer der Triumphe der modernen Medizin", schreiben die Gormans. Unabhängig davon, wie viel wissenschaftliche Forschung behauptet, dass Impfstoffe sicher sind und dass kein Zusammenhang zwischen Autismus und Impfstoffen besteht, bleiben die Anwender von Impfstoffen unnachgiebig. (Sie können sogar ihren Unterstützer anrufen - in gewisser Weise - Donald Trump, der erklärte, dass sein Sohn Barron zwar geimpft wurde, aber nicht im Zeitplan lag.von Kinderärzten empfohlen.)

Die Gormans argumentieren auch, dass die Denkweisen, die jetzt selbstzerstörerisch erscheinen, irgendwann eine Methode der Anpassung sein könnten. Sie widmen auch viele Seiten der "Bestätigungsverzerrung", von der sie glauben, dass sie eine physiologische Komponente hat. Sie zitieren Forschungen, die darauf hindeuten, dass Menschen bei der Verarbeitung von Informationen, die ihre Überzeugungen stützen, wahre Freude haben - einen Dopaminrausch. "Es ist immer schön, unsere Linie zu biegen, auch wenn wir falsch liegen", sagen sie.

Gormans listen nicht nur die Wahnvorstellungen der Menschen auf; sie wollen sie reparieren. Es muss einen Weg geben, die Menschen von den Vorteilen von Impfungen für Kinder und den Gefahren von Waffen zu überzeugen. (Eine andere verbreitete, aber statistisch unbegründete Überzeugung, die sie zu widerlegen versuchen, ist, dass Waffenbesitz Sie schützt.) Aber hier stehen sie vor den gleichen Problemen. Die Bereitstellung genauer Informationen scheint nicht zu helfen. Emotionen anzusprechen mag besser funktionieren, widerspricht aber dem Ziel, reine Wissenschaft zu fördern. "Das Problem bleibt", schreiben sie am Ende ihres Buches, "wie man mit Trends umgeht, die zu wissenschaftlichen Missverständnissen führen."

Das Rätsel des Geistes, die Illusion des Wissens und die Verleugnung des Grabes wurden vor den Wahlen im November geschrieben. Sie erwarteten jedoch die Ära von Kellianne Conway und den Beginn "alternativer Fakten". Befürworter der Rationalität finden möglicherweise eine Lösung. Aber die Literatur ist noch nicht ermutigend.

Empfohlen: