Brandolinis Gesetz
Automatische übersetzen
Das Brandolini-Gesetz (auch bekannt als das Bullshit -Asymmetrieprinzip ) ist ein Internet-Aphorismus, der 2013 von dem italienischen Programmierer Alberto Brandolini geprägt wurde. Seine Essenz besagt, dass der Aufwand, Desinformation zu widerlegen, um eine Größenordnung größer ist als der Aufwand, sie zu erzeugen.
Die ursprüngliche Formulierung lautet: „ Der Energieaufwand, um Unsinn zu widerlegen, ist um eine Größenordnung größer als der, um ihn zu erzeugen .“
2 Formale Struktur des Prinzips
3 Kognitive Grundlagen
4 Verwandte Konzepte
5 Empirische Belege für Asymmetrie
6 Anwendungsbereich
7 Gegenmaßnahmenstrategien
8 Kritikpunkte und Einschränkungen
9 Beziehung zu anderen Konzepten
10 Platz im akademischen Diskurs
Herkunft und Autor
Alberto Brandolini ist ein italienischer Programmierer und Berater aus Faenza (Emilia-Romagna) und Gründer von Avanscoperta, einem Unternehmen, das sich auf die Schulung von Softwareentwicklern spezialisiert hat. Er ist in der IT-Community weithin bekannt als Schöpfer der EventStorming-Methodik, einer kollaborativen Technik zur Modellierung von Geschäftsprozessen.
Der Aphorismus wurde erstmals im Januar 2013 in einem Social-Media-Beitrag öffentlich formuliert. Laut Brandolini selbst war er auf das Zusammentreffen zweier Ereignisse zurückzuführen: Kurz zuvor hatte er Daniel Kahnemans Buch „Schnelles Denken, langsames Denken“ gelesen und anschließend eine italienische politische Talkshow gesehen, in der der Journalist Marco Travaglio und der ehemalige Ministerpräsident Silvio Berlusconi sich gegenseitig beschuldigten. Da jede neue Behauptung eine ausführliche und dokumentierte Widerlegung erforderte, formulierte Brandolini ein Prinzip, das zwar schon lange in der Praxis existierte, aber noch keinen eindeutigen Namen hatte.
Das Gesetz fand schnell Anerkennung in Fach- und Wissenschaftskreisen. Es wurde von Forschern in den Bereichen Medienkompetenz, Kognitionspsychologie, politische Kommunikation und Pädagogik zitiert.
Formale Struktur des Prinzips
Was versteht man unter einer „Größenordnung“?
Der Ausdruck „um eine Größenordnung größer“ in der ursprünglichen Formulierung bezeichnet einen Unterschied von etwa dem Zehnfachen. In diesem Kontext handelt es sich nicht um eine streng mathematische Aussage, sondern um eine qualitative Charakteristik: Die Widerlegung einer Aussage erfordert ungleich mehr Zeit, Aufmerksamkeit und Ressourcen als deren Aufstellung.
Eine falsche Behauptung lässt sich in Sekundenschnelle aufstellen – es genügt, einen kurzen Satz ohne Belege zu formulieren. Eine Widerlegung hingegen erfordert die Suche nach Quellen, die Analyse des Kontextes, das Verständnis der Zielgruppe und eine klare Erklärung, warum die ursprüngliche Behauptung falsch ist. Die Asymmetrie entsteht somit nicht durch böswillige Absicht, sondern aus der Natur des kognitiven Prozesses selbst.
Unterscheidung zwischen Desinformation, Fehlinformation und „Unsinn“
Im Kontext von Brandolinis Gesetz wird das englische Wort „bullshit“ verwendet, das der Philosoph Harry Frankfurt bereits 1986 (in seinem Essay „Über Unsinn“, der 2005 als Buch erschien) vom Lügen unterschied. Ein Lügner kennt die Wahrheit und verschweigt sie bewusst. Jemand, der Unsinn verbreitet, ist gleichgültig gegenüber der Wahrheit seiner Worte – sein Ziel ist nicht die Täuschung, sondern das Beeindrucken oder das Erreichen eines gewünschten Effekts.
Diese Unterscheidung ist entscheidend: Eine Lüge lässt sich durch gegenteilige Beweise widerlegen. Eine wahrheitsneutrale Behauptung zu widerlegen ist schwieriger, da der Urheber einer solchen Behauptung nicht im Voraus an irgendwelche faktischen Verpflichtungen gebunden ist und seine Position mit jedem neuen Einwand frei ändern kann.
Lügen sind das Gegenteil von Wahrheit. Unsinn ist ihnen gegenüber gleichgültig.
Die Unterscheidung zwischen Fehlinformation (unbeabsichtigter Verbreitung von Desinformation) und Desinformation (absichtlicher Desinformation) ist auch für das Verständnis des Rechts wichtig. Brandolinis Prinzip gilt für beide Kategorien, doch bei der absichtlichen Verbreitung wissentlich falscher Informationen ist die Ungleichverteilung des Aufwands instrumentell – sie wird bewusst als Strategie eingesetzt.
Kognitive Grundlagen
System 1 und System 2 nach Kahneman
Brandolini ließ sich aus gutem Grund von Kahnemans Buch inspirieren. Das Konzept zweier Denksysteme – schnell und intuitiv (System 1) und langsam und analytisch (System 2) – erklärt, warum das Erstellen und Rezipieren simpler Aussagen zwar einfach, deren Überprüfung aber aufwendig ist.
System 1 arbeitet automatisch: Es erkennt bekannte Muster und bildet sich sofort ein Urteil. Eine falsche Aussage, formuliert in einer einfachen und emotional aufgeladenen Aussage, passiert System 1 praktisch widerstandslos. Ihre Widerlegung erfordert jedoch den Einsatz von System 2 – eine langsame, energieaufwendige und bewusste Analyse.
Der Vertrautheitseffekt und die Illusion der Wahrheit
Die wiederholte Anwendung einer falschen Aussage lässt sie subjektiv glaubwürdiger erscheinen – dieses Phänomen wird als Illusionswahrheitseffekt bezeichnet. Experimente zeigen, dass selbst wenn eine Person weiß, dass eine Aussage falsch ist, ihr Gehirn sie bei häufiger Wiederholung als vertraut wahrnimmt und Vertrautheit mit Wahrheit verknüpft wird.
Das bedeutet, dass eine einfache Widerlegung oft nicht ausreicht. Indem der Widerlegende die ursprüngliche Behauptung wiederholt, selbst um sie zu kritisieren, verstärkt er ungewollt deren Gewicht in den Augen des Publikums.
Bestätigungsfehler und motiviertes Denken
Wenn eine falsche Aussage mit den bestehenden Überzeugungen einer Person übereinstimmt, steigt der Widerstand gegen Widerlegung dramatisch an. Motiviertes Denken zwingt Menschen dazu, die Widerlegung kritisch zu bewerten, anstatt die ursprüngliche Aussage: Sie suchen nach Fehlern in den Argumenten des Gegners, nicht in ihren eigenen Positionen.
Eine im Jahr 2024 in der Fachzeitschrift Frontiers in Psychology veröffentlichte Studie zeigte, dass, wenn eine Überzeugung eng mit der persönlichen Identität oder der sozialen Klasse einer Person verknüpft ist, der Erhalt korrigierender Informationen oft Abwehrmechanismen auslöst – anstatt ihre Ansichten zu revidieren, verstärken sie ihre ursprünglichen Ansichten.
Verwandte Konzepte
Gishs Galopp
Die als „Gish-Galopp“ bekannte Taktik ist eine direkte praktische Anwendung von Brandolinis Gesetz in der Debatte. Ein Debattierender, der diese Technik anwendet, überhäuft seinen Gegner mit einer Flut von Behauptungen – Halbwahrheiten, verzerrten Fakten und glatten Lügen – in einem solchen Tempo, dass der Gegner physisch keine Zeit hat, jede einzelne zu widerlegen.
Der Name etablierte sich 1994, als Eugene Scott, Direktor des US-amerikanischen National Center for Science Education, ihn zur Beschreibung der Debatten zwischen dem kreationistischen Biochemiker Duane Gish und Evolutionsbiologen verwendete. Gishs Argumente dauerten jeweils nur Sekunden, seine Widerlegungen hingegen Minuten. Angesichts des begrenzten Formats der Debatten bot dies einen klaren Vorteil.
Der Mechanismus des Gish-Galopps beruht vollständig auf der von Brandolini beschriebenen Asymmetrie: Wenn der Gegner nicht alle hundert Behauptungen widerlegt, erklärt der Galopper den Sieg über die verbleibenden.
Der Bumerang-Effekt und seine Neubewertung
Im Jahr 2010 veröffentlichten die Politikwissenschaftler Brendan Nyan und Jason Reifler eine Studie, die den sogenannten „Bumerang-Effekt“ dokumentierte: Die Widerlegung von Überzeugungen führte mitunter dazu, dass Menschen diese noch stärker verfestigten. Diese Ergebnisse fanden weite Verbreitung und führten zu der Annahme, dass die Korrektur von Fehlinformationen völlig sinnlos sei.
Neuere Forschungsergebnisse haben diese Schlussfolgerung jedoch infrage gestellt. Eine Metaanalyse von 52 Experimenten zur Veränderung politischer Überzeugungen durch Porter und Wood fand keine Hinweise auf einen systematischen Bumerang-Effekt. Eine 2022 in einer Fachzeitschrift veröffentlichte Studie zeigte, dass der beobachtete Effekt, wo er auftrat, größtenteils auf Messunsicherheiten und nicht auf einen robusten psychologischen Mechanismus zurückzuführen war.
Die Schwierigkeit der Widerlegung – die zentrale Aussage des Brandolini-Gesetzes – wird durch diese Daten jedoch nicht widerlegt. Faktenchecks verringern zwar den Glauben an falsche Behauptungen, der Prozess selbst ist aber deutlich aufwändiger als deren Erstellung.
Das Problem der Beweislast
Brandolinis Prinzip steht in engem Zusammenhang mit der ungleichen Verteilung der Beweislast. Im öffentlichen Diskurs geht derjenige, der eine Behauptung aufstellt, oft kein Risiko ein: Er kann sprechen, ohne seine Worte mit Quellen zu belegen. Sein Gegner hingegen ist verpflichtet, eine Beweiskette aufzubauen, Quellen zu überprüfen, Gegenargumente zu berücksichtigen und all dies dem Publikum überzeugend darzulegen.
Carl Sagans Aphorismus „Außergewöhnliche Behauptungen erfordern außergewöhnliche Beweise“ und Hitchens’ Rasiermesserprinzip „Was ohne Beweise behauptet wird, kann auch ohne Beweise zurückgewiesen werden“ stehen im direkten Gegensatz zu der impliziten Norm, die tatsächlich viele öffentliche Debatten regelt.
Empirische Belege für Asymmetrie
Die Geschwindigkeit der Verbreitung von Falschinformationen
Eine 2018 in Science veröffentlichte Studie von Washburn und Aral analysierte rund 126.000 Nachrichtenverbreitungsketten in der Mikroblogosphäre aus den Jahren 2006 bis 2017. Falschnachrichten verbreiteten sich schneller, weiter und umfassender als wahre Nachrichten, und dieser Vorteil zeigte sich in allen Themenbereichen. Falsche politische Nachrichten verbreiteten sich besonders schnell.
Die Studienautoren führten diesen Effekt auf Neuartigkeit zurück: Falschnachrichten enthalten oft unerwartete oder emotional aufgeladene Informationen, die Überraschung auslösen und zum Teilen anregen. Wahre Nachrichten hingegen sind im Durchschnitt „langweilig“ – sie fügen sich in ein bereits vertrautes Weltbild ein.
Die Wirksamkeit von Faktenchecks
Eine groß angelegte Studie, die zeitgleich in vier Ländern – Argentinien, Nigeria, Südafrika und dem Vereinigten Königreich – durchgeführt und 2021 in PNAS veröffentlicht wurde, ergab, dass Faktenchecks den Glauben an Falschmeldungen im Durchschnitt um 0,59 Punkte auf einer Fünf-Punkte-Skala reduzierten. Im Gegensatz dazu erhöhte die bloße Konfrontation mit Desinformation ohne Korrektur den Glauben daran lediglich um 0,07 Punkte.
Anders ausgedrückt: Eine einzelne Dosis Desinformation hat kaum Auswirkungen auf Überzeugungen, doch die kumulative Wirkung wiederholter Konfrontation ist, sofern keine systematische Korrektur erfolgt, erheblich. Hier zeigt sich die eigentliche Asymmetrie: Falsche Behauptungen können kontinuierlich und massenhaft verbreitet werden, während ihre Überprüfung ein seltener und kostspieliger Prozess bleibt.
Der Preis für professionelle Faktenprüfung
Eine Studie der Harvard Kennedy School Misinformation Review ergab, dass professionelle Faktenchecker (darunter Snopes, PolitiFact und andere angesehene Organisationen) deutlich mehr Zeit und Ressourcen für die Überprüfung einer einzelnen Behauptung aufwenden, als für deren Erstellung. Automatisierte Faktencheck-Systeme verringern diese Diskrepanz, beseitigen sie aber nicht: Bei komplexen, kontextbezogenen Behauptungen hinkt die maschinelle Analyse der menschlichen Überprüfung weiterhin hinterher.
Anwendungsbereich
Politische Kommunikation
In der Politik ist Brandolinis Gesetz besonders deutlich. Eine politische Behauptung – eine Anschuldigung, ein Verdacht, eine vereinfachte Interpretation eines komplexen Sachverhalts – kann in Sekundenschnelle aufgestellt und sofort in den Medien verbreitet werden. Ihre Überprüfung, selbst wenn sie zu einer Widerlegung führt, dauert Tage oder Wochen und erfordert die Konsultation von Experten, Dokumenten und Statistiken.
Wahlkampfdebatten sind ein Paradebeispiel. In einem Debattenformat mit strengen Zeitvorgaben erfordert jede falsche Behauptung eines Kandidaten eine prägnante, aber überzeugende Antwort des Gegners – und das ist angesichts der Häufigkeit solcher Behauptungen schlichtweg unmöglich.
Wissenschaftlicher Diskurs und Pseudowissenschaft
In der Wissenschaft erklärt Brandolinis Prinzip das Fortbestehen pseudowissenschaftlicher Konzepte. Impfgegnerische Narrative, die Theorie der flachen Erde, die Leugnung des Klimawandels – all diese Positionen beruhen auf einer Reihe einfacher Prämissen, deren Widerlegung detaillierte Erklärungen mit Verweisen auf wissenschaftliche Studien erfordert.
Der in der akademischen Welt herrschende Publikationsdruck spielt hier eine besondere Rolle: Forscher sind oft eher an spektakulären Ergebnissen interessiert als an der monotonen Arbeit, Fehler anderer zu widerlegen. Die Replikationskrise in der Psychologie und den Sozialwissenschaften ist teilweise darauf zurückzuführen, dass aufsehenerregende Ergebnisse schneller und bereitwilliger veröffentlicht werden als ihre sorgfältigen Korrekturen.
Medizinische Fehlinformationen
Der medizinische Bereich ist besonders anfällig für die von Brandolini beschriebene Asymmetrie. Die Behauptung, Impfungen verursachten Autismus, wurde 1998 in einer einzigen Veröffentlichung in The Lancet aufgestellt – einer Veröffentlichung, die später zurückgezogen und als betrügerisch eingestuft wurde. Der Beweis dieser Behauptung erforderte Dutzende von großen epidemiologischen Studien mit Millionen von Kindern und dauerte über zwei Jahrzehnte.
Die Folgen dieser Asymmetrie sind sinkende Impfquoten und Masernausbrüche in Regionen, in denen Impfgegner-Narrative besonders stark verankert sind.
Unternehmensumfeld und Management
Im organisatorischen Kontext beschreibt Brandolinis Prinzip ein Phänomen, mit dem viele Führungskräfte und Fachkräfte konfrontiert sind: Ein Gerücht, ein Missverständnis oder eine fehlerhafte Interpretation von Statistiken kann die Arbeit einer Abteilung lahmlegen oder ein ganzes Projekt gefährden. Die Widerlegung erfordert Zeit, formale Erklärungen und oft die Einberufung von Sondersitzungen.
Teams, die unter einer hohen Informationslast arbeiten, neigen besonders dazu, die Aussage „Wer zuerst kommt, mahlt zuerst“ als Arbeitshypothese zu akzeptieren: Es gibt einfach nicht die Ressourcen, um jede einzelne systematisch zu testen.
Gegenmaßnahmenstrategien
Vorbanking und die Theorie der Immunisierung
Der Cambridge-Forscher Sander van der Linden und seine Kollegen entwickelten das Konzept des „Prebunking“ – einer Art Vorimpfung gegen Desinformation, ähnlich einer medizinischen Impfung. Die Idee dahinter ist, dass Menschen durch die Konfrontation mit abgeschwächten Formen der in der Desinformation verwendeten Manipulationstechniken eine kognitive Widerstandsfähigkeit dagegen entwickeln.
Eine Studie zum Bad-News-Spiel, die in vier Ländern (Schweden, Deutschland, Polen und Griechenland) durchgeführt wurde, bestätigte, dass Teilnehmer, die ein Spielszenario spielten, in dem sie selbst Fälschungen „produzierten“, anschließend deutlich besser darin waren, manipulative Techniken zu erkennen und Desinformationen weniger wahrscheinlich vertrauten.
Im Gegensatz zur herkömmlichen Faktenprüfung greift die Vorabprüfung, bevor sich eine falsche Aussage festgesetzt hat, und erfordert daher weniger Aufwand pro geschützter Person.
Verlagerung der Beweislast
Eine Möglichkeit, diese Asymmetrie auszugleichen, besteht darin, die Beweislast dort abzulehnen, wo sie nicht hingehört. Wenn eine Behauptung nicht durch Beweise gestützt wird, bedarf sie formal keiner Widerlegung: Nach Hitchens’ Rasiermesser kann sie mit derselben Begründung zurückgewiesen werden, mit der sie vorgebracht wurde.
In der Praxis bedeutet dies, dass es effektiver ist, anstatt jede einzelne Desinformationsthese zu analysieren, die Frage zu stellen: „Worauf basiert diese Behauptung?“ und die Beweislast auf die Partei zu verlagern, die sie aufgestellt hat.
Medienkompetenz als systemische Antwort
Der von den Professoren Carl Bergstrom und Jevin West an der University of Washington entwickelte Kurs „Bullshit entlarven“ basiert direkt auf Brandolinis Prinzip. Im Kurs geht es weniger um Faktenprüfung als vielmehr um das Erkennen struktureller Anzeichen von Manipulation – in Statistiken, Datenvisualisierung, rhetorischen Techniken und der Quellenauswahl.
Ziel ist es nicht, Desinformation in jedem Einzelfall zu bekämpfen, sondern die allgemeine Anfälligkeit dafür zu verringern, indem die Nachfrage nach unbegründeten Behauptungen reduziert wird.
Automatisierte Faktenprüfung
Da die manuelle Faktenprüfung der Menge an Desinformation, die produziert wird, grundsätzlich nicht gewachsen ist, investieren Forschungseinrichtungen und Technologieunternehmen in automatisierte Verifizierungssysteme. Diese Systeme können Behauptungen in Echtzeit mit Datenbanken verifizierter Fakten vergleichen, bereits widerlegte Narrative identifizieren und Material kennzeichnen, das mit hoher Wahrscheinlichkeit falsch ist.
Die Einschränkung der Automatisierung besteht darin, dass sie gut mit faktisch ermittelten Aussagen funktioniert, schlecht jedoch mit Kontextmanipulationen, Halbwahrheiten und rhetorischen Verzerrungen, die formal keine falschen Tatsachen enthalten.
Kritikpunkte und Einschränkungen
Mangelnde strenge Überprüfung
Brandolinis Gesetz ist ein Aphorismus, keine formale wissenschaftliche Hypothese. Es enthält keine operationalen Definitionen von „Energie“ oder „Anstrengung“ und impliziert kein spezifisches Zahlenverhältnis. Die Formulierung „um eine Größenordnung größer“ ist eine qualitative Einschätzung, keine empirisch messbare Größe.
Eine Reihe von Forschern weist darauf hin, dass die spezifische Asymmetrie je nach Art der Behauptung stark variiert: Die Widerlegung eines mathematischen Fehlers kann so schnell erfolgen, wie er begangen wurde, wohingegen die Widerlegung einer historischen Fälschung umfangreiche Archivrecherchen erfordert.
Das Risiko übermäßiger Skepsis
Eine Studie, die in drei Ländern (den Vereinigten Staaten, Polen und Hongkong) durchgeführt und 2024 in der Harvard Kennedy School Misinformation Review veröffentlicht wurde, fand einen unerwarteten Nebeneffekt der aktiven Faktenprüfung: Menschen, die intensiven Korrekturmaßnahmen ausgesetzt waren, entwickelten eine gesteigerte Skepsis nicht nur gegenüber falschen Informationen, sondern auch gegenüber verlässlichen Informationen.
Dies bedeutet, dass eine aggressive Bekämpfung von Desinformation indirekt das Vertrauen in verifiziertes Wissen untergraben kann – ein Effekt, der seinerseits zu einem Wegbereiter für die weitere Verbreitung von Zweifeln wird.
Kontextuelle und kulturelle Unterschiede
Der Grad der im Gesetz beschriebenen Asymmetrie variiert je nach Medienumfeld, dem Vertrauen der Öffentlichkeit in Institutionen und den kulturellen Normen der öffentlichen Debatte. In Gesellschaften mit hoher Medienkompetenz und starken Institutionen zur Faktenprüfung sind die Kosten der Widerlegung geringer – nicht weil sie einfacher ist, sondern weil das Publikum besser darauf vorbereitet ist, sie zu akzeptieren.
Im Gegenteil, unter Bedingungen der Informationsfragmentierung, wenn verschiedene Bevölkerungsgruppen grundlegend unterschiedliche Medienströme konsumieren, steigen die Kosten der Widerlegung: Ein Publikum zu erreichen, das bereits an eine falsche Aussage glaubt, ist wesentlich schwieriger als ein neutrales Publikum zu erreichen.
Beziehung zu anderen Konzepten
Brandolinis Prinzip fügt sich organisch in eine Reihe verwandter Konzepte ein, die sich mit Informationsasymmetrie und kognitiven Verzerrungen befassen.
Potters Prinzip – die informelle Aussage, dass „die Wurzel einer Lüge schneller wächst als ihre Widerlegung“ – wurde unabhängig formuliert und beschreibt denselben Mechanismus, wenn er auf bürokratische und administrative Kontexte angewendet wird.
Die Gesetze der Gerüchteverbreitung , die bereits Mitte des 20. Jahrhunderts von Sozialpsychologen untersucht wurden (Allport und Postman, 1947), belegen die Tendenz von Gerüchten, sich bei der Weitergabe zu vereinfachen und zu verschärfen: Jede Nacherzählung verstärkt die lebhaften Details und lässt Nuancen verschwinden, wodurch das Gerücht immer weniger überprüfbar wird.
Die Theorie der Agnoiologie – eine philosophische Disziplin, die die Entstehung von Unwissen untersucht – analysiert die systemischen Mechanismen, durch die wirtschaftlich oder politisch motivierte Akteure gezielt Informationsunsicherheit erzeugen. Der Wissenschaftshistoriker Robert Proctor prägte für dieses Phänomen den Begriff Agnotologie; ein klassisches Beispiel sind die Kampagnen der Tabakindustrie, die Zweifel am Zusammenhang zwischen Rauchen und Lungenkrebs säen sollten.
Platz im akademischen Diskurs
Brandolinis Gesetz hat sich zu einem viel zitierten informellen Konzept in akademischen Texten entwickelt. Es wird in Studien zur Kognitionspsychologie, Medienkompetenz, politischen Kommunikation und Wissenschaftsethik erwähnt.
In ihrem Buch „Calling Bullshit: The Art of Skepticism in a Data-Driven World“ (2020) systematisierten die Biologen Carl Bergstrom und Jevin West verschiedene Formen der Informationsmanipulation und stützten sich dabei unter anderem auf das Prinzip der Asymmetrie. Diese Arbeit wandelte einen informellen Aphorismus in ein praktisches Werkzeug für die Pädagogik des kritischen Denkens um.
Der Blog des British Medical Journal (BMJ) veröffentlichte einen Essay mit dem Titel „Die unerträgliche Asymmetrie des Bullshits“, in dem das Prinzip auf die medizinische Wissenschaft angewendet wurde: Die Autoren zeigten, dass unfaire oder einfach nur nachlässige Studien den Medienraum besetzen, während ihre methodische Widerlegung das Gebiet einiger weniger undankbarer Gutachter bleibt.
Die Grenzen der Metapher der „Größenordnung“.
Brandolinis Prinzip wird oft in einer abgeschwächten Form zitiert: „viel schwieriger“. Diese Abschwächung spiegelt Zweifel einiger Wissenschaftler wider, ob die Asymmetrie in jedem Einzelfall tatsächlich das Zehnfache erreicht. Manche Forscher sprechen lieber von einer substanziellen, aber nicht von einer universell vielfachen Asymmetrie.
Gleichzeitig wird die allgemeine Idee – dass das Aufstellen unbegründeter Behauptungen strukturell günstiger ist als deren Überprüfung – durch eine recht breite Datenbasis aus verschiedenen Bereichen gestützt, von der Messung der Geschwindigkeit der Nachrichtenverbreitung bis hin zur Ökonomie der Faktenprüfung.
Adblock bitte ausschalten!
Sie können nicht kommentieren Warum?