„Wahrheit liegt allein im Auge des Betrachters“ – zumindest wird das hin und wieder von manchen Intellektuellen mit Genugtuung behauptet. Im alltäglichen Sprachgebrauch kann man das ohne intellektuelle Unredlichkeit auch näherungsweise so stehen lassen. Doch trotz solcher und ähnlich lautender halbphilosophischer Weisheiten dürfte den meisten Menschen intuitiv klar sein, dass es mit der Wahrheit weit mehr auf sich haben muss. In der Wissenschaft beispielsweise gibt es eindeutige und strenge Regeln und Methoden, nach denen beurteilt wird, wann eine Aussage als Wahr oder dazu analog ein hypothetischer Untersuchungsgegenstand als existent angenommen werden darf. Diese akribische Vorgehensweise zur Unterscheidung zwischen Wahr und Falsch, Existenz und Nichtexistenz hat sich in ihrem Charakter bislang überaus gut bewährt. Die überragenden methodischen, erkenntnistheoretischen und nicht zuletzt technischen Errungenschaften und Erfolge der Wissenschaften in der Geschichte der Menschheit dürften bis zum heutigen Tage keinen Zweifel an der Leistungsfähigkeit dieses Erkenntnisprozesses aufkommen lassen. Offenbar kann man mit dem passenden Handwerkszeug recht einwandfrei feststellen, wann Wahrheit und Existenz vorherrschen und wann nicht. Woraus genau sich die wissenschaftliche Erkenntnismethode im Detail zusammensetzt, wie sie funktioniert und warum sie überhaupt allgemeine Gültigkeit beanspruchen kann, bleibt aber oft unbeantwortet und unverstanden.
Exkurs 1: Die reine Leere
Wenn man den Begriff des „Nichts“ verwendet, bezeichnet man damit für gewöhnlich die Abwesenheit von einfach allem was in irgendeiner Form existiert. Damit lassen sich generell aber zwei verschiedene Zustände beschreiben. Ganz ähnlich wie mit dem Begriff des „Freien Willens“, der sich in einer wissenschaftlich-physikalischen Weise und einer unsinnigen metaphysischen Weise verwenden lässt. In physikalischer Hinsicht bezeichnet „Nichts“ ein vollständiges Vakuum, wie es näherungsweise im Raum des Weltalls fernab von Staubwolken, Strahlungsquellen und Himmelskörpern existiert. Im theoretischen Idealfall ist es ein leerer Raum, in dem weder Strahlung noch Teilchen (Fermionen& Eichbosonen), also keine Energie und keine Materievorhanden sind. Das metaphysische Nichts dagegen soll im Sinne vieler Philosophen und Theologenauf eine diffus unbestimmte Weise als „abstraktes Konzept“ noch weitreichender sein, auch wenn natürlich niemand erklären kann, was das bedeuten soll. Im Gegensatz zum „geistigen Nichts“ mancherlei „Denker“ kann man das Vakuum entweder im Weltraum selbst oder durch technische Erzeugung im Labor wissenschaftlich untersuchen. So kann man beispielsweise seine Leere messen und überprüfen, was diesen Zustand so besonders macht und welche Eigenschaften er besitzt. Besonders interessant ist für Wissenschaftler dabei zu erfahren, wie sich die Naturgesetze in diesem ungewöhnlichen Zustand verhalten und was sie dort bewirken. Bereits in den 1950er Jahren entdeckten russische und niederländische Physiker bei Vakuum-Experimenten ein verblüffendes Ereignis im leeren Raum, das erst Ende der 90er mehrfach quantitativ präzisiert wurde: den Casimir-Effekt.
Nähert man zwei elektrischleitfähige Metallplatten in einem starken Vakuum sehr dicht einander an (< 10 nm), so beginnen sie damit sich gegenseitig anzuziehen. Je geringer der Abstand zwischen den beiden Platten ist, desto stärker wird die Anziehungskraft, die zwischen ihnen wirkt. Dieser Anziehungsdruck kann bei sehr kleinen Abständen beträchtliche Ausmaße von mehreren Bar (oder atm = Atmosphärendruck) annehmen. Wie kann das sein, wo doch keinerlei elektrische oder magnetische Kräfte zwischen den Platten herrschen und der Versuchsraum völlig leer ist?
Dazu eine kleine Analogie: eine Flugzeugtragfläche erzeugt Auftrieb aufgrund ihrer speziellen Form. Während die Unterseite flach und glatt ist, weist die Oberseite eine Krümmung auf. Bekanntlich ist eine Kurve eine längere Wegstrecke zwischen zwei Punkten, als eine grade Linie, weshalb die Luftschichten, die über die geschwungene Oberseite strömen, auf der gleichen Strecke schneller fließen müssen, als die Luft auf der Unterseite, um gleichzeitig am Ende anzugelangen. (Die durchdrungenen Luftmoleküleändern ihre Position zu einander nicht). Dieser Geschwindigkeitsunterschied sorgt auf der Oberseite für einen Unterdruck und auf der Unterseite für einen Überdruck, sodass die Tragfläche nach oben gedrückt wird und ein Flugzeug somit Auftrieb erhält.
So etwas Ähnliches wie ein Druck besteht auch zwischen den beiden Metallplatten im Vakuum. Aufgrund der Heisenberg´schen Unbestimmtheitsrelation treten im an und für sich völlig leeren Raum ständig Vakuumfluktuationen auf. Dabei entstehen spontan energiereiche virtuelle Teilchen und zerfallen sofort wieder. Das passiert in jedem Vakuum, egal ob im Weltraum oder in physikalischen Laborexperimenten. Virtuelle Teilchenpaare bilden sich sowohl im Spalt zwischen den beiden Platten, als auch im gesamten leeren Raum außerhalb. Zwischen den beiden Metallplatten können sich aber nicht alle Arten von möglichen Teilchen bilden, sondern nur solche, deren Vielfache ihres Energiebetrags mit dem Abstand der Platten übereinstimmen (ein Zwang der Quantenmechanik). Im Spalt haben daher weniger virtuelle Teilchenpaare Platz, als im Raum drum herum. Im Zwischenraum besteht deshalb ein Quantenunterdruck, während außerhalb ein Quantenüberdruck herrscht. Je geringer der Abstand der Platten, desto weniger Teilchen „passen“ dazwischen und desto stärker der Quantendruck von Außerhalb. Damit ist der Casimir-Effekt gemeinsam mit noch anderen Experimenten wie der Vakuumpolarisation ein makroskopischer Beweis der mikroskopischen Quantenfluktuationen im völlig leeren Raum. Wenn von der physikalischen Welt nichts übrigbleibt und nichts mehr existiert, ist also trotzdem immer noch etwas da, nämlich die spontane Bildung von Teilchen-Antiteilchen-Paaren und die davon ausgehenden Kräfte. Oder anders gesagt: „Nichts“ gibt es nicht, denn es hat Inhalt.
Regeln und Prinzipien
Einige wissenschaftstheoretische Erkenntnisprinzipien haben in jüngerer Zeit stark an Popularität gewonnen und teilweise gar Kultstatus in Form sogenannter „Memes“ im Internet erlangt. Als klassisches Beispiel dafür sei Ockhams Rasiermesser genannt. Aber auch andere Regeln wie das Korrespondenzprinzip von Karl Popper oder eine elegante Passage aus Christopher Hitchens Bestseller „God is not Great“ (2007), mittlerweile als „Hitchens Razor“ bezeichnet, weisen eine beachtliche Bekanntheit auf. Das mag nicht zuletzt daran liegen, dass all diese Prinzipien auch im Alltag von Bedeutung sind und meistens stillschweigend und intuitiv auch auf private und geschäftliche Fragestellungen des Lebens angewandt werden. Auch würde beispielsweise niemand generell in Abrede stellen, dass die „Burden of Proof“ (Beweislast) stets bei demjenigen liegt, der eine Behauptung aufstellt – und nicht umgekehrt. Das allgemeine taktische Vorgehen zur Untersuchung von Behauptungen und Objekten aller Art auf Wahrheit, beziehungsweise Existenz ist dagegen wenig populär und außerhalb (natur-)wissenschaftlicherTätigkeitsbereiche weitgehend unbekannt. Das ist insofern besonders Schade, weil sich dieses Erkenntnisschema in vereinfachter Form universell anwenden lässt, egal ob es bei dem untersuchten Aspekt um einen Gegenstand aus den Natur- oder Sozialwissenschaften, der Philosophie, Theologie oder eine banale Alltagsfragestellung handelt.
In den Naturwissenschaften, insbesondere der Physik, Chemieund Biologie ist es gang und gäbe, dass Hypothesen, also Vermutungen darüber, wie ein bestimmter Mechanismus qualitativ und quantitativ funktioniert, nach einer anfänglichen Bobachtung zunächst in aller Regel als Gleichungen formalisiert und mathematisch festgehalten werden. Dieser Formalismus wird danach (idealerweise durch Kollegen oder Mitarbeiter) gründlich auf Fehler- und Widerspruchsfreiheit überprüft, denn selbstverständlich kann auch eine falsche Gleichung im praktischen Einsatz vielfältige, vielleicht sogar plausible Ergebnisse liefern, die dann im Endeffekt aber doch nicht zu den realen Beobachtungen und Experimenten passen und deshalb wissenschaftlich wertlos ist. Hat man erst einmal eine einwandfreie mathematische Beschreibung für ein Geschehen entwickelt, müssen die einzelnen Vorhersagen dieses Modells mühsam mit den empirischen Beobachtungen und experimentellen Daten verglichen werden. Stellt sich dabei heraus, dass die errechneten Ergebnisse in jeder Hinsicht sehr gut und wiederholt mit den praktischen Werten übereinstimmen, gilt die Hypothese nach einer Weile als verifiziert. An dem Punkt wird aus einer unbewiesenen Behauptung (der Hypothese) ein abgesicherter Wirkmechanismus (eine wissenschaftliche Theorie), der so lange Gültigkeit besitzt und für wahr betrachtet wird, bis durch Beobachtung und Experiment eine neue Datenlage eintritt, die entweder eine Anpassung nahelegt oder der Theorie komplett widerspricht und einen neuen Erklärungsmechanismus erforderlich macht. Dann geht das Spiel wieder von vorne los.
Grundschema
Dieses jedem Wissenschaftler bekannte Vorgehen lässt sich nun verallgemeinern, damit die oben skizzierte Methode universell und vor allem ohne große Mühe auf wirklich alle Rätsel und Fragen des Lebens, des Universums und alles drum herum anwendbar ist. Man kann die Methodik besonders einfach in einem „erkenntnistheoretischen Stammbaum“ darstellen. Da die Erklärung hier jedoch in einem prosaischen Fließtext erfolgt, wird die Sache etwas unanschaulicher. Im Folgenden wird das Schema nun in drei Schritten dargestellt:
Schritt 0. Begriffsdefinition: Zuallererst definiere ich meinen hypothetischen Untersuchungsgegenstand und behaupte einfach axiomatisch, er
würde existieren. Wir nennen ihn hier Entität
E, wobei mit dem Sammelbegriff Entität sowohl Aussagen, als auch Dinge aller Art und Vorstellung gemeint sind.
Philosophisch sind Gegenstände und Aussagen nämlich ein und dasselbe, weil sich eine Aussage immer auf einen Gegenstand beziehen muss. Auch lebendige Personen sind im wissenstheoretischen Sinne
Gegenstände und als solche Entitäten. Aus diesem Grund sind Existenz und Wahrheit zwei
gleichbedeutende Begriffe. Um keine Verwirrung zu stiften, benutze ich nur noch die Begriffe Existenz und Entität und verzichte in Folge auf alle
Synonyme.
Axiom: „Eine Entität E
existiert.“
Definition: „E hat die Eigenschaften A1, A2,
A3, …, An.”
Die Eigenschaften A1, A2, A3, …, An bezeichnet man auch als konstituierende Eigenschaften, weil die beschriebene Entität durch
diese Eigenschaften charakterisiert wird und ohne sie nicht denkbar ist. Dass eine Entität gar keine konstituierende Eigenschaft besitzt, ist übrigens unmöglich. Denn selbst die Abwesenheit von
allen Eigenschaften ist selbst eine Eigenschaft, nämlich Eigenschaftslosigkeit. Ansonsten kann es sich bei Eigenschaften um jede X-beliebige Art von Information handeln. Die erlaubte Anzahl solcher definierenden Eigenschaften pro Entität ist prinzipiell
beliebig groß und wächst mit unserem Wissen über die Welt. Je mehr wissenschaftlich gesicherte Erkenntnisse wir über eine Entität besitzen, desto mehr Eigenschaften können wir ihr zuverlässig
zuordnen, ohne etwas frei erfinden zu müssen. Man nennt konstituierender Eigenschaften, die nicht einfach erfunden werden müssen, sondern gemäß empirischer Erfahrung nachweislich vorliegen
auch Weltwissen.
Schritt 1. Analytische Untersuchung durch Anwendung formaler Logik:
Im obigen Musterbeispiel zur
wissenschaftlichen Überprüfung einer Hypothese spielt die Mathematik in Form von Gleichungen und komplexen Berechnungen eine entscheidende Rolle. Das ist hier im einfach formalisierten Verfahren
nicht grundsätzlich anders, aber weitaus weniger kompliziert. Mathematik ist ihrerseits letztendlich nichts anderes als ein Netzwerk basierend auf elementaren Logikoperationen, wie sie zum Beispiel jeder elektronische Computer (aber auch jedes chemo-elektrische Gehirn) für all seine Berechnungen durchführt. Für die
analytische Untersuchung unserer Entität benötigen wir keine Berechnungen, sondern nur die Fähigkeit zu erkennen, ob sich ihre konstituierenden Eigenschaften in Schritt 0 gegenseitig
widersprechen, oder nicht. (In dem Sinne wendet man hier also eine UND-Operation an). Das ist für meisten Entitäten leicht im Kopf möglich, bei sehr vielen und komplizierten Eigenschaften
bietet es sich an, einen Computer zu Hilfe zu nehmen.
So ergeben sich in Schritt 1 des „Existenztests“ an diesem Punkt je nach Ergebnis zwei Möglichkeiten bzw. „Erkenntnispfade“:
Pfad A: Eine oder mehrere konstituierende Eigenschaften von E widersprechen sich selbst oder einander. In anderen Worten: Die Entität ist logisch inkonsistent.
Pfad B: Alle Eigenschaften bleiben selbstbezüglich und untereinander widerspruchsfrei. In anderen Worten: Die Entität ist logisch konsistent. Folgen wir an dieser Stelle dem kürzeren Pfad A weil unsere Entität das Kriterium der logischen Konsistenz verletzt, können wir auf Schritt 2, den Empirismus (siehe weiter unten), gänzlich verzichten. Denn eine Entität E, deren konstituierende Eigenschaften sich widersprechen und die deshalb logisch inkonsistent ist, kann nicht existieren und zwar logisch-mathematisch nicht und real-physikalisch erst recht nicht. Dass etwas, das prinzipiell gar nicht existieren kann auch tatsächlich nirgendwo verwirklicht und vorhanden ist, das dürfte jedem Menschen ganz intuitiv klar sein. Abseits dieser intuitiven Klarheit gibt es dafür aber noch eine zwingende naturphilosophische Erklärung, nämlich den schon in einem anderen Eassay erwähnten Gödelschen Unvollständigkeitssatz. Wenn wir alle Eigenschaften A nun überprüfen und feststellen, dass mindestens eine davon die logische Konsistenz von E verletzt, führt das dazu, dass die Existenz von E logisch unmöglich wird. Der Gödelsche Unvollständigkeitssatz gelangt in diesem Fall dann zu Fazit 1, nämlich dass die eingangs formulierte Hypothese „E existiert“, analytisch falsch ist und dieser Fehler formal als solcher identifiziert werden kann. Oder in einfacheren Worten formuliert: immer dann, wenn eine Entität logisch inkonsistent ist, kann man auch formal beweisen, dass ihre real-physikalische Existenz unmöglich ist. Deshalb ist es völlig überflüssig empirisch nach etwas Ausschau zu halten, dass unmöglich da sein kann. (Eine extrem einfache Erkenntnis, die für jeden klar sein dürfte, aber wie gesagt gibt es dank Kurt Gödel auch einen ultimativen Beweis dafür, warum das so ist).
Folgen wir nun aber dem längeren Pfad B weil unsere Entität logisch absolut widerspruchsfrei und damit logisch möglich ist, liefert uns der Unvollständigkeitssatz sein gegensätzliches Fazit Nr.2, das uns später zu Schritt 2 nötigen wird. Wenn wir alle Eigenschaften A überprüfen und dabei feststellen, dass keine davon die logische Konsistenz von E verletzt, folgt daraus, dass die Existenz von E logisch möglich ist. Für diesen Fall besagt der Unvollständigkeitssatz, dass die eingangs formulierte Hypothese „E existiert“ analytisch richtig ist, aber die Existenz von E formal trotzdem nicht bewiesen werden kann. In einfachen Worten: immer dann, wenn eine Entität logisch konsistent ist, kann man formal nicht beweisen, ob sie auch tatsächlich real-physikalisch existiert. Deshalb kann man auf logisch-mathematischem Wege allein nur ermitteln, ob eine Entität E möglicherweise existieren könnte, nicht aber, ob es sie tatsächlich irgendwo gibt.
Fassen wir also zusammen:
Schritt 2. Empirische Untersuchung durch Beobachtung und Experiment: Zwischen Existenz und Nichtexistenz von logisch möglichen Entitäten muss also empirisch entschieden werden. An diesem Punkt kommt die übliche praktische Methodik mittels Beobachtung, Experiment und Simulation ins Spiel, sowie die Anwendung der oben aufgezählten wissenstheoretischen Prinzipien. Allgemein gilt hier stets, dass die Anzahl möglicherweise existierender Entitäten die Zahl der real verwirklichten Entitäten um gigantische Größenordnungen übersteigt. In der Einleitung seines Werkes „Der entzauberte Regenbogen“ (1998) veranschaulicht Richard Dawkins diesen Sachverhalt exemplarisch anhand des kombinatorischen Sequenzraumes genetischer Merkmale. Die Anzahl theoretisch möglicher, genetisch verschiedener Menschen übersteigt die Zahl der Personen, die real existieren und je existiert haben um einen nahezu unermesslich großen Faktor. Rein statistisch ist es erheblich wahrscheinlicher, dass eine x-beliebige logisch mögliche Entität eher nicht existiert, als umgekehrt. Sicher sein kann man sich diesbezüglich auf empirischem Wege aber leider nie, weshalb näherungsweise gilt, dass die Nichtexistenz logisch konsistenter Entitäten empirisch nicht beweisbar ist. Dahingegen ist ein empirischer Existenzbeweis vergleichsweise simpel, denn etwas, das zweifelsfrei und wiederholbar beobachtet und experimentell dargestellt werden kann, ist auch tatsächlich da. In einem Eintrag von „Man glaubt es nicht“ wird dies mit folgenden Worten treffend zusammengefasst:
„Nichtexistenz empirisch zu beweisen ist sehr viel schwieriger als ein Beweis der Existenz – um schon die Nichtexistenz einer Bohnenkonserve in meinem Haus zu beweisen, müsste ich alle zumindest dosengroßen Verstecke gleichzeitig unter die Lupe nehmen und jeweils Dosenfreiheit zeigen. Zu einem erfolgreichen Existenzbeweis müsste ich lediglich eine Konservendose auf den Tisch stellen – fertig!“
Aus diesem letztendlich nur statistischen Grunde formulierte der berühmte Philosoph Karl R. Popper Mitte des 20. Jahrhunderts die Strategie des Fallibilismus, die die Grundlage der erfolgreichen naturalistischenPhilosophie des kritischen Rationalismus darstellt.
Exkurs 2: Eine Frage der Logik
Und was hat das
ganze jetzt mit dem Anfangs erläuterten Casimir-Effekt oder dem Vakuum zu tun? Das obige System zeigt zwei Dinge, nämlich 1., dass es auf allein analytischem
Wege – z.B. durch mathematische Formalisierungen, Computerberechnungen oder logisches Denken mit dem eigenen Gehirn – möglich, ist real-physikalische Nichtexistenz von logisch inkonsistenten
Entitäten eindeutig zu beweisen. Und 2., dass es auf analytischem Wege nicht möglich ist, zwischen real-physikalischer Existenz und
Nichtexistenz von logisch möglichen Entitäten zu unterscheiden, weswegen man
sich dafür auf den Empirismus verlassen muss. Ein verschlagener Kritiker, dem die Implikationen dieses Erkenntnisprozesses für sein (supernaturalistisches) Weltbild nicht gefallen, könnte nun
ein interessantes Gegenargument ins Feld führen. Die oben skizzierte Methode in Schritt 1 funktioniert nämlich nur dann, wenn Logik auch definitiv existiert und funktioniert. Ihre Existenz und
Gültigkeit haben wir aber wortlos willkürlich vorausgesetzt. Da wir eingangs nicht gezeigt haben, wie sich Logik aus allgemeineren Prinzipien herleitet, könnte der Kritiker anmerken, dass es
durch analytische Untersuchungen vielleicht gar nicht möglich sei, Erkenntnisse über die Welt zu erlangen und eine Einteilung von Entitäten in logisch konsistent und inkonsistent nicht richtig
sei. Als einfachen Konter könnte man dem Kritiker nun vorhalten, dass sich Information aller Art zweifelsfrei auf binäre Weise mittels grundlegender Logikoperationen verarbeiten lässt, denn genau
das ist es, was Rechenmaschinen aller Art so tun – egal ob es sich dabei um elektronische, biologische oder quantenmechanische Computer handelt. Einfach gesagt: Mathematik und Computer
funktionieren genauso, wie wir es aufgrund unserer Vorstellung von Logik erwarten, deshalb muss diese Vorstellung richtig sein – eine Herleitung kann man sich schenken. Das ist ein rein
empirisches Argument. Der Vollständigkeit halber soll dennoch kurz theoretisch
begründet werden, woher die Welt dieses tolle Erkenntniswerkzeug hernimmt. Die Frage nach der Herkunft der Logik im Universum ist im Kern nichts anderes, als die abgespeckte Frage danach, woher
die (natürlichen) Zahlen kommen. Sind sie physikalisch real? Oder stammen Zahlen aus einem metaphysischen „Ideenhimmel“? Viele Mathematiker und Philosophen haben sich Anfang des 20. Jahrhunderts darüber den Kopf zerbrochen, bis Mitte des letzten Jahrhunderts der
ungarisch-amerikanische Mathematiker und (neben Alan Turing) „Vater der
Informatik“ John von Neumann ein einfaches mengentheoretisches Modell
für Zahlen entwarf.
Mit dem Modell kann man leicht verständlich zeigen, dass sich jede abstrakte Ziffer von 0 bis n durch eine Menge, also irgendeine real-physikalische Entität repräsentieren lässt. Eine klare
Absage an alle metaphysischen Erklärungsversuche. Ob die Anzahl natürlicher Zahlen begrenzt ist, oder ob es unendlich viele davon gibt, verrät das Modell nicht. Aber das ist egal, denn damit es Logik gibt, reicht schon die Existenz von zwei natürlichen Zahlen als abstrakte
Repräsentanten zweier unterschiedlicher Zustände wie zum Beispiel Kopf oder Zahl, 0 oder 1, unten oder oben, grün oder rot, an oder aus. Die formale Darstellung der Herleitung sieht so
aus:
0 = : { }
1 = : 0´ = { 0 } = { { } }
Die Zahl Null wird repräsentiert durch die leere Menge. Als real-physikalisches Äquivalent eignet sich dazu ein Zustand des physikalischen Nichts, nämlich das eingangs erwähnte Vakuum.
Die Zahl Eins wird repräsentiert durch die leere Menge, die sich selbst als Element enthält und so von ihrem Vorgänger Null unterschieden werden kann. Als real-physikalisches Äquivalent eignet sich dazu ein Zustand des Nichts, in dem trotzdem noch etwas Messbares passiert. Oder, um den oben benutzten Ausdruck noch einmal zu benutzen: ein „Nichts mit Inhalt“.
Heutzutage wissen wir, dass es einen solchen (absurden?) physikalischen Zustand wirklich gibt und dass darum die abstrakte Logik und die natürlichen Zahlen, sowie ihre mengentheoretischen Herleitungen einen echten Bezug zur erlebbaren Realität haben und nicht aus einer „Metawelt“ stammen. Mathematik ist deshalb auch keine Geisteswissenschaft, wie manchmal behauptet wird, sondern eine Naturwissenschaft, in deren philosophischem Gepäck die wissenschaftliche Methode lauert – sehr zum Verdruss aller supernaturalistischen Traumtänzer.
“When in worry and doubt, work it out!” –Seth Lloyd
(erster) Gastbeitrag: Jan M. Kurz