Die Grundidee beim No-Mircale Argument [kurz: NMA] lässt sich so zusammenfassen:
In den Prämissen eines No-Miracles Arguments wird irgendwo auf bestimmte Eigenschaften oder Leistungen von einer wissenschaftlichen Theorie oder mehreren wissenschaftlichen Theorien[1] Bezug genommen, die in einer ersten Annäherung als "empirischer Erfolg" bezeichnet werden können. Dabei kann eine wissenschaftliche Theorie beispielsweise dann als empirisch erfolgreich gelten, wenn sie erfolgreich einen Phänomentyp prognostiziert, der während der Konstruktion der Theorie nicht bekannt oder nicht gebraucht wurden war. (Alai (2014)).
In der Konklusion eines No-Miracle Arguments wird dann auf die Wahrheit des wissenschaftlichen Realismus in Bezug auf diese empirisch erfolgreiche Theorie oder empirisch erfolgreichen Theorien geschlossen. Dabei besagt der "klassische" Theorienrealismus grob, dass reife wissenschaftliche Theorien in einem wörtlichen Sinne wahr sind und demnach die von ihnen beschriebenen Zusammenhänge und postulierten theoretischen Entitäten in einer geistesunabhängigen Weise existieren.
Das No-Miracle Argument besteht, im Kern, also in einer Inferenz von Erfolg auf Wahrheit. Viele Autoren bringen das NMA in die Form eines Schlusses auf die beste Erklärung [kurz: SdbE][2] (z.B. Psillos (2009), S. 49ff.). Das NMA besagt dann, dass der wissenschaftliche Realismus eine gute und die beste Erklärung für den empirischen Erfolg der Wissenschaften und deshalb wahr ist. Dabei kann das NMA als SdbE – wie jedes Argument – in zweierlei Hinsicht beurteilt werden:
(1) inhaltlich: Sind alle Prämissen des Argumentes wahr? Das heißt in unserem Fall: Ist der wissenschaftliche Realismus tatsächlich eine gute und die beste Erklärung für den Erfolg der Wissenschaften?
(2) formal: Wenn die Prämissen des Argumentes wahr sind, ist es deshalb rational, die Konklusion für wahr zu halten? Das heißt in unserem Fall: Wenn der wissenschaftliche Realismus tatsächlich eine gute und die beste Erklärung für den Erfolg der Wissenschaften ist, ist es deshalb rational, an die Wahrheit des wissenschaftlichen Realismus zu glauben?
Das NMA als SdbE ist Hauptgegenstand der vorliegenden Arbeit. Meine Leitfrage lautet: Ist das NMA als SdbE ein gutes Argument? Diese Frage ist auch deshalb interessant, weil, wenn sie bejaht werden kann, es rational ist, anzunehmen, dass reife wissenschaftliche Theorien uns einen epistemischen Zugang zu einer Welt jenseits des direkt Beobachtbaren erschließen. Dabei gehe ich davon aus, dass ein Argument gut ist, genau dann wenn es zeigt, dass es rational ist, seine Konklusion für wahr zu halten. Das wiederum ist der Fall, wenn die beiden obenstehenden Fragen für das betreffende Argument bejaht werden können. Meine Leitfrage zerfällt also in die Teilfragen (1) und (2). Der Teilfrage (1) wird in Abschnitt 3 nachgegangen und letztendlich bejaht: Der wissenschaftliche Realismus ist in einem relevanten (nämlich metaphysischen) Sinne tatsächlich eine gute und die beste Erklärung für den Erfolg der Wissenschaften. Es ist aber – und so wird meine Antwort auf die Teilfrage (2) ausfallen – nach dem derzeitigen Stand der Fachdebatte nicht objektiv entscheidbar, ob es rational ist, darauf aufbauend auf die Wahrheit des wissenschaftlichen Realismus zu schließen. Zwar werde ich eine Strategie zur Verteidigung der Rationalität von SdbE entwickeln, diese wird man aber nur dann überzeugend finden, wenn man SdbE sowieso bereits zugeneigt ist. Es folgt, dass derzeit eine Pattsituation zwischen Befürwortern und Kritikern von SdbE herrscht, die nicht durch Argumente, die beide Seiten akzeptieren würden, aufgelöst werden kann.
Die vorliegende Arbeit ist schließlich wie folgt gegliedert: Der Abschnitt 1 beginnt mit einer Einführung in die Grundlagen von Schlüssen auf die beste Erklärung. Diese ist notwendig, um den darauffolgenden Argumenten und Diskussionen folgen zu können. Abschnitt 1.1. geht auf die grundlegenden Probleme mit SdbE ein, wobei eine Unterscheidung zwischen einem Verlässlichkeitsproblem und einem Verfügbarkeitsproblem eingeführt wird. In Abschnitt 1.2. wird eine externalistische Verteidigungsstrategie gegen diese beiden Probleme vorgestellt. Der Abschnitt 1 bildet den ersten Teil meiner Hausarbeit. In ihm entwickele und begründe ich meine obenstehende Antwort auf die Teilfrage (2). Die Teilfrage (1) wird im darauffolgenden Abschnitt 2 behandelt. Ich werde darin vorschlagen, dass sich Vertreter des NMA als ein SdbE auf einen bestimmten metaphysischen Erklärungsbegriff berufen sollten und der wissenschaftliche Realismus in diesem Sinne tatsächlich eine gute und die beste Erklärung für den Erfolg der Wissenschaften darstellt.
Der Begriff "Schluss auf die beste Erklärung" wurde durch Gilbert Harmann in die moderne Fachdebatte eingeführt und wie folgt erläutert:
“In making this inference one infers, from the fact that a certain hypothesis would explain the evidence, to the truth of that hypothesis. In general, there will be several hypotheses which might
explain the evidence, so one must be able to reject all such alternative hypotheses before one is warranted in making the inference. Thus one infers, from the premise that a given hypothesis
would provide a “better” explanation for the evidence than would any other hypothesis, to the conclusion that the given hypothesis is true.”
- Gilbert Harman: The Inference to the Best Explanation. In: The Philosophical Review 74. 1965, S. 89
Das Schlusschema IFS1 eines SdbE lässt sich Harman folgend also so rekonstruieren:
P1. P ist ein erklärungsbedürftiges, empirisches Phänomen.
P2. Das gegebene epistemische Hintergrundsystem S impliziert: Die Hypothese H1 erklärt P besser als alle anderen verfügbaren Hypothesen H2, … Hn.
C1. Also: H1 ist wahr.
Daran kann und sollte kritisiert werden, dass H1 nicht nur die relativ beste, sondern auch eine gute Erklärung für P sein muss, wenn der Schluss auf die beste Erklärung eine rationale Schlussform sein soll. Es lässt sich indes leicht ein an Alan Musgrave (Musgrave (1988), S. 238 - 239) angelehntes Inferenzschema IFS2 konstruieren, das diesen Kritikpunkt umgeht:[2]
P1. P ist ein erklärungsbedürftiges, empirisches Phänomen.
P2. Die Hypothese H1 erklärt P innerhalb des epistemischen Systems S.
P3. Die Hypothese H1 erklärt P zufriedenstellend in S.
P4. Keine andere, verfügbare Hypothese H2, … Hn erklärt P in S so gut wie H1. C1. Also: H1 ist wahr.
Angenommen also wir wollen das NMA als ein SdbE rekonstruieren. Dann können wir es durch Ersetzen der Variable P durch "Erfolg der Wissenschaft", H1 durch "Wissenschaftlicher Realismus" und H2, … Hn durch diverse alternative Explanatia als eine Instanziierung des Inferenzschemas IFS2 auffassen. Es besagt dann, grob gesagt, dass der wissenschaftliche Realismus eine absolut zufriedenstellende und die relativ beste Erklärung für den Erfolg der Wissenschaften und deshalb wahr ist.
Um einen solchen Schluss auf die Wahrheit eines absolut guten und relativ besten Explanans vornehmen zu können, brauchen wir offensichtlich einen Maßstab für die Güte einer Erklärung. Es ist wohlmöglich intuitiv naheliegend, dass die beste Erklärung einfach die zutreffende Erklärung für ein Phänomen ist. Wenn wir aber den Ausdruck "die beste Erklärung" lediglich als "die zutreffende Erklärung" interpretieren, verliert der SdbE seine normative und entscheidungsleitende Funktion. Denn ein SdbE soll ja gerade als ein Instrument dienen, um herauszufinden, welche Hypothese wahrscheinlich zutrifft.
Eine zweite Intuition könnte sein, dass sich die Güte einer Erklärung an dem Wahrscheinlichkeitsgrad ihrer Wahrheit bemisst. Dagegen sprechen aber mindestens zwei Punkte:
1. Wenn wir bereits wissen, dass H1 die wahrscheinlichste Erklärung für P ist, dann ist SdbE gar kein relevantes Schlussprinzip mehr. Denn natürlich sollten wir gemeinhin auf die Wahrheit der wahrscheinlichsten Erklärung schließen!
2. Wenn die wahrscheinlichste Erklärung nicht ausgemacht werden kann, kann SdbE trotzdem ein interessantes Schlussprinzip sein (siehe das Beispiel in Fußnote [3]).
Peter Lipton hat deshalb vorgeschlagen, SdbE als den Schluss auf diejenige Erklärung zu sehen, die im größten Maße unser Verständnis des Phänomens P fördert (Lipton (1991), insb. Kapitel 4). Lipton spricht deshalb auch von "inference to the loveliest explanation" statt "inference to the likeliest explanation". Die "Loveliness" oder Güte einer Erklärung kann dabei anhand von explanatorischen Werten wie beispielsweise den folgenden ausgemacht werden:
a. Umfang: Bessere Erklärungen erklären mehr Phänomene.
b. Präzision: Bessere Erklärungen erklären Phänomene genauer.
c. Kausaler Informationsgehalt: Bessere Erklärungen liefern mehr Informationen über die kausalen Mechanismen, die einem Phänomen zugrunde liegen.
d. Vereinheitlichung: Bessere Erklärungen fassen mehr einzelne (scheinbar disparate) Phänomene in ein einheitliches Prinzip zusammen.
e. Einfachheit: Bessere Erklärungen bieten ein einfacheres Wirklichkeitsbild.
Daraus folgen wichtige Erkenntnisse für den wissenschaftlichen Realisten. Wenn er NMA als SdbE auffassen möchten, dann muss er erstens zeigen, inwiefern seine Erklärung das Verständnis für den empirischen Erfolg der Wissenschaften fördert (Begründung Prämisse P2 in IFS2). Er muss zweitens zeigen, dass seine Erklärung für den empirischen Erfolg der Wissenschaften im oben beschriebenen Sinne „lovely“ ist (Begründung Prämisse P3 in IFS2). Und drittens, dass seine Erklärung die „lovelist“ unter allen verfügbaren ist (Begründung Prämisse P4 in IFS2). Kann ihm all das gelingen? Die Antwort hängt, wie in Abschnitt 3. erläutert, entscheidend von Annahmen über die Natur des Erklärens ab.
Doch selbst wenn der Realist all das gezeigt hat, impliziert dies noch nicht, dass das Argument ein gutes Argument ist. Er muss auch zeigen, dass der SdbE eine rationale Schlussform ist. Ich möchte innerhalb der Debatte um die Rationalität von SdbE gerne zwischen zwei Grundproblemen unterscheiden. Die beiden Probleme stellen sich jedem Vertreter des NMA, welcher das Argument als ein SdbE auffassen möchte:
1. Verlässlichkeitsproblem: Ein Schluss auf die beste Erklärung ist nur dann rational, wenn er verlässlich ist, das heißt wenn in hinreichend vielen Fällen von wahren Prämissen zu einer wahren Konklusion führt. Ein Verlässlichkeitsproblem besteht insofern, als sich in der kontemporären Literatur nach meiner Einschätzung gute Argumente gegen und keine vergleichbar guten Argumente für die Verlässlichkeit von SdbE finden, die nicht selbst wiederum auf SdbE beruhen.
2. Verfügbarkeitsproblem: Ein Schluss auf die beste Erklärung kann in der Praxis nur dann vollzogen werden, wenn uns die beste Erklärung auch tatsächlich zur Verfügung steht. Das heißt, selbst wenn das Verlässlichkeitsproblem gelöst ist, kann es immer noch sein, dass die relativ beste zur Verfügung stehende Erklärung meistens eine absolut schlechte Erklärung ist und wir deshalb meistens keinen SdbE vollziehen können.
Diese Probleme werden im Folgenden anhand von bekannten Argumenten aus der Literatur motiviert. In Abschnitt 2.3. wird eine Verteidigungsstrategie gegen beide Probleme entwickelt, es werden aber auch die Grenzen dieser Strategie aufgezeigt.
Es dürfte klar sein, dass es sich beim NMA als SdbE nicht um ein deduktives Argument handelt. Das heißt, selbst wenn alle Prämissen eines NMA de facto wahr sind, erzwingt das nicht die Wahrheit des wissenschaftlichen Realismus. Für den Realisten ist dies einerseits sehr ernüchternd, da er so die Wahrheit seiner Position niemals „beweisen“ können wird. Andererseits ist genau das für den Realisten aber auch vom großen Vorteil. Denn das NMA wird offenbar nicht dadurch unbrauchbar, wenn das erschlossene Explanans einmal nicht korrekt ist. Es reicht aus, wenn SdbE in diesem Sinne verlässlich sind:
Verlässlichkeitsthese: Wenn eine Hypothese H eine gute und die beste Erklärung für ein gegebenes Phänomen P ist, dann ist H in hinreichend vielen Fällen bzw. mit einer hinreichend hohen Wahrscheinlichkeit auch wahr.
Die Verlässlichkeitsthese (VT) behauptet somit einen positiven Zusammenhang zwischen der Güte einer Erklärung und der Wahrscheinlichkeit ihrer Wahrheit. Anders formuliert bedeutet "die beste Erklärung" also weder, wie bereits dargelegt, "die zutreffende Erklärung" noch "die wahrscheinlichste Erklärung", und trotzdem zielt der Schluss auf die beste Erklärung via Wahrscheinlichkeit auf die Wahrheit ab.
Am Anfang von Voltaires Einwand steht die Feststellung, dass wenn VT wahr wäre, die Erklärung, die am besten wäre, wenn sie wahr wäre, auch die Erklärung sein muss, die am wahrscheinlichsten wahr ist. Der eigentliche Einwand besteht dann in der Behauptung, dass wir epistemisch ungerechtfertigt sind zu glauben, dass wir in einer Welt leben, in der dies der Fall ist. Denn selbst wenn "Güte" eine objektive Eigenschaft von Erklärungen ist, wieso sollten wir davon ausgehen, dass die Güte und die Wahrheitswahrscheinlichkeit einer Erklärung eben just in unserer aktualen Welt korreliert sind?
Dieser Einwand wurde von Peter Lipton hervorgebracht (Lipton (1991), S. 142ff.).
Lipton versucht gar nicht erst ihn zu entkräften, sondern führt ihn auf das Induktionsproblem zurück. Seine Auffassung lautet also, dass es schon ein Problem mit der Rechtfertigung von VT gibt. Dieses Problem sei aber kein „zusätzliches“ Problem, sondern nur das Problem, das sich bei der Rechtfertigung der Verlässlichkeit von allen nicht-demonstrativen Schlussformen stellt. Leider sagt Lipton sehr wenig zum eigentlichen Verlässlichkeitsproblem als ein Spezialfall des Induktionsproblems. Es scheint mir indes naheliegend - wenn auch nur teilweise überzeugend[4] - das Verlässlichkeitsproblem so zu analysieren (analog zur Humeschen Analyse des Induktionsproblems für „klassische“ enumerative Induktionsschlüsse): Gegeben ist eine beliebige Menge an explanatorischen Werten e1, e2, … en, anhand derer die Güte von Erklärungen in w1 ausgemacht werden soll. Dann ist ein Schluss von der besten Erklärung in w1 im Sinne der Werte e1, e2, … en auf die Wahrheit dieser Erklärung nur dann verlässlich, wenn die folgende Annahme wahr ist: e1, e2, … en sind in w1 wahrheitsförderliche Eigenschaften von Erklärungen. Diese Annahme lässt sich aber einerseits nicht a priori rechtfertigen, denn wir können uns problemlos eine Welt vorstellen, in der die schlechteste oder eine mittelmäßige Erklärung im Sinne der Werte e1, e2, … en in den meisten Fällen wahr ist. Wir können die Annahme andererseits aber auch nicht empirisch rechtfertigen, denn jede induktive Rechtfertigung einer Annahme, die selbst wiederum eine induktive Schlussform rechtfertigen soll, wäre zirkulär. Das Verlässlichkeitsproblem erweist sich somit als in zweierlei Hinsicht auf das Induktionsproblem zurückführbar: Erstens gleicht seine Analyse dem klassischen Induktionsproblem nach Hume. Zweitens lässt sich die Verlässlichkeitsthese wenn dann nur in einem weiten Sinne induktiv rechtfertigen. Auch in diesem Sinne ist das Problem mit der Rechtfertigung von VT auf das allgemeinere Induktionsproblem zurückführbar.
Es existieren eine Reihe von Lösungsstrategien für das Induktionsproblem. Die ‚regelzirkuläre Lösungsstrategie’ besagt, dass wir zur Lösung des Induktionsproblems nur ein einziges Mal einen induktiven Schluss ziehen müssen. Dies ist dann aber kein fataler Prämissenzirkel, sondern ein legitimer Regelzirkel. Die davon zu unterscheidende ‚externalistische Lösungsstrategie’ besagt, dass das Induktionsproblem gar nicht zeigt, worauf es ankommt: Die humesche (obenstehende) Analyse zeigt nur, dass wir die Verlässlichkeit von (in einem weiten Sinne) induktiven Schlüssen nicht zirkelfrei begründen können. Sie zeigt aber nicht, was zur Debatte steht, nämlich VT bzw. dass induktive Schlüsse faktisch nicht verlässlich sind. Wenn wir diese beiden Strategien zusammennehmen, kann man versuchen, erstens einen externalistischen Standpunkt einzunehmen, nach dem regelzirkuläre Argumente für eine Schlussregel nicht „bösartig“ zirkulär sind, sofern die verwendete Schlussregel de facto verlässlich ist. Und zweitens ein solches regelzirkuläres Argument für VT formulieren. Diese „Doppelstrategie“ werde ich in Abschnitt 2.3. verfolgen, aber auch ihre Grenzen aufzeigen.
Bas van Fraassen hat in "Laws and Symmetry" (van Fraassen (1989), S. 131 - 144) zwei Argumente gegen den Schluss auf die beste Erklärung vorgebracht, die im Anschluss an Stathis Psillos (Psillos (1996)) als:
a. Argument from the Bad Lot und
b. Argument from Indifference
bezeichnet werden können. Diese Argumente betreffen beide die Verfügbarkeit von potentiellen Erklärungen bei in der Praxis gezogenen SdbE. Sie sollen beide, wenn auch in unterschiedlichem Ausmaß (siehe unten), das Verfügbarkeitsproblem starkmachen.
Das Argument from the Bad Lot besagt, grob gesagt, dass die beste verfügbare Erklärung für ein Phänomen möglicherweise keine besonders gute Erklärung ist (van Fraassen (1989), S. 143). Dabei weist van Fraassen zunächst auf den nicht von der Hand zu weißenden Umstand hin, dass in konkreten Situationen immer nur zwischen allen verfügbaren Hypothesen ausgewählt werden kann (in IFS2 Prämisse P4). Deshalb sollten wir auch besser vom Schluss auf die beste zum gegebenen Zeitpunkt zur Verfügung stehenden Erklärung sprechen. Nach van Fraassen können wir aber grundsätzlich nicht wissen, dass die relativ beste zur Verfügung stehende Erklärung nicht eine absolut schlechte Erklärung ist. Das unterminiert natürlich den Anspruch von SdbE, eine verlässliche Schlussform zu sein. Und es zeigt eine prinzipielle Grenze von NMAs auf: Denn konkret können Realisten immer nur zeigen, dass der wissenschaftliche Realismus die beste verfügbare Erklärung für wissenschaftlichen Erfolg ist. Es scheint ihnen aber prinzipiell unmöglich zu zeigen, dass er auch die absolut beste Erklärung schlechthin ist.
„So our selection may well be the best of a bad lot.“
- Bas van Fraassen: : Laws and Symmetry. 1989, S. 143
Stathis Psillos hat beide Argumente von Fraassen einer Kritik unterzogen. Seine Kritik gegen das "Argument from a Bad Lot" verfehlt dieses meiner Meinung nach aber aus zwei Gründen (Vgl. hierzu auch Ladyman et al. (1997)): Erstens fasst Psillos das Argument falsch zusammen, wenn er schreibt: "In brief, van Fraassen's point is that unless an unwarranted privilege is appealed to, it is more likely that the truth lies in the space of hitherto unborn hypotheses." (Psillos (1996), S. 37; m.H.). Wie aus dem oberen Abschnitt und Zitat klar hervorgeht, behauptet van Fraassen gar nicht, dass es wahrscheinlich ist, sondern nur, dass es möglich ist, dass uns die beste Erklärung nicht zur Verfügung steht. Zweitens fasst Psillos van Fraassens Forderung falsch zusammen, wenn er schreibt, dass dieser von Befürwortern des SdbE verlange, sie sollten: "[...] eliminate the possibility that the truth might lie outside the theories that scientists have come up with, before one argues that there are good reasons to believe that the truth lies within this range of theories?" (ebd.) Van Fraassen fordert nicht, dass Befürworter des SdbE die Möglichkeit, dass die beste Erklärung außerhalb der Menge der gegebenen Erklärungen liegt, eliminieren müssen. Er fordert sie lediglich dazu auf gute Gründe gegen diese Möglichkeit anzuführen.
Das Argument from a Bad Lot kann ein schwaches Verfügbarkeitsproblem motivieren:
2´. schwaches Verfügbarkeitsproblem: Es ist möglich, dass uns die beste Erklärung für ein gegebenes Phänomen meistens nicht zur Verfügung steht.
Der Realist kann, wie ich vorschlagen möchte, wie folgt mit dem schwachen Verfügbarkeitsproblem umgehen. Er gesteht zunächst zu, dass dieses Problem bislang ungelöst und vielleicht auch unlösbar ist. Dann weist er aber darauf hin, dass das schwache Verfügbarkeitsproblem dem skeptischen Problem ähnelt. Das skeptische Problem besteht darin, dass es möglich ist, dass wir uns in einem skeptischen Szenario befinden. Ein skeptisches Szenario ist zum Beispiel eines, in dem wir alle Gehirne in Tanks sind und uns die Außenwelt nur imaginiert wird. Obwohl es möglich ist, dass so etwas der Fall ist, halten wir unsere Sinneserfahrungen häufig für zuverlässig. Ein Grund dafür mag der sein, dass viele Szenarien möglich sind. Der Skeptiker liefert gemeinhin aber wenige Gründe für die Annahme, dass es der Fall oder zumindest wahrscheinlich ist, dass wir uns in einem skeptischen Szenario befinden.[5] Nehmen wir nun an, der Antiskeptiker kann umgekehrt gute Gründe dafür anführen, dass es wahrscheinlich ist, dass wir uns nicht in einem skeptischen Szenario befinden. Dann ist es in nicht-gewissheitserfordernden epistemischen Kontexten, denke ich, rational, davon überzeugt zu sein, dass unsere Sinneserfahrungen zuverlässig sind. Und zwar auch dann, wenn wir nicht die Möglichkeit ausschließen können, dass wir in einem skeptischen Szenario leben. Ähnliches gilt nun für das schwache Verfügbarkeitsproblem. Auch hier kann nicht ausgeschlossen werden, dass es möglich ist, dass wir uns in einem Szenario befinden, in dem uns die besten Erklärungen meistens nicht zur Verfügung stehen. In nicht-gewissheits-erfordernden Kontexten ist aber relevant, ob es wahrscheinlich ist, dass wir uns in einem solchen Szenario befinden. Im nächsten Abschnitt zeige ich, dass van Fraassen (und meines Wissens nach auch bisher sonst niemand) keine guten Gründe für diese relevante Hypothese angeführt hat. Und in Abschnitt 2.2.2. entwickele ich ein Argument für die Annahme, dass es sogar wahrscheinlich ist, dass uns die beste Erklärung meistens zur Verfügung steht. Es folgt, dass das schwache Verfügbarkeitsproblem zwar ungelöst ist, man unter Umständen aber trotzdem gerechtfertigt sein kann, an die Rationalität von SdbE zu glauben.
Das Argument from Indifference besagt, lose gesagt, dass die beste verfügbare Erklärung für ein Phänomen sogar wahrscheinlich falsch ist. Denn diese sei nur ein "random member" (van Fraassen (1989), S. 146) einer großen Menge von potentiellen Erklärungen, die das Explanandum alle mindestens ebenso gut erklären wie sie selbst und von denen die meisten falsch sind. Van Fraassen versucht das Verfügbarkeits-problem also noch einmal zu verschärfen. Denn anders als sein erstes Argument besagt das Argument from Indifference nicht nur, dass wir nicht nur keine guten Gründe haben anzunehmen, die beste aller möglichen Erklärungen gehöre zur Menge der verfügbaren Erklärungen, sondern dass wir sogar gute Gründe für die gegenteilige Annahme besitzen:
„I believe, and so do you, that there are many theories, perhaps never yet formulated but in accordance with all evidence so far, which explain at least as well as the best we have now. Since these theories can disagree in so many ways about statements that go beyond our evidence to date, it is clear that most of them by far must be false. I know nothing about our best explanation, relevant to its truth-value, except that it belongs to this class [of theories which explain at least as well]. So I must treat it as a random member of this class, most of which is false. Hence it must seem very improbable to me that it is true.“ - ebd., S. 146
Anders ausgedrückt: Bas van Fraassen möchte nicht mehr nur das schwache Verfügbarkeitsproblem, sondern nun auch ein starkes Verfügbarkeitsproblem motivieren:
2´´. starkes Verfügbarkeitsproblem: Es ist wahrscheinlich, dass uns die beste Erklärung für ein gegebenes Phänomen meistens nicht zur Verfügung steht.
Gegen dieses Argument hat Psillos - wie ich finde dieses Mal zu Recht - darauf hingewiesen, dass sich mit der angestrebten Verschärfung des Verfügbarkeitsproblems auch die Beweislast verschiebt (Psillos (1996), S. 43. Vergleich auch Psillos (1999), S. 223): Van Fraassen muss nun zeigen, dass es erstens stets viele unbekannte Explanantia gibt und dass diese zweitens die Explananda mindestens genauso gut erklären wie die bekannten. Beides steht seitens van Fraassen bisher aus. Das heißt natürlich aber nicht, dass sich die beiden Behauptungen nicht begründen ließen. Wie also könnte eine solche Begründung aussehen? Ich sehe u.a. zwei mögliche Rechtfertigungsstrategien:
Unterbestimmtheit: Wenn T1 die beste verfügbare Erklärung für eine Menge von Phänomenen M1 (P1, … Pn) ist, dann ergibt sich aus rein logischen Überlegungen, dass es empirisch äquivalente Theorien T2, … Tn geben muss, die auch mit M1 (P1, … Pn) vereinbar sind (siehe z.B. Quine (1975), S. 219). Problem: Diese Strategie zeigt nicht, dass es stets viele Theorien gibt, die M1 (P1, … Pn) mindestens ebenso gut erklären wie T1. Denn empirisch äquivalent zu sein bedeutet noch lange nicht explanatorisch mindestens ebenbürtig zu sein (Bird (2017), S. 426). Mehr noch: SdbE werden oft gerade dafür bemüht, um Unterbestimmtheitsprobleme zu lösen.
Pessimistische Meta-Induktion: Für einige historische Fälle gilt: Wenn T1 zu einem vergangenen Zeitpunkt die beste verfügbare Erklärung für M1 (P1, P2, P3) war, dann sind wir heute im Besitz einer Theorie T2, welche M1 (P1, P2, P3) besser erklärt als T1 oder welche mehr Phänomene M2 (P1, P2, P3, P4) mindestens ebenso gut erklärt wie T1. Qua Induktion folgt nun, dass wir auch in Zukunft Theorien finden werden, welche besser erklären als die uns heute verfügbaren. Problem: Dieser Schluss hat die Form: Alle bisher beobachteten Fs waren Gs, also werden auch zukünftige Fs Gs sein. Konkret: Alle bisherigen Theorien wurden durch explanatorisch höherwertige Theorien abgelöst, also werden auch unsere gegenwärtigen Theorien durch explanatorisch höherwertige Theorien abgelöst werden. Ein solcher Schluss ist aber nur dann gerechtfertigt, wenn erstens die induktive Basis (die bisher beobachteten Fs) groß und repräsentativ ist oder wenn zweitens eine natürliche Verbindung zwischen einem F-sein und einem G-sein besteht (Vgl. Godfrey-Smith (2011)). Laudans Liste ist aber erstens weder groß (sie umfasst nur 12 Theorien) noch repräsentativ (die Theorien wurden nicht zufällig, sondern vielmehr gerade deshalb ausgewählt, weil sie erfolgreich waren, sich aber als falsch herausgestellt haben). Zweitens gibt es keine „natürliche Verbindung“ zwischen eine-Theorie-sein und durch-eine-besser-erklärende-Theorie-abgelöst-werden. Die PMI ist in jedem Fall kein gutes induktives Argument (diese Argumentationslinie stammt von Mizrahi (2012)).
Das alles soll zeigen, dass das starke Verfügbarkeitsproblem zumindest nicht durch Abwandlungen der klassischen antirealistischen Argumente motiviert werden kann. Anders als beim schwachen Verfügbarkeitsproblem denke ich, dass es überdies gute Argumente gegen das Bestehen eines starken Verfügbarkeitsproblems gibt (siehe auch Lipton (1991), S. 158ff.). Eines dieser Argumente wird im Nachfolgenden vorgestellt.
Die Debatte um Schlüsse auf die beste Erklärung ist natürlich nicht abgeschlossen und kann im Rahmen dieser Arbeit auch nicht angemessen skizziert werden. Arthur Fine (siehe Fine (1984), S. 85-86, Vgl. auch Fine (1986), S. 153-154, 160f.) und Larry Laudan (Laudan (1981), S. 45) haben im Kontext dieser Debatte auf einen wichtigen Punkt hingewiesen: Antirealisten akzeptieren die Verlässlichkeitsthese i.d.R. nicht.
Fine hat ihn insgesamt präziser herausgearbeitet:
“While [the antirealists] appreciate the systematization and coherence brought about by
scientific explanation, they question whether acceptable explanations need to be true and, hence, whether the entities mentioned in explanatory principles need to exist. […] one must not beg the
question as to the significance of explanatory hypotheses by assuming that they carry truth as well as explanatory efficiacy.“
- Arthur Fine: The Shaky Game. Chicago (1986), S. 153-154, 160f.
Was ist damit gemeint? Sehen wir uns hierzu ein konkretes Beispiel an:
ExplanandumE:
Kathodenstrahlen tragen eine negative elektrische Ladung, die sich immer nur um das Ganze Vielfache einer Größe verändert.
ExplanansE: Elektronen (das heißt unteilbare mikroskopische Systeme mit einer negativen elektrischen Ladung) konstituieren Kathodenstrahlen.
Wenn wir ExplanandumE und ExplanansE in IFS2 einfügen, dann erhalten wie einen SdBE, der typischerweise nicht von Philosophen, sondern von Wissenschaftlern vollzogen wird! Antirealisten gestehen in der Regel zu, dass auf diese Weise wissenschaftliche Theorien entstehen, die empirisch sehr erfolgreich sind. Einige von ihnen teilen mit den Realisten tatsächlich auch die Meinung, dass eine erfolgreiche wissenschaftliche Theorie in vielen Fällen die beste wissenschaftliche Erklärung für ihren Erfolg darstellt. Aber anders als der Realist akzeptiert der Antirealist nicht VT, d.h. dass in diesen Fällen auf die Wahrheit der erfolgreichen Theorie geschlossen werden darf. Die Verlässlichkeitsthese VT ist also auf lokaler Ebene gerade erst Teil der Debatte zwischen Realisten und Antirealisten.
Wenn jetzt in genau dieser Debatte das NMA als SdbE rekonstruiert wird um den Realismus (global oder lokal) zu verteidigen, dann ist das gewissermaßen zirkulär. Denn das NMA setzt etwas voraus, die Verlässlichkeitsthese VT, was es erst zu beweisen gilt.
Was kann der Realist dem entgegenhalten? Die bekannteste Erwiderung auf den Einwand von Laudan und Fine findet sich zweifelsohne bei Stathis Psillos (Psillos (1999), S. 75 – 87). Psillos greift hier auf eine vielgebrauchte Unterscheidung von Richard Bevan Braithwaite zurück (Braithwaite (1953), S. 274 – 278):
Prämissenzirkularität: Ein Argument ist prämissenzirkulär, gdw. es mindestens eine Prämisse enthält, die man nur dann für glaubhaft halten kann, wenn man bereits von der Schlussfolgerung überzeugt ist.[6]
Regelzirkularität: Ein Argument ist regelzirkulär, gdw. seine Konklusion etwas über die Schlussregel R behauptet oder impliziert, die im Argument verwendet wird, um zur Konklusion zu gelangen. Insbesondere sagt oder impliziert die Konklusion, dass R eine verlässliche Schlussregel ist.
Psillos argumentiert jetzt zunächst, dass das NMA als SdbE auf keinen Fall prämissen-zirkulär ist. Das sieht man ganz einfach daran, dass in den Prämissen weder explizit noch implizit eine Annahme über den wissenschaftlichen Realismus o.Ä. getroffen wird.
Psillos argumentiert weiter, dass das NMA wenn überhaupt regelzirkulär ist (Psillos (1999), S. 80). Eine solche regelzirkuläre Version ist Psillos´ modifizierte Version von Richard Boyds NMA. Hier zunächst Boyds NMA als ein SdbE (Vgl. Boyd (1980), S. 617f. und Boyd (1991), S. 207 sowie speziell zu dieser Rekonstruktion Tschepke (2003), S. 189 - 192 und 210 - 211):
ExplanandumB: Die Gesamtmenge M der Methoden (Prinzipien, Verfahren etc.) der Wissenschaften, die sich auf die zum jeweiligen Zeitpunkt akzeptierten Theorien {TiHin} stützen, liefert in verlässlicher Weise neue Theorien {Tineu}, die ihrerseits instrumentell verlässlich sind.
ExplanansB: Die Theorien {TiHin} sind zumindest annähernd wahr.
Boyds NMA besagt, dass erstens die wissenschaftliche Methodologie verlässlich ist, das heißt, dass sie Prinzipien, Regeln und Ähnliches beinhaltet, welche zur Gewinnung und Etablierung von wissenschaftlichen Theorien {Tineu} beitragen, welche wiederum instrumentell verlässlich sind, das heißt annähernd korrekte Prognosen über das Verhalten beobachtbarer Phänomene liefert (Boyd (1980), S. 616). Und zweitens, dass die fraglichen Prinzipien und Ähnliches allesamt theorieabhängig sind, das heißt ihre Anwendung in einem konkreten Gegenstandsbereich involviert bereits etablierte Theorien {TiHin} des jeweiligen Gegenstandsbereiches selbst oder anderer Bereiche (Boyd (1985), S. 7-8). Diese beiden Punkte bilden das Explanandum in Boyds NMA. Schließlich wird die Wahrheit der Theorien {TiHin} als die einzige plausible und eine gute Erklärung für dieses Explanandum ausgezeichnet und über ein SdbE auf die Wahrheit der Theorien {TiHin} geschlossen. Um ein eigenes Beispiel zu geben: Es werden experimentelle Daten mithilfe eines Mikroskops gesammelt. Ihre Auswertung hängt entscheidend von Hintergrundtheorien über den erforschten mikroskopischen Bereich, die Natur des Lichts etc. ab und führt erfolgreich zu neuen Theorien, die instrumentell verlässlich sind. Dieser Erfolg wird explanatorisch auf die annähernde Wahrheit der Hintergrundtheorien zurückgeführt: Wenn diese nicht zumindest annähernd wahr wären, käme es einem Wunder gleich, dass sie trotzdem verlässlich zu neuen Theorien führen, die ihrerseits instrumentell erfolgreich sind. Für unsere Zwecke ist nun besonders wichtig, dass Boyd die Verlässlichkeit wissenschaftlicher Methodologie dadurch erklärt, dass unsere Hintergrundtheorien {TiHin} annähernd wahr sind (Boyd (1991), S. 207). In reliabilistischer Terminologie kann man von einem verlässlichen epistemischen Verfahren TMP reden, dessen Input die Methoden in M und die Theorien {TiHin} und dessen Output die Theorien {Tineu} sind. Boyd erklärt, in einem Satz zusammengefasst, die Verlässlichkeit von TMP durch die Wahrheit der Theorien {TiHin}.
Stathis Psillos schlägt nun vor, das boydsche NMA so zu modifizieren, dass es zu einer Verteidigung der Verlässlichkeitsthese VT taugt (Psillos (1999), S. 79ff.). Dafür ergänzt er Boyds NMA um einen kleinen, aber entscheidenden Argumentationsschritt: Die meisten der Theorien {TiHin} wurden ja bekanntlich über SdbE eingeführt. Aus diesem Umstand und daraus, dass das ExplanandumB am besten durch die Wahrheit der Theorien {TiHin} erklärt werden kann, soll nach Psillos auf die Verlässlichkeit von abduktiven Schlussregeln geschlossen werden. Wieder in einem Satz zusammengefasst: Die Theorien {TiHin} beruhen in der Regel auf SdbE und sind gemäß dem boydschen NMA annähernd wahr, das stützt die These VT, dass SdbE häufig zu wahren Konklusionen führen. Speziell gegen Voltaires Einwand kann also eingewendet werden, dass der methodologische Erfolg der Wissenschaften am besten dadurch erklärt werden kann, dass wir eine „erklärungsfreundliche“ Welt bevölkern.
Dieser zusätzliche Schritt macht das Argument nun aber definitiv regelzirkulär. Denn einerseits wird ein SdbE vollzogen, um zu der Annahme zu gelangen, dass die Theorien {TiHin} annähernd wahr sind. Andererseits soll genau diese Annahme aber auch die These von der Verlässlichkeit von SdbE rechtfertigen. Ist das nun ein Problem? Stathis Psillos ist der Auffassung, dass ein Argument nur dann „bösartig“ zirkulär ist, wenn es etwas behauptet oder impliziert, dass unabhängig von ihm gezeigt werden muss (ebd., S. 79). Prämissenzirkuläre Argumente sind in diesem Sinne auf jeden Fall „bösartig“. Ob regelzirkuläre Argumente, wie das gerade skizzierte, bösartig sind, hängt ganz davon ab, welche Epistemologie man vertritt. Wenn man Externalist ist, dann glaubt man, dass die Verwendung einer Schlussregel zuverlässlich ist oder nicht, unabhängig davon, ob das gezeigt werden kann. Ein Internalist hält dem entgegen, dass man zusätzlich Rechtfertigungsgründe für die Verlässlichkeit einer Schlussregel anführen können muss, um diese zuverlässig anwenden zu können. Für einen Internalisten ist Psillos Begründung von VT also „bösartig“ regelzirkulär und für einen Externalisten nicht (Vgl. Psillos (1999), S. 79 – 87).
Der Realist kann sich hier also auf eine externalistische Position zurückziehen, das bietet ihm drei Vorteile, die in der Literatur nur selten unterschieden werden:
1. Verlässlichkeitsproblem: Er muss VT nicht begründen können, um SdbE gerechtfertigt vollziehen zu dürfen. Es reicht aus, wenn VT de facto wahr ist.
2. Petitio-Problem: Er kann VT begründen, indem er SdbE verwendet, sofern VT wahr ist - aber dass VT wahr ist, muss er nicht unabhängig von SdbE zeigen.
3. starkes Verfügbarkeitsproblem: Er kann gegen das starke Verfügbarkeitsproblem einwenden, dass die Theorien {TiHin} annähernd wahr sind und über SdbE eingeführt wurden. Das impliziert, dass uns annähernd wahre Erklärungen in der Vergangenheit meistens zur Verfügung gestanden haben müssen. Zudem zeigt uns unsere Erfahrung, dass neue Theorien im Laufe der Zeit zu Hintergrundtheorien werden und wiederum häufig neue, instrumentell verlässliche Theorien hervorbringen. Eine induktive Generalisierung ergibt schließlich: Es ist häufig der Fall, dass uns die besten (wissenschaftlichen) Erklärungen zur Verfügung stehen.
Der letzte Punkt, dass man mit Psillos modifizierten Version von Boyds NMA auch gegen das starke Verfügbarkeitsproblem bzw. gegen das Argument from Indifference anargumentieren kann, erscheint in der hier gewählten Darstellung vielleicht fast schon trivial. Meines Wissens nach hat ihn bisher aber kein anderer Autor herausgearbeitet.
Neben den hier aufgelisteten Stärken der aufgezeigten Verteidigungsstrategie von SdbE sehe ich vor allem drei Probleme. Um das erste zu verstehen, müssen wir zwischen der faktischen Wahrheit von VT und der praktischen Überzeugungskraft von SdbE unterscheiden. Selbst wenn VT de facto wahr ist, ändert das nichts an Fines ursprünglichen Punkt, dass Antirealisten VT nicht akzeptieren und in Folge die gesamte aufgezeigte Argumentationslinie nicht überzeugend finden werden. Das ist insofern ein Problem für den Realisten, als dass er mit seinem „ultimativen Argument“ ja nicht nur die Leute aus dem eigenen Lager bekräftigen, sondern optimalerweise auch Antirealisten überzeugen können möchte. Hier herrscht meiner Einschätzung nach eine Pattsituation: Realisten akzeptieren in der Regel VT und Antirealisten akzeptieren in der Regel VT nicht. In Folge werden Realisten die hier aufgezeigte Verteidigungsstrategie in der Regel auch überzeugend finden und Antirealisten nicht. Diese Pattsituation ist gegenwärtig insofern nicht auflösbar, als dass es derzeit keine schlagenden Argumente für oder wider VT gibt, die unabhängig von vortheoretischen Intuitionen über SdbE alle überzeugen könnten.
Es gibt noch ein zweites Problem mit der aufgezeigten Argumentationslinie. Sobald man nämlich regelzirkuläre Argumente für die Rationalität von Schlussformen zulässt, lassen sich viele Schlussformen rechtfertigen, die klarerweise irrational zu sein scheinen. Eine solche augenscheinlich irrationale Schlussform kann ein "Schluss auf die schlechteste Erklärung" (SdsE) sein. Ein SdsE ist verlässlich, gdw. die schlechteste Erklärung für ein Phänomen in hinreichend vielen Fällen dessen korrekte Erklärung ist. Jetzt können wir Hintergrundtheorien {TiHin2} einführen, die die schlechteste Erklärung für gegebene Explanandumphänomene sind und vermutlich zu instrumentell erfolglosen neuen Theorien führen. Die schlechteste (oder zumindest eine sehr schlechte) Erklärung für dieses Phänomen ist die Wahrheit der Theorien {TiHin2}. Wenn man regelzirkuläre Argumente zulässt, dann kann man weiter argumentieren, dass da die {TiHin2} wahr sind und über SdsE eingeführt wurden, unser Vertrauen in die Verlässlichkeit von SdsE bestärkt ist. Das entspricht der zuvor aufgezeigten Argumentationslinie für die Verlässlichkeit von SdbE (Vgl. für einen ähnlichen Einwand in Bezug auf regelzirkuläre Verteidigungen von enumerativen Induktionsschlüssen siehe Salmon (1957), S. 45 - 47). Der externalistisch eingestellte Realist kann zwar immer noch glauben, hoffen und sogar dafür argumentieren, dass SdbE de facto verlässlich sind und SdsE nicht, aber das macht keinen epistemischen Unterschied mehr. Denn ob die Verwendung einer Schlussregel verlässlich ist oder nicht, hängt laut dem Externalismus nicht von internen Zuständen, sondern allein davon ab, ob die Schlussregel tatsächlich zuverlässig ist oder nicht.
Das dritte Problem der externalistischen Verteidigung ist wahrscheinlich das am meisten diskutierteste. Kyle Stanford (Stanford (2006)) hat darauf hingewiesen, dass wir in der Vergangenheit häufig bessere und aus heutiger Sicht wahrheitsnähere Erklärungen für Eplanandumphänomene nicht berücksichtigt haben. Zum Beispiel berücksichtigte Isaac Newton nicht die Relativitätstheorie, als er seine eigene Erklärung der himmlischen und terrestrischen Bewegungen entwickelte. Und Augustin Jean Fresnel berücksichtigte nicht die Quantenelektrodynamik, als er eine große Klasse von optischen Phänomenen erklären wollte. Die newtonsche Mechanik und Fresnels Wellentheorie des Lichts waren damals auch Hintergrundtheorien von Experimenten, die zu erfolgreichen neuen Theorien geführt haben. Folglich scheinen Hintergrundtheorien auch dann zu erfolgreichen neuen Theorien führen zu können, wenn sie nicht wahr sind. Kurz zusammengefasst bedeutet das, dass es nicht rational zu sein scheint, die Konklusion in Boyds NMA für wahr zu halten, wenn die Prämissen wahr sind. Nun kann der Realist diesem Problem entgegnen, indem er seine Position abschwächt und nur noch einen selektiven Realismus vertritt. Das kann heißen, er behauptet nicht mehr die Wahrheit von erfolgreichen Theorien als Ganzes, sondern nur noch die Wahrheit von wissenschaftlichen Sätzen über Dinge, die einer ganz bestimmten metaphysischen Kategorie angehören. Die drei wohl bekanntesten klassischen Formen des selektiven Realismus sind:
Deployment-Realismus: Die Sätze über die "working posits" einer erfolgreichen Theorie sind wahr, d.h. über die Teile, die für den Erfolg von T verantwortlich sind.
epistemischer Strukturenrealismus: Die mathematischen Sätze (der strukturelle Gehalt) einer erfolgreichen Theorie sind wahr.
Entitätenrealismus: Die theoretischen Entitäten, die sich in Experimenten gezielt und routinemäßig kausal manipulieren lassen, sind real.
Der Entitätenrealismus kehrt dem "klassischen" Theorienrealismus ganz den Rücken zu. Bemerkenswert ist überdies, dass der Entitäten- und Strukturenrealismus gewissermaßen in entgegengesetzte Richtungen ziehen: Ersterer sagt aus, dass wir Vertrauen in die Existenz von Elektronen haben können, aber skeptisch gegenüber Theorien über diese sein sollten. Der Strukturenrealismus besagt hingegen, dass wir Vertrauen in den strukturellen Gehalt dieser Theorien haben können, aber skeptisch gegenüber der ontologischen Existenz von Elektronen sein sollten. Trotz aller Unterschiede gibt es Versuche, Entitätenrealismus und Strukturenrealismus miteinander zu vereinen (siehe unter anderem Chakravartty (1998), Chakravartty (2010)). Und trotz aller Unterschiede verfolgen alle Formen des selektiven Realismus dieselbe "Divide-et-Impera"-Strategie: Sie behaupten nur die Wahrheit von den wissenschaftlichen Sätzen, von denen angenommen wird, dass sie auch nach radikalen Theorienwandel in erfolgreichen wissenschaftlichen Theorien erhalten geblieben sind und erhalten bleiben werden.
Gegeben also die Wissenschaftshistorie zeigt tatsächlich, dass die Inferenz von dem empirischen Erfolg einer Theorie auf ihre vollumfängliche Wahrheit nicht verlässlich ist (für eine Kritik an dieser Annahme siehe aber Psillos (1999), S. 95 – 139). Dann ist das NMA, wie es auf Seite 1 dieser Arbeit dargestellt wurde, kein gutes Argument. Denn dann ist es nicht rational, von der Wahrheit der Prämissen dieses Argumentes auf die Wahrheit seiner Konklusion zu schließen. Das NMA lässt sich aber wohlmöglich dadurch retten, indem im Explanans nur noch auf die Wahrheit eines selektiven Realismus geschlossen wird. Ob die "Divide-et-Impera"-Strategie aber tatsächlich erfolgreich sein kann und welche Form von selektivem Realismus dabei angebracht ist, ist ein Gengenstand anhaltender Debatten, deren Ende derzeit noch nicht absehbar ist.[8]
Es soll in diesem Abschnitt zunächst die Frage beantwortet werden, in welchem Sinne genau das Explanans das Explanandum im NMA erklären soll. Danach werden wir sehen, ob und inwiefern der wissenschaftliche Realismus tatsächlich eine gute und die relativ beste Erklärung für den Erfolg der Wissenschaften darstellt. Die wissenschaftlichen Realisten äußern sich selbst kaum zu diesen Fragen.[9] Sie scheinen häufig ein intuitives Verständnis von "Erklären" vorauszusetzen sowie anzunehmen, dass ihre Erklärung die einzige ist, die den Erfolg der Wissenschaft nicht zu einem "Wunder" macht (Putnam (1975), S. 73).
Was also ist eine Erklärung? Es ist vielleicht prima facie naheliegend zu glauben, dass eine zutreffende Erklärung ein Explanandum logisch impliziert. Allerdings folgt das Explanandum im NMA logisch nicht ohne weiteres aus der Wahrheit des Explanans. Das Explanans kann im Rahmen eines deduktiv-nomologischen Erklärungsmodells aber um eine Annahme ergänzt werden, sodass ein deduktiver Zusammenhang hergestellt wird:
R1.
T ist wahr.
R2.
T
⊢
S(p) (sprich: Satz S über beobachtbares Phänomen p ist ableitbar aus T).
G1.
Für alle Mengen von Theorien
{Tj}
und für alle Sätze
Q
gilt: Wenn
{Tj}
wahr ist und
{Tj}
⊢
Q,
dann ist
Q
wahr.
____________________________________________________________
E.
T
⊢
S(p) und S(p) ist wahr.
Das Explanandum ist hier der Prognoseerfolg einer wissenschaftlichen Theorie T. Und das Explanans besteht in der Aussage, dass T wahr ist und alle aus wahren Theorien ableitbaren Sätze ebenfalls wahr sind. Nach dem DN-Modell der Erklärung ist das Explanandum schon dadurch erklärt, indem gezeigt wurde, dass es deduktiv aus den obenstehenden Prämissen folgt, die das Explanans bilden. Es gibt allerdings äußerst schwerwiegende Kritikpunkte an dem DN-Modell der Erklärung (für einen gelungenen Überblick über die wichtigsten Kritikpunkte siehe Wiltsche (2013), S. 187 – 191). Ich werde deshalb im Folgenden davon ausgehen, dass die gesuchte explanatorische Relation zwischen dem Explanandum und Explanans im NMA nicht in der oben angeführten deduktiven Relation besteht. Weiterhin gehe ich aber davon aus, dass oben die explanatorischen Relata eines paradigmatischen NMA formal dargestellt wurden. Wie das Explanandum durch das Explanans erklärt werden kann, wird sich, wie wir sehen werden, dann daraus ergeben, wie die Randbedingung R1 "T ist wahr" genau verstanden wird.
Eine weitere Vorbemerkung zu meiner Darstellung ist angebracht: Das Explanandum eines NMA sollte so formuliert werden, dass die Formulierung sowohl von Befürwortern als auch von Kritikern des Argumentes akzeptiert werden kann. Auf diese Weise wird nämlich eine gemeinsame Grundlage zur Diskussion des NMA geschaffen (Vergleich Tschepke (2003), S. 198). Da zu den Kritikern auch semantische Antirealisten zählen, sollte im Explanandum insbesondere nur in syntaktischer Hinsicht auf wissenschaftliche Theorien Bezug genommen werden. Das heißt, es darf nicht vorausgesetzt werden, dass es sich bei der Theorie T um interpretierte Zeichen, also um semantisch vollwertige sprachliche Ausdrücke handelt, denen Bedeutung, Referenz und Wahrheitswerte zukommen. Und es darf nicht vorausgesetzt werden, dass es sich bei der Ableitbarkeit von dem (unstrittig semantisch vollwertigen) Beobachtungssatz S(p) aus T um einen deduktiven Schluss handelt. Kurz gesagt: Es darf keine semantische realistische These über die Theorie T in die Formulierung des Explanandums eingehen, wenn das NMA gegen semantische Diskussionsgegner eingesetzt werden soll. All diese Anforderungen werden durch die obenstehende, formale Darstellung des Explanandums erfüllt.
Dem obenstehenden Explanans könnten - was mehr als bemerkenswert ist - ebenfalls einige Antirealisten zustimmen![10] Denn das logische Kalkül in der Gesetzesbedingung G1 ist relativ unkontrovers. Die logische Ableitbarkeitsrelation "T ⊢ S(p)" ebenso.[11] Der Antirealist müsste die Randbedingung R1 nur so lesen, dass sie besagt, dass T empirisch adäquat und nur in diesem Sinne wahr ist (James Ladymann (1999), insb. S. 186; Alan Musgrave (1988), S. 242 haben unter anderem vorgeschlagen, dass der Antirealist das Explanandum im NMA durch empirische Adäquatheit erklären könnte). Wohingegen der Realist R1 so auffassen würde, dass T sowohl beobachtbare als auch unbeobachtbare Phänomene wahrheitsgemäß beschreibt. Beide Lager können den Prognoseerfolg der Theorie T also effektiv dadurch „erklären“, dass alle Sätze, die aus wahren Theorien ableitbar sind, ebenfalls wahr sind. Die explanatorische Relation zwischen Explanandum und Explanans wird jeweils dadurch hergestellt, dass der einzelne Prognoseerfolg unter einen generellen Sachverhalt subsumiert wird. Allerdings entspricht die Erklärung beider Lager bislang aber nur einer Erklärung gemäß des gescheiterten DN-Modells.
Bei meiner nachstehenden Argumentation gehe ich nun von den folgenden Annahmen aus: Erstens, nach dem bereits erwähnten Scheitern des DN-Modells haben sich vor allem zwei Arten von Erklärungsmodellen hervorgetan: Zum einen die modernen vereinheitlichenden Erklärungsmodelle. Diese umgehen zwar einige der zentralen Kritikpunkte am DN-Modell, behalten aber auch viele der Hauptbestandteile des DN-Modells bei (für einen gelungenen Vergleich siehe Klärner (2003), Kapitel 2). Ich gehe daher davon aus, dass es sich beim DN-Modell auch um ein (frühes) Vereinheitlichungsmodell der Erklärung handelt. Und zum anderen metaphysische Erklärungsmodelle, zu deren bekanntesten Vertreter die kausalen Erklärungsmodelle gehören. Mein Argument ist nun das folgende: Erstens, metaphysisches Erklären ist eine stärkere Form von Erklären als vereinheitlichendes Erklären, insofern es im Erfolgsfall aufzeigt, was das Explanandum wie hervorbringt und meist auch ein vereinheitlichendes Erklären beinhaltet (Bartelborth (2007), S. 200). Zweitens, der Antirealist kann das Explanandum im NMA nur vereinheitlichend und der Realist auch metaphysisch erklären. Es folgt, dass die Erklärung des Realisten in einem relevanten, metaphysischen Sinne eine gute und die beste verfügbare Erklärung für den Erfolg der Wissenschaften ist. Der Rest dieser Arbeit besteht in der Ausarbeitung dieses Argumentes.
Der Antirealist kann das Explanandum im NMA im Sinne eines modernen Vereinheitlichungsmodelles erklären. Ein solches Modell findet sich etwa bei Philip Kitcher (Kitcher (1981), Kitcher (1989)). Vereinfacht ausgedrückt werden nach Kitcher eine Menge von gegebenen Überzeugungen M durch eine Theorie T vereinheitlicht und damit erklärt, wenn T es erlaubt, eine große Anzahl von Elementen in M unter Verwendung von einigen wenigen deduktiven Argumentmustern herzuleiten (Kitcher (1981), S. 514). Der Antirealist kann in diesem Sinne den prognostischen Erfolg einer wissenschaftlichen Theorie dadurch erklären, dass diese Theorie empirisch adäquat ist (siehe oben). Dabei ist eine Theorie empirisch adäquat, genau dann wenn das, was sie über die beobachtbaren Dinge und Ereignisse in der Welt sagt, wahr ist (Vergleich van Fraassen (1998), S. 213 - 214). Aus dieser einfachen Annahme kann er deduktiv alle Überzeugungen ableiten, nach denen die betreffende Theorie prognostisch erfolgreich war, ist und sein wird. Dass es sich bei der Erklärung des Antirealisten durch empirische Adäquatheit, wenn überhaupt, nur um eine sehr schwache Form von "Erklären" handelt, zeigt aber das folgende Beispiel: Nehmen wir an, aus einer Elektronentheorie Te lässt sich ein Beobachtungssatz S(pN) über ein Strich in einer Nebelkammer ableiten und dieser Satz erweist sich empirisch als wahr. Nun fragt ein Student seinen Physikdozenten, warum Te dieses Phänomen vorhersagen konnte. Dieser antwortet ihm, dass alle aus Te ableitbaren Beobachtungssätze wahr sind. Dies entspricht der oben skizzierten, vereinheitlichenden Erklärung des Antirealisten über empirische Adäquatheit. Sie wird den Studenten vermutlich aber nicht zufriedenstellen, denn bislang hat ihm der Dozent nur gezeigt, dass das Explanandum unter bestimmten Umständen zu erwarten ist. Er hat ihm aber nicht erklärt, warum Te empirisch erfolgreich ist. Will heißen, warum sich die beobachtbare Welt so verhält, wie es zu erwarten wäre, wenn Te wahr wäre. Um diese "kosmische Koinzidenz" zwischen theoretischer Prognose und empirischer Wirklichkeit geht es den Vertretern des NMA aber wesentlich (Smart (1963), S. 39). Eine Erklärung durch empirische Adäquatheit ist also keine gute Erklärung für ein wohlverstandenes NMA-Explanandum (ähnlich argumentiert auch Leplin (1997), S. 23). Insbesondere fördert sie kaum, wie von Peter Lipton von einer guten Erklärung gefordert, unser Verständnis des NMA-Explanandums.
Eine stärkere Form als das nur vereinheitlichende Erklären ist das metaphysische Erklären. Eine metaphysische Erklärung zeigt auf, "dass das Auftreten von E eine Instanz eines stabilen (meist kausalen) nomischen Musters […] ist, dessen Randbedingungen im vorliegenden Fall erfüllt sind, und das bei Vorliegen dieser Randbedingungen E hervorbringt." (Bartelborth (2007), S. 44, H.v.m.). Die hervorbringenden Muster oder dispositionellen Eigenschaften werden durch eine invariante Generalisierung oder sogar ein Naturgesetz beschrieben (ebd., S. 200). Insofern beinhaltet metaphysisches Erklären meist auch, aber eben nicht nur, ein vereinheitlichendes Erklären. Der Realist möchte den empirischen Erfolg der Wissenschaften auf jeden Fall in diesem starken Sinne erklären. Denn er führt diesen explanatorisch auf die These zurück, dass die von empirisch erfolgreichen Theorien postulierten theoretischen Entitäten tatsächlich existieren und, so nehme ich an, ist die Grundidee, unter bestimmten Randbedingungen, das Explanandum im NMA "hervorbringen". Das bedeutet auf unser Beispiel bezogen: Der Realist behauptet, dass Elektronen tatsächlich existieren und die Theorie Te diese zumindest annähernd wahrheitsgemäß beschreibt. Das kann die Überzeugung beinhalten, dass ein Elektron unter bestimmten Laborbedingungen eine bestimmte kausale Rolle einnimmt. Und dadurch kann er schließlich erklären, weshalb es ontologisch der Fall ist, dass unter diesen Bedingungen ein Strich in der Nebelkammer zu sehen ist. Darüber hinaus kann der Realist qua der Annahme von bestimmten dispositionellen Eigenschaften von Elektronen auch ganz andere empirische Erfolge der Theorie Te erklären, etwa Anwendungserfolge in der Halbleitertechnologie. Im besten Fall kann er den gesamten empirischen Erfolg von Te explanatorsich auf dispositionelle Eigenschaft oder nomische Muster zurückführen, die er mit Elektronen assoziiert, und damit metaphysisch erklären.
Dieses Beispiel zeigt, warum der Realist seine metaphysische Erklärung für eine gute und die relativ beste Erklärung für den empirischen Erfolg der Wissenschaften hält. Denn sie ist erstens eine gute Erklärung im Sinne der explanatorischen Werte a. – e. (siehe S. 4). Das heißt, sie fällt im Regelfall präzise, kausal informationsreich, vereinheitlichend, etc. aus und fördert damit letztendlich im hohen Maße unser Verständnis für diesen Erfolg. In dem Sinne, dass metaphysische Erklärungen häufig in hohem Maße unser Verständnis von Explananda fördern, handelt es sich hier beim metaphysischen Erklären auch um eine relevante Form des Erklärens. Zweitens ist die Erklärung des Realisten in dem von ihm intendierten metaphysischen Sinne besser als die alternativen Explanantia der Antirealisten. Seungbae Park bietet hier eine gute Übersicht über die neun relevantesten alternativen Explanatia der Antirealisten (Park (2014)), wovon eine die bereits diskutierte Erklärung über empirische Adäquatheit ist (ebd., S. 4 – 5). Ich kann hier aus Platzgründen nicht auf alle einzeln eingehen. Meine Behauptung ist aber diese hier: Keiner dieser antirealistischen Erklärungsansätze postuliert konkrete dispositionelle Eigenschaften oder nomische Muster, welche die "kosmische Koinzidenz" zwischen Theorie und Empirie auch nur annähernd so gut verständlich machen könnte wie ein wissenschaftlicher Realismus. Vielleicht lässt sich diese Behauptung sogar noch verschärfen: Wenn es eine Hypothese H gäbe, die den Erfolg einer wissenschaftlichen Theorie T genauso gut - das heißt wieder präzise, kausal informationsreich, vereinheitlichend, etc. - erklären würde, wie diese Theorie selbst, dann würden wir H voraussichtlich selbst als wissenschaftliche Konkurrenztheorie zu T ansehen.[12] Falls diese verschärfte Behauptung wahr ist, dann folgt, dass es gar keine antirealistischen Erklärungen für die Explananda in lokalen NMAs als echte Alternativen zu einer realistischen Erklärung geben kann. Das würde dann auch erklären, weshalb Antirealisten nur alternative Erklärungen für globale NMAs vorzuschlagen scheinen (siehe wieder Park (2014) sowie für den Unterschied zwischen globalen und lokalen NMAs die Fußnote [1]).
Ich habe dafür argumentiert, dass der Realist sich beim NMA auf einen metaphysischen Erklärungsbegriff beziehen sollte. Was könnte man mir entgegenhalten? Ein möglicher Einwand ist, dass sich der Realist spezifischer auf einen kausalen Erklärungsbegriff beziehen sollte. Dieser Einwand wird durch das von mir selbst angebrachte Beispiel bestärkt: Der Strich in der Nebelkammer wird von dem Realisten nicht nur dadurch erklärt, dass er von einem Elektron irgendwie, sondern dass er kausal hervorgebracht wird. Peter Lipton schlägt auch vor, dass man sich beim SdbE auf einen bestimmten kausalen Erklärungsbegriff berufen sollte (Lipton (1991), insb. Kap 3 und 5). Zugleich diskutiert Lipton auch zwei Gegenbeispiele aus den Wissenschaften, bei denen auf die Wahrheit einer besten nicht-kausalen Erklärung geschlossen wird (ebd., S. 31f.). Hier ist noch ein drittes Beispiel: Beim physikalischen Hafele-Keating-Experiment wurden vier AtomuhrenA in Linienflugzeugen einmal in westlicher und einmal in östlicher Richtung um die Erde geflogen. Dabei hat man die AtomuhrenA relativ zu den AtomuhrenB im United States Naval Observatory in Washington D.C. bewegt. Ein anschließender Vergleich der Uhren ergab, dass die Atomuhren 1 gegenüber den Atomuhren 2 etwas nachgingen. Dieses Phänomen wird im Rahmen der Speziellen Relativitätstheorie über eine Hypothese über die Raumzeitgeometrie erklärt. Diese Hypothese drückt aber kein Ereignis und auch keine raumzeitlich begrenzte Eigenschaft aus. In diesem Sinne wird das Phänomen laut der Speziellen Relativitätstheorie in einem nicht-kausalen Sinne durch Eigenschaften der Raumzeit-Geometrie bestimmt oder hervorgebracht. Trotzdem ist die Wahrheit der Speziellen Relativitätstheorie (genauer: der in dieser Theorie enthaltenen Annahme der Zeitdilatation) eine gute und die beste verfügbare Erklärung für die Messergebnisse im Hafele-Keating-Experiment. Und es ist naheliegend, dass der wissenschaftliche Realist vor dem Hintergrund dieses Erfolges auf die Wahrheit der Speziellen Relativitätstheorie schließen können möchte. Das Beispiel zeigt also, dass ein zumindest engerer kausaler Erklärungsbegriff für die Zwecke des Realisten ungeeignet ist. Der Realist sollte sich daher im NMA meiner Meinung nach auf den weiteren, metaphysischen (oder vielleicht noch besser: dispositionellen) Erklärungsbegriff berufen.
Ein weiterer Einwand könnte lauten, dass ich mich mit der Rede von Eigenschaften, die einander hervorbringen, bereits vorschnell auf bestimmte metaphysische Vorstellungen festgelegt habe. Es gibt in der kontemporären Metaphysik indes eine anhaltende Debatte, die man als Debatte um Humesche Metaphysik versus eine Metaphysik der Kräfte bezeichnen kann. Letztere behauptet, dass Eigenschaften unter bestimmten Umständen andere Eigenschaften hervorbringen können, während die Humesche Metaphysik eben das verneint. Der Einwand lautet dann schließlich, dass ich mich mit der Rede von Eigenschaften, die einander hervorbringen, bereits auf eine Metaphysik von Kräften festgelegt habe. Und dass ein NMA, wie von mir selbst gefordert, eigentlich so formuliert werden sollte, dass alle Realisten und damit auch humesche Realisten diese Formulierung akzeptieren können. Gegen diesen Einwand ist folgendes zu sagen: Erstens der (epistemische) Realist ist auf eine realistische Sicht auf die Quantenmechanik als die gegenwärtig erfolgreichste Theorie überhaupt verpflichtet. Die Quantenmechanik verletzt das Prinzip der Seperabilität und die Humesche Metaphysik beruht maßgeblich auf diesem Prinzip (siehe unter anderem Maudlin (2007), S. 50 - 78 und Humphreys (2013), S. 56 – 58). Ein humescher Wissenschaftsrealismus ist so betrachtet keine konsistente Position. Zweitens nach der Humeschen Metaphysik sind die fundamentalen physikalischen Eigenschaften in der Welt intrinsisch und kategorial. Alle anderen nicht-fundamentalen Eigenschaften supervenieren über diesen Eigenschaften. Diese Konzeption ist gleich in zweierlei Hinsicht ein Problem für das NMA: (1) Wenn unbeobachtbare Eigenschaften intrinsisch und kategorial sind, können sie keine beobachtbaren Eigenschaften hervorbringen und auch sonst in überhaupt keiner originärer Relation zu diesen stehen. Dann ist für mich aber unverständlich, wieso man aufgrund von beobachtbaren Eigenschaften auf die Existenz von unbeobachtbaren Eigenschaften schließen sollte. (2) Das folgende epistemische Prinzip erscheint plausibel: Wir haben einen erkenntnismäßigen Zugang zu einer beliebigen natürlichen Eigenschaft F nur dadurch, dass Vorkommnisse von F in geeigneten (meist: kausalen) Relationen zu unserem kognitiven Erkenntnisapparat stehen. Nach der Humeschen Metaphysik sind die Eigenschaften in der Welt aber primitive Washeiten, die unabhängig von kausalen oder nomologischen Relationen bestehen. Aufgrund dessen ist es unmöglich zu sagen, worin diese primitiven Washeiten bestehen und ob es sie überhaupt gibt. Wenn wir also in einer Welt leben, die von der Humeschen Metaphysik wahrheitsgemäß beschrieben wird, dann besitzen wir keinen erkenntnismäßigen Zugang zu den Eigenschaften in dieser Welt (Shoemaker (1980), Jackson (1998), S. 23f.). Es folgt, dass wenn wir in einer humeschen Welt leben, die zentrale Annahme im NMA nicht begründen können, nach der es einen wissenschaftlichen, beobachtbaren (erkennbaren) Erfolg in der Welt gibt.
[1] Generell kann zwischen globalen und lokalen Versionen des NMA unterschieden werden. Eine globale Version des NMA bezieht sich im Explanandum auf alle oder zumindest auf eine Gesamtheit der Theorien mit einer gewissen Erfolgseigenschaft E. Das Explanans enthält entsprechend eine generelle realistische Aussage über Theorien mit dieser Eigenschaft. Hilary Putnam (Putnam (1978), S. 19 bes. Fußnote 1) und Martin Carrier (Carrier (1991), S. 24) vertreten beispielsweise eine globale Version des NMA. Eine lokale Version des NMA bezieht sich dahingegen im Explanandum nur auf einzelne Theorien und ihren empirischen Erfolg. Eine solche Version findet sich etwa bei Alan Musgrave (Musgrave (1988), S. 239 - 240) und Peter Achinstein (Achinstein (2002)). Aus lokalen Versionen des NMA lassen sich direkt nur singuläre realistische Aussagen über wissenschaftliche Theorien ableiten. Generelle Aussagen über erfolgreiche Theorien o.Ä. lassen sich wenn überhaupt dann nur in einem zweiten (induktiven) Schritt gewinnen. Ich persönlich werde der Einfachheit halber globale und lokale Versionen gleich behandeln und nicht auf die Frage eingehen, welche der beiden Versionen attraktiver oder angemessener ist (für einen guten Überblick zu dieser Frage siehe Henderson (2017)).
[2] Musgrave selbst bringt nicht genau dieses Schema an, sondern bringt es durch diese zusätzliche Prämisse auf die Form eines gültigen deduktiven Inferenzschemas:
“It is reasonable to accept a satisfactory explanation of any fact, which is also the best available explanation of that fact, as true” - Alan Musgrave: The Ultimate Argument for Scientific Realism. In: Robert Nola (Hrsg.): Relativism and Realism in Sciences. Dordrecht: Springer Verlag, S. 239.
Und die Konklusion wird entsprechend abgeschwächt zu:
“Therefore, it is reasonable to accept H as true” (ebd.)
Dieser Schritt wird verständlich, wenn man bedenkt, dass Alan Musgrave ein Deduktivist ist. Das heißt, er ist der Meinung, dass die einzig gültigen Schlüsse deduktiv gültige Schlüsse sind und wir folglich auch allein eine deduktive Logik brauchen (Musgrave (1999), S. 395). Unabhängig davon, wie man zum Deduktivismus steht, scheint mir die zusätzliche Prämisse keinen für unsere Zwecke wesentlichen Unterschied zu machen. Denn mit oder ohne diese Prämisse geht es im Kern um die Frage, ob die in der Prämisse ausgedrückte Annahme wahr ist, das heißt, ob es vernünftig ist, eine gute und relativ beste Erklärung für ein gegebenes Phänomen als wahr zu akzeptieren. Für eine ausführliche Kritik an Musgraves Deduktivismus siehe auch Psillos (2009), S. 52 – 55.
[3] Hier ist ein Beispiel (Vgl. unter anderem Wilholt (2014), S. 226):
ExplanandumS:
Die Verteilung der verschiedenen Fossilien in den verschiedenen Schichten und Regionen der Erde, die morphologischen Gemeinsamkeiten und Unterschiede der Lebewesen, die geographische Verteilung
der Arten und ihre Angepasstheit an ihre jeweiligen Umwelten, und so weiter.
ExplanansS: Die biologischen Arten sind durch natürliche Selektion entstanden.
Grob gesprochen erklären Evolutionsbiologen das ExplanandumS durch das ExplanansS. Nach meiner Einschätzung dürften sie sich aber Großteils nicht dazu hinreißen lassen zu sagen, dass das erschlossene ExplanansS mit einer bestimmten Wahrscheinlichkeit wahr ist. Der Schluss auf die beste Erklärung ist also gerade auch dann ein interessantes Schlussprinzip, wenn es nicht vernünftig erscheint, einen bestimmten Wahrscheinlich-keitsgrad für die Wahrscheinlichkeit der Wahrheit einer Erklärung anzugeben.
[4] Es stimmt, dass wir nicht a priori beweisen können, dass zum Beispiel eine einfachere Erklärung in unserer aktualen Welt wahrscheinlicher wahr ist. Denn Aussagen wie "in unserer Welt bringen meistens komplizierte und nicht einfache Mechanismen oder Eigenschaften Explanandum-Phänomene hervor" birgen keine logischen Widersprüche (überhaupt scheint mir "Einfachheit" mehr ein pragmatischer als ein in irgendeiner Weise epistemisch gelagerter Wert zu sein). Allerdings wird zum Beispiel auch "Kohärenz" oft als ein explanatorischer Wert eingeführt (Vergleich Mackonis (2013)). Eine notwendige, wenn auch nicht hinreichende Bedingung für Kohärenz ist innere Konsistenz. Eine komplexe Erklärung ohne sich einander widersprechende Aussagen ist also kohärenter als eine mit. Insofern also davon ausgegangen werden kann, dass der Satz vom Widerspruch a priori erkannt werden kann, das heißt, dass eine Aussage A nicht zugleich zutreffen und nicht zutreffen kann, kann vielleicht auch apriori erkannt werden, dass Kohärenz eine wahrheitsförderliche Eigenschaft von Erklärungen ist.
[5] Eine Ausnahme stellt eine neuere skeptische Hypothese dar. Nach dieser befinden wir uns in einer computational generierten Simulation einer Realität. Befürworter dieser Hypothese argumentieren, dass es nicht nur möglich, sondern sogar wahrscheinlich ist, dass wir in einer Simulation leben (Bostrom (2003), insbesondere Abschnitt IV.).
[6] Prämissenzirkularität wird oft anders definiert als von mir, nämlich so Def1: Ein Argument ist zirkulär, gdw. es mindestens eine Prämisse enthält, die die Schlussfolgerung voraussetzt. Wenn diese Definition korrekt wäre, dann wäre Descartes` berühmtes "Cogito-Argument" zirkulär. Denn dass ich denke, setzt voraus, dass ich existiere (sonst würde das Argument nicht funktionieren!). Descartes Argument ist aber durchaus überzeugend und informativ und da "Prämissenzirkulärität" eine schlechte Eigenschaft von Argumenten anzeigen soll, ist Def1 offenbar unzufriedenstellend.
[7] Hier ist eine Klarstellung angebracht: Laudans Pessimistische Meta-Induktion kann eine induktive und eine deduktive Form annehmen (Mizrahi (2012)). Das Gleiche gilt für Stanfords Argument der unbedachten Alternativen. Ich habe auf den Seiten 10 – 11 dieser Arbeit dargelegt, dass ich solche Argumente in induktiver Form für schlechte Argumente halte. Es scheint mir unverständlich, warum heutige Theorien falsch sein sollten, weil vergangene Theorien falsch waren (bestenfalls könnte man hier vielleicht mit einer Pfadabhängigkeit argumentieren). Die Argumente von Laudan und Stanford in einer deduktiven Form nehme ich aber sehr ernst. Das sind aber keine Argumente mehr für einen Antirealismus, sondern gegen das realistische No-Miracle Argument: (P1) Wenn das NMA ein rationales Argument ist, dann müssten (in einem in den Prämissen eines NMA explizierten Sinne) erfolgreiche Theorien häufig wahr sein. (P2) Die Wissenschaftshistorie zeigt, dass erfolgreiche Theorien oftmals falsch sind. (K1) Das NMA ist kein rationales Argument.
[8] In jüngster Zeit haben einige Autoren dafür argumentiert, dass sogar ein selektiver Realismus in Bezug auf alle erfolgreichen Theorien immer noch zu weit gefasst ist. Wissenschaft, so behaupten sie, ist kein einheitliches Unternehmen, sondern äußerst inhomogen. Es gibt große Unterschiede in verschiedenen Teilen der Wissenschaft in Bezug auf ihre jeweiligen Methoden, Erklärungen, Argumentationen und vieles mehr. Deshalb sollte man sich diese Teile separat anschauen und prüfen, was für oder gegen eine realistische Haltung in Bezug auf diese Teile spricht (siehe zum Beispiel Magnus and Callender (2004), S. 335; Saatsi (2009); Saatsi (2017); Fitzpatrick (2013); Asay (2017)).
[9] Eine Ausnahme stellt Richard Boyd dar. Boyd plädiert bei seinem NMA ausdrücklich für einen kausalen Erklärungsbegriff (Boyd (1990), S. 376). Für eine genauere Erläuterung seines kausalen Erklärungsbegriffs siehe auch Boyd (1989), S. 12.
[10] Ich gehe davon aus, dass ein wissenschaftlicher Realismus in Bezug auf eine wissenschaftliche Theorie besagt, dass die theoretischen Terme dieser Theorie der Absicht nach auf theoretische Entitäten referieren und zumindest näherungsweise wahre Beschreibungen dieser Entitäten beinhalten. Ich verstehe den wissenschaftlichen Realismus also primär im Sinne eines semantischen wissenschaftlichen Realismus. Der wissenschaftliche Antirealismus ist dann einfach nur die Negation des wissenschaftlichen Realismus. Dieses Verständnis schließt mit ein, dass ein wissenschaftlicher Antirealist glauben kann, dass die Wahrmacher von theoretischen Ausdrücken in wissenschaftlichen Theorien beobachtbare Phänomene sind.
[11] In Wirklichkeit wird ein Beobachtungssatz nicht nur aus einer einzigen Theorie, sondern aus einer Theorie mitsamt Hintergrundannahmen abgeleitet. Hierauf haben unter anderem Willard Van Orman Quine und Pierre Duhem hingewiesen. Ich blende diesen Umstand hier, der Einfachheit halber, aus.
[12] Nehmen wir an, es gibt eine Menge M von explanatorischen Werten, die plausibel sind und welche die bohmsche Mechanik und die Kopenhagener Deutung als gleich gute Erklärungen für den Erfolg der nicht-relativistischen Quantenmechanik auszeichnen. Dann steht der Realist natürlich auch vor einem Problem, aber das ist dann eine Art explanatorisches Unterbestimmtheitsproblem, das heißt, die empirische Evidenz plus die Werte in M lassen unterbestimmt, welche der beiden Theorien den empirischen Erfolg besser erklärt. Es ist aber kein Problem alternativer antirealistischer Explanantia.
[13] Es gibt raffinierte Versuche, die Humesche Metaphysik durch leichte Modifikationen gegen diese beiden Einwände zu verteidigen, auf die ich hier aus Platzgründen nicht eingehen kann. Ich begnüge mich hier damit, auf die Arbeiten von Michael Esfeld zu verweisen, der diese Versuche meiner Ansicht nach überzeugend zurückgewiesen hat (Esfeld (2008), S. 132 – 137 und S. 155 – 166).
Achinstein, Peter (2002). Is there a valid Experimental Argument for Scientific Realism? The Journal of Philosophy 99 (9), S. 470 – 495.
Alai, Mario (2014). Novel Predictions and the No Miracle Argument. Erkenntnis 79 (2), S. 297 - 326.
Asay, Jamin (2019). Going local: a defense of methodological localism about scientific realism. Synthese 196 (2), S. 587 – 609.
Bartelborth, Thomas (2007). Erklären. Berlin, New York: DeGruyter.
Bird, Alexander (2017). Scientific Realism and Epistemology. In: Juha Saatsi (Hrsg.), The Routledge Handbook of Scientific Realism, London: Routledge, S. 419 – 434.
Bostrom, Nick (2003). Are you living in a Computer Simulation? Philosophical Quarterly 53 (211), S. 243 ‐ 255.
Boyd, Richard (1980). Scientific Realism and Naturalistic Epistemology. PSA: Proceedings of the Biennial Meeting of the Philosophy of Science Association, S. 613 - 662.
Boyd, Richard (1985). Lex Orandi est Lex Credendi. In: Paul M Churchland, Clifford A. Hooker (Hrsg.), Images of Science: Essays on Realism and Empiricism with Replies from Bas C. Van Frassen, Chicago: University of Chicago Press, S. 3 – 34.
Boyd, Richard (1989). What Realism Implies and What it does not. Dialectica 43(1/2), S. 5 - 29.
Boyd, Richard (1990). Realism, Approximate Truth, and Philosophical Method. In: C. Wage Savage (Hrsg.), Scientific Theories. Minneapolis: University of Minnesota Press , S. 355 – 391.
Boyd, Richard (1991). On the Current Status of the Issue of Scientific Realism. In: Richard Boyd, Philip Gasper; J.D. Trout (Hrsg.), The Philosophy of Science, Cambridge: MIT Press, S. 195 – 221.
Braithwaite, Richard Bevan (1953). Scientific Explanation. Cambridge: Cambridge University Press.
Carrier, Martin (1991). What is wrong with the miracle argument? Studies in History and Philosophy of Science 22 (1), S. 23 – 36.
Chakravartty, Anjan (1998). Semirealism. Studies in History and Philosophy of Science Part A, 29 (3), S. 391 - 408.
Chakravartty, Anjan (2010). A Metaphysics for Scientific Realism: Knowing the Unobservable. Cambridge: Cambridge University Press.
Godfrey-Smith, Peter (2011). Induction, Samples, and Kinds. In: Joseph Keim Campbell, Michael O' Rourke; Matthew Slater (Hrsg.), Carving Nature at Its Joints: Natural Kinds in Metaphysics and Science (Topics in Contemporary Philosophy), Cambridge: MIT Press, S. 33 – 52.
Esfeld, Michael (2008). Naturphilosophie als Metaphysik der Natur. Frankfurt am Main: Suhrkamp Verlag.
Fine, Arthur (1984). The Natural Ontological Attitude. In: Jarrett Leplin (Hrsg.), Scientific Realism, Berkeley: University of California Press, S. 83 – 107.
Fine, Arthur (1986). Unnatural Attitudes: Realist and Instrumentalist Attachments to Science. Mind, 95 (378), S. 149 - 179.
Fitzpatrick, Simon (2013). Doing away with the No Miracles Argument. In: Dennis Dieks & Vassilios Karakostas (Hrsg.): Recent Progress in Philosophy of Science: Perspectives and Foundational Problems. Dordrecht: Springer.
Henderson, Leah (2018). Global versus local arguments for realism. In: Juha Saatsi (Hrsg.): The Routledge Handbook of Scientific Realism, London: Routledge/Taylor & Francis, S. 151 – 163.
Humphreys, Paul (2013). Scientific Ontology and Speculative Ontology. In: Don Ross, James Ladyman, and Harold Kincaid (Hrsg.): Scientific Metaphysics. Oxford: Oxford University Press, S. 51 – 78.
Jackson, Frank (1998). From Metaphysics to Ethics. A Defence of Conceptual Analysis. Oxford: Oxford University Press.
Kitcher, Philip (1981). Explanatory Unification. Philosophy of Science 48 (4), S. 507 - 531.
Kitcher, Philip (1989). Explanatory Unification and the Causal Structure of the World. In: Kitcher, Philip; Salmon, Wesley C. (Hrsg.): Minnesota studies in the philosophy of science. Volume 13, S. 410 – 505.
Klärner, Holger (2003). Der Schluss auf die beste Erklärung. Berlin, Boston: DeGruyter.
Ladyman, James; Douven, Igor; Horsten, Leon; Van Fraassen, Bas. (1997). A Defence of Van Fraassen's Critique of Abductive Inference: Reply to Psillos. The Philosophical Quarterly, 47 (188), S. 305 - 321.
Ladyman, James (1999). Review of Leplin’s A novel defense of scientific realism. British Journal for the Philosophy of Science 50 (1), S. 181 - 188.
Laudan, Larry (1981). A Confutation of Convergent Realism. Philosophy of Science 48 (1), S. 19 - 49.
Leplin, Jarrett (1997). A novel defense of scientific realism. Oxford: Oxford University Press.
Mackonis, Adolfas (2013). Inference to the best explanation, coherence and other explanatory virtues. Synthese, 190 (6), S. 975 - 995.
Magnus, P.D., & Callender, Craig (2004). Realist Ennui and the Base Rate Fallacy*. Philosophy of Science 71 (3), S. 320 - 338.
Maudlin, Tim (2007). The Metaphysics within Physics. Oxford: Oxford University Press.
Musgrave, Alan (1999). How To Do Without Inductive Logic. Science & Education 8, S. 395 – 412.
Lipton, Peter (1991). Inference to the Best Explanation. London: Routledge/Taylor & Francis.
Mizrahi, Moti (2013). The pessimistic induction: A bad argument gone too far. Synthese 190 (15), S. 3209 – 3226.
Musgrave, Alan (1988). The Ultimate Argument for Scientific Realism. In: Robert Nola (Hrsg.): Relativism and Realism in Sciences. Dordrecht: Springer Verlag, S. 229 – 252.
Park, Seungbae (2014). A Pessimistic Induction against Scientific Antirealism. Organon F 21 (1), S. 3 - 21.
Psillos, Stathis (1996). On van Fraassen's Critique of Abductive Reasoning. The Philosophical Quarterly. 46 (182), S. 31 - 47.
Psillos, Stathis (1999). Scientific Realism: How Science Tracks Truth. London: Routledge/Taylor & Francis.
Psillos, Stathis (2009). Knowing the structure of nature: Essays on realism and explanation. London: Palgrave Macmillan.
Putnam, Hilary (1975). Mathematics, Matter and Method. Cambridge: Cambridge University Press.
Putnam, Hilary (1978). Meaning and the Moral Sciences. London: Routledge/Taylor & Francis.
Quine, Willard Van Orman (1975). On empirically equivalent systems of the world. Erkenntnis 9 (2), S. 313 – 328.
Salmon, Wesley C. (1957). Should We Attempt to Justify Induction? Philosophical Studies: An International Journal for Philosophy in the Analytic Tradition 8 (3), S. 33 - 48.
Smart, John J. C. (1963). Philosophy and Scientific Realism. London: Routledge.
Saatsi, Juha (2009). Form vs. Content-driven Arguments for Realism. In: In P. D. Magnus & Jacob Busch (Hrsg.), New Waves in Philosophy of Science. Basingstoke: Palgrave-Macmillan.
Saatsi, Juha (2017). Replacing recipe Realism. Synthese 194 (9), S. 3233 – 3244.
Shoemaker, Sydney (1980). Causality and Properties. In: Peter van Inwagen (Hrsg): Time and Cause. Dordrecht: D. Reidel.
Stanford, Kyle P. (2006). Exceeding our grasp: Science, history, and the problem of unconceived alternatives. Oxford: Oxford University Press.
Tschepke, Frank (2003). Wissenschaftlicher Realismus. https://ediss.uni-goettingen.de/bitstream/handle/11858/00-1735-0000-0006-AFB0-3/tschepke.pdf?sequence=1 Abgerufen am 08. Juli 2020.
Van Fraassen, Bas (1989). Laws and Symmetry. Oxford: Oxford University Press.
Van Fraassen, Bas (1998). The Agnostic Subtly Probabilified. Analysis 58 (3), S. 212 - 220.
Wilholt, Thorsten (2014). Logik und Argumentationstheorie. https://www.philos.uni-hannover.de/fileadmin/philos/Dateien/Personen_-_Dokumente/Wilholt/Logik.pdf. Abgerufen am 08. Juli 2020.
Wiltsche, Harald (2013). Einführung in die Wissenschaftstheorie. Stuttgart: UTB-GmbH.
zum vorherigen Blogeintrag zum nächsten Blogeintrag
Liste aller Blogbeiträge zum Thema "Wissenschaftlicher Realismus"
Kommentar schreiben
Philoclopedia (Dienstag, 28 Dezember 2021 01:02)
https://www.youtube.com/watch?v=AATFdLNcqrY&t=559s&ab_channel=KaneB
Philoclopedia (Samstag, 01 Januar 2022 19:10)
https://www.degruyter.com/document/doi/10.1524/dzph.2006.54.3.417/html
Philoclopedia (Donnerstag, 07 Juli 2022 08:08)
http://www.alexanderbird.org/Research/Scientific_Realism_and_Three_Problems_for_IBE.pdf
Philoclopedia (Donnerstag, 14 Juli 2022 02:49)
https://philpapers.org/rec/PSITSA