Teil 3:  
    Die Irrtümer der Nachbesserer und Weiterentwickler von Theorien  
     

Ein Paradigmenwechsel ja wirklich das Allerletzte, was die überwältigende Mehrheit der heutigen Ökonomen sich vorstellen kann. Dies war schon früher so, und bis heute hat sich daran nichts geändert. Rein menschlich betrachtet lässt sich diese Haltung durchaus verstehen. Würde ein neuer Anfang gelingen, dann würden alle, die ihre Karrieren, Posten und Privilegien den etablierten Wirtschaftswissenschaft zu verdanken haben, nicht mehr als angesehene Wissenschaftler gelten, sondern als Schriftgelehrten eines überlebten Aberglaubens. Deshalb braucht man sich nicht zu wundern, dass sich die Ökonomen jede Menge Ausreden einfallen lassen, um schon von dem Versuch abzuraten, über eine echte Alternative bzw. über ein neues Paradigma nachzudenken. Mit solchen Versuchen würde man sich von der seriösen Wissenschaft verabschieden und unausweichlich in Utopien abgleiten, hört man von ihnen immer wieder. Es hat sich zwar auch bei ihnen herumgesprochen, dass man in anderen Wissenschaften einen ausdrücklich positiven Bezug zum Paradigmenwechsel hat, aber davon wollen sie nichts wissen. Lieber erklären sie die Sozial- und Wirtschaftswissenschaften für etwas anderes, bei denen es einen Paradigmenwechsel nicht geben kann und darf. Bei diesen Wissenschaften käme es immer nur darauf an, das „Bewährte“ zu erhalten und es weiter zu entwickeln. Wir zeigen jetzt, dass diese Auffassung nicht zu halten ist.

„Theoriefehler lassen sich lokalisieren und beseitigen“

Erfolgreiche Wissenschaften, die man heute als exakt bezeichnet, leiten ihre Erkenntnisse von Modellen ab, die als ein widerspruchsfreies und zusammenhängendes logisches Ganzes gebaut sind. Wenn wir eine Wissenschaft prüfen, setzen wir ein logisches Ganzes, also ein System in Funktion, und nicht seine einzelnen Teile. Man sagt dazu auch, dass „die Maßeinheit der empirischen Signifikanz die Wissenschaft als gesamte ist“.... > Ein Wissenschaftler kann „niemals eine isolierte Hypothese, sondern immer nur eine ganze Gruppe von Hypothesen der Kontrolle des Experiments unterwerfen“.... > Folglich stehen einer Wissenschaft nicht einzelne Tatsachen, sondern ein vollständiges System der Gesamtheit empirischer Tatsachen gegenüber. Sollte es zu Widersprüchen zwischen den theoretischen Erwartungen und den empirischen Ergebnissen kommen, „werden dann nicht einzelne Hypothesen durch die Erfahrung widerlegt, sondern die ganze Theorie.“... > Dies macht die Suche nach Fehlern äußerst schwierig. Wenn alle Teile eines Systems untereinander in einem festen logischen Zusammenhang stehen, werden wir nie eine bestimmte defekte Stelle in der theoretischen Konstruktion einer problematischen Theorie finden (experimentum crucis), die dann als heiße Spur dienen kann, um zum wirklichen „Übeltäter“ zu gelangen. Die Irrtümer einer gescheiterten Theorie „lassen sich nicht einfach einer nach dem anderen ausräumen: Sie sind koordiniert“.... >

Ein weiterer Grund, warum wir nicht einen Teil des Modells oder des Paradigmas nach dem anderen einer strengen Prüfung unterziehen können, liegt darin, dass die Elemente und die Komponenten einer Theorie - ihre Prämissen, Hypothesen, Relationen und Abstraktionen - zum Teil lediglich Als-Ob-Fiktionen der Wirklichkeit darstellen. Ihnen fehlt nicht nur die ontologische Begründung, sondern sie sind oft nicht einmal für die Realität gedacht. Sie werden in eine Theorie aufgenommen und integriert, damit diese widerspruchsfrei und zusammenhängend wird. Folglich dürfen sie später nicht nach Belieben entfernt werden, auch wenn berechtigte Vermutungen auftauchen, dass gerade sie es sind, die den Zugang der Theorie zur empirischen Realität verhindern. Trotz aller Zweifel, gehören alle unterschiedlichen „realitätsfremden“ Komponenten einer Theorie weiterhin „zu dem Schiff, das wir ... nicht anders umbauen können, als indem wir darin auf See bleiben. ... Es mag sein, daß das Schiff seine Bauweise stümpernden Vorgängern verdankt, die es nur deshalb nicht zum Sinken gebracht haben, weil sie mehr Glück als Verstand hatten. Wir jedoch können es uns nicht erlauben, irgendeinen Teil des Schiffes über Bord zu werfen, es sei denn, wir haben Ersatzlösungen zur Hand, die dieselben wesentlichen Zwecke erfüllen.“... >

Der Gebrauch von Fiktionen ist in den exakten Wissenschaften nicht nur eine gängige und weit verbreitete Angelegenheit, sondern er war eigentlich nie ernsthaft in Frage gestellt. Nicht selten gehören sogar die wichtigsten Prämissen der erfolgreichsten Wissenschaften zu den Als-Ob-Fiktionen. Man prüft sie nicht empirisch, weil von vornherein klar ist, dass dies keinen Sinn hätte. Hierfür wird gern ein Beispiel aus der Optik angeführt: Wenn sich in den so genannten Brechungsgesetzen der Optik der Weg eines Lichtstrahls durch verschiedene Medien dadurch nachvollziehen und vorhersagen lässt, dass man die Zeit minimiert, die ein Lichtstrahl braucht, um von einem bestimmten Punkt zu einem anderen zu gelangen, dann ist es irrelevant, ob der Lichtstrahl es eilig hat oder nicht: er verhält sich eben so, als ob er in Eile wäre. Beispiele aus der klassischen Mechanik sind noch drastischer. Galilei und Newton wussten natürlich, dass die Planeten, die Sonne und der Mond nicht materielle Punkte ohne Dimensionen sind, trotzdem sind sie von dieser Annahme ausgegangen. Wenn man sich diese Approximation vor Augen hält, kann man in der Tat kaum behaupten, diese sei nicht sinnloser, als etwa die des Weglassens der Profite im partikel-mechanischen Marktmodell. Eine seriöse Theorie wird nicht daran gemessen, was sie voraussetzt, sondern daran, was sie aussagt: ob ihre Aussagen richtige Prognosen im Bereich der Tatsachen liefern und ob sich mit ihnen etwas praktisch erreichen lässt. Gerade für solche Aussagen hat sich in der Physik das partikel-mechanische Modell, trotz seiner Fiktionen, als erstaunlich erfolgreich erwiesen - allerdings nur im Bereich der Bewegung der mittelgroßen Massen mit mittelgroßen Geschwindigkeiten. In der neoliberalen Theorie, die auf demselben Modell beruht, ist es genau umgekehrt: ihre Aussagen liegen immer und überall daneben.

Es ist merkwürdig, dass die neoliberale Fiktion des Weglassens der Profite weit weniger Kritik auf sich gezogen hat als eine andere, die bei weitem nicht so realitätsfremd ist, die des homo oeconomicus. Sie wurde erst nach Ricardos Tod, aber immerhin noch zu Lebzeiten von Malthus ins Leben gerufen, so dass sie eigentlich keine genuin neoliberale Fiktion ist. Der homo oeconomicus, so der übliche Vorwurf der Kritiker, würde nicht dem „wirklichen“ Menschen entsprechen, so negativ sei die menschliche Natur nicht. Aber das ist nicht entscheidend. Es geht darum ob sich der homo oeconomicus als theoretische Annahme nützlich erweist, und zwar als ein „Testgerät“ oder eine „Sonde“, mit deren Hilfe der Ökonom die Funktionsfähigkeit des Marktes untersucht. „Der homo oeconomicus stellt ein Modell vom Menschen dar, das nur zu ganz spezifischen Forschungszwecken entwickelt worden ist und nur für diese eingeschränkten Forschungszecke mehr oder weniger tauglich sein kann.“ Es handelt sich bei ihm also nicht um ein universelles Menschenbild, „das den Menschen in der ganzen Fülle seiner gegenwärtigen und historischen Existenz beschreiben soll. So verstanden wäre der homo oeconomicus empirisch vielfach falsifiziert und normativ abzulehnen“.... > Und gerade deshalb ist es auch irrelevant, ob der homo oeconomicus „wahr“ ist oder nicht. Dasselbe gilt auch für eine ganze Reihe anderer Prämissen, Hypothesen, Relationen und Abstraktionen in der ökonomischen Theorie.

Wegen des problematischen Charakters der Bestandteile von Theorien in Bezug auf die Realität lässt sich folgern, dass nur „der Rand des Systems mit der Erfahrung in Einklang gehalten werden muß; der Rest mit all seinen hochstilisierten Mythen und Fiktionen ist auf die Einfachheit der Gesetze gerichtet“.... > Der Erkenntnistheoretiker Willard Quines spricht deshalb von einer „empirischen Unterbestimmtheit der Wissenschaft“ und vergleicht sie mit einem „von Menschen geflochtenem Netz, das nur an seinen Rändern mit der Erfahrung in Berührung steht“.... > Anders gesagt: Eine Wissenschaft muss nicht mit Tatsachen anfangen, sie muss aber mit welchen enden. Sie muss „Ränder“ haben, an denen sie mit einer hinreichenden Anzahl von Tatsachen übereinstimmt (principium rationis sufficientis) - für die sie sozusagen haftet. Das bedeutet zugleich, dass die Wissenschaft auch dem negativen Kriterium Genüge leisten muss, nämlich „an der Erfahrung scheitern zu können“. Wie sonst ließe sich herausfinden, ob eine Theorie überhaupt die Wirklichkeit erreicht hat oder ob sie nur eine aus den Wünschen und Spekulationen gesponnene Abstraktion ist? Dazu gibt es in der Tat keine andere Möglichkeit, als die Theorie dabei zu ertappen, dass sie etwas voraussagt, was nicht eintreten wird, oder dass sie verspricht etwas zu bewerkstelligen, was ihr nicht gelingen wird.

Das negative Kriterium der Theorieprüfung hat Popper mit seiner Falsifikationsmethode sehr bekannt gemacht, er ist dabei aber zu weit gegangen und das Ziel weit verfehlt. Das größte Problem seiner Falsifikationsmethode besteht darin, dass es keine Theorie gibt, die irgendwo nicht versagt. Sogar die besten Theorien sind nur auf einen winzigen Teil der Wirklichkeit bedacht, für den großen Rest sind sie unbrauchbar. Die hoch abstrakten Theorien beanspruchen zwar die universelle Geltung, aber sie erreichen die Wirklichkeit nicht, so dass sie sich auch nicht falsifizieren lassen. Hier erkennen wir welche Gefahr das Falsifikationsprinzip für die wissenschaftliche Forschung in sich birgt. Lässt sich nämlich ein Wissenschaftler nur von diesem Prinzip leiten, würde er dazu neigen Theorien zu entwickeln, die zwar gegen eigenes empirisches Scheitern immun sind, die aber keinen praktischen Nutzen vorweisen könnten. Es kommt also nicht von ungefähr, dass bei den exakten Wissenschaften das Prinzip der Falsifikation im Sinne eines allgemeinen Kriteriums der Prüfung von Theorien von keiner Bedeutung ist. „Wenn jede einzelne Nichtübereinstimmung [mit dem empirischen Befund] ein Grund für die Ablehnung einer Theorie wäre, müßten alle Theorien allezeit abgelehnt werden“, stellt Thomas Kuhn fest und folgert daraus, dass es falsifizierende Kriterien im Popperschen Sinne „überhaupt nicht gibt“.... > Die korpuskulare Lichttheorie falsifiziert zum Beispiel die Grundlagen der elektromagnetischen und umgekehrt; sollten wir uns aber von dem Falsifikationsprinzip leiten lassen, müssten wir beide abstoßen und tief in das 19. Jahrhundert zurückkehren.

Auch in den Sozialwissenschaften finden wir keine ernst zu nehmenden Beispiele, dass sich das Falsifikationsprinzip im Popperschen Sinne bewährt hat. Noch am wenigsten traf dies bei der neoliberalen Theorie zu. Durch deren Rezepte ist damals die Weltwirtschaft zusammengebrochen und die Welt ist in den brutalsten Krieg der gesamten Geschichte gestürzt worden. Dies hat aber nur wenige Verfechter dieser gescheiterten Theorie beeindruckt, und kaum jemand von ihnen hat sich für die Zukunft eine wesentlich andere Theorie vorstellen können, als die zuvor gescheiterte. Hayek wollte sogar genau die gleiche Wirtschaftspolitik nach dem Krieg fortsetzen, nur noch rigoroser. Er warnte in der Pose des Propheten der Apokalypse vor dem „Weg zur Knechtschaft“, den er in der keynesianischen Wirtschaftspolitik zu sehen meinte, und zwar auch dann noch, als es offensichtlich geworden war, dass die westliche Welt ein noch nie da gewesenes Wirtschaftswunder erlebte. Sollte man sich also im Ernst noch mehr von den „Falsifikationen“ der neoliberalen Theorie wünschen? Hayek hat sie allerdings alle links liegen lassen, und die Geschichte hat ihm Recht gegeben. Nach wenigen Jahrzehnten hat sich das entfesselte neoliberale Ungeheuer als unschuldig, jungfräulich, neu und von natürlichem Charme zurückgemeldet. Mag man also über Hayek denken, wie man will: sein Wagnis, allen ökonomischen Tatsachen den Krieg zu erklären und ihn zu gewinnen, ist in höchstem Maße beeindruckend. Dadurch hat er sich bestimmt den vordersten Platz unter den prominentesten Pseudowissenschaftlern des vorigen Jahrhunderts gesichert.

„Eine richtige Theorie lässt sich immer weiter entwickeln“

Wenn eine Theorie ein widerspruchsfreies und zusammenhängendes System (Modell) darstellt, ist sie auf eine, ihr eigentümliche Weise ein vollendetes Ganzes. Auch wenn sich aus ihren Begriffen und Relationen immer neue Konstrukte bauen lassen, sind diese lediglich Variationen einer bestimmten Zahl von Mustern. Nur ein Teil von ihnen wird sich als geeignet zeigen, bestimmte Tatsachen vorherzusagen oder zu verwirklichen, alles andere, was ins theoretisch Unendliche wuchert, ist nur ein nutzloses symbolisches Spiel, dem gegenüber die Realität verschlossen bleibt. Dort, wo die Theorie die Realität nicht mehr erreicht, spricht man von Anomalien und Paradoxien. Sie sind aber keine rätselhaften Unregelmäßigkeiten dessen, was wir Realität nennen, sondern sie bedeuten einen nicht adäquaten Standpunkt des Beobachters - ein falsches konzeptuelles Schema in dem Hintergrund seines Denkens.

Eine Möglichkeit, trotzdem an die „rebellischen“ Tatsachen heranzukommen, besteht dann darin, die Theorie mit Ad-hoc-Hypothesen zu erweitern. Diese werden so formuliert, dass ein Eindruck entsteht, es sei ein neuer Grundsatz entdeckt worden. Dies kann zwar der Fall sein, aber oft stellt sich heraus, dass es sich anstelle eines neuen Grundsatzes nur um eine neue Spitzfindigkeit handelt. Die Alltagserfahrung liefert uns dafür viele Beispiele. Ein raffinierter Betrüger, der in Bedrängnis gekommen ist, wird auf einmal geständig: „Ja“ - sagt er - „meine Aussage ist nach wie vor richtig, weil sie bereits dort und damals bestätigt worden ist; jetzt und hier stimmt sie nur deshalb nicht, weil sich inzwischen an den Umständen dieses und jenes geändert hat.“ Auf diese Weise erwirbt er sich unauffällig ein Recht auf Korrekturen, damit seine Erklärung ihre Gültigkeit bewahrt, beziehungsweise zurückgewinnt. Diese Korrekturen sind seine Ad-hoc-Hypothesen. Er stilisiert sie dann auf eine logische Weise, damit sie als neue Grundsätze wirken. Aus der Nutzlosigkeit aller solcher Bemühungen lässt sich schließen, dass wir auf der Grundlage, oder anders gesagt, auf der axiomatischen Basis einer Theorie, die wissenschaftlich sein will, nicht beliebig viele Ad-hoc-Hypothesen aufbauen dürfen. Hat man dies getan, wird die Theorie zwar auf immer mehr (Ex-post-) Situationen retrospektiv anwendbar, sie eignet sich jedoch für immer weniger (Ex-ante-) Vorhersagen. Wir wissen dann nämlich nicht mehr, welche von den vorhandenen Optionen der jeweiligen Theorie für die jetzt und hier gesuchte Vorhersage angewandt werden soll. Dann hören wir immer das bekannte: „Es kommt darauf an“, und im Nachhinein stellt sich heraus, dass es eben darauf nicht ankam.

Ad-hoc-Hypothesen sind eigentlich das probateste Mittel, um zu verhindern, dass eine Theorie widerlegt wird. Sie sind beliebt weil es nie besonders schwierig ist, irgendwelche vorgeschobenen Gründe zu finden, mit denen sich aufgetretene Widersprüche notdürftig verdecken lassen. Daher kommt es nicht von ungefähr, dass man immer wieder feststellen muss, dass ein empirischer Beweis nur selten eine Theorie mit einem Schlag (experimentum crucis) außer „Gefecht“ setzt. Gute „Beispiele sind die Kopernikanische Revolution und die Spezielle Relativitätstheorie. Es gibt keine widerlegende Tatsache oder eine Menge von solchen, die die Beseitigung von Ptolemäus, Aristoteles, oder die wörtliche Auffassung der Bibel erklären könnte, und es gibt keine widerlegende Tatsache, die die Beseitigung der Lorentzschen Elektronentheorie erklärt und sie auch in den Augen der Beteiligten gefordert hätte. Das Michelsonsche Experiment wird oft in diesem Zusammenhang genannt. ... Man kann natürlich eine Interpretation konstruieren, nach der das Experiment jede Äthertheorie widerlegt (sofern man passende Randbedingungen wählt - und das ist gar nicht einfach!), ... aber erst, nachdem die Entwicklung, die von der Widerlegung angeblich ausgelöst wurde, schon stattgefunden hat.“... > Die Ad-hoc-Hypothesen sind aber keine neue Erfindung, welche sich die modernen Wissenschaftler ausgedacht haben, um die von ihnen lieb gewonnenen, aber empirisch gescheiterten, wissenschaftlichen Theorien zu retten. Sie haben sich schon vor langer Zeit als sehr hilfreich erwiesen, verfehlte Prognosen vor den Tatsachen zu schützen.

Eine bestimmte Anzahl von Ad-hoc-Hypothesen kann natürlich keiner Theorie verwehrt werden. Aber wenn sie immer weiter neue Ad-hoc-Hypothesen oder „Grundsätze“ anhäuft, unabhängig davon, ob diese nach dem Verifikations- oder dem Falsifikationsprinzip ausgewählt werden, kann sie irgendwann nicht mehr produktiv wachsen. Sie degeneriert dann, wie Imre Lakatos es treffend ausdrückt. „Ein Forschungsprogramm schreitet fort, solange sein theoretisches Wachstum sein empirisches Wachstum antizipiert, d. h. solange es neue Tatsachen mit einigem Erfolg vorhersagt (Šprogressive Problemverschiebung‹); es stagniert, wenn sein theoretisches Wachstum hinter seinem empirischen Wachstum zurückbleibt, d. h. wenn es nur Post-hoc-Erklärungen entweder von Zufallsentdeckungen oder von Tatsachen gibt, die von einem konkurrierenden Programm antizipiert und entdeckt worden sind (‚'degenerative Problemverschiebung’).“... > Anstelle eines Fortschritts mit neuen Grundsätzen geht es bei diesen „weiterentwickelten“ Theorien lediglich um einen neuen Anstrich von intellektuellen Ausreden.

In den Wirtschaftswissenschaften verstecken sich Ad-hoc-Hypothesen meistens unter den so genannten Effekten (Realkasseneffekt, Pigou-Effekt, Keynes-Effekt, ...). Unter ihnen versteht man Faktoren, die unter „bestimmten“ bzw. „ungewöhnlichen“ Umständen einen angeblich entscheidenden Einfluss auf ein Geschehen ausüben. Diese Faktoren stammen vor allem aus mikroökonomischen und betriebswirtschaftlichen Erfahrungen, die dann einem makroökonomischen Begriff zugeordnet werden. Oft sind sie aber nur Verallgemeinerungen individueller psychologischer Gewohnheiten, und gerade deshalb sind sie plausibel und beliebt. Mit den geeigneten Effekten kann man sogar ein Modell oder ein Paradigma zu Aussagen zwingen, die seinen allgemeinen Sichtweisen diametral entgegen gesetzt sind. Damit wird es zwar möglich, das eine oder das andere „Paradox“ zu lösen, aber um den Preis, Grundintentionen zur Disposition zu stellen, die einem Paradigma Identität verleihen.

In den Theorien, die der Mathematik genügen wollen, wie die neoklassische ökonomische Theorie, lässt sich der Prozess der Degenerierung durch Ad-hoc-Hypothesen daran erkennen, dass die Gleichungssysteme mit immer neuen Variablen erweitert, oder, wie man dann gerne sagt, „vervollständigt“ oder „verfeinert“ werden. Um den Schwindel zu verschleiern, nennt man diese Variablen auch Restvariablen. Damit soll der Eindruck vermittelt werden, die Theorie funktioniere „im Prinzip“ schon, man versuche sie im Sinne der allmählich abnehmenden Abstraktion nur noch präziser zu machen. Und dies stimmt eben nicht. Die Restvariablen bedeuten nichts anderes als eine mathematische Formulierung von Ad-hoc-Hypothesen, ohne die die betreffende Theorie kläglich scheitern würde. Erwähnen wir hier als Beispiel die sehr oft genützte Restvariable der neoklassischen Konjunktur- und Wachstumstheorie, die als technischer Fortschritt bezeichnet wird. Er ist als Restvariable deshalb besonders geschickt gewählt, weil niemand bestreiten will und kann, dass der technische Fortschritt für die Konjunktur und das Wirtschaftswachstum von großer Bedeutung ist. Das Problem liegt aber anderswo. Der technische Fortschritt ist empirisch nicht eindeutig messbar, so dass man ihm im Nachhinein einen (fast) beliebigen quantitativen Wert zuordnen kann, damit die Lösung der Gleichungssysteme die im Voraus gewünschten Ergebnisse bringt. „Der technische Fortschritt wird auf die Art und Weise eingeführt, daß die Unstimmigkeit der Theorie mit der Realität beseitigt wird. Die Differenz zwischen den tatsächlichen Wachstumsraten der partiellen durchschnittlichen Faktorproduktivitäten und den prognostizierten Wachstumsraten dieser Variablen wird dem technischen Fortschritt zugeschrieben ... Damit gelingt die Erklärung immer.“... > Genau genommen wird bei diesem Vorgehen nicht die Theorie durch Tatsachen geprüft, sondern es wird etwas über die fiktiven Tatsachen aus dem Blickwinkel der Theorie erzählt: es wird beschrieben, wie die Welt aussähe, wenn die Theorie korrekt wäre.

Eine beliebte ber billige Möglichkeit die kontinuierliche Theorienachbesserung und -Fortentwicklung vorzutäuschen, besteht auch in der ständigen Änderung der Sprache und der Begriffe. In Wahrheit ist an den neuen Begriffen, mit denen wir in der letzten Zeit überflutet werden, alleine ihr fortgeschrittenes Alter neu, das alle typischen Senilitätsmerkmale aufweist. Sie sind Produkte unrentabler, auf Kurzarbeit gesetzter und von Schließung bedrohter Denkfabriken: matt, lauwarm, geistlos, dürr und armselig. Eigentlich ist es nicht einmal neu, wenn man neu sein will. Das ständige Vorpreschen mit neuen Begriffen ist im Grunde die typische Reaktion der Wissenschaftler, die zu ahnen beginnen, dass ihre Theorie in der Krise steckt. Auch wenn sie begonnen haben an Alternativen zu denken, sind sie jedoch nicht bereit von den Grundlagen des Paradigmas, das sie in die Krise hineingeführt hat, abzurücken. Sie hoffen, dass mit einer geglückten Umgruppierung und geschickten Feineinstellung innerhalb der bestehenden Denkweise die Problemlösungen zu finden sind, mit denen sich gewünschte Wirkungen erzielen lassen.

Die postmodernen „Wissenschaftler“ sind „flexibel“, „dynamisch“ und „mutig“, aber erschreckend erfolglos. Es spricht ziemlich alles dafür, dass sie mit immer neuen schneidigen und medialwirksamen Begriffen, die entweder mit Neu- oder mit Post- anfangen, im Grunde nur ihr ständiges Scheitern kaschieren. Wenn sie für die offensichtlich immer noch aktuellen alten Fragen keine Antworten bieten können und ihnen für althergebrachte Probleme keine Lösungen einfallen, entlassen sie alles einfach in die Geschichte und wenden sich der Zukunft hin. Sollten wir heute zum Beispiel eine neue Ökonomie und eine neue Unübersichtlichkeit haben, und in einer neuen Risikogesellschaft leben, würde sich in der Tat automatisch erübrigen, über die „erste“ Moderne bzw. den „alten“ Kapitalismus nachzudenken. Wen sollte dann noch interessieren, warum dieser immer wieder zusammengebrochen ist und unmenschliche Zustände hervorgerufen hat.

Sollten die Wissenschaften, die sich auf stückwerktechnische Nachbesserungen verlassen mit ihrer Behauptung recht behalten, kleine Weiterentwicklungen seien für den Fortschritt der Sozialwissenschaftlichen am besten geeignet, so ließe sich nicht erklären, warum sie bisher nie etwas gebracht haben, was als Initialzündung für die Entwicklung neuer Theorien fungieren könnte. So finden wir den postmodernen Wissenschaftler immer öfter in der Rolle des Moderators, der Stichworte für ausufernde Debatten liefert, welche als eine Anhäufung von Einfällen und Ausflüchten in juristischer Manier verlaufen - als ein Abspeisen des Publikums mit Banalitäten. Mit ihrer Ungenauigkeit und Unverbindlichkeit enden dann diese Debatten in intellektueller Beliebigkeit - sie ertrinken in einem Meer von Worten. Wollten die postmodernen Denker noch vor nicht allzu langer Zeit den historischen Ereignissen vorauseilen, so stellen wir heute immer öfter fest, dass ihre „neuen“ Begriffe Anwendung gerade in den Diskursen finden, die von Dogmatismus, Tradition und Intoleranz geprägt sind.

Wenn eine Theorie mit Ad-hoc-Hypothesen nicht weiter wächst, liegt es nahe daraus zu folgern, dass eine Theorie mit weniger Ad-hoc-Hypothesen vorzuziehen wäre. Im Grunde genommen stimmt dies, man muss aber vorsichtig sein. Die Entscheidung zu Gunsten der Theorie mit weniger Ad-hoc-Hypothesen darf jedoch nicht eine formale Entscheidung nach dem so genannten denkökonomischen Prinzip (Ockhams Rasiermesser) sein, wonach eine Theorie vorgezogen werden soll, nur weil sie einfacher zu handhaben ist. Eine, im Sinne des denkökonomischen Prinzips einfachere Theorie muss nämlich nicht eine bessere sein, weil sie zur Monokausalität tendiert. Solche Theorien verfallen bekanntlich sehr schnell in das alte ontologische Substanzdenken, in die Metaphysik der ontologischen Prinzipien und der „absoluten“ (oder a priori) und „universellen“ Wahrheiten und neigen dazu, eine partielle Erkenntnis linear oder pars pro toto zu verallgemeinern. Deshalb ist die Entscheidung für eine Theorie, die insgesamt genommen einfacher ist aber nachträglich mehr Ad-hoc-Hypothesen benötigt, nicht die richtige Wahl. Vorrang muss die Theorie haben, die mit weniger Ad-hoc-Hypothesen zurechtkommt, sei sie letzten Endes auch in ihren Grundlagen komplizierter. Entscheidend ist also ihr größerer kompakter analytischer Kern. Wir stimmen in diesem Sinne Niklas Luhmann (1927-1998) zu, wenn er sagt: „Nur Komplexität kann Komplexität reduzieren“.... > 

Wenn wir die Komplexität einer wissenschaftlichen Theorie erweitern wollen, um dadurch mehr empirische Tatsachen unterzubringen, darf sich also diese Komplexität nicht irgendwo am Rande der Theorie willkürlich spreizen. Sie bedeutet nicht, dass neue Ansätze stückweise zu einem immer größeren Ganzen hinzugefügt werden. Für die Weiterentwicklung einer Theorie oder einer Wissenschaft ist entscheidend, ob es möglich ist, ihre Komplexität in dem analytischen Kern, oder genauer gesagt in ihrer axiomatischen Basis, zu erweitern. Wenn sich herausstellen sollte, dass ihre axiomatische Basis dafür nicht geeignet ist, dann muss sie eben ausgewechselt werden. Es muss ein neues Paradigma in einer neuen ausdrucksstarken formalen Sprache statuiert werden, in der sich dann Schlussfolgerungen formulieren lassen, die sich von den vorherigen unterscheiden. Erst dann wird es möglich Tatsachen zu erklären, die in der alten Theorie antinomisch waren, Vorhersagen von zukünftigen Tatsachen abzuleiten und schließlich auch bisher völlig unbekannte Tatsachen zu „entdecken“.

„Ein Sozialwissenschaftlicher Paradigmenwechsel ist gefährlich“

Seitdem es sich nicht mehr bezweifeln lässt, dass alle großen Durchbrüche in den Naturwissenschaften nicht durch lineare und kumulative Fortentwicklungen, sondern durch Paradigmenwechsel zustande gekommen sind, ist es denkbar schwierig geworden, die Möglichkeit und Zweckmäßigkeit des Paradigmenwechsels bei den Sozialwissenschaften zu bestreiten. Deshalb vertreten einige die Meinung, in den Sozialwissenschaften sei ein Paradigmenwechsel deshalb nicht annehmbar, weil er verhängnisvolle praktische Folgen haben könnte. Anders als bei den Naturwissenschaften, wo durch misslungene Experimente hauptsächlich materielle Güter Schaden erleiden, wären bei den misslungenen sozialwissenschaftlichen Experimenten Menschen die direkten Opfer. Folglich dürfte in den Sozialwissenschaften eine bewährte Theorie nur mit „Stückwerk-Techniken“ weiterentwickelt werden, und zwar linear und kumulativ, wollten wir die Funktionsweise der sozialen Systeme ohne große Risiken nachbessern. Mit dem Mut der Verzweiflung versucht Popper diese These mit Hilfe seines kritischen Rationalismus glaubwürdig zu machen. Die bereits erwähnten postmodernen Philosophen haben sich in der letzten Zeit dieser Auffassung mit ihren „Kleinen Erzählungen“ angeschlossen. Sie argumentieren zwar vor einem ganz anderen erkenntnistheoretischen Hintergrund als Popper - sie sind eigentlich keine begeisterten Rationalisten -, aber auch sie wollen den sozialen Fortschritt nur mit kleinen Nachbesserungen vorantreiben.

Die kritischen Rationalisten und postmodernen Philosophen haben mit ihrer Behauptung Recht, dass „Große Entwürfe“ oder „Große Erzählungen“, auch wenn sie logisch in Ordnung zu sein scheinen, bei ihrer Anwendung nicht vorhersehbare praktische Folgen haben können. Die Geschichte ist in der Tat reich an Erfahrungen, dass sich Menschen aus Ratlosigkeit und Verzweiflung immer wieder einreden lassen, nur eine fundamentale Wende führe einen spürbaren und nachhaltigen Fortschritt herbei. In Zeiten allgemeiner Not und Wirrnis ist es leicht möglich, dass eine These, die großartige Verheißungen verkündet und mit der nötigen Kühnheit vorgetragen wird, überzeugte Anhänger findet. Das war auch beim Marxismus bzw. beim Kommunismus der Fall. Auf sein Scheitern berufen sich sowohl Popper als auch die heutigen Postmodernen, wenn sie ihre „Stückwerk-Technik“ verteidigen. Sind aber „Kleine Entwürfe“ oder „Kleine Erzählungen“ so ungefährlich?

Für das Versagen der „Kleinen Erzählungen“ steht der Konservativismus in all seinen Spielarten und vor allem als Faschismus. Es kommt also nicht von ungefähr, dass Popper - obwohl er selbst Jude war - sich nie ernsthaft mit dem Totalitarismus der Nationalsozialisten auseinander gesetzt hat. Manchmal wird uns nahe gelegt, der Faschismus habe sich von alleine so sehr blamiert, dass es sich einfach erübrige, eine Auseinandersetzung mit ihm zu suchen. Diese Meinung darf wohl nicht wirklich ernst genommen werden. Es scheint eher so zu sein, dass einige Gegner der totalitären Systeme das Phänomen des Faschismus aus einem anderen Grund nicht gerne analytisch untersuchen. Hinter dem verbalen Radikalismus des Faschismus versteckt sich nämlich eine konservative „Stückwerk-Sozialtechnologie“. Der Faschismus ist somit fast so etwas wie der Kronzeuge, dass die „Kleinen Erzählungen“ gar nicht ungefährlich sind. Auch wenn sie einzeln und an sich harmlos erscheinen, können sie in ihrer Summe, vor allem wenn dahinter eine Interessengemeinschaft steht, eine scheinbar allgemeingültige Wahrheit statuieren, deren Vertreter bereit sind, die gleichen repressiven politischen Mittel anzuwenden wie die Propheten einer utopischen Zukunft. Rücksichtslos radikal kann jede Wissenschaft und jede Weltanschauung sein, nicht nur eine neue. Auch eine die von den „Kleinen Erzählungen“ und den „Stückwerk-Sozialtechnologien“ ausgeht. Weil sie immer nur etwas ein bisschen verbessern will, ist ihre Heimat die Interessengemeinschaft derer, die den status quo nicht in Frage stellen - also die bestehende Verteilung von Reichtum, Einfluss und Privilegien. Und weil keine vorgefundene Verteilung „neutral“ sein kann, braucht man sich nicht zu wundern, dass auch all die punktuellen Nachbesserungen unserer Zeit, also die so genannten Reformen, von Anspruchsdenken und Intoleranz geprägt sind. Diejenigen, die sie vorschlagen, sind so unparteiisch wie die Rechtsanwälte vor dem Gericht.

„Kleine Erzählungen“ sollten als Gegensatz von Utopien verstanden werden, aber gerade sie sind Utopien: konservative Utopien. Sie wollen die größten Probleme mit kleinsten Änderungen aus der Welt schaffen lassen: Ein Eingriff hier, ein Eingriff da, und schon läuft alles wieder wie am Schnürchen. So vermitteln heute die Macher und Opportunisten gerne den Eindruck von Denkern, die Gefühl für Maß besitzen und der Tradition Achtung zollen. Sie präsentieren sich als diejenigen, die mit kleinen Wirkungen etwas erreichen wollen, um angeblich große unkalkulierbare Risiken zu vermeiden. Und immer noch zeigen diese „risikobewussten“ Nachbesserer mahnend auf den Marxismus. „Da der Kommunismus die Vernunft bis zum Wahnsinn verkörpern wollte, reißt er sie jetzt in seinem Sturz mit sich hinab“, hat Allain Minc richtig bemerkt.... > War aber der Kommunismus bzw. der Marxismus ein völlig neuer wissenschaftlicher Entwurf? War er eine universelle Erklärung der Geschichte und eine originelle Vision der Zukunft, wie er allzu oft als selbstverständlich hingestellt wird?

Das war er eindeutig nicht. Es kann keine Rede davon sein, dass Marx eine sozialwissenschaftliche Theorie entworfen hätte, die im analytischen Sinne revolutionär wäre, so dass sie einen richtigen Paradigmenwechsel darstellen würde. Sein Hauptwerk Das Kapital trägt bekanntlich den Untertitel Kritik der politischen Oekonomie, und das war es auch: eine Kritik. Einige Ansätze und Details aus der englischen politischen Ökonomie sind von ihm mit Hohn und Spott über Bord gekippt worden, der Rest wurde exklusiv und imperativ behandelt und zu einzig wahren wissenschaftlichen Erkenntnissen erklärt. Das alles kam nicht von ungefähr. Wenn man hartnäckig versucht, etwas Neues auf alten Fundamenten aufzubauen, kann man in der Tat nur auf diese Weise zu einer eigenen Identität gelangen. Nur in diesem negativen und destruktiven Sinne lässt sich die Marxsche Theorie als revolutionär bezeichnen. Sie ist nicht originell, sondern nur sezessionistisch und extremistisch, nicht ein Lebens- und Weltentwurf mit autonomen und autochthonen Wurzeln, sondern nur eine Glaubensabspaltung. Sogar das „Reich der Freiheit“ ist nichts anderes als die extremliberale Vision der uneingeschränkten Freiheit, allerdings ohne das Privateigentum an Produktionsmitteln. Die Tragik des Kommunismus bestand also darin, dass er in seiner theoretischen Vorstellung ohne eine paradigmatische Eigenständigkeit begonnen hat, und es ihm auch später nie gelungen ist, sich eine zu entwerfen, die ihn in die Lage versetzt hätte, sich von seinem ursprünglichen Gegner, dem Liberalismus zu lösen. Diese seine grundlegende Schwäche ist seltsamer Weise nicht einmal Popper, einem der berühmtesten Marxismuskritiker, aufgefallen. Ihm ist also entgangen, dass der von ihm so heftig kritisierte Marx seine „wissenschaftlichen“ Analysen gerade mit der typisch fallibalistischen Filtrierungsmethode durchführte: das Bewährte und Gute beibehalten und den Rest verwerfen. Es ist zwar richtig, dass allzu viele fest davon überzeugt waren, Marx habe eine völlig neue wissenschaftliche Theorie des Sozialismus entworfen, für Popper kann diese populäre Täuschung jedoch keine Entschuldigung sein. Er hätte sich Gedanken darüber machen müssen, warum seinerzeit sogar einige namhafte Ökonomen und Soziologen die so genannte These von der Konvergenz der kommunistischen und kapitalistischen Systeme vertreten haben. Sie haben es offensichtlich deshalb getan, weil sie gemerkt haben, dass der Kommunismus keinen authentischen theoretischen Hintergrund besaß. Im methodologischen Sinne ist Marx also immer nur ein „Stückwerk-Techniker“, ein echter kritischer Rationalist gewesen, der auf den ausgetretenen Pfaden der klassisch-liberalen Mikroökonomik in eine neue Welt eindringen wollte.

Darf etwa die Keynessche Theorie als „fundamental“ neu bezeichnet werden? In der Überzeugung, die Marktwirtschaft habe eigentlich einwandfrei funktionieren müssen, hätten sich die Teilnehmer systemkonform verhalten, ist Keynes bestimmt kein Neuerer, sondern einer der Traditionalisten. Seine Auffassung, die Existenz des Geldes mache der Wirtschaft deshalb zu schaffen, weil die Akteure ihre Einkünfte nicht vollständig oder zumindest nicht schnell genug ausgeben würden, war schon damals alles andere als neu. Die Gefahr des übertriebenen Sparens - wie bereits hervorgehoben - war bei manchen Ökonomen schon lange vor Keynes bekannt. Sie haben die Möglichkeit, dass die Ersparnisse die Investitionen übersteigen können, nie bestritten, mit dem Unterschied, dass sie nicht bereit waren, diese Gefahr zu dramatisieren. Folglich haben sie daraus keine starken theoretischen Konsequenzen gezogen. Indem Keynes gerade dies wagte, könnte man ihn vielleicht als mutig bezeichnen, aber rein theoretisch betrachtet, hat er nur die Schwerpunkte innerhalb des liberalen Paradigmas anders gesetzt. Dies konnte nicht zu einer eigenständigen Theorie führen, sondern lediglich zu einer, die man im erkenntnistheoretischen Sinne nur sezessionistisch und extremistisch nennen kann. Das war nun das Schicksal mit dem sich die Keynesche Theorie endgültig abfinden musste. „Ihr Angriffsziel waren die Grundlagen der überlieferten Lehre. Ihre Hauptwirkung betraf jedoch nicht die Grundlagen, sondern den Überbau der ökonomischen Theorie“, hat es Robert W. Clower auf den Punkt gebracht. Die methodische Ähnlichkeit mit der Marxschen Theorie läst sich nicht übersehen. Auch Marx stilisierte einige allgemein bekannte ökonomische Phänomene so lange hoch, etwa die Konzentration des Kapitals, die Rücksichtslosigkeit und die Irrationalität seiner Besitzer, bis er die klassische Auffassung über die Selbstoptimierung der Marktwirtschaft zu radikalen Konsequenzen gezwungen hatte: Die Marktwirtschaft würde durch Disproportionalitäten unausweichlich zur Anarchie führen und folglich von einer periodischen Depressionen in die andere torkeln.

„Sozial- und Wirtschaftswissenschaften sind anders“

Der mutigste Versuch, sich gegen den Paradigmenwechsel zu stellen, besteht darin, die Sozialwissenschaften für etwas Anderes als die Naturwissenschaften zu erklären. Es war gerade Hayek, der so gut wie kaum ein anderer begriffen hat, dass diese These womöglich die letzte Möglichkeit bietet, gewissermaßen wirksam gegen das Denken in Alternativen vorzugehen. Den vermeintlichen Unterschied zwischen der ökonomischen Theorie und den Naturwissenschaften schildert er dann folgendermaßen: „Selbstverständlich müssen sowohl die Sozialwissenschaften als auch die Naturwissenschaften deduktives Denken anwenden. Der wesentliche Unterschied ist aber, daß in den Naturwissenschaften der deduktive Vorgang von einer Hypothese ausgehen muß, die das Ergebnis induktiver Verallgemeinerungen ist, während er in den Sozialwissenschaften direkt bei bekannten empirischen Elementen beginnt.“... > In dieser Aussage stimmt bereits nicht, dass die Hypothesen in den Naturwissenschaften das Ergebnis von induktiven Verallgemeinerungen sind, aber lassen wir dies jetzt dahingestellt. Hayek geht es hier vor allem um die Sozialwissenschaften, und er verlangt explizit, dass bei ihnen angeblich jede Erkenntnis konkrete empirische Tatsachen als Anfang haben muss – keine, die schon irgendwie („induktiv“) nachgeprüft und verallgemeinert wurden. Geht eine sozialwissenschaftliche Theorie nicht direkt aus empirischen Elementen hervor, bezeichnet er sie abschätzig als „konstruktivistisch“, und als solche verdiene sie unverzüglich verworfen zu werden. Ohne es zu merken, landet Hayek mit seinem ultimativen Empirismus erkenntnistheoretisch beim Empirismus à la Bacon. Zwischen ihm und diesem Empirismus liegen jedoch Jahrhunderte. Am Ende des „dunklen Mittelalters“, als man überall böse Geister und mystische Kräfte vermutete, kann man in der Baconschen Auffassung den ersten erfolgreichen Versuch einer Rettung der empirischen Erscheinungen sehen, und deshalb auch den ersten und entscheidenden Schritt zur Entstehung der modernen Wissenschaften. Dies bleibt das dauerhafte große Verdienst der ersten Empiristen. Heute wissen wir aber, dass sich Bacon und die englischen Empiristen geirrt haben, wenn sie meinten, empirische Methoden - also Experimente und Beobachtungen - würden automatisch und direkt zu brauchbaren Theorien führten.

Dass die Wissenschaft nicht mit den konkreten empirischen Tatsachen anfangen kann, kann uns die Statistik helfen zu verstehen. Wir können nämlich von ihr erfahren, wie eigenwillig und widerspenstig die Tatsachen sein können und wie es fast unmöglich ist, sie zu bestimmten und eindeutigen Aussagen zu zwingen: Entweder wollen sie über sich nichts verraten, oder - was nicht weniger problematisch ist - sind sie unerträglich gesprächig und beliebig. Erinnern wir uns nur an die ewigen Klagen der Statistiker über das Problem der so genannten Drittvariablen. Es ist angebracht, dazu ein Beispiel anzuführen, das man aus der einführenden Statistik gut kennt.

Eine Gruppe kritischer Bevölkerungsgeographen hatte sich vorgenommen, die Dogmen des Kinderglaubens und die Mythen des Volkes kritisch zu hinterfragen. So hat sie sich entschieden, streng empirisch zu prüfen, ob Störche Kinder bringen. Da stellte sich heraus, dass es immer Möglichkeiten oder Auswege gab, auch eine so alberne Theorie zu retten. Immer, wenn sich abzeichnete, dass die Korrelation zwischen Störchen und Geburten verschwinden würde, konnte man einen Fall von Multikausalität unterstellen und eine neue Hilfshypothese einführen, und siehe da, die Theorie stimmte wieder: Je mehr Storchennester, um so höher die Geburtenrate; je mehr Feuchtbiotope, um so höher die Geburtenrate; je mehr Frösche, um so höher die Geburtenrate ... und in diesem Stil konnte man immer weiter fortfahren. Die Storchentheorie hat dem Falsifikationsversuch getrotzt und sich bewährt.

Eine weitere Schwäche der empirischen Methoden besteht darin, dass sie nicht immer imstande sind, die kausale Richtung der Zusammenhänge bzw. Korrelation bestimmen. Erwähnen wir auch dazu ein einfaches Beispiel. Die Statistiken ergeben, dass Weintrinker gesünder sind. Heißt es nun, im Wein liegt nicht nur Wahrheit, sondern auch noch Gesundheit? Nein. Es kann nur darum gehen, dass gesunde Menschen gerne Wein trinken. Man kann sich leicht vorstellen, wie einladend solche Scheinkorrelationen für Missbrauch sind. Ein signifikantes Beispiel bieten uns heute in der Wirtschaftswissenschaft diejenigen, die behaupten, empirische Daten würden eine unumstößliche Bestätigung dafür bieten, dass die hohe Arbeitslosigkeit die Folge mangelhafter Ausbildung sei. Sie stellen fest, dass bei steigender Arbeitslosigkeit jene mit niedrigerer Ausbildung am stärksten betroffen sind, und meinen damit den Beweis erbracht zu haben, dass die Arbeitslosigkeit durch mangelnde Ausbildung bedingt sei. Dieser Erklärung schenkt man mittlerweile so viel Glauben, dass man selbst nicht mehr über sie nachdenkt. Und dies, obwohl es nicht viel logischer Anstrengung bedarf, um den Zusammenhang mit ganz anderen Augen zu sehen. Wenn nämlich diejenigen, die eine höhere Qualifikation haben, prinzipiell alle Tätigkeiten der weniger Qualifizierten ausüben können, die weniger Qualifizierten dagegen keine Tätigkeit der besser Qualifizierten, so folgt aus dem Einmaleins von Angebot und Nachfrage, dass die weniger Qualifizierten von der Arbeitslosigkeit immer stärker betroffen sein müssen. Mögen die Leichtgläubigen die Ausbildung der weniger Qualifizierten Arbeitslosen fordern und fördern so lange sie wollen, damit allein wird man die Arbeitslosigkeit nicht beseitigen können.

Die statistische Übereinstimmung an sich ist also noch kein ausreichendes Kriterium, die Gültigkeit der Theorien zu prüfen. „Keine noch so sorgfältige Erhebung kann einer Theorie gefährlich werden, selbst wenn diese Theorie ein Ammenmärchen ist und wenn alle Beteiligten sich rational verhalten. ... Die Forschung ist eben kein Kampf zwischen Theorie und Empirie; einfach deshalb nicht, weil dieser Kampf für die Empirie fast hoffnungslos wäre.“... >  Die Menge der für den modernen Ökonometriker verfügbaren statistischen Techniken ist nämlich heute so groß, dass der hartnäckige Verfechter einer Theorie üblicherweise in der Lage ist, die empirischen Daten im Nachhinein so lange zu martern, bis sie „bekennen“. Jede Indexziffer in der Ökonometrie, so wissen wir heute allzu gut, ist bis zu einem gewissen Grade willkürlich: willkürlich nach der Wahl der gemessenen Größen, willkürlich nach der Wahl des Wichtigkeitskoeffizienten, willkürlich hinsichtlich der Wahl des zeitlichen Ausgangspunktes und schließlich willkürlich hinsichtlich des angewandten Verfahrens. Wer immer nur über die Vergangenheit spricht, so folgern wir daraus, dem muss jegliche wissenschaftliche Kompetenz abgesprochen werden. Übrigens ist die Vergangenheit bei den Historikern besser aufgehoben als bei den Sozialwissenschaftlern.

Nicht nur wegen der steigenden Zahl der statistischen Techniken, sondern auch wegen der Weiterentwicklung des rationalen Denkens bzw. der steigenden Zahl der logischen Systeme hat die bloße Übereinstimmung zweier Mengen von Tatsachen an Bedeutung verloren. In jedem dieser Systeme, also in jeder Theorie, in guter genauso wie in der schlechten, widerhallt das Gemurmel der Tatsachen. Umberto Eco bemerkt dazu ironisch, dass sich deshalb ein „Spiel von Zeichen“ immer lohne. „Wenn man Zusammenhänge finden will, findet man immer welche, Zusammenhänge zwischen allem und jedem, die Welt explodiert zu einem wirbelnden Netz von Verwandtschaften, in dem alles auf alles verweist und alles alles erklärt“.... > Die Suche nach fügsamen Tatsachen ist auch deshalb so einfach, weil „es keine Regel gibt, die auf Anhieb zu entscheiden erlaubt, ob eine Analogie gut oder schlecht ist, denn jedes Ding ähnelt jedem anderen unter einem bestimmten Aspekt“.... >  Die immer weiteren Fortschritte in der Entwicklung der analytischen Mittel haben den Wissenschaften nicht nur geholfen, sondern auch ihren Missbrauch ermöglicht. Deshalb sind die „analytisch strengen“ Formulierungen zwischen den Tatsachen noch keine wissenschaftlichen Erkenntnisse. Die formalen Fortschritte reichen nicht aus. Man kann sie im besten Fall nur als eine potentielle Wissenschaft betrachten. Die Natur zu erforschen bedeutet herauszufinden, wie sich die konkreten Tatsachen vorhersagen oder verwirklichen lassen. Im ersten Fall können wir von passiven, im zweiten Fall von aktiven wissenschaftlichen Erkenntnissen sprechen.

Die - von Hayek und anderen Marktfundamentalisten bevorzugte - Methode der direkten Verallgemeinerung der mikroökonomischen Tatsachen will nichts davon wissen, dass das Ganze nicht immer nur die Summe seiner Teile ist. Man erinnert sich, dass auf dieser Auffassung die klassische Physik beruhte, die an der Wiege des Walraschen Modells des allgemeinen Gleichgewichts stand. Es kommt einem als eine Ironie der Geschichte vor, dass gerade die Physik vor einem Jahrhundert diese pars-pro-toto Denkweise, obwohl sie mit ihr ihre ersten großen Durchbrüche erzielt hatte, endgültig über Bord geworfen hat. In dem Paradigma der heutigen Physik, das auf Quanten beruht, gilt zum Beispiel, dass es auf der Mikroebene Folgen ohne Ursachen gibt. Dies ändert aber nichts an der Tatsache, dass es auf der Mikroebene trotzdem Determinismus gibt.

Die Behauptung, die ökonomischen Theorien würden direkt bei bekannten „empirischen Elementen“ beginnen, mutet nirgendwo so absurd an, als wenn man an die Gleichgewichtstheorie denkt. Der Gedanke des Gleichgewichts der Kräfte in der klassischen Mechanik war ursprünglich eine typische „konstruktivistische“ Schöpfung, um mit Hayek zu sprechen. Die klassischen Physiker, als sie das Modell entworfen haben, sind nämlich von einer rein spekulativen Grundannahme ausgegangen, dass jedes Teilchen der Materie so etwas wie eine Gravitationskraft erzeugt, die jede Masseneinheit mit gleicher Intensität anzieht. Die Physiker vom Anfang der Moderne haben damit die vorherrschende aristotelische Auffassung verworfen, nach der das Universum nur ein Zentrum hat, in dem die Erde steht, zu dem alle Körper streben. Seitdem hat unser Universum, also unsere Auffassung über das Universum, kein Zentrum.

Die Tatsache, dass die neoliberale Theorie aus dem Kräftemodell der klassischen Mechanik entwickelt wurde, macht die Behauptung, die Wirtschaftswissenschaft sei anders, geradezu irrwitzig. Man muss an dieser Stelle jedoch bemerken, dass das Gleichgewichtsmodell nie Hayeks Sache gewesen ist. Seine Welt war immer der rohe sensualistische Empirismus des Mannes von der Straße, der nur die unmittelbar wahrnehmbaren Dinge für real hält, alles andere aber für Spekulation, Fantasie und Humbug. Gefangen in einem solchen Empirismus der Pars-pro-toto-Denkweise, hat Hayek nicht einmal die Tiefe der empirischen Denker des späten Mittelalters erreicht. Er wollte nämlich von den Schwächen des Empirismus - einige wurden bereits von Bacon (Novum Organum, 1620) angemahnt - nichts wissen, sondern er hat sie als Einbildung, Realitätsfremdheit oder gar Bosheit seiner ideologischen Gegner hingestellt.

Zusammenfassung:

!!!!!!!!!!!.

zu Teil 1 mehr

 
 
     
 
zu weiteren Beiträgen
werbung und    eBook