Bild: Vwpolonia75 from Wikimedia Commons (CC BY-SA 3.0)

Von  Prof. Dr. Stefan Kooths, Leiter des Prognosezentrums im Institut für Weltwirtschaft an der Universität Kiel und Professor für Volkswirtschaftslehre an der University of Applied Sciences Europe (UE) in Berlin.

Es gehört zu den vornehmsten Aufgaben in der liberalen Demokratie, die freie Meinungsäußerung gerade auch derjenigen zu wahren, deren Weltbild und/oder Auftreten einem fremd oder gar zuwider sind. Die darin zum Ausdruck kommende Haltung folgt keinem moralischen Appell, sondern wendet sich an das Eigeninteresse vernunftbegabter Menschen. Die Ratio hierzu wurzelt tief in der liberalen Sozialphilosophie, die den Erfolg sozialer Koordination darauf zurückführt, inwieweit eine Gesellschaftsordnung das unter den Mitgliedern verteilte Wissen zugänglich macht.

Jeder Einzelne verfügt nur über einen verschwindend geringen Bruchteil des menschlichen Wissens und ist darin zudem auch noch fehlbar. Man kann sich daher eines überlegenen Wissens nie sicher sein – im Gegenteil: die Wahrscheinlichkeit, für ein bestimmtes Wissensfeld irgendwo auf der Welt seinen Meister zu finden, ist sehr hoch. Darüber hinaus ist das Wissen der Menschheit immer nur vorläufig. Jeden Tag könnte jemand etwas entdecken, das bisherige Gewissheiten obsolet macht. Oder, um es mit dem britischen Philosophen und Ökonomen John Stuart Mill (Über die Freiheit, 1859) zu sagen: „Jede Unterbindung einer Erörterung ist eine Anmaßung von Unfehlbarkeit.“

Es ist daher ein Gebot der Klugheit, andere Ansichten an sich heranzulassen. Selbst wenn man dabei viel Unsinn ertragen muss – es könnte einem der eine zündende Gedanke entgehen, auf den man von allein nie gekommen wäre. Und der Austausch mit kritischen Gegenmeinungen hilft auch, die eigene Position klarer zu fassen und dabei selbst neues Wissen zu entdecken. So sind die beiden österreichischen Ökonomen Ludwig von Mises und Friedrich August von Hayek zu wissenschaftlicher Höchstform aufgelaufen, als sie sich mit ihren marxistischen Widersachern in der Kontroverse um die Unmöglichkeit der sozialistischen Wirtschaftsrechnung einen mehrjährigen Schlagabtausch geliefert hatten. Herausgekommen ist dabei ein Verständnis von Marktprozessen, das bis heute richtungweisend für die moderne Wirtschaftswissenschaft ist.

Im freiheitlichen Diskurs kommt es auf das einzelne Argument an, nicht darauf, ob einem die Beteiligten sympathisch sind oder ob sie in anderen Themenfeldern falsch liegen. So bleibt die „Pearson-Korrelation“ ein nützliches Instrument der Statistik, auch wenn ihr Erfinder, der britische Mathematiker Karl Pearson, mit seiner abenteuerlichen „Rassenlehre“ zu Recht schärfster Kritik ausgesetzt ist. Die Grundidee der Wissenschaftsfreiheit, wonach im wissenschaftlichen Diskurs nur durch Forschungsfreiheit Fortschritte zu erzielen sind, gilt entsprechend für den politischen Diskurs in der liberalen Demokratie.

Die Sozialistin Rosa Luxemburg steht für den Gegenentwurf zu dieser Ordnung. Ihre Forderung „Freiheit ist immer die Freiheit der Andersdenkenden“ klingt nur scheinbar wie eine liberale Parole. Tatsächlich ging es ihr ausschließlich um die Diskursfreiheit innerhalb des kommunistischen Lagers, um den bolschewistischen Dogmatismus Leninscher Prägung einzudämmen. Gleichzeitig hat sie den zu Klassenfeinden erklärten politischen Gegnern die Legitimation zur Teilnahme am gesellschaftlichen Diskurs abgesprochen und ihnen gegenüber auch vor Gewaltaufrufen nicht zurückgeschreckt.

Aus Sicht der marxistischen Sozialphilosophie war das nur folgerichtig: Eine bürgerliche Klasse, die den scheinbar wissenschaftlichen Entwicklungsgesetzen der Menschheit im Wege stand, durfte diese Entwicklung nicht durch rückwärtsgewandte Einwände aufhalten. Wie es mit der Weltrevolution am besten weitergehen sollte, konnte daher nur in einer kommunistischen Echokammer erörtert werden. Mit Rosa Luxemburg als Galionsfigur mag man für vieles eintreten – der freie demokratische Diskurs gehört nicht dazu.

Der liberalen Sozialphilosophie sind die Vorstellungen von historischen Entwicklungsgesetzen fremd, stattdessen betont sie die aus der freiheitlichen Interaktion der individuellen Akteure resultierende Ergebnisoffenheit der Geschichte. Zu dieser Freiheit gehört maßgeblich der freie Diskurs und die Neugier auf frische Ideen. Eine Gesellschaftsordnung, in der die Menschen durch Interaktion ihr Wissenspotenzial ausschöpfen und erweitern können, muss daher in Bezug auf mögliche Meinungen maximal tolerant sein.

Allein die Meinung, andere an ihrer Meinungsäußerung hindern zu dürfen, können Liberale nicht dulden – Toleranz muss in der Intoleranz ihre Grenze finden. Zugleich dürfte klar sein, dass Meinungsfreiheit nicht zu verwechseln ist mit der Erlaubnis ehrabschneidender oder gar die Würde des Einzelnen herabsetzender Diffamierungen. Es geht um die Freiheit im politischen Diskurs – idealerweise über abstrakte Regeln –, nicht um einen Freibrief für üble Nachrede.

An der für eine demokratische Diskursreife erforderlichen Toleranz hapert es hierzulande. Toleranz gegenüber Minderheiten, denen man ohnehin gewogen ist, kostet nichts und instrumentalisiert diese letztlich nur für das Schärfen des eigenen Profils. Echte Toleranz respektiert auch den politischen Gegner. Im politischen Diskurs ist nichts gewonnen, wenn man sich nur gegenseitig bescheinigt, über die Meinung des anderen empört zu sein. Hieraus lässt sich nichts lernen.

Die wechselseitigen Empörungsrituale führen in der Eskalation zu Ausgrenzungen, die dem Luxemburgschen Schema ähneln. Wenn Attribute wie „demokratisch“, „europäisch“ oder „gerecht“ von einer bestimmten Position im politischen Spektrum alleinvertretend beansprucht werden, bleibt für den politischen Gegner nur das „undemokratische“, „antieuropäische“ und „ungerechte“ Lager: Wer wollte mit solchen Leuten etwas zu tun haben? Besonders auffällig zeigt sich diese Schieflage in der EU-Debatte, bei der die Befürworter von mehr Zentralismus dazu neigen, ihre Position als „europäisch“ zu deklarieren. Dies ist nicht nur aus historischer Perspektive gewagt, sondern setzt zugleich diejenigen im Diskurs herab, die dieselben abstrakten Ziele (Freiheit, Wohlstand und Frieden in Europa) eher zu erreichen glauben, wenn Subsidiarität und Wettbewerb die Entwicklung in der EU bestimmen. Letztlich wird so der Streit über die besten Wege behindert, indem der anderen Seite die Lauterkeit mit Blick auf die Ziele abgesprochen wird. Dieses Ausgrenzungsprinzip zeigt sich im Großen wie im Kleinen. So ist auch die „Fair Trade“-Bewegung in diesem Sinne anmaßend. Und wer sich einer genderpolitischen Vereinnahmung der Sprache verweigert, ist deshalb noch längst nicht gegen die Gleichberechtigung von Mann und Frau.

Die moralisch imprägnierte Diskursverengung provoziert überzogene Reaktionen, die sich als Anti-Establishment-Bewegung aufführen, eine angebliche „Lügenpresse“ anprangern und einem diffusen Gefühl des Unterdrücktseins Ausdruck verleihen, wodurch auch der Nährboden für abenteuerliche Verschwörungstheorien entsteht. Im Ergebnis hört man auf, voneinander zu lernen, und der politische Diskurs wird dysfunktional.

Bei den Streitfragen über die Grenzen des demokratisch zulässigen Meinungsspektrums prallen zwei Gesellschaftskonzepte aufeinander, die der österreichisch-britische Philosoph Karl Popper als „kritischen“ und „konstruktivistischen“ Rationalismus unterschieden hat. Sie unterscheidet vor allem die Ansicht darüber, inwieweit sich komplexe Gesellschaften durch das bewusste Setzen von Institutionen gestalten lassen oder ob sich tragfähige Regeln des Zusammenlebens stärker evolutionär entwickeln müssen. Konstruktivisten neigen dazu, die politische Machbarkeit hoch einzuschätzen, kritische Rationalisten bezweifeln das und sehen sich so immer wieder dem Vorwurf ausgesetzt, die abstrakten Ziele (Freiheit, Wohlstand, Frieden, Teilhabe etc.) zu hintertreiben, wenn sie am Interventionismus Kritik üben. Obwohl sich die Kontroverse an der Wahl der Mittel entzündet, führt der konstruktivistische Fehlschluss (wer die Mittel nicht billigt, will die Ziele verhindern) zu einer verengten Diskursbasis im demokratischen Prozess. Letztlich ist es daher der übersteigerte Glaube an die Möglichkeiten der sozialplanerischen Vernunft, der es den Konstruktivisten erschwert, das liberale Toleranzgebot weit auszulegen.

Die Tendenz, weniger über konkrete Vorschläge zu diskutieren als über mutmaßlich üble Motive des Gegenübers zu spekulieren, hat auch schon den politikbegleitenden Wissenschaftsbetrieb infiziert. Es scheint, als würden Wissenschaftler zunehmend vorsichtiger darauf achten, mit wem sie sprechen, seien es Parteien oder Medien, um nicht in den Dunstkreis der falschen Leute zu geraten. Dadurch verengt sich die Möglichkeit, im politischen Diskurs neue Einsichten zu Tage zu fördern, weiter. Dessen sollten sich Wissenschaftler im besonderen Maße bewusst sein und entschlossen gegensteuern. Hierzu gehört mittlerweile eine gewisse Zivilcourage, indem man es aushält, mit Leuten zu sprechen und von ihnen zitiert zu werden, deren politische Auffassungen man nicht teilt. Wird aber erst die politische Meinungsfreiheit scheibchenweise eingeengt, dann ist es auch bald mit der Wissenschaftsfreiheit nicht mehr weit her.

Geringfügig erweiterte Fassung eines Essays, der am 14. Dezember 2018 unter dem Titel „Maximale Toleranz für Andersdenkende!“ in der Wirtschaftswoche erschienen ist.

Photo: alh1 from Flickr (CC BY-ND 2.0)

Jetzt ist es passiert. Die Niederlage Theresa Mays im britischen Unterhaus war deutlicher als angenommen. Sie war vernichtend. Nicht einmal ein Drittel der Stimmen konnte sie hinter sich bringen. Eigentlich steht sie vor dem Scherbenhaufen ihrer Amtszeit. Diese war bislang nicht gerade von Erfolgen gekrönt. Seit zwei Jahren irrlichtert die britische Regierung umher, war schlecht vorbereitet und hatte lange keine Strategie. Umgekehrt hatten sich die Staats- und Regierungschefs der EU-27 sehr schnell auf einen harten Kurs gegenüber Großbritannien verständigt. Man igelte sich ein und vergewisserte sich, dass man nichts ändern wolle, um Nachahmern erst gar nicht die Chance für einen weiteren Aufstand gegen die EU zu geben. Diese harte Haltung der EU war neben Mays Dilettantismus der Grund für das Scheitern der Vereinbarung. Zwei Drittel des Unterhauses empfanden die Verhandlungen und das Ergebnis als eine Demütigung.

Bis zum 29. März bleiben nur noch wenige Wochen, um den nun drohenden harten Brexit möglichst abzufedern. Die ökonomischen Folgen wären sonst fatal. Güter und Dienstleistungen im Wert von 108 Milliarden Euro werden von Deutschland auf die Insel gebracht und für 59 Milliarden Euro von Großbritannien nach Deutschland exportiert. Das ist wahrlich kein Pappenstiel. Alleine die deutsche Automobilindustrie rechnet mit einem Verlust von 18.000 Jobs. Jedes fünfte in Deutschland produzierte Fahrzeug, das in den Export geht, findet seinen Käufer auf der Insel. Enge Verflechtungen bei VW und BMW mit Großbritannien würden die Produktionsabläufe massiv stören. Von heute auf morgen würde das Vereinigte Königreich zu einem Drittstaat und verschärften Zollbestimmungen ausgesetzt sein.

Diese weitreichenden Folgen zu mildern, müsste jetzt eigentlich die Vernunft auf beiden Seiten leiten. Die EU könnte hier beispielhaft vorangehen und die Zölle für Waren aus Großbritannien einseitig abschaffen. Darauf wird die EU-Kommission nicht sofort einsteigen, denn die Zolleinnahmen sind faktisch die einzige Einnahmequelle, die die EU selbst bestimmen kann. Rund 20 Milliarden Euro nimmt sie dadurch ein. Doch ein deutsche Regierung könnte dies Vorschlagen und für Akzeptanz bei den übrigen 26 Mitgliedern sorgen.

Dies würde nicht nur Großbritannien helfen, die Waren und Dienstleistungen einfacher von der Insel auf das Festland zu bringen, sondern umgekehrt auch die Zollbehörden bei uns entlasten. Letztlich geht es aber darum, dass die Bürger auf beiden Seiten weiterhin zollfreie Waren kaufen können. Es hätte aber auch handelspolitisch einen Mehrwert. Es wäre ein Zeichen der EU für den Freihandel. Es würde nicht nur Großbritannien unter Druck setzen, Gleiches zu tun, sondern würde auch durch die Meistbegünstigungsklausel der Welthandelsorganisation dazu führen, dass Handelsvorteile auch anderen Staaten angeboten werden müssten.

Dieses Vorgehen wäre deshalb sinnvoll, weil es dabei keine Verlierer gibt, weil Konsumenten überall profitieren würden. Es würde sogar auch der Welthandelsorganisation wieder ein stärkeres Gewicht geben und die Chance für eine neue Welthandelsrunde eröffnen. Denn diese ist notwendiger denn je. Die USA blockieren derzeit neue Gespräche über multilaterale Verhandlungen und konzentrieren sich, wie leider auch die EU, auf die Vereinbarung von bilateralen Handelsabkommen. Der nationale Egoismus überwiegt dabei, obwohl die eigenen Bürger, seien es Konsumenten oder Arbeitnehmer, darunter leiden. Deshalb braucht es jetzt eine Initialzündung. Wenn nicht jetzt, wann dann?

Photo: Matt Artz from Unsplash (CC 0)

Für viele ist Klimaschutz ein rotes Tuch. Warum eigentlich? Das wahre Problem ist nicht die Klimawissenschaft, sondern der grüne Leviathan. Denn effizienter Klimaschutz gelingt nur auf niedrigster Ebene.

In der Klimapolitik kämpfen zu viele gegen Windmühlen

„Ha! Wenn das kein Beweis ist? Das Schneechaos der letzten zwei Wochen sollte doch nun wirklich jedem klarmachen, dass der Klimawandel eine Erfindung ist.“ So oder so ähnlich verlautete es in den letzten zwei Wochen immer wieder in Medien und sozialen Netzwerken. Beim Klima verhält es sich wie mit der Schulpolitik: Da sind wir alle doch eigentlich Experten. Lassen wir einmal außen vor, dass das mit dem Schnee als Gegenbeweis zum (menschengemachten) Klimawandel dann doch nicht ganz so einfach ist. Woher kommt eigentlich dieser verlässlich auftretende Leugnungs-Reflex, manchmal auch aus der Ecke der Leute, die sonst rationalen Argumenten sehr offen gegenüberstehen?

Dass Freunde der Marktwirtschaft häufiger allergisch auf das Thema reagieren, hat einen Grund: Die derzeitige Klimapolitik basiert größtenteils auf der neoklassischen Annahme des Marktversagens. So stellt der einflussreiche Stern-Report aus dem Jahr 2006 fest, dass der Klimawandel das größte Marktversagen sei, das die Welt je gesehen hätte. Die Logik dahinter ist einfach: Marktwirtschaftliche Institutionen würden Umweltschutz und Emissionsreduzierung schlicht nicht inzentiveren und dadurch negative externe Effekte produzieren. Einziger Ausweg sei letztlich die globale öffentliche Regulierung des Umweltschutzes. Damit erscheint alles, was auf der Annahme des Klimawandels fußt, auch gegen die Marktwirtschaft gerichtet. Die Bedrohung der Marktwirtschaft geht mithin von der Klimapolitik aus, und nicht etwa von den Beobachtungen der Klimawissenschaft.

Die globale Klima-Politik ist ein „Nirvana-Trugschluss“

Der Wirtschaftsnobelpreisträger Ronald Coase hat uns ein Instrument für die Lösung solcher Probleme an die Hand gegeben. Kurz gesagt können Individuen und Organisationen auf Märkten mit klar definierten Eigentumsrechten Externalitäten (wie z.B. CO2-Emissionen) effizient internalisieren. Das Problem: Wem gehört eigentlich die Atmosphäre? Und wer genau leidet darunter, wenn ich morgens die Heizung aufdrehe und in welchem Umfang? Eine globale „Coase-Verhandlung“ zur Internalisierung von klimaschädlichen Emissionen ist in Ermangelung klar definierter Eigentumsrechte weder denkbar noch umsetzbar. Und selbst wenn wir uns alle einig wären, dass durch die Reduzierung von Treibhausgasen schädliche Klimaveränderungen aufgehalten werden können, würde vermutlich nichts geschehen. Denn, wie uns Mancur Olson lehrt: der individuelle Nutzen ist in diesem Fall einfach zu gering, um uns zu einer aufwändigen Veränderung unseres Lebensstils zu bewegen.

Letztendlich scheint für viele der einzige Ausweg ein globales Klima-Regime zu sein, das durch Regulierung die Welt rettet. Kaum etwas drückt diesen Gedanken besser aus als die mit großem Aufwand durchgeführten UN-Klimakonferenzen. Paradoxerweise werfen selbst die meisten klimapolitisch interessierten Liberalen all ihre marktwirtschaftlichen Überzeugung über Bord und treten für ein solches globales Klimaregime ein. Die favorisierten Lösungen sind hier etwa eine weltweite CO2-Steuer, wie vom amerikanischen Niskanen Center vorgeschlagen. Oder aber das sogenannte „cap-and-trade“-Verfahren, bei dem der Staat bis zu einer stetig sinkenden Obergrenze Zertifikate für die Emission von CO2 ausgibt, versteigert, verkauft und zurückkauft.

Das Problem dabei: Der Vergleich der imperfekten Marktlösung mit einer idealen Staatslösung verschleiert unseren Blick auf die Realitäten. Ein klassischer Nirvana-Trugschluss. Weder ist es auch nur annähernd absehbar, dass sich die Staaten der Welt tatsächlich auf ein effektives Klima-Regime einigen können, noch können wir davon ausgehen, dass die handelnden Akteure wissen, wie ein solches überhaupt aussehen sollte.  Spätestens seit Hayek sollten wir doch eigentlich wissen, dass zentralstaatliche Planungspolitik nie das erreicht, was sie verspricht. Und hier sprechen wir über ein globales Klimaregime. Es ist wesentlich wahrscheinlicher, dass die aktuelle Klimapolitik zu Fehlallokationen und Rent-Seeking in großem Umfang führt. Stichwort: EEG-Umlage.

Polyzentrismus als dritter Weg: Umweltschutz auf der kleinsten Ebene

Wir stehen also vor einem scheinbar unlösbaren Dilemma. Weder klassische marktwirtschaftliche noch staatliche Institutionen bieten Aussicht auf eine effiziente Verringerung klimaschädlicher Emissionen. Dabei liegt eine mögliche Lösung bereits lange in der großen Schublade der Ideen. Bereits seit den 1960er Jahren erforschten Vincent und Elinor Ostrom was passiert, wenn weder Staat noch Markt gute Lösungen bereithalten. Ihr Lebenswerk war es, zu zeigen, wie polyzentrisch organisierte und selbstverantwortliche Gemeinschaften erfolgreich soziale Dilemmata lösen. In ihrem bekanntesten Buch „Governing the Commons“ demonstriert Wirtschaftsnobelpreisträgerin Elinor Ostrom, dass selbstorganisierte Gruppen durch Kooperation Gemeinschaftsgüter wie Wälder und Fischereigründe effizient managen können; ohne Dritte, die externe Regeln durchsetzen.

Zwar ist der Umgang mit globalen Gütern wie dem Klima wesentlich komplexer. Doch regt uns auch auf diesem Gebiet die Arbeit der Ostroms dazu an, nicht immer nur in den ganz großen Maßstäben zu denken. Statt ewig auf den großen Wurf der Staatengemeinschaft zu warten, sollten selbstverantwortliche Individuen auf niedrigster Ebene Lösungen suchen. Denn die Vorteile eines Klima- und Umweltschutzes auf lokaler Ebene sind mannigfaltig:

(1) Individuen können sich mit lokal getroffenen Entscheidungen wesentlich besser identifizieren als mit globalen Handlungsempfehlungen.

(2)  Im Wettbewerb miteinander stehende Lösungen im Bereich des Umweltschutzes offenbaren die effizientesten und effektivsten Ansätze.

(3) Viele Auswirkungen des Klimawandels sind bereits heute spürbar, weshalb auch Adaption an Bedeutung zunimmt. Kommunen, Städte und Dörfer können dabei besser auf veränderte Klimabedingungen reagieren als die Weltgemeinschaft.

(4) Lokaler Klimaschutz verringert die Gefahr von Fehlallokation und Rent-Seeking. Je geringer der Hebel der Politik, desto weniger Chancen bieten sich für Interessengruppen und Unternehmen, Regulierung zu missbrauchen.

Den grünen Leviathan bekämpft man nicht mit Jammern und Leugnen

Viele Liberale nehmen, wenn überhaupt, in der Diskussion um den Klimawandel eine unrühmliche Rolle ein. Entweder sie ziehen sich beleidigt zurück, leugnen alles und machen sich komplett unglaubwürdig. Oder sie verfallen aus lauter Panik in den gleichen Zentralisierungsreflex wie diejenigen, die für ein globales Klimaregime eintreten. Es gibt viele Gründe etwas zu ändern – nicht nur um den Treibhauseffekt zu minimieren. Wir haben die Möglichkeit, durch Innovation in einer sauberen und gesünderen Umwelt zu leben. Dieser nächste große Schritt der Zivilisation kann jedoch nur gelingen, wenn er von selbstverantwortlichen Individuen gegangen wird – die Kooperation verbindet und nicht der grüne Leviathan.

 

Weiterführende Literatur:

Ostrom, E. (2009). A polycentric approach for coping with climate change. The World Bank.

Pennington, M. (2010). Robust Political Economy: Classical Liberalism and the Future of Public Policy, Kapitel 8

Photo: Fabien WI from Unsplash (CC 0)

Von Dr. Alexander Fink, Universität Leipzig, Senior Fellow des IREF – Institute for Research in Economic and Fiscal Issues.

Daten weisen darauf hin, dass die wirtschaftspolitische Unsicherheit in Deutschland seit 2009 durchschnittlich deutlich höher ausfällt als in den Jahren zuvor – Bankenkrisen, die Eurokrise, die Brexitentscheidung und Trumps Wahl trugen dazu bei. Mehr wirtschaftspolitische Langeweile wäre aufgrund der zukünftigen Wirkungen heutiger Investitionen vor allem auf lange Sicht mit Sicherheit wünschenswert.

Was die Zukunft bringt, ist ungewiss. Wie unsicher die Zukunft ist, hängt jedoch auch von der Politik ab. Eine verlässliche Wirtschaftspolitik gibt Planungssicherheit und regt Haushalte und Unternehmen zu Investitionen an. Eine unstete Wirtschaftspolitik hingegen hemmt Investitionen und so langfristig auch das Wirtschaftswachstum. Daten weisen darauf hin, dass die wirtschaftspolitische Unsicherheit in Deutschland seit 2009 durchschnittlich deutlich höher ausfällt als in den Jahren zuvor – Bankenkrisen, die Eurokrise, die Brexitentscheidung und Trumps Wahl trugen dazu bei. Mehr wirtschaftspolitische Langeweile wäre aufgrund der zukünftigen Wirkungen heutiger Investitionen vor allem auf lange Sicht mit Sicherheit wünschenswert.

Mehr Unsicherheit: Weniger Investitionen, Beschäftigung und Output

Konsum- und Investitionsentscheidungen werden stets angesichts einer unsicheren Zukunft getroffen. Haushalte und Unternehmen sind deshalb im Umgang mit Unsicherheit geübt. Sie stehen aber dem Grad der Unsicherheit keinesfalls gleichgültig gegenüber, auch nicht der wirtschaftspolitischen. Darauf deuten auch die Ergebnisse eines noch jungen, aber bereits häufig zitierten Papiers (unbeschränkter Zugriff) aus dem Jahre 2016 hin.

Für die USA untersuchen die Autoren Effekte eines Anstiegs wirtschaftspolitischer Unsicherheit auf Ebene einzelner Unternehmen. Mehr Unsicherheit geht mit weniger Investitionen und weniger Beschäftigung einher. Für zwölf Länder inklusive China, Deutschland, Frankreich, Indien, Japan, Russland und die USA untersuchen sie die Auswirkungen wirtschaftspolitischer Unsicherheit auf das makroökonomische Outputniveau und die Gesamtbeschäftigung. Beides fällt in dieser Gruppe von Ländern, wenn die wirtschaftspolitische Unsicherheit steigt.

Seit 2009: Höhere wirtschaftspolitische Unsicherheit in Deutschland

Wirtschaftspolitische Unsicherheit messen die Autoren von den Universitäten Northwestern (Baker), Stanford (Bloom) und Chicago (Davis), indem sie zählen, wie viele Artikel monatlich in Zeitungen der verschiedenen Länder erscheinen, in denen Schlagwörter wie „Wirtschaft“, „Wirtschaftspolitik“, „Regulierung“ in Verbindung mit „unsicher“ oder „Unsicherheit“ auftauchen. Ihre aktuellen und historischen Daten stehen online zur Verfügung.

Für Deutschland werden die Frankfurter Allgemeine Zeitung und das Handelsblatt ausgewertet. Die Daten für die beiden Zeitungen werden in einem Index zusammengefasst, der für die Jahre von 1993 bis einschließlich 2011 auf einen Durchschnitt von 100 normalisiert wird.

Die für Deutschland gemessene wirtschaftspolitische Unsicherheit schwankte auch in den Jahren vor 2009. Allerdings war sie durchschnittlich deutlich niedriger als seit 2009. Insbesondere die 2011 und 2012 wieder aufflammende Eurokrise, das Brexit Referendum sowie jüngst die Wahl und Handelspolitik Trumps trugen zu einer erhöhten Unsicherheit bei.

Höhere Unsicherheit in Europa

Es ist angesichts globaler und europäischer Interdependenzen nicht überraschend, dass auch ein Index für mehrere Länder in Europa auf ein in den vergangenen Jahren höheres Niveau an Unsicherheit hindeutet.

Erst ab 2001 in der aktuellen Zusammensetzung verfügbar, basiert der Europaindex auf Auswertungen von jeweils zwei Tageszeitungen der fünf größten Länder der EU: Deutschland, Frankreich, Großbritannien, Italien und Spanien.

Konstante Wirtschaftspolitik zahlt sich aus – vor allem langfristig

Vordergründig ist die wirtschaftliche Lage in Deutschland derzeit zufriedenstellend – ähnlich wie in Großbritannien. Die Arbeitslosenquote ist historisch niedrig und das reale Wirtschaftswachstum fiel mit 2,2 Prozent in 2017 solide aus. Hinter der Fassade sieht es jedoch nicht ganz so rosig aus.

Zum einen basiert der Aufschwung der letzten Jahre in Teilen auf einer durch die Geldpolitik der Zentralbanken ermöglichten Ausweitung der Kreditvergabe an Haushalte, Unternehmen und Regierungen – nicht so sehr in Deutschland, aber in vielen anderen Ländern, in die deutsche Exporte fließen.

Zum anderen ist zu erwarten, dass die ungewöhnlich hohe wirtschaftspolitische Unsicherheit das Investitionsverhalten von Unternehmen und Haushalten beeinflusst. Sie investieren weniger – entziehen also weniger reale Ressourcen dem Konsum, um sie dem in der Zukunft Früchte tragenden Kapitalstock hinzuzufügen – und sie investieren weniger in Bereichen, die von wirtschaftspolitischen Entscheidungen potentiell stark betroffen sind, wie beispielsweise Gesundheit und Infrastruktur. Geringere und fehlgelenkte Investitionen machen sich vor allem langfristig bemerkbar. Aufgrund erhöhter Unsicherheit heute ist ein kleinerer und weniger gut zu den Präferenzen der Konsumeten passender Kapitalstock in der Zukunft zu erwarten.

Schon Walter Eucken erklärte die „Konstanz der Wirtschaftspolitik“ in seinem posthum veröffentlichten Klassiker Grundsätze der Wirtschaftspolitik zu einem der konstituierenden Prinzipien der Wettbewerbsordnung. Auch hier findet sich eine Konstante. Was während der sogenannten Wirtschaftswunderjahre der Nachkriegszeit galt, gilt noch heute.

Erstmals erschienen bei IREF.

Bild: Will Folsom von Flickr (CC BY 2.0)

Von Prof. Roland Vaubel, emeritierter Professor für Volkswirtschaftslehre und Politische Ökonomie an der Universität Mannheim

Es ist leicht, sich Bedingungen vorzustellen, unter denen eine europäische Einlagensicherung effizient wäre. Aber selbst Versicherungstheoretiker sollten erkennen, dass wir diese Bedingungen in der Eurozone nicht bekommen werden. Die Verhandlungsstrategie der Bundesregierung ist daher brandgefährlich.

 Die Staats- und Regierungschefs der Eurozone haben im Juni beschlossen: “Vor Ende des Jahres … sollte mit der Ausarbeitung eines Fahrplans für die Aufnahme politischer Verhandlungen über das Europäische Einlagensicherungssystem begonnen werden.” Vorausgegangen war eine Erklärung, in der 154 Wirtschaftsprofessoren vor der gemeinsamen Einlagensicherung (EDIS) warnten: “ Wenn die Einlagensicherung wie geplant vergemeinschaftet wird, werden auch die Kosten der Fehler sozialisiert, die Banken und Regierungen in der Vergangenheit begangen haben” (FAZ, 22.05.18). Die Professoren raten davon ab, auf diese Weise “Anreize für wirtschaftliches Fehlverhalten zu schaffen”.

Tatsächlich sind “die Kosten der Fehler” von Bank zu Bank und von Land zu Land sehr verschieden. Besonders deutlich werden die Unterschiede, wenn man den Anteil der notleidenden an den gesamten Krediten betrachtet. Beschränken wir uns auf die Euro-Länder, denn EDIS ist ein Projekt für die Eurozone. Am höchsten ist der Anteil der notleidenden Kredite in Griechenland (46,9 %), Zypern (33,4 %), Portugal (15,5 %) und Italien (12,2 %), am niedrigsten in Luxemburg (0,7 %), Finnland (1,4 %), Estland (2,0 %), den Niederlanden und Deutschland (beide 2,3 %). (Fußnote?:) Diese Zahlen beziehen sich auf das zweite Quartal 2017 und entstammen einem Dokument der Europäischen Kommission (KOM(2018)37), welches als Quelle die Europäische Zentralbank (EZB) nennt. Die EZB berichtet aber auf ihrer Website nur noch EU-Durchschnitte. Sie weisen einen leicht sinkenden Trend auf. An den Unterschieden zwischen den Ländern dürfte sich nicht viel geändert haben.

Risikogerechte Beiträge?

Um effizient zu sein müsste EDIS von den einzelnen Banken risikogerechte Versicherungsbeiträge erheben. Wie würden die Beiträge berechnet? Die EZB nimmt an, dass die EDIS-Beiträge nach der Methode kalkuliert würden, die die Europäische Bankenaufsichtsbehörde (EBA) den nationalen Einlagensicherungssystemen vorschreibt (ECB Occasional Paper 208, April 2018). Es gibt aber noch eine andere Methode – die des Single Resolution Fund (SRF), der für die Restrukturierung und Abwicklung maroder Banken zuständig ist. Die EZB-Studie zeigt, dass die EBA-Methode den Risikounterschieden stärker Rechnung trägt als die SRF-Methode, und sie unterstellt wie selbstverständlich, dass EDIS die EBA-Methode anwenden würde. Damit ist aber nicht zu rechnen, denn EDIS wäre wie der SRF eine Institution der Eurozone, während EBA für die gesamte EU zuständig ist. In der Eurozone sind die Mehrheitsverhältnisse anders als in der gesamten EU. Deshalb ist davon auszugehen, dass man für EDIS die SRF-Methode wählen würde.

Der Beitrag einer Bank zum SRF hängt von zwei Faktoren ab: dem Umfang der zu versichernden Einlagen und einem Risiko(anpassungs)multiplikator, der von einem Dutzend Risikoindikatoren abhängt. Dabei geht es um Kapitalquoten, Liquiditätsquoten, Verschuldungsquoten, Handelsbestände, außerbilanzielle Positionen, Derivate usw. Einen Risikoindikator “Anteil der notleidenden Kredite” oder etwas Vergleichbares gibt es nicht. Das ist erstaunlich, denn die Studie der EZB belegt, dass die Wahrscheinlichkeit, in Schwierigkeiten zu geraten, unter anderem signifikant vom Anteil der notleidenden Kredite in den Büchern der betreffenden Bank abhängt. Nur dann, wenn die Bank den Wert des Kredits berichtigt und entsprechende Rückstellungen bildet, wirkt sich der notleidende Kredit auf die Kapitalquoten und damit indirekt auf den Risikomultiplikator aus. Damit verschwindet der Kredit jedoch auch aus der Bilanz und aus der Statistik der notleidenden Kredite.

Bei der Berechnung des Risikomultiplikators fehlt ein weiterer wichtiger Risikoindikator: der Anteil der Anleihen überschuldeter Staaten – insbesondere des eigenen Staates – am Portefeuille der Bank. Anleihen der EU-Staaten gelten als risikolos, sind es aber nicht – wie der griechische Schuldenschnitt zeigt.

Problematisch ist nicht nur die Auswahl der Risikoindikatoren, sondern auch ihre Verwertung in der Kalkulation des Risikomultiplikators.

Zum einen werden nicht die tatsächlichen Werte der einzelnen Indikatoren verwendet und ggf. normalisiert, sondern Rangziffern gebildet. Für jeden Indikator werden die Banken in eine Rangfolge gebracht. Dann wird für jede Bank über alle Indikatoren ein gewichteter Durchschnitt ihrer Rangziffern berechnet. Dieses Verfahren begünstigt Banken in Ländern, die – wie Griechenland, Zypern, Portugal und Italien – sehr stark vom Mittelwert der Eurozone abweichen, und benachteiligt Banken in Ländern, die – wie Luxemburg, Finnland, Estland, die Niederlande und Deutschland – dem Mittelwert viel näher sind.

Zum anderen wird die Spannweite des gewichteten Risikomultiplikators künstlich beschränkt. Der größtmögliche Wert wird mit 1,5 festgesetzt, der geringstmögliche mit 0,8. Das bedeutet, dass der Risikomultiplikator für die Banken der höchsten Risikoklasse noch nicht einmal doppelt so hoch sein darf wie für die niedrigste Risikoklasse. In der Einlagenversicherung der USA (FDIC) kann die höchste Risikokomponente das 18-fache der niedrigsten sein. Der Anteil der notleidenden Kredite war – wie unsere Zahlen zeigen –  in Griechenland 67-mal höher als in Luxemburg. Vergleicht man nicht Länderdurchschnitte, sondern die einzelnen Banken in der Eurozone, so ist die Spanne zwischen dem höchsten und dem niedrigsten Anteil offensichtlich noch viel größer.

Fazit: Die Auswahl und die mangelnde Verwertung der Risikoindikatoren haben zur Folge, dass die soliden Banken die unsoliden subventionieren. Das schwächt den Anreiz, übermäßige Risiken zu vermeiden und gefährdet die Finanzmarktstabilität.

Nicht nur Abbau der Altlasten

Die Deutschen wollen nicht für die notleidenden Kredite in anderen Ländern aufkommen. Deshalb fordert die Bundesregierung, dass die europäische Einlagensicherung erst dann eingeführt werden soll, wenn die “Altlasten” bereinigt sind. Das Kriterium wäre also, dass sich die von der EZB berichteten Anteile der notleidenden Kredite innerhalb der Eurozone auf niedrigem Niveau angeglichen haben müssen. Paris und Brüssel sind auf die deutsche Forderung eingegangen und wollen dieses Kriterium nun in einem “Fahrplan” festschreiben. Davon ist abzuraten, denn die Statistik der notleidenden Kredite ist manipulationsanfällig. Dafür gibt es zwei Gründe.

  1. Ob ein Kredit notleidend ist oder nicht, ist eine Ermessensentscheidung. Das gilt für die einzelne Bank, aber auch für die Aufsichtsbehörde. Gemäß den Bestimmungen ist ein Kredit als notleidend einzustufen, wenn der Kreditnehmer mit seinen Zahlungsverpflichtungen mehr als 90 Tage im Rückstand ist oder wenn es unwahrscheinlich ist, dass er seinen Zahlungsverpflichtungen nachkommen kann. Was hier wahrscheinlich oder unwahrscheinlich ist, kann nur subjektiv entschieden werden. Der Banker hat kein Interesse daran, Kredite als notleidend auszuweisen. Zum einen gibt er damit zu, dass er bei der Kreditvergabe einen Fehler gemacht hat. Zum anderen erfordert die Bereinigung des als notleidend ausgewiesenen Kredits Rückstellungen, die zu Lasten des Kapitals gehen und eine Rekapitalisierung notwendig machen können. Damit der Kreditnehmer nicht in Rückstand gerät, kann ihm die Bank zusätzliche Kredite geben, die er dann für den Schuldendienst einsetzt.

Banker und nationale Aufsichtsbehörden haben außerdem einen Anreiz, Kredite nicht als notleidend einzustufen, wenn davon in Zukunft die Einführung der gemeinsamen Einlagensicherung abhängt, auf die man die Kosten der Schieflage abwälzen kann.

  1. Selbst wenn die Altlasten tatsächlich bereinigt würden, wäre das kein Schutz vor neuen Belastungen. Die großen Unterschiede zwischen den Risiken der Banken sind Folge eines symmetrischen Schocks – der Finanzmarktkrise von 2008. Aber die verschiedenen Länder der Eurozone haben aus politischen und strukturellen Gründen unterschiedlich darauf reagiert. Das wäre beim nächsten globalen Schock nicht anders.

Symmetrische Schocks erfordern keine gemeinsame Versicherung, denn bei symmetrischen Schocks sind die Risiken nicht diversifiziert. Asymmetrische Schocks in einzelnen Ländern beruhen dagegen in der Regel auf wirtschaftspolitischen Fehlern dieser Länder. Die Folgekosten solcher Fehler sollten nicht sozialisiert werden, denn damit würde man falsche Anreize setzen.

Es ist leicht, sich Bedingungen vorzustellen, unter denen eine europäische Einlagensicherung effizient wäre. Aber selbst Versicherungstheoretiker sollten erkennen, dass wir diese Bedingungen in der Eurozone nicht bekommen werden. Die Verhandlungsstrategie der Bundesregierung ist daher brandgefährlich.

Erstmals erschienen in der Zeitschrift der Schutzgemeinschaft der Kapitalanleger.