Photo: Greger Ravik from Flickr (CC BY 2.0)

Von Prof. Roland Vaubel, emeritierter Professor für Volkswirtschaftslehre und Politische Ökonomie an der Universität Mannheim.

Die Diskussion über die Sicherung der Bankeinlagen in der Eurozone hat sich verlagert: von dem Projekt einer gemeinsamen Einlagen(ver)sicherung zu einer gemeinsamen Einlagenrückversicherung. Erst wenn der Fonds einer nationalen Einlagensicherung erschöpft ist, sollen die Einlagensicherungen der anderen siebzehn Euro-Staaten einspringen, d. h. haften. Wie ist diese Akzentverschiebung zu erklären?

Mögliche Gründe für die Akzentverschiebung

Geht es einfach nur darum, in einem ersten Schritt die zu erwartende Umverteilung zwischen den Euro-Staaten zu begrenzen und damit die politischen Widerstände zu vermindern? Ist der Einstieg erst einmal geschafft, könnte bei nächster Gelegenheit die europäische Direktversicherung folgen.

Ist eine zweite Erklärung vielleicht darin zu sehen, dass die Rückversicherung aufgrund der schwächeren Quersubventionierung weniger Fehlanreize erzeugt? Allerdings ist die Rückversicherung zugleich mit einer geringeren Diversifikation der Risiken verbunden. Wer wie die Befürworter einer europäischen Versicherung davon ausgeht, dass der Vorteil einer stärkeren Diversifikation schwerer wiegt als der Nachteil der stärkeren Fehlanreize, kann schwerlich für eine geringere Risikoteilung – die bloße Rückversicherung – eintreten. Diese Erklärung scheidet daher aus.

Haben sich die Befürworterinnen und Befürworter der Rückversicherung vielleicht drittens vom Subsidiaritätsprinzip leiten lassen? Im Falle einer Rückversicherung könnte innerhalb der einzelnen Euro-Staaten alles beim Alten bleiben, so dass sie einige Freiräume behalten würden. Zwar verpflichtet die Europäische Richtlinie über Einlagensicherungssysteme (2014) alle Mitgliedstaaten der EU, die Bankeinlagen bis 100.00 Euro auf bestimmte Weise zu versichern. Aber nicht alles ist festgelegt. Zum Beispiel gewährt die einschlägige Leitlinie der Europäischen Bankenaufsichtsbehörde (EBA/GL/2015/10) Spielraum bei der Festlegung der Gewichte, mit denen die einzelnen Risikofaktoren in die Berechnung der Beitragsätze eingehen. So darf das Gewicht der notleidenden Kredite von 13 auf 28 Prozent erhöht werden, und die von den Banken gehaltenen Staatsanleihen könnten mit einem Gewicht von bis zu 15 Prozent berücksichtigt werden (Z. 56 und 58 der Leitlinie). Der deutsche Finanzminister macht von dieser Möglichkeit allerdings keinen Gebrauch. Der Einheitliche Abwicklungsfonds der Eurozone schließt den Anteil der notleidenden Kredite und der Staatsanleihen der Banken sogar ganz von der Berechnung der Beitragsätze aus.

Besteht der Charme der Rückversicherung schließlich vielleicht gerade darin, dass sich die Euro-Staaten nicht darüber streiten müssen, wie die Risikoprämien in den Beitragsätzen der Banken am besten berechnet werden können? Aber auch eine Rückversicherung erhebt Versicherungsbeiträge, und auch diese sollten risikogerecht sein. Für die einzelnen Euro-Staaten müssten jeweils gegenüber den anderen siebzehn Ländern risikogerechte Beitragsätze ausgehandelt werden. Dabei ginge es nicht nur um die riesigen internationalen Unterschiede bei den notleidenden Krediten und Staatsanleihen der Banken, sondern auch um die landesspezifischen Risiken. Mehrere ökonometrische Analysen zeigen, dass die Wahrscheinlichkeit von Bankenkrisen signifikant von Makrovariablen wie der Arbeitslosenquote, den Immobilienpreisen, der Volatilität des Wirtschaftswachstums, der Staatsverschuldung und dem Pro-Kopf-Einkommen abhängt.[ 1 ] Eine Untersuchung der EZB (Betz et al., 2013)  kommt sogar zu dem Ergebnis, dass die länderspezifischen Indikatoren mehr zur Prognose des Insolvenzrisikos einzelner Banken beitragen als die bankenspezifischen Indikatoren.

Wenn es permanente länderspezifische Risikofaktoren gibt, genügt es nicht darauf abzustellen, ob die Risiken vielleicht nächstes Jahr niedrig und vor allem weniger unterschiedlich sind. Denn die zu erwartenden Risiken können von länderspezifischen Strukturmerkmalen bestimmt werden, die langfristig wirksam sind. Man könnte zum Beispiel fragen, ob einzelne Euro-Staaten schon in der Vergangenheit – vor 2007/08 – schwere Bankenkrisen durchgemacht haben. Für Griechenland (1991-95), Italien (1990-95) und Spanien (1977-85) ist das der Fall.

Interkulturelle Unterscheide als Grund für Gefälligkeitskredite?

Sind die großen internationalen Unterschiede bei den notleidenden Krediten vielleicht durch interkulturelle Unterschiede bedingt? Notleidende Kredite sind häufig Gefälligkeitskredite. Was sagt die Forschung hierzu? Trompenaars und Hampden-Turner (2012) haben die wirtschaftlich relevanten interkulturellen Unterschiede wissenschaftlich – d. h. mit Hilfe von Umfragen – untersucht. Die Autoren unterscheiden zwischen “Particularism” (Vorrang für die Beziehungen zu Verwandten, Freunden und guten Bekannten) und “Universalism” (Vorrang für die Einhaltung universeller Regeln). Dem Thema Gefälligkeitskredite kommt die folgende Testfrage am nächsten: “Stellen Sie sich vor, Sie sind Arzt bei einer Krankenversicherung und sollen die gesundheitlichen Risiken der prospektiven Versicherungsnehmer einschätzen. Würden Sie bei einem Freund ein Auge zudrücken?” “Ja”, antworten 44 Prozent der Befragten in Griechenland, 42 Prozent in Italien und 39 Prozent in Spanien, aber nur 30 Prozent in Irland und 32 Prozent in Finnland.

Deutschland ist in der betreffenden Stichprobe nicht enthalten. Aber wenn es zum Beispiel darum geht, ob man als Zeuge zugunsten eines Freundes aussagen würde, der durch zu schnelles Fahren einen Fußgänger verletzt hat, ist Deutschland zusammen mit Irland und den Niederlanden klar im universalistischen Bereich, während Griechen und Spanier viel eher dazu neigen, ihren Freund zu entlasten. (Italien fehlt in dieser Stichprobe.) In beiden Umfragen erweisen sich übrigens auch die Franzosen als stark partikularistisch. Die extrem kostspielige Abwicklung des Credit Lyonnais 1994/95 ist noch in Erinnerung.

Würden sich die Euro-Staaten im Rahmen einer europäischen Einlagenrückversicherung auf annähernd risikogerechte Beitragsätze für die einzelnen Länder einigen? Auch der idealistischste Versicherungstheoretiker wird einräumen müssen, dass damit nicht zu rechnen ist. Entweder es kommt zu einem faulen Kompromiss, der die Anreize massiv verzerrt, oder man geht im Streit auseinander, was nicht der Völkerverständigung dient. Sollte man deshalb nicht von vorneherein von dem Projekt Abstand nehmen?

Symmetrische versus asymmetrische Schocks

Die Rückversicherung wirft aber noch ein weiteres Problem auf, das nicht politisch, sondern versicherungstheoretisch bedingt ist. Die Einlagensicherung ist für systemische Schocks gedacht. Sie soll Bank Runs verhindern, die eine allgemeine Finanzkrise auslösen würden. Paradebeispiel ist ein Finanzmarktschock, der von außen – zum Beispiel wie 1929-33 und 2007/08 aus den USA – kommt. Auch ein negativer geldpolitischer Schock von Seiten der EZB käme theoretisch in Frage. In diesen Fällen sind alle Euro-Staaten betroffen. Bei symmetrischen Schocks genügt es jedoch, dass alle Mitgliedstaaten über hinreichende nationale Einlagensicherungen verfügen. Das ist durch die EU-Richtlinie von 2014 sichergestellt.

Eine europäische Einlagenrückversicherung würde dagegen dann zum Zuge kommen, wenn der Schock asymmetrisch ist, d.h. im einfachsten Fall nur einen Euro-Staat trifft. Dann ist der Schock aber typischerweise nicht systemisch, und es bedarf deshalb keiner Rückversicherung.

Außerdem wird im Versicherungsmodell unterstellt, dass die Schocks zufällig sind – zum Beispiel eine schlechte Ernte oder eine Überschwemmung. Asymmetrische Bankenkrisen sind aber in der Regel hausgemacht – so wie in den achtziger und neunziger Jahren in Griechenland, Italien und Spanien. Sie beruhen zumeist auf einer leichtsinnigen Geschäftspolitik der Banken oder einer zögerlichen Bankenaufsicht oder einer falschen Wirtschaftspolitik oder einem krassen Fehlverhalten der Tarifpartner. In allen diesen Fällen wäre es eindeutig ineffizient, die soliden Banken der anderen siebzehn Euro-Staaten zur Kasse zu bitten. Sie trifft keine Verantwortung. Der Wettbewerb zwischen den Banken würde verzerrt. Haften sollten diejenigen, die die Bankenkrise verursacht haben.

Dieser Grundsatz spricht erst recht gegen die ursprünglich vorgeschlagene Einlagensicherung der Euro-Staaten. 154 Wirtschaftsprofessorinnen und -professoren haben davor gewarnt.

Erstmals erschienen bei Ökonomenstimme.

Photo: John Lindie on Wikimedia Commons (CC0)

Von Matthias Still. Unternehmer und PR-Berater, Fackelträger bei Prometheus.

„Prognosen sind schwierig, vor allem, wenn sie die Zukunft betreffen“, sagte einst Mark Twain, spitzfindig wie der alte Haudegen nun einmal war. Aber recht hat er. Es ist alles andere als einfach, vorherzusehen, wie die Zukunft wird. Denn das würde bedeuten, heute schon zu wissen, was 7,63 Milliarden Menschen morgen machen. Und das ist eine echte Mammutaufgabe, denn die allermeisten dieser Menschen machen eben das, was sie wollen. Und nicht das, was wir von ihnen erwarten. Und das macht alles so kompliziert.

Allerdings hat diese Tatsache im Laufe der Geschichte Menschen noch nie davon abgehalten, mutige Prognosen zur Zukunft zu treffen: Das gilt für das eigene Leben („Oh nein, ich werde das nie schaffen!“) genauso wie für die große weite Welt („Das globale Wirtschaftswachstum wird um 0,2 Prozentpunkte einbrechen“). Warum ist das so? Weil der Blick in die Glaskugel Menschen seit jeher fasziniert. Gewissheit zu erlangen über all das, was eigentlich ungewiss ist, bedient unser Bedürfnis nach Sicherheit. Und verleiht Macht – zumindest denjenigen, die glaubhaft darlegen können, zu sagen, was morgen sein wird. Zu früheren Zeiten waren das oft Freiberufler aus Branchen wie der Hellseherei und der Wahrsagerei. Heute bemühen sich Wissenschaftler durch allerlei Rechenmodelle, den zukünftigen Ereignissen etwas zuverlässiger auf die Spur zu kommen. Und, zugegeben, gewisse Annäherungen an das was kommt, lassen sich dabei durchaus erzielen.

Aber man kann auch ganz schön danebenliegen. Ein berühmtes Beispiel dafür sind die Annahmen zur exponentiellen Zunahme von Pferdemist auf den Straßen von New York. Die Ausscheidungen der Vierbeiner machten den Stadtplanern der größten amerikanischen Metropole im Jahr 1850 ordentlich Sorgen. Damals wurde es immer populärer, mit der Kutsche zu reisen. Gleichzeitig stieg die Einwohnerzahl der Stadt rasant an: Von gemütlichen 60.000 im Jahr 1800 hatten sich die New Yorker vierzig Jahre später auf über 300.000 verfünffacht (die Wachstumsrate heutiger afrikanischer Großstädte ist dagegen eine Pfadfinderparty).

So war es also nicht von der Hand zu weisen, dass – rein mathematisch betrachtet – bei anhaltendem Bevölkerungswachstum und weiter wachsender Beliebtheit der Kutschfahrten New York exakt im Jahr 1910 in meterhohem Pferdemist ersticken würde, so die Vorhersagen. Doch dann kam es ganz anders: Zwar wuchs New York weiterhin im atemberaubenden Tempo und hatte an der Schwelle zum 20. Jahrhundert schon über drei Millionen Einwohner – doch die interessierten sich ganz und gar nicht für Kutschfahrten, sondern für das Automobil. Henry Ford ließ 1908 das erste Auto vom Fließband rollen und legte damit den Grundstein für den PKW als Massenprodukt. Die Pferdestärken auf vier Rädern ersetzten die bisherigen Pferdestäken auf vier Beinen. 1850 allerdings konnte das noch keiner ahnen.

Heute, mehr als 100 Jahre später, blicken wir auf das „Klimapaket“ der Großen Koalition. Auch da geht es um Fortbewegung, allerdings um die mit dem Auto (zumindest derzeit liege noch keine Pläne vor, aus Gründen der CO2-Emissionen wieder auf das Pferd umzurüsten). CDU, CSU und SPD wollen die Welt vor der Erwärmung retten und setzen in Sachen Mobilität ganz und gar auf den Elektroantrieb. Das Elektroauto pustet kaum CO2 in die Atmosphäre und soll deshalb bis zum Jahr 2030 möglichst in 10 Millionen deutschen Garagen stehen. Dafür gibt der Bund Milliarden aus: Allein eine Million Ladestationen soll es zukünftig geben (das entspricht etwa einer Station für 10 E-Autofahrer!). Und der Umstieg vom guten alten Verbrennungsmotor auf das Elektrofahrzeug soll mit üppigen Prämien subventioniert werden.

Diese Ziele mögen im Hinblick auf die Gesundung des Weltklimas ehrenwert sein, sie stoßen allerdings in der Realität gleich zweifach an ihre Grenzen: Der Autofahrer, dieser Wicht, macht schon hier und heute nicht das, was er soll. Denn bereits für das Jahr 2020 hatte sich die Bundesregierung gewünscht, dass gefälligst eine Million Elektroautos auf deutschen Straßen fahren. Doch tatsächlich sind es Ende 2019 gerade einmal 150.000. Denn leider halten die vergleichsweise hohen Anschaffungskosten die breite Masse der Bevölkerung immer noch von einem Kauf ab.

Doch was viel wichtiger ist: Der Elektroantrieb erscheint uns heute, im Jahr 2019, als ökologisch sinnvoll. Deshalb wird er mit Milliardenbeträgen gefördert. Doch genau damit gelangen andere, alternative Antriebe ins Hintertreffen. Denn die E-Mobilität ergattert sich durch die Steuermilliarden einen Wettbewerbsvorteil im Vergleich zu Brennstoffzelle, synthetischen Kraftstoffen, Autogas oder anderen Antriebsarten, die wir noch gar nicht kennen. In dem Moment, in dem die Bundesregierung üppige Subventionen für die Weiterentwicklung des Elektroautos in Aussicht stellt, lohnt sich der Aufwand nicht mehr, an Wasserstoff & Co. zu forschen. Es werden massive Anreize in eine bestimmte Richtung gesetzt. Ob dies richtig ist oder nicht, wird erst die Zukunft zeigen.

Mit dem Problem, dass Politiker oft Entscheidungen treffen, hinter denen äußerst ungewisse Annahmen stehen, beschäftigte sich bereits der Ökonom Friedrich August von Hayek (1899-1992). Der Wirtschaftsnobelpreisträger sprach in diesem Zusammenhang von einer „Anmaßung von Wissen“. Politiker können in den allermeisten gesellschaftlichen Fragen gar nicht wissen, was morgen passiert. Klüger wäre es deshalb, es dem Markt – und damit der Weisheit der Vielen – zu überlassen, welche Lösungen für ein Problem gefunden werden. Beim Automobil würde dies bedeuten, keine bestimmten Antriebsarten zu bevorzugen, sondern stattdessen alle Technologien den gleichen Wettbewerbsbedingungen zu unterziehen: Beispielsweise durch eine einheitliche Steuer auf den CO2-Ausstoß oder durch den Handel mit entsprechenden Zertifikaten.

Bis es soweit ist, dürfen wir gespannt verfolgen, ob die Bundeskanzlerin und ihr Kabinett in der Prognosefähigkeit ähnlich treffsicher sind wie die New Yorker Stadtplaner im Jahr 1850.

Photo: Dorotheum from Wikimedia Commons (CC 0)

Von Prof. Roland Vaubel, emeritierter Professor für Volkswirtschaftslehre und Politische Ökonomie an der Universität Mannheim.

Weshalb ging die Reformation von Deutschland aus, und weshalb erfasste sie als nächstes die Schweiz und die Niederlande? Weshalb gelang die Reformation nicht schon vorher in Großstaaten wie Frankreich oder England, obwohl es dafür durchaus Ansätze gab? Die Katharer in Frankreich wurden regelrecht ausgerottet, und John Wycliffe in England wurde von der englischen Kirche zum Ketzer erklärt. Der deutsche Sprach- und Kulturraum war für die Reformation “prädestiniert”, weil er nicht in einem Großstaat vereint, sondern politisch fragmentiert war. Reformatoren, die verfolgt wurden, konnten sich relativ leicht im selben Sprach- und Kulturraum in Sicherheit bringen oder – wie Martin Luther – in Sicherheit gebracht werden. Die Grenze war nicht weit, und die Aussicht, anderswo in einer ähnlichen Umgebung leben und wirken zu können, ermutigte die religiösen Querdenker, gegen die herrschende Lehre und Kirche zu protestieren. Anders als 1415, als Jan Hus in Konstanz auf dem Scheiterhaufen endete, war diesmal auch der Zeitpunkt günstig, denn der katholische Kaiser wurde von 1521 bis 1544 in fünf Kriege mit dem französischen König verwickelt, der sich mit aller Kraft und ohne religiöse Scheuklappen gegen die habsburgische Umklammerung zur Wehr setzte, und 1529 standen die Türken vor Wien!

Man kann sich fragen, weshalb nicht auch das politisch fragmentierte Italien für die Reformation prädestiniert war. Im 15. Jahrhundert hatten die humanistischen Freigeister in einigen der italienischen Stadtstaaten Schutz vor der Inquisition gefunden. Aber die Reformation wurde von keinem italienischen Herrscher unterstützt. Die wenigen italienischen Reformatoren, die es gab, flohen in die Schweiz und nach Süddeutschland oder wurden in Rom hingerichtet. Zwei Erklärungen drängen sich auf. Zum einen ist das römische Papsttum eine italienische Institution, auf die die Italiener zu allen Zeiten stolz waren. Anders als in Deutschland wäre man in Italien kaum auf die Idee gekommen, dem Papsttum die Existenzberechtigung abzusprechen. Zum anderen wurden die Zustände, die damals im Vatikan herrschten, wahrscheinlich von den meisten Italienern nicht als so skandalös empfunden wie von den strengen Deutschen, Schweizern und Niederländern.

Dass die politische Fragmentierung des deutschen Sprach- und Kulturraums die Reformation ermöglichte, weil sie den Verfolgten Zuflucht bot, ist eine plausible Hypothese, aber lässt sie sich auch empirisch belegen? Sind tatsächlich innerhalb des deutschen Sprach- und Kulturraums zahlreiche Reformatoren durch Flucht in ein anderes Herrschaftsgebiet der Verfolgung entgangen?

Um diese Frage zu klären, habe ich die Biographien der Reformatoren und prominenten Reformationsunterstützer in dem von Klaus Ganzer und Bruno Steimer herausgegebenen “Lexikon der Reformationszeit” (Herder 2002) ausgewertet und die Angaben anhand von Wikipedia überprüft und ergänzt. Ich habe dreizehn solche Fälle gefunden. Die bekanntesten Flüchtlinge sind Ulrich von Hutten und Martin Bucer, der Straßburger Reformator. Zwei flohen zu Luther nach Wittenberg, zwei zu Zwingli nach Zürich. Nicht mitgezählt habe ich diejenigen, die aus dem Gefängnis entkamen, denn diese Möglichkeit war unabhängig von der politischen Fragmentierung. Nicht berücksichtigt habe ich außerdem die zahllosen Theologen, die nicht verfolgt, sondern “nur” ihres Amtes enthoben und/oder ausgewiesen wurden, obwohl auch sie sich wahrscheinlich durch die leichte Verfügbarkeit alternativer Wirkungsstätten ermutigt gefühlt hatten. Vielleicht gilt dies sogar für Martin Luther, obwohl dieser sich nicht selbst in Sicherheit brachte, sondern vom sächsischen Kurfürsten Friedrich dem Weisen auf der Wartburg versteckt wurde.

Zu unserer Hypothese passt jedoch nicht, dass zehn Reformatoren vorübergehend und vier für den Rest ihres Lebens eingekerkert wurden und dass vierzehn ihren Protest mit dem Leben bezahlten. Auf dem Scheiterhaufen endeten Reformatoren in Heide (1524), Passau (1527), Wien (1528), Köln (1529), Genf (1553) und Overijssel (1580). In Münster wurden 1535/36 vier Wiedertäufer hingerichtet bzw. auf der Stelle getötet. Ohne die politisch ambitionierten Wiedertäufer, die ja den Gottesstaat auf Erden errichten wollten, vermindert sich die Zahl der Hinrichtungen auf sechs. Die Verhaftungen und Hinrichtungen verdeutlichen, wie wichtig es für die Reformatoren war möglichst leicht fliehen zu können, auch wenn dies nicht immer gelang.

Da die Flucht vor Verhaftung in dreizehn Fällen glückte, aber in 28 Fällen (= 10 + 4 + 14) unterblieb, scheint der Befund eher gegen unsere Hypothese zu sprechen, obwohl einige Reformatoren wahrscheinlich bewusst auf die eigentlich mögliche Flucht verzichteten. Aber vielleicht war das Verhältnis der Fluchthäufigkeit zur Zahl der Gefangennahmen und Hinrichtungen in den europäischen Großstaaten noch niedriger? Das Lexikon der Reformationszeit berichtet auch über die Reformatoren und Reformationsunterstützer in den anderen europäischen Ländern, jedoch – soweit ich erkennen kann – weniger detailliert. Die Fallzahlen sind vermutlich nach unten verzerrt. Aber das gilt sowohl für die Fluchthäufigkeit als auch für die Verhaftungen und Hinrichtungen. Die Verzerrung verschwindet, wenn man die Fluchthäufigkeit ins Verhältnis zur Zahl der Verhaftungen und Hinrichtungen setzt – also skaliert.  Da Hinrichtungen eher berichtet werden als Verhaftungen, beschränke ich mich – auch der Einfachheit halber – auf das Verhältnis der Fluchthäufigkeit zur Zahl der Hinrichtungen. Um die Vergleichbarkeit zu verbessern, lasse ich die Hinrichtungen der politisch gefährlichen Wiedertäufer weg. Die resultierende Verhältniszahl bezeichne ich als “relative Fluchthäufigkeit”. Im deutschen Sprach- und Kulturraum beläuft sie sich auf 2,2 (= 13/6).

Für den zu dieser Zeit bereits hochzentralisierten Großstaat Frankreich vermeldet das Lexikon sechs flüchtige Reformatoren und prominente Reformationsunterstützer. Der bekannteste unter ihnen ist zweifellos Jean Calvin, der 1533 von Paris in die Schweiz floh. Das Lexikon nennt namentlich nur drei getötete Reformatoren oder Reformationsunterstützer, schätzt aber die Zahl der in der Bartholomäusnacht (1572)  in Paris umgebrachten Protestanten auf 3.000 bis 4.000. Die Pariser Bartholomäusnacht ist für unsere Hypothese nicht relevant, denn die Opfer des Massakers waren nicht deshalb nicht geflohen, weil dies besonders schwierig gewesen wäre, sondern weil sie eingeladen waren und nicht mit diesem Vertrauensbruch rechneten. Anders war es in der Provinz. Dort wurden laut Lexikon wenig später 5.000 bis 10.000 Protestanten umgebracht. Nicht alle waren Reformatoren oder prominente Reformunterstützer. Die meisten waren einfache Protestanten. Aber selbst wenn unter den Tausenden von Opfern nur hundert Theologen und prominente Reformationsunterstützer gewesen wären, beliefe sich die relative Fluchthäufigkeit in Frankreich auf 0,06 (=6/103) und wäre damit sehr viel niedriger als im deutschen Sprach- und Kulturraum.

Für England nennt das Lexikon ebenfalls sechs gelungene Fluchtversuche, drei unter Heinrich VIII. (vor dessen Bruch mit Rom) und drei unter Maria I., der Katholischen. Drei Flüchtlinge gingen nach Deutschland. Der bekannteste ist der schottische Reformator John Knox, der vor der Flucht in England lebte. Das Lexikon nennt namentlich sechs protestantische Theologen, die hingerichtet (verbrannt) wurden: drei unter Heinrich VIII., drei unter Maria der Katholischen. Das Lexikon berichtet, dass Maria die Katholische darüber hinaus etwa 300 prominente Unterstützer der Reformation hinrichten ließ. Damit ergibt sich eine relative Fluchthäufigkeit von 0,02 (=6/306).

Aus Schottland floh ein Reformator, zwei wurden hingerichtet. Das läuft auf eine relative Fluchthäufigkeit von 0,5 (=1/2) hinaus.

Im Reich der Habsburger – hier ohne Österreich, das ja zum deutschen Sprach- und Kulturraum gehört – gelang siebenmal die Flucht, vier Reformatoren wurden hingerichtet oder fielen einem kirchlichen Attentat zum Opfer (darunter ein Wiedertäufer). Die Flüchtlinge wandten sich nach Genf, Wittenberg, Nürnberg, Paris und London. Als relative Fluchthäufigkeit ergibt sich das Verhältnis 2,3 (=7/3). Das ist geringfügig höher als im deutschen Sprach- und Kulturraum und könnte daran liegen, dass die nicht-österreichischen Besitzungen der Habsburger damals weit über Europa verstreut waren. Verfolgte konnten sich entsprechend leicht in Sicherheit bringen.

Die Ergebnisse für die kompakten europäischen Großstaaten Frankreich und England und für Schottland stützen jedoch unsere Hypothese: Die relative Fluchthäufigkeit war dort wesentlich geringer als im politisch fragmentierten deutschen Sprach- und Kulturraum.

Die von Deutschland ausgehende Reformation eröffnete einen Wettstreit der Konfessionen und war grundlegend für den Geist der Meinungsfreiheit, der in den folgenden Jahrhunderten das europäische Innovations- und Wirtschaftswunder möglich machte. Vielleicht war die Reformation Deutschlands größter Beitrag zu diesem Wunder.

Erstmals erschienen bei Wirtschaftliche Freiheit.

Photo: Markus Spiske from Unsplash (CC0)

Der Sommer ist nicht nur die Zeit für Badehosen und ausgiebige Grillabende, sondern auch für Politiker der zweiten Reihe. Ein Dauerbrenner des Sommerlochs und des anklingenden Herbstes 2019 sind Verbote. Seien es Plastikbesteck, Ölheizungen oder Inlandsflüge, quer durch alle politischen Lager werden die Rufe nach Verboten laut. Verbote sind in der Regel nicht das beste Mittel, um unerwünschten Externalitäten zu begegnen. Die Forderung nach Verboten kann für Politiker im politischen Wettbewerb dennoch attraktiv sein, wenn die geforderten Verbote den Vorlieben ihrer Wähler entsprechen, sie dadurch besondere Ernsthaftigkeit signalisieren können oder sich mit der extremen Position das Feld des politisch Möglichen erweitern lässt. Während die Forderung nach Verboten von Politikern auf Stimmenfang regelmäßig als Instrument eingesetzt wird, sollte der Staat nur in sehr seltenen Fällen Verbote durchsetzen, um externe Effekte zu verhindern.

„Verbieten“ im Trend

Was auch immer die Menschen bewegt, Google weiß es recht schnell. Bei ersten Grippesymptomen fragen wir gerne die große Suchmaschine um Rat. Ein Anstieg der Suchanfragen kann daher ein erstes Anzeichen für eine Grippewelle sein. Geht es nach den Googlesuchanfragen zum Thema „verbieten“ scheint es so, als würde die Menschen das Thema in den letzten Jahren vermehrt beschäftigen.

Seit 2004 stiegen die Suchanfragen mit „verbieten“. Dabei beschränken sich die Ausschläge nicht nur auf das politische Sommerloch in den Sommermonaten. Eine Auswertung der Bundestagsprotokolle zeigt zudem, dass „verbieten“ auch in den politischen Schlagabtauschen in Mode ist. Im Vergleich zu den ersten 20 Jahren der Bundesrepublik hat sich die Häufigkeit des Worts „verbieten“ in den aktuellen Debatten im Parlament mehr als verdoppelt.

Keine Alternativen mehr zu Verboten?

Verbote sind derzeit vor allem in Umweltfragen hoch im Kurs: SUVs, Inlandsflüge, Verbrennungsmotoren und vieles mehr. Man könnte den Eindruck gewinnen, Verbote seien attraktive Instrumente für den Klima- und Umweltschutz. Doch Verbote sollten das letzte Mittel in einem Instrumentenkasten sein, um mit externen Effekten wie Umweltproblemen fertig zu werden. Als externe Effekte werden Kosten bezeichnet, die nicht von ihrem Verursacher getragen werden, sondern Dritte treffen. Beispielsweise sind externe Kosten die Klimafolgekosten für anderen Menschen, die etwa bei der Benutzung des eigenen Autos entstehen.

Je stärker externe Effekte reduziert werden, desto höher sind die Kosten für die Vermeidung. Während die ersten Prozente relativ günstig eingespart werden können, sind die letzten verbleibenden externen Effekte nur zu hohen Kosten zu vermeiden. Daher ist es meist wünschenswert, die Externalität nicht komplett zu eliminieren, denn mit einem Verbot der zugrundeliegenden Aktivität geht auch der Nutzen vollständig verloren, den sie stiftet.

Für die gewünschte Reduktion externer Effekte ist es in der Regel nur notwendig, dass der Verursacher die vollen Kosten seiner Handlungen trägt. Um das Klima zu schützen, wäre daher folgerichtig den Verursachern die bisher nicht in Betracht gezogenen Kosten aufzubürden, etwa mit Hilfe einer CO2-Steuer oder eines Zertifikatehandels. Privatpersonen stünden ebenso wie Unternehmen vor der Frage, ob sie Emissionen verursachen und damit die Steuer zahlen, ein Zertifikat kaufen oder ob es nicht günstiger wäre, die Emissionen zu vermeiden. Unerwünschte Einkommensverteilungseffekte solcher Maßnahmen können vermieden werden, wenn die Einnahmen daraus nicht dem allgemeinen Budget des Staates zugeführt, sondern sie postwendend gleichmäßig an alle Einwohner ausgezahlt werden. Voraussetzung dafür ist allerdings der politische Wille, die Einnahmen nicht für eine zusätzliche Ausweitung des Einflusses des Staates auf den Ressourceneinsatz in der Volkswirtschaft zu nutzen.

Es gibt immer einen guten Grund für ein Verbot

Wenn Verbote kein attraktives Mittel sind, um Umweltprobleme zu lösen, warum werden sie dann so häufig gefordert? Für Politiker können Verbotsforderungen aus verschiedenen Gründen hilfreich sein.

Erstens können Politiker mit Verboten auf die Präferenzen ihrer Wähler eingehen. Wenn ihre potentiellen Wähler schlicht eine Abneigung gegen gewisse Aktivitäten ihrer Mitmenschen und nicht gegen die mit den Aktivitäten einhergehenden externen Effekte hegen, kann sich die Forderung nach einem Verbot politisch lohnen, obwohl es wirtschaftspolitisch nicht angemessen ist.

Die Unterscheidung zwischen echten externen Effekten und schlichter Abneigung ist schwierig, wie schon der Ökonom Kenneth Arrow anmerkte. Für einen „echten“ externen Effekt ist irrelevant, was die Quelle der Belastung ist. Der CO2-Ausstoß von Fahrzeugen ist genauso schädlich, wie die Emissionen der heimischen Gasheizung. Soll allerdings nur eine bestimmte Quelle externer Effekte verboten werden, ist dies ein Zeichen dafür, dass externe Effekte als Argument für ein Verbot nur vorgeschoben werden, tatsächlich aber Präferenzen der Zielwählerschaft bedient werden.

Zweitens können Politiker bei echten externen Effekten durch die Forderung nach der extremsten Lösung ihre Ernsthaftigkeit signalisieren – „klare Kante“ zeigen. Dies mag aus Sicht des Politikers erfolgversprechend sein, selbst wenn dem Politiker bewusst ist, dass es eine bessere Alternative zu einem Verbot gibt. Entscheidend ist, dass die potentiellen Wähler die extreme Position an der Wahlurne honorieren. Wird das geforderte Verbot anschließend nicht umgesetzt, kann der Politiker darauf verweisen, alles versucht zu haben.

Drittens können Verbote auch Teil einer strategischen Überlegung sein, die der eines Autoverkäufers ähnelt, der die Preisverhandlung mit einem übertrieben hohen Preis beginnt. Wollen Politiker eine Politikmaßnahme durchsetzen, kann es sich für sie lohnen, mit einer Maximalforderung zu beginnen, um das Feld der möglichen politischen Lösungen etwas zu erweitern. Will ein Politiker etwa eine höhere Besteuerung des inländischen Flugverkehrs erreichen, könnte er ein Verbot fordern, um als Kompromiss eine höhere Steuer zu erreichen.

Mehr Toleranz, weniger Verbote

Verbote sind anscheinend leider in Mode. Entsprechend haben Politiker aus verschiedenen Gründen Anreize, Verbote zu fordern. Als Wähler sollten wir mit der Zustimmung zu Verboten und der Belohnung der Forderung nach Verboten an der Wahlurne jedoch zurückhaltend sein – auch wenn wir das zu Verbietende nicht wertschätzen. Wo externe Effekte keine Rolle spielen, sollten wir uns in Toleranz üben und anerkennen, dass die Vorlieben unserer Mitmenschen sich zuweilen deutlich von unseren eigenen unterscheiden. Wo externe Effekte zum Tragen kommen, sollte ein Verbot Ultima Ratio sein und Formen der Internalisierung der externen Effekte durch Bepreisung in der Regel den Vorzug erhalten.

Erstmals erschienen bei IREF

Photo: Anthony Intraversato from Unsplash (CC 0)

Von Dr. Alexander Fink, Universität Leipzig, Senior Fellow des IREF – Institute for Research in Economic and Fiscal Issues, und Kalle Kappner, Promotionsstudent an der Humboldt-Universität zu Berlin, Research Fellow bei IREF, Fackelträger von Prometheus.

Deutschlands Arbeitsmarkt brummt. Die Arbeitslosenquote liegt nahe 5 Prozent. Zwar könnte sich die Konjunktur in naher Zukunft etwas abkühlen, doch über die nächsten Jahre spricht wenig für eine deutliche Trendumkehr. Langfristig sehen jedoch viele schwarz. Angesichts fortschreitender Automatisierung erwarten einige Beobachter eine Ära der Massenarbeitslosigkeit, in der nur noch hochqualifizierte Fachkräfte ein geregeltes Arbeitsverhältnis haben werden. Bei anderen wecken der Renteneintritt der Babyboomer-Generation und der Rückgang des Erwerbspersonenpotenzials Ängste vor Fachkräftemangel, abnehmenden Wachstumsraten und enormen Belastungen für den Sozialstaat.

Bisherige empirische Befunde und theoretische Argumente legen allerdings nahe, dass es weder zu Massenarbeitslosigkeit noch zu einem dramatischen Fachkräftemangel kommen wird und die beiden Probleme sich gewiss nicht gemeinsam manifestieren werden. Vielmehr wird der automatisierungsbedingte Rückgang der Arbeitsnachfrage überschaubar ausfallen und durch die zeitgleiche Abnahme des Erwerbspersonenpotenzials zusätzlich aufgefangen. Zentrale Herausforderung auf dem Arbeitsmarkt wird in den nächsten Jahrzehnten vermutlich eine zunehmende Einkommensspreizung sein.

Automatisierung heutiger Berufe

Ausgangspunkt zahlreicher alarmierender Langfristprognosen zur Arbeitsmarktentwicklung ist eine Studie von Frey und Osborne (2013). Anhand detaillierter Berufsbeschreibungen schätzen die Autoren für zahlreiche Berufsbilder, wie wahrscheinlich es ist, dass eine Maschine einen bestimmten Beruf übernehmen kann. Für die USA kommen sie zum Ergebnis, dass 47 Prozent der derzeit Beschäftigten Berufe ausüben, die in den nächsten 20 Jahren durch Maschinen übernommen werden können. Bonin et al. (2015) übertragen die Methode auf Deutschland und finden, dass 42 Prozent der Beschäftigten in automatisierbaren Berufen arbeiten.

Diese Befunde sollten hinsichtlich ihrer Prognosekraft jedoch vorsichtig interpretiert werden. Zum einen sinkt das gemessene Automatisierungspotenzial dramatisch, wenn es auf Ebene einzelner Aufgaben („Tasks“) statt umfassender Berufsbilder geschätzt wird – für Deutschland auf 12 Prozent der Beschäftigten.

Darüber hinaus impliziert die technische Möglichkeit einer Automatisierung nicht, dass sich diese aus Sicht eines Unternehmens lohnt und tatsächlich vollzogen wird. Löhne und Tätigkeitsprofile in betroffenen Branchen können angepasst werden, sodass der Einsatz menschlicher Arbeitskraft weiter attraktiv bleibt. Für Deutschland zeigen entsprechend Dengler und Matthes (2018), dass zumindest kurzfristig kein Zusammenhang zwischen dem gemessenen Automatisierungspotenzial und der Arbeitskraftnachfrage eines Berufsbildes besteht.

Folgen der Automatisierung: Keine Arbeitslosigkeit, aber Lohnspreizung

Für Deutschland finden Dauth et al. (2017), dass seit 1994 durch jeden Industrieroboter im Schnitt zwei Industriearbeitsplätze vernichtet wurden, jedoch ebenso viele neue Jobs im Dienstleistungssektor entstanden sind. Im Aggregat führte Automatisierung daher bisher nicht zu mehr Arbeitslosigkeit, jedoch zu beruflicher Neuorientierung und sinkenden Reallöhnen in den von Automatisierung betroffenen Branchen. Zu ähnlichen Ergebnissen kommen auch Graetz und Michaels (2018).

Eine Simulationsstudie von Arntz et al. (2018) prognostiziert auf Basis der bisherigen Entwicklung des deutschen Arbeitsmarkts, dass eine zunehmende Automatisierung in den nächsten zehn Jahren nicht zu Arbeitslosigkeit, sondern zu schwachen positiven Beschäftigungseffekten führen wird. Eine längerfristige Schätzung nehmen Zika et al. (2018) und Wolter et al. (2016) vor, die jeweils einen schwachen positiven Beschäftigungseffekt bis 2035 bzw. einen schwachen negativen Effekt bis 2030 finden.

Massenarbeitslosigkeit aufgrund künstlicher Intelligenz?

Prognosen auf Basis der Analyse bisheriger Automatisierungswirkung bieten wenig Anlass zur Sorge vor technologisch bedingter Arbeitslosigkeit, deuten aber auf wachsende Lohnspreizung hin. Die Prognosekraft dieser Studien hängt von der Annahme ab, dass zukünftige Automatisierungstrends den Mustern bisheriger Automatisierung folgen werden. Angesichts der Entwicklungen im Bereich künstlicher Intelligenz ziehen einige Kommentatoren diese Annahme in Zweifel.

So legt eine auf der Delphi-Methode, d.h. strukturierten Expertenbefragungen basierende Studie des Millennium Project offen, dass die Befragten im Schnitt erwarten, dass 2050 rund ein Viertel der Weltbevölkerung arbeitslos sein wird. Den Grund sehen die Befragten in den immer umfassenderen Anwendungsbereichen künstlicher Intelligenz, deren Automatisierungswirkung viele Menschen anders als im Fall klassischer Industrieroboter nicht mehr durch berufliche Umorientierung und Weiterbildung begegnen könnten.

Alterung wirkt technologischer Arbeitslosigkeit entgegen

In anderen Fällen wird gewissermaßen das Gegenteil der durch Automatisierung herbeigeführten Massenarbeitslosigkeit befürchtet: Ein durch den Rückgang des Erwerbspersonenpotentials herbeigeführter Mangel an Fachkräften. Trotz verstärkter Zuwanderung wird gemäß gängiger Prognosen die Zahl erwerbsfähiger Menschen in Deutschland durch die demografische Alterung der Gesellschaft von heute rund 45 Millionen bis 2060 auf ca. 39 Millionen sinken.

Isoliert betrachtet heizt dieser Befund regelmäßig Debatten um den sogenannten Fachkräftemangel an. So erwartet die Zukunftsforscher von Prognos für 2040 eine Fachkräftelücke von fast vier Millionen Arbeitskräften. Eine Studie des Instituts für die Geschichte und Zukunft der Arbeit erwartet ebenfalls ein sinkendes Verhältnis von Erwerbspersonen zum Arbeitskräftebedarf.

Andere Kommentatoren weisen allerdings darauf hin, dass der zu erwartende Rückgang des Erwerbspersonenpotenzials mögliche negative Beschäftigungseffekte der zeitgleich stattfindenden Automatisierung abmildern kann. So betont Südekum (2018), dass die häufig isoliert diskutierten Sorgen vor technologisch bedingter Arbeitslosigkeit einerseits und Rückgang des Erwerbspersonenpotenzials andererseits übertrieben sind, da sich beide Trends hinsichtlich ihrer Arbeitsmarktwirkung ausgleichen.

Flexible Arbeitsmärkte und individuellen Vermögensaufbau erleichtern

Bisherige empirische Studien und theoretische Überlegungen legen nahe, dass allzu pessimistische Prognosen zukünftiger Massenarbeitslosigkeit oder Unterversorgung mit Fachkräften überzogen sind. Gewiss werden sich nicht beide Probleme zugleich einstellen. Eine Herausforderung wird jedoch darin liegen, die Um- und Weiterbildung von Arbeitnehmern in verstärkt der Automatisierung unterliegenden Branchen zu erleichtern. Die Politik sollte die zügige berufliche Umorientierung fördern, statt sie durch die Subventionierung ausgewählter etablierter Branchen zu behindern.

Eine weitere Herausforderung liegt im Umgang mit der zu erwartenden zunehmenden Lohnspreizung. Zukünftig wird vermutlich ein größerer Anteil des volkswirtschaftlichen Gesamteinkommens an Kapitaleigner und Hochqualifizierte fließen. Damit breite Bevölkerungsschichten auch zukünftig vom technologischen Fortschritt profitieren, sollte die Politik den Aufbau individuellen Vermögens insbesondere in Form von Unternehmensbeteiligungen erleichtern, etwa im Rahmen der privaten und betrieblichen Altersvorsorge.

Erstmals erschienen bei IREF.