Photo: Dorotheum from Wikimedia Commons (CC 0)

Von Prof. Roland Vaubel, emeritierter Professor für Volkswirtschaftslehre und Politische Ökonomie an der Universität Mannheim.

Weshalb ging die Reformation von Deutschland aus, und weshalb erfasste sie als nächstes die Schweiz und die Niederlande? Weshalb gelang die Reformation nicht schon vorher in Großstaaten wie Frankreich oder England, obwohl es dafür durchaus Ansätze gab? Die Katharer in Frankreich wurden regelrecht ausgerottet, und John Wycliffe in England wurde von der englischen Kirche zum Ketzer erklärt. Der deutsche Sprach- und Kulturraum war für die Reformation “prädestiniert”, weil er nicht in einem Großstaat vereint, sondern politisch fragmentiert war. Reformatoren, die verfolgt wurden, konnten sich relativ leicht im selben Sprach- und Kulturraum in Sicherheit bringen oder – wie Martin Luther – in Sicherheit gebracht werden. Die Grenze war nicht weit, und die Aussicht, anderswo in einer ähnlichen Umgebung leben und wirken zu können, ermutigte die religiösen Querdenker, gegen die herrschende Lehre und Kirche zu protestieren. Anders als 1415, als Jan Hus in Konstanz auf dem Scheiterhaufen endete, war diesmal auch der Zeitpunkt günstig, denn der katholische Kaiser wurde von 1521 bis 1544 in fünf Kriege mit dem französischen König verwickelt, der sich mit aller Kraft und ohne religiöse Scheuklappen gegen die habsburgische Umklammerung zur Wehr setzte, und 1529 standen die Türken vor Wien!

Man kann sich fragen, weshalb nicht auch das politisch fragmentierte Italien für die Reformation prädestiniert war. Im 15. Jahrhundert hatten die humanistischen Freigeister in einigen der italienischen Stadtstaaten Schutz vor der Inquisition gefunden. Aber die Reformation wurde von keinem italienischen Herrscher unterstützt. Die wenigen italienischen Reformatoren, die es gab, flohen in die Schweiz und nach Süddeutschland oder wurden in Rom hingerichtet. Zwei Erklärungen drängen sich auf. Zum einen ist das römische Papsttum eine italienische Institution, auf die die Italiener zu allen Zeiten stolz waren. Anders als in Deutschland wäre man in Italien kaum auf die Idee gekommen, dem Papsttum die Existenzberechtigung abzusprechen. Zum anderen wurden die Zustände, die damals im Vatikan herrschten, wahrscheinlich von den meisten Italienern nicht als so skandalös empfunden wie von den strengen Deutschen, Schweizern und Niederländern.

Dass die politische Fragmentierung des deutschen Sprach- und Kulturraums die Reformation ermöglichte, weil sie den Verfolgten Zuflucht bot, ist eine plausible Hypothese, aber lässt sie sich auch empirisch belegen? Sind tatsächlich innerhalb des deutschen Sprach- und Kulturraums zahlreiche Reformatoren durch Flucht in ein anderes Herrschaftsgebiet der Verfolgung entgangen?

Um diese Frage zu klären, habe ich die Biographien der Reformatoren und prominenten Reformationsunterstützer in dem von Klaus Ganzer und Bruno Steimer herausgegebenen “Lexikon der Reformationszeit” (Herder 2002) ausgewertet und die Angaben anhand von Wikipedia überprüft und ergänzt. Ich habe dreizehn solche Fälle gefunden. Die bekanntesten Flüchtlinge sind Ulrich von Hutten und Martin Bucer, der Straßburger Reformator. Zwei flohen zu Luther nach Wittenberg, zwei zu Zwingli nach Zürich. Nicht mitgezählt habe ich diejenigen, die aus dem Gefängnis entkamen, denn diese Möglichkeit war unabhängig von der politischen Fragmentierung. Nicht berücksichtigt habe ich außerdem die zahllosen Theologen, die nicht verfolgt, sondern “nur” ihres Amtes enthoben und/oder ausgewiesen wurden, obwohl auch sie sich wahrscheinlich durch die leichte Verfügbarkeit alternativer Wirkungsstätten ermutigt gefühlt hatten. Vielleicht gilt dies sogar für Martin Luther, obwohl dieser sich nicht selbst in Sicherheit brachte, sondern vom sächsischen Kurfürsten Friedrich dem Weisen auf der Wartburg versteckt wurde.

Zu unserer Hypothese passt jedoch nicht, dass zehn Reformatoren vorübergehend und vier für den Rest ihres Lebens eingekerkert wurden und dass vierzehn ihren Protest mit dem Leben bezahlten. Auf dem Scheiterhaufen endeten Reformatoren in Heide (1524), Passau (1527), Wien (1528), Köln (1529), Genf (1553) und Overijssel (1580). In Münster wurden 1535/36 vier Wiedertäufer hingerichtet bzw. auf der Stelle getötet. Ohne die politisch ambitionierten Wiedertäufer, die ja den Gottesstaat auf Erden errichten wollten, vermindert sich die Zahl der Hinrichtungen auf sechs. Die Verhaftungen und Hinrichtungen verdeutlichen, wie wichtig es für die Reformatoren war möglichst leicht fliehen zu können, auch wenn dies nicht immer gelang.

Da die Flucht vor Verhaftung in dreizehn Fällen glückte, aber in 28 Fällen (= 10 + 4 + 14) unterblieb, scheint der Befund eher gegen unsere Hypothese zu sprechen, obwohl einige Reformatoren wahrscheinlich bewusst auf die eigentlich mögliche Flucht verzichteten. Aber vielleicht war das Verhältnis der Fluchthäufigkeit zur Zahl der Gefangennahmen und Hinrichtungen in den europäischen Großstaaten noch niedriger? Das Lexikon der Reformationszeit berichtet auch über die Reformatoren und Reformationsunterstützer in den anderen europäischen Ländern, jedoch – soweit ich erkennen kann – weniger detailliert. Die Fallzahlen sind vermutlich nach unten verzerrt. Aber das gilt sowohl für die Fluchthäufigkeit als auch für die Verhaftungen und Hinrichtungen. Die Verzerrung verschwindet, wenn man die Fluchthäufigkeit ins Verhältnis zur Zahl der Verhaftungen und Hinrichtungen setzt – also skaliert.  Da Hinrichtungen eher berichtet werden als Verhaftungen, beschränke ich mich – auch der Einfachheit halber – auf das Verhältnis der Fluchthäufigkeit zur Zahl der Hinrichtungen. Um die Vergleichbarkeit zu verbessern, lasse ich die Hinrichtungen der politisch gefährlichen Wiedertäufer weg. Die resultierende Verhältniszahl bezeichne ich als “relative Fluchthäufigkeit”. Im deutschen Sprach- und Kulturraum beläuft sie sich auf 2,2 (= 13/6).

Für den zu dieser Zeit bereits hochzentralisierten Großstaat Frankreich vermeldet das Lexikon sechs flüchtige Reformatoren und prominente Reformationsunterstützer. Der bekannteste unter ihnen ist zweifellos Jean Calvin, der 1533 von Paris in die Schweiz floh. Das Lexikon nennt namentlich nur drei getötete Reformatoren oder Reformationsunterstützer, schätzt aber die Zahl der in der Bartholomäusnacht (1572)  in Paris umgebrachten Protestanten auf 3.000 bis 4.000. Die Pariser Bartholomäusnacht ist für unsere Hypothese nicht relevant, denn die Opfer des Massakers waren nicht deshalb nicht geflohen, weil dies besonders schwierig gewesen wäre, sondern weil sie eingeladen waren und nicht mit diesem Vertrauensbruch rechneten. Anders war es in der Provinz. Dort wurden laut Lexikon wenig später 5.000 bis 10.000 Protestanten umgebracht. Nicht alle waren Reformatoren oder prominente Reformunterstützer. Die meisten waren einfache Protestanten. Aber selbst wenn unter den Tausenden von Opfern nur hundert Theologen und prominente Reformationsunterstützer gewesen wären, beliefe sich die relative Fluchthäufigkeit in Frankreich auf 0,06 (=6/103) und wäre damit sehr viel niedriger als im deutschen Sprach- und Kulturraum.

Für England nennt das Lexikon ebenfalls sechs gelungene Fluchtversuche, drei unter Heinrich VIII. (vor dessen Bruch mit Rom) und drei unter Maria I., der Katholischen. Drei Flüchtlinge gingen nach Deutschland. Der bekannteste ist der schottische Reformator John Knox, der vor der Flucht in England lebte. Das Lexikon nennt namentlich sechs protestantische Theologen, die hingerichtet (verbrannt) wurden: drei unter Heinrich VIII., drei unter Maria der Katholischen. Das Lexikon berichtet, dass Maria die Katholische darüber hinaus etwa 300 prominente Unterstützer der Reformation hinrichten ließ. Damit ergibt sich eine relative Fluchthäufigkeit von 0,02 (=6/306).

Aus Schottland floh ein Reformator, zwei wurden hingerichtet. Das läuft auf eine relative Fluchthäufigkeit von 0,5 (=1/2) hinaus.

Im Reich der Habsburger – hier ohne Österreich, das ja zum deutschen Sprach- und Kulturraum gehört – gelang siebenmal die Flucht, vier Reformatoren wurden hingerichtet oder fielen einem kirchlichen Attentat zum Opfer (darunter ein Wiedertäufer). Die Flüchtlinge wandten sich nach Genf, Wittenberg, Nürnberg, Paris und London. Als relative Fluchthäufigkeit ergibt sich das Verhältnis 2,3 (=7/3). Das ist geringfügig höher als im deutschen Sprach- und Kulturraum und könnte daran liegen, dass die nicht-österreichischen Besitzungen der Habsburger damals weit über Europa verstreut waren. Verfolgte konnten sich entsprechend leicht in Sicherheit bringen.

Die Ergebnisse für die kompakten europäischen Großstaaten Frankreich und England und für Schottland stützen jedoch unsere Hypothese: Die relative Fluchthäufigkeit war dort wesentlich geringer als im politisch fragmentierten deutschen Sprach- und Kulturraum.

Die von Deutschland ausgehende Reformation eröffnete einen Wettstreit der Konfessionen und war grundlegend für den Geist der Meinungsfreiheit, der in den folgenden Jahrhunderten das europäische Innovations- und Wirtschaftswunder möglich machte. Vielleicht war die Reformation Deutschlands größter Beitrag zu diesem Wunder.

Erstmals erschienen bei Wirtschaftliche Freiheit.

Photo: Markus Spiske from Unsplash (CC0)

Von Dr. Alexander Fink, Universität Leipzig, Senior Fellow des IREF – Institute for Research in Economic and Fiscal Issues und Fabian Kurz, Doktorand der Volkswirtschaftslehre.

Der Sommer ist nicht nur die Zeit für Badehosen und ausgiebige Grillabende, sondern auch für Politiker der zweiten Reihe. Ein Dauerbrenner des Sommerlochs und des anklingenden Herbstes 2019 sind Verbote. Seien es Plastikbesteck, Ölheizungen oder Inlandsflüge, quer durch alle politischen Lager werden die Rufe nach Verboten laut. Verbote sind in der Regel nicht das beste Mittel, um unerwünschten Externalitäten zu begegnen. Die Forderung nach Verboten kann für Politiker im politischen Wettbewerb dennoch attraktiv sein, wenn die geforderten Verbote den Vorlieben ihrer Wähler entsprechen, sie dadurch besondere Ernsthaftigkeit signalisieren können oder sich mit der extremen Position das Feld des politisch Möglichen erweitern lässt. Während die Forderung nach Verboten von Politikern auf Stimmenfang regelmäßig als Instrument eingesetzt wird, sollte der Staat nur in sehr seltenen Fällen Verbote durchsetzen, um externe Effekte zu verhindern.

„Verbieten“ im Trend

Was auch immer die Menschen bewegt, Google weiß es recht schnell. Bei ersten Grippesymptomen fragen wir gerne die große Suchmaschine um Rat. Ein Anstieg der Suchanfragen kann daher ein erstes Anzeichen für eine Grippewelle sein. Geht es nach den Googlesuchanfragen zum Thema „verbieten“ scheint es so, als würde die Menschen das Thema in den letzten Jahren vermehrt beschäftigen.

Seit 2004 stiegen die Suchanfragen mit „verbieten“. Dabei beschränken sich die Ausschläge nicht nur auf das politische Sommerloch in den Sommermonaten. Eine Auswertung der Bundestagsprotokolle zeigt zudem, dass „verbieten“ auch in den politischen Schlagabtauschen in Mode ist. Im Vergleich zu den ersten 20 Jahren der Bundesrepublik hat sich die Häufigkeit des Worts „verbieten“ in den aktuellen Debatten im Parlament mehr als verdoppelt.

Keine Alternativen mehr zu Verboten?

Verbote sind derzeit vor allem in Umweltfragen hoch im Kurs: SUVs, Inlandsflüge, Verbrennungsmotoren und vieles mehr. Man könnte den Eindruck gewinnen, Verbote seien attraktive Instrumente für den Klima- und Umweltschutz. Doch Verbote sollten das letzte Mittel in einem Instrumentenkasten sein, um mit externen Effekten wie Umweltproblemen fertig zu werden. Als externe Effekte werden Kosten bezeichnet, die nicht von ihrem Verursacher getragen werden, sondern Dritte treffen. Beispielsweise sind externe Kosten die Klimafolgekosten für anderen Menschen, die etwa bei der Benutzung des eigenen Autos entstehen.

Je stärker externe Effekte reduziert werden, desto höher sind die Kosten für die Vermeidung. Während die ersten Prozente relativ günstig eingespart werden können, sind die letzten verbleibenden externen Effekte nur zu hohen Kosten zu vermeiden. Daher ist es meist wünschenswert, die Externalität nicht komplett zu eliminieren, denn mit einem Verbot der zugrundeliegenden Aktivität geht auch der Nutzen vollständig verloren, den sie stiftet.

Für die gewünschte Reduktion externer Effekte ist es in der Regel nur notwendig, dass der Verursacher die vollen Kosten seiner Handlungen trägt. Um das Klima zu schützen, wäre daher folgerichtig den Verursachern die bisher nicht in Betracht gezogenen Kosten aufzubürden, etwa mit Hilfe einer CO2-Steuer oder eines Zertifikatehandels. Privatpersonen stünden ebenso wie Unternehmen vor der Frage, ob sie Emissionen verursachen und damit die Steuer zahlen, ein Zertifikat kaufen oder ob es nicht günstiger wäre, die Emissionen zu vermeiden. Unerwünschte Einkommensverteilungseffekte solcher Maßnahmen können vermieden werden, wenn die Einnahmen daraus nicht dem allgemeinen Budget des Staates zugeführt, sondern sie postwendend gleichmäßig an alle Einwohner ausgezahlt werden. Voraussetzung dafür ist allerdings der politische Wille, die Einnahmen nicht für eine zusätzliche Ausweitung des Einflusses des Staates auf den Ressourceneinsatz in der Volkswirtschaft zu nutzen.

Es gibt immer einen guten Grund für ein Verbot

Wenn Verbote kein attraktives Mittel sind, um Umweltprobleme zu lösen, warum werden sie dann so häufig gefordert? Für Politiker können Verbotsforderungen aus verschiedenen Gründen hilfreich sein.

Erstens können Politiker mit Verboten auf die Präferenzen ihrer Wähler eingehen. Wenn ihre potentiellen Wähler schlicht eine Abneigung gegen gewisse Aktivitäten ihrer Mitmenschen und nicht gegen die mit den Aktivitäten einhergehenden externen Effekte hegen, kann sich die Forderung nach einem Verbot politisch lohnen, obwohl es wirtschaftspolitisch nicht angemessen ist.

Die Unterscheidung zwischen echten externen Effekten und schlichter Abneigung ist schwierig, wie schon der Ökonom Kenneth Arrow anmerkte. Für einen „echten“ externen Effekt ist irrelevant, was die Quelle der Belastung ist. Der CO2-Ausstoß von Fahrzeugen ist genauso schädlich, wie die Emissionen der heimischen Gasheizung. Soll allerdings nur eine bestimmte Quelle externer Effekte verboten werden, ist dies ein Zeichen dafür, dass externe Effekte als Argument für ein Verbot nur vorgeschoben werden, tatsächlich aber Präferenzen der Zielwählerschaft bedient werden.

Zweitens können Politiker bei echten externen Effekten durch die Forderung nach der extremsten Lösung ihre Ernsthaftigkeit signalisieren – „klare Kante“ zeigen. Dies mag aus Sicht des Politikers erfolgversprechend sein, selbst wenn dem Politiker bewusst ist, dass es eine bessere Alternative zu einem Verbot gibt. Entscheidend ist, dass die potentiellen Wähler die extreme Position an der Wahlurne honorieren. Wird das geforderte Verbot anschließend nicht umgesetzt, kann der Politiker darauf verweisen, alles versucht zu haben.

Drittens können Verbote auch Teil einer strategischen Überlegung sein, die der eines Autoverkäufers ähnelt, der die Preisverhandlung mit einem übertrieben hohen Preis beginnt. Wollen Politiker eine Politikmaßnahme durchsetzen, kann es sich für sie lohnen, mit einer Maximalforderung zu beginnen, um das Feld der möglichen politischen Lösungen etwas zu erweitern. Will ein Politiker etwa eine höhere Besteuerung des inländischen Flugverkehrs erreichen, könnte er ein Verbot fordern, um als Kompromiss eine höhere Steuer zu erreichen.

Mehr Toleranz, weniger Verbote

Verbote sind anscheinend leider in Mode. Entsprechend haben Politiker aus verschiedenen Gründen Anreize, Verbote zu fordern. Als Wähler sollten wir mit der Zustimmung zu Verboten und der Belohnung der Forderung nach Verboten an der Wahlurne jedoch zurückhaltend sein – auch wenn wir das zu Verbietende nicht wertschätzen. Wo externe Effekte keine Rolle spielen, sollten wir uns in Toleranz üben und anerkennen, dass die Vorlieben unserer Mitmenschen sich zuweilen deutlich von unseren eigenen unterscheiden. Wo externe Effekte zum Tragen kommen, sollte ein Verbot Ultima Ratio sein und Formen der Internalisierung der externen Effekte durch Bepreisung in der Regel den Vorzug erhalten.

Erstmals erschienen bei IREF

Photo: Anthony Intraversato from Unsplash (CC 0)

Von Dr. Alexander Fink, Universität Leipzig, Senior Fellow des IREF – Institute for Research in Economic and Fiscal Issues, und Kalle Kappner, Promotionsstudent an der Humboldt-Universität zu Berlin, Research Fellow bei IREF, Fackelträger von Prometheus.

Deutschlands Arbeitsmarkt brummt. Die Arbeitslosenquote liegt nahe 5 Prozent. Zwar könnte sich die Konjunktur in naher Zukunft etwas abkühlen, doch über die nächsten Jahre spricht wenig für eine deutliche Trendumkehr. Langfristig sehen jedoch viele schwarz. Angesichts fortschreitender Automatisierung erwarten einige Beobachter eine Ära der Massenarbeitslosigkeit, in der nur noch hochqualifizierte Fachkräfte ein geregeltes Arbeitsverhältnis haben werden. Bei anderen wecken der Renteneintritt der Babyboomer-Generation und der Rückgang des Erwerbspersonenpotenzials Ängste vor Fachkräftemangel, abnehmenden Wachstumsraten und enormen Belastungen für den Sozialstaat.

Bisherige empirische Befunde und theoretische Argumente legen allerdings nahe, dass es weder zu Massenarbeitslosigkeit noch zu einem dramatischen Fachkräftemangel kommen wird und die beiden Probleme sich gewiss nicht gemeinsam manifestieren werden. Vielmehr wird der automatisierungsbedingte Rückgang der Arbeitsnachfrage überschaubar ausfallen und durch die zeitgleiche Abnahme des Erwerbspersonenpotenzials zusätzlich aufgefangen. Zentrale Herausforderung auf dem Arbeitsmarkt wird in den nächsten Jahrzehnten vermutlich eine zunehmende Einkommensspreizung sein.

Automatisierung heutiger Berufe

Ausgangspunkt zahlreicher alarmierender Langfristprognosen zur Arbeitsmarktentwicklung ist eine Studie von Frey und Osborne (2013). Anhand detaillierter Berufsbeschreibungen schätzen die Autoren für zahlreiche Berufsbilder, wie wahrscheinlich es ist, dass eine Maschine einen bestimmten Beruf übernehmen kann. Für die USA kommen sie zum Ergebnis, dass 47 Prozent der derzeit Beschäftigten Berufe ausüben, die in den nächsten 20 Jahren durch Maschinen übernommen werden können. Bonin et al. (2015) übertragen die Methode auf Deutschland und finden, dass 42 Prozent der Beschäftigten in automatisierbaren Berufen arbeiten.

Diese Befunde sollten hinsichtlich ihrer Prognosekraft jedoch vorsichtig interpretiert werden. Zum einen sinkt das gemessene Automatisierungspotenzial dramatisch, wenn es auf Ebene einzelner Aufgaben („Tasks“) statt umfassender Berufsbilder geschätzt wird – für Deutschland auf 12 Prozent der Beschäftigten.

Darüber hinaus impliziert die technische Möglichkeit einer Automatisierung nicht, dass sich diese aus Sicht eines Unternehmens lohnt und tatsächlich vollzogen wird. Löhne und Tätigkeitsprofile in betroffenen Branchen können angepasst werden, sodass der Einsatz menschlicher Arbeitskraft weiter attraktiv bleibt. Für Deutschland zeigen entsprechend Dengler und Matthes (2018), dass zumindest kurzfristig kein Zusammenhang zwischen dem gemessenen Automatisierungspotenzial und der Arbeitskraftnachfrage eines Berufsbildes besteht.

Folgen der Automatisierung: Keine Arbeitslosigkeit, aber Lohnspreizung

Für Deutschland finden Dauth et al. (2017), dass seit 1994 durch jeden Industrieroboter im Schnitt zwei Industriearbeitsplätze vernichtet wurden, jedoch ebenso viele neue Jobs im Dienstleistungssektor entstanden sind. Im Aggregat führte Automatisierung daher bisher nicht zu mehr Arbeitslosigkeit, jedoch zu beruflicher Neuorientierung und sinkenden Reallöhnen in den von Automatisierung betroffenen Branchen. Zu ähnlichen Ergebnissen kommen auch Graetz und Michaels (2018).

Eine Simulationsstudie von Arntz et al. (2018) prognostiziert auf Basis der bisherigen Entwicklung des deutschen Arbeitsmarkts, dass eine zunehmende Automatisierung in den nächsten zehn Jahren nicht zu Arbeitslosigkeit, sondern zu schwachen positiven Beschäftigungseffekten führen wird. Eine längerfristige Schätzung nehmen Zika et al. (2018) und Wolter et al. (2016) vor, die jeweils einen schwachen positiven Beschäftigungseffekt bis 2035 bzw. einen schwachen negativen Effekt bis 2030 finden.

Massenarbeitslosigkeit aufgrund künstlicher Intelligenz?

Prognosen auf Basis der Analyse bisheriger Automatisierungswirkung bieten wenig Anlass zur Sorge vor technologisch bedingter Arbeitslosigkeit, deuten aber auf wachsende Lohnspreizung hin. Die Prognosekraft dieser Studien hängt von der Annahme ab, dass zukünftige Automatisierungstrends den Mustern bisheriger Automatisierung folgen werden. Angesichts der Entwicklungen im Bereich künstlicher Intelligenz ziehen einige Kommentatoren diese Annahme in Zweifel.

So legt eine auf der Delphi-Methode, d.h. strukturierten Expertenbefragungen basierende Studie des Millennium Project offen, dass die Befragten im Schnitt erwarten, dass 2050 rund ein Viertel der Weltbevölkerung arbeitslos sein wird. Den Grund sehen die Befragten in den immer umfassenderen Anwendungsbereichen künstlicher Intelligenz, deren Automatisierungswirkung viele Menschen anders als im Fall klassischer Industrieroboter nicht mehr durch berufliche Umorientierung und Weiterbildung begegnen könnten.

Alterung wirkt technologischer Arbeitslosigkeit entgegen

In anderen Fällen wird gewissermaßen das Gegenteil der durch Automatisierung herbeigeführten Massenarbeitslosigkeit befürchtet: Ein durch den Rückgang des Erwerbspersonenpotentials herbeigeführter Mangel an Fachkräften. Trotz verstärkter Zuwanderung wird gemäß gängiger Prognosen die Zahl erwerbsfähiger Menschen in Deutschland durch die demografische Alterung der Gesellschaft von heute rund 45 Millionen bis 2060 auf ca. 39 Millionen sinken.

Isoliert betrachtet heizt dieser Befund regelmäßig Debatten um den sogenannten Fachkräftemangel an. So erwartet die Zukunftsforscher von Prognos für 2040 eine Fachkräftelücke von fast vier Millionen Arbeitskräften. Eine Studie des Instituts für die Geschichte und Zukunft der Arbeit erwartet ebenfalls ein sinkendes Verhältnis von Erwerbspersonen zum Arbeitskräftebedarf.

Andere Kommentatoren weisen allerdings darauf hin, dass der zu erwartende Rückgang des Erwerbspersonenpotenzials mögliche negative Beschäftigungseffekte der zeitgleich stattfindenden Automatisierung abmildern kann. So betont Südekum (2018), dass die häufig isoliert diskutierten Sorgen vor technologisch bedingter Arbeitslosigkeit einerseits und Rückgang des Erwerbspersonenpotenzials andererseits übertrieben sind, da sich beide Trends hinsichtlich ihrer Arbeitsmarktwirkung ausgleichen.

Flexible Arbeitsmärkte und individuellen Vermögensaufbau erleichtern

Bisherige empirische Studien und theoretische Überlegungen legen nahe, dass allzu pessimistische Prognosen zukünftiger Massenarbeitslosigkeit oder Unterversorgung mit Fachkräften überzogen sind. Gewiss werden sich nicht beide Probleme zugleich einstellen. Eine Herausforderung wird jedoch darin liegen, die Um- und Weiterbildung von Arbeitnehmern in verstärkt der Automatisierung unterliegenden Branchen zu erleichtern. Die Politik sollte die zügige berufliche Umorientierung fördern, statt sie durch die Subventionierung ausgewählter etablierter Branchen zu behindern.

Eine weitere Herausforderung liegt im Umgang mit der zu erwartenden zunehmenden Lohnspreizung. Zukünftig wird vermutlich ein größerer Anteil des volkswirtschaftlichen Gesamteinkommens an Kapitaleigner und Hochqualifizierte fließen. Damit breite Bevölkerungsschichten auch zukünftig vom technologischen Fortschritt profitieren, sollte die Politik den Aufbau individuellen Vermögens insbesondere in Form von Unternehmensbeteiligungen erleichtern, etwa im Rahmen der privaten und betrieblichen Altersvorsorge.

Erstmals erschienen bei IREF.

Photo: Everton Vila from Unsplash (CC 0)

Von Prof. Dr. Hardy Bouillon, Außerplanmäßiger Professor im Fach Philosophie an der Universität Trier.

Befürworter staatlicher Umverteilung begrüßen die Philanthropie, weil diese Wohlfahrtsaufgaben erfüllt, die dem Staat erspart bleiben. Aber sie glauben nicht, dass die Philanthropie den Sozialstaat ersetzen könnte oder gar sollte. Ihre Haltung ruht vor allem auf zwei Einwänden: dem Unterversorgungseinwand und dem Diskriminierungseinwand. Der erste wiegt wohl am schwersten. Er behauptet, dass die freiwillige Umverteilung zu wohltätigen Zwecken weit hinter der verordneten Umverteilung zurückbliebe. Eine gewisse Anfangsplausibilität kann man dieser These nicht absprechen. Sie beruht auf dem sogenannten Gefangenendilemma, das die Entscheidungsnot zweier tatverdächtiger Komplizen schildert. Beide werden getrennt zur Tat verhört. Gesteht keiner, dann werden beide milde bestraft. Gestehen beide, fällt ihre Strafe hoch aus. Gesteht nur einer, geht der Geständige straffrei aus, während der Standhafte die Höchststrafe erhält. Die dominante Strategie für beide ist, getrennt „dicht zu halten“. Aber keiner der beiden wählt diese Strategie, weil jeder fürchtet, der andere könnte „singen“ und er wäre dann „der Dumme“. Auf den ersten Blick sieht es so aus, als ob das Gefangenendilemma auch für die Philanthropie gelten würde. D.h., die beste Lösung (hier: ausreichend großes Spendenvolumen) bleibt aus, weil jeder befürchtet, der „Dumme“ zu sein; also jener, der spendet, während die anderen nicht spenden.

Doch der erste Blick täuscht. Als Roosevelt 1933 den Universitäten die Mittel kürzte, fürchteten viele Umverteilungsbefürworter, dass auch Alumni und Sponsoren ihre Spenden reduzieren würden. Doch das Gegenteil trat ein! Zahl und Großzügigkeit der Spender nahmen zu, die Unterversorgung blieb aus. All dies lässt vermuten, dass der Unterversorgungseinwand das Gefangenendilemma zu Unrecht bemüht.

Hinzu kommt, dass Steuergesellschaften die Möglichkeit bieten, Gefangenendilemmata zu entschärfen. Sind philanthropische Spenden steuerlich absetzbar, dann sinkt der Spendenpreis und schrumpft der Nachteil des Spenders gegenüber dem Nichtspender. Je höher die Abzugsmöglichkeiten, desto geringer der Nachteil. (Bei 100 Prozent wäre der Nachteil vollends aufgehoben.) Daher ist in Gesellschaften mit traditionell guten Abzugsmöglichkeiten die Philanthropie stärker ausgeprägt als andernorts. Wie Karl-Heinz Paqué schon in den 80ern für die USA zeigte, gilt dies auch, wenn neben steuerlichen Vorteilen kulturelle Besonderheiten ursächlich sind.

Auch das reale Spenderverhalten entschärft den Unterversorgungseinwand, wie ein Blick auf Sozialleistungsquote und Spenderquote zeigt. Die Sozialleistungsquote deutscher Steuerzahler –Anteil der individuellen Steuer, der in den Sozialhaushalt fließt – liegt derzeit bei ca. 30 %. Die Spenderquote – Anteil der Spender unter allen Bürgern – beträgt momentan 40 %. D. h., dass 40 % der Bürger trotz einer 30 %igen Sozialleistungsquote sich nicht davon abhalten lassen, zusätzlich für wohltätige Ziele zu spenden. (Sie spenden quasi „on top“.) Wem man unterstellen kann, dass er mit der Verwendung von 30 % seiner Steuern für philanthropische Ziele einverstanden ist, wird man wohl auch unterstellen müssen, dass er seine individuelle Sozialleistungsquote für zu gering hält. Andernfalls würde er wohl kaum zusätzlich spenden. Und wie steht es mit den „On top“-Spendern, denen man keine Zustimmung zur individuellen Sozialleistungsquote zuschreiben kann? Vielleicht wird man ihnen unterstellen, Einwände zur staatlichen Auswahl oder zum Umfang der wohltätigen Zwecke zu haben; vielleicht auch, dass sie ihre Sozialleistungsquote, sofern sie diese einbehalten dürften, (zumindest teilweise) zu anderen als zu philanthropischen Zwecken verwenden würden; aber wohl kaum, dass sie im Falle der freien Verfügung über die eigene Sozialleistungsquote ihr philanthropisches Spendenverhalten gänzlich einstellen oder reduzieren würden.

Wer hat, der gibt, und wer mehr hat, der gibt mehr! Diese einfache Regel gilt auch unter Philanthropen, wie Befragungen ergeben. Folgt man dem Deutschen Spendenmonitor, dann lag 2017 die Spenderquote (von 4. 000 Befragten) im Westen der Republik höher als im Osten (44 % vs. 28 %), spendeten Rentner über 65 Jahren häufiger als junge Erwachsene zwischen 30 und 50 Jahren (54 % vs. 36 %), stieg die Spendenhöhe von 1995 bis 2007 von 78 € auf 143 € und das Spendenvolumen von 2,08 % auf 3,71 %. Befragungen lassen Erbschaften, Unternehmens-, Groß- und Parteispenden sowie Stiftungsgründungen und gerichtlich verordnete Geldzuwendungen meist außen vor. Kalkuliert man dergleichen ein, dann kommt man auf ein jährliches Spendenvolumen von 8 – 8,5 Milliarden €. Die Summe liegt nahe an dem, was sich aus den Steuerstatistiken ermitteln lässt. Für 2013 wurde für Spenden in Höhe von 6,8 Mrd. € die steuerliche Abzugsmöglichkeit geltend gemacht. (Vorträge in Höhe von 2,3 Mrd. € wären davon zu subtrahieren, steuerlich unberücksichtigte Barspenden zu addieren.)

Verglichen mit der Ermittlung des monetären Spendenvolumens ist die monetäre Erfassung von Zeitspenden weitaus schwieriger. Aber sie zeigt, dass philanthropisches Handeln ein viel größeres Ausmaß annimmt als philanthropisches Spenden. Folgt man dem Freiwilligensurvey, dann kamen 2014 9 % aller Zeitspenden für gemeinwohlorientierte Zwecke dem Bereich Kultur zugute. Die Enquete-Kommission „Kultur in Deutschland” kam in ihrem Abschlussbericht zur Einschätzung, dass der monetarisierte Wert der Zeitspenden für kulturelle Zwecke im Jahr 2006 zwischen 9,3 und 16,7 Milliarden € betrug. Folgt man dieser Umrechnungsart, dann dürfte der monetarisierte Wert aller Zeitspenden für philanthropische Zwecke jährlich zwischen 100 und 185 Milliarden € betragen. Großzügigere Möglichkeiten, Zeitspenden steuerlich geltend zu machen, würden wohl eine Zunahme an Zeitspenden auslösen. Derzeit sind derlei Möglichkeiten kaum vorhanden und beschränken sich vornehmlich auf die Ehrenamtspauschale (720 € p. a.) und die Übungsleiterpauschale (2. 400 € p. a.).

Was derzeit jedoch für den Unterversorgungseinwand spricht, ist ein organisationsrechtlicher Umstand. Ein Großteil der Philanthropie findet im sogenannten Dritten Sektor statt, und zwar in Form von NPO (Non-Profit-Organisationen). NPO ist in Deutschland der Zugang zum Kapitalmarkt verwehrt und (wegen fehlender Sicherheiten) der Zugang zum Kreditmarkt erschwert. Damit sind ihnen und dem Dritten Sektor – der hierzulande mit 4,1% zur Bruttowertschöpfung beiträgt – wichtige Wachstumsoptionen genommen.

Auch der Diskriminierungseinwand hat eine gewisse Anfangsplausibilität. Der Grund ist offenkundig: Reduzierte man die staatliche Umverteilung zu wohltätigen Zwecken im Vertrauen auf potente Philanthropen, dann überließe man diesen die Entscheidung, Ziele, Mittel und Empfänger ihrer Wohltätigkeit selbst auszusuchen. Infolgedessen können die Entscheider diskriminieren, und zwar nach Kriterien, die sie selbst wählen. Der Diskriminierungseinwand übersieht jedoch mindestens zweierlei: Erstens, sowohl private als auch staatliche Umverteilungen nehmen Diskriminierungen vor. Es ist nicht offensichtlich, warum staatliche Diskriminierungen im Wohltätigkeitssektor privaten Diskriminierungen überlegen sein sollten. Zweitens, private Diskriminierungen finden bereits jetzt schon im Philanthropiesektor statt und bilden schlicht das ab, was der Madrider Ökonom Philipp Bagus den „Markt des Gebens“ nennt. Für diesen Markt ist – wie für andere Märkte auch – die Annahme naheliegend, dass er aus Effizienzgründen der staatlichen Umverteilung überlegen ist.

Eine gekürzte Version dieses Textes erschien am 5. August 2019 in der Frankfurter Allgemeinen Zeitung.

Photo: Dietmar Rasch from Wikimedia Commons (CC BY-SA 4.0)

Von Dr. Alexander Fink, Universität Leipzig, Senior Fellow des IREF – Institute for Research in Economic and Fiscal IssuesFabian Kurz, Doktorand der Volkswirtschaftslehre und Alexander Mengden.

Die DDR-Führung sah sich gern in der Rolle des Vorreiters in Sachen Umweltschutz. Die DDR schrieb bereits im Jahr 1968 den Umweltschutz als Staatsziel in der Verfassung fest und gründete 1972 – bereits 15 Jahre vor der Bundesrepublik – ein eigenes Umweltministerium. Die Realität der Umweltsituation in der DDR war von diesem Anspruch allerdings weit entfernt. Umweltschäden wie hohe Verschmutzungen von Luft und Wasser waren alltäglich und wirkten sich negativ auf die Gesundheit der Bevölkerung aus.

Die hohe Umweltbelastung war dabei nicht etwa der Preis für einen höheren materiellen Wohlstand, sondern ein Resultat von verschwenderischer Produktion, Wasser- und Energieversorgung. Obwohl die Wirtschaftsleistung der DDR pro Person im Jahr 1989 nur etwa 60 Prozent der Wirtschaftsleistung der BRD betrug, war das Ausmaß der Umweltverschmutzung deutlich ausgeprägter. Seit der Wiedervereinigung hat sich die Umweltsituation in Ostdeutschland stark verbessert.

Verschmutzung der Gewässer und des Trinkwassers

Das Gebiet der ehemaligen DDR ist nicht sehr regenreich. Ein sparsamer Umgang mit Wasser wäre daher für eine gute Trinkwasserversorgung notwendig gewesen. Das Gegenteil war allerdings der Fall. Nur zwei Drittel des Trinkwassers kam bei den Verbrauchern an. Der Rest versickerte im maroden Leitungssystem. Berichte des Ministeriums für Staatssicherheit beschreiben die Rohrbruchhäufigkeit in der DDR als eine der „höchsten der Welt“.

Auch die Wideraufbereitung von Wasser wurde vernachlässigt. Die Kläranlagen der DDR waren veraltet und setzten zum Teil nur eine „mechanische“ Reinigung der Abwässer mit Rechen und Absetzbecken ein. Auch das Abwassersystem war hoffnungslos überaltert. Im Jahr 1989 stammten 32 Prozent der Abwasserkanäle aus der Zeit vor dem Zweiten Weltkrieg. Weitere 22 Prozent stammten aus der Kaiserzeit. Statistisch kam es pro Jahr auf jedem Kilometer DDR-Abwasserkanal zu einer Havarie.

Schließlich wurde die Ressource Wasser vor allem von Industriebetrieben stark beansprucht und teilweise unaufbereitet wieder Flüssen zugeleitet. Auch Haushaltsabwässer wurden nicht oder nur unzureichend in Klärwerken behandelt. Diese Verhältnisse trugen dazu bei, dass jeder zweite größere Fluss der DDR biologisch tot war. Teilweise waren die Flüsse derart durch Chemikalien der Industrie vergiftet, dass sogar Bootsfahrten auf ihnen untersagt wurden.

Infolge von Übernutzung und mangelhafter Aufbereitung konsumierten viele Bürger der DDR hoch belastetes Trinkwasser. Im Jahr 1989 wurden 9,6 der gut 16 Millionen DDR-Bürger mit Trinkwasser versorgt, das nicht dem Weststandard genügt hätte. Etwa ein Drittel der Bevölkerung erhielt „zeitweilig bakteriologisch nicht einwandfreies Trinkwasser.“ Für die Bevölkerung hatte dies unter anderem eine höhere Verbreitung von Durchfallerkrankungen zur Folge.

Verschwendung von Energie

Nicht nur mit der Ressource Wasser wurde in der DDR wenig schonend umgegangen. Die DDR verfügte über nennenswerte Braunkohlevorkommen, die sie ausgiebig erschloss. Die DDR deckte in ihrer späten Phase über 80 Prozent des Energiebedarfs mit Braunkohle. Der Wirkungsgrad der Braunkohleverstromung war allerdings sehr gering. Nur etwa 20 Prozent des Energiegehalts konnte in Strom umgewandelt werden. Die restlichen 80 Prozent der verfeuerten Kohle entwichen ungenutzt in die Atmosphäre. Der Wirkungsgrad vergleichbarer Braunkohlekraftwerke in der BRD war mit 35 bis 38 Prozent fast doppelt so hoch. Für die Erzeugung einer Einheit Sozialprodukt setzte die DDR bis zu 50 Prozent mehr Primärenergie ein als westliche Industriestaaten.

CO2 in der DDR: Pro-Kopf-Emissionsriese

Der hohe und ineffiziente Energieeinsatz in der DDR-Planwirtschaft führte dazu, dass in den 70er und 80er Jahren der CO2-Ausstoß der DDR pro Kopf einer der höchsten der Welt war.

Das US-Energieministerium stellt sowohl für die BRD als auch die DDR Schätzungen zu CO2-Emissionen durch die Nutzung fossiler Energie wie Kohle, Öl und Gas sowie der Produktion von Zement von 1950 bis 1990 zur Verfügung. Dabei wurden sowohl für die BRD als auch für die DDR mit der gleichen Methode die CO2-Emissionen geschätzt. Während im Jahr 1950 die Emissionen pro Kopf noch recht nah beieinander lagen, stiegen die Emissionen im Laufe der Zeit in der DDR stärker als in Westdeutschland. So wurden pro Kopf in Westdeutschland im Jahr 1990 knapp 11,5 Tonnen CO2 und in Ostdeutschland über 19 Tonnen pro Jahr emittiert.

Werden die Emissionen ins Verhältnis zum Bruttoinlandsprodukt gesetzt, fällt die Bilanz für die DDR noch ernüchternder aus. Im Jahr 1989 wurde für jede Einheit BIP in der DDR mehr als dreimal so viel CO2 emittiert wie für die Herstellung von Waren und Dienstleistungen in der BRD.

Luftverschmutzung

Die Nutzung der Braunkohle zur Stromerzeugung setzte nicht nur CO2 frei, sondern auch andere Gase, welche die Umwelt verschmutzten und die Gesundheit der DDR-Bürger gefährdeten. Den technisch veralteten Braunkohlekraftwerken fehlten moderne Anlagen zur Rauchgasentschwefelung, weil die DDR-Industrie diese nicht selbst herstellen konnte und die SED fürchtete, mit Technologieimporten in westliche Abhängigkeit zu geraten. Im Jahr 1989 stieß die DDR infolge 15-mal so viel Schwefeloxide pro Einwohner aus wie die Bundesrepublik.

In privaten Haushalten wurde zur Wende noch fast zwei Drittel aller Wohnungen mit festen Brennstoffen wie Braunkohlenbriketts beheizt. Auch diese erhöhten die Belastung mit Schwefeloxiden.

Außerdem emittierten die Kohleöfen in den Wohngebäuden und die Kohlekraftwerke erhebliche Schwebstaubmengen, darunter auch den heute viel diskutierten Feinstaub. Pro Quadratkilometer lag die durchschnittliche Belastung von 20,3 Tonnen Schwebstaub bei mehr als dem zehnfachen Wert Westdeutschlands. Die hohe Schwebestaubbelastung wurde zu 55 Prozent durch die Energieerzeugung verursacht.

Die direkten Gesundheitsgefahren der Luftverschmutzung, die zu Reizung der Schleimhäute und Atembeschwerden führen können, waren besonders in den großen Industriezentren von Halle, Dresden, Leipzig und Karl-Marx-Stadt zu spüren. Die am Boden niedergegangenen Stäube trugen Umweltgifte wie Blei und Cadmium mit sich. So gelangten Schwermetalle in die Nahrungskette der DDR.

Die Belastung mit Stickoxiden war in der DDR pro Quadratkilometer leicht unter der Belastung in Westdeutschland. Durchschnittlich wurde jeder Quadratkilometer der DDR im Jahr 1988 mit 3,8 Tonnen Stickoxiden belastet, im Vergleich zu 4,1 Tonnen in Westdeutschland. Das liegt vermutlich daran, dass Stickoxide vor allem durch den Straßenverkehr verursacht werden, der angesichts des Mangels an Fahrzeugen in der DDR deutlich geringer ausfiel.

Die DDR-Führung sah durchaus Handlungsbedarf. Der günstigste und letztlich eingeschlagene Weg, um die lokale Luftqualität zu verbessern, war es, die Schornsteine der Industrie und der Kohlekraftwerke höher zu bauen. So konnten dank kräftigen Westwindes gut 15 Prozent der Schwefeldioxidemissionen in Nachbarländer „exportiert“ werden.

Vertuschung durch die DDR-Führung

In der Öffentlichkeit vermittelte die SED-Führung zweifellos ein positiveres Bild der Umweltsituation. Über die hohen Umweltbelastungen in der DDR durften die Medien nicht berichten. Sogar bei gesundheitsgefährdenden Schadstoffkonzentrationen in der Luft untersagte die SED-Führung die Auslösung von Smog-Alarm.

Es passt ins Bild, dass gesundheitliche Gefahren durch die erhöhte Strahlenbelastung nach dem Reaktorunfall in Tschernobyl von der SED-Führung ebenfalls negiert und entsprechende Vorsichtsmaßnahmen als „politische Unsicherheiten“ behandelt wurden.

Umwelt nach der Wende: „Blühende Landschaften“

Die DDR hat gezeigt, dass Raubbau an Naturressourcen und Umweltzerstörung, anders als von der SED propagiert, kein spezifisches Phänomen der vermeintlich rücksichtslosen Profitmaximierung im kapitalistischen System ist. Offensichtlich gab und gibt es auch in marktwirtschaftlich geprägten Ländern wie der BRD Umweltprobleme. Der demokratische und marktwirtschaftliche Teil Deutschlands scheint allerdings deutlich erfolgreicher seine Umwelt geschützt zu haben als der sozialistische Staat.

So ist es nicht erstaunlich, vielmehr sehr erfreulich, dass die friedliche Revolution 1989 nicht nur Freiheit und Demokratie gebracht hat, sondern auch einen verantwortlicheren Umgang mit der Natur. Wirtschaftlich liegt der Osten Deutschlands weiterhin hinter dem Westen zurück, doch die Landschaften blühen im Osten heute in weiten Teilen wieder nicht weniger schön.

Erstmals veröffentlicht bei IREF.