Photo: John Lindie on Wikimedia Commons (CC0)

Von Matthias Still. Unternehmer und PR-Berater, Fackelträger bei Prometheus.

„Prognosen sind schwierig, vor allem, wenn sie die Zukunft betreffen“, sagte einst Mark Twain, spitzfindig wie der alte Haudegen nun einmal war. Aber recht hat er. Es ist alles andere als einfach, vorherzusehen, wie die Zukunft wird. Denn das würde bedeuten, heute schon zu wissen, was 7,63 Milliarden Menschen morgen machen. Und das ist eine echte Mammutaufgabe, denn die allermeisten dieser Menschen machen eben das, was sie wollen. Und nicht das, was wir von ihnen erwarten. Und das macht alles so kompliziert.

Allerdings hat diese Tatsache im Laufe der Geschichte Menschen noch nie davon abgehalten, mutige Prognosen zur Zukunft zu treffen: Das gilt für das eigene Leben („Oh nein, ich werde das nie schaffen!“) genauso wie für die große weite Welt („Das globale Wirtschaftswachstum wird um 0,2 Prozentpunkte einbrechen“). Warum ist das so? Weil der Blick in die Glaskugel Menschen seit jeher fasziniert. Gewissheit zu erlangen über all das, was eigentlich ungewiss ist, bedient unser Bedürfnis nach Sicherheit. Und verleiht Macht – zumindest denjenigen, die glaubhaft darlegen können, zu sagen, was morgen sein wird. Zu früheren Zeiten waren das oft Freiberufler aus Branchen wie der Hellseherei und der Wahrsagerei. Heute bemühen sich Wissenschaftler durch allerlei Rechenmodelle, den zukünftigen Ereignissen etwas zuverlässiger auf die Spur zu kommen. Und, zugegeben, gewisse Annäherungen an das was kommt, lassen sich dabei durchaus erzielen.

Aber man kann auch ganz schön danebenliegen. Ein berühmtes Beispiel dafür sind die Annahmen zur exponentiellen Zunahme von Pferdemist auf den Straßen von New York. Die Ausscheidungen der Vierbeiner machten den Stadtplanern der größten amerikanischen Metropole im Jahr 1850 ordentlich Sorgen. Damals wurde es immer populärer, mit der Kutsche zu reisen. Gleichzeitig stieg die Einwohnerzahl der Stadt rasant an: Von gemütlichen 60.000 im Jahr 1800 hatten sich die New Yorker vierzig Jahre später auf über 300.000 verfünffacht (die Wachstumsrate heutiger afrikanischer Großstädte ist dagegen eine Pfadfinderparty).

So war es also nicht von der Hand zu weisen, dass – rein mathematisch betrachtet – bei anhaltendem Bevölkerungswachstum und weiter wachsender Beliebtheit der Kutschfahrten New York exakt im Jahr 1910 in meterhohem Pferdemist ersticken würde, so die Vorhersagen. Doch dann kam es ganz anders: Zwar wuchs New York weiterhin im atemberaubenden Tempo und hatte an der Schwelle zum 20. Jahrhundert schon über drei Millionen Einwohner – doch die interessierten sich ganz und gar nicht für Kutschfahrten, sondern für das Automobil. Henry Ford ließ 1908 das erste Auto vom Fließband rollen und legte damit den Grundstein für den PKW als Massenprodukt. Die Pferdestärken auf vier Rädern ersetzten die bisherigen Pferdestäken auf vier Beinen. 1850 allerdings konnte das noch keiner ahnen.

Heute, mehr als 100 Jahre später, blicken wir auf das „Klimapaket“ der Großen Koalition. Auch da geht es um Fortbewegung, allerdings um die mit dem Auto (zumindest derzeit liege noch keine Pläne vor, aus Gründen der CO2-Emissionen wieder auf das Pferd umzurüsten). CDU, CSU und SPD wollen die Welt vor der Erwärmung retten und setzen in Sachen Mobilität ganz und gar auf den Elektroantrieb. Das Elektroauto pustet kaum CO2 in die Atmosphäre und soll deshalb bis zum Jahr 2030 möglichst in 10 Millionen deutschen Garagen stehen. Dafür gibt der Bund Milliarden aus: Allein eine Million Ladestationen soll es zukünftig geben (das entspricht etwa einer Station für 10 E-Autofahrer!). Und der Umstieg vom guten alten Verbrennungsmotor auf das Elektrofahrzeug soll mit üppigen Prämien subventioniert werden.

Diese Ziele mögen im Hinblick auf die Gesundung des Weltklimas ehrenwert sein, sie stoßen allerdings in der Realität gleich zweifach an ihre Grenzen: Der Autofahrer, dieser Wicht, macht schon hier und heute nicht das, was er soll. Denn bereits für das Jahr 2020 hatte sich die Bundesregierung gewünscht, dass gefälligst eine Million Elektroautos auf deutschen Straßen fahren. Doch tatsächlich sind es Ende 2019 gerade einmal 150.000. Denn leider halten die vergleichsweise hohen Anschaffungskosten die breite Masse der Bevölkerung immer noch von einem Kauf ab.

Doch was viel wichtiger ist: Der Elektroantrieb erscheint uns heute, im Jahr 2019, als ökologisch sinnvoll. Deshalb wird er mit Milliardenbeträgen gefördert. Doch genau damit gelangen andere, alternative Antriebe ins Hintertreffen. Denn die E-Mobilität ergattert sich durch die Steuermilliarden einen Wettbewerbsvorteil im Vergleich zu Brennstoffzelle, synthetischen Kraftstoffen, Autogas oder anderen Antriebsarten, die wir noch gar nicht kennen. In dem Moment, in dem die Bundesregierung üppige Subventionen für die Weiterentwicklung des Elektroautos in Aussicht stellt, lohnt sich der Aufwand nicht mehr, an Wasserstoff & Co. zu forschen. Es werden massive Anreize in eine bestimmte Richtung gesetzt. Ob dies richtig ist oder nicht, wird erst die Zukunft zeigen.

Mit dem Problem, dass Politiker oft Entscheidungen treffen, hinter denen äußerst ungewisse Annahmen stehen, beschäftigte sich bereits der Ökonom Friedrich August von Hayek (1899-1992). Der Wirtschaftsnobelpreisträger sprach in diesem Zusammenhang von einer „Anmaßung von Wissen“. Politiker können in den allermeisten gesellschaftlichen Fragen gar nicht wissen, was morgen passiert. Klüger wäre es deshalb, es dem Markt – und damit der Weisheit der Vielen – zu überlassen, welche Lösungen für ein Problem gefunden werden. Beim Automobil würde dies bedeuten, keine bestimmten Antriebsarten zu bevorzugen, sondern stattdessen alle Technologien den gleichen Wettbewerbsbedingungen zu unterziehen: Beispielsweise durch eine einheitliche Steuer auf den CO2-Ausstoß oder durch den Handel mit entsprechenden Zertifikaten.

Bis es soweit ist, dürfen wir gespannt verfolgen, ob die Bundeskanzlerin und ihr Kabinett in der Prognosefähigkeit ähnlich treffsicher sind wie die New Yorker Stadtplaner im Jahr 1850.

Photo: Dorotheum from Wikimedia Commons (CC 0)

Von Prof. Roland Vaubel, emeritierter Professor für Volkswirtschaftslehre und Politische Ökonomie an der Universität Mannheim.

Weshalb ging die Reformation von Deutschland aus, und weshalb erfasste sie als nächstes die Schweiz und die Niederlande? Weshalb gelang die Reformation nicht schon vorher in Großstaaten wie Frankreich oder England, obwohl es dafür durchaus Ansätze gab? Die Katharer in Frankreich wurden regelrecht ausgerottet, und John Wycliffe in England wurde von der englischen Kirche zum Ketzer erklärt. Der deutsche Sprach- und Kulturraum war für die Reformation “prädestiniert”, weil er nicht in einem Großstaat vereint, sondern politisch fragmentiert war. Reformatoren, die verfolgt wurden, konnten sich relativ leicht im selben Sprach- und Kulturraum in Sicherheit bringen oder – wie Martin Luther – in Sicherheit gebracht werden. Die Grenze war nicht weit, und die Aussicht, anderswo in einer ähnlichen Umgebung leben und wirken zu können, ermutigte die religiösen Querdenker, gegen die herrschende Lehre und Kirche zu protestieren. Anders als 1415, als Jan Hus in Konstanz auf dem Scheiterhaufen endete, war diesmal auch der Zeitpunkt günstig, denn der katholische Kaiser wurde von 1521 bis 1544 in fünf Kriege mit dem französischen König verwickelt, der sich mit aller Kraft und ohne religiöse Scheuklappen gegen die habsburgische Umklammerung zur Wehr setzte, und 1529 standen die Türken vor Wien!

Man kann sich fragen, weshalb nicht auch das politisch fragmentierte Italien für die Reformation prädestiniert war. Im 15. Jahrhundert hatten die humanistischen Freigeister in einigen der italienischen Stadtstaaten Schutz vor der Inquisition gefunden. Aber die Reformation wurde von keinem italienischen Herrscher unterstützt. Die wenigen italienischen Reformatoren, die es gab, flohen in die Schweiz und nach Süddeutschland oder wurden in Rom hingerichtet. Zwei Erklärungen drängen sich auf. Zum einen ist das römische Papsttum eine italienische Institution, auf die die Italiener zu allen Zeiten stolz waren. Anders als in Deutschland wäre man in Italien kaum auf die Idee gekommen, dem Papsttum die Existenzberechtigung abzusprechen. Zum anderen wurden die Zustände, die damals im Vatikan herrschten, wahrscheinlich von den meisten Italienern nicht als so skandalös empfunden wie von den strengen Deutschen, Schweizern und Niederländern.

Dass die politische Fragmentierung des deutschen Sprach- und Kulturraums die Reformation ermöglichte, weil sie den Verfolgten Zuflucht bot, ist eine plausible Hypothese, aber lässt sie sich auch empirisch belegen? Sind tatsächlich innerhalb des deutschen Sprach- und Kulturraums zahlreiche Reformatoren durch Flucht in ein anderes Herrschaftsgebiet der Verfolgung entgangen?

Um diese Frage zu klären, habe ich die Biographien der Reformatoren und prominenten Reformationsunterstützer in dem von Klaus Ganzer und Bruno Steimer herausgegebenen “Lexikon der Reformationszeit” (Herder 2002) ausgewertet und die Angaben anhand von Wikipedia überprüft und ergänzt. Ich habe dreizehn solche Fälle gefunden. Die bekanntesten Flüchtlinge sind Ulrich von Hutten und Martin Bucer, der Straßburger Reformator. Zwei flohen zu Luther nach Wittenberg, zwei zu Zwingli nach Zürich. Nicht mitgezählt habe ich diejenigen, die aus dem Gefängnis entkamen, denn diese Möglichkeit war unabhängig von der politischen Fragmentierung. Nicht berücksichtigt habe ich außerdem die zahllosen Theologen, die nicht verfolgt, sondern “nur” ihres Amtes enthoben und/oder ausgewiesen wurden, obwohl auch sie sich wahrscheinlich durch die leichte Verfügbarkeit alternativer Wirkungsstätten ermutigt gefühlt hatten. Vielleicht gilt dies sogar für Martin Luther, obwohl dieser sich nicht selbst in Sicherheit brachte, sondern vom sächsischen Kurfürsten Friedrich dem Weisen auf der Wartburg versteckt wurde.

Zu unserer Hypothese passt jedoch nicht, dass zehn Reformatoren vorübergehend und vier für den Rest ihres Lebens eingekerkert wurden und dass vierzehn ihren Protest mit dem Leben bezahlten. Auf dem Scheiterhaufen endeten Reformatoren in Heide (1524), Passau (1527), Wien (1528), Köln (1529), Genf (1553) und Overijssel (1580). In Münster wurden 1535/36 vier Wiedertäufer hingerichtet bzw. auf der Stelle getötet. Ohne die politisch ambitionierten Wiedertäufer, die ja den Gottesstaat auf Erden errichten wollten, vermindert sich die Zahl der Hinrichtungen auf sechs. Die Verhaftungen und Hinrichtungen verdeutlichen, wie wichtig es für die Reformatoren war möglichst leicht fliehen zu können, auch wenn dies nicht immer gelang.

Da die Flucht vor Verhaftung in dreizehn Fällen glückte, aber in 28 Fällen (= 10 + 4 + 14) unterblieb, scheint der Befund eher gegen unsere Hypothese zu sprechen, obwohl einige Reformatoren wahrscheinlich bewusst auf die eigentlich mögliche Flucht verzichteten. Aber vielleicht war das Verhältnis der Fluchthäufigkeit zur Zahl der Gefangennahmen und Hinrichtungen in den europäischen Großstaaten noch niedriger? Das Lexikon der Reformationszeit berichtet auch über die Reformatoren und Reformationsunterstützer in den anderen europäischen Ländern, jedoch – soweit ich erkennen kann – weniger detailliert. Die Fallzahlen sind vermutlich nach unten verzerrt. Aber das gilt sowohl für die Fluchthäufigkeit als auch für die Verhaftungen und Hinrichtungen. Die Verzerrung verschwindet, wenn man die Fluchthäufigkeit ins Verhältnis zur Zahl der Verhaftungen und Hinrichtungen setzt – also skaliert.  Da Hinrichtungen eher berichtet werden als Verhaftungen, beschränke ich mich – auch der Einfachheit halber – auf das Verhältnis der Fluchthäufigkeit zur Zahl der Hinrichtungen. Um die Vergleichbarkeit zu verbessern, lasse ich die Hinrichtungen der politisch gefährlichen Wiedertäufer weg. Die resultierende Verhältniszahl bezeichne ich als “relative Fluchthäufigkeit”. Im deutschen Sprach- und Kulturraum beläuft sie sich auf 2,2 (= 13/6).

Für den zu dieser Zeit bereits hochzentralisierten Großstaat Frankreich vermeldet das Lexikon sechs flüchtige Reformatoren und prominente Reformationsunterstützer. Der bekannteste unter ihnen ist zweifellos Jean Calvin, der 1533 von Paris in die Schweiz floh. Das Lexikon nennt namentlich nur drei getötete Reformatoren oder Reformationsunterstützer, schätzt aber die Zahl der in der Bartholomäusnacht (1572)  in Paris umgebrachten Protestanten auf 3.000 bis 4.000. Die Pariser Bartholomäusnacht ist für unsere Hypothese nicht relevant, denn die Opfer des Massakers waren nicht deshalb nicht geflohen, weil dies besonders schwierig gewesen wäre, sondern weil sie eingeladen waren und nicht mit diesem Vertrauensbruch rechneten. Anders war es in der Provinz. Dort wurden laut Lexikon wenig später 5.000 bis 10.000 Protestanten umgebracht. Nicht alle waren Reformatoren oder prominente Reformunterstützer. Die meisten waren einfache Protestanten. Aber selbst wenn unter den Tausenden von Opfern nur hundert Theologen und prominente Reformationsunterstützer gewesen wären, beliefe sich die relative Fluchthäufigkeit in Frankreich auf 0,06 (=6/103) und wäre damit sehr viel niedriger als im deutschen Sprach- und Kulturraum.

Für England nennt das Lexikon ebenfalls sechs gelungene Fluchtversuche, drei unter Heinrich VIII. (vor dessen Bruch mit Rom) und drei unter Maria I., der Katholischen. Drei Flüchtlinge gingen nach Deutschland. Der bekannteste ist der schottische Reformator John Knox, der vor der Flucht in England lebte. Das Lexikon nennt namentlich sechs protestantische Theologen, die hingerichtet (verbrannt) wurden: drei unter Heinrich VIII., drei unter Maria der Katholischen. Das Lexikon berichtet, dass Maria die Katholische darüber hinaus etwa 300 prominente Unterstützer der Reformation hinrichten ließ. Damit ergibt sich eine relative Fluchthäufigkeit von 0,02 (=6/306).

Aus Schottland floh ein Reformator, zwei wurden hingerichtet. Das läuft auf eine relative Fluchthäufigkeit von 0,5 (=1/2) hinaus.

Im Reich der Habsburger – hier ohne Österreich, das ja zum deutschen Sprach- und Kulturraum gehört – gelang siebenmal die Flucht, vier Reformatoren wurden hingerichtet oder fielen einem kirchlichen Attentat zum Opfer (darunter ein Wiedertäufer). Die Flüchtlinge wandten sich nach Genf, Wittenberg, Nürnberg, Paris und London. Als relative Fluchthäufigkeit ergibt sich das Verhältnis 2,3 (=7/3). Das ist geringfügig höher als im deutschen Sprach- und Kulturraum und könnte daran liegen, dass die nicht-österreichischen Besitzungen der Habsburger damals weit über Europa verstreut waren. Verfolgte konnten sich entsprechend leicht in Sicherheit bringen.

Die Ergebnisse für die kompakten europäischen Großstaaten Frankreich und England und für Schottland stützen jedoch unsere Hypothese: Die relative Fluchthäufigkeit war dort wesentlich geringer als im politisch fragmentierten deutschen Sprach- und Kulturraum.

Die von Deutschland ausgehende Reformation eröffnete einen Wettstreit der Konfessionen und war grundlegend für den Geist der Meinungsfreiheit, der in den folgenden Jahrhunderten das europäische Innovations- und Wirtschaftswunder möglich machte. Vielleicht war die Reformation Deutschlands größter Beitrag zu diesem Wunder.

Erstmals erschienen bei Wirtschaftliche Freiheit.

Photo: Markus Spiske from Unsplash (CC0)

Der Sommer ist nicht nur die Zeit für Badehosen und ausgiebige Grillabende, sondern auch für Politiker der zweiten Reihe. Ein Dauerbrenner des Sommerlochs und des anklingenden Herbstes 2019 sind Verbote. Seien es Plastikbesteck, Ölheizungen oder Inlandsflüge, quer durch alle politischen Lager werden die Rufe nach Verboten laut. Verbote sind in der Regel nicht das beste Mittel, um unerwünschten Externalitäten zu begegnen. Die Forderung nach Verboten kann für Politiker im politischen Wettbewerb dennoch attraktiv sein, wenn die geforderten Verbote den Vorlieben ihrer Wähler entsprechen, sie dadurch besondere Ernsthaftigkeit signalisieren können oder sich mit der extremen Position das Feld des politisch Möglichen erweitern lässt. Während die Forderung nach Verboten von Politikern auf Stimmenfang regelmäßig als Instrument eingesetzt wird, sollte der Staat nur in sehr seltenen Fällen Verbote durchsetzen, um externe Effekte zu verhindern.

„Verbieten“ im Trend

Was auch immer die Menschen bewegt, Google weiß es recht schnell. Bei ersten Grippesymptomen fragen wir gerne die große Suchmaschine um Rat. Ein Anstieg der Suchanfragen kann daher ein erstes Anzeichen für eine Grippewelle sein. Geht es nach den Googlesuchanfragen zum Thema „verbieten“ scheint es so, als würde die Menschen das Thema in den letzten Jahren vermehrt beschäftigen.

Seit 2004 stiegen die Suchanfragen mit „verbieten“. Dabei beschränken sich die Ausschläge nicht nur auf das politische Sommerloch in den Sommermonaten. Eine Auswertung der Bundestagsprotokolle zeigt zudem, dass „verbieten“ auch in den politischen Schlagabtauschen in Mode ist. Im Vergleich zu den ersten 20 Jahren der Bundesrepublik hat sich die Häufigkeit des Worts „verbieten“ in den aktuellen Debatten im Parlament mehr als verdoppelt.

Keine Alternativen mehr zu Verboten?

Verbote sind derzeit vor allem in Umweltfragen hoch im Kurs: SUVs, Inlandsflüge, Verbrennungsmotoren und vieles mehr. Man könnte den Eindruck gewinnen, Verbote seien attraktive Instrumente für den Klima- und Umweltschutz. Doch Verbote sollten das letzte Mittel in einem Instrumentenkasten sein, um mit externen Effekten wie Umweltproblemen fertig zu werden. Als externe Effekte werden Kosten bezeichnet, die nicht von ihrem Verursacher getragen werden, sondern Dritte treffen. Beispielsweise sind externe Kosten die Klimafolgekosten für anderen Menschen, die etwa bei der Benutzung des eigenen Autos entstehen.

Je stärker externe Effekte reduziert werden, desto höher sind die Kosten für die Vermeidung. Während die ersten Prozente relativ günstig eingespart werden können, sind die letzten verbleibenden externen Effekte nur zu hohen Kosten zu vermeiden. Daher ist es meist wünschenswert, die Externalität nicht komplett zu eliminieren, denn mit einem Verbot der zugrundeliegenden Aktivität geht auch der Nutzen vollständig verloren, den sie stiftet.

Für die gewünschte Reduktion externer Effekte ist es in der Regel nur notwendig, dass der Verursacher die vollen Kosten seiner Handlungen trägt. Um das Klima zu schützen, wäre daher folgerichtig den Verursachern die bisher nicht in Betracht gezogenen Kosten aufzubürden, etwa mit Hilfe einer CO2-Steuer oder eines Zertifikatehandels. Privatpersonen stünden ebenso wie Unternehmen vor der Frage, ob sie Emissionen verursachen und damit die Steuer zahlen, ein Zertifikat kaufen oder ob es nicht günstiger wäre, die Emissionen zu vermeiden. Unerwünschte Einkommensverteilungseffekte solcher Maßnahmen können vermieden werden, wenn die Einnahmen daraus nicht dem allgemeinen Budget des Staates zugeführt, sondern sie postwendend gleichmäßig an alle Einwohner ausgezahlt werden. Voraussetzung dafür ist allerdings der politische Wille, die Einnahmen nicht für eine zusätzliche Ausweitung des Einflusses des Staates auf den Ressourceneinsatz in der Volkswirtschaft zu nutzen.

Es gibt immer einen guten Grund für ein Verbot

Wenn Verbote kein attraktives Mittel sind, um Umweltprobleme zu lösen, warum werden sie dann so häufig gefordert? Für Politiker können Verbotsforderungen aus verschiedenen Gründen hilfreich sein.

Erstens können Politiker mit Verboten auf die Präferenzen ihrer Wähler eingehen. Wenn ihre potentiellen Wähler schlicht eine Abneigung gegen gewisse Aktivitäten ihrer Mitmenschen und nicht gegen die mit den Aktivitäten einhergehenden externen Effekte hegen, kann sich die Forderung nach einem Verbot politisch lohnen, obwohl es wirtschaftspolitisch nicht angemessen ist.

Die Unterscheidung zwischen echten externen Effekten und schlichter Abneigung ist schwierig, wie schon der Ökonom Kenneth Arrow anmerkte. Für einen „echten“ externen Effekt ist irrelevant, was die Quelle der Belastung ist. Der CO2-Ausstoß von Fahrzeugen ist genauso schädlich, wie die Emissionen der heimischen Gasheizung. Soll allerdings nur eine bestimmte Quelle externer Effekte verboten werden, ist dies ein Zeichen dafür, dass externe Effekte als Argument für ein Verbot nur vorgeschoben werden, tatsächlich aber Präferenzen der Zielwählerschaft bedient werden.

Zweitens können Politiker bei echten externen Effekten durch die Forderung nach der extremsten Lösung ihre Ernsthaftigkeit signalisieren – „klare Kante“ zeigen. Dies mag aus Sicht des Politikers erfolgversprechend sein, selbst wenn dem Politiker bewusst ist, dass es eine bessere Alternative zu einem Verbot gibt. Entscheidend ist, dass die potentiellen Wähler die extreme Position an der Wahlurne honorieren. Wird das geforderte Verbot anschließend nicht umgesetzt, kann der Politiker darauf verweisen, alles versucht zu haben.

Drittens können Verbote auch Teil einer strategischen Überlegung sein, die der eines Autoverkäufers ähnelt, der die Preisverhandlung mit einem übertrieben hohen Preis beginnt. Wollen Politiker eine Politikmaßnahme durchsetzen, kann es sich für sie lohnen, mit einer Maximalforderung zu beginnen, um das Feld der möglichen politischen Lösungen etwas zu erweitern. Will ein Politiker etwa eine höhere Besteuerung des inländischen Flugverkehrs erreichen, könnte er ein Verbot fordern, um als Kompromiss eine höhere Steuer zu erreichen.

Mehr Toleranz, weniger Verbote

Verbote sind anscheinend leider in Mode. Entsprechend haben Politiker aus verschiedenen Gründen Anreize, Verbote zu fordern. Als Wähler sollten wir mit der Zustimmung zu Verboten und der Belohnung der Forderung nach Verboten an der Wahlurne jedoch zurückhaltend sein – auch wenn wir das zu Verbietende nicht wertschätzen. Wo externe Effekte keine Rolle spielen, sollten wir uns in Toleranz üben und anerkennen, dass die Vorlieben unserer Mitmenschen sich zuweilen deutlich von unseren eigenen unterscheiden. Wo externe Effekte zum Tragen kommen, sollte ein Verbot Ultima Ratio sein und Formen der Internalisierung der externen Effekte durch Bepreisung in der Regel den Vorzug erhalten.

Erstmals erschienen bei IREF

Photo: Anthony Intraversato from Unsplash (CC 0)

Von Dr. Alexander Fink, Universität Leipzig, Senior Fellow des IREF – Institute for Research in Economic and Fiscal Issues, und Kalle Kappner, Promotionsstudent an der Humboldt-Universität zu Berlin, Research Fellow bei IREF, Fackelträger von Prometheus.

Deutschlands Arbeitsmarkt brummt. Die Arbeitslosenquote liegt nahe 5 Prozent. Zwar könnte sich die Konjunktur in naher Zukunft etwas abkühlen, doch über die nächsten Jahre spricht wenig für eine deutliche Trendumkehr. Langfristig sehen jedoch viele schwarz. Angesichts fortschreitender Automatisierung erwarten einige Beobachter eine Ära der Massenarbeitslosigkeit, in der nur noch hochqualifizierte Fachkräfte ein geregeltes Arbeitsverhältnis haben werden. Bei anderen wecken der Renteneintritt der Babyboomer-Generation und der Rückgang des Erwerbspersonenpotenzials Ängste vor Fachkräftemangel, abnehmenden Wachstumsraten und enormen Belastungen für den Sozialstaat.

Bisherige empirische Befunde und theoretische Argumente legen allerdings nahe, dass es weder zu Massenarbeitslosigkeit noch zu einem dramatischen Fachkräftemangel kommen wird und die beiden Probleme sich gewiss nicht gemeinsam manifestieren werden. Vielmehr wird der automatisierungsbedingte Rückgang der Arbeitsnachfrage überschaubar ausfallen und durch die zeitgleiche Abnahme des Erwerbspersonenpotenzials zusätzlich aufgefangen. Zentrale Herausforderung auf dem Arbeitsmarkt wird in den nächsten Jahrzehnten vermutlich eine zunehmende Einkommensspreizung sein.

Automatisierung heutiger Berufe

Ausgangspunkt zahlreicher alarmierender Langfristprognosen zur Arbeitsmarktentwicklung ist eine Studie von Frey und Osborne (2013). Anhand detaillierter Berufsbeschreibungen schätzen die Autoren für zahlreiche Berufsbilder, wie wahrscheinlich es ist, dass eine Maschine einen bestimmten Beruf übernehmen kann. Für die USA kommen sie zum Ergebnis, dass 47 Prozent der derzeit Beschäftigten Berufe ausüben, die in den nächsten 20 Jahren durch Maschinen übernommen werden können. Bonin et al. (2015) übertragen die Methode auf Deutschland und finden, dass 42 Prozent der Beschäftigten in automatisierbaren Berufen arbeiten.

Diese Befunde sollten hinsichtlich ihrer Prognosekraft jedoch vorsichtig interpretiert werden. Zum einen sinkt das gemessene Automatisierungspotenzial dramatisch, wenn es auf Ebene einzelner Aufgaben („Tasks“) statt umfassender Berufsbilder geschätzt wird – für Deutschland auf 12 Prozent der Beschäftigten.

Darüber hinaus impliziert die technische Möglichkeit einer Automatisierung nicht, dass sich diese aus Sicht eines Unternehmens lohnt und tatsächlich vollzogen wird. Löhne und Tätigkeitsprofile in betroffenen Branchen können angepasst werden, sodass der Einsatz menschlicher Arbeitskraft weiter attraktiv bleibt. Für Deutschland zeigen entsprechend Dengler und Matthes (2018), dass zumindest kurzfristig kein Zusammenhang zwischen dem gemessenen Automatisierungspotenzial und der Arbeitskraftnachfrage eines Berufsbildes besteht.

Folgen der Automatisierung: Keine Arbeitslosigkeit, aber Lohnspreizung

Für Deutschland finden Dauth et al. (2017), dass seit 1994 durch jeden Industrieroboter im Schnitt zwei Industriearbeitsplätze vernichtet wurden, jedoch ebenso viele neue Jobs im Dienstleistungssektor entstanden sind. Im Aggregat führte Automatisierung daher bisher nicht zu mehr Arbeitslosigkeit, jedoch zu beruflicher Neuorientierung und sinkenden Reallöhnen in den von Automatisierung betroffenen Branchen. Zu ähnlichen Ergebnissen kommen auch Graetz und Michaels (2018).

Eine Simulationsstudie von Arntz et al. (2018) prognostiziert auf Basis der bisherigen Entwicklung des deutschen Arbeitsmarkts, dass eine zunehmende Automatisierung in den nächsten zehn Jahren nicht zu Arbeitslosigkeit, sondern zu schwachen positiven Beschäftigungseffekten führen wird. Eine längerfristige Schätzung nehmen Zika et al. (2018) und Wolter et al. (2016) vor, die jeweils einen schwachen positiven Beschäftigungseffekt bis 2035 bzw. einen schwachen negativen Effekt bis 2030 finden.

Massenarbeitslosigkeit aufgrund künstlicher Intelligenz?

Prognosen auf Basis der Analyse bisheriger Automatisierungswirkung bieten wenig Anlass zur Sorge vor technologisch bedingter Arbeitslosigkeit, deuten aber auf wachsende Lohnspreizung hin. Die Prognosekraft dieser Studien hängt von der Annahme ab, dass zukünftige Automatisierungstrends den Mustern bisheriger Automatisierung folgen werden. Angesichts der Entwicklungen im Bereich künstlicher Intelligenz ziehen einige Kommentatoren diese Annahme in Zweifel.

So legt eine auf der Delphi-Methode, d.h. strukturierten Expertenbefragungen basierende Studie des Millennium Project offen, dass die Befragten im Schnitt erwarten, dass 2050 rund ein Viertel der Weltbevölkerung arbeitslos sein wird. Den Grund sehen die Befragten in den immer umfassenderen Anwendungsbereichen künstlicher Intelligenz, deren Automatisierungswirkung viele Menschen anders als im Fall klassischer Industrieroboter nicht mehr durch berufliche Umorientierung und Weiterbildung begegnen könnten.

Alterung wirkt technologischer Arbeitslosigkeit entgegen

In anderen Fällen wird gewissermaßen das Gegenteil der durch Automatisierung herbeigeführten Massenarbeitslosigkeit befürchtet: Ein durch den Rückgang des Erwerbspersonenpotentials herbeigeführter Mangel an Fachkräften. Trotz verstärkter Zuwanderung wird gemäß gängiger Prognosen die Zahl erwerbsfähiger Menschen in Deutschland durch die demografische Alterung der Gesellschaft von heute rund 45 Millionen bis 2060 auf ca. 39 Millionen sinken.

Isoliert betrachtet heizt dieser Befund regelmäßig Debatten um den sogenannten Fachkräftemangel an. So erwartet die Zukunftsforscher von Prognos für 2040 eine Fachkräftelücke von fast vier Millionen Arbeitskräften. Eine Studie des Instituts für die Geschichte und Zukunft der Arbeit erwartet ebenfalls ein sinkendes Verhältnis von Erwerbspersonen zum Arbeitskräftebedarf.

Andere Kommentatoren weisen allerdings darauf hin, dass der zu erwartende Rückgang des Erwerbspersonenpotenzials mögliche negative Beschäftigungseffekte der zeitgleich stattfindenden Automatisierung abmildern kann. So betont Südekum (2018), dass die häufig isoliert diskutierten Sorgen vor technologisch bedingter Arbeitslosigkeit einerseits und Rückgang des Erwerbspersonenpotenzials andererseits übertrieben sind, da sich beide Trends hinsichtlich ihrer Arbeitsmarktwirkung ausgleichen.

Flexible Arbeitsmärkte und individuellen Vermögensaufbau erleichtern

Bisherige empirische Studien und theoretische Überlegungen legen nahe, dass allzu pessimistische Prognosen zukünftiger Massenarbeitslosigkeit oder Unterversorgung mit Fachkräften überzogen sind. Gewiss werden sich nicht beide Probleme zugleich einstellen. Eine Herausforderung wird jedoch darin liegen, die Um- und Weiterbildung von Arbeitnehmern in verstärkt der Automatisierung unterliegenden Branchen zu erleichtern. Die Politik sollte die zügige berufliche Umorientierung fördern, statt sie durch die Subventionierung ausgewählter etablierter Branchen zu behindern.

Eine weitere Herausforderung liegt im Umgang mit der zu erwartenden zunehmenden Lohnspreizung. Zukünftig wird vermutlich ein größerer Anteil des volkswirtschaftlichen Gesamteinkommens an Kapitaleigner und Hochqualifizierte fließen. Damit breite Bevölkerungsschichten auch zukünftig vom technologischen Fortschritt profitieren, sollte die Politik den Aufbau individuellen Vermögens insbesondere in Form von Unternehmensbeteiligungen erleichtern, etwa im Rahmen der privaten und betrieblichen Altersvorsorge.

Erstmals erschienen bei IREF.

Photo: Everton Vila from Unsplash (CC 0)

Von Prof. Dr. Hardy Bouillon, Außerplanmäßiger Professor im Fach Philosophie an der Universität Trier.

Befürworter staatlicher Umverteilung begrüßen die Philanthropie, weil diese Wohlfahrtsaufgaben erfüllt, die dem Staat erspart bleiben. Aber sie glauben nicht, dass die Philanthropie den Sozialstaat ersetzen könnte oder gar sollte. Ihre Haltung ruht vor allem auf zwei Einwänden: dem Unterversorgungseinwand und dem Diskriminierungseinwand. Der erste wiegt wohl am schwersten. Er behauptet, dass die freiwillige Umverteilung zu wohltätigen Zwecken weit hinter der verordneten Umverteilung zurückbliebe. Eine gewisse Anfangsplausibilität kann man dieser These nicht absprechen. Sie beruht auf dem sogenannten Gefangenendilemma, das die Entscheidungsnot zweier tatverdächtiger Komplizen schildert. Beide werden getrennt zur Tat verhört. Gesteht keiner, dann werden beide milde bestraft. Gestehen beide, fällt ihre Strafe hoch aus. Gesteht nur einer, geht der Geständige straffrei aus, während der Standhafte die Höchststrafe erhält. Die dominante Strategie für beide ist, getrennt „dicht zu halten“. Aber keiner der beiden wählt diese Strategie, weil jeder fürchtet, der andere könnte „singen“ und er wäre dann „der Dumme“. Auf den ersten Blick sieht es so aus, als ob das Gefangenendilemma auch für die Philanthropie gelten würde. D.h., die beste Lösung (hier: ausreichend großes Spendenvolumen) bleibt aus, weil jeder befürchtet, der „Dumme“ zu sein; also jener, der spendet, während die anderen nicht spenden.

Doch der erste Blick täuscht. Als Roosevelt 1933 den Universitäten die Mittel kürzte, fürchteten viele Umverteilungsbefürworter, dass auch Alumni und Sponsoren ihre Spenden reduzieren würden. Doch das Gegenteil trat ein! Zahl und Großzügigkeit der Spender nahmen zu, die Unterversorgung blieb aus. All dies lässt vermuten, dass der Unterversorgungseinwand das Gefangenendilemma zu Unrecht bemüht.

Hinzu kommt, dass Steuergesellschaften die Möglichkeit bieten, Gefangenendilemmata zu entschärfen. Sind philanthropische Spenden steuerlich absetzbar, dann sinkt der Spendenpreis und schrumpft der Nachteil des Spenders gegenüber dem Nichtspender. Je höher die Abzugsmöglichkeiten, desto geringer der Nachteil. (Bei 100 Prozent wäre der Nachteil vollends aufgehoben.) Daher ist in Gesellschaften mit traditionell guten Abzugsmöglichkeiten die Philanthropie stärker ausgeprägt als andernorts. Wie Karl-Heinz Paqué schon in den 80ern für die USA zeigte, gilt dies auch, wenn neben steuerlichen Vorteilen kulturelle Besonderheiten ursächlich sind.

Auch das reale Spenderverhalten entschärft den Unterversorgungseinwand, wie ein Blick auf Sozialleistungsquote und Spenderquote zeigt. Die Sozialleistungsquote deutscher Steuerzahler –Anteil der individuellen Steuer, der in den Sozialhaushalt fließt – liegt derzeit bei ca. 30 %. Die Spenderquote – Anteil der Spender unter allen Bürgern – beträgt momentan 40 %. D. h., dass 40 % der Bürger trotz einer 30 %igen Sozialleistungsquote sich nicht davon abhalten lassen, zusätzlich für wohltätige Ziele zu spenden. (Sie spenden quasi „on top“.) Wem man unterstellen kann, dass er mit der Verwendung von 30 % seiner Steuern für philanthropische Ziele einverstanden ist, wird man wohl auch unterstellen müssen, dass er seine individuelle Sozialleistungsquote für zu gering hält. Andernfalls würde er wohl kaum zusätzlich spenden. Und wie steht es mit den „On top“-Spendern, denen man keine Zustimmung zur individuellen Sozialleistungsquote zuschreiben kann? Vielleicht wird man ihnen unterstellen, Einwände zur staatlichen Auswahl oder zum Umfang der wohltätigen Zwecke zu haben; vielleicht auch, dass sie ihre Sozialleistungsquote, sofern sie diese einbehalten dürften, (zumindest teilweise) zu anderen als zu philanthropischen Zwecken verwenden würden; aber wohl kaum, dass sie im Falle der freien Verfügung über die eigene Sozialleistungsquote ihr philanthropisches Spendenverhalten gänzlich einstellen oder reduzieren würden.

Wer hat, der gibt, und wer mehr hat, der gibt mehr! Diese einfache Regel gilt auch unter Philanthropen, wie Befragungen ergeben. Folgt man dem Deutschen Spendenmonitor, dann lag 2017 die Spenderquote (von 4. 000 Befragten) im Westen der Republik höher als im Osten (44 % vs. 28 %), spendeten Rentner über 65 Jahren häufiger als junge Erwachsene zwischen 30 und 50 Jahren (54 % vs. 36 %), stieg die Spendenhöhe von 1995 bis 2007 von 78 € auf 143 € und das Spendenvolumen von 2,08 % auf 3,71 %. Befragungen lassen Erbschaften, Unternehmens-, Groß- und Parteispenden sowie Stiftungsgründungen und gerichtlich verordnete Geldzuwendungen meist außen vor. Kalkuliert man dergleichen ein, dann kommt man auf ein jährliches Spendenvolumen von 8 – 8,5 Milliarden €. Die Summe liegt nahe an dem, was sich aus den Steuerstatistiken ermitteln lässt. Für 2013 wurde für Spenden in Höhe von 6,8 Mrd. € die steuerliche Abzugsmöglichkeit geltend gemacht. (Vorträge in Höhe von 2,3 Mrd. € wären davon zu subtrahieren, steuerlich unberücksichtigte Barspenden zu addieren.)

Verglichen mit der Ermittlung des monetären Spendenvolumens ist die monetäre Erfassung von Zeitspenden weitaus schwieriger. Aber sie zeigt, dass philanthropisches Handeln ein viel größeres Ausmaß annimmt als philanthropisches Spenden. Folgt man dem Freiwilligensurvey, dann kamen 2014 9 % aller Zeitspenden für gemeinwohlorientierte Zwecke dem Bereich Kultur zugute. Die Enquete-Kommission „Kultur in Deutschland” kam in ihrem Abschlussbericht zur Einschätzung, dass der monetarisierte Wert der Zeitspenden für kulturelle Zwecke im Jahr 2006 zwischen 9,3 und 16,7 Milliarden € betrug. Folgt man dieser Umrechnungsart, dann dürfte der monetarisierte Wert aller Zeitspenden für philanthropische Zwecke jährlich zwischen 100 und 185 Milliarden € betragen. Großzügigere Möglichkeiten, Zeitspenden steuerlich geltend zu machen, würden wohl eine Zunahme an Zeitspenden auslösen. Derzeit sind derlei Möglichkeiten kaum vorhanden und beschränken sich vornehmlich auf die Ehrenamtspauschale (720 € p. a.) und die Übungsleiterpauschale (2. 400 € p. a.).

Was derzeit jedoch für den Unterversorgungseinwand spricht, ist ein organisationsrechtlicher Umstand. Ein Großteil der Philanthropie findet im sogenannten Dritten Sektor statt, und zwar in Form von NPO (Non-Profit-Organisationen). NPO ist in Deutschland der Zugang zum Kapitalmarkt verwehrt und (wegen fehlender Sicherheiten) der Zugang zum Kreditmarkt erschwert. Damit sind ihnen und dem Dritten Sektor – der hierzulande mit 4,1% zur Bruttowertschöpfung beiträgt – wichtige Wachstumsoptionen genommen.

Auch der Diskriminierungseinwand hat eine gewisse Anfangsplausibilität. Der Grund ist offenkundig: Reduzierte man die staatliche Umverteilung zu wohltätigen Zwecken im Vertrauen auf potente Philanthropen, dann überließe man diesen die Entscheidung, Ziele, Mittel und Empfänger ihrer Wohltätigkeit selbst auszusuchen. Infolgedessen können die Entscheider diskriminieren, und zwar nach Kriterien, die sie selbst wählen. Der Diskriminierungseinwand übersieht jedoch mindestens zweierlei: Erstens, sowohl private als auch staatliche Umverteilungen nehmen Diskriminierungen vor. Es ist nicht offensichtlich, warum staatliche Diskriminierungen im Wohltätigkeitssektor privaten Diskriminierungen überlegen sein sollten. Zweitens, private Diskriminierungen finden bereits jetzt schon im Philanthropiesektor statt und bilden schlicht das ab, was der Madrider Ökonom Philipp Bagus den „Markt des Gebens“ nennt. Für diesen Markt ist – wie für andere Märkte auch – die Annahme naheliegend, dass er aus Effizienzgründen der staatlichen Umverteilung überlegen ist.

Eine gekürzte Version dieses Textes erschien am 5. August 2019 in der Frankfurter Allgemeinen Zeitung.