Photo: jan saudek from Flickr (Public Domanin Mark 1.0)

Von Dr. Stephen Davies, Head of Education beim Institute of Economic Affairs in London.

Der zweite Jahrestag des Brexit steht bevor und einige „Globalisten“ und Freunde des freien Marktwirtschaft, die die „Leave“-Bewegung unterstützt haben, bekommen langsam Gewissensbisse. Sie waren überzeugt, dass die Befreiung von den restriktiven Regeln der fernen europäischen Bürokraten bedeuten würde, dass Großbritannien das marktwirtschaftliche Äquivalent von „Hongkong oder Singapur an der Themse“ werden würde.

Aber das war Wunschdenken. Es war klar, dass der Bruch mit der EU niemals eine weniger restriktive Einwanderungspolitik bedeutet hätte. Aber selbst beim Thema Freihandel, ist die Bilanz Großbritanniens nach dem Brexit recht gemischt.

Der Herausgeber des britischen Magazins Spectator, Fraser Nelson, ein Globalist, Marktwirtschaftler und prinzipieller Europafreund, der dennoch widerwillig für den Austritt aus der EU gestimmt hatte, schrieb kürzlich einen Artikel im Daily Telegraph, in dem er seine Enttäuschung und Desillusionierung über den politischen Kurs Großbritanniens nach dem Brexit zum Ausdruck brachte. Er bedauert, dass er Politikern wie Boris Johnson und dem ehemaligen Europaabgeordneten Dan Hannan deren sanftes Säuseln abgekauft hatte, dass „Leave“ nicht „Zugbrücke hoch“ bedeute, sondern „raus und auf in die Welt“. Jetzt fragt er wehmütig: „Wo ist denn das Gelobte Land?“

Um Johnsons Brexit-Argument zu glauben, musste man freilich sowohl die politische Realität als auch die Wählerdemographie ignorieren.

Der Brexit wurde von den britischen Wählern im Jahr 2016 mit einer knappen Mehrheit von 52 % angenommen. Zweifellos hatten diejenigen, die für den Austritt stimmten, sehr unterschiedliche Vorstellungen davon, warum der er wünschenswert sei und was darauf folgen solle. Es gab glühende Verfechter der freien Marktwirtschaft, die sich über die übereifrigen Regulierungsvorschriften der EU aufregten, die von den Mitgliedstaaten die Erfüllung aller möglichen unsinnigen Anforderungen verlangt, um Zugang zum europäischen Markt zu erhalten. Sie machten jedoch nur einen kleinen Teil der Koalition aus. Der weitaus größere Teil waren Wähler, denen es entweder in erster Linie um eine Vorstellung von nationaler Souveränität ging oder die den Brexit als Gelegenheit sahen, den Thatcherismus rückgängig zu machen und zum britischen Nationalismus der Jahre 1945 bis 1979 zurückzukehren. Sie wünschten sich ein selbstverwaltetes Großbritannien mit einer Regierung, die eine aktive wirtschaftliche Rolle spielt und eher dem Wirtschaftsnationalismus zuneigt.

Dies wurde deutlich, als die Austrittskampagne andeutete, dass der Grund für den Austritt aus der EU darin bestehe, dass das Vereinigte Königreich dann wieder die heimischen Stahlproduzenten subventionieren und schützen könne; mehr Geld für das verstaatlichte britische Gesundheitssystem, den National Health Service,  zur Verfügung stehe; und dass man die Einwanderung auf- oder gar anhalten könne. Der Vordenker dieser Kampagne, Johnsons politischer Stratege Dominic Cummings, argumentierte nachdrücklich, dass das Gerede von einem „globalen Großbritannien“ niemals Erfolg haben werde und dass man sich auf die nationale Erneuerung konzentrieren müsse, wobei die Betonung auf national liege. Er vertrat außerdem in etlichen Artikeln den Standpunkt, dass der britische Staat in eine Art Agentur umgewandelt werden sollte, die eine wesentlich interventionistischere Rolle in der Wirtschaft spielen müsse.

Die Ergebnisse der Parlamentswahlen 2019, die die Konservative Partei mit einem Erdrutschsieg gewann, zeigen, dass Cummings Botschaft bei einer politisch vielfältigen Wählerschaft Anklang fand. Sowohl für den Ausgang des Brexit-Referendums als auch für diese Wahl ausschlaggebend waren größtenteils ältere Wähler aus der Arbeiterklasse und der unteren Mittelschicht in ehemaligen Industriegebieten. Die Konservative Partei konnte auch im Norden Englands, der früher eine traditionelle Hochburg der Labour Party war, große Zugewinne verzeichnen. Diese Wähler verbinden eine eindeutig linke wirtschaftliche Position und Interventionismus mit kulturellem Traditionalismus und dem Festhalten an überkommenen Vorstellungen von nationaler Identität und Patriotismus. Dies äußert sich nicht nur in einer aktivistischen Regional- und Industriepolitik, sondern auch in wirtschaftlichem Nationalismus und einer Ablehnung der Globalisierung, insbesondere der Einwanderung.

In der Tat haben der Brexit und die Wahlen 2019 eine Neuausrichtung der britischen Politik um eine neue Achse zementiert, die Kosmopoliten gegen Nationalisten von links und rechts ausspielt. Kosmopoliten wie Nelson, die für den Austritt gestimmt haben, dämmert das langsam. Und ihre Enttäuschung wird wahrscheinlich noch wachsen.

Wenn die Konservative Partei mit dieser neuen Wählerbasis an der Macht bleiben will, muss sie sich auf die Interessen dieser Wähler einstellen und gleichzeitig so viele ihrer traditionellen Stammwähler wie möglich an sich binden. Letztere sind zwar tendenziell stärker an der freien Marktwirtschaft orientiert als die neueren Wähler. Aber selbst deren Unterstützung für das freie Unternehmertum nimmt ab, weil Nationalismus und nationale Identität für sie letztlich ökonomische Fragen verdrängen.

Aus diesem Grund vertritt Premierminister Johnson trotz des massiven Arbeitskräftemangels, der derzeit in Großbritannien herrscht, eine harte Haltung zur Einwanderung. Kürzlich gab er der „unkontrollierten Einwanderung“ die Schuld am Untergang des Römischen Reiches und betonte, dass er nicht zulassen werde, dass England zu dem „gleichen alten, kaputten Modell mit niedrigen Löhnen, geringem Wachstum, geringer Qualifikation und niedriger Produktivität“ zurückkehre.

Es war absehbar, dass die gleichen wahltaktischen Überlegungen, die seine einwanderungsfeindliche Haltung bestimmten, ihn auch dazu bringen würden, im Namen des wirtschaftlichen Nationalismus einen industriepolitischen Pfad einzuschlagen. Und genau das ist der Fall. Johnsons Regierung hat wenig bis gar keine Anstrengungen unternommen, die meisten EU-Vorschriften abzubauen. Vielmehr versuchen sie, die Vorschriften so umzubauen, dass sie einem vermeintlichen nationalen Interesse Großbritanniens dienen.

Es gibt jedoch eine wichtige Einschränkung von Johnsons wirtschaftlichem Nationalismus – und die betrifft die Handelspolitik. Historisch gesehen hat der Freihandel in Großbritannien immer starke und breite Zustimmung gefunden – in einem Ausmaß, das in Europa seinesgleichen sucht. Der Grund dafür ist die ungewöhnliche Unterstützung für den Freihandel unter den Wählern der Arbeiterklasse, die bis in die 1840er Jahre zurückreicht. Seit der Aufhebung der Corn Laws im Jahr 1846 ist das Prinzip des Freihandels Teil der populären Kultur insbesondere der britischen Arbeiterklasse und der unteren Mittelschicht. Protektionismus wurde (zu Recht) als eine Verschwörung von Sonderinteressen betrachtet, die darauf abzielt, die Lebenshaltungskosten für die einfachen Leute zu erhöhen, um sich selbst zu bereichern. Dies erklärt, warum die Labor Party und die Gewerkschaften zumeist eine offene Handelspolitik befürwortet haben, während die eher nationalistische Konservative Partei manchmal den Protektionismus unterstützt hat.

Auch wenn die Wahlanreize in Richtung einer interventionistischeren und nationalistischeren Wirtschaftspolitik weisen, ist also ein umfassender Protektionismus für Großbritannien nicht zu erwarten. Stattdessen werden wir wahrscheinlich eine hybride Position sehen, die den Freihandel (vor allem bei Lebensmitteln, aber auch in anderen Bereichen) mit anderen Formen der Intervention kombiniert, wie z. B. dem gezielten Einsatz staatlicher Ankäufe zur Unterstützung heimischer „Champions“. Dies steht in krassem Gegensatz zu den Vereinigten Staaten, wo der Protektionismus seit Alexander Hamilton sehr beliebt ist, nicht zuletzt bei den amerikanischen Arbeitern.

Es gibt Anzeichen dafür, dass die Johnson-Regierung tatsächlich in diese Richtung geht. Es gab einen großen Vorstoß zum Abschluss von Handelsabkommen mit anderen Ländern und zur Öffnung des Handels mit Ländern wie Indien und Australien, wo dies zuvor aufgrund der gemeinsamen Außenzölle und der Handelspolitik der EU nicht möglich war. All dies findet breite Zustimmung, wie sehr es auch bestimmten Sonderinteressen missfallen mag. Dann würden die Hoffnungen der globalistischen und marktwirtschaftlichen Brexit-Befürworter zwar in vielerlei Hinsicht enttäuscht werden, sich aber wenigstens in Bezug auf den Handel zu einem gewissen Grad erfüllen.

Aber der entscheidende Begriff ist „zu einem gewissen Grade“.

Wenn man sich nämlich viele der bisherigen Handelsabkommen ansieht, stellt man fest, dass sie lediglich Neuauflagen der früheren EU-Abkommen sind. Außerdem erweisen sich die Verhandlungen mit Ländern wie Indien und Australien als langsam und schwierig. Der Grund dafür liegt in der Art der heutigen Handelspolitik, die das Wachstum eines internationalen Systems harmonisierter Vorschriften widerspiegelt. Dies ist das Ergebnis eines Prozesses, der auf die Gründung des GATT im Jahr 1947 zurückgeht. Handelsabkommen sind nicht mehr in erster Linie auf die Abschaffung von Zöllen oder Quoten ausgerichtet. Vielmehr geht es um die Harmonisierung und Angleichung der Rechtsvorschriften, da die Konflikte zwischen den Vorschriften heute das Haupthindernis für Handel und Austausch darstellen. Dies ist ein sehr schwieriger und komplexer Prozess, der auch vielerlei Einfallstore für Sonderinteressern bietet.

Darüber hinaus gibt es Spannungen zwischen den Wünschen der Wähler, auch in Bezug auf den Handel. Sie wollen freien Handel mit anderen Ländern, aber sie wollen nicht, dass ihre Regierung Subventionen für einheimische Unternehmen abschafft, die von potenziellen Handelspartnern abgelehnt werden, weil diese Partner dadurch in Großbritannien weniger wettbewerbsfähig werden. Saubere Freihandelsabkommen erfordern ein beträchtliches Maß an politischem Mut, über den die Regierung Johnson offensichtlich nicht verfügt.

Aber wenn Johnson nach dem Brexit nicht einmal wesentlich bessere Handelsabkommen vorlegen kann, wird immer deutlicher, dass er den Globalisten eine Mogelpackung verkauft hat. Der Brexit könnte Großbritannien auf einen beschleunigten Weg des wirtschaftlichen Nationalismus gebracht haben, der hohe Regulierungsdichte mit aggressivem Interventionismus verbindet. Tragischerweise könnten Globalisten wie Nelson dazu beigetragen haben , indem sie sich für die falsche Seite entschieden haben.

Erstmals veröffentlicht bei The UnPopulist.

Photo: Dan Meyers from Unsplah (CC 0)

Von Alexander Horn, Geschäftsführer von Novo Argumente und Unternehmensberater. Zuletzt erschien sein Buch „Die Zombiewirtschaft – Warum die Politik Innovation behindert und die Unternehmen in Deutschland zu Wohlstandsbremsen geworden sind“ mit Beiträgen von Michael von Prollius und Phil Mullan.

Vor ziemlich genau zehn Jahren, kurz vor der Hannover-Messe 2011, prognostizierten Vertreter der Initiative „Industrie 4.0“ eine Transformation der industriellen Produktion, die in eine „vom Internet getriebene 4. industrielle Revolution“ führen werde. Deutschland, so vermuteten damals Henning Kagermann, Dieter Lukas und Wolfgang Walser, drei Vertreter dieser Vision aus Wirtschaft, Politik und Wissenschaft, könne wegen seines „hochinnovativen produzierenden Gewerbes“ eine führende Rolle einnehmen.

Es gehe darum, in Wertschöpfungsprozessen eine Brücke zwischen virtueller und dinglicher Welt entstehen zu lassen und den industriellen Transformationsprozess in Richtung „noch stärkerer Automatisierung“ voranzutreiben. Hinzu komme nun „die Entwicklung intelligenter Überwachungs- und autonomer Entscheidungsprozesse, … um Unternehmen und ganze Wertschöpfungsnetzwerke in nahezu Echtzeit steuern und optimieren zu können.“[1]

Produktivitätsrätsel

Seitdem hat diese Idee einer anstehenden Verschmelzung digitaler Modelle mit der physischen Realität in Wertschöpfungsprozessen einen regelrechten Hype ausgelöst. In der Politik wurde „Industrie 4.0“ begierig aufgegriffen, weil die stärkere Digitalisierung eine Steigerung der Wettbewerbsfähigkeit sowie eine ressourcen- und energieeffizientere Wirtschaftsweise versprach. In den letzten Jahren ist die Digitalisierung sogar zu einem Mega-Thema geworden. So soll das politische Ziel erreicht werden, wirtschaftliches Wachstum vom Ressourcenverbrauch zu entkoppeln und einen wichtigen Beitrag gegen den Klimawandel zu leisten.

Aber auch in der Wirtschaft ist viel passiert. Unternehmen entwickeln sich Schritt für Schritt von Massenproduzenten zu Herstellern von individualisierten und maßgeschneiderten Kundenlösungen, was ihnen die Fähigkeit abverlangt, kleinere Serien oder sogar in Losgröße 1 hocheffizient produzieren zu können. Viele Vorreiterunternehmen, die Grundprinzipien von „Industrie 4.0“ anwenden, haben sich durch digitale Vernetzung ihrer Produktion in Richtung sogenannter „smart factories“ entwickelt. Die breite Masse der Unternehmen ist jedoch bei der Umsetzung dieser Vision bisher kaum vorangekommen, denn die Steigerung der Arbeitsproduktivität – das typische Merkmal früherer industrieller Revolutionen – ist in den meisten Industriebranchen in Deutschland bis heute ausgeblieben.

Schon die dritte industrielle Revolution, die auf den Einsatz von Elektronik und IT seit Mitte der 1970er Jahre zurückgeführt wird, hatte in Deutschland keinen zusätzlichen Effekt in der Arbeitsproduktivität ausgelöst. Bereits vor mehr als 30 Jahren wies Robert Solow, der für seine Forschungen zum technologischen Fortschritt den Wirtschaftsnobelpreis erhielt, auf die widersinnige Produktivitätsentwicklung im Kontext der digitalen Revolution hin: „Man sieht das Computerzeitalter überall, nur nicht in den Produktivitätsstatistiken“, schrieb er damals.[2] Seitdem gab es zumindest in den USA Ende der 1990er und Anfang der 2000er Jahre einen spürbaren Produktivitätseffekt hoher IT-Investitionen, der danach aber wieder abebbte. In anderen entwickelten Ländern wie in Deutschland trat ein solcher Effekt – wenn überhaupt – nur abgeschwächt auf.

Tatsächlich hat sich die Arbeitsproduktivität in Deutschland seit den 1970er Jahren immer schwächer entwickelt. Nachdem es der Industrie seinerzeit noch gelang, innerhalb einer Dekade die Arbeitsproduktivität um etwa 50 Prozent zu steigern, reduzierte sich der Produktivitätsfortschritt auf nur noch etwa 30 Prozent in den folgenden Jahrzehnten. Seit 2011, dem virtuellen Startschuss der vierten industriellen Revolution, hat die Industrie bis Ende 2017, also kurz vor dem Beginn der Industrierezession in Deutschland, nur noch knapp 9 Prozent erreicht. Bis 2020 ist dieser minimale Anstieg, infolge eines eingetretenen Produktivitätsrückgangs, jedoch fast vollkommen zunichte gemacht worden.[3] Das heutige Produktivitätsniveau der Industrie ist also mit dem des Jahres 2011 fast identisch.[4]

Digitale und physische Welt

Der Frage, worauf dieser Widerspruch zwischen seit Jahrzehnten steigenden IT-Investitionen der Unternehmen, die einen immer größeren Anteil der Gesamtinvestitionen ausmachen, und dennoch sogar stagnierender Arbeitsproduktivität beruhen könnte, gehen das Institut für Lernen und Innovation in Netzwerken (ILIN) und das Fraunhofer-Instituts für System- und Innovationsforschung (ISI) in der Studie „Wertschöpfungspotenziale 4.0“ auf den Grund. Dies zu klären, sei für das Hochlohnland Deutschland entscheidend, denn um „hochwertige Produkte zu konkurrenzfähigen Preisen herstellen zu können, ist eine hohe Produktivität von großer Wichtigkeit und somit wesentlich zum Erhalt der Wettbewerbsfähigkeit.“[5]

Das entscheidende Manko der Digitalisierungsbestrebungen sehen die Forscher um Prof. Steffen Kinkel von der Hochschule Karlsruhe darin, dass die Unternehmen zu einseitig auf IT-Lösungen setzen, obwohl Produktivitätsfortschritte in erster Linie auf Prozessverbesserungen beruhen. Denn die Digitalisierung der Produktion, führe „nicht zwangsläufig zu Produktivitätszuwächsen. Die Digitalisierung ineffizienter Prozesse führt zu ineffizienten digitalen Prozessen.“[6]

So zielen viele Digitalisierungsprojekte ausschließlich darauf ab, die Komplexität von Produktions- und Logistikstrukturen mit Hilfe mächtiger IT-Werkzeuge zu beherrschen. Oft wird nicht der Versuch unternommen, die Komplexität der Abläufe zunächst durch Veränderungen der physischen Prozesslandschaft zu reduzieren, also leichter beherrschbar zu machen. Man glaubt, mit Hilfe von IT-Lösungen den einfachen Weg gehen zu können und den in echten Innovationen steckenden Herausforderungen ausweichen zu können. Dieser Innovationspfad ist nicht trivial und würde Thomas Alva Edison zufolge „99 Prozent Transpiration und ein Prozent Inspiration“ bedeuten.

Die zur Prozesssteuerung erforderliche Transparenz („Daten in Echtzeit“) sowie Produktivitätspotenziale oder die Fähigkeit der Einzelstückfertigung lassen sich typischerweise erst erschließen, wenn man bei der Digitalisierung ähnlich wie bei der Automatisierung vorangeht: Erst organisieren, also die Prozesse gut strukturieren, dann optimieren, also die physischen Abläufe in Richtung des Ziels, z.B. die effiziente Erzeugung individueller Kundenprodukte oder Dienstleistungen, verändern. Erst dann folgt der Schritt des Automatisierens bzw. Digitalisierens. Letztlich, so Oliver Prause, Vorstand des Instituts für Produktionserhaltung (infpro), das die Studie in Auftrag gegeben hat, müsse in das Bewusstsein der Führungskräfte in den Unternehmen gerückt werden, dass „die Verbesserung der Wertschöpfung zu Produktivitätsfortschritten führt und nicht die Digitalisierung.“

ISI und ILIN kommen aufgrund eigener wie auch fremder Forschungen sowie Experteneinschätzungen zu dem Ergebnis, dass im Verarbeitenden Gewerbe ein Wertschöpfungspotenzial von etwa 95 Milliarden Euro steckt. Das entspreche einer Arbeitsproduktivitätsverbesserung von 14,2 Prozent. Diese könne realisiert werden, wenn sogenannte Lean-Prinzipien, die insbesondere in der deutschen Automobilindustrie seit Jahrzehnten sehr erfolgreich angewendet werden und dazu dienen nicht wertschöpfende Tätigkeiten aus den Arbeitsprozessen zu eliminieren, umfänglich zur Verbesserung der physischen Prozesse eingesetzt würden. Aus den bisherigen wissenschaftlichen Erkenntnissen ließe sich ableiten, dass „die Anwendung von Lean-Prinzipien und der Einsatz von Technologien zur digitalen Vernetzung der Produktion Möglichkeiten“ der Kombination böten. Zudem ließen sich aus den Ähnlichkeiten der Konzepte Synergien erschließen.[7]

Rückgang transformativer Investitionen

Die Ergebnisse der Studie deuten darauf hin, dass Digitalisierungsprojekte vielfach dazu dienen, schwierigen sowie aufwendigen und zudem oft kapitalintensiven Verbesserungen der physischen Wertschöpfung auszuweichen – was die Produktivitätsentwicklung blockiert. Tatsächlich sind im Verarbeitenden Gewerbe die für technologischen Fortschritt und Arbeitsproduktivitätsverbesserungen entscheidenden Ausrüstungsinvestitionen im Verhältnis zur Bruttowertschöpfung von über 12 Prozent Anfang der 1990er Jahr auf nur noch etwa 8 Prozent in den 2010er Jahren gesunken. Sogar besonders erfolgreiche Branchen wie der Maschinenbau – mit etwa einer Million Beschäftigten eine der größten deutschen Industriebranchen – ist in Verbindung mit einer schwachen Investitionsentwicklung von einer Produktivitätsstagnation betroffen.

Eine vom Verband Deutscher Maschinen- und Anlagenbau (VDMA) beauftragte Studie aus dem Jahr 2016 ging der Frage nach, warum es den erfolgreichen Maschinenbauern nicht gelungen war, hohe Digitalisierungsaufwendungen in Produktivitätsgewinne umzumünzen. Die „rasche Verbreitung einer umfassenden, intensiven Digitalisierung in der Produktion des Maschinenbaus trägt aktuell nicht zu Produktivitätsgewinnen bei“, analysierten die Forscher, für Investitionen in Software zeige sich im Gegenteil „sogar ein negativer Produktivitätseffekt“.[8]

Zwar haben die Maschinenbauunternehmen ihre IT-Investitionen seit Jahrzehnten stetig ausgeweitet, gleichzeitig sinkt jedoch der Anteil der Investitionen in Sachanlagen, also Ausrüstungen und Bauten, kontinuierlich. Damit folgt die Branche dem in Deutschland in allen Wirtschaftsbereichen vorherrschenden Trend: Der Anteil der Investitionen für die Verbesserung von Produkten und Prozessen wird zugunsten von Investitionen in geistiges Eigentum, vor allem Forschungs- und Entwicklungsaufwendungen, sowie IT-Investitionen, reduziert. In der Industrie geht inzwischen mehr als jeder zweite investierte Euro in geistiges Eigentum.[9]

Es ist sicherlich kein Nachteil, wenn die Unternehmen zunehmend auf Forschung und Entwicklung setzen und auch auf technologische Fortschritte in IT und Elektronik. Ein Problem besteht jedoch, wenn dies immer weniger als Ergänzung zur Weiterentwicklung der Prozesse in Richtung höherer Produktivität und Wettbewerbsfähigkeit geschieht, sondern Investitionen in geistiges Eigentum diese ersetzen. Daher ist die als „Paradoxon“ empfundene Diskrepanz zwischen einer Produktivitätsschwäche einerseits und voranschreitender Digitalisierung andererseits ein „Alarmzeichen“, wie der frühere VDMA-Präsident Thomas Lindner schon vor Jahren erkannte.[10] Denn wenn noch so viele neue Ideen nicht in innovativeren Produkten und produktiveren Prozessen münden, bleibt die Wettbewerbsfähigkeit auf der Strecke.


[1] https://www.dfki.de/fileadmin/user_upload/DFKI/Medien/News_Media/Presse/Presse-Highlights/vdinach2011a13-ind4.0-Internet-Dinge.pdf

[2] R. M. Solow: „We’d Better Watch Out,” New York Times, Juli 1987, S. 36.

[3] Statistisches Bundesamt, Fachserie 18, Reihe 1.5, 2020, Tabelle 2.14 Arbeitsproduktivität je geleisteter Erwerbstätigenstunde.

[4] Die im September 2021 aktualisierten Zahlen des Statistischen Bundesamtes weisen einen Anstieg des Indexes der Arbeitsproduktivität je geleisteter Erwerbstätigenstunde von 98,53 (2011) auf 102,25 (2020) für das Verarbeitende Gewerbe aus. Demnach ist die Arbeitsproduktivität in der Industrie innerhalb des Zehnjahreszeitraums um durchschnittlich etwa 0,3 Prozent pro Jahr gestiegen.

[5] Steffen Kinkel et al: „Wertschöpfungspotenziale 4.0“, 2021, S. 7.

[6] Ebd. S. 8.

[7] Ebd. S. 21.

[8] IMPULS-Stiftung für den Maschinenbau, den Anlagenbau und die Informationstechnik: „Produktivitätsparadoxon im Maschinenbau“, Oktober 2018, S. 67 u. 15.

[9] Deutsche Bank Research: „Deutsche Industrie – Wenige Sektoren tragen Investitionswachstum“ in: Deutschland-Monitor, 21.01.2019, S. 1.

[10] „Die Schattenseiten der Digitalisierung“ in: F.A.Z., 15.10.2018, S. 17.

Photo: Mael BALLAND from Unsplash (CC 0)

Von Kalle Kappner, wissenschaftlicher Mitarbeiter an der Humboldt-Universität zu Berlin, Research Fellow bei IREF, Fackelträger von Prometheus.

Zu träge, zu partikularistisch und zu unübersichtlich: Im Zuge der Corona-Pandemie geriet der Föderalismus in Deutschland und anderen Ländern in die Kritik. Nicht wenige Kommentatoren wünschen sich angesichts eines angeblich unübersichtlichen „Flickenteppichs“, eines unkoordinierten „Klein-Kleins“ und ungerechter Unterschiede zwischen den Eindämmungsmaßnahmen der Länder einen zentralisierteren Ansatz – eine durchregierende Krisenkanzlerin statt allwöchentlicher Ministerpräsidentenkonferenzen.

Zwar beleuchtet die politökonomische Forschung die abstrakten Vor- und Nachteile föderaler Staatsorganisation bis ins Detail. Doch ob dezentrale Entscheidungsmechanismen während einer Pandemie mehr Nutzen stiften, als sie Kosten verursachen, ist nicht eindeutig. Dieser Beitrag beleuchtet die Rolle föderaler Institutionen zunächst aus theoretischer Perspektive.

Erste qualitative Experteneinschätzungen über die Seuchenschutzpolitik der letzten anderthalb Jahre stellen dem deutschen, kooperativ ausgerichteten Föderalismus ein überwiegend positives Zeugnis aus. Im zweiten Teil des Beitrags wird dieser Eindruck durch den internationalen Vergleich zentraler Indikatoren für den Erfolg des staatlichen Krisenmanagements ergänzt.

Effizienter Wettbewerb und Bürgernähe…

Föderale Staaten zeichnen sich durch ein hohes Maß an vertikaler Gewaltenteilung aus, das die in allen Demokratien übliche horizontale Gewaltenteilung ergänzt. In einem Föderal- oder Bundesstaat nehmen die jeweiligen souveränen Gliedstaaten eigenständige legislative, judikative und exekutive Aufgaben wahr, während sie in zentralistischen Staaten vornehmlich administrativen Zwecken dienen. Weltweit besitzen etwa 25 Staaten eine föderale Verfassung, darunter die Bundesrepublik Deutschland.

Die politökonomische Forschung identifiziert einige potenzielle Vorteile föderaler Staatsorganisation. Prinzipiell können aufgrund der dezentralen Kompetenzverteilung lokale Umstände, Präferenzen und Informationen in der politischen Entscheidungsfindung stärker berücksichtigt werden. Wenn die einzelnen Gliedstaaten im Wettbewerb um Bürger, Unternehmen und Investitionen stehen, verspüren deren politische Entscheidungsträger einen zusätzlichen Anreiz, öffentliche Güter im angemessenen Rahmen bereitzustellen. Die daraus resultierenden Effizienzgewinne sind nicht rein statischer Natur – bestenfalls fungieren die Gliedstaaten als „Labore der Demokratie“, in denen mit neuen Lösungsansätzen experimentiert wird, ohne dass die Folgen gravierender Fehlentscheidungen den ganzen Staat betreffen.

… oder teurer, unübersichtlicher Flickenteppich?

Den potenziellen Effizienzgewinnen und Lernprozessen stehen typischerweise höhere Koordinationskosten föderal organisierter Staaten gegenüber. Wenn die Entscheidungen einzelner Gliedstaaten unerwünschte Folgen für andere Mitglieder der Föderation hervorrufen können oder sinnvollerweise einheitlich zu treffen sind, werden Absprachen notwendig. Misslingen diese, entsteht der sprichwörtliche „Flickenteppich“, der nicht nur unübersichtlich, träge und ineffizient, sondern auch ungerecht und konfliktfördernd sein kann. Gehen die zwischenstaatlichen Koordinationsbemühungen hingegen zu weit, entsteht ein „föderales Kartell“, das sich in der Praxis kaum von zentralistischen Staaten unterscheidet, jedoch ohne deren typischerweise schnellere Entscheidungsprozesse auskommen muss.

Der Erfolg föderaler Modelle hängt daher von einer feinen Balance zwischen kooperationsfördernden Institutionen und regulatorischem Wettbewerb, eingespielten Abstimmungsroutinen und einer angemessenen vertikalen und horizontalen Kompetenzverteilung ab. Entsprechend differenziert die Literatur föderale Staaten hinsichtlich des Grades der Verflechtung von Politikkompetenzen und der Verbreitung kooperativer oder kompetitiver Entscheidungsprozesse. Die Bundesrepublik wird in diesem Sinne als kooperativer, verflechteter Föderalstaat eingeordnet, was sich unter anderem in der konkurrierenden Gesetzgebung, dem Länderfinanzausgleich und der grundgesetzlich angestrebten Gleichwertigkeit der Lebensverhältnisse ausdrückt.

Pandemie und Föderalismus

Wenngleich die abstrakten Vor- und Nachteile des Föderalismus wohlbekannt sind, ist deren konkrete Bewertung in einzelnen Politikfeldern selten eindeutig. Das beste Beispiel liefert die Corona-Pandemie. Vielfach argumentieren Kommentatoren, dass während Pandemien die „Stunde des Zentralstaats“ schlüge. Da global um sich greifende Seuchen per Definition nicht an der Grenze einzelner Gliedstaaten Halt machen, spräche wenig für lokales „Klein-Klein“ und viel für nationale und internationale Koordination. Auch die besondere Dringlichkeit mit der Seuchenschutzmaßnahmen zu treffen seien, liefert den Kritikern langwieriger föderaler Diskussionen und Abstimmungen Munition.

Kritiker zentralstaatlicher Ansätze weisen dagegen darauf hin, dass wenig Konsens über angemessene Maßnahmen bestehe. Weder seien die medizinischen, wirtschaftlichen und sozialen Folgen der Pandemie absehbar, noch gäbe es aus epidemiologischer Sicht ein eindeutiges, auf alle Teile eines Landes einheitlich anzuwendendes Anti-Krisen-Rezept. Da verschiedene Seuchenschutzmaßnahmen unbekannte aber potenziell erhebliche Kosten mit sich brächten, käme lokalen Experimenten, Lerneffekten und Interessenausgleichsmechanismen eine wichtige Rolle zu; daher schlüge vielmehr die „Stunde des Föderalismus“.

Deutscher Föderalismus: Bisher bewährt

Doch grau ist alle Theorie. Wie haben sich föderale und zentralistisch organisierte Staaten in den letzten anderthalb Krisenjahren geschlagen? Eine detaillierte wissenschaftliche Auseinandersetzung wird erst in den nächsten Jahren möglich sein, doch erste fachliche Einschätzungen fällen ein überwiegend positives Urteil über das föderale Krisenmanagement.

Speziell für Deutschland finden wissenschaftliche Beobachter nur wenige Hinweise darauf, dass die Kompetenzaufteilung zwischen Bund und Ländern die Handlungsfähigkeit des Staates und die Wirksamkeit bisheriger Maßnahmen beeinträchtigt hat. Auf Basis bestehender föderaler Institutionen wie der Ministerpräsidentenkonferenz koordinierten sich die Länder und der Bund im Frühjahr 2020 im Rekordtempo und verzichteten dabei weitgehend auf unilaterale Entscheidungen. Im weiteren Verlauf etablierten die föderalen Partner einen durchaus erfolgreichen Mix aus lokalen Ansätzen und spontan koordinierten gemeinsamen Unterstandards. Dem Bund kam dabei eine weitgehend empfehlende Funktion zu – er übernahm aber auch Aufgaben, die sinnvollerweise auf nationaler Ebene anfallen, etwa den Einkauf medizinischer Ausrüstung.

Auch in anderen Föderalstaaten wie der Schweiz, Österreich und den USA fällt das Zwischenfazit über das dezentrale Krisenmanagement überwiegend positiv aus – anders jedoch in Australien und Indien. Dieser qualitative Eindruck wird ergänzt durch einen länderübergreifenden Vergleich zentraler Indikatoren für den Erfolg des staatlichen Pandemie-Managements. Über 80 Länder in Europa, Amerika und Südostasien hinweg bestätigt sich die These des handlungsunfähigen Föderalismus nicht. Weder fordert Covid-19 in föderalen Staaten überproportional viele Todesopfer, noch fallen staatliche Eindämmungsmaßnahmen laxer oder strikter aus. Auch die Verabreichung von Impfstoffen erfolgt in föderalen Ländern in einem ähnlichen Tempo wie in zentralisierten Staaten.

Aller Schelte in den Medien zum Trotz hat der Föderalismus in den Augen der Deutschen im Zuge der Pandemie ausweislich repräsentativer Umfragen sogar an Ansehen gewonnen. Dies deutet darauf hin, dass die Vorteile eines dezentralen Staatswesens hinsichtlich der Berücksichtigung lokaler Verhältnisse und Anforderungen gerade in Krisenzeiten zur Geltung kommen.

Föderale Staaten in der Krise nicht schlechter gefahren

Da die formale verfassungsrechtliche Definition föderaler Staaten nicht notwendigerweise eine tatsächlich stark ausgeprägte Dezentralisierung staatlicher Kompetenzen impliziert, bietet sich ein Vergleich auf Basis des Regional Authority Index (RAI) an. Dieser Index misst den Entscheidungsspielraum föderaler Gliedstaaten relativ zum Zentralstaat für 80 europäische, amerikanische und südostasiatische Länder anhand zehn verschiedener Indikatoren auf einer Skala von 0 (zentralisiert) bis 100 (dezentralisiert). Im aktuellsten Berichtsjahr (2016) kam Deutschland auf einen Wert von 37,4 – das ist der höchste Wert unter allen untersuchten Ländern.

Dezentralisierung und Inzidenz: Kein statistischer Zusammenhang

Oberstes Ziel des Seuchenschutzes ist es, Todesfälle durch Covid-19 zu vermeiden. Wird die Gesamtzahl der bis einschließlich 20. Juni 2021 registrierten Todesfälle ins Verhältnis zur Bevölkerung gesetzt, findet sich ein schwacher positiver Zusammenhang mit dem Dezentralisierungsgrad eines Staates. Statistisch ist dieser Effekt nicht signifikant, auch wenn für Unterschiede im (kaufkraftkorrigierten) Pro-Kopf-Einkommen und die Bevölkerungsdichte kontrolliert wird.

Deutschland liegt mit knapp 1.080 Todesfällen pro Million unter dem Gesamt- und OECD-Durchschnitt (1.148 bzw. 1.281). Insbesondere innerhalb der Gruppe der strukturell vergleichbaren 37 OECD-Länder finden sich föderale Länder sowohl mit niedriger Inzidenz (Australien) als auch solche mit hoher Inzidenz (USA). Das zentralistische Großbritannien weist eine hohe Inzidenz auf, während das ähnlich zentralistische Südkorea wenig Fälle erleiden musste. Wenn der Föderalismus in der Krise zur Last werden sollte, drückt sich dies zumindest nicht in höheren Todeszahlen aus.

Föderale Staaten weder laxer noch strikter

Im Zuge der Pandemie setzten Staaten auf zahlreiche Eindämmungsinstrumente wie den Maskenzwang, Grenzschließungen, Lockdowns und Mobilitätseinschränkungen. Der von der Universität Oxford konstruierte Containment and Health Index (CHI) bildet die Strenge derartiger und weiterer Maßnahmen auf einer Skala von 0 (lax) bis 100 (strikt) tagesaktuell ab. Wird der durchschnittliche CHI-Wert eines Staates zwischen dem 11. März 2020 (Pandemie-Erklärung der WHO) und dem 20. Juni 2021 zugrunde gelegt, ergibt sich kein signifikanter Zusammenhang mit dessen Dezentralisierungsgrad. Auch nach Korrektur für das Pro-Kopf-Einkommen und die Bevölkerungsdichte entsteht kein statistisch signifikanter Zusammenhang.

Mit einem durchschnittlichen CHI-Wert von 64,1 liegt Deutschland leicht über den Gesamt- und OECD-Durchschnittswerten (beide 60,2). Einige Kritiker des Föderalismus befürchten, dass dezentrale Entscheidungen in der Pandemie zu zaghaften Eindämmungsmaßnahmen führen – dem sprichwörtlichen „kleinsten gemeinsamen Nenner“. Andere Kommentatoren befürchten einen Überbietungswettbewerb, in dem sich Regionalfürsten mit den härtesten Ansätzen gegenseitig überbieten. Die Daten legen dagegen nahe, dass föderale Staaten auf die Pandemie bisher weder besonders lax, noch besonders strikt reagierten.

Zentral- und Föderalstaaten impfen ähnlich schnell

Zu Beginn des aktuellen Jahres trat die Beschaffung und Verteilung von Impfstoffen in den Vordergrund des staatlichen Krisenmanagements. Zwar wird der Einkauf auch in föderalen Staaten zentralistisch organisiert – im Fall der EU sogar weitgehend supranational. Doch die jeweiligen Gliedstaaten spielen bei der Organisation und Durchführung von Impfkampagnen potenziell eine wichtige Rolle. Als Indikator für den Erfolg staatlicher Impfkampagnen bietet sich der Anteil der mindestens einmal geimpften Bürger an der Bevölkerung an, die Erstimpfungsquote. Diese fällt in föderalen Staaten leicht höher aus. Doch ist auch dieser Zusammenhang statistisch nicht signifikant, auch nach Berücksichtigung unterschiedlicher Pro-Kopf-Einkommen und Bevölkerungsdichten.

Am 20. Juni 2021 betrug Deutschlands Erstimpfungsquote 50,4 %, ein weit über dem Gesamt- und OECD-Durschnitt liegender Wert (32 % bzw. 44,6 %). Eine föderale Staatsorganisation steht einer zügigen Durchimpfung der Bevölkerung offensichtlich nicht im Weg, wie Deutschland und die USA illustrieren. Andererseits preschen mit Israel und Großbritannien zwei besonders zentralistische Staaten voran. Mit Australien und Japan weisen zwei außerhalb der EU liegende Staaten trotz des unterschiedlichen Dezentralisierungsgrades eine ähnlich niedrige Impfquote auf.

Der Föderalismus funktioniert auch in der Krise

Im Zuge der Pandemie ist das Ansehen des Föderalismus in der deutschen Bevölkerung laut repräsentativer Umfragen deutlich gestiegen. Das mag angesichts der überwiegend kritischen Medienkommentare zum angeblich unübersichtlichen, chaotischen und widersprüchlichen Krisenmanagement zunächst verwundern.

Doch das hohe Ansehen föderaler Institutionen steht im Einklang mit der positiven Einschätzung seitens wissenschaftlicher Beobachter. Auch ein systematischer Vergleich dreier zentraler Indikatoren zwischen zentralistischen und föderalen Staaten verdeutlicht, dass dezentrale Entscheidungsmechanismen in der Pandemie nicht hinderlich waren. Unberücksichtigt lässt dieser Vergleich den schwer quantifizierbaren, in Krisen jedoch möglicherweise gewichtigsten Vorzug des Föderalismus: Mit den Föderalstaaten schützt eine zusätzliche Instanz die Bürger vor massiven Freiheitseinschränkungen und der Aushöhlung von Grundrechten.

Erstmals erschienen bei IREF (Teil 1/Teil 2).

Photo: lawrence wilcox from Unsplash (CC 0)

Von Kalle Kappner, wissenschaftlicher Mitarbeiter an der Humboldt-Universität zu Berlin, Research Fellow bei IREF, Fackelträger von Prometheus.

Über den disziplinierenden Einfluss auf die Geldpolitik hinaus motiviert Bitcoin die Zentralbanken längst dazu, über die Etablierung staatlicher Digitalwährungen nachzudenken. Unabhängig von den geldpolitischen Konsequenzen dürften die Nutzer staatlicher Währungen in den nächsten Jahren Innovationen erwarten.

Dezentrale Zahlungsplattform, disruptive Kryptowährung, ultimative Krisenschutzanlage – dem seit 2009 operierenden Bitcoin-Protokoll wird seitens enthusiastischer Kleinanleger, FinTech-Unternehmen und zunehmend auch professionellen Investoren viel Potenzial zugeschrieben. Allen Unkenrufen und kurzfristigen Rückschlägen zum Trotz legte die Digitalwährung in den letzten zwölf Jahren ein enormes Kurswachstum hin. 2010 gab es für 10.000 bitcoins zwei Pizzen; heute wird ein bitcoin für mehr als 30.150 € gehandelt.

Geldpolitiker und Ökonomen haben den Ausbau der Bitcoin-Finanzarchitektur von Beginn an interessiert begleitet. Sie zeigten sich jedoch stets skeptisch hinsichtlich des Potenzials, etablierten Währungen wie dem Euro ernsthafte Konkurrenz zu machen. Die Kritik geht dabei über den noch unklaren volkswirtschaftlichen Nutzen der Kryptowährung hinaus; wenig attraktiv erscheint Kritikern auch der im Vergleich zu etablierten Zentralbankwährungen geringe geldpolitische Gestaltungsspielraum.

Einige profilierte Ökonomen landeten in der Vergangenheit mit besonders abschätzigen Kommentaren in den Medien. So nennt Paul Krugman Bitcoin ein durch „technisches Geschwafel und libertäre Hirngespinste getriebenes Schneeball-System“; Jeffrey Sachs spricht von „wertlosem, umweltschädlichen Falschgeld“; Der Finanzmarktforscher Jon Danielsson meint lakonisch: „Kryptowährungen ergeben keinen Sinn“. Diese harschen Urteile sollten indes nicht darüber hinwegtäuschen, dass zwischen Zentralbanken, Ökonomen und Digitalwährungsenthusiasten längst ein fruchtbarer Austausch stattfindet. Die Privatgeld-Revolution mag ausbleiben, doch einen Einfluss auf die geldpolitische Forschung und Praxis übt Bitcoin längst aus.

Geldfunktionen nur sehr eingeschränkt erfüllt

Sowohl die umfassende Software- und Nutzerinfrastruktur („Bitcoin“) als auch individuell gehaltene Token („bitcoins“) werden in der Regel als „Kryptowährung“ betitelt. Den meisten Kommentatoren fällt es indes schwer, zu definieren, was genau Bitcoin eigentlich ist. Das 2008 veröffentlichte Bitcoin-Whitepaper beschreibt ein innovatives Zahlungssystem, das dank eines dezentralen Grundbuchs sichere Transaktionen auch ohne zentrale Verifizierungsinstanz erlaubt. Auf Basis dieser technologischen Neuerung verbanden sich in den Folgejahren viele Hoffnungen mit der wachsenden Bitcoin-Infrastruktur, insbesondere die Vorstellung einer rein privat organisierten Währung, die Zentral- und Geschäftsbanken obsolet macht, Transaktionen verbilligt und das Finanzsystem demokratisiert.

Dieser Traum hat sich bisher nicht bewahrheitet. Bitcoin erfüllt die klassischen drei Geldfunktionen – Tauschmittel, Wertaufbewahrungsmittel und Recheneinheit – trotz wachsender Nutzerzahlen nur sehr eingeschränkt. Der Bitcoin-Kurs ist sehr volatil, was die Kryptowährung als Wertaufbewahrungsmittel disqualifiziert. Individuelle Transaktionen kosten viel Zeit und Ressourcen. Bisher akzeptieren nur wenige Händler bitcoins. Bitcoins sind weit davon entfernt ein allgemein akzeptiertes Tauschmittel zu sein. Als genuine Recheneinheit bevorzugen selbst die Händler, die auch bitcoins akzeptieren, Dollar, Euro und Yen. Einigen alternativen Kryptowährungen („Altcoins“) gelingt es zwar, Transaktionskosten, Ressourcenverbrauch und Volatilität deutlich zu senken, doch angesichts Bitcoins Dominanz im Kryptomarkt ist es fraglich, ob die Mitbewerber sich durchsetzen können.

Wenn Bitcoin kein Geld ist, was ist es dann? Aktuell werden bitcoins nahezu ausschließlich als Anlageobjekt gehalten – eine Rolle, die im ursprünglichen Whitepaper nicht angedacht war. Bitcoins Attraktivität als Anlagetitel speist sich aus der geringen Korrelation mit herkömmlichen Anlageklassen und einer möglichen Rolle als Inflations- und Krisenschutz. Angesichts der Fähigkeit einzelner Marktakteure, den Preis gezielt zu manipulieren und der zukünftig anstehenden Regulierung der Zahlungsplattform ist Bitcoins Zukunft als Anlagetitel allerdings ungewiss. Der Ökonom Tyler Cowen argumentiert, dass Bitcoins Zukunft entweder in der Rolle einer Transaktionsplattform oder eines Anlageobjekts liegt – nicht jedoch in beidem gleichzeitig.

Bitcoin: Menge der Tokens limitiert

Dass Bitcoin die klassischen Geldfunktionen derzeit nicht ausfüllt, bedeutet nicht, dass privat organisierte, dezentrale Währungen dazu prinzipiell ungeeignet wären – das zeigen sowohl theoretische Beiträge wie die des Nobelpreisträgers Hayek als auch historische Beispiele wie das Schweizer Freibanken-System im 19. Jahrhundert. Sollte es Bitcoin in Zukunft gelingen, die hohen Transaktions-, Energie- und Umweltkosten zu senken und die Wertentwicklung zu stabilisieren, könnte die Akzeptanz als Zahlungsmittel steigen – zulasten staatlicher Währungen wie dem Euro.

Für Bitcoin-Enthusiasten ist das ein vielversprechendes Szenario, vor allem aufgrund der strikten Mengenlimitierung der Kryptowährung. Dem aktuellen Protokoll zufolge wird die letzte der insgesamt 21 Mio. bitcoins im Jahr 2140 erschaffen werden; danach wird die handelbare Menge durch den allmählichen Verlust von Zugangsdaten sogar kontinuierlich sinken. Wenngleich das Bitcoin-Protokoll bis dahin reformiert werden dürfte, ist es unwahrscheinlich, dass die mechanische Mengenlimitierung aufgegeben wird, stellt sie doch für Bitcoin-Enthusiasten den zentralen Vorteil gegenüber Zentralbankwährungen dar. Durch die Mengenlimitierung sollen bitcoins sowohl vor schleichendem, als auch plötzlichem Wertverlust bewahrt werden, unter dem Zentralbankwährungen in der Vergangenheit wiederholt litten.

Ökonomen weisen jedoch darauf hin, dass die Zentralbanken der Industrieländer den Wert ihrer Währungen mittlerweile erfolgreich regulieren. Die Sorge vor einem massiven Wertverlust – über die unproblematischen, weil durch die Marktteilnehmer ohnehin einkalkulierten circa 2 % pro Jahr hinaus – sei daher unbegründet, ähnlich wie jede Sorge um die langfristig deflationären Tendenzen von Bitcoin.

Disziplinierung der Geldpolitik

Die wohlwollende Einschätzung der geldpolitischen Praxis durch Ökonomen mag in Teilen einen Interessenkonflikt der überwiegend durch Zentralbanken finanzierten Forschung widerspiegeln. Doch die meisten Menschen teilen das ausgeprägte Vertrauen in unabhängige Zentralbanken. Solange dieses Vertrauen fortbesteht und Kryptowährungen keine nennenswerten Vorteile im alltäglichen Zahlungsverkehr bieten, spricht aus Sicht vieler Zentralbank-Forscher und -Praktiker wenig für privaten Währungswettbewerb.

Sie sehen kaum Nutzen in einer Währung, die zwar die theoretische Gefahr einer Hyperinflation beseitigt, dafür aber einen hohen Preis verlangt: Sollte Bitcoin die staatlichen Währungen komplett ersetzen, wäre mangels Zentralbank im Zuge eines Konjunkturabschwungs weder kurzfristig stabilisierende Geldpolitik möglich, noch gäbe es eine Institution, die glaubhaft als Kreditgeber letzter Instanz auftreten könnte. Diese Instanz, deren Rolle derzeit durch die Zentralbanken ausgefüllt wird, verspricht, die Geschäftsbanken im Krisenfall stets mit genügend Liquidität zu versorgen und nimmt Einlegern somit den Anreiz, ihre Konten leer zu räumen und damit Liquiditätsengpässe zu verschärfen.

Einige Ökonomen weisen allerdings darauf hin, dass ein Mittelweg vorstellbar ist. So könnten Kryptowährungen und die mit ihnen verbundenen innovativen Zahlungssysteme in einer weiterhin durch Zentralbankwährungen dominierten Wirtschaft eine nützliche Nischenrolle einnehmen. Solange das der Fall ist, übt die den Marktteilnehmern offenstehende Option, Euros gegen Bitcoins einzutauschen eine disziplinierende Wirkung auf die EZB und andere Zentralbanken aus und animiert diese zu verantwortlicherer Geldpolitik. Zentralbanken könnten indes weiterhin als Kreditgeber letzter Instanz fungieren.

Innovationstreiber Bitcoin

Über den disziplinierenden Einfluss auf die Geldpolitik hinaus motiviert Bitcoin die Zentralbanken längst dazu, über die Etablierung staatlicher Digitalwährungen nachzudenken. So treiben EZB, amerikanische Fed und die chinesische People‘s Bank Forschungsprogramme zur Einführung sogenannter Digital Central Bank Currencies voran.

Ironischerweise könnte ausgerechnet der von Bitcoin ausgehende Innovationsdruck dazu führen, dass ein alter Traum der Zentralbanken in Erfüllung geht: Im Rahmen einer vollständig digitalen Währung wären möglicherweise Negativzinsen auf Sichteinlagen möglich. Der Spielraum der Geldpolitik würde damit weiter steigen – und damit auch die potenzielle Risiken für Geldnutzer, Sparer und Investoren.

Unabhängig von den geldpolitischen Konsequenzen dürften die Nutzer staatlicher Währungen in den nächsten Jahren Innovationen erwarten, beispielsweise durch den Einsatz der durch Bitcoin popularisierten, Effizienzgewinne versprechenden Digital Ledger-Technologie in etablierten Zahlungs- und Transaktionssystemen.

Erstmals erschienen bei IREF.

Photo: Aussie~mobs from Flickr (CC 0)

Von Fabian Kurz, Doktorand der Volkswirtschaftslehre, Senior Fellow des IREF – Institute for Research in Economic and Fiscal Issues.

Möchte die EU langfristig stabile und freiere Handelsbeziehungen zu Washington etablieren, liegt es an den Europäern, den Stein ins Rollen zu bringen. Initiativen von der US-Seite sind anders als beim Klima kaum zu erwarten.

Der neue Präsident der Vereinigten Staaten von Amerika Joe Biden ist bereits einige Wochen im Amt. Sein Vorgänger Donald Trump pflegte die Beziehungen zu westlichen Partnern im besten Fall stiefmütterlich. Zu Beginn seiner Präsidentschaft legte Trump nicht nur die Gespräche über das geplante Freihandelsabkommen TTIP auf Eis, sondern überzog unter anderem die europäischen Partner mit Zöllen auf Stahl und Aluminium. Die EU konterte mit Zöllen auf Bourbon, Harley Davidson Motorräder und andere Güter.

Mit dem Beginn der Präsidentschaft Bidens ist bei vielen westlichen Partnern die Hoffnung auf bessere Beziehungen zu den Vereinigten Staaten verbunden, auch wirtschaftliche. Ist die Hoffnung berechtigt und bekommt das Freihandelsabkommen TTIP noch einmal eine Chance?

Regelbasierter Handel unter Trump unter Druck

Der neue US-Präsident Biden verfolgt beim Handel einen stärker multilateralen Ansatz und ist insgesamt gemäßigter als sein Vorgänger. Doch ein glühender Verfechter des Freihandels ist nicht ins Weiße Haus eingezogen.

Traditionell preisen in den Vereinigten Staaten eher die Republikaner die Vorzüge des barrierefreien internationalen Handels. Die Demokraten stehen ihm skeptischer gegenüber. Donald Trump hatte diese Rollenverteilung durcheinandergewirbelt. Die grundlegende Handelsskepsis der Demokraten ist deswegen allerdings nicht einer stärkeren Handelsbefürwortung gewichen.

„Buy American“ wieder en vogue

Die grundlegende Skepsis zeigt sich bereits im „Biden-Plan“, den der Kandidat Biden vor der Wahl vorgestellt hatte. Freihandel oder freierer Handel spielen in dem Plan keine prominenten Rollen. Es wird das Ziel formuliert, Handelsregeln zusammen mit den Partnerländern zu reformieren. Das lässt weniger Alleingänge und mehr regelbasierte Zusammenarbeit erwarten.

Doch die konkreten Forderungen enttäuschen mitunter. So möchte Biden internationale Handelsregeln aufweichen, die heute verhindern, dass staatliche Stellen Aufträge nicht international ausschreiben müssen und ausschließlich im Inland erzeugte Produkte kaufen können. Die Diskriminierung ausländischer Anbieter, auch bekannt als „Buy American“, wurden schließlich auch als einer der ersten präsidentiellen Anordnungen von Biden unterzeichnet. Wie sehr sie Veränderungen nach sich zieht ist umstritten. Schließlich gingen ihr ähnliche Anordnungen voraus. Möglicherweise fällt die Maßnahme in die Kategorie „Symbolpolitik, um die eigen Parteilinke zu besänftigen“.

Die Diskriminierung ausländischer Anbieter bei der Vergabe öffentlicher Aufträge ist kein Phänomen, das exklusiv die USA betrifft. Auch in Europa sind solche Maßnahmen zu finden, im Namen des Datenschutzes oder der nationalen Sicherheit. Wünschenswert wäre es, wenn auf beiden Seiten des Atlantiks Bestrebungen zu erkennen wären, die Barrieren abzubauen, statt sie zu erhalten oder gar weiter auszubauen.

Abkehr von aktivistischer Handelspolitik

Die Präsidentschaft Donald Trumps war gekennzeichnet von der Abkehr vom Multilateralismus. Dies zeigte sich etwa im Ausscheiden der Vereinigten Staaten aus dem Pariser Klimaabkommen, aber auch an der gezielten Schwächung der Welthandelsorganisation (WTO). So verhinderte Trump mit seinem Veto, wie auch schon seine beiden Vorgänger, die Neubesetzung von Richterstellen bei der WTO. Da durch sein Veto die erforderliche Mindestanzahl von Richtern nicht mehr erreicht wurde, können Handelsstreitigkeiten seit Dezember 2019 nicht mehr vor dem höchsten WTO-Gericht verhandelt werden.

Eine gezielte Schwächung internationaler Ansätze ist von Biden nicht zu erwarten. Im Gegenteil: Es ist davon auszugehen, dass er in Handelsfragen wie in Klimafragen auf etablierte internationale Abkommen, Institutionen und Spielregeln setzen wird.

Diese Abkehr von Trumps aktivistischer Handelspolitik, die durch eine offensive Vertretung ausgewählter amerikanischer Interessen mittels Androhung und Durchsetzung von Zöllen geprägt war, ist eine Chance. Eine verlässliche Handelspolitik gibt Planungssicherheit und ist dem internationalen Handel zuträglich.

TTIP: Langfristige Regelbindung

Die Auswirkungen einer aktivistischen Handelspolitik à la Trump hätten möglicherweise durch ein verbindliches Freihandelsabkommen zwischen den USA und der EU begrenzt werden können. Unter Präsident Biden sind derartige Manöver nicht zu erwarten, insbesondere nicht in der Schärfe und Grobschlächtigkeit der Vorgängeradministration. Doch politische Umstände können sich schnell ändern. Es ist daher im langfristigen Interesse sowohl der USA als auch der EU, einen Handelsvertrag wie TTIP zu schließen, der verlässliche Rahmenbedingungen für den Umgang miteinander schafft und es Politikern erleichtert, sich glaubhaft an Regeln zu binden, die die Diskriminierung ausländischer Anbieter unterbinden. Zudem können Handelsabkommen helfen, innenpolitische Widerstände gegen den Abbau von Handelshemmnissen zu überwinden, wenn deren vorteilhafter unilaterale Abbau an inländischen Lobbybemühungen scheitert.

Der Ball liegt in Europa

Der internationale Handel hat unter Präsident Trump schwer gelitten. Insbesondere die WHO hat die Abneigung des Präsidenten gegen multilaterale Organisationen und globale Lösungen zu spüren bekommen. Mit der Präsidentschaft Bidens wird auch in Handelsfragen auf der Weltbühne erfreulicherweise wieder etwas Ruhe einkehren. Ein engagierter Einsatz für den Abbau nichttarifärer Hemmnisse und Zölle ist allerdings von Präsident Biden nicht zu erwarten. So hat er weder entsprechende Pläne vorgestellt, noch die unter Trump eingeführten Zölle wieder zurückgenommen.

Möchte Brüssel langfristig stabile und freiere Handelsbeziehungen zu Washington etablieren, liegt es an den Europäern, den Stein ins Rollen zu bringen. Initiativen von der US-Seite sind anders als beim Klima kaum zu erwarten. Die erratischen Trump-Jahre haben gezeigt, dass es verbindlichere Regeln im transatlantischen Handel braucht. Ein Handelsabkommen wie TTIP könnte dazu einen Beitrag leisten.

Erstmals erschienen bei IREF.