Photo: Wikimedia Commons (CC 0)

Von Dr. Rick Wendler, Jurist.

Maja Beckers hat im Zeit-Feuilleton einen bemerkenswerten Artikel mit einer Kritik am liberalen Wissenschaftsverständnis, insbesondere an dem des Wirtschaftsnobelpreisträgers Friedrich von Hayek, geschrieben. Bemerkenswert ist dieser Artikel nicht etwa aufgrund einer profunden Kritik am Liberalismus oder an Hayek. Die sucht man darin vergebens. Interessant sind Beckers’ Ausführungen viel mehr, weil sie gleich eine ganze Reihe an unfreiwillig weitreichenden Selbstoffenbarungen beinhalten.

Die Gefälligkeit des Strohmanns

Weiß der Markt mehr als die Wissenschaft? Mit dieser Frage nimmt Beckers „den Liberalismus komplett auseinander“ (so der Zeit-Feuilleton-Kollege Lars Weisbrod auf Twitter). Weiß der Markt also mehr? Die tatsächliche Antwort ist ebenso klar wie unbefriedigend: ja und nein. Denn die Frage suggeriert einen falschen Konflikt.

In seinem wegweisenden Aufsatz “Die Verwertung des Wissens in der Gesellschaft” arbeitete Hayek heraus, dass das Kernproblem einer funktionalen Wirtschaftsordnung ein Wissensproblem ist: Von den Millionen von Akteuren einer global-arbeitsteiligen Wirtschaft hat jeder nur einen Bruchteil des insgesamt vorhandenen Wissens zur Verfügung, das sich auf die Knappheit von Gütern, ihre konkrete Ersetzbarkeit und deren jeweilige Nachfrage bezieht. Wie lässt sich ein derart zersplittertes Wissen nutzbar machen und das Handeln der Menschen koordinieren – Menschen, die meist nicht einmal die gleiche Sprache sprechen oder sich jemals persönlich getroffen haben? Auch wenn es dem Wunschdenken Frau Beckers’ zuwider sein mag, der Versuch einer zentralen Sammlung und Verwertung dieses Wissens – sei es durch Bürokraten oder Wissenschaftler – würde eine drastische Komplexitätsreduktion zur Folge haben, die mit dramatischen Wohlstandsverlusten einhergehen würde (wie man an jedem zentralplanerischen Experiment bisher sehen konnte). Ein solches Maß an Dynamik und Komplexität, wie es eine globalisierte Wirtschaft erfordert, kann nur mit Hilfe der dezentralen Marktprozesse funktionieren, die über den Preismechanismus genau jene Informationen über Knappheit und Nachfrage genau an die Akteure kommunizieren, die sie benötigen. Die Generierung von abstraktem wissenschaftlichen Wissen, von theoretischen Zusammenhängen in Natur und Gesellschaft, hat damit unmittelbar nichts zu tun.

Selbst ein oberflächliches Verständnis dessen macht klar, dass Wissenschaftler dementsprechend keine Wirtschaftsplanung betreiben und Unternehmer keine Wissenschaft. Das Gegenteil zu versuchen, ist es, was Hayek eine “Anmaßung von Wissen” nannte. Ist Beckers das entgangen? Oder hat sie Hayek gar nie gelesen?

Es fällt jedenfalls auf, dass Beckers Hayek nur soweit zitiert, dass seine Aussagen noch ins Gegenteil ihrer eigentlichen Bedeutung verdreht werden können. So stand bei Hayek der denkende und fühlende Mensch als Individuum im Mittelpunkt seiner ganzen Wirtschafts- und Sozialtheorie. Jeder Mensch hatte für ihn das Recht, sein eigenes Wissen und seine eigenen Fähigkeiten nach seinen eigenen Präferenzen in die friedliche Arbeitsteilung einer modernen Gesellschaft einzubringen. Das hat mit der Einfältigkeit, die Beckers skizziert, nichts gemein. Derart wird eine ganze Reihe von bloßen Strohmännern aufgebaut (“Liberale glauben nicht an Aids”, etc.), die dann natürlich genüsslich abgeräumt werden. Beckers zerlegt also nur ihre eigenen Pappkameraden, aber nicht Hayek oder “die Liberalen”.

Dass ausgerechnet bei einem Artikel, der sich mit der Bedeutung von Wissen und Wissenschaftlichkeit auseinandersetzt, die Autorin ihr Unwissen ebenso unfreiwillig wie ungeniert zur Schau stellt, entbehrt einerseits nicht einer gewissen Ironie.

Andererseits scheint gerade das exemplarisch für ein immer weiter um sich greifendes Phänomen zu sein. Immer mehr Intellektuelle scheinen zu einer Art Twitter-Intelligentsia zu verkommen, der es nur noch um den Szenenapplaus der eigenen Bubble geht. Solange man die richtigen Reizworte wiederholt und die altbekannten Feindbilder bedient, sind die Likes und Retweets gewiss. So frohlockte auch Beckers‘ Echo-Kammer ob des „grandiosen“ „Diss“ gegen die “furchteinflößenden”, „neoliberalen“ „Wissenschaftsleugner“.

Die Aufmerksamkeits-Ökonomie der sozialen Medien verlangt immer einseitigere, spitzere und ätzendere Polemiken für die Klicks – für einen berauschenden Triumph, der in Sekunden entsteht und ebenso schnell wieder vergeht. So kann man Anerkennung und die eigene Wichtigkeit fein sauber in Zahlen ablesen. Nicht wenige scheinen den toxischen Versuchungen dieser Aufmerksamkeits-Spirale zu erliegen.

Spalten tun nur die anderen!

Diese Zelebrierung der Rechthaberei für Likes und Klicks macht einen Diskurs, der die Gesellschaft voranbringt, beinahe unmöglich. Man beobachtet hier nicht mehr nur die oft beklagte Polarisierung der Gesellschaft, sondern eine bewusste Tribalisierung. Die Lager liegen nicht mehr nur weit auseinander, sondern stehen sich auch unversöhnlich gegenüber. Es findet eine Rückkehr des längst überwundenen, prä-zivilisatorischen Stammesdenken statt – vor dem auch Hayek eindringlich warnte. Aber spalten tun ja immer nur die andern.

Diese Gewissheit, stets zu den Guten zu gehören, ist Teil der essentiellen Selbstvergewisserung des eigenen Stammes, der In-Group. Die permanente Reproduktion der eigenen Vorurteile ist unersetzlich, um das Überlegenheitsgefühl aufrechtzuerhalten. Ehrliches Erkenntnisstreben, das die Möglichkeit des eigenen Irrtums immer mit einschließt, kann dabei nur hinderlich sein. Klassische akademische Tugenden wie Redlichkeit gegenüber dem Widersacher und Demut vor der Komplexität eines Themas und der eigenen Fehlbarkeit kommen unter Feuilleton-Intellektuellen immer mehr aus der Mode.

Wenn das Zeit-Feuilleton gegen Hayek ins Feld zieht, erinnert es an das Bonmot des großen Liberalen David Hume: in der philosophischen Schlacht sind es oft genug nicht die mit Pike und Schwert Bewaffneten, die den Sieg davontragen, sondern die lärmenden Trompeter und Trommler, die unbewaffneten Musikanten des Heeres.

Rationalismus und der Kampf um den Glauben

Die klassischen akademischen Tugenden prägten auch Hayeks Selbstverständnis als Wissenschaftler. „Was ich nicht weiß, behaupte ich nicht zu wissen“  ist seit Sokrates das Credo eines jeden redlichen Wissenschaftlers. Was Beckers lediglich auf den Begriff des “Antirationalismus” bringt, bezeichnete Hayek auch als kritischen Rationalismus – in Abgrenzung zum naiven Rationalismus. Damit steht er in einer Reihe von Denkern, die die rationalistischen Exzesse der Aufklärung kritisierten, wie Hume, Herder oder Popper. Sie alle wiesen auf die Gefahren hin, die mit dem Versuch einhergehen, ganze Gesellschaften auf dem Reißbrett zu planen. Dass sich diese Gefahren eines naiven Rationalismus auch durchaus realisieren können, sah man auf tragische Weise am Terreur der Französischen Revolution und den Totalitarismen des 20. Jahrhunderts.

Aber eine rationale Rationalismuskritik – das Erkennen der Grenzen der eigenen Erkenntnisfähigkeit – geht über den Anspruch dieser Feuilleton-Intellektuellen hinaus. So führen die selbst ernannten Antiliberalen auch vielmehr eine Auseinandersetzung um den richtigen Glauben. Beckers verspottet Liberale wiederholt für deren „Glauben an den Markt“ und setzt dem einen aus ihrer Sicht vorzugswürdigen Glauben an „den Staat“ oder „die Wissenschaft“ entgegen. Dass Vertrauen oder Misstrauen in soziale Institutionen wie Markt, staatliche Einrichtungen oder Wissenschaft, nichts mit Glauben zu tun haben sollte, sondern mit dem Verständnis für ihre Funktionsweisen, kann man übrigens ganz wunderbar dem Werk Hayeks entnehmen – wenn man es denn mit einem ehrlichen Erkenntnisstreben liest. Schließlich ist auch die Wissenschaft eine dezentrale Ordnung, in der die Wissenschaftler als autonome Akteure ihr Handeln durch wechselseitige Anpassungen koordinieren – ähnlich wie Unternehmer auf dem Markt.

Es würde jedenfalls uns allen – Liberalen und ihren Gegnern – guttun, wenn wir uns auf den Anspruch des “marktradikalen” Moralphilosophen Adam Smith zurückbesinnen, wonach es nicht darum gehen darf, bloß gelobt zu werden, sondern des Lobes auch tatsächlich würdig zu sein.

Erstmals erschienen im Freydenker.

Photo: jan saudek from Flickr (Public Domanin Mark 1.0)

Von Dr. Stephen Davies, Head of Education beim Institute of Economic Affairs in London.

Der zweite Jahrestag des Brexit steht bevor und einige „Globalisten“ und Freunde des freien Marktwirtschaft, die die „Leave“-Bewegung unterstützt haben, bekommen langsam Gewissensbisse. Sie waren überzeugt, dass die Befreiung von den restriktiven Regeln der fernen europäischen Bürokraten bedeuten würde, dass Großbritannien das marktwirtschaftliche Äquivalent von „Hongkong oder Singapur an der Themse“ werden würde.

Aber das war Wunschdenken. Es war klar, dass der Bruch mit der EU niemals eine weniger restriktive Einwanderungspolitik bedeutet hätte. Aber selbst beim Thema Freihandel, ist die Bilanz Großbritanniens nach dem Brexit recht gemischt.

Der Herausgeber des britischen Magazins Spectator, Fraser Nelson, ein Globalist, Marktwirtschaftler und prinzipieller Europafreund, der dennoch widerwillig für den Austritt aus der EU gestimmt hatte, schrieb kürzlich einen Artikel im Daily Telegraph, in dem er seine Enttäuschung und Desillusionierung über den politischen Kurs Großbritanniens nach dem Brexit zum Ausdruck brachte. Er bedauert, dass er Politikern wie Boris Johnson und dem ehemaligen Europaabgeordneten Dan Hannan deren sanftes Säuseln abgekauft hatte, dass „Leave“ nicht „Zugbrücke hoch“ bedeute, sondern „raus und auf in die Welt“. Jetzt fragt er wehmütig: „Wo ist denn das Gelobte Land?“

Um Johnsons Brexit-Argument zu glauben, musste man freilich sowohl die politische Realität als auch die Wählerdemographie ignorieren.

Der Brexit wurde von den britischen Wählern im Jahr 2016 mit einer knappen Mehrheit von 52 % angenommen. Zweifellos hatten diejenigen, die für den Austritt stimmten, sehr unterschiedliche Vorstellungen davon, warum der er wünschenswert sei und was darauf folgen solle. Es gab glühende Verfechter der freien Marktwirtschaft, die sich über die übereifrigen Regulierungsvorschriften der EU aufregten, die von den Mitgliedstaaten die Erfüllung aller möglichen unsinnigen Anforderungen verlangt, um Zugang zum europäischen Markt zu erhalten. Sie machten jedoch nur einen kleinen Teil der Koalition aus. Der weitaus größere Teil waren Wähler, denen es entweder in erster Linie um eine Vorstellung von nationaler Souveränität ging oder die den Brexit als Gelegenheit sahen, den Thatcherismus rückgängig zu machen und zum britischen Nationalismus der Jahre 1945 bis 1979 zurückzukehren. Sie wünschten sich ein selbstverwaltetes Großbritannien mit einer Regierung, die eine aktive wirtschaftliche Rolle spielt und eher dem Wirtschaftsnationalismus zuneigt.

Dies wurde deutlich, als die Austrittskampagne andeutete, dass der Grund für den Austritt aus der EU darin bestehe, dass das Vereinigte Königreich dann wieder die heimischen Stahlproduzenten subventionieren und schützen könne; mehr Geld für das verstaatlichte britische Gesundheitssystem, den National Health Service,  zur Verfügung stehe; und dass man die Einwanderung auf- oder gar anhalten könne. Der Vordenker dieser Kampagne, Johnsons politischer Stratege Dominic Cummings, argumentierte nachdrücklich, dass das Gerede von einem „globalen Großbritannien“ niemals Erfolg haben werde und dass man sich auf die nationale Erneuerung konzentrieren müsse, wobei die Betonung auf national liege. Er vertrat außerdem in etlichen Artikeln den Standpunkt, dass der britische Staat in eine Art Agentur umgewandelt werden sollte, die eine wesentlich interventionistischere Rolle in der Wirtschaft spielen müsse.

Die Ergebnisse der Parlamentswahlen 2019, die die Konservative Partei mit einem Erdrutschsieg gewann, zeigen, dass Cummings Botschaft bei einer politisch vielfältigen Wählerschaft Anklang fand. Sowohl für den Ausgang des Brexit-Referendums als auch für diese Wahl ausschlaggebend waren größtenteils ältere Wähler aus der Arbeiterklasse und der unteren Mittelschicht in ehemaligen Industriegebieten. Die Konservative Partei konnte auch im Norden Englands, der früher eine traditionelle Hochburg der Labour Party war, große Zugewinne verzeichnen. Diese Wähler verbinden eine eindeutig linke wirtschaftliche Position und Interventionismus mit kulturellem Traditionalismus und dem Festhalten an überkommenen Vorstellungen von nationaler Identität und Patriotismus. Dies äußert sich nicht nur in einer aktivistischen Regional- und Industriepolitik, sondern auch in wirtschaftlichem Nationalismus und einer Ablehnung der Globalisierung, insbesondere der Einwanderung.

In der Tat haben der Brexit und die Wahlen 2019 eine Neuausrichtung der britischen Politik um eine neue Achse zementiert, die Kosmopoliten gegen Nationalisten von links und rechts ausspielt. Kosmopoliten wie Nelson, die für den Austritt gestimmt haben, dämmert das langsam. Und ihre Enttäuschung wird wahrscheinlich noch wachsen.

Wenn die Konservative Partei mit dieser neuen Wählerbasis an der Macht bleiben will, muss sie sich auf die Interessen dieser Wähler einstellen und gleichzeitig so viele ihrer traditionellen Stammwähler wie möglich an sich binden. Letztere sind zwar tendenziell stärker an der freien Marktwirtschaft orientiert als die neueren Wähler. Aber selbst deren Unterstützung für das freie Unternehmertum nimmt ab, weil Nationalismus und nationale Identität für sie letztlich ökonomische Fragen verdrängen.

Aus diesem Grund vertritt Premierminister Johnson trotz des massiven Arbeitskräftemangels, der derzeit in Großbritannien herrscht, eine harte Haltung zur Einwanderung. Kürzlich gab er der „unkontrollierten Einwanderung“ die Schuld am Untergang des Römischen Reiches und betonte, dass er nicht zulassen werde, dass England zu dem „gleichen alten, kaputten Modell mit niedrigen Löhnen, geringem Wachstum, geringer Qualifikation und niedriger Produktivität“ zurückkehre.

Es war absehbar, dass die gleichen wahltaktischen Überlegungen, die seine einwanderungsfeindliche Haltung bestimmten, ihn auch dazu bringen würden, im Namen des wirtschaftlichen Nationalismus einen industriepolitischen Pfad einzuschlagen. Und genau das ist der Fall. Johnsons Regierung hat wenig bis gar keine Anstrengungen unternommen, die meisten EU-Vorschriften abzubauen. Vielmehr versuchen sie, die Vorschriften so umzubauen, dass sie einem vermeintlichen nationalen Interesse Großbritanniens dienen.

Es gibt jedoch eine wichtige Einschränkung von Johnsons wirtschaftlichem Nationalismus – und die betrifft die Handelspolitik. Historisch gesehen hat der Freihandel in Großbritannien immer starke und breite Zustimmung gefunden – in einem Ausmaß, das in Europa seinesgleichen sucht. Der Grund dafür ist die ungewöhnliche Unterstützung für den Freihandel unter den Wählern der Arbeiterklasse, die bis in die 1840er Jahre zurückreicht. Seit der Aufhebung der Corn Laws im Jahr 1846 ist das Prinzip des Freihandels Teil der populären Kultur insbesondere der britischen Arbeiterklasse und der unteren Mittelschicht. Protektionismus wurde (zu Recht) als eine Verschwörung von Sonderinteressen betrachtet, die darauf abzielt, die Lebenshaltungskosten für die einfachen Leute zu erhöhen, um sich selbst zu bereichern. Dies erklärt, warum die Labor Party und die Gewerkschaften zumeist eine offene Handelspolitik befürwortet haben, während die eher nationalistische Konservative Partei manchmal den Protektionismus unterstützt hat.

Auch wenn die Wahlanreize in Richtung einer interventionistischeren und nationalistischeren Wirtschaftspolitik weisen, ist also ein umfassender Protektionismus für Großbritannien nicht zu erwarten. Stattdessen werden wir wahrscheinlich eine hybride Position sehen, die den Freihandel (vor allem bei Lebensmitteln, aber auch in anderen Bereichen) mit anderen Formen der Intervention kombiniert, wie z. B. dem gezielten Einsatz staatlicher Ankäufe zur Unterstützung heimischer „Champions“. Dies steht in krassem Gegensatz zu den Vereinigten Staaten, wo der Protektionismus seit Alexander Hamilton sehr beliebt ist, nicht zuletzt bei den amerikanischen Arbeitern.

Es gibt Anzeichen dafür, dass die Johnson-Regierung tatsächlich in diese Richtung geht. Es gab einen großen Vorstoß zum Abschluss von Handelsabkommen mit anderen Ländern und zur Öffnung des Handels mit Ländern wie Indien und Australien, wo dies zuvor aufgrund der gemeinsamen Außenzölle und der Handelspolitik der EU nicht möglich war. All dies findet breite Zustimmung, wie sehr es auch bestimmten Sonderinteressen missfallen mag. Dann würden die Hoffnungen der globalistischen und marktwirtschaftlichen Brexit-Befürworter zwar in vielerlei Hinsicht enttäuscht werden, sich aber wenigstens in Bezug auf den Handel zu einem gewissen Grad erfüllen.

Aber der entscheidende Begriff ist „zu einem gewissen Grade“.

Wenn man sich nämlich viele der bisherigen Handelsabkommen ansieht, stellt man fest, dass sie lediglich Neuauflagen der früheren EU-Abkommen sind. Außerdem erweisen sich die Verhandlungen mit Ländern wie Indien und Australien als langsam und schwierig. Der Grund dafür liegt in der Art der heutigen Handelspolitik, die das Wachstum eines internationalen Systems harmonisierter Vorschriften widerspiegelt. Dies ist das Ergebnis eines Prozesses, der auf die Gründung des GATT im Jahr 1947 zurückgeht. Handelsabkommen sind nicht mehr in erster Linie auf die Abschaffung von Zöllen oder Quoten ausgerichtet. Vielmehr geht es um die Harmonisierung und Angleichung der Rechtsvorschriften, da die Konflikte zwischen den Vorschriften heute das Haupthindernis für Handel und Austausch darstellen. Dies ist ein sehr schwieriger und komplexer Prozess, der auch vielerlei Einfallstore für Sonderinteressern bietet.

Darüber hinaus gibt es Spannungen zwischen den Wünschen der Wähler, auch in Bezug auf den Handel. Sie wollen freien Handel mit anderen Ländern, aber sie wollen nicht, dass ihre Regierung Subventionen für einheimische Unternehmen abschafft, die von potenziellen Handelspartnern abgelehnt werden, weil diese Partner dadurch in Großbritannien weniger wettbewerbsfähig werden. Saubere Freihandelsabkommen erfordern ein beträchtliches Maß an politischem Mut, über den die Regierung Johnson offensichtlich nicht verfügt.

Aber wenn Johnson nach dem Brexit nicht einmal wesentlich bessere Handelsabkommen vorlegen kann, wird immer deutlicher, dass er den Globalisten eine Mogelpackung verkauft hat. Der Brexit könnte Großbritannien auf einen beschleunigten Weg des wirtschaftlichen Nationalismus gebracht haben, der hohe Regulierungsdichte mit aggressivem Interventionismus verbindet. Tragischerweise könnten Globalisten wie Nelson dazu beigetragen haben , indem sie sich für die falsche Seite entschieden haben.

Erstmals veröffentlicht bei The UnPopulist.

Photo: Dan Meyers from Unsplah (CC 0)

Von Alexander Horn, Geschäftsführer von Novo Argumente und Unternehmensberater. Zuletzt erschien sein Buch „Die Zombiewirtschaft – Warum die Politik Innovation behindert und die Unternehmen in Deutschland zu Wohlstandsbremsen geworden sind“ mit Beiträgen von Michael von Prollius und Phil Mullan.

Vor ziemlich genau zehn Jahren, kurz vor der Hannover-Messe 2011, prognostizierten Vertreter der Initiative „Industrie 4.0“ eine Transformation der industriellen Produktion, die in eine „vom Internet getriebene 4. industrielle Revolution“ führen werde. Deutschland, so vermuteten damals Henning Kagermann, Dieter Lukas und Wolfgang Walser, drei Vertreter dieser Vision aus Wirtschaft, Politik und Wissenschaft, könne wegen seines „hochinnovativen produzierenden Gewerbes“ eine führende Rolle einnehmen.

Es gehe darum, in Wertschöpfungsprozessen eine Brücke zwischen virtueller und dinglicher Welt entstehen zu lassen und den industriellen Transformationsprozess in Richtung „noch stärkerer Automatisierung“ voranzutreiben. Hinzu komme nun „die Entwicklung intelligenter Überwachungs- und autonomer Entscheidungsprozesse, … um Unternehmen und ganze Wertschöpfungsnetzwerke in nahezu Echtzeit steuern und optimieren zu können.“[1]

Produktivitätsrätsel

Seitdem hat diese Idee einer anstehenden Verschmelzung digitaler Modelle mit der physischen Realität in Wertschöpfungsprozessen einen regelrechten Hype ausgelöst. In der Politik wurde „Industrie 4.0“ begierig aufgegriffen, weil die stärkere Digitalisierung eine Steigerung der Wettbewerbsfähigkeit sowie eine ressourcen- und energieeffizientere Wirtschaftsweise versprach. In den letzten Jahren ist die Digitalisierung sogar zu einem Mega-Thema geworden. So soll das politische Ziel erreicht werden, wirtschaftliches Wachstum vom Ressourcenverbrauch zu entkoppeln und einen wichtigen Beitrag gegen den Klimawandel zu leisten.

Aber auch in der Wirtschaft ist viel passiert. Unternehmen entwickeln sich Schritt für Schritt von Massenproduzenten zu Herstellern von individualisierten und maßgeschneiderten Kundenlösungen, was ihnen die Fähigkeit abverlangt, kleinere Serien oder sogar in Losgröße 1 hocheffizient produzieren zu können. Viele Vorreiterunternehmen, die Grundprinzipien von „Industrie 4.0“ anwenden, haben sich durch digitale Vernetzung ihrer Produktion in Richtung sogenannter „smart factories“ entwickelt. Die breite Masse der Unternehmen ist jedoch bei der Umsetzung dieser Vision bisher kaum vorangekommen, denn die Steigerung der Arbeitsproduktivität – das typische Merkmal früherer industrieller Revolutionen – ist in den meisten Industriebranchen in Deutschland bis heute ausgeblieben.

Schon die dritte industrielle Revolution, die auf den Einsatz von Elektronik und IT seit Mitte der 1970er Jahre zurückgeführt wird, hatte in Deutschland keinen zusätzlichen Effekt in der Arbeitsproduktivität ausgelöst. Bereits vor mehr als 30 Jahren wies Robert Solow, der für seine Forschungen zum technologischen Fortschritt den Wirtschaftsnobelpreis erhielt, auf die widersinnige Produktivitätsentwicklung im Kontext der digitalen Revolution hin: „Man sieht das Computerzeitalter überall, nur nicht in den Produktivitätsstatistiken“, schrieb er damals.[2] Seitdem gab es zumindest in den USA Ende der 1990er und Anfang der 2000er Jahre einen spürbaren Produktivitätseffekt hoher IT-Investitionen, der danach aber wieder abebbte. In anderen entwickelten Ländern wie in Deutschland trat ein solcher Effekt – wenn überhaupt – nur abgeschwächt auf.

Tatsächlich hat sich die Arbeitsproduktivität in Deutschland seit den 1970er Jahren immer schwächer entwickelt. Nachdem es der Industrie seinerzeit noch gelang, innerhalb einer Dekade die Arbeitsproduktivität um etwa 50 Prozent zu steigern, reduzierte sich der Produktivitätsfortschritt auf nur noch etwa 30 Prozent in den folgenden Jahrzehnten. Seit 2011, dem virtuellen Startschuss der vierten industriellen Revolution, hat die Industrie bis Ende 2017, also kurz vor dem Beginn der Industrierezession in Deutschland, nur noch knapp 9 Prozent erreicht. Bis 2020 ist dieser minimale Anstieg, infolge eines eingetretenen Produktivitätsrückgangs, jedoch fast vollkommen zunichte gemacht worden.[3] Das heutige Produktivitätsniveau der Industrie ist also mit dem des Jahres 2011 fast identisch.[4]

Digitale und physische Welt

Der Frage, worauf dieser Widerspruch zwischen seit Jahrzehnten steigenden IT-Investitionen der Unternehmen, die einen immer größeren Anteil der Gesamtinvestitionen ausmachen, und dennoch sogar stagnierender Arbeitsproduktivität beruhen könnte, gehen das Institut für Lernen und Innovation in Netzwerken (ILIN) und das Fraunhofer-Instituts für System- und Innovationsforschung (ISI) in der Studie „Wertschöpfungspotenziale 4.0“ auf den Grund. Dies zu klären, sei für das Hochlohnland Deutschland entscheidend, denn um „hochwertige Produkte zu konkurrenzfähigen Preisen herstellen zu können, ist eine hohe Produktivität von großer Wichtigkeit und somit wesentlich zum Erhalt der Wettbewerbsfähigkeit.“[5]

Das entscheidende Manko der Digitalisierungsbestrebungen sehen die Forscher um Prof. Steffen Kinkel von der Hochschule Karlsruhe darin, dass die Unternehmen zu einseitig auf IT-Lösungen setzen, obwohl Produktivitätsfortschritte in erster Linie auf Prozessverbesserungen beruhen. Denn die Digitalisierung der Produktion, führe „nicht zwangsläufig zu Produktivitätszuwächsen. Die Digitalisierung ineffizienter Prozesse führt zu ineffizienten digitalen Prozessen.“[6]

So zielen viele Digitalisierungsprojekte ausschließlich darauf ab, die Komplexität von Produktions- und Logistikstrukturen mit Hilfe mächtiger IT-Werkzeuge zu beherrschen. Oft wird nicht der Versuch unternommen, die Komplexität der Abläufe zunächst durch Veränderungen der physischen Prozesslandschaft zu reduzieren, also leichter beherrschbar zu machen. Man glaubt, mit Hilfe von IT-Lösungen den einfachen Weg gehen zu können und den in echten Innovationen steckenden Herausforderungen ausweichen zu können. Dieser Innovationspfad ist nicht trivial und würde Thomas Alva Edison zufolge „99 Prozent Transpiration und ein Prozent Inspiration“ bedeuten.

Die zur Prozesssteuerung erforderliche Transparenz („Daten in Echtzeit“) sowie Produktivitätspotenziale oder die Fähigkeit der Einzelstückfertigung lassen sich typischerweise erst erschließen, wenn man bei der Digitalisierung ähnlich wie bei der Automatisierung vorangeht: Erst organisieren, also die Prozesse gut strukturieren, dann optimieren, also die physischen Abläufe in Richtung des Ziels, z.B. die effiziente Erzeugung individueller Kundenprodukte oder Dienstleistungen, verändern. Erst dann folgt der Schritt des Automatisierens bzw. Digitalisierens. Letztlich, so Oliver Prause, Vorstand des Instituts für Produktionserhaltung (infpro), das die Studie in Auftrag gegeben hat, müsse in das Bewusstsein der Führungskräfte in den Unternehmen gerückt werden, dass „die Verbesserung der Wertschöpfung zu Produktivitätsfortschritten führt und nicht die Digitalisierung.“

ISI und ILIN kommen aufgrund eigener wie auch fremder Forschungen sowie Experteneinschätzungen zu dem Ergebnis, dass im Verarbeitenden Gewerbe ein Wertschöpfungspotenzial von etwa 95 Milliarden Euro steckt. Das entspreche einer Arbeitsproduktivitätsverbesserung von 14,2 Prozent. Diese könne realisiert werden, wenn sogenannte Lean-Prinzipien, die insbesondere in der deutschen Automobilindustrie seit Jahrzehnten sehr erfolgreich angewendet werden und dazu dienen nicht wertschöpfende Tätigkeiten aus den Arbeitsprozessen zu eliminieren, umfänglich zur Verbesserung der physischen Prozesse eingesetzt würden. Aus den bisherigen wissenschaftlichen Erkenntnissen ließe sich ableiten, dass „die Anwendung von Lean-Prinzipien und der Einsatz von Technologien zur digitalen Vernetzung der Produktion Möglichkeiten“ der Kombination böten. Zudem ließen sich aus den Ähnlichkeiten der Konzepte Synergien erschließen.[7]

Rückgang transformativer Investitionen

Die Ergebnisse der Studie deuten darauf hin, dass Digitalisierungsprojekte vielfach dazu dienen, schwierigen sowie aufwendigen und zudem oft kapitalintensiven Verbesserungen der physischen Wertschöpfung auszuweichen – was die Produktivitätsentwicklung blockiert. Tatsächlich sind im Verarbeitenden Gewerbe die für technologischen Fortschritt und Arbeitsproduktivitätsverbesserungen entscheidenden Ausrüstungsinvestitionen im Verhältnis zur Bruttowertschöpfung von über 12 Prozent Anfang der 1990er Jahr auf nur noch etwa 8 Prozent in den 2010er Jahren gesunken. Sogar besonders erfolgreiche Branchen wie der Maschinenbau – mit etwa einer Million Beschäftigten eine der größten deutschen Industriebranchen – ist in Verbindung mit einer schwachen Investitionsentwicklung von einer Produktivitätsstagnation betroffen.

Eine vom Verband Deutscher Maschinen- und Anlagenbau (VDMA) beauftragte Studie aus dem Jahr 2016 ging der Frage nach, warum es den erfolgreichen Maschinenbauern nicht gelungen war, hohe Digitalisierungsaufwendungen in Produktivitätsgewinne umzumünzen. Die „rasche Verbreitung einer umfassenden, intensiven Digitalisierung in der Produktion des Maschinenbaus trägt aktuell nicht zu Produktivitätsgewinnen bei“, analysierten die Forscher, für Investitionen in Software zeige sich im Gegenteil „sogar ein negativer Produktivitätseffekt“.[8]

Zwar haben die Maschinenbauunternehmen ihre IT-Investitionen seit Jahrzehnten stetig ausgeweitet, gleichzeitig sinkt jedoch der Anteil der Investitionen in Sachanlagen, also Ausrüstungen und Bauten, kontinuierlich. Damit folgt die Branche dem in Deutschland in allen Wirtschaftsbereichen vorherrschenden Trend: Der Anteil der Investitionen für die Verbesserung von Produkten und Prozessen wird zugunsten von Investitionen in geistiges Eigentum, vor allem Forschungs- und Entwicklungsaufwendungen, sowie IT-Investitionen, reduziert. In der Industrie geht inzwischen mehr als jeder zweite investierte Euro in geistiges Eigentum.[9]

Es ist sicherlich kein Nachteil, wenn die Unternehmen zunehmend auf Forschung und Entwicklung setzen und auch auf technologische Fortschritte in IT und Elektronik. Ein Problem besteht jedoch, wenn dies immer weniger als Ergänzung zur Weiterentwicklung der Prozesse in Richtung höherer Produktivität und Wettbewerbsfähigkeit geschieht, sondern Investitionen in geistiges Eigentum diese ersetzen. Daher ist die als „Paradoxon“ empfundene Diskrepanz zwischen einer Produktivitätsschwäche einerseits und voranschreitender Digitalisierung andererseits ein „Alarmzeichen“, wie der frühere VDMA-Präsident Thomas Lindner schon vor Jahren erkannte.[10] Denn wenn noch so viele neue Ideen nicht in innovativeren Produkten und produktiveren Prozessen münden, bleibt die Wettbewerbsfähigkeit auf der Strecke.


[1] https://www.dfki.de/fileadmin/user_upload/DFKI/Medien/News_Media/Presse/Presse-Highlights/vdinach2011a13-ind4.0-Internet-Dinge.pdf

[2] R. M. Solow: „We’d Better Watch Out,” New York Times, Juli 1987, S. 36.

[3] Statistisches Bundesamt, Fachserie 18, Reihe 1.5, 2020, Tabelle 2.14 Arbeitsproduktivität je geleisteter Erwerbstätigenstunde.

[4] Die im September 2021 aktualisierten Zahlen des Statistischen Bundesamtes weisen einen Anstieg des Indexes der Arbeitsproduktivität je geleisteter Erwerbstätigenstunde von 98,53 (2011) auf 102,25 (2020) für das Verarbeitende Gewerbe aus. Demnach ist die Arbeitsproduktivität in der Industrie innerhalb des Zehnjahreszeitraums um durchschnittlich etwa 0,3 Prozent pro Jahr gestiegen.

[5] Steffen Kinkel et al: „Wertschöpfungspotenziale 4.0“, 2021, S. 7.

[6] Ebd. S. 8.

[7] Ebd. S. 21.

[8] IMPULS-Stiftung für den Maschinenbau, den Anlagenbau und die Informationstechnik: „Produktivitätsparadoxon im Maschinenbau“, Oktober 2018, S. 67 u. 15.

[9] Deutsche Bank Research: „Deutsche Industrie – Wenige Sektoren tragen Investitionswachstum“ in: Deutschland-Monitor, 21.01.2019, S. 1.

[10] „Die Schattenseiten der Digitalisierung“ in: F.A.Z., 15.10.2018, S. 17.

Photo: Mael BALLAND from Unsplash (CC 0)

Von Kalle Kappner, wissenschaftlicher Mitarbeiter an der Humboldt-Universität zu Berlin, Research Fellow bei IREF, Fackelträger von Prometheus.

Zu träge, zu partikularistisch und zu unübersichtlich: Im Zuge der Corona-Pandemie geriet der Föderalismus in Deutschland und anderen Ländern in die Kritik. Nicht wenige Kommentatoren wünschen sich angesichts eines angeblich unübersichtlichen „Flickenteppichs“, eines unkoordinierten „Klein-Kleins“ und ungerechter Unterschiede zwischen den Eindämmungsmaßnahmen der Länder einen zentralisierteren Ansatz – eine durchregierende Krisenkanzlerin statt allwöchentlicher Ministerpräsidentenkonferenzen.

Zwar beleuchtet die politökonomische Forschung die abstrakten Vor- und Nachteile föderaler Staatsorganisation bis ins Detail. Doch ob dezentrale Entscheidungsmechanismen während einer Pandemie mehr Nutzen stiften, als sie Kosten verursachen, ist nicht eindeutig. Dieser Beitrag beleuchtet die Rolle föderaler Institutionen zunächst aus theoretischer Perspektive.

Erste qualitative Experteneinschätzungen über die Seuchenschutzpolitik der letzten anderthalb Jahre stellen dem deutschen, kooperativ ausgerichteten Föderalismus ein überwiegend positives Zeugnis aus. Im zweiten Teil des Beitrags wird dieser Eindruck durch den internationalen Vergleich zentraler Indikatoren für den Erfolg des staatlichen Krisenmanagements ergänzt.

Effizienter Wettbewerb und Bürgernähe…

Föderale Staaten zeichnen sich durch ein hohes Maß an vertikaler Gewaltenteilung aus, das die in allen Demokratien übliche horizontale Gewaltenteilung ergänzt. In einem Föderal- oder Bundesstaat nehmen die jeweiligen souveränen Gliedstaaten eigenständige legislative, judikative und exekutive Aufgaben wahr, während sie in zentralistischen Staaten vornehmlich administrativen Zwecken dienen. Weltweit besitzen etwa 25 Staaten eine föderale Verfassung, darunter die Bundesrepublik Deutschland.

Die politökonomische Forschung identifiziert einige potenzielle Vorteile föderaler Staatsorganisation. Prinzipiell können aufgrund der dezentralen Kompetenzverteilung lokale Umstände, Präferenzen und Informationen in der politischen Entscheidungsfindung stärker berücksichtigt werden. Wenn die einzelnen Gliedstaaten im Wettbewerb um Bürger, Unternehmen und Investitionen stehen, verspüren deren politische Entscheidungsträger einen zusätzlichen Anreiz, öffentliche Güter im angemessenen Rahmen bereitzustellen. Die daraus resultierenden Effizienzgewinne sind nicht rein statischer Natur – bestenfalls fungieren die Gliedstaaten als „Labore der Demokratie“, in denen mit neuen Lösungsansätzen experimentiert wird, ohne dass die Folgen gravierender Fehlentscheidungen den ganzen Staat betreffen.

… oder teurer, unübersichtlicher Flickenteppich?

Den potenziellen Effizienzgewinnen und Lernprozessen stehen typischerweise höhere Koordinationskosten föderal organisierter Staaten gegenüber. Wenn die Entscheidungen einzelner Gliedstaaten unerwünschte Folgen für andere Mitglieder der Föderation hervorrufen können oder sinnvollerweise einheitlich zu treffen sind, werden Absprachen notwendig. Misslingen diese, entsteht der sprichwörtliche „Flickenteppich“, der nicht nur unübersichtlich, träge und ineffizient, sondern auch ungerecht und konfliktfördernd sein kann. Gehen die zwischenstaatlichen Koordinationsbemühungen hingegen zu weit, entsteht ein „föderales Kartell“, das sich in der Praxis kaum von zentralistischen Staaten unterscheidet, jedoch ohne deren typischerweise schnellere Entscheidungsprozesse auskommen muss.

Der Erfolg föderaler Modelle hängt daher von einer feinen Balance zwischen kooperationsfördernden Institutionen und regulatorischem Wettbewerb, eingespielten Abstimmungsroutinen und einer angemessenen vertikalen und horizontalen Kompetenzverteilung ab. Entsprechend differenziert die Literatur föderale Staaten hinsichtlich des Grades der Verflechtung von Politikkompetenzen und der Verbreitung kooperativer oder kompetitiver Entscheidungsprozesse. Die Bundesrepublik wird in diesem Sinne als kooperativer, verflechteter Föderalstaat eingeordnet, was sich unter anderem in der konkurrierenden Gesetzgebung, dem Länderfinanzausgleich und der grundgesetzlich angestrebten Gleichwertigkeit der Lebensverhältnisse ausdrückt.

Pandemie und Föderalismus

Wenngleich die abstrakten Vor- und Nachteile des Föderalismus wohlbekannt sind, ist deren konkrete Bewertung in einzelnen Politikfeldern selten eindeutig. Das beste Beispiel liefert die Corona-Pandemie. Vielfach argumentieren Kommentatoren, dass während Pandemien die „Stunde des Zentralstaats“ schlüge. Da global um sich greifende Seuchen per Definition nicht an der Grenze einzelner Gliedstaaten Halt machen, spräche wenig für lokales „Klein-Klein“ und viel für nationale und internationale Koordination. Auch die besondere Dringlichkeit mit der Seuchenschutzmaßnahmen zu treffen seien, liefert den Kritikern langwieriger föderaler Diskussionen und Abstimmungen Munition.

Kritiker zentralstaatlicher Ansätze weisen dagegen darauf hin, dass wenig Konsens über angemessene Maßnahmen bestehe. Weder seien die medizinischen, wirtschaftlichen und sozialen Folgen der Pandemie absehbar, noch gäbe es aus epidemiologischer Sicht ein eindeutiges, auf alle Teile eines Landes einheitlich anzuwendendes Anti-Krisen-Rezept. Da verschiedene Seuchenschutzmaßnahmen unbekannte aber potenziell erhebliche Kosten mit sich brächten, käme lokalen Experimenten, Lerneffekten und Interessenausgleichsmechanismen eine wichtige Rolle zu; daher schlüge vielmehr die „Stunde des Föderalismus“.

Deutscher Föderalismus: Bisher bewährt

Doch grau ist alle Theorie. Wie haben sich föderale und zentralistisch organisierte Staaten in den letzten anderthalb Krisenjahren geschlagen? Eine detaillierte wissenschaftliche Auseinandersetzung wird erst in den nächsten Jahren möglich sein, doch erste fachliche Einschätzungen fällen ein überwiegend positives Urteil über das föderale Krisenmanagement.

Speziell für Deutschland finden wissenschaftliche Beobachter nur wenige Hinweise darauf, dass die Kompetenzaufteilung zwischen Bund und Ländern die Handlungsfähigkeit des Staates und die Wirksamkeit bisheriger Maßnahmen beeinträchtigt hat. Auf Basis bestehender föderaler Institutionen wie der Ministerpräsidentenkonferenz koordinierten sich die Länder und der Bund im Frühjahr 2020 im Rekordtempo und verzichteten dabei weitgehend auf unilaterale Entscheidungen. Im weiteren Verlauf etablierten die föderalen Partner einen durchaus erfolgreichen Mix aus lokalen Ansätzen und spontan koordinierten gemeinsamen Unterstandards. Dem Bund kam dabei eine weitgehend empfehlende Funktion zu – er übernahm aber auch Aufgaben, die sinnvollerweise auf nationaler Ebene anfallen, etwa den Einkauf medizinischer Ausrüstung.

Auch in anderen Föderalstaaten wie der Schweiz, Österreich und den USA fällt das Zwischenfazit über das dezentrale Krisenmanagement überwiegend positiv aus – anders jedoch in Australien und Indien. Dieser qualitative Eindruck wird ergänzt durch einen länderübergreifenden Vergleich zentraler Indikatoren für den Erfolg des staatlichen Pandemie-Managements. Über 80 Länder in Europa, Amerika und Südostasien hinweg bestätigt sich die These des handlungsunfähigen Föderalismus nicht. Weder fordert Covid-19 in föderalen Staaten überproportional viele Todesopfer, noch fallen staatliche Eindämmungsmaßnahmen laxer oder strikter aus. Auch die Verabreichung von Impfstoffen erfolgt in föderalen Ländern in einem ähnlichen Tempo wie in zentralisierten Staaten.

Aller Schelte in den Medien zum Trotz hat der Föderalismus in den Augen der Deutschen im Zuge der Pandemie ausweislich repräsentativer Umfragen sogar an Ansehen gewonnen. Dies deutet darauf hin, dass die Vorteile eines dezentralen Staatswesens hinsichtlich der Berücksichtigung lokaler Verhältnisse und Anforderungen gerade in Krisenzeiten zur Geltung kommen.

Föderale Staaten in der Krise nicht schlechter gefahren

Da die formale verfassungsrechtliche Definition föderaler Staaten nicht notwendigerweise eine tatsächlich stark ausgeprägte Dezentralisierung staatlicher Kompetenzen impliziert, bietet sich ein Vergleich auf Basis des Regional Authority Index (RAI) an. Dieser Index misst den Entscheidungsspielraum föderaler Gliedstaaten relativ zum Zentralstaat für 80 europäische, amerikanische und südostasiatische Länder anhand zehn verschiedener Indikatoren auf einer Skala von 0 (zentralisiert) bis 100 (dezentralisiert). Im aktuellsten Berichtsjahr (2016) kam Deutschland auf einen Wert von 37,4 – das ist der höchste Wert unter allen untersuchten Ländern.

Dezentralisierung und Inzidenz: Kein statistischer Zusammenhang

Oberstes Ziel des Seuchenschutzes ist es, Todesfälle durch Covid-19 zu vermeiden. Wird die Gesamtzahl der bis einschließlich 20. Juni 2021 registrierten Todesfälle ins Verhältnis zur Bevölkerung gesetzt, findet sich ein schwacher positiver Zusammenhang mit dem Dezentralisierungsgrad eines Staates. Statistisch ist dieser Effekt nicht signifikant, auch wenn für Unterschiede im (kaufkraftkorrigierten) Pro-Kopf-Einkommen und die Bevölkerungsdichte kontrolliert wird.

Deutschland liegt mit knapp 1.080 Todesfällen pro Million unter dem Gesamt- und OECD-Durchschnitt (1.148 bzw. 1.281). Insbesondere innerhalb der Gruppe der strukturell vergleichbaren 37 OECD-Länder finden sich föderale Länder sowohl mit niedriger Inzidenz (Australien) als auch solche mit hoher Inzidenz (USA). Das zentralistische Großbritannien weist eine hohe Inzidenz auf, während das ähnlich zentralistische Südkorea wenig Fälle erleiden musste. Wenn der Föderalismus in der Krise zur Last werden sollte, drückt sich dies zumindest nicht in höheren Todeszahlen aus.

Föderale Staaten weder laxer noch strikter

Im Zuge der Pandemie setzten Staaten auf zahlreiche Eindämmungsinstrumente wie den Maskenzwang, Grenzschließungen, Lockdowns und Mobilitätseinschränkungen. Der von der Universität Oxford konstruierte Containment and Health Index (CHI) bildet die Strenge derartiger und weiterer Maßnahmen auf einer Skala von 0 (lax) bis 100 (strikt) tagesaktuell ab. Wird der durchschnittliche CHI-Wert eines Staates zwischen dem 11. März 2020 (Pandemie-Erklärung der WHO) und dem 20. Juni 2021 zugrunde gelegt, ergibt sich kein signifikanter Zusammenhang mit dessen Dezentralisierungsgrad. Auch nach Korrektur für das Pro-Kopf-Einkommen und die Bevölkerungsdichte entsteht kein statistisch signifikanter Zusammenhang.

Mit einem durchschnittlichen CHI-Wert von 64,1 liegt Deutschland leicht über den Gesamt- und OECD-Durchschnittswerten (beide 60,2). Einige Kritiker des Föderalismus befürchten, dass dezentrale Entscheidungen in der Pandemie zu zaghaften Eindämmungsmaßnahmen führen – dem sprichwörtlichen „kleinsten gemeinsamen Nenner“. Andere Kommentatoren befürchten einen Überbietungswettbewerb, in dem sich Regionalfürsten mit den härtesten Ansätzen gegenseitig überbieten. Die Daten legen dagegen nahe, dass föderale Staaten auf die Pandemie bisher weder besonders lax, noch besonders strikt reagierten.

Zentral- und Föderalstaaten impfen ähnlich schnell

Zu Beginn des aktuellen Jahres trat die Beschaffung und Verteilung von Impfstoffen in den Vordergrund des staatlichen Krisenmanagements. Zwar wird der Einkauf auch in föderalen Staaten zentralistisch organisiert – im Fall der EU sogar weitgehend supranational. Doch die jeweiligen Gliedstaaten spielen bei der Organisation und Durchführung von Impfkampagnen potenziell eine wichtige Rolle. Als Indikator für den Erfolg staatlicher Impfkampagnen bietet sich der Anteil der mindestens einmal geimpften Bürger an der Bevölkerung an, die Erstimpfungsquote. Diese fällt in föderalen Staaten leicht höher aus. Doch ist auch dieser Zusammenhang statistisch nicht signifikant, auch nach Berücksichtigung unterschiedlicher Pro-Kopf-Einkommen und Bevölkerungsdichten.

Am 20. Juni 2021 betrug Deutschlands Erstimpfungsquote 50,4 %, ein weit über dem Gesamt- und OECD-Durschnitt liegender Wert (32 % bzw. 44,6 %). Eine föderale Staatsorganisation steht einer zügigen Durchimpfung der Bevölkerung offensichtlich nicht im Weg, wie Deutschland und die USA illustrieren. Andererseits preschen mit Israel und Großbritannien zwei besonders zentralistische Staaten voran. Mit Australien und Japan weisen zwei außerhalb der EU liegende Staaten trotz des unterschiedlichen Dezentralisierungsgrades eine ähnlich niedrige Impfquote auf.

Der Föderalismus funktioniert auch in der Krise

Im Zuge der Pandemie ist das Ansehen des Föderalismus in der deutschen Bevölkerung laut repräsentativer Umfragen deutlich gestiegen. Das mag angesichts der überwiegend kritischen Medienkommentare zum angeblich unübersichtlichen, chaotischen und widersprüchlichen Krisenmanagement zunächst verwundern.

Doch das hohe Ansehen föderaler Institutionen steht im Einklang mit der positiven Einschätzung seitens wissenschaftlicher Beobachter. Auch ein systematischer Vergleich dreier zentraler Indikatoren zwischen zentralistischen und föderalen Staaten verdeutlicht, dass dezentrale Entscheidungsmechanismen in der Pandemie nicht hinderlich waren. Unberücksichtigt lässt dieser Vergleich den schwer quantifizierbaren, in Krisen jedoch möglicherweise gewichtigsten Vorzug des Föderalismus: Mit den Föderalstaaten schützt eine zusätzliche Instanz die Bürger vor massiven Freiheitseinschränkungen und der Aushöhlung von Grundrechten.

Erstmals erschienen bei IREF (Teil 1/Teil 2).

Photo: lawrence wilcox from Unsplash (CC 0)

Von Kalle Kappner, wissenschaftlicher Mitarbeiter an der Humboldt-Universität zu Berlin, Research Fellow bei IREF, Fackelträger von Prometheus.

Über den disziplinierenden Einfluss auf die Geldpolitik hinaus motiviert Bitcoin die Zentralbanken längst dazu, über die Etablierung staatlicher Digitalwährungen nachzudenken. Unabhängig von den geldpolitischen Konsequenzen dürften die Nutzer staatlicher Währungen in den nächsten Jahren Innovationen erwarten.

Dezentrale Zahlungsplattform, disruptive Kryptowährung, ultimative Krisenschutzanlage – dem seit 2009 operierenden Bitcoin-Protokoll wird seitens enthusiastischer Kleinanleger, FinTech-Unternehmen und zunehmend auch professionellen Investoren viel Potenzial zugeschrieben. Allen Unkenrufen und kurzfristigen Rückschlägen zum Trotz legte die Digitalwährung in den letzten zwölf Jahren ein enormes Kurswachstum hin. 2010 gab es für 10.000 bitcoins zwei Pizzen; heute wird ein bitcoin für mehr als 30.150 € gehandelt.

Geldpolitiker und Ökonomen haben den Ausbau der Bitcoin-Finanzarchitektur von Beginn an interessiert begleitet. Sie zeigten sich jedoch stets skeptisch hinsichtlich des Potenzials, etablierten Währungen wie dem Euro ernsthafte Konkurrenz zu machen. Die Kritik geht dabei über den noch unklaren volkswirtschaftlichen Nutzen der Kryptowährung hinaus; wenig attraktiv erscheint Kritikern auch der im Vergleich zu etablierten Zentralbankwährungen geringe geldpolitische Gestaltungsspielraum.

Einige profilierte Ökonomen landeten in der Vergangenheit mit besonders abschätzigen Kommentaren in den Medien. So nennt Paul Krugman Bitcoin ein durch „technisches Geschwafel und libertäre Hirngespinste getriebenes Schneeball-System“; Jeffrey Sachs spricht von „wertlosem, umweltschädlichen Falschgeld“; Der Finanzmarktforscher Jon Danielsson meint lakonisch: „Kryptowährungen ergeben keinen Sinn“. Diese harschen Urteile sollten indes nicht darüber hinwegtäuschen, dass zwischen Zentralbanken, Ökonomen und Digitalwährungsenthusiasten längst ein fruchtbarer Austausch stattfindet. Die Privatgeld-Revolution mag ausbleiben, doch einen Einfluss auf die geldpolitische Forschung und Praxis übt Bitcoin längst aus.

Geldfunktionen nur sehr eingeschränkt erfüllt

Sowohl die umfassende Software- und Nutzerinfrastruktur („Bitcoin“) als auch individuell gehaltene Token („bitcoins“) werden in der Regel als „Kryptowährung“ betitelt. Den meisten Kommentatoren fällt es indes schwer, zu definieren, was genau Bitcoin eigentlich ist. Das 2008 veröffentlichte Bitcoin-Whitepaper beschreibt ein innovatives Zahlungssystem, das dank eines dezentralen Grundbuchs sichere Transaktionen auch ohne zentrale Verifizierungsinstanz erlaubt. Auf Basis dieser technologischen Neuerung verbanden sich in den Folgejahren viele Hoffnungen mit der wachsenden Bitcoin-Infrastruktur, insbesondere die Vorstellung einer rein privat organisierten Währung, die Zentral- und Geschäftsbanken obsolet macht, Transaktionen verbilligt und das Finanzsystem demokratisiert.

Dieser Traum hat sich bisher nicht bewahrheitet. Bitcoin erfüllt die klassischen drei Geldfunktionen – Tauschmittel, Wertaufbewahrungsmittel und Recheneinheit – trotz wachsender Nutzerzahlen nur sehr eingeschränkt. Der Bitcoin-Kurs ist sehr volatil, was die Kryptowährung als Wertaufbewahrungsmittel disqualifiziert. Individuelle Transaktionen kosten viel Zeit und Ressourcen. Bisher akzeptieren nur wenige Händler bitcoins. Bitcoins sind weit davon entfernt ein allgemein akzeptiertes Tauschmittel zu sein. Als genuine Recheneinheit bevorzugen selbst die Händler, die auch bitcoins akzeptieren, Dollar, Euro und Yen. Einigen alternativen Kryptowährungen („Altcoins“) gelingt es zwar, Transaktionskosten, Ressourcenverbrauch und Volatilität deutlich zu senken, doch angesichts Bitcoins Dominanz im Kryptomarkt ist es fraglich, ob die Mitbewerber sich durchsetzen können.

Wenn Bitcoin kein Geld ist, was ist es dann? Aktuell werden bitcoins nahezu ausschließlich als Anlageobjekt gehalten – eine Rolle, die im ursprünglichen Whitepaper nicht angedacht war. Bitcoins Attraktivität als Anlagetitel speist sich aus der geringen Korrelation mit herkömmlichen Anlageklassen und einer möglichen Rolle als Inflations- und Krisenschutz. Angesichts der Fähigkeit einzelner Marktakteure, den Preis gezielt zu manipulieren und der zukünftig anstehenden Regulierung der Zahlungsplattform ist Bitcoins Zukunft als Anlagetitel allerdings ungewiss. Der Ökonom Tyler Cowen argumentiert, dass Bitcoins Zukunft entweder in der Rolle einer Transaktionsplattform oder eines Anlageobjekts liegt – nicht jedoch in beidem gleichzeitig.

Bitcoin: Menge der Tokens limitiert

Dass Bitcoin die klassischen Geldfunktionen derzeit nicht ausfüllt, bedeutet nicht, dass privat organisierte, dezentrale Währungen dazu prinzipiell ungeeignet wären – das zeigen sowohl theoretische Beiträge wie die des Nobelpreisträgers Hayek als auch historische Beispiele wie das Schweizer Freibanken-System im 19. Jahrhundert. Sollte es Bitcoin in Zukunft gelingen, die hohen Transaktions-, Energie- und Umweltkosten zu senken und die Wertentwicklung zu stabilisieren, könnte die Akzeptanz als Zahlungsmittel steigen – zulasten staatlicher Währungen wie dem Euro.

Für Bitcoin-Enthusiasten ist das ein vielversprechendes Szenario, vor allem aufgrund der strikten Mengenlimitierung der Kryptowährung. Dem aktuellen Protokoll zufolge wird die letzte der insgesamt 21 Mio. bitcoins im Jahr 2140 erschaffen werden; danach wird die handelbare Menge durch den allmählichen Verlust von Zugangsdaten sogar kontinuierlich sinken. Wenngleich das Bitcoin-Protokoll bis dahin reformiert werden dürfte, ist es unwahrscheinlich, dass die mechanische Mengenlimitierung aufgegeben wird, stellt sie doch für Bitcoin-Enthusiasten den zentralen Vorteil gegenüber Zentralbankwährungen dar. Durch die Mengenlimitierung sollen bitcoins sowohl vor schleichendem, als auch plötzlichem Wertverlust bewahrt werden, unter dem Zentralbankwährungen in der Vergangenheit wiederholt litten.

Ökonomen weisen jedoch darauf hin, dass die Zentralbanken der Industrieländer den Wert ihrer Währungen mittlerweile erfolgreich regulieren. Die Sorge vor einem massiven Wertverlust – über die unproblematischen, weil durch die Marktteilnehmer ohnehin einkalkulierten circa 2 % pro Jahr hinaus – sei daher unbegründet, ähnlich wie jede Sorge um die langfristig deflationären Tendenzen von Bitcoin.

Disziplinierung der Geldpolitik

Die wohlwollende Einschätzung der geldpolitischen Praxis durch Ökonomen mag in Teilen einen Interessenkonflikt der überwiegend durch Zentralbanken finanzierten Forschung widerspiegeln. Doch die meisten Menschen teilen das ausgeprägte Vertrauen in unabhängige Zentralbanken. Solange dieses Vertrauen fortbesteht und Kryptowährungen keine nennenswerten Vorteile im alltäglichen Zahlungsverkehr bieten, spricht aus Sicht vieler Zentralbank-Forscher und -Praktiker wenig für privaten Währungswettbewerb.

Sie sehen kaum Nutzen in einer Währung, die zwar die theoretische Gefahr einer Hyperinflation beseitigt, dafür aber einen hohen Preis verlangt: Sollte Bitcoin die staatlichen Währungen komplett ersetzen, wäre mangels Zentralbank im Zuge eines Konjunkturabschwungs weder kurzfristig stabilisierende Geldpolitik möglich, noch gäbe es eine Institution, die glaubhaft als Kreditgeber letzter Instanz auftreten könnte. Diese Instanz, deren Rolle derzeit durch die Zentralbanken ausgefüllt wird, verspricht, die Geschäftsbanken im Krisenfall stets mit genügend Liquidität zu versorgen und nimmt Einlegern somit den Anreiz, ihre Konten leer zu räumen und damit Liquiditätsengpässe zu verschärfen.

Einige Ökonomen weisen allerdings darauf hin, dass ein Mittelweg vorstellbar ist. So könnten Kryptowährungen und die mit ihnen verbundenen innovativen Zahlungssysteme in einer weiterhin durch Zentralbankwährungen dominierten Wirtschaft eine nützliche Nischenrolle einnehmen. Solange das der Fall ist, übt die den Marktteilnehmern offenstehende Option, Euros gegen Bitcoins einzutauschen eine disziplinierende Wirkung auf die EZB und andere Zentralbanken aus und animiert diese zu verantwortlicherer Geldpolitik. Zentralbanken könnten indes weiterhin als Kreditgeber letzter Instanz fungieren.

Innovationstreiber Bitcoin

Über den disziplinierenden Einfluss auf die Geldpolitik hinaus motiviert Bitcoin die Zentralbanken längst dazu, über die Etablierung staatlicher Digitalwährungen nachzudenken. So treiben EZB, amerikanische Fed und die chinesische People‘s Bank Forschungsprogramme zur Einführung sogenannter Digital Central Bank Currencies voran.

Ironischerweise könnte ausgerechnet der von Bitcoin ausgehende Innovationsdruck dazu führen, dass ein alter Traum der Zentralbanken in Erfüllung geht: Im Rahmen einer vollständig digitalen Währung wären möglicherweise Negativzinsen auf Sichteinlagen möglich. Der Spielraum der Geldpolitik würde damit weiter steigen – und damit auch die potenzielle Risiken für Geldnutzer, Sparer und Investoren.

Unabhängig von den geldpolitischen Konsequenzen dürften die Nutzer staatlicher Währungen in den nächsten Jahren Innovationen erwarten, beispielsweise durch den Einsatz der durch Bitcoin popularisierten, Effizienzgewinne versprechenden Digital Ledger-Technologie in etablierten Zahlungs- und Transaktionssystemen.

Erstmals erschienen bei IREF.