Foto: biancamentil from Pixabay (CC O)

Von Dr. Alexander Fink, Universität Leipzig, Senior Fellow des IREF – Institute for Research in Economic and Fiscal Issues und Fabian Kurz, Doktorand der Volkswirtschaftslehre. 

Auf den ersten Blick ist Vollkommenheit erstrebenswert. Doch Perfektion ist in vielen Fällen mit hohen Kosten verbunden. Immer mehr Ressourcen, die anderswo eingesetzt werden könnten, müssen verwandt werden, um noch das letzte bisschen Unvollkommenheit auszumerzen. Unvollkommenheit ist deshalb häufig optimal.

Optimale Unvollkommenheiten

Eine Welt ohne Morde, Kriminalität, Todesopfer im Straßenverkehr, Flugzeugunglücke und mit einer immer pünktlichen Deutschen Bahn sowie einer hundertprozentigen Recyclingquote. Wäre das nicht schön? Aktuell möchte Verkehrsminister Scheuer mit einer „Funkloch-App“ auch die letzten weißen Flecken in Mobilfunknetzen aufspüren und beseitigen. Auf den ersten Blick ist Vollkommenheit erstrebenswert. Doch Perfektion ist in vielen Fällen mit hohen Kosten verbunden. Immer mehr Ressourcen, die anderswo eingesetzt werden könnten, müssen verwandt werden, um noch das letzte bisschen Unvollkommenheit auszumerzen. Unvollkommenheit ist deshalb häufig optimal.

Trade-Offs und steigende Kosten

Ressourcen wie Rohstoffe und Arbeitszeit sind knapp. Ihre Verwendung auf eine Aktivität schließt eine alternative Verwendung aus. Werden Ressourcen zur Verbesserung der medizinischen Versorgung eingesetzt, können sie nicht mehr für die Prävention von Kriminalität verwandt werden. Derartige Trade-Offs plagen uns, sobald Ressourcen lediglich begrenzt zur Verfügung stehen. Angestrebte Ziele können dann nur erreicht werden, wenn die Verfolgung anderer Ziele eingeschränkt wird.

Keine Morde, Kriminalität, Todesopfer im Straßenverkehr, Flugzeugunglücke und eine stets pünktliche Deutsche Bahn haben etwas gemein: Je näher man einem dieser Ziele kommt, desto größer ist der Aufwand, einen weiteren Schritt in Richtung der angestrebten Vollkommenheit zu machen. Der Ressourceneinsatz steigt überproportional und bei alternativen Zielen müssen immer mehr Abstriche gemacht werden. Dilemmata dieser Art sind allgegenwärtig.

100 Prozent Recycling?

Die Recyclingquote für Siedlungsabfälle ist von 56 Prozent im Jahr 2002 auf 67 Prozent im Jahr 2015 gestiegen. Dies sind grundsätzlich erfreuliche Nachrichten. Doch welcher Aufwand wurde betrieben, um die zusätzlichen 11 Prozentpunkte zu erreichen? Wurde relativ zum Nutzen wenig Aufwand betrieben, um die Recyclingquote zu erhöhen, dann wurden insgesamt Ressourcen geschont. Überstieg dagegen der zusätzliche Ressourcenaufwand die Einsparungen durch zusätzliches Recycling, hat sich die Steigerung nicht gelohnt.

Je höher die Recyclingquote ist, desto aufwändiger ist es, diese weiter zu erhöhen. Das Recycling jeder weiteren Einheit ist etwas teurer als für die Einheit zuvor. Eine hundertprozentige Recyclingquote wird daher kaum optimal sein. Eine Studie aus dem Jahr 2014 kommt zum Beispiel zu dem Schluss, dass die Recyclingquote in Japan ineffizient hoch sei. Dabei lag die Recyclingquote dort bei nur knapp über 20 Prozent.

Beste medizinische Versorgung?

Mückenstiche können gefährlich sein, auch in Deutschland. Nicht Malaria, sondern eine Entzündung und eine darauffolgende Blutvergiftung können schwerwiegende gesundheitliche Schäden hinterlassen. Eine schnelle ärztliche Behandlung ist bei einem Verdacht auf eine Blutvergiftung unabdinglich. Sollten deshalb alle Personen mit dem Verdacht auf einen Mückenstich auf die Intensivstation gebracht werden? Wollten wir die medizinische Versorgung auf das höchstmögliche Level anheben, wäre dies wohl die Folge. Auch hier zeigt sich, dass die Extremlösung nicht optimal ist.

Ebenso verhält es sich mit der Krankenwagendichte. In Notfällen ist es entscheidend, dass Patienten schnell medizinisch versorgt werden. Im ländlich geprägten Rheinland-Pfalz brauchen Krankenwagen im Durchschnitt etwa 7 Minuten bis sie einen Patienten erreichen. Immerhin 94 Prozent der Rheinland-Pfälzer können in unter 15 Minuten von einem Krankenwagen erreicht werden. Eine bessere Versorgung mit Krankenwagen wäre natürlich möglich. Doch in der dünnbesiedelten Eifel eine Abdeckung wie in Mainz zu garantieren, wäre sehr aufwendig. Auch eine wünschenswerte bessere Versorgung in den Städten ist mit immer höherem Aufwand verbunden. Es wäre kaum optimal, wenn jeder Straßenzug eine eigene Rettungswacht beherbergte. Die Kosten, auch die letzte Minute Anfahrtszeit zu reduzieren, sind schlicht zu hoch.

Hundertprozentige Medikamentensicherheit?

Wir alle wünschen uns, dass Medikamente unsere Gesundheit verbessern. Zu diesem Zweck werden Medikamente aufwendig geprüft. Doch die aufwendigen, staatlich geforderten Tests und Zulassungsverfahren führen nicht nur dazu, dass die Wahrscheinlichkeit sinkt, dass ein schadhaftes Medikament auf den Markt kommt. Sie führen auch dazu, dass Erkrankte die von getesteten Medikamenten profitieren könnten, diese erst verspätet oder gar nicht erhalten.

Es muss daher zwischen den Kosten der Nichtbereitstellung hilfreicher Medikamente und dem Schaden, der durch fehlerhafte Medikamente verursacht wird, abgewogen werden. Ein hundertprozentiger Ausschluss potentiell schädlicher Medikamente würde die Einführung wirksamer Medikamente unverhältnismäßig verzögern oder gänzlich verhindern.

Optimale Mordrate nicht null?

Auch hundertprozentige öffentliche Sicherheit ist nicht mit angemessenem Aufwand zu erreichen. Selbstverständlich wäre es wünschenswert, wenn alle Menschen engelsgleich wären und es keine Morde gäbe. Müssen für die Verhinderung von Morden mehr Polizisten und Richter eingestellt oder die Videoüberwachung ausgeweitet werden, können diese Ressourcen jedoch nicht für alternative wünschenswerte Ziele eingesetzt werden. Dabei wird es mit sinkender Mordrate schwieriger und somit teurer, sie weiter zu senken. Selbst eine 24-Stunden-Polizeistreife für jeden Straßenzug wird nicht ausreichen, um jeden Mord zu verhindern.

Vollkommenheit unerschwinglich

Es wäre wünschenswert, wenn kostenlos dafür gesorgt werden könnte, dass Menschen nicht morden, Krankenwagen sofort vor Ort sind, die Bahn immer pünktlich kommt, eingesetzte Ressourcen vollständig recycelt werden und vieles mehr. Leider ist Vollkommenheit nicht zu Kosten von null erreichbar.

Bei der Formulierung von Zielen sollten stets die Kosten berücksichtigt werden. Extremlösungen erweisen sich nur in Ausnahmefällen als optimal. Im privaten Bereich werden Menschen zwangsläufig mit den Kosten ihrer Handlungen konfrontiert. Wenn etwa Frau Hoppenstedt nicht nur ein Jodeldiplom erlangen, sondern die beste Jodlerin der Welt werden möchte, kann sie nur noch wenig Zeit mit ihrem Mann verbringen.

Auch in der Politik gilt: There is no free lunch

Haben Entscheidungen Einzelner direkte Konsequenzen auch für andere, besteht die Gefahr, dass Kosten nur unzureichend berücksichtigt werden. Die Politik als der Bereich unserer Gesellschaft, in dem wir in Gruppen entscheiden oder gewählte Repräsentanten für uns entscheiden lassen, ist von diesem Problem besonders betroffen. Wähler haben angesichts hoher Informationskosten keinen Anreiz, vollständig informiert zu sein – unabhängig davon, ob sie an einer politischen Entscheidung direkt beteiligt sind oder nicht. Das macht es für Politiker reizvoll, die Vorteile politischer Maßnahmen zu betonen und die Kosten in Form alternativer Ressourcenverwendungen in den Hintergrund zu rücken. Um ihrer Kontrollfunktion gerecht zu werden, sollten gerade Vertreter der vierten Gewalt deshalb die Kosten stets mit im Blick haben, auch wenn ihnen das angestrebte politische Ziel persönlich zusagt.

So würde sich über die politische Durchsetzung lückenloser Mobilfunknetze gewiss nicht nur Herr Scheuer freuen. Doch wäre es die Kosten wirklich Wert, auch im entlegensten Waldstück LTE-Empfang zu haben? Das eine oder andere Loch im Funknetz ist vermutlich optimal.

Erstmals veröffentlicht bei IREF. 

Photo: Alvan Nee from Unsplash (CC 0)

Von Dr. Alexander Fink, Universität Leipzig, Senior Fellow des IREF – Institute for Research in Economic and Fiscal Issues und Fabian Kurz, Doktorand der Volkswirtschaftslehre. 

Nach zähen Verhandlungen steht nun ein Kompromiss für die Neugestaltung der zukünftigen Bund-Länder-Finanzen. Für eine mögliche höhere Steuerbelastung können die Landespolitiker in Zukunft in einem noch größeren Umfang den Bund verantwortlich machen. So profitieren Politiker in den Ländern von der intransparenten Finanzierung staatlicher Ausgaben. Aus Sicht der Bürger ist diese Entwicklung enttäuschend, da regional relevante Entscheidungen zukünftig häufiger auf Bundesebene gefällt werden.

Nach zähen Verhandlungen steht nun ein Kompromiss für die Neugestaltung der zukünftigen Bund-Länder-Finanzen. Die Ministerpräsidenten haben sich im Wesentlichen mit ihren Forderungen durchgesetzt – kein Bundesland muss mit weniger Geld auskommen. Der derzeit gültige Länderfinanzausgleich sowie der Solidarpakt II laufen Ende 2019 aus. Es bestand also Handlungsbedarf. Der oft kritisierte Länderfinanzausgleich wird zum Jahr 2020 in seiner jetzigen Form abgeschafft. An seine Stelle tritt ein neuer Umverteilungsmechanismus. Zudem begeben sich die Bundesländer in eine noch stärkere Abhängigkeit von Finanzzahlungen des Bundes und treten im Gegenzug Kompetenzen an ihn ab. Föderalistische Elemente werden so weiter zurückgebaut.

Nach dem Umsatzsteuervorausgleich ist vor dem Länderfinanzausgleich

Im bisherigen System findet ein Teil der Umverteilung des Steueraufkommens bereits im sogenannten Umsatzsteuervorausgleich statt – vor dem eigentlichen Länderfinanzausgleich. So wird für jedes Bundesland die Finanzkraft pro Einwohner ermittelt und in Relation zur Finanzkraft des Bundesdurchschnitts gesetzt. Anschließend werden bis zu 25 Prozent des Umsatzsteueraufkommens auf die finanzkraftschwachen Länder verteilt. Im Jahr 2017 waren es 8,4 Milliarden Euro.

Der Länderfinanzausgleich im engeren Sinne findet nach diesem Schritt statt. Die berechnete Finanzkraft wird zu Gunsten der Stadtstaaten und dünnbesiedelter Flächenländer angepasst und dann im Länderfinanzausgleich angeglichen. Im Jahr 2017 wurden so über 11 Milliarden Euro umverteilt.

Aktuell: Progressive Angleichung

Die Umverteilung im Länderfinanzausgleich hat einen progressiven Verlauf. Bei einer Finanzkraft unter 80 Prozent des Bundesdurchschnitts erhalten die Nehmerländer 75 Prozent der Differenz. Der Ausgleich sinkt bis zu einer Finanzkraft von 93 Prozent des Bundesdurchschnitts linear auf 70 Prozent. Der Ausgleich sinkt linear schließlich auf 44 Prozent, bis ab 100 Prozent des Bundesdurchschnitts ein Land nicht mehr Mittel aus dem Ausgleich erhält, sondern Mittel einzahlt.

Für die Nettozahlerländer verhält es sich spiegelbildlich. Die Grenzabschöpfung steigt linear von 44 auf 70 Prozent, wenn ein Bundesland bis zu 107 Prozent des Bundesdurchschnitts verfügt und steigt linear ab einer Finanzkraft von 120 Prozent auf 75 Prozent.

Schließlich werden Bundesländern, deren Finanzkraft nach dem Länderfinanzausgleich noch unter 99,5 Prozent des Bundesdurchschnitts liegt, durch allgemeine Bundesergänzungszuweisungen seitens des Bundes unterstützt. Die Differenz zu 99,5 Prozent der durchschnittlichen Finanzkraft wird so zu 77,5 Prozent ausgeglichen. Diese Bundeszuschüsse an finanzschwache Bundesländer summierten sich im Jahr 2017 auf 4,5 Milliarden Euro.

Die östlichen Bundesländer erhalten außerdem Sonderbedarfs-Bundesergänzungszuweisungen im Rahmen des Solidarpakts II und als Ausgleich für Sonderlasten aus struktureller Arbeitslosigkeit. Kleine, finanzschwache Bundesländer erhalten Sonderbedarfs-Bundesergänzungszuweisungen, um die relativ höheren Kosten politischer Führung zu bestreiten.

Neue Bund-Länder-Finanzen

Der Umsatzsteuervorausgleich in seiner jetzigen Form und der eigentliche Länderfinanzausgleich werden abgeschafft. Ab 2020 erfolgen keine direkten Zahlungen mehr von einem Bundesland an ein anderes.

Im gefundenen Kompromiss wird den Unterschieden in der Finanzkraft durch die Verteilung der Umsatzsteuereinnahmen und direkte Zuwendungen des Bundes begegnet. Bei der Ermittlung der Finanzkraft werden weiterhin die Stadtstaaten und die dünn besiedelten Flächenländer bevorteilt. Außerdem wird Bundesländern mit finanzkräftigen Gemeinden eine höhere Finanzkraft bescheinigt als bisher.

Etwas bessere Anreize für Geberländer

Während im jetzigen System über den Länderfinanzausgleich die Schließung der Finanzkraftlücke progressiv gestaltet ist, gibt es ab 2020 einen einheitlichen Satz von 63 Prozent für den Ausgleich der Finanzkraft. Es werden also 63 Prozent der Abweichung vom Mittelwert der Finanzkraft der Bundesländer ausgeglichen. Länder, die eine überdurchschnittliche Finanzkraft haben, bekommen dementsprechend weniger Einnahmen aus der Umsatzsteuer.

Die Vereinheitlichung der Grenzbelastung des Finanzausgleichs auf 63 Prozent wirkt sich positiv auf die Anreize der Nettozahlerländer aus, durch geeignete Politikmaßnahmen höhere Einnahmen zu erzielen. Im bisherigen Länderfinanzausgleich führten Einnahmesteigerungen von einem Euro zu einer Zahlung von bis zu 75 Cent an andere Bundesländer. Im zukünftigen Ausgleich über die Umsatzsteuer liegt die Grenzbelastung der Geberländer bei 63 Cent pro Euro Mehreinnahmen. Diese Belastung erscheint allerdings nicht mehr transparent in den Landeshaushalten, sondern erfolgt weniger transparent über die Verteilung der Umsatzsteuereinahmen. Die Tagesschau berichtete im Jahr 2016 treffend, dass der Bund den Vorschlag, den Finanzkraftausgleich über die Verteilung der Umsatzsteuer zu organisieren, noch als intransparent ablehnte.

Schlechtere Anreize für Nehmerländer

Für die Nettoempfängerländer gibt es keinen stärkeren Anreiz, die eigene Finanzkraft zu erhöhen. Zwar entfallen die Sonderbedarfs-Bundesergänzungszuweisungen für die Ostdeutschen Bundesländer (Solidarpakt II) ab dem Jahr 2020, dennoch erhöhen sich die direkten Zahlungen des Bundes an finanzschwache Länder insgesamt.

Die allgemeinen Bundesergänzungszuweisungen bleiben erhalten und erhöhen sich. Ab dem Jahr 2020 wird nicht mehr die Differenz zu 99,5 Prozent der durchschnittlichen Finanzkraft zu 77,5 Prozent ausgeglichen, sondern die Differenz zu 99,75 Prozent der durchschnittlichen Finanzkraft zu 80 Prozent. Dieser höhere Ausgleich stellt sicher, dass durch die Neustrukturierung kein Land weniger Geld erhält, und führt dazu, dass es sich für die Empfängerländer der allgemeinen Bundesergänzungszuweisungen noch weniger als bisher lohnt, eigene Einnahmen zu erschließen. Andere Sonderbedarfs-Bundesergänzungszuweisungen für den Ausgleich für Sonderlasten aus struktureller Arbeitslosigkeit oder den Ausgleich der Kosten politischer Führung bleiben ebenso erhalten.

Im Ergebnis könnten die stärkeren Anreize zur fiskalischen Solidität für die Geberländer sowie die schwachen Anreize der Nehmerländer dazu führen, dass die Finanzkraftzahlen der Bundesländer weiter auseinanderdriften.

Verantwortung? Nein danke.

Bund und Länder haben sich auf einen fragwürdigen Kuhhandel geeinigt. Bisherige Geber- und Nehmerländer können über zusätzliche Mittel verfügen. Der Bund kommt für die notwendigen Transfers im Tausch für eine Ausweitung seiner Kompetenzen auf. Er erhält neue Eingriffsrechte in den Bereichen Fernstraßen, Steuerverwaltung, Bildungsinvestitionen und Online-Angebote der Verwaltungen. Nach Berechnungen des Instituts der deutschen Wirtschaft Köln verzichtet der Bund zugunsten der Länder ab dem Jahr 2020 jährlich auf insgesamt 3 Prozent seiner Steuereinnahmen.

Der von den Ministerpräsidenten eingeschlagene Weg ist nachvollziehbar. Politiker können ein Interesse daran haben, Entscheidungsgewalt zu delegieren, um Verantwortung abzutreten. Für die Ministerpräsidenten ist es attraktiv, potentiellen Wählern zusätzliche Leistungen in Aussicht zu stellen, ohne ihnen zugleich die Rechnung dafür vorlegen zu müssen. Für eine mögliche höhere Steuerbelastung können die Landespolitiker in Zukunft in einem noch größeren Umfang den Bund verantwortlich machen. So profitieren Politiker in den Ländern von der intransparenten Finanzierung staatlicher Ausgaben.

Die Vorzüge dezentraler Entscheidungen

Aus Sicht der Bürger ist diese Entwicklung enttäuschend, da regional relevante Entscheidungen zukünftig häufiger auf Bundesebene gefällt werden.

Werden Entscheidungen dezentral gefällt, können unterschiedliche lokale Gegebenheiten und Präferenzen besser eingeschätzt und berücksichtigt werden. Schon innerhalb von Bundesländern gibt es erhebliche Unterschiede, auch innerhalb der Verwaltung. So werden in Schwaben Verwaltungsakten mit Hilfe von Ordnern archiviert, während in Baden die sogenannte „Badische Aktenheftung“ angewandt wird.

Bundesstaatliche Vereinheitlichungen lassen nicht nur regionale Besonderheiten unberücksichtigt, sondern verhindern auch Experimente, die behilflich sein können, die beste Lösung für ein Problem zu finden. So mag die Gestaltung eines Online-Verwaltungsportals in manchen Bundesländern besser glücken als in anderen. Werden dezentral unterschiedliche Entscheidungen getroffen, können die Bundesländer voneinander lernen. Bei zentralen Bundesentscheidungen hingegen nicht.

Schließlich ist es für die Bürger schwerer, politische Verantwortlichkeit zuzuordnen und demokratische Kontrolle über staatliche Aktivitäten auszuüben, wenn die Verantwortung für die Finanzierung und Durchführung staatlicher Aktivitäten nicht zusammenfallen.

Aus diesen Gründen wäre es begrüßenswert, wenn mehr Entscheidungen über staatliche Ausgaben und Einnahmen dezentral auf Ebene der Länder oder ihnen nachgeordneten Gebietskörperschaften getroffen würden. Die Neuordnung der Bund-Länder-Finanzen ist leider ein Schritt in die entgegengesetzte Richtung.

Erstmal erschienen bei IREF.

Photo: Max Bender from Unsplash (CC 0)

Von Gordon Kerr und Cavin O’Driscoll.

Die Bank für Internationalen Zahlungsausgleich hat sich in einem Bericht äußerst kritisch über die Blockchain-Technologie und ihre verschiedenen Anwendungen geäußert. Dabei zweifelt das Basler Institut die generelle Nützlichkeit an und kritisiert schließlich den enormen Energieverbrauch der Krypto-Währungen. Die Kritik mag auf den Kryptovorreiter Bitcoin zutreffen, doch hat sich die Technologie längst weiterentwickelt und die von der BIS angeführten Schwächen überwunden.

Um die Veränderung des Potentials der Blockchain-Technologie im Kontext des Krypto-Währungs-Hypes zu verstehen, plädiert der an der Wharton School tätige Professor David Werbach dafür, zwischen drei häufig vermengten Begriffen zu unterscheiden:

> Krypto-Währungen wie Bitcoin: Netzwerke, die Werttransfers sichern sollen;

> Blockchains: Netzwerke, die gemeinsam die Gültigkeit von Informationen prüfen können;

> Tokens: Krypto-Vermögenswerte, die sich handeln lassen.

Blockchains und vielleicht sogar Kryptoassets könnten bedeutende Innovationen sein, welche auf dem besten Weg sind, in der breiten Masse Anwendung zu finden. Doch der Siegeszug der neuen Technologien ist noch nicht gewiss – so Werbach. Kurz nach unserem Beitrag zum Thema Bitcoins im Dezember wurden Bitcoins bis zu einem Preis von 19.843 Dollar gehandelt. In den vergangenen drei Monaten hat sich der Preis im Bereich von 6.000 bis 7.000 Dollar bewegt.

Jüngste Forschungsergebnisse deuten darauf hin, dass sich langfristige Bitcoin-Inhaber im Dezember zusammentaten, um den Preis zu treiben. Die hohe Preisvolatilität ist ein Grund, warum Bitcoin bisher keine flächendeckende Akzeptanz gefunden hat. Auch die täglichen Berichte über Betrug und Skandale bei der Einführung neuer Krypto-Währungen tragen dazu bei, dass zusammen mit anderen strukturellen und technischen Unzulänglichkeiten Krypto-Währungen weit davon entfernt sind, die Vormachtstellung herkömmlicher Währungen in Gefahr zu bringen.

Krypto-Währungen: Nutzlos und energieverschwenderisch?

Umso überraschender ist, dass trotz des Nischendaseins von Krypto-Währungen die Bank für Internationalen Zahlungsausgleich (BIS) sich im Juni ausführlich mit den Nachteilen und Gefahren der Krypto-Währungen beschäftigt hat. Schon die Einleitung des 24-seitigen Berichts ist scharf formuliert:

„… über den Hype hinaus ist es schwierig, ein spezifisches wirtschaftliches Problem zu identifizieren, das sie derzeit lösen. Transaktionen sind langsam und kostspielig, anfällig für Engpässe und können nicht mit der Nachfrage mithalten. Die dezentralisierte Validierung von Datensätzen ist ebenfalls fragil und verbraucht enorme Mengen an Energie.“

Diese Kritik ist fragwürdig. Der erste Punkt ist leicht zu entkräften. Das „spezifische wirtschaftliche Problem“ dass Krypto-Währungen identifizieren ist die Fähigkeit, Mittel schnell und ohne Kosten von Banken zu transferieren, sowohl was Transaktionsgebühren als auch regulatorische Anforderungen betrifft. Bitcoin-Inhaber können Mittel weltweit innerhalb weniger Minuten ohne Compliance-Schritte übertragen, indem sie lediglich die Anweisungen und einen 26-stelligen privaten Schlüssel eingeben.

Abgesehen von der Nutzung zur Steuerhinterziehung und anderen offenkundig illegalen Aktivitäten, gibt es einen weiteren legitimen Nutzen von Krypto-Währungen. Die Ausweitung der Kontrolle von Zahlungsströmen durch Staaten wird zunehmend kritisch gesehen. Das Transaktionsgeheimnis an sich ist wertvoll.

Das zweite Argument der BIS ist, dass Blockchains langsam seien. Visa und Mastercard können derzeit 3.500 bzw. 2.000 Transaktionen pro Sekunde (TPS) verarbeiten. Im Vergleich dazu können die beiden größten Krypto-Währungen, Bitcoin und Ether, nur 3,3 respektive 3,2 TPS verarbeiten. Diese Geschwindigkeiten haben sich zudem auch aufgrund größerer Transaktionsvolumina deutlich verlangsamt. Allerdings verallgemeinert die BIS die Kritik zu voreilig. Ant Financial, das am höchsten bewertete Privatunternehmen der Welt, das die größte Online- und Mobile-Payment-Plattform betreibt, führt derzeit eine private Blockchain ein, die 25.000 TPS verarbeiten kann.

Kommen wir zum dritten Punkt der BIS: dem Stromverbrauch. Natürlich ist bekannt, dass Bitcoin Mining sehr energieintensiv ist. Schätzungen zufolge liegt der Gesamtenergieverbrauch von Bitcoin pro Jahr bei über 70 Terawattstunden. Der hohe Energieverbrauch ist allerdings nicht für alle Krypto-Währungen typisch. Ohne in technische Details zu gehen, belohnen Bitcoin und andere frühe Krypto-Währungen die Validierung von Transaktionen durch einen Prozess, der als „proof of work (POW)“ Puzzle-Lösung bekannt ist. Die mathematischen Puzzles sind so aufgebaut, dass eine beträchtliche Rechenleistung benötigt wird, um die Puzzles zu lösen – daher der Begriff POW.

Beliebte, wenn auch noch wenig verbreitete Krypto-Währungen wie DASH (Marktkapitalisierung 2 Milliarden US Dollar) und NEO (2,4 Milliarden US Dollar) setzen dagegen auf eine andere Methode, die als „proof of stake (POS)“ bezeichnet wird. Beim POS werden keine neuen Coins der Währung geschürft, die als Belohnung für die Validierung verbleiben. Vielmehr wird die Validierung von Transaktionen mit einer Transaktionsgebühr belohnt. Die Validatoren von Transaktionen werden zufällig ausgewählt, jedoch werden Inhaber größerer Rechenleistungen häufiger ausgewählt. Die Annahme ist, dass große Stakeholder einen Anreiz haben, die Integrität der Transaktionskette aufrechtzuerhalten. Wenn ein Validator betrügt, riskiert er, seinen Anspruch auf eine Entschädigung zu verlieren.

Die POS-Technologie entwickelt sich ständig weiter. Im Wettbewerb haben sich verschiedene Formen des Arbeitsnachweises entwickelt. Wir befinden uns noch in der frühen Phase der Krypto-Währungen. Bitcoin hat mit einer Marktkapitalisierung auf Basis der 17,1 Millionen ausgegebenen Münzen von 114 Milliarden US Dollar und einem täglichen Handelsvolumen von derzeit 3 – 5 Milliarden US Dollar pro Tag einen starken First Mover-Vorteil. Dennoch ist es merkwürdig, dass die BIS so viel Wert auf den Energieverbrauch legt, der eigentlich ein Problem darstellt, welches hauptsächlich Bitcoin betrifft.

Wie ist die Kritik motiviert?

Könnte es sein, dass die BIS erkannt hat, dass die coolen Kids von heute für die Umwelt brennen und sie sich deshalb entschieden hat, das schwache Umweltargument in den Vordergrund zu stellen?

Blockchain und die Ausgabe neuer Coins oder Tokens sind eindeutig sehr cool. Fast täglich finden in mehreren europäischen Großstädten gut besuchte Blockchain-Veranstaltungen statt. Anständig bezahlte Jobs für Absolventen sind in manchen Teilen Europas auf einem Allzeittief und die Anziehungskraft von Blockchain-Startups ist verständlich. Im Jahr 2017 wurden rund 6 Milliarden US Dollar an privatem Risikokapital in Blockchain-basierte Startups investiert, und Prognosen für 2018 belaufen sich auf 24 Milliarden US Dollar.

Konkurrenz für herkömmliches Geld?

Natürlich weist die BIS zu Recht darauf hin, dass Krypto-Währungen nur wenige Merkmale aufweisen, die mit den allgemein anerkannten Eigenschaften von Geld verbunden werden. Herkömmliche Geldsysteme zeichnen sich dadurch aus, dass sie von Zentralbanken verwaltet werden, die befugt sind, die Geldmenge zu kontrollieren. Außerdem sind Zentralbanken verpflichtet, tägliche Bilanzen zu erstellen, welche die Vermögenswerte ausweisen, auf denen die Währungsverbindlichkeiten der Zentralbanken basieren.

Windige und seriöse Geschäfte

Von den 750 Coins, die auf der angesehenen Webseite Coinmarketcap.com gelistet sind, haben die unteren 100 nur eine Marktkapitalisierung von wenigen tausend Dollar. Es ist kaum verwunderlich, dass hier auch windige Angebote zu finden sind. Eine andere Website, Deadcoin.com, listet 853 Beispiele für gescheiterte Coins und Betrugsfälle auf. Die relative Leichtigkeit, mit der sich neue Unternehmen durch den Verkauf von Krypto-Währungen finanzieren können, ist beunruhigend. Denn im Gegensatz zur Finanzierung über herkömmliches Eigenkapital oder Fremdkapital liegen den ausgegebenen Krypto-Währungen keine Ansprüche auf die Vermögenswerte und Cashflows der Unternehmen zu Grunde.

Es ist fast schon „uncool“ für ein neues, auf einer Blockchain basierendes Startup, sich nicht durch einen Verkauf von Coins zu finanzieren. Diese Art der Finanzierung wird als Initial Coin Offering (ICO) bezeichnet. Die Wertpapieraufsichtsbehörden haben die ICOs nur zögerlich mit ihren bestehenden Vorschriften in Einklang gebracht. Erst im Dezember griff die US-Börsenaufsicht SEC ein und stoppte ein ICO für ein Lebensmittelunternehmen namens Munchee, obwohl die ausgegebenen Coins keine Ansprüche auf die zugrundeliegenden Cashflows des Unternehmens vergaben. Für die Börsenaufsicht war es ausreichend, dass Munchees Angebotsdokumente darauf hindeuteten, dass das Management versuchen würde, den Wert der Token zu erhöhen. Die SEC hat erst kürzlich erklärt, dass Bitcoin und Ether keine Wertpapiere sind, allerdings schweigt die Börsenaufsicht zu anderen großen Coins. Jede zukünftige nachteilige Entscheidung der SEC würde die Werte solcher Coins belasten.

Der Selbsterhaltungstrieb von Institutionen

Im Krypto-Sektor sind daher weitere Verwerfungen möglich. Doch die relative Attraktivität ist entscheidend. Seit mehr als zehn Jahren lesen wir fast täglich über Skandale und über Manipulationen wichtiger Referenzzinsen durch die Banken und deren ständige Rettung durch Liquiditätsoperationen der Zentralbanken. Es mag sein, dass die BIS erkannt hat, dass Krypto-Währungen, obwohl sie noch winzig sind, eine Bedrohung für die Glaubwürdigkeit der Zentralbanken darstellen.

Wenn dem so ist, wäre die BIS nicht die erste Regulierungsbehörde, die durch Selbsterhaltung motiviert ist. Das schwedische Grundbuchamt hat angekündigt, Georgien nachzuahmen und sein Eigentumsregister auf ein Blockchain-System aufzubauen. Die Motivation der georgischen Behörde war die Bekämpfung von Korruption. Das schwedische Grundbuchamt dagegen befürchtet, dass Google eine App entwickeln wird und schwedische Bürger sich auf diese statt auf das offizielle Register verlassen würden.

BIS: Thema verfehlt

Das Hauptargument der BIZ hätte sich auf den fragwürdigen intrinsischen Wert, die Preisvolatilität und die Sorge um die Endgültigkeit der Validierung von Transfers konzentrieren sollen. Sollte eine „Reserve-Kryptowährung“ entstehen, die Bitcoin übertrumpft und wirklich mit klassischen Geld konkurriert, müssen Transaktionen sowohl endgültig als auch anfechtbar sein, wenn sie falsch ausgeführt wurden. Indem die BIZ schwache Argumente wie den Energieverbrauch vorschiebt, scheint die BIZ wie die Wertpapierregulierungsbehörden immer noch den Anschluss an das Thema zu suchen.

Zuerst erschienen bei IREF. 

Photo: Richard from Flickr (CC BY-ND 2.0)

Von Prof. Dr. Gunther Schnabl, Leiter des Instituts für Wirtschaftspolitik an der Universität Leipzig.

Zwar haben jüngst die Inflationsraten etwas angezogen. Im Oktober 2018 lag die Inflation im Euroraum bei 2,2% und in Deutschland sogar bei 2,5%. EZB-Präsident Mario Draghi kann dennoch stolz auf historisch niedrige Inflation verweisen. Die durchschnittliche Inflationsrate liegt für die EZB niedriger als für die Deutsche Bundesbank, so dass eine entschlossene geldpolitische Straffung weiter ausbleiben wird. Trotzdem denken viele Bürger, dass ihre Kaufkraft schwindet. Wie ist das zu erklären?

Die Kaufkraft wird in der Europäischen Union mit dem harmonisierten Konsumentenpreisindex gemessen. Dafür erfasst in Deutschland das Statistische Bundesamt über 300.000 Einzelpreise von 600 Waren und Dienstleistungen. Mieten haben einen Anteil von 32%, Ausgaben für Verkehr 13%, Freizeit, Unterhaltung und Kultur 11%, Nahrungsmittel 10% usw. Der Index ist in Deutschland seit 1999 mit durchschnittlich 1,4% pro Jahr etwas weniger als die Löhne (1,7%) gestiegen. Das suggeriert, dass die Kaufkraft der Bürger im Durchschnitt leicht gestiegen ist.

Aber viele Güter, die von den Bürgern konsumiert werden, sind gar nicht im offiziellen Index vertreten. Zum Beispiel eigengenutzte Wohnimmobilien: Deren Preise sind seit 1999 im Schnitt um 2,0% pro Jahr gestiegen, in den sieben größten Städten seit 2005 sogar um 5,8% pro Jahr. Stattdessen misst der Staat nur die Veränderung der Mieten, die er über qualifizierte Mietspiegel, Mietpreisbremsen und eine mieterfreundliche Rechtsprechung gedrückt hält, so dass diese seit 1999 nur um 1,2% pro Jahr gewachsen sind. Auch andere Vermögenspreise steigen steil. Wer mit deutschen Aktien fürs Alter vorsorgen wollte, musste seit 1999 pro Jahr durchschnittlich 7,7% (DAX) mehr berappen.

Auch öffentliche Güter wie Straßen, Bildung und Finanzmarktstabilität, deren Anteil am Verbrauch immerhin (gemessen an der Staatsquote) 45% beträgt, bleiben in der Statistik unberücksichtigt, obwohl die Bürger dem Staat immer mehr bezahlen. Der neue Berliner Flughafen wird beispielsweise statt ursprünglich zwei Milliarden Euro wohl mehr als sieben Milliarden Euro kosten. Der Preis des Neubaus der EZB-Zentrale in Frankfurt hat sich in vier Jahren von 850 auf 1300 Millionen Euro erhöht, also um 9% pro Jahr. Insgesamt ist die Steuerlast der Bürger seit 1999 um durchschnittlich 3% pro Jahr gestiegen, die gesamten Zahlungen an den Staat (einschließlich Sozialbeiträge) um 2,6%.

Ein zweiter wichtiger Faktor ist die Qualität. Während die statistischen Ämter bei Qualitätsverbesserungen (zum Beispiel bei Computern, Autos oder Elektrogeräten) die Preise nach unten korrigieren, drücken sie bei schlechterer Qualität ein Auge zu. Doch da – nicht zuletzt aufgrund stagnierender (oder fallender) realer Löhne – der Preisdruck im Einzelhandel groß ist, nimmt bei vielen Gütern nicht nur der Preis, sondern auch die Qualität ab. In den Autos steckt beispielsweise immer mehr Plastik. Obst und Gemüse schmecken meist fad. Kinderspielzeug ist zunehmend aus Kunststoff. Die Kleidung verschleißt schneller. Viele langlebige Verbrauchsgüter müssen schneller ersetzt oder repariert werden, was maßgeblich die Kaufkraft der Bürger reduziert.

Auch bei den Dienstleistungen sinkt die Qualität. Wo sind in den Mietshäusern die Hausmeister geblieben? Bei Vapiano, Starbucks und Wiener Feinbäcker und Co. bedienen wir uns heute selbst. Sympathische Möbelhäuser laden zur mühsamen Selbstmontage von Möbeln aus Pressspan und Plastikfolie ein. Fahrkarten und Flugtickets buchen wir selbst im Internet, natürlich ohne Preisnachlass. In den Supermärkten werden Fleisch-, Wurst- und Käsetheken abgebaut. Selbst das Kassieren machen die Kunden vermehrt selbst. Vielerorts scheint das Verkaufspersonal rarer geworden, so dass die Wartezeiten länger werden.

Dazu kommt der leise Verdacht, dass – wohl aufgrund eines massiven Investitionsstaus – die Qualität vieler öffentlicher Güter merklich nachgelassen hat. Für deutsche Straßen wird eine wachsende Zahl an Staukilometern vermeldet. Die Bundeswehr ist nicht mehr einsatzfähig. Die Bahn ist immer öfter zu spät. Viele Städte oder Stadtteile wirken zunehmend trist. Es fehlen Pfleger, Erzieher, Polizisten, Richter und Kitaplätze. All das taucht in der offiziellen Messung der Kaufkraft nicht auf, obwohl es den Bürgern reichlich Nerven kostet.

Die Inflation ist also in steigenden Vermögenspreisen und schlechterer Qualität von Gütern und Dienstleistungen versteckt! Während für Deutschland die offizielle Rate 2017 mit 1,7% angegeben wurde, wären es 2,4% gewesen, wenn auch eigengenutzte Immobilien eingerechnet worden wären. Hätte man die steigenden Kosten für öffentliche Güter berücksichtigt, dann hätte die Inflation bei 3,0% gelegen– und sogar bei 5,4%, wenn auch Aktien erfasst worden wären. Inklusive der Qualitätsverschlechterungen hätte die Inflation wohl deutlich über 6% gelegen.

Würden all diese Effekte gemessen, dann hätte die Europäische Zentralbank wohl schon lange ihr selbstgesetztes Inflationsziel von knapp 2% überschritten. Die Zinsen wären deutlich höher. Die EZB hätte keine Rechtfertigung für die immensen Ankäufe von Staatsanleihen gehabt. Es wäre deshalb nicht überraschend, wenn sich die europäischen Politiker weitgehend einig wären, dass die Inflation lieber weiter wie bisher gemessen wird. Ob das im Sinne der europäischen Bürger ist, steht auf einem anderen Blatt!

Photo: Max Langelott from Unsplash (CC 0)

Von Dr. Alexander Fink, Universität Leipzig, Senior Fellow des IREF – Institute for Research in Economic and Fiscal Issues und Fabian Kurz, Student der Volkswirtschaftslehre, ehemaliger Praktikant bei Prometheus. 

Deutsche Städte stehen angesichts seit Jahren steigender Mieten in der Kritik – allen voran Berlin. Der Vorwurf: Das Wohnungsangebot wird nicht stark genug ausgeweitet, um den Mietanstieg einzudämmen. Ein Blick auf Zahlen aus den zehn größten Städten erlaubt einen Vergleich zwischen den Städten. Der offenbart: es ist nicht alles schlecht in Berlin.

Vor zehn Jahren wurden in Deutschland so wenige Wohnungen fertiggestellt wie seit Kriegsende nicht mehr. 2008 wurden nur 143.000 Wohnungen vollendet. Seitdem ging es mit den Fertigstellungen deutlich aufwärts. 2017 waren es 275.000 Wohnungen. Trotzdem stehen deutsche Städte angesichts seit Jahren steigender Mieten in der Kritik – allen voran Berlin. Der Vorwurf: Das Wohnungsangebot wird nicht stark genug ausgeweitet, um den Mietanstieg einzudämmen. Ein Blick auf Zahlen aus den zehn größten Städten lässt kein Urteil zu, ob insgesamt „zu wenig“ gebaut wird. Er erlaubt jedoch einen Vergleich zwischen den Städten. Der offenbart unter anderem, dass die Anzahl pro 1.000 Einwohner fertiggestellter Wohnungen in Berlin nicht unterdurchschnittlich niedrig ist. Es ist also nicht alles schlecht in Berlin.

Seit 2010: Höhere Mieten, höhere Kaufpreise, mehr Wohnungsbau

Insbesondere seit 2010 stiegen in Deutschland Mieten und Kaufpreise für Wohnungen und Häuser – vor allem in den Städten. Die lockere Geldpolitik der EZB, die gute Konjunktur, die Migration vom Land in die Stadt sowie der Zuzug von EU- und nicht-EU-Ausländern trugen dazu bei. Der Anstieg wäre noch höher ausgefallen, wäre über die letzten Jahre das Angebot an Wohnungen nicht erheblich ausgeweitet worden.

Fertigstellungen von Wohnungen 2017: Berlin Mittelmaß

Den Städten wird dennoch vorgeworfen, dem Anstieg der Mieten nicht angemessen durch die Ausweisung zusätzlichen Baulands und der Erteilung von Baugenehmigungen zu begegnen. Unter den zehn größten deutschen Städten wird vor allem Berlin und hier ganz besonders die seit Dezember 2016 amtierende Senatorin für Stadtentwicklung und Wohnen, Katrin Lompscher (Die Linke), für eine zu geringe Bautätigkeit kritisiert.

Berlin stand allerdings 2017 mit 15.669 Fertigstellungen bezüglich der Fertigstellungen pro 1.000 Einwohner im Vergleich zu den übrigen großen Städten nicht sonderlich schlecht da.

Nur in Frankfurt (6,9), München (5,4) und Düsseldorf (4,4) wurden pro 1.000 Einwohner mehr Wohnungen fertiggestellt als in Berlin (4,2). Hamburg (4,2) und Berlin waren in etwa gleich auf und ließen Stuttgart (3,5) und Leipzig (2,8) hinter sich.

Es lässt sich festhalten, dass unter den zehn größten Städten pro 1.000 Einwohnern nur in Frankfurt, München und Düsseldorf bei wesentlich höheren Neuvertragsmieten mehr Wohnungen gebaut wurden als in Berlin.

Baugenehmigungen 2017: Berlin in der Spitzengruppe

Ein ähnliches Bild zeichnen die Baugenehmigungen für Wohnungen 2017. Absolut waren es in Berlin 24.743.

Pro 1.000 Einwohner liegen München (8,8) und Frankfurt (7,3) an der Spitze und auch hier ist Berlin (6,7) im Vergleich zu Städten wie Hamburg (6,6), Düsseldorf (5,9) und Stuttgart (2,4) nicht abgeschlagen. Die Anzahl der 2017 erteilten Baugenehmigungen lässt darauf schließen, dass auch 2018 und 2019 die Wohnungsfertigstellungen pro 1.000 Einwohner in Berlin nicht dramatisch geringer ausfallen werden als in Hamburg oder Stuttgart.

Bauaktivität in Berlin: Weder Top noch Flop

Würden in Berlin und Hamburg pro 1.000 Einwohner jährlich so viele Wohnungen fertiggestellt wie in München und Frankfurt oder wie im Hamburger Umland und Vororten Berlins wie Potsdam, fiele der Mietanstieg in beiden Städten niedriger aus. In beiden Städten sollten die politisch Verantwortlichen folglich schneller und umfangreicher Bauland ausweisen und freizügiger Baugenehmigungen erteilen.

Der Vorwurf, in Berlin werde der Wohnungsbau politisch besonders erschwert, wird durch den hier vorgenommenen Vergleich allerdings nicht gestützt. Vielmehr scheinen mit München und Frankfurt zwei der größten Städte wünschenswerterweise besonders wohnungsbaufreundliche Politik zu betreiben, wohingegen Berlin diesbezüglich dasteht wie eine gewöhnliche deutsche Großstadt – aber eben auch nicht schlechter.

Erstmals erschienen bei IREF.