Photo: Ron Fung from Unsplash

Von Dr. Alexander Fink, Universität Leipzig, Senior Fellow des IREF – Institute for Research in Economic and Fiscal Issues, und Justus LenzLeiter der Bereiche Haushaltspolitik und Digitalisierung beim Verband Die Jungen Unternehmer/Die Familienunternehmer.

Mit seinem Entwurf einer Nationalen Industriestrategie hat Bundeswirtschaftsminister Peter Altmaier im Februar 2019 eine wirtschaftspolitische Debatte um die Vor- und Nachteile staatlicher Wirtschaftseingriffe und -lenkung angestoßen. Angesichts des rasanten Aufstiegs Chinas, der „America First“-Politik Trumps und den Herausforderungen der Digitalisierung ist er damit bei vielen auf offene Ohren gestoßen: Der Staat müsse jetzt auch in Deutschland mehr fördern, lenken und eingreifen, damit die Wirtschaft international bestehen kann. Dabei geht es zwangsläufig immer um einzelne Branchen, ausgewählte, vermeintlich zukunftsweisende Schlüsseltechnologien oder gar um konkrete Unternehmen, die für förderungswürdig erachtet werden. So werden im Entwurf der Nationalen Industriestrategie beispielsweise die Batteriezellenproduktion, Künstliche Intelligenz und Thyssen-Krupp genannt. Obwohl eine stärkere Wirtschaftslenkung durch den Staat aufgrund ihrer Anschaulichkeit attraktiv erscheint, sollte der deutsche Staat nicht mehr Einfluss auf die Entwicklung spezifischer Branchen, Technologien und Unternehmen nehmen.

Die Kraft des Wettbewerbes

Der wettbewerbliche Marktprozess zeichnet sich durch Ergebnisoffenheit aus. Konkurrierende Unternehmen experimentieren fortwährend mit verschiedenen Geschäftsmodellen, Organisationsstrukturen, Produktionsprozessen, Ressourceneinsätzen und Technologien. Unternehmen und Branchen, die besonders erfolgreich um die Kaufkraft ihrer Kunden werben, setzen sich durch und prägen temporär die Marktergebnisse.

Die Nationale Industriestrategie Altmaiers basiert auf Instrumenten, die dem Staat auf einer ad hoc Basis mehr lenkende Einflussnahme gewähren, um die Ergebnisse des Marktprozesses zu beeinflussen. Der wettbewerbliche Marktprozess soll keineswegs eliminiert, sondern stärker als bisher in Bahnen gelenkt werden, die nach eingehender Prüfung durch den Staat gesamtgesellschaftlich für wünschenswert erachtet werden.

In der Vergangenheit hat der in Abwesenheit einer Nationalen Industriepolitik weniger gelenkte Wettbewerb in Deutschland zu Konsequenzen geführt, die auch der Bundeswirtschaftsminister vermutlich für wünschenswert erachtet. Unter dauerhaftem Wettbewerbsdruck sind je nach Schätzung 1.200 bis 1.500 auf dem Weltmarkt erfolgreiche und in ihrem Segment führende Hidden Champions sowie ein großer erfolgreicher Mittelstand entstanden.

Ob eine stärkere Einflussnahme des Staates tatsächlich wünschenswert ist, hängt von seinen Möglichkeiten ab, zum einen förderwürdige Branchen, Technologien und Unternehmen zu identifizieren, und zum anderen die Förderung wie intendiert umzusetzen. Beide Hindernisse können den Versuch der wünschenswerten Lenkung scheitern lassen.

Staatliche Wissensprobleme

Bezüglich der Identifikation und Förderung von zukunftsträchtigen Branchen, Technologien und Unternehmen sehen sich auch ausschließlich am Gesamtwohl der Bevölkerung interessierte und von Partikularinteressen unabhängige Vertreter des Staates dem Problem ausgesetzt, dass ihr Wissen begrenzt ist. Auch Sie wissen nicht, welche Technologien sich in Zukunft durchsetzen werden oder welche Unternehmen im internationalen Wettbewerb besonders erfolgsversprechend sind und sehen sich einer unsicheren Wirksamkeit einzusetzender Förderinstrumente ausgesetzt.

Das Problem lässt sich in Deutschland anhand der Förderung erneuerbarer Energien gut illustrieren, insbesondere am Beispiel der Förderung der Solarenergie. Auch mit dem Ziel, eine heimische Solarindustrie aufzubauen, die Solarzellen und – module produziert, wurde die Einspeisevergütung für Solarenergie eingeführt. Hinzu kamen direkte Subventionen für den Aufbau von Solarzellfabriken – und trotzdem wurden die großen Fabriken längst geschlossen, beispielsweise die von Bosch Solar in Thüringen. Solarzellen werden heute vornehmlich in China produziert. Zu welchem Grade die deutsche Förderung von Solartechnologie über positive externe Effekte zu schnellerem technologischen Fortschritt in China und global beigetragen hat und ob diese Effekte ausreichen, um die Förderung als volkswirtschaftlich wünschenswert zu bewerten, ist fraglich. Eine technologieneutrale Förderung erneuerbarer Energie – also weniger spezifische Lenkung – hätte vermutlich bessere Aussichten gehabt, in der Rückschau als volkswirtschaftlich wünschenswert bewertet zu werden.

Staatliche Anreizprobleme

Sowohl bei der Identifikation förderwürdiger Aktivitäten oder Unternehmen als auch bei der Umsetzung der Förderung kommen außerdem Anreizprobleme zum Tragen. So haben die Vertreter des Staates als Menschen aus Fleisch und Blut nicht ausschließlich das Gesamtwohl der Bevölkerung vor Augen, sondern auch eigene Interessen und Agenden, während Vertreter von Partikularinteressen ebenfalls versuchen, ihre Anliegen durchzuboxen.

So ist es nicht verwunderlich, dass im Entwurf der Industriepolitik von Herrn Altmaier auch die Deutsche Bank genannt wird. Die Deutsche Bank ist zwar Deutschlands größte Bank, aber weder ist sie ein Industrieunternehmen, noch hat sie sich als Vorreiterin der zukunftsträchtigen Digitalisierung hervorgetan. Ganz im Gegenteil: Die Bank ist notorisches IT-Sorgenkind. Aber offensichtlich ist es der Deutschen Bank gelungen, besondere Aufmerksamkeit im Wirtschaftsministerium zu erlangen.
Anders als gestandenen Platzhirschen, wird es Gründern junger und hoffentlich aufstrebender Unternehmen, die zukünftig einmal den Marktprozess prägen könnten, nicht gelingen, derartige Aufmerksamkeit auf sich zu ziehen. So könnte die Sichtbarkeit und die politischen Beziehungen gestandener Branchen und Unternehmen, die tendenziell etablierte Technologien einsetzen, dazu beitragen, dass die Ergebnisse des Marktprozesses nicht wünschenswert gelenkt, sondern unerwünscht eingeschränkt werden.

Digitale Transformation – die Zeit der ganz Großen?

Auch der Verweis auf Amazon, Google, Facebook und Co. lässt die Förderung etablierter Unternehmen nicht attraktiver erscheinen. In der Tat sind diese Unternehmen auf Märkten erfolgreich und groß geworden, auf denen Netzwerkeffekte dominieren und zu Winner-Takes-All-Phänomenen führen. Dennoch lässt sich zum einen der Nachteil, dass der heimische Markt deutscher Unternehmen im Vergleich zu den Konkurrenten aus China oder den USA nicht durch eine nationale Industriepolitik beheben. Zum anderen kommen nicht auf allen Märkten Netzwerkeffekte zum Tragen. Die Diversität der teils kleinteiligen Wirtschaftsstruktur Deutschlands mag angesichts der digitalen Transformation sogar einen Standortvorteil darstellen. Die Vielfalt der deutschen Unternehmenslandschaft ist eine gute Voraussetzung dafür, dass es eine Vielzahl von Unternehmen geben wird, die auch in den kommenden Jahren die richtigen Rezepte für eine erfolgreiche Digitalisierung in ihrer jeweiligen Branche finden.

Kein Grund zur Panik

Die Politik sollte keineswegs die Füße stillhalten. Ohne primär lenkend einzugreifen, kann der Staat im Bereich seiner Kernaufgaben einen Beitrag zum Erfolg von Industrieunternehmen und der Digitalisierung in Deutschland leisten. Von Bildung über Verwaltung und Infrastruktur bis hin zum Rechtsrahmen gibt es genügend Aufgaben für die Politik, die nur sekundär auch wirtschaftslenkende Wirkungen entfalten.

So könnte die Digitalisierung der Verwaltung helfen, die Bürokratiekosten für Unternehmen, Bürger sowie die Verwaltung selbst zu senken und nebenbei zur Verbreitung und Akzeptanz digitaler Lösungen beitragen. Solange der Staat bei der Digitalisierung nicht mit gutem Beispiel vorangeht, fällt es noch schwerer, seinem Urteil bei der Identifikation und Förderung zukunftsträchtiger Branchen, Technologien und Unternehmen zu trauen.

Erstmals erschienen bei IREF.

Photo: David Revoy from Wikimedia Commons (CC BY 3.0)

Wird es in 10 Jahren noch Bargeld geben? Zweifel darf man daran durchaus haben. Denn die Währungswelt verändert sich rasant und die Notenbanken kommen zunehmend unter Druck. Dies ist auch dem letzten Notenbanker mit der Ankündigung der Facebook-Währung „Libra“ klar geworden. Die Digitalisierung macht beim Geld nicht halt. Im Gegenteil. Bis dato galt das Geldregime der Nachkriegsordnung, bei dem der US-Dollar die Weltleitwährung war. Daran hat auch das Schließen des Goldfensters durch die Aufkündigung Richard Nixons 1971, Dollar-Reserven anderer Notenbanken jederzeit in Gold einzutauschen, nichts grundsätzlich geändert. Einzig die Geldmengenausweitung hat sich seitdem exponentiell beschleunigt. Diese Ausweitung geht einher mit einem enormen Anstieg der weltweiten Verschuldung. Sie hat sich längst von der wirtschaftlichen Entwicklung entkoppelt. Immer mehr Geld muss produziert werden, um ein bescheidenes Wachstum daraus zu generieren. Auch seit der Lehman-Pleite 2008 hat sich daran nichts geändert. Im Gegenteil: die Situation ist noch dramatischer geworden! Die Welt war Ende 2018 mit 318 Prozent zur Wirtschaftsleistung verschuldet, 2008 waren es noch 279 Prozent.

Banken und der Staat bilden dabei ein kongeniales Duo. Der Staat verschuldet sich, die Banken finanzieren dies. Der Staat und seine Notenbank statten dafür die Banken mit dem Privileg der Geldschöpfung aus. Sie können also selbst Geld produzieren, indem sie Kredite erzeugen. Diesen Krediten müssen faktisch keine Spareinlagen gegenüberstehen, sondern Banken können Kredit und damit Geld aus dem Nichts produzieren. Lediglich Regulierungsvorschriften des Staates bremsen die Banken dabei. Die Notenbank ist in diesem Prozess die oberste Planungsbehörde, die den Kreditfluss und damit auch die Geldmenge durch ihre geldpolitischen Instrumente steuern will. Rund 80 Prozent des Geldes, das in der Eurozone im Umlauf ist, ist Kreditgeld, das Banken produziert haben. 20 Prozent davon ist Zentralbankgeld, das die EZB und ihre Notenbanken aus dem Nichts geschaffen haben. Wiederum die Hälfte davon, also rund 10 Prozent, ist das, was wir als gesetzliches Zahlungsmittel verstehen – die Banknote, also das Bargeld. Nur dies ist das per Gesetz definierte alleinige Zahlungsmittel.

Doch wenn nur 10 Prozent des Geldes das alleinige gesetzliche Zahlungsmittel ist, dann deutet dies schon das Dilemma an. Kommt es in unserem Geldsystem zu Panik und rennen dann alle auf die Bank, um ihr nur digital vorhandenes Geld auf den Bankkonten (Giralgeld) in Bargeld umzutauschen, dann funktioniert dies nicht. Das Bargeld ist in dieser Größenordnung gar nicht vorhanden. Um Panik zu vermeiden, suggeriert der Staat mit der Einlagensicherung, dass jedes Konto mit 100.000 Euro garantiert ist. Doch, ob dies bei einer systemischen Bankenkrise Vertrauen schafft, ist fraglich. Das zeigt schon die Diskussion um eine europäische Einlagensicherung. Damit die Spareinlagen auf Konten in Italien, Griechenland und Spanien vermeintlich sicherer werden, schmeißt man einfach alle europäischen Einlagensicherungssysteme in einen Topf. So will man Vertrauen schaffen. Doch wahrscheinlich misstrauen die Anleger eher dieser Vergemeinschaftung der Risiken.

Vor diesem Hintergrund muss man die Diskussion um digitales Zentralbankgeld sehen, die die Bank der Zentralbanken, die Bank für Internationalen Zahlungsausgleich (BIZ) in Basel, aber auch die schwedische Reichsbank und die Bank of England führen. Sie wollen das gesetzliche Zahlungsmittel auf das digitale Zentralbankgeld ausweiten. Das klingt in Zeiten von Blockchain und Kryptowährungen sehr modern. Suggeriert es doch, dass auch die Notenbanken mit der Zeit gehen. Doch anders als die privat initiierten Kryptowährungen, die dezentrale Netzwerke bilden, sich evolutorisch entwickeln und ohne Notenbanken auskommen, stehen die staatlichen Notenbanken nicht im Wettbewerb, sondern verteidigen ihr staatliches Währungsmonopol.

Jedoch ist die Einführung von digitalem Zentralbankgeld als gesetzliches Zahlungsmittel nicht so simpel, wie es sich anhört. Denn einem digitalen Euro, einer Krone oder einem Pfund sieht man auf dem Bankkonto erstmal nicht an, ob das Geld von der Notenbank geschaffen wurde oder die andere Seite eines Geldschöpfungsprozesses einer Bank war, die Kredit vergeben hat und dies anschließend als Einlage auf einem Konto gutgeschrieben wurde. Daher wird darüber diskutiert, ein Konto für Jedermann bei der Zentralbank zu schaffen. Da Zentralbanken faktisch nicht pleite gehen, weil sie unbegrenzt Geld produzieren können, verspricht man sich dadurch ein höheres Vertrauen in das Geldsystem.

Die Ausweitung wäre ein Systemwechsel. Derzeit können nur Banken Konten bei der Zentralbank halten. Ihre Sichteinlagen sind Zentralbankgeld. Ob eine Ausweitung auf Jedermann gut für die Geschäftsbanken und die Stabilität der Einlagen dort wäre, ist zumindest fraglich. Bei Panik könnten die Einlagen dann sogar noch viel schneller per Knopfdruck einfach auf das Zentralbankkonto überwiesen werden. Das Problem bank run wäre wahrscheinlich noch größer.

Banken hätten auch ein Problem, neue Einlagen der Sparer zu erhalten. Warum sollen Einlagen bei Banken geparkt werden, wenn sie sicherer bei der Zentralbank sind? Letztlich müssten Banken die Einlagen höher verzinsen, um dem Risiko für die Anleger gerecht zu werden. Vielleicht würde sogar das Zentralbankgeld generell höher gewichtet als das Giralgeld der Banken. Doch wie schaut es dann mit dem Bargeld aus? Braucht es dieses dann überhaupt noch? Und hier kommen wir zu des Pudels Kern. Die Notenbanken geben dies nicht offen zu, aber ihr Problem ist die mangelnde Steuerbarkeit der Geldmenge. Diese können sie über ihre geldpolitischen Instrumente nur indirekt beeinflussen. Teilweise führen ihre Maßnahmen zum gegenteiligen Effekt. Verschärfen sie den Kurs des billigen Geldes und zwingen sie die Banken indirekt dazu, die Negativzinsen gegenüber Einlegern zu erhöhen, dann flüchten diese in das Bargeld und horten es. Die Pferde saufen dann nicht. Das Geld wird dem Geldkreislauf entzogen. Der Wunsch, über Wachstum aus der Überschuldungssituation von Staaten und Banken herauszuwachsen, wird dann noch unrealistischer. Aber auch der gewollte Umverteilungseffekt läuft dann ins Leere. Sparer sollen durch Negativzinsen teilweise enteignet werden. Solange es Bargeld gibt, können die Sparer jedoch ausweichen und ihr Geld unter das Kopfkissen legen. Gibt es kein Bargeld mehr, dann kann auf den Konten der Zentralbank leicht ein Negativzins durchgesetzt werden. Nicht ohne Grund ist Bargeld ein Stück Freiheit, das uns vor der nächsten Stufe der finanziellen Repression schützt. Digitales Zentralbankgeld wäre der Weg in die finanzielle Knechtschaft und die Unmündigkeit.

Erstmals veröffentlicht auf Tichys Einblick. 

Photo: Priscilla du Preez from Unsplash

Von Dr. Alexander Fink, Universität Leipzig, Senior Fellow des IREF – Institute for Research in Economic and Fiscal Issues, und Kalle Kappner, Promotionsstudent an der Humboldt-Universität zu Berlin, Research Fellow bei IREF, Fackelträger von Prometheus.

Hinsichtlich des globalen Lebensstandards waren die letzten drei Jahrzehnte überaus erfolgreich: Zu keiner Zeit ist es mehr Menschen gelungen, der absoluten Armut zu entkommen, also ein Einkommen über dem Subsistenzniveau zu erwirtschaften. Projektionen der Weltbank gehen davon aus, dass die Anzahl absolut Armer weiter sinken und bis 2030 außerhalb Subsahara-Afrikas auf wenige Millionen schrumpfen wird.

Wenngleich diese Entwicklung optimistisch stimmen sollte, sind viele Menschen davon überzeugt, dass die Armut in den letzten Jahrzehnten weltweit zunahm und weiter zunimmt. Angesichts einer Medien- und Bildungslandschaft, die negative Ereignisse in den Vordergrund rückt, überrascht dieser Befund nicht. Bedauerlich ist er dennoch. Die gravierende Unterschätzung der aus der Ausbreitung marktwirtschaftlicher und demokratischer Institutionen resultierenden Entwicklungserfolge untergräbt die Zustimmung zu eben jenen Institutionen.

Absolute Armut weltweit auf dem Rückzug

Als absolut arm gelten nach der aktuellen Definition der Weltbank Menschen, die täglich kaufkraftbereinigt weniger als 1,90 US-Dollar zur Verfügung haben. Die Armutsquote bezeichnet den Anteil absolut Armer an der Bevölkerung und ist aufgrund der Berücksichtigung von Kaufkraftunterschieden sowohl international als auch über die Zeit hinweg vergleichbar. Zu unterscheiden ist absolute Armut von relativer Armut, die in Bezug zum Durchschnitts- oder Medianeinkommen definiert wird und daher selbst dann zunehmen kann, wenn alle Mitglieder einer Gesellschaft absolut wohlhabender werden.

Spätestens seit Beginn der Industriellen Revolution Mitte des 18. Jahrhunderts ist die absolute Armut global auf dem Rückzug. Lebten 1820 noch rund 80 % der Weltbevölkerung in absoluter Armut, so beträgt die globale Armutsquote heute etwa 8,5 %. In unterschiedlichen Weltregionen fiel der Rückgang absoluter Armut dabei unterschiedlich stark aus. So ist absolute Armut in Europa und Amerika nahezu unbekannt, während die Armutsquote in Subsahara-Afrika bei 40 % liegt.

Weltweit konnte ein besonders starker Rückgang absoluter Armut in den letzten 30 Jahren verzeichnet werden – von rund 35 % Mitte der 1980er auf heute 8,5 %. Die wichtigste Triebfeder dieses Prozesses war die Ausbreitung marktwirtschaftlicher Strukturen, etwa in China und anderen südostasiatischen Ländern. Konventionelle Entwicklungshilfe spielte hingegen keine schwerwiegende Rolle.

Wahrnehmung globaler Armut: Weitverbreiteter Pessimismus

Trotz des deutlichen Armutsrückgangs der letzten Jahrzehnte sind viele Menschen überzeugt, dass die Anzahl der absolut Armen weltweit zunahm – nicht nur in absoluten Zahlen, sondern auch in Relation zur wachsenden Weltbevölkerung. 2016 wurden in einer repräsentativen Befragung 26.000 Menschen in 24 Ländern nach ihrer Einschätzung der Entwicklung absoluter Armut über die letzten 20 Jahre interviewt, wobei die bis 2015 übliche Definition von 1,25 kaufkraftparitätischen US-Dollar zugrunde gelegt wurde. Nur 13 % der Befragten gaben an, die Armutsquote sei gesunken. 1 % kam zur korrekten Einschätzung, dass diese halbiert wurde. 70 % glaubten hingegen, die Armutsquote habe zugenommen.

Besonders stark fiel die Fehlwahrnehmung in Industrieländern aus. In Deutschland etwa gaben nur 8 % an, dass der Anteil absolut Armer an der Weltbevölkerung gesunken sei. In Entwicklungs- und Schwellenländern fiel die Einschätzung weitaus positiver aus, etwa in China, wo 50 % der Befragten äußerten, die Armut habe abgenommen. Eine 2017 durch Ipsos durchgeführte Studie kam zu ähnlichen Ergebnissen. Demnach glaubten in Deutschland 11 % der Befragten, die absolute Armut habe weltweit abgenommen, während in China 49 % eine Abnahme sahen.

Menschen in reicheren Ländern schätzen im Vergleich zu Menschen in Entwicklungs- und Schwellenländern nicht nur die vergangene Entwicklung negativer ein. Auch hinsichtlich der Erwartungen für die Zukunft sind sie deutlich pessimistischer. 2015 gaben in einer YouGov-Umfrage 4 % der befragten Deutschen und 41 % der Chinesen an, dass „die Welt ein besserer Ort wird“. Eine ähnliche Disparität förderte Ipsos mit der Frage nach der Entwicklung des globalen Lebensstandards in den nächsten 15 Jahren zu Tage. Nur 18 % der Deutschen gaben an, dieser würde zunehmen, während es in China 58 % glaubten.

Extremereignisse überschatten langfristige Trends

Konzeptionelle Missverständnisse, etwa aufgrund einer Verwechslung von absoluter und relativer Armut, können die stark von den Fakten abweichenden Einschätzungen globaler Armutstrends nur bedingt erklären. Zumal kommen selbst die nach eigener Aussage Wohlinformierten zu gravierenden Fehleinschätzungen. Derartige Fehleinschätzungen drücken daher nicht schlichtes Desinteresse und Unwissen aus. Woher kommt der tiefverankerte Pessimismus bezüglich globaler Armutstrends?

Der 2017 verstorbene Entwicklungsforscher und Betreiber des „Gapminder“-Projekts Hans Rosling führt den weitverbreiteten Pessimismus auf die Anwendung von Daumenregeln zurück, die unsere Einschätzung globaler Entwicklungen systematisch ins Negative verzerren. Beispielsweise zeigt die Forschung zum Phänomen des „sozialen Pessimismus“, dass viele Menschen dazu tendieren, ihre Einschätzung langfristiger Trends anhand eines Durchschnitts auffälliger Extremereignisse zu prägen – die sogenannte Verfügbarkeitsheuristik. In einem Medien- und Bildungsumfeld, das negativen Extremereignissen weitaus mehr Raum gibt als langfristigen, stetig positiven Trends, führt die Verfügbarkeitsheuristik zur Herausbildung übermäßig pessimistischer Überzeugungen.

Wie stark der Zusammenhang zwischen dem täglichen Nachrichtenkonsum und unseren Überzeugungen ist, verdeutlicht der Ökonom Max Roser anhand eines Gedankenexperiments: Eine Zeitung, die jeden Tag wahrheitsgetreu verkündet, dass seit gestern weitere 137.000 Menschen der absoluten Armut entkommen sind, würde ihre Leser zu einer realistischeren Einschätzung globaler Armutstrends bewegen – und sich vermutlich nur mäßig verkaufen.

Armutsentwicklung: Pessimismus hat negative Konsequenzen

In der arbeits- und wissensteiligen Gesellschaft stellt mangelnde Kenntnis über langfristige Trends und Fakten, die den eigenen Alltag nicht betreffen, oft kein grundsätzliches Problem dar. Wer sich seines eigenen Unwissens bewusst ist, kann Entscheidungen an besser Informierte delegieren oder die Kosten uninformierter Entscheidungen selbst tragen. Doch der in den Industrieländern weitverbreitete Pessimismus hinsichtlich globaler Armutstrends hat in dem Maße weitreichendere negative Konsequenzen, in dem er die Zustimmung zu eben jenen marktwirtschaftlich-demokratischen Institutionen untergräbt, die die Grundlage für weiteres Wachstum bilden.

Sowohl im Rahmen offizieller Entwicklungspolitik, als auch über informelle Kanäle haben die in den Industrieländern vorherrschenden Ansichten hinsichtlich der Auswirkung marktwirtschaftlich-demokratischer Institutionen einen bedeutenden Einfluss auf Reformanstrengungen in Entwicklungsländern. Die Ausbreitung dieser Institutionen ist das Erfolgsrezept des Westens und hat in den letzten Jahrzehnten viele Bewohner südostasiatischer Länder aus der Armut befreit. Jene hilfreichen Institutionen für Armut verantwortlich zu machen, heißt nicht nur, die Fakten zu ignorieren, sondern die Grundlagen für die weitere Verbesserung der Welt zu untergraben.

Photo: ev from Unsplash

Im parlamentarischen Alltag passieren auch Pannen. In der letzten Sitzungswoche habe ich versehentlich einem Antrag der Linksfraktion in namentlicher Abstimmung zugestimmt. Anders als ich vermutet hatte, wurde nicht über die Beschlussempfehlung des Parlamentsausschusses abgestimmt, was eine Zustimmung bedeutet hätte, sondern über den Antrag der Linksfraktion selbst. Meine Ja-Karte bei der namentlichen Abstimmung war daher nicht eine Ablehnung des Antrages, sondern dadurch eine Zustimmung. So ging es auch anderen Kollegen meiner Fraktion, die das Abstimmungsverfahren ebenfalls falsch beurteilt haben. Das ist ärgerlich, aber nicht mehr zu ändern.

Doch unabhängig davon, beschäftigt mich der Inhalt des Antrages seit geraumer Zeit. Denn der Antrag der Linksfraktion will den „Klimanotstand anerkennen“. Das Ausrufen des Klimanotstandes wird von den Grünen und Linken inzwischen in vielen Stadt- und Gemeinderäten beantragt. Von Kiel über Münster bis nach Konstanz haben ihn Stadträte schon ausgerufen. Viele Nachahmer springen jetzt auf diesen Zug.

Man kann über die Dramatik der Klimaveränderung und ihrer Konsequenzen unterschiedlicher Meinung sein, doch die Begrifflichkeit „Notstand“ weckt, vielleicht nicht nur bei mir, innerlich einen Widerstand. Denn ruft der Staat den Notstand aus, dann geht dies einher mit der Einschränkung der Demokratie und der individuellen Grundrechte. Die Freiheit wird in Notstandszeiten beschränkt, weil es äußere oder innere Gefahren gibt, die dies rechtfertigen sollen.

In Deutschland sind die Grundlagen dafür eng mit der ersten großen Koalition von 1966 bis 1969 unter Bundeskanzler Kurt Georg Kiesinger verbunden. Allgemein gilt die Abstimmung über die Notstandsgesetze am 30. Mai 1968 auch als Geburtsstunde der Studentenproteste der 68-Bewegung. Zwar hat die FDP seinerzeit geschlossen gegen die Notstandsgesetze von Union und SPD gestimmt, die außerparlamentarische Protestbewegung war aber bekanntlich eine linke Bewegung. Beim „Sternmarsch auf Bonn“ demonstrierten am 11. Mai 1968 Zehntausende gegen die Notstandsgesetze. Dennoch beschlossen Bundestag und Bundesrat mit Zwei-Drittel-Mehrheit das Gesetz und die Grundgesetzänderungen. Der damalige Bundesinnenminister Gerhard Schröder sprach zur Notwendigkeit des Gesetzes von der „Stunde der Exekutive“. Seitdem lässt das Grundgesetz bei einem „inneren Notstand“, der als die Abwehr drohender Gefahren für die freiheitlich demokratische Grundordnung definiert wird, die Einschränkung der Freizügigkeit (Art. 11 GG) oder des Post- und Fernmeldegeheimnisses (Art. 10 GG) zu. Um den „inneren Notstand“ abzuwehren, kann der Bund im Krisenfall sogar die Bundeswehr im Inneren einsetzen (Art. 91 GG).

Aus dieser historischen Betrachtung ist die Begriffswahl „Klimanotstand“ eigentlich beängstigend. Was wollen die Befürworter? Wollen sie für höhere Ziele, hier den Klimaschutz, die Freiheit des Einzelnen einschränken? Soll das Parlament entmachtet werden, damit die Exekutive besser „durchregieren“ kann? Soll die Freizügigkeit nur noch auf drei Flugreisen im Jahr beschränkt werden? Soll dies im Zweifel die Bundeswehr im Inneren durchsetzen? Was unterscheidet eigentlich die damalige Regierung Kiesinger von Linken und Grünen? Eigentlich nur das Ziel, denn die Sprache und die zur Verfügung stehenden Mittel sind dann wohl die gleichen.

Denn, wie soll man das verstehen, wenn es im Antrag der Linken heißt, „der Deutsche Bundestag fordert die Bundesregierung auf, den Klimanotstand anzuerkennen und damit den Klimaschutz bei politischen Entscheidungen prioritär zu behandeln“? Um welchen Preis? Auch um den Preis der Freiheit? Der Deutsch-Brite Ralf Dahrendorf hat dazu einmal gesagt: „Wer die Freiheit einzuschränken beginnt, hat sie aufgegeben und verloren.“ Wehret den Anfängen.

Erstmals veröffentlicht auf Tichys Einblick. 

Photo: Christopher John SSF from Flickr (CC BY 2.0)

Gestern war „World Population Day“. Wachstumskritiker nutzen solche Tage, um ihre Thesen zu verbreiten. Sie haben prominente Vorbilder. Robert Malthus hatte Ende des 18. Jahrhunderts sein berühmtes Bevölkerungsgesetz aufgestellt. Darin nahm er an, dass die Bevölkerung in einer geometrischen Reihe, die Nahrungsproduktion aber lediglich in einer arithmetischen Reihe wächst. Es sei eine Frage der Zeit bis die Menschen sich nicht mehr selbst ernähren könnten. Die These war damals populär, weil die Bevölkerung durch die industrielle Revolution wuchs und die Menschen in die Städte zogen, wo es Arbeit gab. Das Malthussche Gesetz erwies sich aber als falsch. Moderne Anbaumethoden, moderne Schädlingsbekämpfung und die Technisierung in der Landwirtschaft bewiesen das Gegenteil.

Dennoch ist in jüngster Zeit die These immer noch populär. Der Club of Rome trat in den 1970er Jahren in die malthusschen Fußstapfen und prognostizierte die Grenzen des Wachstums. Und heute sind es die Globalisierungsgegner von links und rechts, die die These immer noch glauben und hochhalten. Es darf halt nicht sein, was nicht sein kann.

Zu Zeiten Robert Malthus lebten 1 Milliarde Menschen auf dieser Welt. Heute sind es 7,6 Mrd. Menschen. ­Bis zum Jahr ­2050­ werden­ nach ­Prognosen der ­Vereinten ­Nationen voraussichtlich ­ 9,8 ­Milliarden ­Menschen ­ ­leben, ­bis­ zum­ Jahr­ 2100 vermutlich sogar 11,2 Milliarden.

Neben der Ernährungsfrage der Menschheit kommen Umwelt- und Klimafragen hinzu. Viele dieser Untergangsapologeten meinen, ohne einen Verzicht der Menschen in den wohlhabenden Ländern und ohne eine radikale Veränderung der bisherigen Gewohnheiten an Ernährung, an Mobilität und Lebensstandard, sei die Welt nicht zu retten. Weltuntergangsstimmung macht sich breit.

Doch nicht der Verzicht hat zum weltweiten Wohlstand geführt, sondern das Vertrauen auf den Fortschritt, der Mut zur Offenheit, also die Globalisierung, und die auf dem Kapitalismus beruhende Marktwirtschaft. Die Entwicklung ist höchst beeindruckend. Im frühen 19. Jahrhundert waren die Armutsraten in den reichsten Ländern der Welt höher als in den ärmsten Ländern heute. In den USA, England und Frankreich haben in dieser Zeit zwischen 40 und 50 Prozent der Bevölkerung in extremer Armut gelebt. Eine Rate, die man heute nur noch in der Subsahara in Afrika findet. Menschen, die weltweit in absoluter Armut leben (weniger als 1,90 Dollar am Tag) hat sich von 1981 von 44,4 Prozent auf 9,6 Prozent in 2015 reduziert. Diese Entwicklung ging einher mit offenen Märkten, die weite Teile Asiens in die globale Arbeitsteilung integriert haben. Mao Zedongs „großer Sprung nach vorn“ kostete 45 Millionen Chinesen das Leben. Bei seinem „Experiment“ verhungerten die Menschen oder wurden umgebracht. Erst die marktwirtschaftliche Öffnung unter Deng Xiaoping und die weltweite Liberalisierung der Handelsregeln Anfang der 1990er Jahre unter dem GATT-Abkommen und der WTO brachte den Aufstieg weiter Teile der Welt.

Der Schwede Johan Norberg weist in seinem aktuellen Buch „Progress“ darauf hin, dass durch die Arbeit des Agrarwissenschaftlers Norman Borlaug die Züchtung von Saatgut, das parasitenresistent und weniger abhängig von Sonnenstrahlen war, die Ernten in einer trockenen Region wie Mexiko von 1944 bis 1963 versechsfacht und das Land über Nacht zu einem Weizenexporteur gemacht hat. Für seine Arbeit bekam er 1970 den Friedensnobelpreis, weil er dadurch Milliarden Menschenleben gerettet hat. Aber nicht nur das: er rettete durch seine Entwicklungen auch viele Tiere und Pflanzenarten. Millionen von Hektar Wald hätten geholzt werden müssen, wenn er das leistungsstärkere Saatgut nicht entdeckt hätte. Der Waldverlust hat sich seit den 1990er Jahren von 0,18 auf 0,008 Prozent verkleinert. Im Amazonas hat die jährliche Abholzungsrate seit 2005 um 70 Prozent abgenommen.

Dank besserem Waldschutz und höheren Ertragszahlen auf den Flächen der Landwirte, durch besseres Saatgut und bessere Anbaumethoden konnte dieser tatsächliche „Große Sprung nach vorn“ erreicht werden. Wachstum und Umweltschutz sind keine Widersprüche, sondern bedingen sich. Sie setzen Fortschritt und technologische Offenheit voraus. Der Irrglaube der Globalisierungskritiker besteht darin, dass sie Wachstum nur quantitativ betrachten und nicht qualitativ. Wachstum verändert sich aber mit steigendem Wohlstand, weil sich die Präferenzen der Menschen mit zunehmender Lebensqualität verändern. Nicht „immer mehr“ ist das Ziel, sondern „immer besser“. „Immer besser“ gilt auch für die Umwelt. Die technische Entwicklung von Filtern, Reinigern, effizienteren Anlagen und Motoren ist nur mit Wachstum und Wohlstand möglich. Und hinzukommt: nur der Kapitalismus kann dies auch finanzieren. Dem Sozialismus geht dabei immer das Kapital aus. Daher gilt: der Verzicht, die staatliche Verhaltenslenkung der Bürger oder das Zurückdrehen der Globalisierung schafft nicht weniger Armut, nicht weniger Hunger und Elend, sondern mehr. Der Fortschritt, die Marktwirtschaft und die Globalisierung sind die Garanten dafür, dass immer mehr Menschen in Wohlstand leben können. Denn es gibt kein Ende des Wachstums, wenn die Menschen auf dieser Welt vernünftig bleiben und den Apologeten des Untergangs nicht auf den Leim gehen. Das Leben wird immer besser.