Photo: tofuprod from Flickr (CC BY-SA 2.0)

Inzwischen ist es wohlfeil, auf die EZB zu schimpfen und ihre Politik zu kritisieren. Der Chef der Deutschen Bank tut es, die Sparkassenverbände tun es, die Wirtschaftsmedien tun es und auch die zahlreiche Wirtschaftsforschungsinstitute tun es. Alle kritisieren, dass die Kollateralschäden der Null- und Negativzinspolitik gravierend seien, je länger sie andauert. Gerade vor und nach den Sitzungen des EZB-Rates ist dies der Fall. Gestern hat der scheidende Präsident der Zentralbank, Mario Draghi, nach solch einer Sitzung angekündigt, den Einlagezins der Banken bei der EZB von -0,4 auf -0,5 Prozentpunkte abzusenken und das Anleihen-Aufkaufprogramm ab November wieder mit zusätzlich 20 Mrd. Euro pro Monat zu starten. Bis heute hat die EZB bereits Anleihen für 2.600 Milliarden Euro gekauft.

Deutsche Banken, aber insbesondere auch die Sparer, kostet die Politik Draghis Milliarden. Die Banken stecken in einer Zwickmühle: Sie stehen unter massivem Veränderungsdruck durch die Digitalisierung und das veränderte Kundenverhalten. Und gleichzeitig können sie mit den Einlagen ihrer Kunden kein Geld mehr verdienen, sondern müssen sogar dafür bezahlen, wenn sie diese über Nacht bei der Notenbank parken. Es ist nur eine Frage der Zeit bis die ersten Banken auch bei uns in Schwierigkeiten geraten. Dann wird es auch die Einleger treffen.

Alles hat seinen Anfang. 2010 kündigte der damalige EZB-Präsident Jean-Claude Trichet an, im Gleichklang zur Installation des vorübergehenden Euro-Rettungsschirms EFSF, dem Vorläufer des Europäischen Stabilitätsmechanismus ESM, Anleihen der Krisenländer aufzukaufen. Dieser Dammbruch war der Beginn der Monetarisierung von Staatsschulden, die nunmehr bereits seit 9 Jahren fortgesetzt wird und deren Ende nicht in Sicht ist.

Rücktrittsforderungen an Trichet wurden damals als Majestätsbeleidigung verstanden. Der Sonnenkönig in Frankfurt durfte nicht kritisiert werden, da die EZB unabhängig sei. Doch die Politisierung der EZB hat spätestens im Mai 2010 begonnen. Seitdem sitzt der jeweilige EZB-Präsident bei politischen Entscheidungen immer mit am Tisch. Er ist sozusagen der oberste Finanzminister des Euro-Raums. Eigentlich sollte die damalige Krisenintervention nur vorübergehend sein. Die EZB-Ingenieure, die wortgewaltig die geldpolitischen Instrumente darlegten, vertraten die Auffassung, dass es kein Problem sei, die Intervention bei einer Normalisierung der Situation rund um die Euro-Schuldenkrise wieder zurückzufahren. So nach dem Motto: erst drehen wir den Hahn etwas auf und anschließend einfach wieder zu. Doch 9 Jahre später ist der Hahn immer noch auf und die Führung der EZB schraubt ihn munter immer weiter auf.

Inzwischen stellen sich die Marktteilnehmer auf das billige Geld ein. Sie wissen: im Zweifel interveniert die EZB. Sie rechnen daher mit dauerhaft niedrigen Zinsen und kalkulieren ihre Investitionen danach. Die EZB ist damit in der Falle. Dreht sie den Hahn wieder zu, dann implodiert das System. Die Zinsen können von den Zombieunternehmen, von den Zombiebanken und von den überschuldeten Staaten nicht mehr in dieser Höhe bedient werden. Die Notenbank ist gefangen in ihrer Null- und Negativzinspolitik. Sie muss immer weiter machen und den Hahn weiter öffnen. Das System braucht daher immer mehr und immer billigeres Geld. In diesem Hamsterrad befinden wir uns aktuell.

Das Vermächtnis von Jean-Claude Trichet und jetzt vor allem von Mario Draghi ist daher verheerend. Die Fehler sind nicht zu entschuldigen, denn die Entwicklung war absehbar. Das süße Gift macht zu sehr abhängig, als dass man es wieder absetzen kann.

Was bleibt von Mario Draghi übrig, wenn er am 31. Oktober sein Amt an Christine Lagarde abgeben wird? Zwei Dinge. Erstens: Mario Draghi hat das Geldwesen im Euroraum dauerhaft ruiniert, es wird keine „normalen Zinsen“ mehr geben. Zweitens: Mario Draghi hat den Glauben an eine unabhängige Geldpolitik der Zentralbank zerstört. Letzteres ist besonders schlimm. Denn Vertrauen in eine Währung zu schaffen, ist schwierig und nur langfristig aufzubauen. Der Verlust des Vertrauens ist aber über Nacht möglich. Gegen diese verantwortungslose Politik hilft nur die Durchsetzung eines marktwirtschaftlichen Geldsystems, das Recht und Freiheit schützt.

Photo: Anthony Intraversato from Unsplash (CC 0)

Von Dr. Alexander Fink, Universität Leipzig, Senior Fellow des IREF – Institute for Research in Economic and Fiscal Issues, und Kalle Kappner, Promotionsstudent an der Humboldt-Universität zu Berlin, Research Fellow bei IREF, Fackelträger von Prometheus.

Deutschlands Arbeitsmarkt brummt. Die Arbeitslosenquote liegt nahe 5 Prozent. Zwar könnte sich die Konjunktur in naher Zukunft etwas abkühlen, doch über die nächsten Jahre spricht wenig für eine deutliche Trendumkehr. Langfristig sehen jedoch viele schwarz. Angesichts fortschreitender Automatisierung erwarten einige Beobachter eine Ära der Massenarbeitslosigkeit, in der nur noch hochqualifizierte Fachkräfte ein geregeltes Arbeitsverhältnis haben werden. Bei anderen wecken der Renteneintritt der Babyboomer-Generation und der Rückgang des Erwerbspersonenpotenzials Ängste vor Fachkräftemangel, abnehmenden Wachstumsraten und enormen Belastungen für den Sozialstaat.

Bisherige empirische Befunde und theoretische Argumente legen allerdings nahe, dass es weder zu Massenarbeitslosigkeit noch zu einem dramatischen Fachkräftemangel kommen wird und die beiden Probleme sich gewiss nicht gemeinsam manifestieren werden. Vielmehr wird der automatisierungsbedingte Rückgang der Arbeitsnachfrage überschaubar ausfallen und durch die zeitgleiche Abnahme des Erwerbspersonenpotenzials zusätzlich aufgefangen. Zentrale Herausforderung auf dem Arbeitsmarkt wird in den nächsten Jahrzehnten vermutlich eine zunehmende Einkommensspreizung sein.

Automatisierung heutiger Berufe

Ausgangspunkt zahlreicher alarmierender Langfristprognosen zur Arbeitsmarktentwicklung ist eine Studie von Frey und Osborne (2013). Anhand detaillierter Berufsbeschreibungen schätzen die Autoren für zahlreiche Berufsbilder, wie wahrscheinlich es ist, dass eine Maschine einen bestimmten Beruf übernehmen kann. Für die USA kommen sie zum Ergebnis, dass 47 Prozent der derzeit Beschäftigten Berufe ausüben, die in den nächsten 20 Jahren durch Maschinen übernommen werden können. Bonin et al. (2015) übertragen die Methode auf Deutschland und finden, dass 42 Prozent der Beschäftigten in automatisierbaren Berufen arbeiten.

Diese Befunde sollten hinsichtlich ihrer Prognosekraft jedoch vorsichtig interpretiert werden. Zum einen sinkt das gemessene Automatisierungspotenzial dramatisch, wenn es auf Ebene einzelner Aufgaben („Tasks“) statt umfassender Berufsbilder geschätzt wird – für Deutschland auf 12 Prozent der Beschäftigten.

Darüber hinaus impliziert die technische Möglichkeit einer Automatisierung nicht, dass sich diese aus Sicht eines Unternehmens lohnt und tatsächlich vollzogen wird. Löhne und Tätigkeitsprofile in betroffenen Branchen können angepasst werden, sodass der Einsatz menschlicher Arbeitskraft weiter attraktiv bleibt. Für Deutschland zeigen entsprechend Dengler und Matthes (2018), dass zumindest kurzfristig kein Zusammenhang zwischen dem gemessenen Automatisierungspotenzial und der Arbeitskraftnachfrage eines Berufsbildes besteht.

Folgen der Automatisierung: Keine Arbeitslosigkeit, aber Lohnspreizung

Für Deutschland finden Dauth et al. (2017), dass seit 1994 durch jeden Industrieroboter im Schnitt zwei Industriearbeitsplätze vernichtet wurden, jedoch ebenso viele neue Jobs im Dienstleistungssektor entstanden sind. Im Aggregat führte Automatisierung daher bisher nicht zu mehr Arbeitslosigkeit, jedoch zu beruflicher Neuorientierung und sinkenden Reallöhnen in den von Automatisierung betroffenen Branchen. Zu ähnlichen Ergebnissen kommen auch Graetz und Michaels (2018).

Eine Simulationsstudie von Arntz et al. (2018) prognostiziert auf Basis der bisherigen Entwicklung des deutschen Arbeitsmarkts, dass eine zunehmende Automatisierung in den nächsten zehn Jahren nicht zu Arbeitslosigkeit, sondern zu schwachen positiven Beschäftigungseffekten führen wird. Eine längerfristige Schätzung nehmen Zika et al. (2018) und Wolter et al. (2016) vor, die jeweils einen schwachen positiven Beschäftigungseffekt bis 2035 bzw. einen schwachen negativen Effekt bis 2030 finden.

Massenarbeitslosigkeit aufgrund künstlicher Intelligenz?

Prognosen auf Basis der Analyse bisheriger Automatisierungswirkung bieten wenig Anlass zur Sorge vor technologisch bedingter Arbeitslosigkeit, deuten aber auf wachsende Lohnspreizung hin. Die Prognosekraft dieser Studien hängt von der Annahme ab, dass zukünftige Automatisierungstrends den Mustern bisheriger Automatisierung folgen werden. Angesichts der Entwicklungen im Bereich künstlicher Intelligenz ziehen einige Kommentatoren diese Annahme in Zweifel.

So legt eine auf der Delphi-Methode, d.h. strukturierten Expertenbefragungen basierende Studie des Millennium Project offen, dass die Befragten im Schnitt erwarten, dass 2050 rund ein Viertel der Weltbevölkerung arbeitslos sein wird. Den Grund sehen die Befragten in den immer umfassenderen Anwendungsbereichen künstlicher Intelligenz, deren Automatisierungswirkung viele Menschen anders als im Fall klassischer Industrieroboter nicht mehr durch berufliche Umorientierung und Weiterbildung begegnen könnten.

Alterung wirkt technologischer Arbeitslosigkeit entgegen

In anderen Fällen wird gewissermaßen das Gegenteil der durch Automatisierung herbeigeführten Massenarbeitslosigkeit befürchtet: Ein durch den Rückgang des Erwerbspersonenpotentials herbeigeführter Mangel an Fachkräften. Trotz verstärkter Zuwanderung wird gemäß gängiger Prognosen die Zahl erwerbsfähiger Menschen in Deutschland durch die demografische Alterung der Gesellschaft von heute rund 45 Millionen bis 2060 auf ca. 39 Millionen sinken.

Isoliert betrachtet heizt dieser Befund regelmäßig Debatten um den sogenannten Fachkräftemangel an. So erwartet die Zukunftsforscher von Prognos für 2040 eine Fachkräftelücke von fast vier Millionen Arbeitskräften. Eine Studie des Instituts für die Geschichte und Zukunft der Arbeit erwartet ebenfalls ein sinkendes Verhältnis von Erwerbspersonen zum Arbeitskräftebedarf.

Andere Kommentatoren weisen allerdings darauf hin, dass der zu erwartende Rückgang des Erwerbspersonenpotenzials mögliche negative Beschäftigungseffekte der zeitgleich stattfindenden Automatisierung abmildern kann. So betont Südekum (2018), dass die häufig isoliert diskutierten Sorgen vor technologisch bedingter Arbeitslosigkeit einerseits und Rückgang des Erwerbspersonenpotenzials andererseits übertrieben sind, da sich beide Trends hinsichtlich ihrer Arbeitsmarktwirkung ausgleichen.

Flexible Arbeitsmärkte und individuellen Vermögensaufbau erleichtern

Bisherige empirische Studien und theoretische Überlegungen legen nahe, dass allzu pessimistische Prognosen zukünftiger Massenarbeitslosigkeit oder Unterversorgung mit Fachkräften überzogen sind. Gewiss werden sich nicht beide Probleme zugleich einstellen. Eine Herausforderung wird jedoch darin liegen, die Um- und Weiterbildung von Arbeitnehmern in verstärkt der Automatisierung unterliegenden Branchen zu erleichtern. Die Politik sollte die zügige berufliche Umorientierung fördern, statt sie durch die Subventionierung ausgewählter etablierter Branchen zu behindern.

Eine weitere Herausforderung liegt im Umgang mit der zu erwartenden zunehmenden Lohnspreizung. Zukünftig wird vermutlich ein größerer Anteil des volkswirtschaftlichen Gesamteinkommens an Kapitaleigner und Hochqualifizierte fließen. Damit breite Bevölkerungsschichten auch zukünftig vom technologischen Fortschritt profitieren, sollte die Politik den Aufbau individuellen Vermögens insbesondere in Form von Unternehmensbeteiligungen erleichtern, etwa im Rahmen der privaten und betrieblichen Altersvorsorge.

Erstmals erschienen bei IREF.

Photo: Everton Vila from Unsplash (CC 0)

Von Prof. Dr. Hardy Bouillon, Außerplanmäßiger Professor im Fach Philosophie an der Universität Trier.

Befürworter staatlicher Umverteilung begrüßen die Philanthropie, weil diese Wohlfahrtsaufgaben erfüllt, die dem Staat erspart bleiben. Aber sie glauben nicht, dass die Philanthropie den Sozialstaat ersetzen könnte oder gar sollte. Ihre Haltung ruht vor allem auf zwei Einwänden: dem Unterversorgungseinwand und dem Diskriminierungseinwand. Der erste wiegt wohl am schwersten. Er behauptet, dass die freiwillige Umverteilung zu wohltätigen Zwecken weit hinter der verordneten Umverteilung zurückbliebe. Eine gewisse Anfangsplausibilität kann man dieser These nicht absprechen. Sie beruht auf dem sogenannten Gefangenendilemma, das die Entscheidungsnot zweier tatverdächtiger Komplizen schildert. Beide werden getrennt zur Tat verhört. Gesteht keiner, dann werden beide milde bestraft. Gestehen beide, fällt ihre Strafe hoch aus. Gesteht nur einer, geht der Geständige straffrei aus, während der Standhafte die Höchststrafe erhält. Die dominante Strategie für beide ist, getrennt „dicht zu halten“. Aber keiner der beiden wählt diese Strategie, weil jeder fürchtet, der andere könnte „singen“ und er wäre dann „der Dumme“. Auf den ersten Blick sieht es so aus, als ob das Gefangenendilemma auch für die Philanthropie gelten würde. D.h., die beste Lösung (hier: ausreichend großes Spendenvolumen) bleibt aus, weil jeder befürchtet, der „Dumme“ zu sein; also jener, der spendet, während die anderen nicht spenden.

Doch der erste Blick täuscht. Als Roosevelt 1933 den Universitäten die Mittel kürzte, fürchteten viele Umverteilungsbefürworter, dass auch Alumni und Sponsoren ihre Spenden reduzieren würden. Doch das Gegenteil trat ein! Zahl und Großzügigkeit der Spender nahmen zu, die Unterversorgung blieb aus. All dies lässt vermuten, dass der Unterversorgungseinwand das Gefangenendilemma zu Unrecht bemüht.

Hinzu kommt, dass Steuergesellschaften die Möglichkeit bieten, Gefangenendilemmata zu entschärfen. Sind philanthropische Spenden steuerlich absetzbar, dann sinkt der Spendenpreis und schrumpft der Nachteil des Spenders gegenüber dem Nichtspender. Je höher die Abzugsmöglichkeiten, desto geringer der Nachteil. (Bei 100 Prozent wäre der Nachteil vollends aufgehoben.) Daher ist in Gesellschaften mit traditionell guten Abzugsmöglichkeiten die Philanthropie stärker ausgeprägt als andernorts. Wie Karl-Heinz Paqué schon in den 80ern für die USA zeigte, gilt dies auch, wenn neben steuerlichen Vorteilen kulturelle Besonderheiten ursächlich sind.

Auch das reale Spenderverhalten entschärft den Unterversorgungseinwand, wie ein Blick auf Sozialleistungsquote und Spenderquote zeigt. Die Sozialleistungsquote deutscher Steuerzahler –Anteil der individuellen Steuer, der in den Sozialhaushalt fließt – liegt derzeit bei ca. 30 %. Die Spenderquote – Anteil der Spender unter allen Bürgern – beträgt momentan 40 %. D. h., dass 40 % der Bürger trotz einer 30 %igen Sozialleistungsquote sich nicht davon abhalten lassen, zusätzlich für wohltätige Ziele zu spenden. (Sie spenden quasi „on top“.) Wem man unterstellen kann, dass er mit der Verwendung von 30 % seiner Steuern für philanthropische Ziele einverstanden ist, wird man wohl auch unterstellen müssen, dass er seine individuelle Sozialleistungsquote für zu gering hält. Andernfalls würde er wohl kaum zusätzlich spenden. Und wie steht es mit den „On top“-Spendern, denen man keine Zustimmung zur individuellen Sozialleistungsquote zuschreiben kann? Vielleicht wird man ihnen unterstellen, Einwände zur staatlichen Auswahl oder zum Umfang der wohltätigen Zwecke zu haben; vielleicht auch, dass sie ihre Sozialleistungsquote, sofern sie diese einbehalten dürften, (zumindest teilweise) zu anderen als zu philanthropischen Zwecken verwenden würden; aber wohl kaum, dass sie im Falle der freien Verfügung über die eigene Sozialleistungsquote ihr philanthropisches Spendenverhalten gänzlich einstellen oder reduzieren würden.

Wer hat, der gibt, und wer mehr hat, der gibt mehr! Diese einfache Regel gilt auch unter Philanthropen, wie Befragungen ergeben. Folgt man dem Deutschen Spendenmonitor, dann lag 2017 die Spenderquote (von 4. 000 Befragten) im Westen der Republik höher als im Osten (44 % vs. 28 %), spendeten Rentner über 65 Jahren häufiger als junge Erwachsene zwischen 30 und 50 Jahren (54 % vs. 36 %), stieg die Spendenhöhe von 1995 bis 2007 von 78 € auf 143 € und das Spendenvolumen von 2,08 % auf 3,71 %. Befragungen lassen Erbschaften, Unternehmens-, Groß- und Parteispenden sowie Stiftungsgründungen und gerichtlich verordnete Geldzuwendungen meist außen vor. Kalkuliert man dergleichen ein, dann kommt man auf ein jährliches Spendenvolumen von 8 – 8,5 Milliarden €. Die Summe liegt nahe an dem, was sich aus den Steuerstatistiken ermitteln lässt. Für 2013 wurde für Spenden in Höhe von 6,8 Mrd. € die steuerliche Abzugsmöglichkeit geltend gemacht. (Vorträge in Höhe von 2,3 Mrd. € wären davon zu subtrahieren, steuerlich unberücksichtigte Barspenden zu addieren.)

Verglichen mit der Ermittlung des monetären Spendenvolumens ist die monetäre Erfassung von Zeitspenden weitaus schwieriger. Aber sie zeigt, dass philanthropisches Handeln ein viel größeres Ausmaß annimmt als philanthropisches Spenden. Folgt man dem Freiwilligensurvey, dann kamen 2014 9 % aller Zeitspenden für gemeinwohlorientierte Zwecke dem Bereich Kultur zugute. Die Enquete-Kommission „Kultur in Deutschland” kam in ihrem Abschlussbericht zur Einschätzung, dass der monetarisierte Wert der Zeitspenden für kulturelle Zwecke im Jahr 2006 zwischen 9,3 und 16,7 Milliarden € betrug. Folgt man dieser Umrechnungsart, dann dürfte der monetarisierte Wert aller Zeitspenden für philanthropische Zwecke jährlich zwischen 100 und 185 Milliarden € betragen. Großzügigere Möglichkeiten, Zeitspenden steuerlich geltend zu machen, würden wohl eine Zunahme an Zeitspenden auslösen. Derzeit sind derlei Möglichkeiten kaum vorhanden und beschränken sich vornehmlich auf die Ehrenamtspauschale (720 € p. a.) und die Übungsleiterpauschale (2. 400 € p. a.).

Was derzeit jedoch für den Unterversorgungseinwand spricht, ist ein organisationsrechtlicher Umstand. Ein Großteil der Philanthropie findet im sogenannten Dritten Sektor statt, und zwar in Form von NPO (Non-Profit-Organisationen). NPO ist in Deutschland der Zugang zum Kapitalmarkt verwehrt und (wegen fehlender Sicherheiten) der Zugang zum Kreditmarkt erschwert. Damit sind ihnen und dem Dritten Sektor – der hierzulande mit 4,1% zur Bruttowertschöpfung beiträgt – wichtige Wachstumsoptionen genommen.

Auch der Diskriminierungseinwand hat eine gewisse Anfangsplausibilität. Der Grund ist offenkundig: Reduzierte man die staatliche Umverteilung zu wohltätigen Zwecken im Vertrauen auf potente Philanthropen, dann überließe man diesen die Entscheidung, Ziele, Mittel und Empfänger ihrer Wohltätigkeit selbst auszusuchen. Infolgedessen können die Entscheider diskriminieren, und zwar nach Kriterien, die sie selbst wählen. Der Diskriminierungseinwand übersieht jedoch mindestens zweierlei: Erstens, sowohl private als auch staatliche Umverteilungen nehmen Diskriminierungen vor. Es ist nicht offensichtlich, warum staatliche Diskriminierungen im Wohltätigkeitssektor privaten Diskriminierungen überlegen sein sollten. Zweitens, private Diskriminierungen finden bereits jetzt schon im Philanthropiesektor statt und bilden schlicht das ab, was der Madrider Ökonom Philipp Bagus den „Markt des Gebens“ nennt. Für diesen Markt ist – wie für andere Märkte auch – die Annahme naheliegend, dass er aus Effizienzgründen der staatlichen Umverteilung überlegen ist.

Eine gekürzte Version dieses Textes erschien am 5. August 2019 in der Frankfurter Allgemeinen Zeitung.

Photo: Wikimedia Commons (CC 0)

Für viele Ostdeutsche ist die Vergangenheit wieder ein Sehnsuchtsort. Die polnischen und griechischen Regierungen haben den Zweiten Weltkrieg wiederentdeckt. Und Kaisers Ururenkel möchte gern dessen Luxus-Bude in Potsdam zurückhaben. Dieser Blick zurück kann schnell zerstörerisch werden.

Instrumentalisierte Geschichte

Der Fall Hohenzollern ist in seiner Absurdität bereits von vielen ausreichend kommentiert worden. Hinter dem vielleicht legalen, aber eher nicht legitimen, Anspruch auf den Besitz der Urahnen sowie dem auf die Deutungshoheit über die mit der Landesgeschichte doch weitgehend identische Familiengeschichte liegt ein tieferes Phänomen. Letztlich ist es mangelndes Selbstbewusstsein. Wer als Architektin ein schönes neues Haus entwirft, als Programmierer ein Spiel mitentwickelt oder als Pflegerin im Hospiz Menschen auf ihren letzten Weg begleitet, hat Sinn in seinem Leben. Diese Menschen ziehen Bedeutung aus den eigenen Leistungen. Der Rückgriff auf Geschichte hingegen kann oft eine Ersatzhandlung sein, wenn man an den eigenen Begabungen und Aufgaben keine ausreichende Erfüllung findet. Man gibt sich Bedeutung, indem man sich zum Teil eines zeitüberspannenden Kollektivs macht. Einfach gesagt: wenn der alte Fritz, Königin Luise und Kaiser Wilhelm I. zur eigenen Identität dazugehören, kann das der eigenen (scheinbare oder gefühlte) Bedeutungslosigkeit entgegenwirken.

Dass das nicht nur mit „Helden“ der Vergangenheit funktioniert, zeigen die Regierungen von Polen und Griechenland. Es kann keinen Zweifel daran geben, dass die unvorstellbaren Verbrechen, die dort von Deutschen und deren Helfershelfern verübt wurden, nicht ausreichend gesühnt wurden. Dasselbe gilt übrigens für die Verbrechen des Osmanischen Reiches auf dem Balkan, der Zaren und Bolschewiken im Kaukasus und schwedischer Söldner im 30jährigen Krieg. Die Bürger Griechenlands und Polens haben viel, worauf sie stolz sein können. Griechenland hat in den letzten zehn Jahren den Anteil des Tourismusgewerbes von 10 auf 18 Prozent des BIP steigern können. Polen hat eine Staatsschuldenquote von nur 48,9 Prozent. In beiden Ländern gibt es genug Anlass, auf die eigenen Leistungen stolz zu sein. Stattdessen versuchen die Regierungen, die Bevölkerung hinter sich zu bringen durch den Rückgriff auf geschichtliche Ereignisse.

Sehnsucht nach einer Schimäre

Und dann natürlich noch der Osten unseres Landes, wo sich bei den Landtagswahlen am letzten Wochenende gut jeder Dritte, der an die Wahlurne getreten ist, für Parteien entschieden hat, die die Rückkehr in eine warme, unbeschwerte und sichere Vergangenheit versprechen. Die Furcht, allein gelassen zu werden; die Erfahrung, gegenüber dem Westen und Süden des Landes zurückstehen zu müssen; entleerte und überalterte Landstriche. Es ist durchaus verständlich, dass da Nostalgie aufkommt. Nostalgie freilich nach einer Zeit, die es so nie gegeben hat, und die viele Risiken und Nebenwirkungen hatte, die keiner heute mehr würde auf sich nehmen wollen. Wer sich mit historischen Beschreibungen und Daten beschäftigt, wird sehr schnell feststellen, dass ein Rückgriff auf die Vergangenheit keine gute Idee ist. Die Welt war einfach nicht besser, als man Versorgungsengpässe bei Penicillin hatte, zum Telefonieren in die Poststation im Nachbarort fahren musste und für eine Meinungsäußerung ins Kittchen gesteckt wurde.

Doch die Nostalgie ist mehr als nur eine Mischung aus Unwissenheit und Verdrängungsmechanismen. Sie ist tatsächlich ein hochgefährliches Gift für unsere jeweilige psychische Konstitution und für ganze Gesellschaften. Sie verzwergt die eigenen Leistungen und Möglichkeiten gegenüber der Vergangenheit. Sie verstellt uns den Blick auf das Gute um und vor uns. Sie drängt uns in eine Opfer-Rolle. Im politischen Bereich kann sie zu einem wirkmächtigen Mittel werden, um von realen Problemen abzulenken, wie man derzeit bei vielen Autokraten erkennen kann von Russland über die Türkei bis nach Venezuela. Immer aber ist Nostalgie eine Flucht aus der derzeitigen Realität, der man sich, aus welchem Grund auch immer, nicht stellen möchte. Dabei ist die heutige Realität oft sehr viel besser als man denkt: von der Sicherheitslage über Geldanlagemöglichkeiten bis hin zur persönlichen Freizeitgestaltung.

Verbesserung: das Grundprinzip der Welt

Der Grund dafür, dass wir heute in der besten aller Zeiten leben, ist, dass es immer wieder Menschen gab, die sich nicht haben verführen lassen von Nostalgie, sondern den Blick nach Vorne gerichtet haben. Menschen, die sich nicht in einer Opferrolle eingerichtet haben, sondern ihr Leben in die Hand genommen haben. Wissenschaftler, Unternehmer und auch ganz viele einfache Menschen, die bereit waren für Wagnisse. Wie es Friedrich August von Hayek im Nachwort seines Buches „Recht, Gesetz und Freiheit“ formuliert: „Die meisten dieser Schritte in der Evolution von Kultur wurden von einzelnen Personen ermöglicht, die traditionelle Regeln brachen und neue Verhaltensformen ausprobierten.“ Diese Bereitschaft und Fähigkeit werden jedoch erstickt durch Nostalgie. Sie tötet die Lust darauf, ein Unternehmen zu gründen; die Abenteuerfreude, sich auf etwas Neues einzulassen; die Zuversicht, dass sich etwas verbessern lässt.

Dieses Grundprinzip der Zivilisation, ja der ganzen Welt, wenn man sich die Evolution ansieht, umschrieb Friedrich Schiller einst mit den Worten „Die Welt wird alt und wird wieder jung, doch der Mensch hofft immer Verbesserung!“ Und der amerikanische Philosoph Ralph Waldo Emerson stellt fest: „Verbesserung ist die Bestimmung der sich ordnenden Natur – und wer könnte die Grenzen kennen? Es ist die Aufgabe des Menschen, das Chaos zu zähmen. Zu allen Seiten hin muss er, solange er lebt, die Samen von Wissenschaft und Kunst ausstreuen, um Klima, Feldfrüchte, Tiere und Menschen zu besänftigen. So werden Liebe und Wohlfahrt allenthalben sprießen.“ Der Blick nach Vorne ist es, was den Menschen ausmacht – sein aufrechter Gang ist dafür ein anschauliches Zeichen. Das kann er, weil er über eigene Ressourcen verfügt: über Kraft und Verstand, über Erfindergeist und Mut. So sehr uns die Vergangenheit auch prägt, beglückt oder belastet – nicht sie definiert uns. Wir definieren uns selbst.

Photo: Dietmar Rasch from Wikimedia Commons (CC BY-SA 4.0)

Von Dr. Alexander Fink, Universität Leipzig, Senior Fellow des IREF – Institute for Research in Economic and Fiscal IssuesFabian Kurz, Doktorand der Volkswirtschaftslehre und Alexander Mengden.

Die DDR-Führung sah sich gern in der Rolle des Vorreiters in Sachen Umweltschutz. Die DDR schrieb bereits im Jahr 1968 den Umweltschutz als Staatsziel in der Verfassung fest und gründete 1972 – bereits 15 Jahre vor der Bundesrepublik – ein eigenes Umweltministerium. Die Realität der Umweltsituation in der DDR war von diesem Anspruch allerdings weit entfernt. Umweltschäden wie hohe Verschmutzungen von Luft und Wasser waren alltäglich und wirkten sich negativ auf die Gesundheit der Bevölkerung aus.

Die hohe Umweltbelastung war dabei nicht etwa der Preis für einen höheren materiellen Wohlstand, sondern ein Resultat von verschwenderischer Produktion, Wasser- und Energieversorgung. Obwohl die Wirtschaftsleistung der DDR pro Person im Jahr 1989 nur etwa 60 Prozent der Wirtschaftsleistung der BRD betrug, war das Ausmaß der Umweltverschmutzung deutlich ausgeprägter. Seit der Wiedervereinigung hat sich die Umweltsituation in Ostdeutschland stark verbessert.

Verschmutzung der Gewässer und des Trinkwassers

Das Gebiet der ehemaligen DDR ist nicht sehr regenreich. Ein sparsamer Umgang mit Wasser wäre daher für eine gute Trinkwasserversorgung notwendig gewesen. Das Gegenteil war allerdings der Fall. Nur zwei Drittel des Trinkwassers kam bei den Verbrauchern an. Der Rest versickerte im maroden Leitungssystem. Berichte des Ministeriums für Staatssicherheit beschreiben die Rohrbruchhäufigkeit in der DDR als eine der „höchsten der Welt“.

Auch die Wideraufbereitung von Wasser wurde vernachlässigt. Die Kläranlagen der DDR waren veraltet und setzten zum Teil nur eine „mechanische“ Reinigung der Abwässer mit Rechen und Absetzbecken ein. Auch das Abwassersystem war hoffnungslos überaltert. Im Jahr 1989 stammten 32 Prozent der Abwasserkanäle aus der Zeit vor dem Zweiten Weltkrieg. Weitere 22 Prozent stammten aus der Kaiserzeit. Statistisch kam es pro Jahr auf jedem Kilometer DDR-Abwasserkanal zu einer Havarie.

Schließlich wurde die Ressource Wasser vor allem von Industriebetrieben stark beansprucht und teilweise unaufbereitet wieder Flüssen zugeleitet. Auch Haushaltsabwässer wurden nicht oder nur unzureichend in Klärwerken behandelt. Diese Verhältnisse trugen dazu bei, dass jeder zweite größere Fluss der DDR biologisch tot war. Teilweise waren die Flüsse derart durch Chemikalien der Industrie vergiftet, dass sogar Bootsfahrten auf ihnen untersagt wurden.

Infolge von Übernutzung und mangelhafter Aufbereitung konsumierten viele Bürger der DDR hoch belastetes Trinkwasser. Im Jahr 1989 wurden 9,6 der gut 16 Millionen DDR-Bürger mit Trinkwasser versorgt, das nicht dem Weststandard genügt hätte. Etwa ein Drittel der Bevölkerung erhielt „zeitweilig bakteriologisch nicht einwandfreies Trinkwasser.“ Für die Bevölkerung hatte dies unter anderem eine höhere Verbreitung von Durchfallerkrankungen zur Folge.

Verschwendung von Energie

Nicht nur mit der Ressource Wasser wurde in der DDR wenig schonend umgegangen. Die DDR verfügte über nennenswerte Braunkohlevorkommen, die sie ausgiebig erschloss. Die DDR deckte in ihrer späten Phase über 80 Prozent des Energiebedarfs mit Braunkohle. Der Wirkungsgrad der Braunkohleverstromung war allerdings sehr gering. Nur etwa 20 Prozent des Energiegehalts konnte in Strom umgewandelt werden. Die restlichen 80 Prozent der verfeuerten Kohle entwichen ungenutzt in die Atmosphäre. Der Wirkungsgrad vergleichbarer Braunkohlekraftwerke in der BRD war mit 35 bis 38 Prozent fast doppelt so hoch. Für die Erzeugung einer Einheit Sozialprodukt setzte die DDR bis zu 50 Prozent mehr Primärenergie ein als westliche Industriestaaten.

CO2 in der DDR: Pro-Kopf-Emissionsriese

Der hohe und ineffiziente Energieeinsatz in der DDR-Planwirtschaft führte dazu, dass in den 70er und 80er Jahren der CO2-Ausstoß der DDR pro Kopf einer der höchsten der Welt war.

Das US-Energieministerium stellt sowohl für die BRD als auch die DDR Schätzungen zu CO2-Emissionen durch die Nutzung fossiler Energie wie Kohle, Öl und Gas sowie der Produktion von Zement von 1950 bis 1990 zur Verfügung. Dabei wurden sowohl für die BRD als auch für die DDR mit der gleichen Methode die CO2-Emissionen geschätzt. Während im Jahr 1950 die Emissionen pro Kopf noch recht nah beieinander lagen, stiegen die Emissionen im Laufe der Zeit in der DDR stärker als in Westdeutschland. So wurden pro Kopf in Westdeutschland im Jahr 1990 knapp 11,5 Tonnen CO2 und in Ostdeutschland über 19 Tonnen pro Jahr emittiert.

Werden die Emissionen ins Verhältnis zum Bruttoinlandsprodukt gesetzt, fällt die Bilanz für die DDR noch ernüchternder aus. Im Jahr 1989 wurde für jede Einheit BIP in der DDR mehr als dreimal so viel CO2 emittiert wie für die Herstellung von Waren und Dienstleistungen in der BRD.

Luftverschmutzung

Die Nutzung der Braunkohle zur Stromerzeugung setzte nicht nur CO2 frei, sondern auch andere Gase, welche die Umwelt verschmutzten und die Gesundheit der DDR-Bürger gefährdeten. Den technisch veralteten Braunkohlekraftwerken fehlten moderne Anlagen zur Rauchgasentschwefelung, weil die DDR-Industrie diese nicht selbst herstellen konnte und die SED fürchtete, mit Technologieimporten in westliche Abhängigkeit zu geraten. Im Jahr 1989 stieß die DDR infolge 15-mal so viel Schwefeloxide pro Einwohner aus wie die Bundesrepublik.

In privaten Haushalten wurde zur Wende noch fast zwei Drittel aller Wohnungen mit festen Brennstoffen wie Braunkohlenbriketts beheizt. Auch diese erhöhten die Belastung mit Schwefeloxiden.

Außerdem emittierten die Kohleöfen in den Wohngebäuden und die Kohlekraftwerke erhebliche Schwebstaubmengen, darunter auch den heute viel diskutierten Feinstaub. Pro Quadratkilometer lag die durchschnittliche Belastung von 20,3 Tonnen Schwebstaub bei mehr als dem zehnfachen Wert Westdeutschlands. Die hohe Schwebestaubbelastung wurde zu 55 Prozent durch die Energieerzeugung verursacht.

Die direkten Gesundheitsgefahren der Luftverschmutzung, die zu Reizung der Schleimhäute und Atembeschwerden führen können, waren besonders in den großen Industriezentren von Halle, Dresden, Leipzig und Karl-Marx-Stadt zu spüren. Die am Boden niedergegangenen Stäube trugen Umweltgifte wie Blei und Cadmium mit sich. So gelangten Schwermetalle in die Nahrungskette der DDR.

Die Belastung mit Stickoxiden war in der DDR pro Quadratkilometer leicht unter der Belastung in Westdeutschland. Durchschnittlich wurde jeder Quadratkilometer der DDR im Jahr 1988 mit 3,8 Tonnen Stickoxiden belastet, im Vergleich zu 4,1 Tonnen in Westdeutschland. Das liegt vermutlich daran, dass Stickoxide vor allem durch den Straßenverkehr verursacht werden, der angesichts des Mangels an Fahrzeugen in der DDR deutlich geringer ausfiel.

Die DDR-Führung sah durchaus Handlungsbedarf. Der günstigste und letztlich eingeschlagene Weg, um die lokale Luftqualität zu verbessern, war es, die Schornsteine der Industrie und der Kohlekraftwerke höher zu bauen. So konnten dank kräftigen Westwindes gut 15 Prozent der Schwefeldioxidemissionen in Nachbarländer „exportiert“ werden.

Vertuschung durch die DDR-Führung

In der Öffentlichkeit vermittelte die SED-Führung zweifellos ein positiveres Bild der Umweltsituation. Über die hohen Umweltbelastungen in der DDR durften die Medien nicht berichten. Sogar bei gesundheitsgefährdenden Schadstoffkonzentrationen in der Luft untersagte die SED-Führung die Auslösung von Smog-Alarm.

Es passt ins Bild, dass gesundheitliche Gefahren durch die erhöhte Strahlenbelastung nach dem Reaktorunfall in Tschernobyl von der SED-Führung ebenfalls negiert und entsprechende Vorsichtsmaßnahmen als „politische Unsicherheiten“ behandelt wurden.

Umwelt nach der Wende: „Blühende Landschaften“

Die DDR hat gezeigt, dass Raubbau an Naturressourcen und Umweltzerstörung, anders als von der SED propagiert, kein spezifisches Phänomen der vermeintlich rücksichtslosen Profitmaximierung im kapitalistischen System ist. Offensichtlich gab und gibt es auch in marktwirtschaftlich geprägten Ländern wie der BRD Umweltprobleme. Der demokratische und marktwirtschaftliche Teil Deutschlands scheint allerdings deutlich erfolgreicher seine Umwelt geschützt zu haben als der sozialistische Staat.

So ist es nicht erstaunlich, vielmehr sehr erfreulich, dass die friedliche Revolution 1989 nicht nur Freiheit und Demokratie gebracht hat, sondern auch einen verantwortlicheren Umgang mit der Natur. Wirtschaftlich liegt der Osten Deutschlands weiterhin hinter dem Westen zurück, doch die Landschaften blühen im Osten heute in weiten Teilen wieder nicht weniger schön.

Erstmals veröffentlicht bei IREF.