Photo: Wikimedia Commons (CC BY-SA 3.0)

Von Dr. Alexander Fink, Universität Leipzig, Senior Fellow des IREF – Institute for Research in Economic and Fiscal Issues, Alexander Mengden und Fabian Kurz, Doktorand der Volkswirtschaftslehre.

Dieses Jahr feiern wir den 30. Jahrestag der friedlichen Revolution in der DDR. Eine ganze Generation junger Erwachsener – in Ost und West – kennt den realexistierenden Sozialismus in Deutschland nur noch aus Erzählungen. Das Jubiläum ist für uns Anlass, die Lebenssituation der DDR-Bürger in vielen Bereichen in Erinnerung zu rufen. Hier widmen wir uns dem Wohnen.

Seit Honeckers Amtsantritt im Jahr 1971 hatte der Wohnungsbau für die Sozialpolitik der DDR höchsten Stellenwert. Trotz der hohen Priorität der DDR-Oberen waren die Resultate ernüchternd. Das Auseinanderklaffen zwischen Anspruch und Wirklichkeit veranschaulicht der innerdeutsche Vergleich: Die DDR-Wohnungen waren nicht nur kleiner, schlechter ausgestattet und hoch renovierungsbedürftig, sondern oft auch fehlbelegt. Die gute Nachricht: Seit der Wende hat sich die Wohnsituation für Menschen in den neuen Ländern deutlich verbessert.

DDR: Kleinere Wohnungen

Den Bürgern der Bundesrepublik standen 1987 mit durchschnittlich 36,8 Quadratmetern etwa 10 Quadratmeter, oder 38 Prozent, mehr Wohnfläche pro Einwohner zur Verfügung als den Bürgern der DDR.

Der Abstand bezüglich der Wohnfläche zwischen Ost und West verringerte sich nach der Wiedervereinigung bis zum Jahr 2017 auf nur noch 8,5 Prozent. Während in dieser Zeit auch in den alten Bundesländern die Wohnfläche pro Einwohner stieg, fiel der Anstieg für die neuen Bundesländer deutlich stärker aus.

Miese Qualität

Wohnungen in der DDR waren nicht nur deutlich kleiner als in Westdeutschland, sondern auch schlechter ausgestattet. Im Jahr 1990 waren nur etwa 83 Prozent aller Wohnungen mit einem Badezimmer ausgestattet. In 84 Prozent der Wohnungen war ein WC vorzufinden und bloß die Hälfte der Wohnungen wurde zentral beheizt. Im Westen befand sich in nahezu jeder Wohnung ein Badezimmer und 90 Prozent der Wohnungen waren an eine Zentralheizung angeschlossen.

Daten des Sozioökonomischen Panels (SOEP) offenbaren neben der vergleichsweise dürftigen Ausstattung den schlechten Zustand der Wohnungen. Das SOEP erfasst die Einschätzung des Gebäudezustands durch den Haushaltsvorstand. Im Jahr 1990 bewerteten 28 Prozent der Haushalte in Ostdeutschland ihr Wohngebäude als „ganz renovierungsbedürftig oder abbruchreif“. In Westdeutschland waren es 4 Prozent. Die nach der Wende zunächst deutliche Lücke schloss sich bereits in den 2000er Jahren fast vollständig.

DDR-Bürger mit der eigenen Wohnung weniger zufrieden

Die unterschiedlichen Wohnverhältnisse in Ost und West spiegeln sich auch in der subjektiven Bewertung der Bürger wider. Umfrageergebnisse des Wohlfahrtssurveys offenbaren, dass Bewohner auf dem Gebiet der ehemaligen DDR 1990 ihre Wohnsituation mit 6,6 von 10 möglichen Punkten bewerteten, deutlich schlechter als bereits zwei Jahre zuvor in Westdeutschland mit 8,2. Dass die Zufriedenheit bezüglich der Wohnsituation 1990 noch niedrig war, ist angesichts der damals noch nicht erfolgten Renovierung des alten DDR-Bestandes keine Überraschung.

In den Jahren nach dem Mauerfall erhöhte sich die Zufriedenheit der Menschen mit ihrer Wohnsituation in den neuen Bundesländern. Daten des SOEP zufolge waren die Bewohner der neuen Bundesländer 2008 etwa genauso zufrieden mit ihrer Wohnsituation wie die Bewohner in den alten Bundesländern – im Falle von Mietern etwas zufriedener, im Falle von Selbstnutzern etwas weniger zufrieden.

Platte hui, Altbau pfui

Im Jahr 1990 befanden sich 59 Prozent aller Wohnungen in der DDR in „Volkseigentum“, also in Besitz volkseigener Betriebe oder Genossenschaften. Etwa 24 Prozent der Wohnungen gehörten privaten Personen, die diese selbst nutzten. Weitere 17 Prozent der Wohnungen waren im privaten Besitz und vermietet. Die Rechte der privaten Vermieter waren jedoch stark beschränkt. Weder hatten die Eigentümer einen Einfluss darauf, wer in die Mietwohnungen einzog, noch wie hoch die Miete ausfiel.

Während in der Bundesrepublik der Mietpreisstopp ab 1960 abgebaut und 1971 das in seinen Grundzügen bis zur Einführung der Mietpreisbremse 2015 fortbestehende Regelwerk eingeführt wurde, blieben die Mieten für Bestandsgebäude in der DDR, die vor dem Krieg erbaut worden waren auf dem Preisniveau von 1936 eingefroren. Das betraf rund die Hälfte des DDR-Wohnungsbestands. In Modernisierung und Instandhaltung investierten die privaten Vermieter angesichts der niedrigen Mieten und der schlechten Verfügbarkeit von Baumaterial kaum. Es passt ins Bild, dass bis 1989/90 der Verfall gut eine halbe Million ältere Wohnungen unbewohnbar gemacht hatte.

Wenn man heute die schönen Innenstädte in den ostdeutschen Bundesländern sieht, ist es nur schwer vorstellbar, dass die berühmten „Platten“ der DDR begehrter Wohnraum waren. Obwohl trotz der umfangreichen Subventionen auch die junge Bausubstanz unter der mangelnden Modernisierung und Instandhaltung litt, waren Wohnungen in der Platte attraktiv. Mieter hatten hier für DDR-Verhältnisse Zugang zu relativ hochwertigen Wohnungen zu niedrigen Mieten – Kaltmieten für Neubauten waren bis zur Wiedervereinigung auf durchschnittlich 90 Pfennig pro Quadratmeter festgelegt.

Staatliche Zuteilung von Wohnraum

Anders als in der BRD kam in der DDR nicht der Preismechanismus als Instrument für die Verteilung von Wohnraum zum Einsatz. Die SED-Regierung setzte auf die staatliche Zuweisung von Wohnungen. Entscheidend war somit nicht, ob ein Interessent in der Lage und bereit war, für die seinen Vorstellungen entsprechende Wohnung eine den Vermieter überzeugende Miete zu entrichten.

Stattdessen teilten die kommunalen Wohnungsbehörden den verfügbaren Wohnraum an Interessenten nach den Kriterien von sozialer Dringlichkeit, Arbeitskräftesicherung und „gesellschaftlichen Verdiensten“ zu, deren Auslegung durchaus Freiräume ließ. Nach der sozialen Dringlichkeit wurden vor allem junge Ehepaare und Familien bevorzugt. Mit Priorität im Rahmen der Arbeitskräftesicherung wurden Mitarbeiter zentraler staatlicher Institutionen sowie Facharbeiter und Hochschulabsolventen behandelt. Nach dem Kriterium „gesellschaftlicher Verdienste“ wurden Wohnungen vor allem unter politischen Gesichtspunkten wie Parteimitgliedschaft und Engagement im Sinne der SED-Regierung vergeben.

So hatte nicht jeder das Glück oder die gewünschte politische Gesinnung, um eine für ihn wünschenswerte Wohnung von den Behörden zugeteilt zu bekommen. Für die Zuteilung einer Wohnung mussten DDR-Bürger Ende der 1980er Jahre zudem Wartezeiten von 4 bis 6 Jahren in Kauf nehmen.

Wer einmal eine Wohnung zugeteilt bekommen hatte, versuchte sie zu behalten, vor allem wenn sie komfortabel groß war. So gab es kaum einen finanziellen Anreiz, in eine kleinere Wohnung zu ziehen, wenn die Kinder auszogen, ein Ehepartner die gemeinsame Wohnung verließ oder die Eltern verstarben. Verbreitet war auch, dass Paare nach dem Zusammenzug ihre zweite Wohnung behielten, um im Falle einer Trennung gewappnet zu sein oder sie im Tausch für etwas anderes Erstrebenswertes einsetzen zu können. Ähnlich wie Bestandsmieter in Zeiten schnell steigender Neuvertragsmieten heute, verschärfte dieses Verhalten der „Insider“ die Wohnungsknappheit in der DDR.

Einige Menschen umgingen die unbefriedigende Wohnraumlenkung, indem sie „schwarz“ wohnten. Der Historiker Prof. Udo Grashoff schätzt, dass sich in der gesamten DDR mehr als zehntausend zumeist jüngere Einwohner abseits der staatlichen Wohnraumlenkung in heruntergekommen Altbauten einquartiert hatten.

Grund für Optimismus

Obwohl der Wohnungsbau eine hohe Priorität in der DDR hatte, waren die Ergebnisse ernüchternd. Das 30-jährige Jubiläum des Mauerfalls ist aber auch Anlass zur Erinnerung, wie stark sich die Wohnungssituation auf dem Gebiet der ehemaligen DDR zum Positiven gewandelt hat. So profitieren die Menschen in den neuen Bundesländern heute von geräumigeren und höherwertigen Wohnungen und einer breiteren Palette an Wahlmöglichkeiten.

Das ist insbesondere der Etablierung marktwirtschaftlicher Strukturen in den neuen Bundesländern zu verdanken, die Investitionen in Instandhaltung, Modernisierung und Ausweitung des Wohnraums nicht nur grundsätzlich ermöglichen, sondern auch die finanziellen Anreize zu ihrer Umsetzung bieten.

Erstmals erschienen bei IREF

Photo: Leio McLaren from Unsplash (CC 0)

Von Dr. Alexander Fink, Universität Leipzig, Senior Fellow des IREF – Institute for Research in Economic and Fiscal Issues und Fabian Kurz, Doktorand der Volkswirtschaftslehre.

Unser Leben wurde über die vergangenen Jahrzehnte deutlich angenehmer. Autos sind heute technisch ausgereifter, Wohnungen komfortabler und Medikamente sicherer. Dem technischen Fortschritt, ermöglicht durch eine marktwirtschaftliche Ordnung, sei Dank. Doch technischer Fortschritt erfolgt nicht linear. Es gibt viele Ideen. Einige setzen sich durch, andere dagegen scheitern technisch oder die Kunden nehmen sie nicht an. Bewähren sich technische Neuerungen, finden sie schnell Einzug in Produkte – ganz ohne Zutun des Staates.

Werden allerdings durch das Betreiben von Partikularinteressen oder motiviert durch überzogene Vorsicht seitens des Gesetzgebers zu hohe Qualitätsstandards eingeführt, kommt es zu unerwünschten Nebenfolgen. Produkte niedrigerer Qualität, die allerdings auch günstiger sind, verschwinden vom Markt. Beim jüngsten Vorstoß der EU-Kommission zur Erhöhung der Fahrzeugsicherheit durch die Verpflichtung zu einer Vielzahl neuer Sicherheits- und Assistenzsysteme in Neuwagen ist dies zu befürchten. Weitere Beispiele aus den Bereichen Wohnen und Medikamentensicherheit illustrieren die Nachteile zu hoher Standards ebenfalls.

Everybody’s darling: Hohe Produktstandards

Hohe Standards versprechen eine hohe Qualität, Langlebigkeit von Produkten und eine bessere Umweltverträglichkeit. Schließlich sollen hohe Standards für Sicherheit sorgen, etwa bei Autos und Medikamenten oder in Hinblick auf den Brandschutz bei Wohnungen. Kurzum: Hohe Standards haben offensichtliche Vorteile und genießen einen guten Ruf. Gegen hohe – auch gesetzliche – Standards lässt sich auf den ersten Blick kaum etwas einwenden, denn ihre Vorteile sind offensichtlich.

Standards: Die Nachteile

Den Vorteilen stehen allerdings auch potentielle Nachteile gegenüber. Werden gesetzliche Standards über dem Niveau minderwertiger aber auch günstiger Produkte gesetzt, können diese nicht mehr angeboten werden. Sollen die Bedürfnisse aller Konsumenten bei der Festlegung von Standards in Betracht gezogen werden, auch derjenigen, die Produkte minderer Qualität zu günstigeren Preisen bevorzugen, ist die zügige Deklaration neuer Mindeststandards problematisch.

Technische Innovationen sind in der Regel zunächst teurer als bisherige Alternativen. Deswegen werden Innovationen meist zunächst nur in höherpreisige Produkte integriert. Dort machen die Zusatzkosten nur einen kleinen Anteil am Gesamtpreis des Produkts aus. Erst wenn die Kosten etwa durch eine Ausweitung und Verbesserung der Produktion gesunken sind und Konsumenten günstiger Produkte die Integration der Innovation nachfragen, werden sie auch in günstigen Produktsegmenten eingeführt.

Erklärt der Staat neue technische Möglichkeiten voreilig zum Standard, werden günstige Produkte mittlerer und geringer Qualität überproportional verteuert und aus dem Markt gedrängt, obwohl es Kunden gibt, die diese bevorzugen. Hohe Standards schaden daher vor allem Konsumenten, die diese zwar qualitativ minderwertigen, aber auch günstigeren Produkte bevorzugen.

Mögliche Gründe für systematisch zu hohe Standards

Für den Gesetzgeber ist es schwierig, das richtige Maß oder Niveau für einen Standard festzulegen, denn es fehlt ihm das notwendige Wissen. Zu hohe Standards können daher Resultat eines Irrtums des Gesetzgebers sein, ebenso wie zu niedrige Standards. Irrtümer des Gesetzgebers, die zu niedrige Standards nach sich ziehen, werden allerdings systematisch durch die Konsumenten korrigiert: Betroffene Produkte können sich nicht am Markt etablieren. Einen entsprechenden Korrekturmechanismus gibt es nicht für zu hohe Standards, die Produkte aus dem Markt drängen. Dies ist relevant, weil drei Anreizprobleme dazu beitragen, dass der Gesetzgeber systematisch zu zu hohen Standards tendiert.

Erstens, gut gemeinter Paternalismus kann zu übertrieben hohen Standards führen, wenn der Gesetzgeber zum Schutz von Konsumenten hohe Standards garantieren will. Die dadurch höheren Produktionskosten, die den Konsum der Güter für einige Konsumenten verhindern, schätzt er möglicherweise als nebensächlich ein oder vernachlässigt sie vollständig.

Zweitens, der Selbstschutz des Gesetzgebers kann zu zu hohen Standards führen. Kommt es zu negativen Erfahrungen von Konsumenten oder gar zu einer Katastrophe, kann der Gesetzgeber darauf verweisen, mit der Einführung hoher Standards im Vorfeld das Möglichste getan zu haben. Setzt der Staat voreilig hohe Standards, muss er sich weniger häufig die Frage stellen lassen, wieso er einen niedrigen Standard nicht verhindert habe.

Drittens, der Gesetzgeber kann zu hohe Standards auch beschließen, weil er dem Druck von Interessengruppen nachgibt, die sich unliebsamer Konkurrenz durch Produkte geringerer Qualität entledigen wollen.

Welcher der drei Anreize für gewisse hohe und möglicherweise zu hohe Standards verantwortlich ist, ist nur schwer zu ermitteln. Beispiele, die den Drang zu hohen Standards illustrieren, gibt es jedoch zahlreiche.

Beispiel Mobilität

Die EU-Kommission möchte, dass ab 2022 neue Autos verpflichtend mit Systemen ausgestattet sind, die die Ablenkung oder Mündigkeit des Fahrers erkennen, beim Rückwärtsfahren assistieren, die Spur halten, in Gefahrensituationen automatisch abbremsen und dauerhafte Geschwindigkeitsübertretungen unterbinden.

Unabhängig von den möglicherweise gut gemeinten Beweggründen sind von der angestrebten Standardsetzung auch Nachteile zu erwarten. Günstige Neuwagen werden qualitativ aufgewertet, aber auch teurer. Vor allem jüngere unerfahrene Fahrer könnten vom Kauf eines günstigen Neuwagens abgehalten werden und auf deutlich ältere Fahrzeuge zurückgreifen, deren Sicherheitssysteme noch unter dem Niveau der Sicherheitssysteme von Neufahrzeugen liegen, die den zusätzlichen Anforderungen der EU bald nicht mehr genügen. Dazu passend zeigt eine Umfrage von Deloitte, dass deutsche Konsumenten in nur relativ geringem Umfang bereit sind, höhere Kosten für neue Sicherheitstechnologien zu tragen. Der Gesamteffekt verpflichtender Sicherheitssysteme für PKW, die höhere Produktionskosten nach sich ziehen, ist daher nicht unbedingt positiv.

Beispiel Wohnen

Bezüglich des Wohnungsbaus gibt es Hinweise darauf, dass die regulatorischen Anforderungen in Deutschland zu hoch sind. So hat der Gesetzgeber beispielsweise bei strengen Auflagen zum Brandschutz möglicherweise ausschließlich den Schutz der Bürger vor Augen. Vielleicht möchte er sich mit sehr hohen Brandschutzanforderungen aber auch selbst schützen, um im gut sichtbaren Katastrophenfall darauf verweisen zu können, alles in seiner Macht Stehende getan zu haben, um die Bürger zu schützen.

Die höheren Kosten, die mit einem hohen Brandschutz einhergehen, offenbaren sich hingegen nicht im Zuge einer gut sichtbaren Katastrophe, sondern werden von Mietern und Eigentümern Jahr für Jahr geschultert.

Beispiel Medikamente

Die Zulassung neuer Medikamente illustriert das Bestreben staatlicher Einrichtungen, sichtbare Katastrophen zu vermeiden. Schädliche zugelassene Medikamente führen zu sichtbaren Opfern und entsprechenden Reaktionen der Öffentlichkeit. Ein Beispiel ist der Wirkstoff Thalidomid und der damit verbundene Contergan-Skandal. Medikamente werden daher sehr ausgiebig in langwierigen Verfahren getestet und im Zweifel nicht zugelassen.

Doch die aufwendigen, staatlich geforderten Tests und Zulassungsverfahren führen dazu, dass Menschen, die von einem getesteten Medikament gesundheitlich profitieren könnten, es erst verspätet oder gar nicht erhalten. Sie tragen die Kosten der hohen Standards.

One-size-fits-all?

Hohe Standards haben offensichtliche Vorteile und oft weniger offensichtliche Nachteile. Die Nachteile gehen dabei regelmäßig über monetäre Kosten in Form höherer Preise hinaus, wenn Produkte vom Markt verschwinden oder nie das Tageslicht erblicken.

Der Staat sollte sich daher bei der schnellen Festlegung von hohen Standards zurückhalten. Gewiss sollte er den Partikularinteressen von Anbietern, die günstige Konkurrenzprodukte eliminieren wollen, nicht nachgeben. Zudem sollte er sich selbst beim Versuch bremsen, mündige Bürger vor sich selbst zu schützen. Zuletzt sollte er Standards nicht einzig mit dem Ziel erhöhen, sich durch die Verhinderung von Katastrophenfällen selbst zu schützen.

Erstmals erschienen bei IREF

Photo: Junge Tüftler from Flickr (CC BY-SA 2.0)

Von Dr. Alexander Fink, Universität Leipzig, Senior Fellow des IREF – Institute for Research in Economic and Fiscal Issues, und Kevin Spur, Student der Ökonomie an der Freien Universität Berlin.

Erst jüngst äußerte Bundeskanzlerin Merkel Zweifel, ob Deutschland und Europa die Voraussetzungen haben, technologisch weltweit mitzuspielen. Auch andere sehen mit Sorge in die technische Zukunft Deutschlands. Immer wieder wird als Grund für Pessimismus der Fachkräftemangel genannt. Der Ruf nach mehr MINT-Studierenden – also Studierenden in Mathematik, Ingenieurswissenschaften, Naturwissenschaften und Technik – resultiert aus dem identifizierten Mangel. Allerdings ist seit der Jahrtausendwende der Anteil an MINT-Studierenden in Deutschland deutlich gestiegen und im internationalen Vergleich schließen hierzulande relativ viele Studierende mit einem Abschluss in MINT-Fächern ab. Das stimmt optimistisch, denn MINT-Absolventen profitieren nicht nur selbst von ihren Fähigkeiten, sondern verursachen laut Befunden der wissenschaftlichen Literatur besonders ausgeprägte positive externe Effekte.

MINT für mehr Produktivität und Innovation

Arbeiten in einer Region viele Ingenieure, Informatiker oder Naturwissenschaftler, steigt die Innovationskraft und auch andere Arbeitskräfte in der Region profitieren z. B. in Form höherer Löhne, wie Forschungsergebnisse für die USA zeigen. John V. Winters hat den externen Effekt von MINT-Absolventen auf die Löhne in der gleichen Metropolregion untersucht. MINT-Absolventen haben im Vergleich zu Absolventen von Fächern außerhalb der MINT einen signifikant höheren positiven Effekt auf die Löhne anderer Arbeiter. Giovanni Peri kommt mit Ko-Autoren in einem Papier von 2015 zu einem ähnlichen Schluss: Eine Erhöhung ausländischer MINT-Arbeitnehmer in einer Region ist mit einem signifikanten Anstieg der Löhne von universitär und nicht-universitär ausgebildeten Einheimischen verbunden. Gemäß der Ergebnisse von Winters in einem Papier von 2015wirkt sich die Zahl an MINT-Absolventen zudem positiv auf die Anzahl der Patente pro Einwohner aus, während Nicht-MINT-Absolventen Regionen und Länder auf diesem Wege nicht positiv beeinflussen.

MINT-Studium: 90er Flop, seit 2000 (wieder) Top

Der Ruf nach mehr MINT-Studierenden in Deutschland ist gerade angesichts der Forschungsergebnisse für die USA nachzuvollziehen. Doch wie ist es in Deutschland um die Beliebtheit der MINT-Fächer aktuell bestellt – im Vergleich zu früher und im Vergleich zu anderen Ländern?

Daten des Statistischen Bundesamtes für den Zeitraum von 1975 bis 2017 liefern Aufschluss über den Anteil an MINT-Studierenden im ersten Fachsemester in Relation zu allen eingeschriebenen Studierende im ersten Fachsemester. 1989 erreichte der Anteil an MINT-Studierenden mit 37,3 % seinen vorläufigen Höhepunkt, bevor es in den 1990er Jahren bis auf 29,6 % bergab ging. Das war 1997.

Spätestens seit der Jahrtausendwende hat sich das Blatt gewendet. Bis zum Wintersemester 2015/16 stieg der Anteil der MINT-Studierenden auf 40,5 % und ist seitdem etwa konstant. Die MINT-Fächer sind wieder die beliebtesten Fächergruppen unter den 878.000 Studienanfängern an den Hochschulen. Während 2017 etwa 322.000 junge Menschen Wirtschafts-, Sozial- oder Rechtswissenschaften studierten, wurden 351.000 Studierende in MINT-Fächern ausgebildet.

Historisch befindet sich die Zahl an Studienanfängern und die der MINT-Erstsemester auf einem Rekordniveau – ein Grund für Optimismus. Aber wie sieht es im internationalen Vergleich aus?

International: Hoher MINT-Anteil

Die OECD hält Daten zum Anteil von STEM-Universitätsabsolventen ihrer Mitgliedsländer bereit. STEM steht für Science, Technology, Engineering und Mathematics – das englische Äquivalent zu MINT. Deutschland steht hier an der Spitze.

Während im jüngsten verfügbaren Jahr 2016 in Deutschland 36 % aller Hochschulabsolventen aus den MINT-Fächern kamen, waren es in Frankreich knapp 26 %. Großbritannien wies einen MINT-Absolventenanteil von 26 % auf und lag damit immer noch über dem OECD-Durchschnitt von 24 %. In den USA schlossen lediglich 18 % der Absolventen ihre Ausbildung in einem MINT-Fach ab. Auch im internationalen Vergleich ist es um die deutsche MINT-Quote bei Studierenden gut bestellt.

Tertiärer Abschluss: Anteil der Bevölkerung gering

Der hohe MINT-Anteil unter den Studierenden in Deutschland wird allerdings von einem vergleichsweise niedrigen Bevölkerungsanteil mit tertiärer Ausbildung begleitet. So hatten in der Gruppe der 25- bis 34-Jährigen 2017 gemäß Daten der OECD 31,3 % einen Abschluss an einer Universität, Fachhochschule oder Berufsakademie gemacht. Der OECD-Durchschnitt lag deutlich höher, nämlich bei 44,5 %. Unter Deutschlands Studierenden sind also relativ viele MINT-Studierende bei insgesamt niedrigen Studierendenzahlen. Der Nachteil der niedrigen Studierendenquote wiegt jedoch angesichts der in der DACH-Region üblichen Möglichkeit zur berufsbegleitenden Ausbildung außerhalb der Hochschullandschaft weniger schwer, als es auf den ersten Blick erscheinen mag. Tätigkeiten, die in anderen Ländern eine Hochschulausbildung voraussetzen, werden in der DACH-Region relativ häufig von Personen mit Berufsausbildung ausgeübt.

Das deutsche duale Ausbildungssystem hat sich dabei als erfolgreich erwiesen, junge Menschen in der Schule und am Arbeitsplatz mit Fähigkeiten auszustatten, die es ihnen erlauben, am Arbeitsmarkt zu reüssieren – ohne zu studieren. Man darf optimistisch sein, dass gerade die direkte Einbindung in den Arbeitsmarkt dazu beiträgt, dass die duale Ausbildung auch in einer durch schnelleren technologischen Wandel geprägten Welt relevante Fähigkeiten vermittelt und ein Erfolgsmodell bleiben wird.

Land der Ingenieure: Grund für Optimismus

Der Ruf Deutschlands als das „Land der Ingenieure“ ist angesichts des derzeitigen MINT-Rekordstandes bei den Studienfächern auch heute nicht ganz unverdient. Und gerade die Entwicklung der letzten Jahre gibt Anlass für Optimismus. Daraus folgt nicht, dass eine Akademisierung einiger ausgewählter heutiger Ausbildungsberufe und eine stärkere Präsenz deutscher Forschungseinrichtungen in der Weltspitze nicht wünschenswert wären. Aber der Befund lässt auch nicht den Schluss zu, in Deutschland werde an den Hochschulen nicht der für die technologischen Herausforderungen der Zukunft notwendige Humankapitalstock aufgebaut.

Erstmals erschienen bei IREF

Photo: Todd Diemer from Unsplash (CC 0)

Von Matthias Weik und Marc Friedrich, Autoren von “Der Crash ist die Lösung” und „Kapitalfehler Wie unser Wohlstand vernichtet wird und warum wir ein neues Wirtschaftsdenken brauchen“.

Fortsetzungen sind meist nicht so gut wie das Original, aber bei Mario Draghis „Whatever it takes“ war der erste Teil schon verheerend. Nun hat er es wiederholt verlauten lassen und das Mantra der Märkte wiedergegeben: Die Bilanz der EZB ist auf Rekordniveau, und er will die Geldschleusen weiter öffnen, Anleihen aufkaufen und die Zinsen senken. Moment mal, wir sind doch schon bei 0% – wo soll das hin-gesenkt werden? In den Negativbereich! Was ist der Auslöser? Es sind miese Konjunkturaussichten, eine zu schwache Inflation sowie die drohende Rezession am Horizont, die für Panik unter den Währungshütern sorgen. Denn auch die US- Notenbank FED signalisiert Zinssenkungen. Andere Notenbanken sind schon aktiv geworden: In Australien sind wir auf einem Rekordtief. Indonesien, Indien, Malaysia, Philippinen, Neuseeland und China sahen sich ebenfalls genötigt, die Zinsen stärker zu senken als während der Finanzkrise 2008!

EZB-Chef Draghi droht mit einer Ausweitung seiner verheerenden Notenbankpolitik und bringt damit nicht nur US-Präsident Donald Trump zum Glühen. Kurzum jetzt kommt der Währungskrieg. Die Zinsen werden weiter sinken, es wird noch mehr Geld gedruckt und es werden noch mehr Anleihen von faktisch bankrotten Staaten und Unternehmen gekauft. Sollte sich der Ausblick nicht verbessern und die Inflation im Euroraum nicht anziehen, werde laut EZB-Boss Draghi eine zusätzliche Lockerung der Geldpolitik erforderlich sein.

Warum soll sich der Wirtschaftsausblick verbessern? Alle Anzeichen stehen auf Rezession, insbesondere beim Exportweltmeister und der Stütze der Eurozone – Deutschland. Deutschlands Schlüsselindustrie, die Automobilbranche, hat nicht nur etliche Probleme an der Backe, sondern ist schon in einer Rezession. Insbesondere im Gigamarkt China sieht es zappenduster aus. Die PKW-Verkaufszahlen in China sanken laut der China Association of Automobile Manufacturers im Mai abermals um 17,37 % im Vergleich zum Vorjahresmonat. Für die ersten fünf Monate 2019 ist ein Verlust von 15,17 % zu verzeichnen. Die gesamten Fahrzeugverkäufe (PKW, Busse und LKW) sind in China, im Mai 2019 um 16,4 % zum Vorjahresmonat gesunken.

Auch andere Indikatoren verheißen nichts Gutes: Im April 2019 ist die Rohstahlproduktion in den deutschen Hüttenwerken um 8,7 % zum Vorjahresmonat gesunken. In den ersten vier Monaten 2019 sank der Output um 4,9 % zum Vorjahreszeitraum. Bereits im Jahr 2018 sank der Output um 2,2 %. Es ist lediglich eine Frage der Zeit, bis die Rezession in Deutschland und in den Euroländern voll einschlägt. Und genau dann wird ein panischer Mario Draghi konkret in Aktion treten.

Die Europäische Zentralbank (EZB) hat bereits Anleihen im Volumen von rund 2,6 Billionen Euro. Dennoch kündigte der EZB-Chef Mario Draghi an, seine Geldpolitik noch weiter voranzutreiben. Früher verkündetet er die Devise: „Whatever it takes.“ Heute: „Ein zusätzlicher Stimulus ist nötig“ und noch besorgniserregender: „Wir sind bereit, alle Instrumente zu nutzen, die notwendig sind.“ Diese Aussagen sollten uns spätestens jetzt alle auf die Barrikaden treiben, denn wir werden für die zum Scheitern verurteilte Notenbankpolitik einen immer höheren Preis bezahlen. Wir erwarten nach den Äußerungen Draghis, dass die EZB bereits auf ihrer nächsten Sitzung am 25. Juli eine Senkung des Einlagezinses beschließt. Auch die FED wird dieses Jahr noch die Zinsen senken um die Märkte sorry die Konjunktur anzukurbeln.

Nach Draghis Ansage verzeichnete der Handel mit europäischen Staatsanleihen einen Einbruch der Zinsen. Selbst die Renditen für zehnjährige Staatsanleihen aus Frankreich und Österreich rutschten erstmals in den negativen Bereich. Betrachtet man die verheerenden volkswirtschaftlichen Eckdaten Frankreichs, dann wird auch dem Letzten die Gefahr bewusst. In Deutschland sind die zehnjährigen Bundesanleihen noch tiefer in die Negativzone gerauscht und erreichten ein Rekordtief bei minus 0,33 Prozent.

Selbst der Marktzins für Griechenanleihen fiel um 0,22 Punkte auf 2,47 Prozent. Zehnjährige Italien-Anleihen fielen um 0,21 Punkte auf 2,09 Prozent. Faktisch bankrotte Länder wie Italien und Griechenland können sich also trotz Rekordverschuldung, hoher Arbeitslosenquoten und einer Industrieproduktion auf dem Niveau von vor 20 oder 30 Jahren günstiger verschulden als je zuvor. Offensichtlich lautet heute das Motto: „Je schlechter die Bonität, desto niedriger der Zinssatz.“

Draghi wird alles versuchen, um eine Rezession zu unterbinden. Dies wird ihm jedoch nicht gelingen. Es ist lediglich eine Frage der Zeit, bis unser auf Pump und kontinuierlichem Wachstum basierendes Wirtschafts- und Finanzsystem uns mit einem Riesenknall um die Ohren fliegt. Staaten, viele Unternehmen und Privatpersonen sind bereits bis zur Halskrause verschuldet. Die Welt ist süchtig nach der Droge billigem Geld. Diese Droge wird es in Kürze in gigantischen Mengen geben. Fakt ist: mit Gelddrucken lässt sich niemals eine Krise nachhaltig lösen!

Mit der kommenden Rezession werden die Notenbanken global zukünftig in noch größerem Stil als in der Vergangenheit die Geldschleusen öffnen und die Zinsen weiter senken. Die EZB wird noch drastischer in die Märkte eingreifen und Zombieunternehmen wie beispielsweise die italienischen Banken weiterhin am Leben erhalten. Die Zinsen werden weiter sinken und die Notenbankbilanzen werden in gigantischem, uns bis dato unbekannten Stil aufgebläht werden, um den Schein einer funktionierenden Finanzwelt weiter aufrecht zu erhalten. Die Planwirtschaft der Notenbanken wird in Kürze noch absurdere Ausmaße annehmen. Planwirtschaft hat noch niemals in der Vergangenheit funktioniert, und sie wird auch in Zukunft nicht funktionieren.

Die Folgen für uns Bürger? Die Immobilienblase wird noch gigantischer und Wohnen noch mehr zum Luxusgut. Noch mehr Menschen werden mit Geld, das sie nicht haben, Immobilien erwerben, welche sie sich nicht leisten können. Banken und Versicherungen werden weiter unter dem Notenbankexperiment leiden, und schlussendlich wir Sparer. Wir alle werden durch die Niedrigzinsphase weiter enteignet und sind Opfer dieses Ausnahmezustands. Altersvorsorge wird noch schwieriger. Immer mehr Menschen werden im Alter zu wenig zum Leben zu haben. Die Altersarmut wird weiter wachsen. Junge Menschen können heute nicht mehr adäquat für das Alter vorsorgen. Altersarmut ist vorprogrammiert! Lebens- und Rentenversicherungen, Bausparverträge und Riesterrenten erwirtschaften nicht mehr die versprochenen Erträge.  Wenn überhaupt, werden diese zumeist von den Gebühren wegfressen. Die Garantiezinsen werden weiter sinken und immer mehr Finanzinstitute werden Filialen schließen und schlussendlich von der Bildfläche verschwinden.

Das Einzige was die Notenbanken mit ihrer Politik erreichen werden, ist, sich abermals teuer Zeit zu erkaufen und den Crash abermals in die Zukunft zu verschieben. Denn eines werden sie nicht — das Problem lösen! Nein, lediglich die Fallhöhe wird weiter nach oben justiert und der Aufprall damit noch härter.

Photo: Torsten Maue from Flickr (CC BY 2.0)

Von Kalle Kappner, Promotionsstudent an der Humboldt-Universität zu Berlin, Research Fellow bei IREF, Fackelträger von Prometheus.

Deutschland ist bekannt für notorisch langsame und unzuverlässige Internetverbindungen, insbesondere in ländlichen Gegenden. Langsames Internet ist nicht nur ein Problem für Netflix-Kunden und Online-Zocker, sondern stellt zunehmend einen spürbaren Standortnachteil dar. Zwar stellt die Bundesregierung Jahr für Jahr hohe Summen für den Netzausbau zur Verfügung, doch spielte die in vergleichbaren Ländern priorisierte Glasfasernetztechnologie dabei bisher nur eine untergeordnete Rolle. Stattdessen flossen in den vergangenen Jahren Milliarden in den Ausbau bequemer, aber mittelfristig obsoleter Übergangslösungen wie der Aufwertung jahrzehntealter Kupferleitungen mittels „Vectoring“.

Eine zentrale Ursache der Breitbandmisere ist die innovationshemmende Interessenverquickung zwischen der privatwirtschaftlich organisierten Deutsche Telekom AG und dem mit rund einem Drittel an ihr beteiligten deutschen Staat. Kunden und Wettbewerber leiden unter einem Arrangement, das der Telekom regulatorische Vorteile verschafft und Subventionen in fragwürdige Technologien kanalisiert. Dem Status Quo wäre vorzuziehen, den Unterhalt und Ausbau der noch im Besitz der Telekom verbliebenen Leitungen in ein lediglich diesen Zielen verpflichtetes und zu diesem Zweck reguliertes Unternehmen zu überführen und jegliche Staatsanteile an der Telekom zu veräußern. So könnten die bereitgestellten Mittel in den Netzausbau fließen, ohne dass die Politik versucht ist, dabei die Gewinninteressen eines privilegierten Marktteilnehmers zu befriedigen.

Netzwüste Deutschland

Deutschland wird in internationalen Rankings ein relativ langsames, regional in der Verfügbarkeit schwankendes und auf veralteten Technologien basierendes Internet attestiert. Deutlich wird der Rückstand Deutschlands etwa beim Verbreitungsgrad von Hochgeschwindigkeits-Glasfaserkabelanschlüssen, der als Anteil an allen Breitbandverbindungen nur 2% beträgt (OECD: 25%).

Pflichtschuldig kündigt die Regierung Jahr für Jahr an, bald Abhilfe zu schaffen. So wurde 2015 ein weiteres, milliardenschweres Förderprogramm für den Breitbandausbau aufgelegt. Auch die erwarteten Erlöse von bis zu 5 Milliarden Euro aus der aktuell laufenden Versteigerung von 5G-Mobilfunkfrequenzen sollen in das diffuse Konsensprojekt „Digitalisierung“ fließen. Der Europäische Rechnungshof hält es indes schon jetzt für absehbar, dass das selbstgesteckte Ziel der Bundesregierung, bis 2025 alle Haushalte mit Breitband-Internet zu versorgen, nicht erreicht wird.

Weshalb gelang es Politik und Netzunternehmen trotz großzügiger Förderung bisher nicht, Deutschland in einen modernen High-Speed-Internet-Standort zu verwandeln? Neben Kapazitätsengpässen im Bausektor und bürokratischen Hürden liegt der wichtigste Grund darin, dass die Investitionsmittel trotz geeigneter Alternativen zu bedeutenden Teilen in Technologien fließen, die auf absehbare Zeit veraltet sein werden. Die niedrige Glasfasernutzungsquote drückt nicht nur Verfügbarkeitsengpässe aus – technisch wären derzeit immerhin rund 9 % der Haushalte versorgbar – sondern auch den subventionierten Ausbau alternativer Technologien, die kurzfristig die Geschwindigkeitswünsche der Endkunden befriedigen.

Während im Rest der Welt Glasfaserleitungen zum Standard werden, förderte der deutsche Staat in den letzten Jahren unter Inkaufnahme ineffizienter Doppelstrukturensogenannte „Vectoring”-Technologien, die in den alten Kupferleitung ein letztes Geschwindigkeitsfeuerwerk herbeizaubern und ihren Austausch so kurzfristig weniger attraktiv machen. Mittelfristig werden diese Technologien den wachsenden Geschwindigkeitsanforderungen allerdings technisch nicht genügen, wie die rasant wachsende Nachfrage nach Glasfaseranschlüssen unter Neukunden erkennen lässt. Eine aktuelle Studie des Fraunhofer-Instituts empfiehlt entsprechend einen deutlichen Ausbau des Glasfasernetzes.

Bundesregierung fördert Telekom-Monopol

„Vectoring“ erlaubt höhere Geschwindigkeiten durch die Reduzierung von Übertragungsverlusten, die aus dem Übersprechen verschiedener Leitungen in einem Kupferkabelstrang resultieren. Für die Telekom ist das „Vectoring” aus drei Gründen ein lukratives Geschäft. Erstens konnte sie in den vergangenen Jahren so auf den kostspieligen Austausch der sich meist in ihrem Besitz befindlichen Kupferadern in den Teilnehmeranschlussleitungen (TAL) zwischen Hauptverteiler und Wohnhaus verzichten.

Zweitens sinkt aufgrund des Angebots der Telekom für Mitbewerber der Anreiz zur Verlegung eigener TAL, da das „Vectoring“-DSL der Telekom die Geschwindigkeitswünsche der Kunden kurzfristig größtenteils befriedigt. Entsprechend stiegen die ”Vectoring”-bezogenen Investitionen der Telekom in die Festnetzinternetinfrastruktur seit einigen Jahren relativ zu den Investitionen der Wettbewerber, etwa Vodafone.

Drittens verschafft das “Vectoring” der Telekom Kontrolle über die Produktgestaltung ihrer Wettbewerber. Der störungsfreie Einsatz der Technologie hängt davon ab, dass der Eigentümer des betroffenen Strangs alle TAL kontrolliert, also sämtliche Endkundenanschlüsse “auf der letzten Meile” betreibt. Im Gegenzug zur Verpflichtung zu zügigen Investitionen konnte sich die Telekom die Hoheit über schätzungsweise 96 % der TAL sichern. Dass das „Vectoring” effektiv eine Monopolstellung der Telekom fördert, fiel nicht nur betroffenen Interessengruppen auf, sondern auch der Monopolkommission und der EU-Kommission. Ein durch die EU-Wettbewerbshüter genehmigter Kompromiss sieht daher vor, dass Telekom-Konkurrenten über ein sogenanntes „virtuell entbündeltes lokales Zugangsprodukt” (VULA) weiterhin Endkunden erreichen können – allerdings ohne die Möglichkeit eigenständiger Produktgestaltung.

Kürzlich wurde der „Pakt“ zwischen der Bundesregierung bzw. Netzagentur und der Telekom höchstrichterlich abgesegnet. Verlegen Telekom-Konkurrenten eigene Glasfaser-Hausleitungen, so kann die Telekom diese bei technischen Konflikten mit ihren Kupferkabeln zur Geschwindigkeitsdrosslung zwingen. Obwohl die Bundesregierung nun von der gezielten Förderung des „Vectoring“ abrückt, ist die Sonderstellung der Telekom im deutschen Netzmarkt damit auf Jahre gesichert.

Interessenverquickung schadet Konsumenten

Weshalb unterstützt die Politik veraltete Technologien und setzt damit nicht nur bedeutende Fördersummen in den Sand, sondern riskiert durch die Einschränkung des Infrastrutkurwettbewerbs mittelfristig sogar den Netzausbau? Die „Vectoring”-Lösung ist kurzfristig bequem. Sie erlaubt es, mittels Upgrades der alten Kupferleitungen das politische Versprechen von flächendeckend mindestens 50 Megabit zügig zu realisieren, ohne in jedem Haus die Verlegung moderner Glasfaseranschlüsse finanzieren und abwarten zu müssen.

Doch die problematische Bevorzugung eines Wettbewerbers entspringt vermutlich kaum reiner Bequemlichkeit. Einen Hinweis liefert ein Blick auf die Eigentümerstruktur der Telekom: fast ein Drittel der Anteile liegt in der Hand des Bundes (einschließlich KfW), der damit Regulierer, Eigentümer und Auftraggeber der Telekom zugleich ist.

Dass die Telekom als privatwirtschaftlich organisiertes Unternehmen Möglichkeiten nutzt, sich Wettbewerbsvorteile zu sichern und Investitionsrisiken des Infrastrukturausbaus politisch abzufedern, ist nicht wünschenswert, aber auch nicht verwunderlich. Problematisch ist, dass die Bundesregierung sich darauf einlässt und offenbar ein besonderes Feingefühl für die Belange des Unternehmens und dessen Monopolstreben entwickelt hat. Der ehemalige Bundesinnenminister Thomas de Maizière illustriert diese ganz besondere Beziehung, indem er seinen Wechsel auf den Vorsitz der Deutschen Telekom Stiftung damit begründet, dass „nationale Interessen” bewahrt würden und ergänzt, dass eine derartige Rolle für ihn bei jedem Telekom-Konkurrenten undenkbar sei.

Staat und Telekom entflechten

Zwar deutete die Politik an, künftig ein stärkeres Gewicht auf die Glasfaserkabel-Förderung zu legen und auch die Telekom setzt vermehrt auf „echte“, d.h. bis in die Wohnung verlegte Glasfasernetze. Doch kurzfristig führt kein Weg aus der politisch organisierten Breitbandmisere. Der „Vectoring-Pakt“ ist rechtlich wasserdicht und wird die vielschichtige Interessenverquickung zwischen Regierung und Telekom stärken. Die in den 90ern erfolgten umfangreichen Bemühungen zur Entflechtung von Netzinfrastruktur und Endkundengeschäft werden damit teilweise aufgehoben.

Wenn vergangene Entscheidungen auch nicht rückgängig gemacht werden können, so lassen sich doch Lehren aus ihnen ziehen. Staatsbeteiligungen können auch in Form vermeintlich unerheblicher Minderheitenbeteiligungen zu unerwünschten Anreizproblemen führen. Eine Veräußerung der verbliebenen Telekom-Anteile des Staates könnte daher kurzfristig zumindest eine Minderung des Interessenkonflikts herbeiführen und einseitige Entscheidungen zugunsten des Unternehmens einschränken. Obwohl eine entsprechende Initiative 2016 scheiterte, empfiehlt sich langfristig die Entflechtung von Netzbetrieb und Endkundengeschäft.

Erstmals erschienen bei IREF