Photo: Junge Tüftler from Flickr (CC BY-SA 2.0)

Von Dr. Alexander Fink, Universität Leipzig, Senior Fellow des IREF – Institute for Research in Economic and Fiscal Issues, und Kevin Spur, Student der Ökonomie an der Freien Universität Berlin.

Erst jüngst äußerte Bundeskanzlerin Merkel Zweifel, ob Deutschland und Europa die Voraussetzungen haben, technologisch weltweit mitzuspielen. Auch andere sehen mit Sorge in die technische Zukunft Deutschlands. Immer wieder wird als Grund für Pessimismus der Fachkräftemangel genannt. Der Ruf nach mehr MINT-Studierenden – also Studierenden in Mathematik, Ingenieurswissenschaften, Naturwissenschaften und Technik – resultiert aus dem identifizierten Mangel. Allerdings ist seit der Jahrtausendwende der Anteil an MINT-Studierenden in Deutschland deutlich gestiegen und im internationalen Vergleich schließen hierzulande relativ viele Studierende mit einem Abschluss in MINT-Fächern ab. Das stimmt optimistisch, denn MINT-Absolventen profitieren nicht nur selbst von ihren Fähigkeiten, sondern verursachen laut Befunden der wissenschaftlichen Literatur besonders ausgeprägte positive externe Effekte.

MINT für mehr Produktivität und Innovation

Arbeiten in einer Region viele Ingenieure, Informatiker oder Naturwissenschaftler, steigt die Innovationskraft und auch andere Arbeitskräfte in der Region profitieren z. B. in Form höherer Löhne, wie Forschungsergebnisse für die USA zeigen. John V. Winters hat den externen Effekt von MINT-Absolventen auf die Löhne in der gleichen Metropolregion untersucht. MINT-Absolventen haben im Vergleich zu Absolventen von Fächern außerhalb der MINT einen signifikant höheren positiven Effekt auf die Löhne anderer Arbeiter. Giovanni Peri kommt mit Ko-Autoren in einem Papier von 2015 zu einem ähnlichen Schluss: Eine Erhöhung ausländischer MINT-Arbeitnehmer in einer Region ist mit einem signifikanten Anstieg der Löhne von universitär und nicht-universitär ausgebildeten Einheimischen verbunden. Gemäß der Ergebnisse von Winters in einem Papier von 2015wirkt sich die Zahl an MINT-Absolventen zudem positiv auf die Anzahl der Patente pro Einwohner aus, während Nicht-MINT-Absolventen Regionen und Länder auf diesem Wege nicht positiv beeinflussen.

MINT-Studium: 90er Flop, seit 2000 (wieder) Top

Der Ruf nach mehr MINT-Studierenden in Deutschland ist gerade angesichts der Forschungsergebnisse für die USA nachzuvollziehen. Doch wie ist es in Deutschland um die Beliebtheit der MINT-Fächer aktuell bestellt – im Vergleich zu früher und im Vergleich zu anderen Ländern?

Daten des Statistischen Bundesamtes für den Zeitraum von 1975 bis 2017 liefern Aufschluss über den Anteil an MINT-Studierenden im ersten Fachsemester in Relation zu allen eingeschriebenen Studierende im ersten Fachsemester. 1989 erreichte der Anteil an MINT-Studierenden mit 37,3 % seinen vorläufigen Höhepunkt, bevor es in den 1990er Jahren bis auf 29,6 % bergab ging. Das war 1997.

Spätestens seit der Jahrtausendwende hat sich das Blatt gewendet. Bis zum Wintersemester 2015/16 stieg der Anteil der MINT-Studierenden auf 40,5 % und ist seitdem etwa konstant. Die MINT-Fächer sind wieder die beliebtesten Fächergruppen unter den 878.000 Studienanfängern an den Hochschulen. Während 2017 etwa 322.000 junge Menschen Wirtschafts-, Sozial- oder Rechtswissenschaften studierten, wurden 351.000 Studierende in MINT-Fächern ausgebildet.

Historisch befindet sich die Zahl an Studienanfängern und die der MINT-Erstsemester auf einem Rekordniveau – ein Grund für Optimismus. Aber wie sieht es im internationalen Vergleich aus?

International: Hoher MINT-Anteil

Die OECD hält Daten zum Anteil von STEM-Universitätsabsolventen ihrer Mitgliedsländer bereit. STEM steht für Science, Technology, Engineering und Mathematics – das englische Äquivalent zu MINT. Deutschland steht hier an der Spitze.

Während im jüngsten verfügbaren Jahr 2016 in Deutschland 36 % aller Hochschulabsolventen aus den MINT-Fächern kamen, waren es in Frankreich knapp 26 %. Großbritannien wies einen MINT-Absolventenanteil von 26 % auf und lag damit immer noch über dem OECD-Durchschnitt von 24 %. In den USA schlossen lediglich 18 % der Absolventen ihre Ausbildung in einem MINT-Fach ab. Auch im internationalen Vergleich ist es um die deutsche MINT-Quote bei Studierenden gut bestellt.

Tertiärer Abschluss: Anteil der Bevölkerung gering

Der hohe MINT-Anteil unter den Studierenden in Deutschland wird allerdings von einem vergleichsweise niedrigen Bevölkerungsanteil mit tertiärer Ausbildung begleitet. So hatten in der Gruppe der 25- bis 34-Jährigen 2017 gemäß Daten der OECD 31,3 % einen Abschluss an einer Universität, Fachhochschule oder Berufsakademie gemacht. Der OECD-Durchschnitt lag deutlich höher, nämlich bei 44,5 %. Unter Deutschlands Studierenden sind also relativ viele MINT-Studierende bei insgesamt niedrigen Studierendenzahlen. Der Nachteil der niedrigen Studierendenquote wiegt jedoch angesichts der in der DACH-Region üblichen Möglichkeit zur berufsbegleitenden Ausbildung außerhalb der Hochschullandschaft weniger schwer, als es auf den ersten Blick erscheinen mag. Tätigkeiten, die in anderen Ländern eine Hochschulausbildung voraussetzen, werden in der DACH-Region relativ häufig von Personen mit Berufsausbildung ausgeübt.

Das deutsche duale Ausbildungssystem hat sich dabei als erfolgreich erwiesen, junge Menschen in der Schule und am Arbeitsplatz mit Fähigkeiten auszustatten, die es ihnen erlauben, am Arbeitsmarkt zu reüssieren – ohne zu studieren. Man darf optimistisch sein, dass gerade die direkte Einbindung in den Arbeitsmarkt dazu beiträgt, dass die duale Ausbildung auch in einer durch schnelleren technologischen Wandel geprägten Welt relevante Fähigkeiten vermittelt und ein Erfolgsmodell bleiben wird.

Land der Ingenieure: Grund für Optimismus

Der Ruf Deutschlands als das „Land der Ingenieure“ ist angesichts des derzeitigen MINT-Rekordstandes bei den Studienfächern auch heute nicht ganz unverdient. Und gerade die Entwicklung der letzten Jahre gibt Anlass für Optimismus. Daraus folgt nicht, dass eine Akademisierung einiger ausgewählter heutiger Ausbildungsberufe und eine stärkere Präsenz deutscher Forschungseinrichtungen in der Weltspitze nicht wünschenswert wären. Aber der Befund lässt auch nicht den Schluss zu, in Deutschland werde an den Hochschulen nicht der für die technologischen Herausforderungen der Zukunft notwendige Humankapitalstock aufgebaut.

Erstmals erschienen bei IREF

Photo: Todd Diemer from Unsplash (CC 0)

Von Matthias Weik und Marc Friedrich, Autoren von “Der Crash ist die Lösung” und „Kapitalfehler Wie unser Wohlstand vernichtet wird und warum wir ein neues Wirtschaftsdenken brauchen“.

Fortsetzungen sind meist nicht so gut wie das Original, aber bei Mario Draghis „Whatever it takes“ war der erste Teil schon verheerend. Nun hat er es wiederholt verlauten lassen und das Mantra der Märkte wiedergegeben: Die Bilanz der EZB ist auf Rekordniveau, und er will die Geldschleusen weiter öffnen, Anleihen aufkaufen und die Zinsen senken. Moment mal, wir sind doch schon bei 0% – wo soll das hin-gesenkt werden? In den Negativbereich! Was ist der Auslöser? Es sind miese Konjunkturaussichten, eine zu schwache Inflation sowie die drohende Rezession am Horizont, die für Panik unter den Währungshütern sorgen. Denn auch die US- Notenbank FED signalisiert Zinssenkungen. Andere Notenbanken sind schon aktiv geworden: In Australien sind wir auf einem Rekordtief. Indonesien, Indien, Malaysia, Philippinen, Neuseeland und China sahen sich ebenfalls genötigt, die Zinsen stärker zu senken als während der Finanzkrise 2008!

EZB-Chef Draghi droht mit einer Ausweitung seiner verheerenden Notenbankpolitik und bringt damit nicht nur US-Präsident Donald Trump zum Glühen. Kurzum jetzt kommt der Währungskrieg. Die Zinsen werden weiter sinken, es wird noch mehr Geld gedruckt und es werden noch mehr Anleihen von faktisch bankrotten Staaten und Unternehmen gekauft. Sollte sich der Ausblick nicht verbessern und die Inflation im Euroraum nicht anziehen, werde laut EZB-Boss Draghi eine zusätzliche Lockerung der Geldpolitik erforderlich sein.

Warum soll sich der Wirtschaftsausblick verbessern? Alle Anzeichen stehen auf Rezession, insbesondere beim Exportweltmeister und der Stütze der Eurozone – Deutschland. Deutschlands Schlüsselindustrie, die Automobilbranche, hat nicht nur etliche Probleme an der Backe, sondern ist schon in einer Rezession. Insbesondere im Gigamarkt China sieht es zappenduster aus. Die PKW-Verkaufszahlen in China sanken laut der China Association of Automobile Manufacturers im Mai abermals um 17,37 % im Vergleich zum Vorjahresmonat. Für die ersten fünf Monate 2019 ist ein Verlust von 15,17 % zu verzeichnen. Die gesamten Fahrzeugverkäufe (PKW, Busse und LKW) sind in China, im Mai 2019 um 16,4 % zum Vorjahresmonat gesunken.

Auch andere Indikatoren verheißen nichts Gutes: Im April 2019 ist die Rohstahlproduktion in den deutschen Hüttenwerken um 8,7 % zum Vorjahresmonat gesunken. In den ersten vier Monaten 2019 sank der Output um 4,9 % zum Vorjahreszeitraum. Bereits im Jahr 2018 sank der Output um 2,2 %. Es ist lediglich eine Frage der Zeit, bis die Rezession in Deutschland und in den Euroländern voll einschlägt. Und genau dann wird ein panischer Mario Draghi konkret in Aktion treten.

Die Europäische Zentralbank (EZB) hat bereits Anleihen im Volumen von rund 2,6 Billionen Euro. Dennoch kündigte der EZB-Chef Mario Draghi an, seine Geldpolitik noch weiter voranzutreiben. Früher verkündetet er die Devise: „Whatever it takes.“ Heute: „Ein zusätzlicher Stimulus ist nötig“ und noch besorgniserregender: „Wir sind bereit, alle Instrumente zu nutzen, die notwendig sind.“ Diese Aussagen sollten uns spätestens jetzt alle auf die Barrikaden treiben, denn wir werden für die zum Scheitern verurteilte Notenbankpolitik einen immer höheren Preis bezahlen. Wir erwarten nach den Äußerungen Draghis, dass die EZB bereits auf ihrer nächsten Sitzung am 25. Juli eine Senkung des Einlagezinses beschließt. Auch die FED wird dieses Jahr noch die Zinsen senken um die Märkte sorry die Konjunktur anzukurbeln.

Nach Draghis Ansage verzeichnete der Handel mit europäischen Staatsanleihen einen Einbruch der Zinsen. Selbst die Renditen für zehnjährige Staatsanleihen aus Frankreich und Österreich rutschten erstmals in den negativen Bereich. Betrachtet man die verheerenden volkswirtschaftlichen Eckdaten Frankreichs, dann wird auch dem Letzten die Gefahr bewusst. In Deutschland sind die zehnjährigen Bundesanleihen noch tiefer in die Negativzone gerauscht und erreichten ein Rekordtief bei minus 0,33 Prozent.

Selbst der Marktzins für Griechenanleihen fiel um 0,22 Punkte auf 2,47 Prozent. Zehnjährige Italien-Anleihen fielen um 0,21 Punkte auf 2,09 Prozent. Faktisch bankrotte Länder wie Italien und Griechenland können sich also trotz Rekordverschuldung, hoher Arbeitslosenquoten und einer Industrieproduktion auf dem Niveau von vor 20 oder 30 Jahren günstiger verschulden als je zuvor. Offensichtlich lautet heute das Motto: „Je schlechter die Bonität, desto niedriger der Zinssatz.“

Draghi wird alles versuchen, um eine Rezession zu unterbinden. Dies wird ihm jedoch nicht gelingen. Es ist lediglich eine Frage der Zeit, bis unser auf Pump und kontinuierlichem Wachstum basierendes Wirtschafts- und Finanzsystem uns mit einem Riesenknall um die Ohren fliegt. Staaten, viele Unternehmen und Privatpersonen sind bereits bis zur Halskrause verschuldet. Die Welt ist süchtig nach der Droge billigem Geld. Diese Droge wird es in Kürze in gigantischen Mengen geben. Fakt ist: mit Gelddrucken lässt sich niemals eine Krise nachhaltig lösen!

Mit der kommenden Rezession werden die Notenbanken global zukünftig in noch größerem Stil als in der Vergangenheit die Geldschleusen öffnen und die Zinsen weiter senken. Die EZB wird noch drastischer in die Märkte eingreifen und Zombieunternehmen wie beispielsweise die italienischen Banken weiterhin am Leben erhalten. Die Zinsen werden weiter sinken und die Notenbankbilanzen werden in gigantischem, uns bis dato unbekannten Stil aufgebläht werden, um den Schein einer funktionierenden Finanzwelt weiter aufrecht zu erhalten. Die Planwirtschaft der Notenbanken wird in Kürze noch absurdere Ausmaße annehmen. Planwirtschaft hat noch niemals in der Vergangenheit funktioniert, und sie wird auch in Zukunft nicht funktionieren.

Die Folgen für uns Bürger? Die Immobilienblase wird noch gigantischer und Wohnen noch mehr zum Luxusgut. Noch mehr Menschen werden mit Geld, das sie nicht haben, Immobilien erwerben, welche sie sich nicht leisten können. Banken und Versicherungen werden weiter unter dem Notenbankexperiment leiden, und schlussendlich wir Sparer. Wir alle werden durch die Niedrigzinsphase weiter enteignet und sind Opfer dieses Ausnahmezustands. Altersvorsorge wird noch schwieriger. Immer mehr Menschen werden im Alter zu wenig zum Leben zu haben. Die Altersarmut wird weiter wachsen. Junge Menschen können heute nicht mehr adäquat für das Alter vorsorgen. Altersarmut ist vorprogrammiert! Lebens- und Rentenversicherungen, Bausparverträge und Riesterrenten erwirtschaften nicht mehr die versprochenen Erträge.  Wenn überhaupt, werden diese zumeist von den Gebühren wegfressen. Die Garantiezinsen werden weiter sinken und immer mehr Finanzinstitute werden Filialen schließen und schlussendlich von der Bildfläche verschwinden.

Das Einzige was die Notenbanken mit ihrer Politik erreichen werden, ist, sich abermals teuer Zeit zu erkaufen und den Crash abermals in die Zukunft zu verschieben. Denn eines werden sie nicht — das Problem lösen! Nein, lediglich die Fallhöhe wird weiter nach oben justiert und der Aufprall damit noch härter.

Photo: Torsten Maue from Flickr (CC BY 2.0)

Von Kalle Kappner, Promotionsstudent an der Humboldt-Universität zu Berlin, Research Fellow bei IREF, Fackelträger von Prometheus.

Deutschland ist bekannt für notorisch langsame und unzuverlässige Internetverbindungen, insbesondere in ländlichen Gegenden. Langsames Internet ist nicht nur ein Problem für Netflix-Kunden und Online-Zocker, sondern stellt zunehmend einen spürbaren Standortnachteil dar. Zwar stellt die Bundesregierung Jahr für Jahr hohe Summen für den Netzausbau zur Verfügung, doch spielte die in vergleichbaren Ländern priorisierte Glasfasernetztechnologie dabei bisher nur eine untergeordnete Rolle. Stattdessen flossen in den vergangenen Jahren Milliarden in den Ausbau bequemer, aber mittelfristig obsoleter Übergangslösungen wie der Aufwertung jahrzehntealter Kupferleitungen mittels „Vectoring“.

Eine zentrale Ursache der Breitbandmisere ist die innovationshemmende Interessenverquickung zwischen der privatwirtschaftlich organisierten Deutsche Telekom AG und dem mit rund einem Drittel an ihr beteiligten deutschen Staat. Kunden und Wettbewerber leiden unter einem Arrangement, das der Telekom regulatorische Vorteile verschafft und Subventionen in fragwürdige Technologien kanalisiert. Dem Status Quo wäre vorzuziehen, den Unterhalt und Ausbau der noch im Besitz der Telekom verbliebenen Leitungen in ein lediglich diesen Zielen verpflichtetes und zu diesem Zweck reguliertes Unternehmen zu überführen und jegliche Staatsanteile an der Telekom zu veräußern. So könnten die bereitgestellten Mittel in den Netzausbau fließen, ohne dass die Politik versucht ist, dabei die Gewinninteressen eines privilegierten Marktteilnehmers zu befriedigen.

Netzwüste Deutschland

Deutschland wird in internationalen Rankings ein relativ langsames, regional in der Verfügbarkeit schwankendes und auf veralteten Technologien basierendes Internet attestiert. Deutlich wird der Rückstand Deutschlands etwa beim Verbreitungsgrad von Hochgeschwindigkeits-Glasfaserkabelanschlüssen, der als Anteil an allen Breitbandverbindungen nur 2% beträgt (OECD: 25%).

Pflichtschuldig kündigt die Regierung Jahr für Jahr an, bald Abhilfe zu schaffen. So wurde 2015 ein weiteres, milliardenschweres Förderprogramm für den Breitbandausbau aufgelegt. Auch die erwarteten Erlöse von bis zu 5 Milliarden Euro aus der aktuell laufenden Versteigerung von 5G-Mobilfunkfrequenzen sollen in das diffuse Konsensprojekt „Digitalisierung“ fließen. Der Europäische Rechnungshof hält es indes schon jetzt für absehbar, dass das selbstgesteckte Ziel der Bundesregierung, bis 2025 alle Haushalte mit Breitband-Internet zu versorgen, nicht erreicht wird.

Weshalb gelang es Politik und Netzunternehmen trotz großzügiger Förderung bisher nicht, Deutschland in einen modernen High-Speed-Internet-Standort zu verwandeln? Neben Kapazitätsengpässen im Bausektor und bürokratischen Hürden liegt der wichtigste Grund darin, dass die Investitionsmittel trotz geeigneter Alternativen zu bedeutenden Teilen in Technologien fließen, die auf absehbare Zeit veraltet sein werden. Die niedrige Glasfasernutzungsquote drückt nicht nur Verfügbarkeitsengpässe aus – technisch wären derzeit immerhin rund 9 % der Haushalte versorgbar – sondern auch den subventionierten Ausbau alternativer Technologien, die kurzfristig die Geschwindigkeitswünsche der Endkunden befriedigen.

Während im Rest der Welt Glasfaserleitungen zum Standard werden, förderte der deutsche Staat in den letzten Jahren unter Inkaufnahme ineffizienter Doppelstrukturensogenannte „Vectoring”-Technologien, die in den alten Kupferleitung ein letztes Geschwindigkeitsfeuerwerk herbeizaubern und ihren Austausch so kurzfristig weniger attraktiv machen. Mittelfristig werden diese Technologien den wachsenden Geschwindigkeitsanforderungen allerdings technisch nicht genügen, wie die rasant wachsende Nachfrage nach Glasfaseranschlüssen unter Neukunden erkennen lässt. Eine aktuelle Studie des Fraunhofer-Instituts empfiehlt entsprechend einen deutlichen Ausbau des Glasfasernetzes.

Bundesregierung fördert Telekom-Monopol

„Vectoring“ erlaubt höhere Geschwindigkeiten durch die Reduzierung von Übertragungsverlusten, die aus dem Übersprechen verschiedener Leitungen in einem Kupferkabelstrang resultieren. Für die Telekom ist das „Vectoring” aus drei Gründen ein lukratives Geschäft. Erstens konnte sie in den vergangenen Jahren so auf den kostspieligen Austausch der sich meist in ihrem Besitz befindlichen Kupferadern in den Teilnehmeranschlussleitungen (TAL) zwischen Hauptverteiler und Wohnhaus verzichten.

Zweitens sinkt aufgrund des Angebots der Telekom für Mitbewerber der Anreiz zur Verlegung eigener TAL, da das „Vectoring“-DSL der Telekom die Geschwindigkeitswünsche der Kunden kurzfristig größtenteils befriedigt. Entsprechend stiegen die ”Vectoring”-bezogenen Investitionen der Telekom in die Festnetzinternetinfrastruktur seit einigen Jahren relativ zu den Investitionen der Wettbewerber, etwa Vodafone.

Drittens verschafft das “Vectoring” der Telekom Kontrolle über die Produktgestaltung ihrer Wettbewerber. Der störungsfreie Einsatz der Technologie hängt davon ab, dass der Eigentümer des betroffenen Strangs alle TAL kontrolliert, also sämtliche Endkundenanschlüsse “auf der letzten Meile” betreibt. Im Gegenzug zur Verpflichtung zu zügigen Investitionen konnte sich die Telekom die Hoheit über schätzungsweise 96 % der TAL sichern. Dass das „Vectoring” effektiv eine Monopolstellung der Telekom fördert, fiel nicht nur betroffenen Interessengruppen auf, sondern auch der Monopolkommission und der EU-Kommission. Ein durch die EU-Wettbewerbshüter genehmigter Kompromiss sieht daher vor, dass Telekom-Konkurrenten über ein sogenanntes „virtuell entbündeltes lokales Zugangsprodukt” (VULA) weiterhin Endkunden erreichen können – allerdings ohne die Möglichkeit eigenständiger Produktgestaltung.

Kürzlich wurde der „Pakt“ zwischen der Bundesregierung bzw. Netzagentur und der Telekom höchstrichterlich abgesegnet. Verlegen Telekom-Konkurrenten eigene Glasfaser-Hausleitungen, so kann die Telekom diese bei technischen Konflikten mit ihren Kupferkabeln zur Geschwindigkeitsdrosslung zwingen. Obwohl die Bundesregierung nun von der gezielten Förderung des „Vectoring“ abrückt, ist die Sonderstellung der Telekom im deutschen Netzmarkt damit auf Jahre gesichert.

Interessenverquickung schadet Konsumenten

Weshalb unterstützt die Politik veraltete Technologien und setzt damit nicht nur bedeutende Fördersummen in den Sand, sondern riskiert durch die Einschränkung des Infrastrutkurwettbewerbs mittelfristig sogar den Netzausbau? Die „Vectoring”-Lösung ist kurzfristig bequem. Sie erlaubt es, mittels Upgrades der alten Kupferleitungen das politische Versprechen von flächendeckend mindestens 50 Megabit zügig zu realisieren, ohne in jedem Haus die Verlegung moderner Glasfaseranschlüsse finanzieren und abwarten zu müssen.

Doch die problematische Bevorzugung eines Wettbewerbers entspringt vermutlich kaum reiner Bequemlichkeit. Einen Hinweis liefert ein Blick auf die Eigentümerstruktur der Telekom: fast ein Drittel der Anteile liegt in der Hand des Bundes (einschließlich KfW), der damit Regulierer, Eigentümer und Auftraggeber der Telekom zugleich ist.

Dass die Telekom als privatwirtschaftlich organisiertes Unternehmen Möglichkeiten nutzt, sich Wettbewerbsvorteile zu sichern und Investitionsrisiken des Infrastrukturausbaus politisch abzufedern, ist nicht wünschenswert, aber auch nicht verwunderlich. Problematisch ist, dass die Bundesregierung sich darauf einlässt und offenbar ein besonderes Feingefühl für die Belange des Unternehmens und dessen Monopolstreben entwickelt hat. Der ehemalige Bundesinnenminister Thomas de Maizière illustriert diese ganz besondere Beziehung, indem er seinen Wechsel auf den Vorsitz der Deutschen Telekom Stiftung damit begründet, dass „nationale Interessen” bewahrt würden und ergänzt, dass eine derartige Rolle für ihn bei jedem Telekom-Konkurrenten undenkbar sei.

Staat und Telekom entflechten

Zwar deutete die Politik an, künftig ein stärkeres Gewicht auf die Glasfaserkabel-Förderung zu legen und auch die Telekom setzt vermehrt auf „echte“, d.h. bis in die Wohnung verlegte Glasfasernetze. Doch kurzfristig führt kein Weg aus der politisch organisierten Breitbandmisere. Der „Vectoring-Pakt“ ist rechtlich wasserdicht und wird die vielschichtige Interessenverquickung zwischen Regierung und Telekom stärken. Die in den 90ern erfolgten umfangreichen Bemühungen zur Entflechtung von Netzinfrastruktur und Endkundengeschäft werden damit teilweise aufgehoben.

Wenn vergangene Entscheidungen auch nicht rückgängig gemacht werden können, so lassen sich doch Lehren aus ihnen ziehen. Staatsbeteiligungen können auch in Form vermeintlich unerheblicher Minderheitenbeteiligungen zu unerwünschten Anreizproblemen führen. Eine Veräußerung der verbliebenen Telekom-Anteile des Staates könnte daher kurzfristig zumindest eine Minderung des Interessenkonflikts herbeiführen und einseitige Entscheidungen zugunsten des Unternehmens einschränken. Obwohl eine entsprechende Initiative 2016 scheiterte, empfiehlt sich langfristig die Entflechtung von Netzbetrieb und Endkundengeschäft.

Erstmals erschienen bei IREF

Photo: Brooke Cagle from Unsplash (CC 0)

Von  Prof. Dr. Stefan Kooths, Mitglied des Kuratoriums von “Prometheus”, Leiter des Prognosezentrums im Institut für Weltwirtschaft an der Universität Kiel, Professor für Volkswirtschaftslehre an der University of Applied Sciences Europe (UE) in Berlin und Vorsitzender der Friedrich A. von Hayek-Gesellschaft.

Die Marktwirtschaft hat ein Problem: Immer wieder wird ihr der eigene Erfolg zum Verhängnis. Die gewaltigen Wohlstandsgewinne, die sie hervorbringt, rufen regelmäßig Interventionisten auf den Plan, die in diesem Reichtum vor allem die Manövriermasse für soziale Großexperimente sehen. Der Antrieb hierzu erwächst meist aus edlen Motiven, er beruht aber immer auch auf Unverständnis ökonomischer Zusammenhänge und unerfüllbaren kollektivistischen Sehnsüchten.

Das marktwirtschaftliche Erfolgsrezept beruht auf Eigentum, Tausch und Wettbewerb und damit auf Koordinationsmechanismen, die den Bedingungen komplexer Großgesellschaften angepasst sind. Diese können nur gedeihen, wenn sie die Kreativität der Menschen in produktiver Weise freisetzen und das unter ihnen dezentral verteilte Wissen vernetzen. Marktpreise als soziale Anreiz- und Informationsträger leisten genau das. Die der marktwirtschaftlichen Ordnung zugrundeliegenden abstrakten Prinzipien sind in ihrer sozialen Wirkung oftmals nicht auf Anhieb verständlich. Mehr noch: sie sind vielen suspekt. Den meist als Gesinnungsethikern auftretenden Gegnern der Marktwirtschaft öffnet sich damit ein breites Einfallstor. Sie verheißen eine staatliche Wohlfahrtsgarantie, bei der die ihrer Natur nach ergebnisoffenen Wettbewerbsprozesse des Marktes mehr als Bedrohung denn als Chancenreichtum gelten.

Dem österreichischen Ökonomen Friedrich August v. Hayek (1899-1992) kommt das Verdienst zu, diesen Befund in all seiner Vielschichtigkeit herausgearbeitet zu haben. Zugleich verdanken wir ihm die Einsicht, dass die Grenzen in der Sozialphilosophie nicht zwischen links und rechts verlaufen, sondern zwischen Individualismus und Kollektivismus oder – in den Worten Karl Poppers – zwischen offener und geschlossener Gesellschaft. Kollektivisten setzen darauf, die für Kleingruppen stabilisierenden Verhaltensweisen wie Altruismus und Zusammenhalt auf eine anonyme Großgesellschaft zu übertragen, wo sie allerdings aufgrund der sozialen Komplexität ins Leere laufen. Insofern handelt es sich bei diesem Versuch eher um einen vergeblichen Rückschritt hin zum sozialen Kitt der Stammesgesellschaft als um ein progressives Gesellschaftsmodell. In einem marktwirtschaftlichen System, in dem individuelle Handlungsfreiheit und persönliche Verantwortung durch Eigentum und Haftung gekoppelt sind, bilden sich demgegenüber Institutionen heraus, die in einer anonymen Großgesellschaft besser funktionieren (z. B. Vertragstreue, Reputation), hinsichtlich der individuellen Motive aber moralisch minderwertiger erscheinen und weniger soziale Wärme ausstrahlen.

Je stärker eine die Wirtschaftspolitik leitende Wirtschaftstheorie von den individuellen Akteuren abstrahiert und diese in Großgruppen aufgehen lässt, desto übersichtlicher erscheint das verbleibende Gesamtsystem. Dies suggeriert zugleich eine höhere sozialtechnische Beherrschbarkeit und hat immer wieder zu konstruktivistischen Versuchungen geführt. Die damit geschürten Erwartungen können in der Praxis nur enttäuscht werden. Unterbleiben solche Versuche aus diesem Grunde im Rahmen einer marktwirtschaftlichen Ordnung, werden gleichwohl diejenigen unzufrieden sein, die entsprechende Interventionen für aussichtsreich halten. Gerade unter meinungsbildenden Intellektuellen ist die Einsicht in die beschränkten Gestaltungsmöglichkeiten mit Blick auf soziale Phänomene oftmals sehr unpopulär, was die Skepsis gegenüber interventionistischer Zurückhaltung und der marktwirtschaftlichen Ordnung als offener Gesellschaftsform nährt.

Linke und rechte Kollektivisten eint, die Gruppe über das Individuum zu stellen. Die Führungsrolle der gesellschaftlichen Entwicklung weisen sie dem Staat zu, nicht den sich auf dezentraler Ebene vollziehenden evolutionären Entdeckungsprozessen. Lediglich im Klassenbegriff unterscheiden sie sich zuweilen. Im Ergebnis führt dies immer wieder zu Parallelen im politischen Handeln. So finden Rechte und Linke in der Globalisierungsskepsis zueinander. Die einen wollen die heimische Wirtschaft vor ausländischem Wettbewerb und einem vermeintlichen Ausverkauf bewahren, die anderen wollen der übrigen Welt ihre Vorstellungen von richtiger Sozialpolitik aufzwingen, um heimische Arbeiter vor ihren Kollegen im Ausland zu schützen. Im Ergebnis läuft beides darauf hinaus, dass der Kern der Globalisierung – die Möglichkeit, den Tauschpartner weltweit frei wählen zu können – auf der Strecke bleibt. Kollektivismus bedeutet eben immer auch Abschottung an den Grenzen des Kollektivs. Von echter kosmopolitischer Moral ist links wie rechts wenig zu spüren.

Auch nationalen und europäischen Champions bieten linke wie rechte Protektionisten gerne staatlichen Flankenschutz. Zugleich stoßen weltweit tätige multinationale Unternehmen beiderseits auf Ablehnung. Für die einen höhlen sie den Gestaltungsanspruch des Staates aus, für die anderen sind sie Ausdruck eines heimatlosen Internationalismus und gelten daher als unzuverlässige Kantonisten. Der Gedanke, dass in den „Multis“ Menschen aus aller Herren Länder miteinander kooperieren (als produktive Variante von „Proletarier aller Länder, vereinigt Euch!“) sind bislang wenige gekommen.

Selbst in Fragen der Zuwanderung sitzen linke und rechte Kollektivisten nicht selten in einem Boot. So schlägt sich der rot-rot-grüne Berliner Senat in der Wohnungspolitik ganz auf die Seite der Gebietsansässigen, denen er mit Mietpreisstopps und Wohnraumverstaatlichung ihre Besitzstände erhalten will. Die Mieten in Ballungsräumen steigen nicht, weil böse Vermieter plötzlich ihre Gier nicht mehr zäumen können, sondern weil der Zuzug die Nachfrage anschwellen lässt. Zusammenrücken und Neubau wäre jetzt das Gebot der Stunde, und steigende Marktpreise würden beides anreizen. Mieten einzufrieren ist hingegen ökonomisch nichts anderes als primitive Fremdenfeindlichkeit. Die Einheimischen genießen ihre Privilegien, Neubürger müssen draußen bleiben.

Im kollektivistischen Denken verödet das Individuum zum bloßen Träger seiner Gruppenmerkmale. Die Persönlichkeit muss dahinter zurücktreten. Darin liegt eine weithin unterschätzte Gefahr, umso mehr, als sich ihre Urheber hehre Motive zugutehalten. Der Marsch in die durchquotierte Gesellschaft lässt Schlimmes befürchten. Je weniger die Person als Person zählt, desto unfreier wird die Gesellschaft. Und mit jeder neuen Quote verliert der einzelne Mensch ein Stück seiner Würde. Die liegt nicht in seinem Geschlecht, seiner Herkunft oder Religion, sondern nur in seiner Individualität.

Hayek hat immer wieder vor den Gefahren des Kollektivismus gewarnt. Im „Weg zur Knechtschaft“ (1944) ebenso wie in „Die verhängnisvolle Anmaßung“ (1988). Heute würde er wohl wieder zur Feder greifen.

Erweiterte Fassung eines Beitrags, der am 14. Juni 2019 in der Wirtschaftswoche unter dem Titel „Das Problem der Marktwirtschaft ist ihr Erfolg“ erschienen ist (Rubrik „Denkfabrik“, S. 43).

Photo: Jay Ruzesky from Unsplash (CC 0)

Von Dr. Alexander Fink, Universität Leipzig, Senior Fellow des IREF – Institute for Research in Economic and Fiscal Issues und Fabian Kurz, Doktorand der Volkswirtschaftslehre.

Berlin ist sexy – keine Frage. Die Vorzüge Berlins lockten von 2011 bis 2017 jährlich etwa 40.000 neue Einwohner an. Neuankömmlinge können sich sogleich auf ein Erlebnis der besonderen Art freuen: die Berliner Verwaltung. Ob Wohnsitz oder Auto anmelden, Heirat oder neuer Personalausweis – Berliner müssen warten, oft mehrere Wochen, bis sie einen Termin bei der zuständigen Stelle bekommen. Zur Verwaltung Berlins titelt der Tagesspiegel: „Jeden Tag eine neue Katastrophe“. Der umtriebige Tübinger Oberbürgermeister Boris Palmer spottet gar: „Vorsicht, Sie verlassen den funktionierenden Teil Deutschlands!“

Die Gründe für das Berliner Verwaltungsdesaster werden häufig in der zu dünnen Personaldecke der Verwaltung gesehen und zur Lösung des Schlamassels eine Aufstockung des Personals gefordert. Doch Berlin setzt seit Jahren mit deutlichem Abstand mehr Personal in der Verwaltung ein als jedes andere Bundesland, die anderen beiden Stadtstaaten eingeschlossen. Nicht Personalnot, sondern eine schlechte Organisation scheint das Problem zu sein.

Mehr Personal nicht unbedingt schlecht

Ein relativ hoher Personaleinsatz ist nicht unbedingt schlecht. Wie Unternehmen müssen auch staatliche Organisationen abwägen, wie viel Personal sie einsetzen, um Leistungen zu erbringen. Führt ein hoher Einsatz von Personal etwa zu schnelleren Verwaltungsverfahren, profitieren die Bürger unmittelbar davon und ein hoher Personaleinsatz kann gerechtfertigt sein.

Niemand setzt mehr Personal als Berlin ein

Stadtstaaten wie Berlin nehmen auch Aufgaben wahr, die in anderen Bundesländern von kommunalen Verwaltungen übernommen werden. Für einen sinnvollen Vergleich aller Bundesländer müssen daher bei Flächenstaaten auch die Stellen der kommunalen Gebietskörperschaften berücksichtigt werden. Ein Blick auf diese aggregierte Beschäftigungsstatistik des öffentlichen Dienstes offenbart, dass Berlin im Vergleich der Bundesländer relativ zur Einwohnerzahl am meisten Personal einsetzt.

Im Jahr 2017 beschäftigten das Land Berlin und die 12 Berliner Bezirke pro 1.000 Einwohner das Äquivalent von gut 50 Vollzeitmitarbeitern, während das Land Schleswig-Holstein und seine Kommunen mit gut 37 Vollzeitmitarbeitern auskamen.

Zwar ging der Personaleinsatz bis zum Jahr 2008 zurück. Trotzdem wurden auch bei diesem Tiefstand in Berlin 5 Vollzeitstellen pro 1.000 Einwohner mehr eingesetzt als im zweit personalintensivsten Bundesland, nämlich Sachsen-Anhalt. Seit 2008 wurden in Berlin umgerechnet gut 20.000 zusätzliche Vollzeitmitarbeiter im öffentlichen Dienst eingestellt. Das Berliner Bevölkerungswachstum der letzten Jahre hat deshalb nicht dazu geführt, dass dort heute weniger Angestellte im öffentlichen Dienst pro 1.000 Einwohner eingesetzt werden. Vielmehr ist der Personaleinsatz gestiegen und hat sich auf einem hohen Niveau stabilisiert. Ein „Kaputtsparen am Personal“ lässt sich aus diesen Daten nicht ableiten.

Sonderrolle Stadtstaat?

Gewiss ist Berlin als Stadtstaat in einer Sonderrolle. So kann eingewendet werden, dass Berlin das Nachbarland Brandenburg teilweise mit Verwaltungsaufgaben mitversorgt. Doch dies gilt ebenso für Hamburg und Bremen. Der Stadtstaat Bremen kommt mit deutlich weniger Personal aus als Berlin und liegt im Mittelfeld aller Bundesländer.

Auch der Abstand Berlins zum zweitplatzierten Bundesland, Hamburg, ist beachtlich. Berlin setzt pro 1.000 Einwohner knapp 6 Vollzeitmitarbeiter beziehungsweise 13 Prozent mehr Personal ein als Hamburg.

Vergleich mit Hamburg: Mehr Personal, mehr Leistung?

Für die Verwaltung der Verkehrs- und Nachrichteninfrastruktur werden mehr als doppelt so viele Beschäftigte pro 1.000 Einwohner eingesetzt als in Hamburg. Es könnte sein, dass Berlin seinen Bürgern eine bessere und umfangreichere Infrastruktur zu Verfügung stellt als Hamburg. Dann wäre ein höherer Personaleinsatz durchaus gerechtfertigt. Es ist schwierig den Umfang und die Qualität beider Stadtstaaten im Bereich Verkehr anhand eines Indikators zu vergleichen. Doch es gibt Indizien, dass die zusätzlichen Beschäftigten in Berlin im Bereich Verkehr nicht mehr Dienstleistungen bereitstellen, als ihre Kollegen in der Hansestadt.

So muss Hamburg 2.485 Brücken instand halten, das sind 1,4 Brücken pro 1.000 Einwohner, während in Berlin 916 Brücken, also 0,3 Brücken pro 1.000 Einwohner unterhalten werden müssen. Die Berliner Verkehrsgesellschaft beförderte im Jahr 2017 pro Einwohner Berlins 294 Fahrgäste. Der Hamburger Verkehrsverbund beförderte pro Einwohner Hamburgs 426 Fahrgäste im Jahr 2017. Berlin betreibt allerdings mehr Flughäfen. Hamburg hat nur einen funktionierenden Flughafen, Berlin zwei und den BER.

Im Bereich Soziales setzt Berlin 1,7 Vollzeitmitarbeiter pro 1.000 Einwohner mehr ein als Hamburg. Dies ist zunächst nicht verwunderlich, da die Berliner im Vergleich zu den Hamburgern weniger wohlhabend sind und die Arbeitslosenquote höher ist. Während die Arbeitslosenquote in Berlin um 28 Prozent höher ist als in Hamburg, wird in Berlin 83 Prozent mehr Personal im Bereich Soziales eingesetzt. Auch wenn als Indikator für den Umfang der im Bereich Soziales erbrachten Leistungen die Hartz-4-Quote Berlins, die gut 50 Prozent über dem Niveau von Hamburg liegt, herangezogen wird, setzt Berlin für Soziales überproportional mehr Personal ein als Hamburg.

Doppelzuständigkeit und Schwächen in der internen Verwaltung

Berlin setzt in vielen Bereichen mehr Personal ein als Hamburg, ohne seinen Bürgern erkennbar bessere Dienstleistungen bereit zu stellen – zahlreiche Beispiele sprechen für das Gegenteil. Berliner Verwaltungsangestellte sind wohl kaum weniger begabt oder fleißig als ihre Kollegen in Hamburg, München oder Mainz. Naheliegender ist es, dass ihre Produktivität durch eine mangelhafte Organisation ausgebremst wird.

Eine mangelhafte Organisation offenbart sich beispielsweise in Doppelzuständigkeiten. Für den Bereich Verkehr sind in Berlin teilweise sowohl Polizei als auch das Ordnungsamt zuständig. Auch die Zuständigkeiten zwischen Senat und Bezirksverwaltungen sind in Berlin nicht optimal verteilt. So dauert die Einrichtung eines Zebrastreifens drei Jahre und bedarf 18 Verfahrensschritten, weil Prüfvorgänge sich doppeln und zwischen den verschiedenen Verwaltungsebenen abgestimmt werden müssen.

Im Vergleich zu Hamburg setzt Berlin im Bereich innere Verwaltung gut 3 Vollzeitstellen weniger ein. Die innere Verwaltung übernimmt Aufgaben und stellt Ressourcen bereit, die für die Funktion der Verwaltung essentiell sind. Sie ist unter anderem für Personalfragen, Haushalts- und Rechnungswesen, Controlling, Beschaffung und Kosten-Nutzen-Analysen verantwortlich. Vielleicht sollte Berlin an genau dieser kritischen Stelle der inneren Organisation mehr und anderswo weniger Personal einsetzen.

Dass es auch in Berlin besser geht, zeigt das Land übrigens auf der Einnahmenseite. In der Finanzverwaltung setzt Berlin pro 1.000 Einwohner fast eine halbe Vollzeitstelle weniger ein als Hamburg, dennoch können sich die Berliner über eine relativ schnelle Bearbeitung freuen. Nur das Saarland bearbeitet Steuererklärungen schneller als die Berliner Verwaltung. Wo ein Wille ist, scheint auch in Berlin ein Weg zu sein.

Verwaltung: Berlin kann es auch!

Die gute Nachricht: Der Stadtstaat Hamburg zeigt, dass es möglich ist, unter ähnlichen Bedingungen wie in Berlin mit weniger Personal staatliche Dienstleitungen tendenziell höherer Qualität bereitzustellen.

Der Ruf nach (noch) mehr Personal für die Berliner Verwaltung ist politisch nachzuvollziehen, aber nicht zielführend. Nicht die Ausstattung mit Personal, sondern die Organisation des Arbeitseinsatzes der Mitarbeiter scheint das Problem zu sein. Berlin sollte sich zum Ziel nehmen, von den Vorteilen des deutschen Föderalismus zu profitieren, indem die Stadt von anderen Bundesländern lernt, wie Verwaltungsverfahren besser organisiert werden können.

Erstmals erschienen bei IREF