Photo: Junge Tüftler from Flickr (CC BY-SA 2.0)

Von Dr. Alexander Fink, Universität Leipzig, Senior Fellow des IREF – Institute for Research in Economic and Fiscal Issues, und Kevin Spur, Student der Ökonomie an der Freien Universität Berlin.

Erst jüngst äußerte Bundeskanzlerin Merkel Zweifel, ob Deutschland und Europa die Voraussetzungen haben, technologisch weltweit mitzuspielen. Auch andere sehen mit Sorge in die technische Zukunft Deutschlands. Immer wieder wird als Grund für Pessimismus der Fachkräftemangel genannt. Der Ruf nach mehr MINT-Studierenden – also Studierenden in Mathematik, Ingenieurswissenschaften, Naturwissenschaften und Technik – resultiert aus dem identifizierten Mangel. Allerdings ist seit der Jahrtausendwende der Anteil an MINT-Studierenden in Deutschland deutlich gestiegen und im internationalen Vergleich schließen hierzulande relativ viele Studierende mit einem Abschluss in MINT-Fächern ab. Das stimmt optimistisch, denn MINT-Absolventen profitieren nicht nur selbst von ihren Fähigkeiten, sondern verursachen laut Befunden der wissenschaftlichen Literatur besonders ausgeprägte positive externe Effekte.

MINT für mehr Produktivität und Innovation

Arbeiten in einer Region viele Ingenieure, Informatiker oder Naturwissenschaftler, steigt die Innovationskraft und auch andere Arbeitskräfte in der Region profitieren z. B. in Form höherer Löhne, wie Forschungsergebnisse für die USA zeigen. John V. Winters hat den externen Effekt von MINT-Absolventen auf die Löhne in der gleichen Metropolregion untersucht. MINT-Absolventen haben im Vergleich zu Absolventen von Fächern außerhalb der MINT einen signifikant höheren positiven Effekt auf die Löhne anderer Arbeiter. Giovanni Peri kommt mit Ko-Autoren in einem Papier von 2015 zu einem ähnlichen Schluss: Eine Erhöhung ausländischer MINT-Arbeitnehmer in einer Region ist mit einem signifikanten Anstieg der Löhne von universitär und nicht-universitär ausgebildeten Einheimischen verbunden. Gemäß der Ergebnisse von Winters in einem Papier von 2015wirkt sich die Zahl an MINT-Absolventen zudem positiv auf die Anzahl der Patente pro Einwohner aus, während Nicht-MINT-Absolventen Regionen und Länder auf diesem Wege nicht positiv beeinflussen.

MINT-Studium: 90er Flop, seit 2000 (wieder) Top

Der Ruf nach mehr MINT-Studierenden in Deutschland ist gerade angesichts der Forschungsergebnisse für die USA nachzuvollziehen. Doch wie ist es in Deutschland um die Beliebtheit der MINT-Fächer aktuell bestellt – im Vergleich zu früher und im Vergleich zu anderen Ländern?

Daten des Statistischen Bundesamtes für den Zeitraum von 1975 bis 2017 liefern Aufschluss über den Anteil an MINT-Studierenden im ersten Fachsemester in Relation zu allen eingeschriebenen Studierende im ersten Fachsemester. 1989 erreichte der Anteil an MINT-Studierenden mit 37,3 % seinen vorläufigen Höhepunkt, bevor es in den 1990er Jahren bis auf 29,6 % bergab ging. Das war 1997.

Spätestens seit der Jahrtausendwende hat sich das Blatt gewendet. Bis zum Wintersemester 2015/16 stieg der Anteil der MINT-Studierenden auf 40,5 % und ist seitdem etwa konstant. Die MINT-Fächer sind wieder die beliebtesten Fächergruppen unter den 878.000 Studienanfängern an den Hochschulen. Während 2017 etwa 322.000 junge Menschen Wirtschafts-, Sozial- oder Rechtswissenschaften studierten, wurden 351.000 Studierende in MINT-Fächern ausgebildet.

Historisch befindet sich die Zahl an Studienanfängern und die der MINT-Erstsemester auf einem Rekordniveau – ein Grund für Optimismus. Aber wie sieht es im internationalen Vergleich aus?

International: Hoher MINT-Anteil

Die OECD hält Daten zum Anteil von STEM-Universitätsabsolventen ihrer Mitgliedsländer bereit. STEM steht für Science, Technology, Engineering und Mathematics – das englische Äquivalent zu MINT. Deutschland steht hier an der Spitze.

Während im jüngsten verfügbaren Jahr 2016 in Deutschland 36 % aller Hochschulabsolventen aus den MINT-Fächern kamen, waren es in Frankreich knapp 26 %. Großbritannien wies einen MINT-Absolventenanteil von 26 % auf und lag damit immer noch über dem OECD-Durchschnitt von 24 %. In den USA schlossen lediglich 18 % der Absolventen ihre Ausbildung in einem MINT-Fach ab. Auch im internationalen Vergleich ist es um die deutsche MINT-Quote bei Studierenden gut bestellt.

Tertiärer Abschluss: Anteil der Bevölkerung gering

Der hohe MINT-Anteil unter den Studierenden in Deutschland wird allerdings von einem vergleichsweise niedrigen Bevölkerungsanteil mit tertiärer Ausbildung begleitet. So hatten in der Gruppe der 25- bis 34-Jährigen 2017 gemäß Daten der OECD 31,3 % einen Abschluss an einer Universität, Fachhochschule oder Berufsakademie gemacht. Der OECD-Durchschnitt lag deutlich höher, nämlich bei 44,5 %. Unter Deutschlands Studierenden sind also relativ viele MINT-Studierende bei insgesamt niedrigen Studierendenzahlen. Der Nachteil der niedrigen Studierendenquote wiegt jedoch angesichts der in der DACH-Region üblichen Möglichkeit zur berufsbegleitenden Ausbildung außerhalb der Hochschullandschaft weniger schwer, als es auf den ersten Blick erscheinen mag. Tätigkeiten, die in anderen Ländern eine Hochschulausbildung voraussetzen, werden in der DACH-Region relativ häufig von Personen mit Berufsausbildung ausgeübt.

Das deutsche duale Ausbildungssystem hat sich dabei als erfolgreich erwiesen, junge Menschen in der Schule und am Arbeitsplatz mit Fähigkeiten auszustatten, die es ihnen erlauben, am Arbeitsmarkt zu reüssieren – ohne zu studieren. Man darf optimistisch sein, dass gerade die direkte Einbindung in den Arbeitsmarkt dazu beiträgt, dass die duale Ausbildung auch in einer durch schnelleren technologischen Wandel geprägten Welt relevante Fähigkeiten vermittelt und ein Erfolgsmodell bleiben wird.

Land der Ingenieure: Grund für Optimismus

Der Ruf Deutschlands als das „Land der Ingenieure“ ist angesichts des derzeitigen MINT-Rekordstandes bei den Studienfächern auch heute nicht ganz unverdient. Und gerade die Entwicklung der letzten Jahre gibt Anlass für Optimismus. Daraus folgt nicht, dass eine Akademisierung einiger ausgewählter heutiger Ausbildungsberufe und eine stärkere Präsenz deutscher Forschungseinrichtungen in der Weltspitze nicht wünschenswert wären. Aber der Befund lässt auch nicht den Schluss zu, in Deutschland werde an den Hochschulen nicht der für die technologischen Herausforderungen der Zukunft notwendige Humankapitalstock aufgebaut.

Erstmals erschienen bei IREF

Photo: Pineapple Supply Co from Unsplash (CC 0)

Was bleibt von Mario Draghis Amtszeit als EZB-Präsident? Nichts Gutes. Er wird in die Geschichte des Euro eingehen als derjenige, der Lirafizierung der Eurozone Vorschub geleistet hat. Und dann droht irgendwann, was schon Wladimir Iljitsch Lenin wusste: „wer die bürgerliche Gesellschaft zerstören will, muss ihr Geldwesen verwüsten.“

Ist der Euro der neue Gold-Standard? Das behauptet zumindest der spanische Ökonom Jesús Huerta de Soto, der 2013 die Hayek-Medaille der deutschen Hayek-Gesellschaft erhalten hat. Die Währung der EU sei so eine Art Gold-Standard für die ehemaligen Weichwährungsländer in Europa. Huerta de Soto ist offenbar nicht nur ein einflussreicher Vertreter der Österreichischen Schule der Nationalökonomie, sondern auch ein Anhänger des Euro. Sein Argument: die Südländer der Eurozone könnten nicht mehr ihre eigene Währung abwerten, um im Außenhandel preislich wettbewerbsfähig zu werden, sondern müssten nun durch Anpassungen im eigenen Land ihre Wettbewerbsfähigkeit wieder herstellen. Diese Argumentation ist zumindest in Deutschland ungewöhnlich zu hören. Glaubt man hierzulande doch, dass der Euro eher das Gegenteil bewirkt habe.

Doch ganz abwegig ist Huerta de Sotos Argumentation erstmal nicht. Denn in einem festen Wechselkurssystem, und dieses ist der Euro-Raum seit 1999, kann nur durch eine Verbesserung der Standortbedingungen im eigenen Land die relative Produktivität einer Volkswirtschaft gegenüber anderen Wirtschaftsräumen innerhalb des Währungsraumes und auch außerhalb erreicht werden. Der Spanier argumentiert mit der Entwicklung seines eigenen Landes. Ohne die disziplinierende Wirkung des Euro wäre Spanien nicht so wettbewerbsfähig und die Interventionen des Staates weitaus größer. Die Zahlen Spaniens belegen das auf den ersten Blick. In den zurückliegenden vier Jahren wuchs die spanische Volkswirtschaft zwischen 3,6 Prozent und zuletzt 2,5 Prozent. Das Pro Kopf-Einkommen stieg in dieser Zeit um 18 Prozent und liegt wahrscheinlich in diesem Jahr erstmalig wieder auf dem Niveau des Jahres 2009. Das können nicht alle Länder in Europa vorweisen.

Dennoch ist der Vergleich mit dem Goldstandard irreführend. Aus mehreren Gründen. Der wichtigste vorneweg: Gold ist nicht manipulierbar. Die Goldmenge wächst jährlich um rund zwei Prozent. Daran ändert sich seit Jahrzehnten nicht viel. Dagegen wird die Geldproduktion im Euroraum von der Politik der EZB gesteuert. Sie ist äußert volatil. Zwar hat die EZB als vorrangiges Ziel, die „Preisstabilität zu gewährleisten“, doch dieses Ziel schafft sie nur auf den ersten Blick. Wer beispielsweise die Entwicklung der Vermögensgüterpreise in Deutschland anschaut, sieht sehr schnell, dass sowohl Aktien als auch Immobilienwerte in den letzten Jahren deutlich stärker gestiegen sind als die offizielle Zielmarke der Inflation von nahe 2 Prozent. Die EZB misst bei ihrem Inflationsziel lediglich die Entwicklung der Konsumgüterpreise anhand eines ausgesuchten Warenkorbs.

Besser ist dagegen, die Basis für Inflation zu betrachten, und diese liegt im Geldmengenwachstum. Denn dieses sagt etwas darüber aus, wieviel Geld insgesamt im Umlauf ist und so die Basis für künftige Preisanstiege von Konsum- und Vermögensgüter liefert. In den letzten 10 Jahren stieg die Geldmenge (M3) um 34 Prozent, die 10 Jahre davor um über 100 Prozent. Die Basis für die nächste Geldinflation hat die EZB durch die Schaffung von Zentralbankgeld, die zu einer Aufblähung der EZB-Bilanz geführt hat, bereits gelegt. Die EZB-Bilanzsumme stieg in den vergangenen 10 Jahren um rund 135 Prozent.

Die EZB betont in diesem Zusammenhang, dass dies alles notwendig sei. Würde die ausgewiesene Inflation deutlich über 2 Prozent steigen, dann könnte sie durch geldpolitische Maßnahmen nicht nur das Geldmengenwachstum drosseln, sondern auch wieder ihre Bilanz verkürzen.

Und hier kommen wir zu einem weiteren Grund, wieso der Euro kein Gold-Standard ist. Die EZB ist wahrscheinlich nicht mehr in der Lage, ihren geldpolitischen Kurs zu verlassen. Das zeigt auch die jüngste Ankündigung Mario Draghis. Würde Draghi einen härteren Kurs einschlagen, würde sofort eine Anpassungsrezession eingeleitet. Diese träfe nicht nur Deutschland hart, sondern würde die Staatsfinanzierung in weiten Teilen Südeuropas unmöglich machen und das Bankensystem in eine bedrohliche Lage bringen. Schon jetzt hat Italien mit 2 Billionen Euro die höchsten absoluten Staatsschulden in Europa. Würde das Zinsniveau signifikant steigen, wäre der Staatshaushalt in Rom in einer noch größeren Schieflage. Wahrscheinlich würde die gegenseitige Staaten-Banken-Abhängigkeit bei der Finanzierung noch weiter zunehmen und die Target-Verbindlichkeiten ebenso. Schon jetzt haben Italien (483 Mrd. Euro) und Spanien (400 Mrd. Euro) die höchsten Target-Verbindlichkeiten innerhalb der Eurozone. Letztere Zahl für Spanien zeigt auch, dass der Aufschwung dort fragil ist. Er ist getrieben von der Nullzinspolitik und der unkonventionellen Geldpolitik der EZB. Was bleibt also von Mario Draghis Amtszeit als EZB-Präsident? Nichts Gutes. Er wird in die Geschichte des Euro eingehen als derjenige, der nicht den Gold-Standard durch den Euro gebracht, sondern der Lirafizierung der Eurozone Vorschub geleistet hat. Und dann droht irgendwann, was schon Wladimir Iljitsch Lenin wusste: „wer die bürgerliche Gesellschaft zerstören will, muss ihr Geldwesen verwüsten.“

Erstmals veröffentlicht auf Tichys Einblick.

Photo: Carlos Cram from Unsplash (CC 0)

Was hat die Nullzinspolitik Mario Draghis mit dem geplanten Mietendeckel des rot-rot-grünen Senats in Berlin zu tun? Dort will die Stadtregierung per Gesetz die Höhe der Mieten für fünf Jahre einfrieren. Auf Antrag kann sogar eine Mietminderung durchgesetzt werden, wenn der Mietpreis überhöht ist. Eine allgemeingültige Mietobergrenze, die die Politik in Berlin festsetzt, dient hierbei als Orientierung. Der Mietpreis wird somit vom Senat höchstpersönlich und für alle verbindlich festgesetzt. Dies soll auch für Neuvermietungen und rückwirkend zum 18.6.2019 gelten. Bislang geht in der Diskussion unter, dass der Mietendeckel in Deutschland von den Nazis ein- und von den Kommunisten fortgeführt worden ist. Im November 1936 verhängten die Nationalsozialisten den vollständigen Mietpreisstopp in Deutschland. Mit wenigen Änderungen galten diese gesetzlichen Regelungen bis 1990 in der DDR. Der Zustand der DDR-Wohnungen war 1990 entsprechend desaströs. Linke und Rechte sind sich im staatlichen Interventionismus und in der Enteignung von Eigentum schon immer sehr nahe gewesen.

Doch eigentlich ist die Entwicklung der Mietpreise auch eine Folge der Politik von Mario Draghi. Das mag auf den ersten Blick nicht klar sein. Kann man denn die EZB auch dafür verantwortlich machen? Ja, die Entwicklung der Mieten in den Ballungszentren ist ein Kollateralschaden der Nullzinspolitik der EZB. Die Mieten haben sich in den letzten 15 Jahren in Berlin fast verdoppelt. Lagen sie im Durchschnitt 2004 noch bei 5,14 Euro pro Quadratmeter, so liegen sie aktuell bei 9,50 Euro. In Hamburg (von 7 auf 10,50 Euro) und in München (von 9,67 auf 16,42 Euro) sieht es nicht viel besser aus.

Kapital sucht Anlagemöglichkeiten. Große Kapitalsammelstellen wie Versicherungen, Pensionskassen und Fonds, die Milliardenbeträge ihrer vielen tausend Kleinanleger verwalten, werden in den Wohnungsmarkt gedrängt, weil alternative Anlageformen an Attraktivität verloren haben. Insbesondere die Anleihemärkte sind für diese Kapitalsammelstellen keine Renditebringer mehr. Wenn die 10-jährige Bundesanleihe mit einer Negativrendite glänzt, können Langfristanleger für ihre Pensionäre und Rentner daher keine Rendite erwirtschaften, die auskömmlich ist. Sie müssen Renten kürzen und/oder sich zwangsläufig umorientieren. Hier sind Immobilieninvestitionen attraktiv, da sie regelmäßige Einnahmen generieren und die erhöhte Nachfrage in den Ballungszentren auch noch die Anlagewerte steigen lassen.

Doch ist nicht nur die Umorientierung der Kapitalsammelstellen ein Grund für die wachsenden Mietpreise. Auch die erhöhte Liquidität, die von der EZB den Banken kostenlos zur Verfügung gestellt wird, trägt dazu bei. Dies kann an der Entwicklung der Notenbankbilanz veranschaulicht werden. In den letzten 10 Jahren stieg die Bilanzsumme der EZB um 135 Prozent von 2.000 Milliarden auf 4.700 Milliarden Euro. Dieses frische Geld aus dem Nichts diente in erster Linie dazu, Banken Liquidität zur Verfügung zu stellen, damit diese die Kreditvergabe für die Realwirtschaft stimulieren. Das ist in den vergangen 10 Jahren ganz gut gelungen. In den vergangen 10 Jahren ist die breite Geldmenge (M3) um 34 Prozent gestiegen. Doch die Nervosität der EZB und ihre Ankündigung weiterer geldpolitischen Stimulanzien macht deutlich, dass hier noch nicht das Ende der Fahnenstange erreicht ist. Es geht auch mehr! Hier muss man gar nicht so lange zurückschauen. In den 10 Jahre bis zum Platzen der Bankenblase 2008/2009, stieg die Geldmenge um über 100 Prozent. Das Platzen der dadurch entstandenen Spekulationsblasen in Spanien, Irland und anderswo hat ein Erdbeben ausgelöst, das bis heute noch nicht bewältigt ist.

Die Entwicklung des Wohnungsmarktes hat zuerst mit der Nullzinspolitik der EZB zu tun. Sie lenkt Kapital von nicht mehr rentierlichen Anlageformen in den Wohnungsmarkt und erhöht die Nachfrage bei relativ gleichem Angebot. Gleichzeitig führt die erhöhte Liquiditätsbereitstellung der EZB dazu, dass die Zinsen niedrig bleiben und vermehrt in Bestandsimmobilien investiert wird. Beides führt zu steigenden Preisen, die mittelbar die Mieten erhöhen. Dass trotz hoher Nachfrage der Wohnungsbau nicht in die Gänge kommt, hat mit dem komplizierten Planungsrecht und bürokratischen Bauvorschriften in Deutschland zu tun.

All das was wir derzeit erleben, hat nichts mit den Untiefen des Kapitalismus zu tun, sondern ist planwirtschaftliche Staatswirtschaft. Das Geld, seine Menge, sein Preis und seine Verteilung wird staatlicherseits über die Zentralbank geplant und gelenkt. Der Staat und die Banken profitieren auf den ersten Blick. Der Staat muss nicht sparen und kann den Wohlfahrtsstaat weiter ausbauen. Die Banken müssen faule Kredite nicht wertberichtigen und können notwendige Anpassungen aussitzen. Dennoch gibt es zwangsläufig Nachteile. Die Mieten steigen und die Arbeitnehmereinkommen halten nicht schritt. Linke sammeln nun Unterschriften gegen den „Mietenwahnsinn“ und meinen es sei der Kapitalismus, der sie arm macht. Doch tatsächlich ist es die Zinspolitik der EZB, die nicht nur die Grundlage für die Enteignung der Wohnungseigentümer bereitet, sondern auch die Arbeitnehmer enteignet, die in den Wohnungen zur Miete wohnen, aber diese nicht mehr bezahlen können.

Jetzt sagt der Berliner Senat, die Regelung werde nur für fünf Jahre gelten. Das klingt so verantwortungsbewusst, weil es ein überschaubarer Zeitraum ist. Der Mietendeckel soll die Freiheit des Eigentums jetzt einschränken, damit künftige Generationen sie wieder haben können. Mit Ralf Dahrendorf muss man diesen Freiheitsfeinden entgegnen: „Wer die Freiheit einzuschränken beginnt, hat sie aufgegeben und verloren.“

Photo: Torsten Maue from Flickr (CC BY 2.0)

Von Kalle Kappner, Promotionsstudent an der Humboldt-Universität zu Berlin, Research Fellow bei IREF, Fackelträger von Prometheus.

Deutschland ist bekannt für notorisch langsame und unzuverlässige Internetverbindungen, insbesondere in ländlichen Gegenden. Langsames Internet ist nicht nur ein Problem für Netflix-Kunden und Online-Zocker, sondern stellt zunehmend einen spürbaren Standortnachteil dar. Zwar stellt die Bundesregierung Jahr für Jahr hohe Summen für den Netzausbau zur Verfügung, doch spielte die in vergleichbaren Ländern priorisierte Glasfasernetztechnologie dabei bisher nur eine untergeordnete Rolle. Stattdessen flossen in den vergangenen Jahren Milliarden in den Ausbau bequemer, aber mittelfristig obsoleter Übergangslösungen wie der Aufwertung jahrzehntealter Kupferleitungen mittels „Vectoring“.

Eine zentrale Ursache der Breitbandmisere ist die innovationshemmende Interessenverquickung zwischen der privatwirtschaftlich organisierten Deutsche Telekom AG und dem mit rund einem Drittel an ihr beteiligten deutschen Staat. Kunden und Wettbewerber leiden unter einem Arrangement, das der Telekom regulatorische Vorteile verschafft und Subventionen in fragwürdige Technologien kanalisiert. Dem Status Quo wäre vorzuziehen, den Unterhalt und Ausbau der noch im Besitz der Telekom verbliebenen Leitungen in ein lediglich diesen Zielen verpflichtetes und zu diesem Zweck reguliertes Unternehmen zu überführen und jegliche Staatsanteile an der Telekom zu veräußern. So könnten die bereitgestellten Mittel in den Netzausbau fließen, ohne dass die Politik versucht ist, dabei die Gewinninteressen eines privilegierten Marktteilnehmers zu befriedigen.

Netzwüste Deutschland

Deutschland wird in internationalen Rankings ein relativ langsames, regional in der Verfügbarkeit schwankendes und auf veralteten Technologien basierendes Internet attestiert. Deutlich wird der Rückstand Deutschlands etwa beim Verbreitungsgrad von Hochgeschwindigkeits-Glasfaserkabelanschlüssen, der als Anteil an allen Breitbandverbindungen nur 2% beträgt (OECD: 25%).

Pflichtschuldig kündigt die Regierung Jahr für Jahr an, bald Abhilfe zu schaffen. So wurde 2015 ein weiteres, milliardenschweres Förderprogramm für den Breitbandausbau aufgelegt. Auch die erwarteten Erlöse von bis zu 5 Milliarden Euro aus der aktuell laufenden Versteigerung von 5G-Mobilfunkfrequenzen sollen in das diffuse Konsensprojekt „Digitalisierung“ fließen. Der Europäische Rechnungshof hält es indes schon jetzt für absehbar, dass das selbstgesteckte Ziel der Bundesregierung, bis 2025 alle Haushalte mit Breitband-Internet zu versorgen, nicht erreicht wird.

Weshalb gelang es Politik und Netzunternehmen trotz großzügiger Förderung bisher nicht, Deutschland in einen modernen High-Speed-Internet-Standort zu verwandeln? Neben Kapazitätsengpässen im Bausektor und bürokratischen Hürden liegt der wichtigste Grund darin, dass die Investitionsmittel trotz geeigneter Alternativen zu bedeutenden Teilen in Technologien fließen, die auf absehbare Zeit veraltet sein werden. Die niedrige Glasfasernutzungsquote drückt nicht nur Verfügbarkeitsengpässe aus – technisch wären derzeit immerhin rund 9 % der Haushalte versorgbar – sondern auch den subventionierten Ausbau alternativer Technologien, die kurzfristig die Geschwindigkeitswünsche der Endkunden befriedigen.

Während im Rest der Welt Glasfaserleitungen zum Standard werden, förderte der deutsche Staat in den letzten Jahren unter Inkaufnahme ineffizienter Doppelstrukturensogenannte „Vectoring”-Technologien, die in den alten Kupferleitung ein letztes Geschwindigkeitsfeuerwerk herbeizaubern und ihren Austausch so kurzfristig weniger attraktiv machen. Mittelfristig werden diese Technologien den wachsenden Geschwindigkeitsanforderungen allerdings technisch nicht genügen, wie die rasant wachsende Nachfrage nach Glasfaseranschlüssen unter Neukunden erkennen lässt. Eine aktuelle Studie des Fraunhofer-Instituts empfiehlt entsprechend einen deutlichen Ausbau des Glasfasernetzes.

Bundesregierung fördert Telekom-Monopol

„Vectoring“ erlaubt höhere Geschwindigkeiten durch die Reduzierung von Übertragungsverlusten, die aus dem Übersprechen verschiedener Leitungen in einem Kupferkabelstrang resultieren. Für die Telekom ist das „Vectoring” aus drei Gründen ein lukratives Geschäft. Erstens konnte sie in den vergangenen Jahren so auf den kostspieligen Austausch der sich meist in ihrem Besitz befindlichen Kupferadern in den Teilnehmeranschlussleitungen (TAL) zwischen Hauptverteiler und Wohnhaus verzichten.

Zweitens sinkt aufgrund des Angebots der Telekom für Mitbewerber der Anreiz zur Verlegung eigener TAL, da das „Vectoring“-DSL der Telekom die Geschwindigkeitswünsche der Kunden kurzfristig größtenteils befriedigt. Entsprechend stiegen die ”Vectoring”-bezogenen Investitionen der Telekom in die Festnetzinternetinfrastruktur seit einigen Jahren relativ zu den Investitionen der Wettbewerber, etwa Vodafone.

Drittens verschafft das “Vectoring” der Telekom Kontrolle über die Produktgestaltung ihrer Wettbewerber. Der störungsfreie Einsatz der Technologie hängt davon ab, dass der Eigentümer des betroffenen Strangs alle TAL kontrolliert, also sämtliche Endkundenanschlüsse “auf der letzten Meile” betreibt. Im Gegenzug zur Verpflichtung zu zügigen Investitionen konnte sich die Telekom die Hoheit über schätzungsweise 96 % der TAL sichern. Dass das „Vectoring” effektiv eine Monopolstellung der Telekom fördert, fiel nicht nur betroffenen Interessengruppen auf, sondern auch der Monopolkommission und der EU-Kommission. Ein durch die EU-Wettbewerbshüter genehmigter Kompromiss sieht daher vor, dass Telekom-Konkurrenten über ein sogenanntes „virtuell entbündeltes lokales Zugangsprodukt” (VULA) weiterhin Endkunden erreichen können – allerdings ohne die Möglichkeit eigenständiger Produktgestaltung.

Kürzlich wurde der „Pakt“ zwischen der Bundesregierung bzw. Netzagentur und der Telekom höchstrichterlich abgesegnet. Verlegen Telekom-Konkurrenten eigene Glasfaser-Hausleitungen, so kann die Telekom diese bei technischen Konflikten mit ihren Kupferkabeln zur Geschwindigkeitsdrosslung zwingen. Obwohl die Bundesregierung nun von der gezielten Förderung des „Vectoring“ abrückt, ist die Sonderstellung der Telekom im deutschen Netzmarkt damit auf Jahre gesichert.

Interessenverquickung schadet Konsumenten

Weshalb unterstützt die Politik veraltete Technologien und setzt damit nicht nur bedeutende Fördersummen in den Sand, sondern riskiert durch die Einschränkung des Infrastrutkurwettbewerbs mittelfristig sogar den Netzausbau? Die „Vectoring”-Lösung ist kurzfristig bequem. Sie erlaubt es, mittels Upgrades der alten Kupferleitungen das politische Versprechen von flächendeckend mindestens 50 Megabit zügig zu realisieren, ohne in jedem Haus die Verlegung moderner Glasfaseranschlüsse finanzieren und abwarten zu müssen.

Doch die problematische Bevorzugung eines Wettbewerbers entspringt vermutlich kaum reiner Bequemlichkeit. Einen Hinweis liefert ein Blick auf die Eigentümerstruktur der Telekom: fast ein Drittel der Anteile liegt in der Hand des Bundes (einschließlich KfW), der damit Regulierer, Eigentümer und Auftraggeber der Telekom zugleich ist.

Dass die Telekom als privatwirtschaftlich organisiertes Unternehmen Möglichkeiten nutzt, sich Wettbewerbsvorteile zu sichern und Investitionsrisiken des Infrastrukturausbaus politisch abzufedern, ist nicht wünschenswert, aber auch nicht verwunderlich. Problematisch ist, dass die Bundesregierung sich darauf einlässt und offenbar ein besonderes Feingefühl für die Belange des Unternehmens und dessen Monopolstreben entwickelt hat. Der ehemalige Bundesinnenminister Thomas de Maizière illustriert diese ganz besondere Beziehung, indem er seinen Wechsel auf den Vorsitz der Deutschen Telekom Stiftung damit begründet, dass „nationale Interessen” bewahrt würden und ergänzt, dass eine derartige Rolle für ihn bei jedem Telekom-Konkurrenten undenkbar sei.

Staat und Telekom entflechten

Zwar deutete die Politik an, künftig ein stärkeres Gewicht auf die Glasfaserkabel-Förderung zu legen und auch die Telekom setzt vermehrt auf „echte“, d.h. bis in die Wohnung verlegte Glasfasernetze. Doch kurzfristig führt kein Weg aus der politisch organisierten Breitbandmisere. Der „Vectoring-Pakt“ ist rechtlich wasserdicht und wird die vielschichtige Interessenverquickung zwischen Regierung und Telekom stärken. Die in den 90ern erfolgten umfangreichen Bemühungen zur Entflechtung von Netzinfrastruktur und Endkundengeschäft werden damit teilweise aufgehoben.

Wenn vergangene Entscheidungen auch nicht rückgängig gemacht werden können, so lassen sich doch Lehren aus ihnen ziehen. Staatsbeteiligungen können auch in Form vermeintlich unerheblicher Minderheitenbeteiligungen zu unerwünschten Anreizproblemen führen. Eine Veräußerung der verbliebenen Telekom-Anteile des Staates könnte daher kurzfristig zumindest eine Minderung des Interessenkonflikts herbeiführen und einseitige Entscheidungen zugunsten des Unternehmens einschränken. Obwohl eine entsprechende Initiative 2016 scheiterte, empfiehlt sich langfristig die Entflechtung von Netzbetrieb und Endkundengeschäft.

Erstmals erschienen bei IREF

Photo: Jay Ruzesky from Unsplash (CC 0)

Von Dr. Alexander Fink, Universität Leipzig, Senior Fellow des IREF – Institute for Research in Economic and Fiscal Issues und Fabian Kurz, Doktorand der Volkswirtschaftslehre.

Berlin ist sexy – keine Frage. Die Vorzüge Berlins lockten von 2011 bis 2017 jährlich etwa 40.000 neue Einwohner an. Neuankömmlinge können sich sogleich auf ein Erlebnis der besonderen Art freuen: die Berliner Verwaltung. Ob Wohnsitz oder Auto anmelden, Heirat oder neuer Personalausweis – Berliner müssen warten, oft mehrere Wochen, bis sie einen Termin bei der zuständigen Stelle bekommen. Zur Verwaltung Berlins titelt der Tagesspiegel: „Jeden Tag eine neue Katastrophe“. Der umtriebige Tübinger Oberbürgermeister Boris Palmer spottet gar: „Vorsicht, Sie verlassen den funktionierenden Teil Deutschlands!“

Die Gründe für das Berliner Verwaltungsdesaster werden häufig in der zu dünnen Personaldecke der Verwaltung gesehen und zur Lösung des Schlamassels eine Aufstockung des Personals gefordert. Doch Berlin setzt seit Jahren mit deutlichem Abstand mehr Personal in der Verwaltung ein als jedes andere Bundesland, die anderen beiden Stadtstaaten eingeschlossen. Nicht Personalnot, sondern eine schlechte Organisation scheint das Problem zu sein.

Mehr Personal nicht unbedingt schlecht

Ein relativ hoher Personaleinsatz ist nicht unbedingt schlecht. Wie Unternehmen müssen auch staatliche Organisationen abwägen, wie viel Personal sie einsetzen, um Leistungen zu erbringen. Führt ein hoher Einsatz von Personal etwa zu schnelleren Verwaltungsverfahren, profitieren die Bürger unmittelbar davon und ein hoher Personaleinsatz kann gerechtfertigt sein.

Niemand setzt mehr Personal als Berlin ein

Stadtstaaten wie Berlin nehmen auch Aufgaben wahr, die in anderen Bundesländern von kommunalen Verwaltungen übernommen werden. Für einen sinnvollen Vergleich aller Bundesländer müssen daher bei Flächenstaaten auch die Stellen der kommunalen Gebietskörperschaften berücksichtigt werden. Ein Blick auf diese aggregierte Beschäftigungsstatistik des öffentlichen Dienstes offenbart, dass Berlin im Vergleich der Bundesländer relativ zur Einwohnerzahl am meisten Personal einsetzt.

Im Jahr 2017 beschäftigten das Land Berlin und die 12 Berliner Bezirke pro 1.000 Einwohner das Äquivalent von gut 50 Vollzeitmitarbeitern, während das Land Schleswig-Holstein und seine Kommunen mit gut 37 Vollzeitmitarbeitern auskamen.

Zwar ging der Personaleinsatz bis zum Jahr 2008 zurück. Trotzdem wurden auch bei diesem Tiefstand in Berlin 5 Vollzeitstellen pro 1.000 Einwohner mehr eingesetzt als im zweit personalintensivsten Bundesland, nämlich Sachsen-Anhalt. Seit 2008 wurden in Berlin umgerechnet gut 20.000 zusätzliche Vollzeitmitarbeiter im öffentlichen Dienst eingestellt. Das Berliner Bevölkerungswachstum der letzten Jahre hat deshalb nicht dazu geführt, dass dort heute weniger Angestellte im öffentlichen Dienst pro 1.000 Einwohner eingesetzt werden. Vielmehr ist der Personaleinsatz gestiegen und hat sich auf einem hohen Niveau stabilisiert. Ein „Kaputtsparen am Personal“ lässt sich aus diesen Daten nicht ableiten.

Sonderrolle Stadtstaat?

Gewiss ist Berlin als Stadtstaat in einer Sonderrolle. So kann eingewendet werden, dass Berlin das Nachbarland Brandenburg teilweise mit Verwaltungsaufgaben mitversorgt. Doch dies gilt ebenso für Hamburg und Bremen. Der Stadtstaat Bremen kommt mit deutlich weniger Personal aus als Berlin und liegt im Mittelfeld aller Bundesländer.

Auch der Abstand Berlins zum zweitplatzierten Bundesland, Hamburg, ist beachtlich. Berlin setzt pro 1.000 Einwohner knapp 6 Vollzeitmitarbeiter beziehungsweise 13 Prozent mehr Personal ein als Hamburg.

Vergleich mit Hamburg: Mehr Personal, mehr Leistung?

Für die Verwaltung der Verkehrs- und Nachrichteninfrastruktur werden mehr als doppelt so viele Beschäftigte pro 1.000 Einwohner eingesetzt als in Hamburg. Es könnte sein, dass Berlin seinen Bürgern eine bessere und umfangreichere Infrastruktur zu Verfügung stellt als Hamburg. Dann wäre ein höherer Personaleinsatz durchaus gerechtfertigt. Es ist schwierig den Umfang und die Qualität beider Stadtstaaten im Bereich Verkehr anhand eines Indikators zu vergleichen. Doch es gibt Indizien, dass die zusätzlichen Beschäftigten in Berlin im Bereich Verkehr nicht mehr Dienstleistungen bereitstellen, als ihre Kollegen in der Hansestadt.

So muss Hamburg 2.485 Brücken instand halten, das sind 1,4 Brücken pro 1.000 Einwohner, während in Berlin 916 Brücken, also 0,3 Brücken pro 1.000 Einwohner unterhalten werden müssen. Die Berliner Verkehrsgesellschaft beförderte im Jahr 2017 pro Einwohner Berlins 294 Fahrgäste. Der Hamburger Verkehrsverbund beförderte pro Einwohner Hamburgs 426 Fahrgäste im Jahr 2017. Berlin betreibt allerdings mehr Flughäfen. Hamburg hat nur einen funktionierenden Flughafen, Berlin zwei und den BER.

Im Bereich Soziales setzt Berlin 1,7 Vollzeitmitarbeiter pro 1.000 Einwohner mehr ein als Hamburg. Dies ist zunächst nicht verwunderlich, da die Berliner im Vergleich zu den Hamburgern weniger wohlhabend sind und die Arbeitslosenquote höher ist. Während die Arbeitslosenquote in Berlin um 28 Prozent höher ist als in Hamburg, wird in Berlin 83 Prozent mehr Personal im Bereich Soziales eingesetzt. Auch wenn als Indikator für den Umfang der im Bereich Soziales erbrachten Leistungen die Hartz-4-Quote Berlins, die gut 50 Prozent über dem Niveau von Hamburg liegt, herangezogen wird, setzt Berlin für Soziales überproportional mehr Personal ein als Hamburg.

Doppelzuständigkeit und Schwächen in der internen Verwaltung

Berlin setzt in vielen Bereichen mehr Personal ein als Hamburg, ohne seinen Bürgern erkennbar bessere Dienstleistungen bereit zu stellen – zahlreiche Beispiele sprechen für das Gegenteil. Berliner Verwaltungsangestellte sind wohl kaum weniger begabt oder fleißig als ihre Kollegen in Hamburg, München oder Mainz. Naheliegender ist es, dass ihre Produktivität durch eine mangelhafte Organisation ausgebremst wird.

Eine mangelhafte Organisation offenbart sich beispielsweise in Doppelzuständigkeiten. Für den Bereich Verkehr sind in Berlin teilweise sowohl Polizei als auch das Ordnungsamt zuständig. Auch die Zuständigkeiten zwischen Senat und Bezirksverwaltungen sind in Berlin nicht optimal verteilt. So dauert die Einrichtung eines Zebrastreifens drei Jahre und bedarf 18 Verfahrensschritten, weil Prüfvorgänge sich doppeln und zwischen den verschiedenen Verwaltungsebenen abgestimmt werden müssen.

Im Vergleich zu Hamburg setzt Berlin im Bereich innere Verwaltung gut 3 Vollzeitstellen weniger ein. Die innere Verwaltung übernimmt Aufgaben und stellt Ressourcen bereit, die für die Funktion der Verwaltung essentiell sind. Sie ist unter anderem für Personalfragen, Haushalts- und Rechnungswesen, Controlling, Beschaffung und Kosten-Nutzen-Analysen verantwortlich. Vielleicht sollte Berlin an genau dieser kritischen Stelle der inneren Organisation mehr und anderswo weniger Personal einsetzen.

Dass es auch in Berlin besser geht, zeigt das Land übrigens auf der Einnahmenseite. In der Finanzverwaltung setzt Berlin pro 1.000 Einwohner fast eine halbe Vollzeitstelle weniger ein als Hamburg, dennoch können sich die Berliner über eine relativ schnelle Bearbeitung freuen. Nur das Saarland bearbeitet Steuererklärungen schneller als die Berliner Verwaltung. Wo ein Wille ist, scheint auch in Berlin ein Weg zu sein.

Verwaltung: Berlin kann es auch!

Die gute Nachricht: Der Stadtstaat Hamburg zeigt, dass es möglich ist, unter ähnlichen Bedingungen wie in Berlin mit weniger Personal staatliche Dienstleitungen tendenziell höherer Qualität bereitzustellen.

Der Ruf nach (noch) mehr Personal für die Berliner Verwaltung ist politisch nachzuvollziehen, aber nicht zielführend. Nicht die Ausstattung mit Personal, sondern die Organisation des Arbeitseinsatzes der Mitarbeiter scheint das Problem zu sein. Berlin sollte sich zum Ziel nehmen, von den Vorteilen des deutschen Föderalismus zu profitieren, indem die Stadt von anderen Bundesländern lernt, wie Verwaltungsverfahren besser organisiert werden können.

Erstmals erschienen bei IREF