Photo: Junge Tüftler from Flickr (CC BY-SA 2.0)

Von Dr. Alexander Fink, Universität Leipzig, Senior Fellow des IREF – Institute for Research in Economic and Fiscal Issues, und Kevin Spur, Student der Ökonomie an der Freien Universität Berlin.

Erst jüngst äußerte Bundeskanzlerin Merkel Zweifel, ob Deutschland und Europa die Voraussetzungen haben, technologisch weltweit mitzuspielen. Auch andere sehen mit Sorge in die technische Zukunft Deutschlands. Immer wieder wird als Grund für Pessimismus der Fachkräftemangel genannt. Der Ruf nach mehr MINT-Studierenden – also Studierenden in Mathematik, Ingenieurswissenschaften, Naturwissenschaften und Technik – resultiert aus dem identifizierten Mangel. Allerdings ist seit der Jahrtausendwende der Anteil an MINT-Studierenden in Deutschland deutlich gestiegen und im internationalen Vergleich schließen hierzulande relativ viele Studierende mit einem Abschluss in MINT-Fächern ab. Das stimmt optimistisch, denn MINT-Absolventen profitieren nicht nur selbst von ihren Fähigkeiten, sondern verursachen laut Befunden der wissenschaftlichen Literatur besonders ausgeprägte positive externe Effekte.

MINT für mehr Produktivität und Innovation

Arbeiten in einer Region viele Ingenieure, Informatiker oder Naturwissenschaftler, steigt die Innovationskraft und auch andere Arbeitskräfte in der Region profitieren z. B. in Form höherer Löhne, wie Forschungsergebnisse für die USA zeigen. John V. Winters hat den externen Effekt von MINT-Absolventen auf die Löhne in der gleichen Metropolregion untersucht. MINT-Absolventen haben im Vergleich zu Absolventen von Fächern außerhalb der MINT einen signifikant höheren positiven Effekt auf die Löhne anderer Arbeiter. Giovanni Peri kommt mit Ko-Autoren in einem Papier von 2015 zu einem ähnlichen Schluss: Eine Erhöhung ausländischer MINT-Arbeitnehmer in einer Region ist mit einem signifikanten Anstieg der Löhne von universitär und nicht-universitär ausgebildeten Einheimischen verbunden. Gemäß der Ergebnisse von Winters in einem Papier von 2015wirkt sich die Zahl an MINT-Absolventen zudem positiv auf die Anzahl der Patente pro Einwohner aus, während Nicht-MINT-Absolventen Regionen und Länder auf diesem Wege nicht positiv beeinflussen.

MINT-Studium: 90er Flop, seit 2000 (wieder) Top

Der Ruf nach mehr MINT-Studierenden in Deutschland ist gerade angesichts der Forschungsergebnisse für die USA nachzuvollziehen. Doch wie ist es in Deutschland um die Beliebtheit der MINT-Fächer aktuell bestellt – im Vergleich zu früher und im Vergleich zu anderen Ländern?

Daten des Statistischen Bundesamtes für den Zeitraum von 1975 bis 2017 liefern Aufschluss über den Anteil an MINT-Studierenden im ersten Fachsemester in Relation zu allen eingeschriebenen Studierende im ersten Fachsemester. 1989 erreichte der Anteil an MINT-Studierenden mit 37,3 % seinen vorläufigen Höhepunkt, bevor es in den 1990er Jahren bis auf 29,6 % bergab ging. Das war 1997.

Spätestens seit der Jahrtausendwende hat sich das Blatt gewendet. Bis zum Wintersemester 2015/16 stieg der Anteil der MINT-Studierenden auf 40,5 % und ist seitdem etwa konstant. Die MINT-Fächer sind wieder die beliebtesten Fächergruppen unter den 878.000 Studienanfängern an den Hochschulen. Während 2017 etwa 322.000 junge Menschen Wirtschafts-, Sozial- oder Rechtswissenschaften studierten, wurden 351.000 Studierende in MINT-Fächern ausgebildet.

Historisch befindet sich die Zahl an Studienanfängern und die der MINT-Erstsemester auf einem Rekordniveau – ein Grund für Optimismus. Aber wie sieht es im internationalen Vergleich aus?

International: Hoher MINT-Anteil

Die OECD hält Daten zum Anteil von STEM-Universitätsabsolventen ihrer Mitgliedsländer bereit. STEM steht für Science, Technology, Engineering und Mathematics – das englische Äquivalent zu MINT. Deutschland steht hier an der Spitze.

Während im jüngsten verfügbaren Jahr 2016 in Deutschland 36 % aller Hochschulabsolventen aus den MINT-Fächern kamen, waren es in Frankreich knapp 26 %. Großbritannien wies einen MINT-Absolventenanteil von 26 % auf und lag damit immer noch über dem OECD-Durchschnitt von 24 %. In den USA schlossen lediglich 18 % der Absolventen ihre Ausbildung in einem MINT-Fach ab. Auch im internationalen Vergleich ist es um die deutsche MINT-Quote bei Studierenden gut bestellt.

Tertiärer Abschluss: Anteil der Bevölkerung gering

Der hohe MINT-Anteil unter den Studierenden in Deutschland wird allerdings von einem vergleichsweise niedrigen Bevölkerungsanteil mit tertiärer Ausbildung begleitet. So hatten in der Gruppe der 25- bis 34-Jährigen 2017 gemäß Daten der OECD 31,3 % einen Abschluss an einer Universität, Fachhochschule oder Berufsakademie gemacht. Der OECD-Durchschnitt lag deutlich höher, nämlich bei 44,5 %. Unter Deutschlands Studierenden sind also relativ viele MINT-Studierende bei insgesamt niedrigen Studierendenzahlen. Der Nachteil der niedrigen Studierendenquote wiegt jedoch angesichts der in der DACH-Region üblichen Möglichkeit zur berufsbegleitenden Ausbildung außerhalb der Hochschullandschaft weniger schwer, als es auf den ersten Blick erscheinen mag. Tätigkeiten, die in anderen Ländern eine Hochschulausbildung voraussetzen, werden in der DACH-Region relativ häufig von Personen mit Berufsausbildung ausgeübt.

Das deutsche duale Ausbildungssystem hat sich dabei als erfolgreich erwiesen, junge Menschen in der Schule und am Arbeitsplatz mit Fähigkeiten auszustatten, die es ihnen erlauben, am Arbeitsmarkt zu reüssieren – ohne zu studieren. Man darf optimistisch sein, dass gerade die direkte Einbindung in den Arbeitsmarkt dazu beiträgt, dass die duale Ausbildung auch in einer durch schnelleren technologischen Wandel geprägten Welt relevante Fähigkeiten vermittelt und ein Erfolgsmodell bleiben wird.

Land der Ingenieure: Grund für Optimismus

Der Ruf Deutschlands als das „Land der Ingenieure“ ist angesichts des derzeitigen MINT-Rekordstandes bei den Studienfächern auch heute nicht ganz unverdient. Und gerade die Entwicklung der letzten Jahre gibt Anlass für Optimismus. Daraus folgt nicht, dass eine Akademisierung einiger ausgewählter heutiger Ausbildungsberufe und eine stärkere Präsenz deutscher Forschungseinrichtungen in der Weltspitze nicht wünschenswert wären. Aber der Befund lässt auch nicht den Schluss zu, in Deutschland werde an den Hochschulen nicht der für die technologischen Herausforderungen der Zukunft notwendige Humankapitalstock aufgebaut.

Erstmals erschienen bei IREF

Photo: Pineapple Supply Co from Unsplash (CC 0)

Was bleibt von Mario Draghis Amtszeit als EZB-Präsident? Nichts Gutes. Er wird in die Geschichte des Euro eingehen als derjenige, der Lirafizierung der Eurozone Vorschub geleistet hat. Und dann droht irgendwann, was schon Wladimir Iljitsch Lenin wusste: „wer die bürgerliche Gesellschaft zerstören will, muss ihr Geldwesen verwüsten.“

Ist der Euro der neue Gold-Standard? Das behauptet zumindest der spanische Ökonom Jesús Huerta de Soto, der 2013 die Hayek-Medaille der deutschen Hayek-Gesellschaft erhalten hat. Die Währung der EU sei so eine Art Gold-Standard für die ehemaligen Weichwährungsländer in Europa. Huerta de Soto ist offenbar nicht nur ein einflussreicher Vertreter der Österreichischen Schule der Nationalökonomie, sondern auch ein Anhänger des Euro. Sein Argument: die Südländer der Eurozone könnten nicht mehr ihre eigene Währung abwerten, um im Außenhandel preislich wettbewerbsfähig zu werden, sondern müssten nun durch Anpassungen im eigenen Land ihre Wettbewerbsfähigkeit wieder herstellen. Diese Argumentation ist zumindest in Deutschland ungewöhnlich zu hören. Glaubt man hierzulande doch, dass der Euro eher das Gegenteil bewirkt habe.

Doch ganz abwegig ist Huerta de Sotos Argumentation erstmal nicht. Denn in einem festen Wechselkurssystem, und dieses ist der Euro-Raum seit 1999, kann nur durch eine Verbesserung der Standortbedingungen im eigenen Land die relative Produktivität einer Volkswirtschaft gegenüber anderen Wirtschaftsräumen innerhalb des Währungsraumes und auch außerhalb erreicht werden. Der Spanier argumentiert mit der Entwicklung seines eigenen Landes. Ohne die disziplinierende Wirkung des Euro wäre Spanien nicht so wettbewerbsfähig und die Interventionen des Staates weitaus größer. Die Zahlen Spaniens belegen das auf den ersten Blick. In den zurückliegenden vier Jahren wuchs die spanische Volkswirtschaft zwischen 3,6 Prozent und zuletzt 2,5 Prozent. Das Pro Kopf-Einkommen stieg in dieser Zeit um 18 Prozent und liegt wahrscheinlich in diesem Jahr erstmalig wieder auf dem Niveau des Jahres 2009. Das können nicht alle Länder in Europa vorweisen.

Dennoch ist der Vergleich mit dem Goldstandard irreführend. Aus mehreren Gründen. Der wichtigste vorneweg: Gold ist nicht manipulierbar. Die Goldmenge wächst jährlich um rund zwei Prozent. Daran ändert sich seit Jahrzehnten nicht viel. Dagegen wird die Geldproduktion im Euroraum von der Politik der EZB gesteuert. Sie ist äußert volatil. Zwar hat die EZB als vorrangiges Ziel, die „Preisstabilität zu gewährleisten“, doch dieses Ziel schafft sie nur auf den ersten Blick. Wer beispielsweise die Entwicklung der Vermögensgüterpreise in Deutschland anschaut, sieht sehr schnell, dass sowohl Aktien als auch Immobilienwerte in den letzten Jahren deutlich stärker gestiegen sind als die offizielle Zielmarke der Inflation von nahe 2 Prozent. Die EZB misst bei ihrem Inflationsziel lediglich die Entwicklung der Konsumgüterpreise anhand eines ausgesuchten Warenkorbs.

Besser ist dagegen, die Basis für Inflation zu betrachten, und diese liegt im Geldmengenwachstum. Denn dieses sagt etwas darüber aus, wieviel Geld insgesamt im Umlauf ist und so die Basis für künftige Preisanstiege von Konsum- und Vermögensgüter liefert. In den letzten 10 Jahren stieg die Geldmenge (M3) um 34 Prozent, die 10 Jahre davor um über 100 Prozent. Die Basis für die nächste Geldinflation hat die EZB durch die Schaffung von Zentralbankgeld, die zu einer Aufblähung der EZB-Bilanz geführt hat, bereits gelegt. Die EZB-Bilanzsumme stieg in den vergangenen 10 Jahren um rund 135 Prozent.

Die EZB betont in diesem Zusammenhang, dass dies alles notwendig sei. Würde die ausgewiesene Inflation deutlich über 2 Prozent steigen, dann könnte sie durch geldpolitische Maßnahmen nicht nur das Geldmengenwachstum drosseln, sondern auch wieder ihre Bilanz verkürzen.

Und hier kommen wir zu einem weiteren Grund, wieso der Euro kein Gold-Standard ist. Die EZB ist wahrscheinlich nicht mehr in der Lage, ihren geldpolitischen Kurs zu verlassen. Das zeigt auch die jüngste Ankündigung Mario Draghis. Würde Draghi einen härteren Kurs einschlagen, würde sofort eine Anpassungsrezession eingeleitet. Diese träfe nicht nur Deutschland hart, sondern würde die Staatsfinanzierung in weiten Teilen Südeuropas unmöglich machen und das Bankensystem in eine bedrohliche Lage bringen. Schon jetzt hat Italien mit 2 Billionen Euro die höchsten absoluten Staatsschulden in Europa. Würde das Zinsniveau signifikant steigen, wäre der Staatshaushalt in Rom in einer noch größeren Schieflage. Wahrscheinlich würde die gegenseitige Staaten-Banken-Abhängigkeit bei der Finanzierung noch weiter zunehmen und die Target-Verbindlichkeiten ebenso. Schon jetzt haben Italien (483 Mrd. Euro) und Spanien (400 Mrd. Euro) die höchsten Target-Verbindlichkeiten innerhalb der Eurozone. Letztere Zahl für Spanien zeigt auch, dass der Aufschwung dort fragil ist. Er ist getrieben von der Nullzinspolitik und der unkonventionellen Geldpolitik der EZB. Was bleibt also von Mario Draghis Amtszeit als EZB-Präsident? Nichts Gutes. Er wird in die Geschichte des Euro eingehen als derjenige, der nicht den Gold-Standard durch den Euro gebracht, sondern der Lirafizierung der Eurozone Vorschub geleistet hat. Und dann droht irgendwann, was schon Wladimir Iljitsch Lenin wusste: „wer die bürgerliche Gesellschaft zerstören will, muss ihr Geldwesen verwüsten.“

Erstmals veröffentlicht auf Tichys Einblick.

Photo: Carlos Cram from Unsplash (CC 0)

Was hat die Nullzinspolitik Mario Draghis mit dem geplanten Mietendeckel des rot-rot-grünen Senats in Berlin zu tun? Dort will die Stadtregierung per Gesetz die Höhe der Mieten für fünf Jahre einfrieren. Auf Antrag kann sogar eine Mietminderung durchgesetzt werden, wenn der Mietpreis überhöht ist. Eine allgemeingültige Mietobergrenze, die die Politik in Berlin festsetzt, dient hierbei als Orientierung. Der Mietpreis wird somit vom Senat höchstpersönlich und für alle verbindlich festgesetzt. Dies soll auch für Neuvermietungen und rückwirkend zum 18.6.2019 gelten. Bislang geht in der Diskussion unter, dass der Mietendeckel in Deutschland von den Nazis ein- und von den Kommunisten fortgeführt worden ist. Im November 1936 verhängten die Nationalsozialisten den vollständigen Mietpreisstopp in Deutschland. Mit wenigen Änderungen galten diese gesetzlichen Regelungen bis 1990 in der DDR. Der Zustand der DDR-Wohnungen war 1990 entsprechend desaströs. Linke und Rechte sind sich im staatlichen Interventionismus und in der Enteignung von Eigentum schon immer sehr nahe gewesen.

Doch eigentlich ist die Entwicklung der Mietpreise auch eine Folge der Politik von Mario Draghi. Das mag auf den ersten Blick nicht klar sein. Kann man denn die EZB auch dafür verantwortlich machen? Ja, die Entwicklung der Mieten in den Ballungszentren ist ein Kollateralschaden der Nullzinspolitik der EZB. Die Mieten haben sich in den letzten 15 Jahren in Berlin fast verdoppelt. Lagen sie im Durchschnitt 2004 noch bei 5,14 Euro pro Quadratmeter, so liegen sie aktuell bei 9,50 Euro. In Hamburg (von 7 auf 10,50 Euro) und in München (von 9,67 auf 16,42 Euro) sieht es nicht viel besser aus.

Kapital sucht Anlagemöglichkeiten. Große Kapitalsammelstellen wie Versicherungen, Pensionskassen und Fonds, die Milliardenbeträge ihrer vielen tausend Kleinanleger verwalten, werden in den Wohnungsmarkt gedrängt, weil alternative Anlageformen an Attraktivität verloren haben. Insbesondere die Anleihemärkte sind für diese Kapitalsammelstellen keine Renditebringer mehr. Wenn die 10-jährige Bundesanleihe mit einer Negativrendite glänzt, können Langfristanleger für ihre Pensionäre und Rentner daher keine Rendite erwirtschaften, die auskömmlich ist. Sie müssen Renten kürzen und/oder sich zwangsläufig umorientieren. Hier sind Immobilieninvestitionen attraktiv, da sie regelmäßige Einnahmen generieren und die erhöhte Nachfrage in den Ballungszentren auch noch die Anlagewerte steigen lassen.

Doch ist nicht nur die Umorientierung der Kapitalsammelstellen ein Grund für die wachsenden Mietpreise. Auch die erhöhte Liquidität, die von der EZB den Banken kostenlos zur Verfügung gestellt wird, trägt dazu bei. Dies kann an der Entwicklung der Notenbankbilanz veranschaulicht werden. In den letzten 10 Jahren stieg die Bilanzsumme der EZB um 135 Prozent von 2.000 Milliarden auf 4.700 Milliarden Euro. Dieses frische Geld aus dem Nichts diente in erster Linie dazu, Banken Liquidität zur Verfügung zu stellen, damit diese die Kreditvergabe für die Realwirtschaft stimulieren. Das ist in den vergangen 10 Jahren ganz gut gelungen. In den vergangen 10 Jahren ist die breite Geldmenge (M3) um 34 Prozent gestiegen. Doch die Nervosität der EZB und ihre Ankündigung weiterer geldpolitischen Stimulanzien macht deutlich, dass hier noch nicht das Ende der Fahnenstange erreicht ist. Es geht auch mehr! Hier muss man gar nicht so lange zurückschauen. In den 10 Jahre bis zum Platzen der Bankenblase 2008/2009, stieg die Geldmenge um über 100 Prozent. Das Platzen der dadurch entstandenen Spekulationsblasen in Spanien, Irland und anderswo hat ein Erdbeben ausgelöst, das bis heute noch nicht bewältigt ist.

Die Entwicklung des Wohnungsmarktes hat zuerst mit der Nullzinspolitik der EZB zu tun. Sie lenkt Kapital von nicht mehr rentierlichen Anlageformen in den Wohnungsmarkt und erhöht die Nachfrage bei relativ gleichem Angebot. Gleichzeitig führt die erhöhte Liquiditätsbereitstellung der EZB dazu, dass die Zinsen niedrig bleiben und vermehrt in Bestandsimmobilien investiert wird. Beides führt zu steigenden Preisen, die mittelbar die Mieten erhöhen. Dass trotz hoher Nachfrage der Wohnungsbau nicht in die Gänge kommt, hat mit dem komplizierten Planungsrecht und bürokratischen Bauvorschriften in Deutschland zu tun.

All das was wir derzeit erleben, hat nichts mit den Untiefen des Kapitalismus zu tun, sondern ist planwirtschaftliche Staatswirtschaft. Das Geld, seine Menge, sein Preis und seine Verteilung wird staatlicherseits über die Zentralbank geplant und gelenkt. Der Staat und die Banken profitieren auf den ersten Blick. Der Staat muss nicht sparen und kann den Wohlfahrtsstaat weiter ausbauen. Die Banken müssen faule Kredite nicht wertberichtigen und können notwendige Anpassungen aussitzen. Dennoch gibt es zwangsläufig Nachteile. Die Mieten steigen und die Arbeitnehmereinkommen halten nicht schritt. Linke sammeln nun Unterschriften gegen den „Mietenwahnsinn“ und meinen es sei der Kapitalismus, der sie arm macht. Doch tatsächlich ist es die Zinspolitik der EZB, die nicht nur die Grundlage für die Enteignung der Wohnungseigentümer bereitet, sondern auch die Arbeitnehmer enteignet, die in den Wohnungen zur Miete wohnen, aber diese nicht mehr bezahlen können.

Jetzt sagt der Berliner Senat, die Regelung werde nur für fünf Jahre gelten. Das klingt so verantwortungsbewusst, weil es ein überschaubarer Zeitraum ist. Der Mietendeckel soll die Freiheit des Eigentums jetzt einschränken, damit künftige Generationen sie wieder haben können. Mit Ralf Dahrendorf muss man diesen Freiheitsfeinden entgegnen: „Wer die Freiheit einzuschränken beginnt, hat sie aufgegeben und verloren.“

Photo: Torsten Maue from Flickr (CC BY 2.0)

Von Kalle Kappner, Promotionsstudent an der Humboldt-Universität zu Berlin, Research Fellow bei IREF, Fackelträger von Prometheus.

Deutschland ist bekannt für notorisch langsame und unzuverlässige Internetverbindungen, insbesondere in ländlichen Gegenden. Langsames Internet ist nicht nur ein Problem für Netflix-Kunden und Online-Zocker, sondern stellt zunehmend einen spürbaren Standortnachteil dar. Zwar stellt die Bundesregierung Jahr für Jahr hohe Summen für den Netzausbau zur Verfügung, doch spielte die in vergleichbaren Ländern priorisierte Glasfasernetztechnologie dabei bisher nur eine untergeordnete Rolle. Stattdessen flossen in den vergangenen Jahren Milliarden in den Ausbau bequemer, aber mittelfristig obsoleter Übergangslösungen wie der Aufwertung jahrzehntealter Kupferleitungen mittels „Vectoring“.

Eine zentrale Ursache der Breitbandmisere ist die innovationshemmende Interessenverquickung zwischen der privatwirtschaftlich organisierten Deutsche Telekom AG und dem mit rund einem Drittel an ihr beteiligten deutschen Staat. Kunden und Wettbewerber leiden unter einem Arrangement, das der Telekom regulatorische Vorteile verschafft und Subventionen in fragwürdige Technologien kanalisiert. Dem Status Quo wäre vorzuziehen, den Unterhalt und Ausbau der noch im Besitz der Telekom verbliebenen Leitungen in ein lediglich diesen Zielen verpflichtetes und zu diesem Zweck reguliertes Unternehmen zu überführen und jegliche Staatsanteile an der Telekom zu veräußern. So könnten die bereitgestellten Mittel in den Netzausbau fließen, ohne dass die Politik versucht ist, dabei die Gewinninteressen eines privilegierten Marktteilnehmers zu befriedigen.

Netzwüste Deutschland

Deutschland wird in internationalen Rankings ein relativ langsames, regional in der Verfügbarkeit schwankendes und auf veralteten Technologien basierendes Internet attestiert. Deutlich wird der Rückstand Deutschlands etwa beim Verbreitungsgrad von Hochgeschwindigkeits-Glasfaserkabelanschlüssen, der als Anteil an allen Breitbandverbindungen nur 2% beträgt (OECD: 25%).

Pflichtschuldig kündigt die Regierung Jahr für Jahr an, bald Abhilfe zu schaffen. So wurde 2015 ein weiteres, milliardenschweres Förderprogramm für den Breitbandausbau aufgelegt. Auch die erwarteten Erlöse von bis zu 5 Milliarden Euro aus der aktuell laufenden Versteigerung von 5G-Mobilfunkfrequenzen sollen in das diffuse Konsensprojekt „Digitalisierung“ fließen. Der Europäische Rechnungshof hält es indes schon jetzt für absehbar, dass das selbstgesteckte Ziel der Bundesregierung, bis 2025 alle Haushalte mit Breitband-Internet zu versorgen, nicht erreicht wird.

Weshalb gelang es Politik und Netzunternehmen trotz großzügiger Förderung bisher nicht, Deutschland in einen modernen High-Speed-Internet-Standort zu verwandeln? Neben Kapazitätsengpässen im Bausektor und bürokratischen Hürden liegt der wichtigste Grund darin, dass die Investitionsmittel trotz geeigneter Alternativen zu bedeutenden Teilen in Technologien fließen, die auf absehbare Zeit veraltet sein werden. Die niedrige Glasfasernutzungsquote drückt nicht nur Verfügbarkeitsengpässe aus – technisch wären derzeit immerhin rund 9 % der Haushalte versorgbar – sondern auch den subventionierten Ausbau alternativer Technologien, die kurzfristig die Geschwindigkeitswünsche der Endkunden befriedigen.

Während im Rest der Welt Glasfaserleitungen zum Standard werden, förderte der deutsche Staat in den letzten Jahren unter Inkaufnahme ineffizienter Doppelstrukturensogenannte „Vectoring”-Technologien, die in den alten Kupferleitung ein letztes Geschwindigkeitsfeuerwerk herbeizaubern und ihren Austausch so kurzfristig weniger attraktiv machen. Mittelfristig werden diese Technologien den wachsenden Geschwindigkeitsanforderungen allerdings technisch nicht genügen, wie die rasant wachsende Nachfrage nach Glasfaseranschlüssen unter Neukunden erkennen lässt. Eine aktuelle Studie des Fraunhofer-Instituts empfiehlt entsprechend einen deutlichen Ausbau des Glasfasernetzes.

Bundesregierung fördert Telekom-Monopol

„Vectoring“ erlaubt höhere Geschwindigkeiten durch die Reduzierung von Übertragungsverlusten, die aus dem Übersprechen verschiedener Leitungen in einem Kupferkabelstrang resultieren. Für die Telekom ist das „Vectoring” aus drei Gründen ein lukratives Geschäft. Erstens konnte sie in den vergangenen Jahren so auf den kostspieligen Austausch der sich meist in ihrem Besitz befindlichen Kupferadern in den Teilnehmeranschlussleitungen (TAL) zwischen Hauptverteiler und Wohnhaus verzichten.

Zweitens sinkt aufgrund des Angebots der Telekom für Mitbewerber der Anreiz zur Verlegung eigener TAL, da das „Vectoring“-DSL der Telekom die Geschwindigkeitswünsche der Kunden kurzfristig größtenteils befriedigt. Entsprechend stiegen die ”Vectoring”-bezogenen Investitionen der Telekom in die Festnetzinternetinfrastruktur seit einigen Jahren relativ zu den Investitionen der Wettbewerber, etwa Vodafone.

Drittens verschafft das “Vectoring” der Telekom Kontrolle über die Produktgestaltung ihrer Wettbewerber. Der störungsfreie Einsatz der Technologie hängt davon ab, dass der Eigentümer des betroffenen Strangs alle TAL kontrolliert, also sämtliche Endkundenanschlüsse “auf der letzten Meile” betreibt. Im Gegenzug zur Verpflichtung zu zügigen Investitionen konnte sich die Telekom die Hoheit über schätzungsweise 96 % der TAL sichern. Dass das „Vectoring” effektiv eine Monopolstellung der Telekom fördert, fiel nicht nur betroffenen Interessengruppen auf, sondern auch der Monopolkommission und der EU-Kommission. Ein durch die EU-Wettbewerbshüter genehmigter Kompromiss sieht daher vor, dass Telekom-Konkurrenten über ein sogenanntes „virtuell entbündeltes lokales Zugangsprodukt” (VULA) weiterhin Endkunden erreichen können – allerdings ohne die Möglichkeit eigenständiger Produktgestaltung.

Kürzlich wurde der „Pakt“ zwischen der Bundesregierung bzw. Netzagentur und der Telekom höchstrichterlich abgesegnet. Verlegen Telekom-Konkurrenten eigene Glasfaser-Hausleitungen, so kann die Telekom diese bei technischen Konflikten mit ihren Kupferkabeln zur Geschwindigkeitsdrosslung zwingen. Obwohl die Bundesregierung nun von der gezielten Förderung des „Vectoring“ abrückt, ist die Sonderstellung der Telekom im deutschen Netzmarkt damit auf Jahre gesichert.

Interessenverquickung schadet Konsumenten

Weshalb unterstützt die Politik veraltete Technologien und setzt damit nicht nur bedeutende Fördersummen in den Sand, sondern riskiert durch die Einschränkung des Infrastrutkurwettbewerbs mittelfristig sogar den Netzausbau? Die „Vectoring”-Lösung ist kurzfristig bequem. Sie erlaubt es, mittels Upgrades der alten Kupferleitungen das politische Versprechen von flächendeckend mindestens 50 Megabit zügig zu realisieren, ohne in jedem Haus die Verlegung moderner Glasfaseranschlüsse finanzieren und abwarten zu müssen.

Doch die problematische Bevorzugung eines Wettbewerbers entspringt vermutlich kaum reiner Bequemlichkeit. Einen Hinweis liefert ein Blick auf die Eigentümerstruktur der Telekom: fast ein Drittel der Anteile liegt in der Hand des Bundes (einschließlich KfW), der damit Regulierer, Eigentümer und Auftraggeber der Telekom zugleich ist.

Dass die Telekom als privatwirtschaftlich organisiertes Unternehmen Möglichkeiten nutzt, sich Wettbewerbsvorteile zu sichern und Investitionsrisiken des Infrastrukturausbaus politisch abzufedern, ist nicht wünschenswert, aber auch nicht verwunderlich. Problematisch ist, dass die Bundesregierung sich darauf einlässt und offenbar ein besonderes Feingefühl für die Belange des Unternehmens und dessen Monopolstreben entwickelt hat. Der ehemalige Bundesinnenminister Thomas de Maizière illustriert diese ganz besondere Beziehung, indem er seinen Wechsel auf den Vorsitz der Deutschen Telekom Stiftung damit begründet, dass „nationale Interessen” bewahrt würden und ergänzt, dass eine derartige Rolle für ihn bei jedem Telekom-Konkurrenten undenkbar sei.

Staat und Telekom entflechten

Zwar deutete die Politik an, künftig ein stärkeres Gewicht auf die Glasfaserkabel-Förderung zu legen und auch die Telekom setzt vermehrt auf „echte“, d.h. bis in die Wohnung verlegte Glasfasernetze. Doch kurzfristig führt kein Weg aus der politisch organisierten Breitbandmisere. Der „Vectoring-Pakt“ ist rechtlich wasserdicht und wird die vielschichtige Interessenverquickung zwischen Regierung und Telekom stärken. Die in den 90ern erfolgten umfangreichen Bemühungen zur Entflechtung von Netzinfrastruktur und Endkundengeschäft werden damit teilweise aufgehoben.

Wenn vergangene Entscheidungen auch nicht rückgängig gemacht werden können, so lassen sich doch Lehren aus ihnen ziehen. Staatsbeteiligungen können auch in Form vermeintlich unerheblicher Minderheitenbeteiligungen zu unerwünschten Anreizproblemen führen. Eine Veräußerung der verbliebenen Telekom-Anteile des Staates könnte daher kurzfristig zumindest eine Minderung des Interessenkonflikts herbeiführen und einseitige Entscheidungen zugunsten des Unternehmens einschränken. Obwohl eine entsprechende Initiative 2016 scheiterte, empfiehlt sich langfristig die Entflechtung von Netzbetrieb und Endkundengeschäft.

Erstmals erschienen bei IREF

Photo: Brooke Cagle from Unsplash (CC 0)

Von  Prof. Dr. Stefan Kooths, Leiter des Prognosezentrums im Institut für Weltwirtschaft an der Universität Kiel, Professor für Volkswirtschaftslehre an der University of Applied Sciences Europe (UE) in Berlin und Vorsitzender der Friedrich A. von Hayek-Gesellschaft.

Die Marktwirtschaft hat ein Problem: Immer wieder wird ihr der eigene Erfolg zum Verhängnis. Die gewaltigen Wohlstandsgewinne, die sie hervorbringt, rufen regelmäßig Interventionisten auf den Plan, die in diesem Reichtum vor allem die Manövriermasse für soziale Großexperimente sehen. Der Antrieb hierzu erwächst meist aus edlen Motiven, er beruht aber immer auch auf Unverständnis ökonomischer Zusammenhänge und unerfüllbaren kollektivistischen Sehnsüchten.

Das marktwirtschaftliche Erfolgsrezept beruht auf Eigentum, Tausch und Wettbewerb und damit auf Koordinationsmechanismen, die den Bedingungen komplexer Großgesellschaften angepasst sind. Diese können nur gedeihen, wenn sie die Kreativität der Menschen in produktiver Weise freisetzen und das unter ihnen dezentral verteilte Wissen vernetzen. Marktpreise als soziale Anreiz- und Informationsträger leisten genau das. Die der marktwirtschaftlichen Ordnung zugrundeliegenden abstrakten Prinzipien sind in ihrer sozialen Wirkung oftmals nicht auf Anhieb verständlich. Mehr noch: sie sind vielen suspekt. Den meist als Gesinnungsethikern auftretenden Gegnern der Marktwirtschaft öffnet sich damit ein breites Einfallstor. Sie verheißen eine staatliche Wohlfahrtsgarantie, bei der die ihrer Natur nach ergebnisoffenen Wettbewerbsprozesse des Marktes mehr als Bedrohung denn als Chancenreichtum gelten.

Dem österreichischen Ökonomen Friedrich August v. Hayek (1899-1992) kommt das Verdienst zu, diesen Befund in all seiner Vielschichtigkeit herausgearbeitet zu haben. Zugleich verdanken wir ihm die Einsicht, dass die Grenzen in der Sozialphilosophie nicht zwischen links und rechts verlaufen, sondern zwischen Individualismus und Kollektivismus oder – in den Worten Karl Poppers – zwischen offener und geschlossener Gesellschaft. Kollektivisten setzen darauf, die für Kleingruppen stabilisierenden Verhaltensweisen wie Altruismus und Zusammenhalt auf eine anonyme Großgesellschaft zu übertragen, wo sie allerdings aufgrund der sozialen Komplexität ins Leere laufen. Insofern handelt es sich bei diesem Versuch eher um einen vergeblichen Rückschritt hin zum sozialen Kitt der Stammesgesellschaft als um ein progressives Gesellschaftsmodell. In einem marktwirtschaftlichen System, in dem individuelle Handlungsfreiheit und persönliche Verantwortung durch Eigentum und Haftung gekoppelt sind, bilden sich demgegenüber Institutionen heraus, die in einer anonymen Großgesellschaft besser funktionieren (z. B. Vertragstreue, Reputation), hinsichtlich der individuellen Motive aber moralisch minderwertiger erscheinen und weniger soziale Wärme ausstrahlen.

Je stärker eine die Wirtschaftspolitik leitende Wirtschaftstheorie von den individuellen Akteuren abstrahiert und diese in Großgruppen aufgehen lässt, desto übersichtlicher erscheint das verbleibende Gesamtsystem. Dies suggeriert zugleich eine höhere sozialtechnische Beherrschbarkeit und hat immer wieder zu konstruktivistischen Versuchungen geführt. Die damit geschürten Erwartungen können in der Praxis nur enttäuscht werden. Unterbleiben solche Versuche aus diesem Grunde im Rahmen einer marktwirtschaftlichen Ordnung, werden gleichwohl diejenigen unzufrieden sein, die entsprechende Interventionen für aussichtsreich halten. Gerade unter meinungsbildenden Intellektuellen ist die Einsicht in die beschränkten Gestaltungsmöglichkeiten mit Blick auf soziale Phänomene oftmals sehr unpopulär, was die Skepsis gegenüber interventionistischer Zurückhaltung und der marktwirtschaftlichen Ordnung als offener Gesellschaftsform nährt.

Linke und rechte Kollektivisten eint, die Gruppe über das Individuum zu stellen. Die Führungsrolle der gesellschaftlichen Entwicklung weisen sie dem Staat zu, nicht den sich auf dezentraler Ebene vollziehenden evolutionären Entdeckungsprozessen. Lediglich im Klassenbegriff unterscheiden sie sich zuweilen. Im Ergebnis führt dies immer wieder zu Parallelen im politischen Handeln. So finden Rechte und Linke in der Globalisierungsskepsis zueinander. Die einen wollen die heimische Wirtschaft vor ausländischem Wettbewerb und einem vermeintlichen Ausverkauf bewahren, die anderen wollen der übrigen Welt ihre Vorstellungen von richtiger Sozialpolitik aufzwingen, um heimische Arbeiter vor ihren Kollegen im Ausland zu schützen. Im Ergebnis läuft beides darauf hinaus, dass der Kern der Globalisierung – die Möglichkeit, den Tauschpartner weltweit frei wählen zu können – auf der Strecke bleibt. Kollektivismus bedeutet eben immer auch Abschottung an den Grenzen des Kollektivs. Von echter kosmopolitischer Moral ist links wie rechts wenig zu spüren.

Auch nationalen und europäischen Champions bieten linke wie rechte Protektionisten gerne staatlichen Flankenschutz. Zugleich stoßen weltweit tätige multinationale Unternehmen beiderseits auf Ablehnung. Für die einen höhlen sie den Gestaltungsanspruch des Staates aus, für die anderen sind sie Ausdruck eines heimatlosen Internationalismus und gelten daher als unzuverlässige Kantonisten. Der Gedanke, dass in den „Multis“ Menschen aus aller Herren Länder miteinander kooperieren (als produktive Variante von „Proletarier aller Länder, vereinigt Euch!“) sind bislang wenige gekommen.

Selbst in Fragen der Zuwanderung sitzen linke und rechte Kollektivisten nicht selten in einem Boot. So schlägt sich der rot-rot-grüne Berliner Senat in der Wohnungspolitik ganz auf die Seite der Gebietsansässigen, denen er mit Mietpreisstopps und Wohnraumverstaatlichung ihre Besitzstände erhalten will. Die Mieten in Ballungsräumen steigen nicht, weil böse Vermieter plötzlich ihre Gier nicht mehr zäumen können, sondern weil der Zuzug die Nachfrage anschwellen lässt. Zusammenrücken und Neubau wäre jetzt das Gebot der Stunde, und steigende Marktpreise würden beides anreizen. Mieten einzufrieren ist hingegen ökonomisch nichts anderes als primitive Fremdenfeindlichkeit. Die Einheimischen genießen ihre Privilegien, Neubürger müssen draußen bleiben.

Im kollektivistischen Denken verödet das Individuum zum bloßen Träger seiner Gruppenmerkmale. Die Persönlichkeit muss dahinter zurücktreten. Darin liegt eine weithin unterschätzte Gefahr, umso mehr, als sich ihre Urheber hehre Motive zugutehalten. Der Marsch in die durchquotierte Gesellschaft lässt Schlimmes befürchten. Je weniger die Person als Person zählt, desto unfreier wird die Gesellschaft. Und mit jeder neuen Quote verliert der einzelne Mensch ein Stück seiner Würde. Die liegt nicht in seinem Geschlecht, seiner Herkunft oder Religion, sondern nur in seiner Individualität.

Hayek hat immer wieder vor den Gefahren des Kollektivismus gewarnt. Im „Weg zur Knechtschaft“ (1944) ebenso wie in „Die verhängnisvolle Anmaßung“ (1988). Heute würde er wohl wieder zur Feder greifen.

Erweiterte Fassung eines Beitrags, der am 14. Juni 2019 in der Wirtschaftswoche unter dem Titel „Das Problem der Marktwirtschaft ist ihr Erfolg“ erschienen ist (Rubrik „Denkfabrik“, S. 43).