Photo: Hans Sandreuter from Wikimedia Commons (CC BY-SA 3.0)

Von Prof. Roland Vaubel, emeritierter Professor für Volkswirtschaftslehre und Politische Ökonomie an der Universität Mannheim.

Die beiden Alpenländer Schweiz und Österreich haben ganz ähnliche geographische Voraussetzungen. Sie sind auch im wesentlichen von denselben Stämmen (Alemannen und Kelten) besiedelt worden. Selbst die Bevölkerungszahl ist fast die gleiche (Österreich 8,7 Mill., Schweiz 8,3 Mill.). Politisch sind sie jedoch sehr verschiedene Wege gegangen. Die Schweiz wurde zum Hort der Freiheit, Österreich zu einem Hauptgegner der Liberalisierung in Europa. Weshalb?

Obwohl der von mir behauptete Unterschied wahrscheinlich keiner Belege bedarf, will ich ihn zunächst anhand historischer Beispiele verdeutlichen und erst danach versuchen, ihn zu erklären.

Dass die Freiheit in Österreich nicht den gleichen Rang einnimmt wie in der Schweiz, erwies sich in zweierlei Hinsicht: bei der Religionsfreiheit und bei der politischen Freiheit.

Es ist bekannt, dass die Habsburger – ausgenommen Maximilian II. (1562-76) – die Reformation bekämpften, während es in der Schweiz mit Zwingli in Zürich und Calvin in Genf zwei führende Reformatoren gab. Zwar verweigerten nicht nur die Habsburger, sondern auch die meisten schweizerischen Kantone bis ins späte 18. Jahrhundert die Freiheit der Religion. Aber zur Eidgenossenschaft gehörten protestantische wie katholische Kantone, zwischen denen man wandern konnte – in einigen Gebieten entschied sogar die Gemeinde über die gemeinsame Religionszugehörigkeit. Es ist überliefert, dass die Berner zeitweise Katholiken vertrieben und die Schwyzer Protestanten, aber systematisch verfolgt wurde von Katholiken wie von Protestanten nur die Sekte der (Wieder-)Täufer – in Zürich bis ins 18. Jahrhundert. Besonders intolerant war man gegenüber Sektierern in Genf, das allerdings erst 1815 in die Eidgenossenschaft aufgenommen wurde. Dort verbrannte man 1553 auf Calvins Geheiß Michael Servetius, weil er die Dreifaltigkeit ablehnte. Es wird berichtet, dass um 1530 in Zürich ein Täufer ertränkt wurde, aber zur selben Zeit tötete man in Österreich etwa 600 Täufer. In Wien verbrannte man 1528 Balthasar Huber, in Innsbruck 1536 Jakob Hutter – beide führende Täufer.

Unter Rudolf II., dem in Spanien erzogenen Sohn Maximilians II., wurden 1577 in Wien alle protestantischen Gottesdienste verboten, die Prediger vertrieben und die protestantischen Schulen geschlossen. Ferdinand II. (1619-37), dessen religiöser Intoleranz der Ausbruch des Dreißigjährigen Krieges zuzuschreiben ist, stellte die protestantischen Adligen vor die Wahl, entweder katholisch zu werden oder Österreich zu verlassen. In Böhmen ließ er zunächst die protestantischen Pfarrer vertreiben (1623), dann den evangelischen Gottesdienst verbieten (1624) und schließlich alle Protestanten ausweisen (1627).

Von dem eingeschränkten Schutz, den der Westfälische Frieden religiösen Minderheiten im Reich gewährte, hatten sich die Habsburger ausdrücklich ausgenommen. Noch in den Jahren 1752-55 organisierte Kaiserin Maria Theresia in Österreich eine groß angelegte Protestantenverfolgung. “Religionskommissare” verhörten Verdächtige, Denunzianten wurden reich belohnt. Die, die sich weigerten abzuschwören, kamen an den Pranger und ins “Konversionshaus” (Zuchthaus), ihre Kinder ins Waisenhaus. 3.000 halsstarrige Protestanten wurden aus Österreich nach Siebenbürgen und Ungarn deportiert.

Vorausgegangen war 1744 die Ausweisung von mehr als 10.000 Juden aus Prag, dann aus Böhmen. In der Schweiz wurden nach dem Mittelalter keine Juden mehr verfolgt. Sie waren fast alle 1348, als die Pest in Europa wütete, des Landes verwiesen worden. In Preussen förderte Friedrich der Große, Maria Theresias großer Gegenspieler, ab 1750 die “Hofjuden”.

Was die politische Freiheit angeht, schälte sich der Unterschied zwischen Österreich und der Schweiz besonders im 18. und 19. Jahrhundert heraus. In fast allen Landesteilen der Schweiz – im 18. Jahrhundert mit Ausnahme von Genf[i] — wurden Liberale geduldet. Es galt Meinungs- Presse- und Versammlungsfreiheit, und der Staat respektierte das Briefgeheimnis. Österreich dagegen entwickelte sich unter Joseph II. (1765-90), Leopold II. (1790-1804) und Franz II. (1804-35) allmählich zum Polizeistaat. Ab 1815 ging Fürst Metternich im Auftrag des Kaisers mit äußerster Schärfe gegen “liberale Umtriebe” und Unabhängigkeitsbestrebungen vor. Wer verdächtig erschien, wurde von der Geheimpolizei bespitzelt (selbst im Ausland); Briefe wurden abgefangen und erbrochen; willkürliche Verhaftungen waren an der Tagesordnung; liberale Professoren wurden vom Dienst suspendiert. Alle Druckwerke bis 300 Bögen (Seiten), insbesondere alle Presseerzeugnisse, unterlagen der Vorzensur, längere der Nachzensur. Die Encyclopedia Britannica schreibt über Franz II.: “He was denounced by liberals throughout Europe as a tyrant. … The fortress prison of the Spielberg … made so many martyrs to freedom”.

Die liberale Verfassung von 1848 wurde 1851 wieder einkassiert, und Kaiser Franz Joseph setzte die scharfe Verfolgung der Liberalen bis 1866 fort: “Acts of repression and severity amounting to cruelty were perpetrated in his name, and the responsibility for them must lie with him, since he claimed the right to autocracy”.[ii]

Dass die Freiheit in der Schweiz mehr zählt als in Österreich, ist noch heute leicht zu erkennen. Im Economic Freedom Index der Heritage Foundation (Washington) belegt die Schweiz den vierten Platz, Österreich Platz 31. Die Staatsquote beträgt in der Schweiz 34 Prozent, in Österreich über 49 Prozent. Der Stimmenanteil, den linke Parteien im Durchschnitt seit 1970 bei den Wahlen zur ersten Kammer des Bundesparlaments erzielt haben, beläuft sich in der Schweiz auf knapp 30 Prozent, in Österreich auf über 45 Prozent. In vierzig der fünfzig Jahre stellte die SPÖ den Bundeskanzler.

Doch nun zur Erklärung: weshalb haben sich Österreich und die Schweiz so unterschiedlich entwickelt? Von David Hume (1742) und Charles Montesquieu (1748) stammt die These, dass die Entstehung von Freiheit letztlich eine Frage der Geographie ist: Freiheit gedeiht nur dort, wo die geographischen Bedingungen die Zentralisierung der Politik erheblich erschweren. Aber in welcher Hinsicht war die Geographie der beiden Alpenländer denn so verschieden?

In beiden Ländern verhinderten die Berge die Entstehung eines Zentralstaats nach französischem Muster, wie sehr sich auch einige Habsburger (vor allem Maximilian I., Ferdinand I., Maria Theresia und Franz Joseph) darum bemühten. In Österreich sind die Alpen – insbesondere die Gebirgspässe – niedriger als in der Schweiz. Österreich war dadurch Italien stärker zugewandt als die Schweiz. Die guten Verkehrswege nach Italien erleichterten den Schulterschluss mit dem Papst und die Aufrechterhaltung norditalienischer Besitzungen.

Aber entscheidend war ein anderer geographischer Unterschied: während die Schweiz im Westen der Alpen eingezwängt war, konnte Österreich nach Osten expandieren. Die Schweiz war eingezwängt, weil sie im Westen einen stets mächtigen Nachbarn hatte: Frankreich. Das französische Sprachgebiet war – aufgrund seiner natürlichen Grenzen im Norden, Westen und Süden – bereits im 15. Jahrhundert dauerhaft unter einer Herrschaft vereinigt worden. Frankreich ließ keine große Expansion der Schweiz zu. Es war im Gegenteil zu Zeiten eine Quelle der Bedrohung. Nur von Frankreich wurde die Schweiz vorübergehend besetzt und kontrolliert (1798-1814). Frankreich verhinderte auch, dass die Eigenossenschaft über das Tessin hinaus nach Italien expandieren konnte. Die schwere Niederlage des schweizerischen Heeres gegen ein französisches 1515 bei Marigniano (Lombardei) gilt weithin als Schlüsselerlebnis für die schweizerische Neutralitätspolitik, die allerdings erst 1815 festgeschrieben wurde.

Die Eidgenossenschaft konnte nur in den Bergen wachsen, und da war nicht viel Platz. Die Habsburger dagegen hatten die Möglichkeit, ihren eigenen Herrschaftsbereich außerhalb des Hochgebirges weit nach Osten auszudehnen. Dabei kam ihnen die Geographie auch in Gestalt der schiffbaren Donau zur Hilfe.  Schon 1526 fielen Ungarn (mit der Slowakei und dem größten Teil Kroatiens) und Böhmen (mit Mähren, Schlesien und der Lausitz) als Personalunionen an die Habsburger.[iii] Die Ressourcen der habsburgischen Ostgebiete versetzten Österreich in die Lage, seine Rivalen bei deutschen Kaiserwahlen und bei lukrativen Heiratsanträgen auszustechen und ihre Machtbasis immer weiter zu vergrößern. Als Kaiser waren die Habsburger an der Einheit der Religion und der autoritäreren Variante des Christentums interessiert. In Wien, der reich dekorierten Hauptstadt des Großstaats, entstand eine höfische Hochkultur – zu Lasten des restlichen Imperiums.

Zeitweise – von 1529 bis 1686 – hatte auch die Donaumonarchie einen mächtigen und bedrohlichen Nachbarn: die Türken. Um seine Ostkolonien und Wien gegen die Türken zu verteidigen und den habsburgischen Vielvölkerstaat zusammenzuhalten, benötigte Österreich ein großes stehendes Heer. In der Schweiz reichte ein Milizheer, das ganz auf Defensive eingestellt war. Die Habsburger wollten herrschen, die Schweizer ihre Unabhängigkeit und Freiheit – beide Teil des Selbstbestimmungsrechts – verteidigen, auch und schon früh gegen die Habsburger.

Das habsburgische Österreich entstand nicht – wie die Schweiz – durch Sezession, sondern durch einen Staatsstreich. Rudolf I., der erste Habsburger auf deutschem Thron, usurpierte 1276 den Großteil des heutigen Österreichs (ohne Tirol, das erst 1490 dazu kam) und erklärte ihn 1282 zu habsburgischen Erblanden. Ohne Staatsstreich wäre Österreich schwer zu bekommen gewesen, denn das Hochgebirge schützte Österreich und die Schweiz vor Eroberungsversuchen. Im Gegensatz zu Österreich war die schweizerische Eidgenossenschaft ein freiwilliger Zusammenschluss lokaler Gemeinwesen. Das Habsburgerreich wurde von oben geschmiedet, die schweizerische Konföderation von unten. Das prägt die Menschen.

Da die Kantone freiwillig beitraten, konnten sie sich – trotz des von den Protestanten gewonnenen Bürgerkriegs von 1847 – ein hohes Maß an politischer Selbständigkeit bewahren. Die Vielfalt der Institutionen bot den Menschen Vergleichs- und Wahlmöglichkeiten. Der Wettbewerb der Kantone um Investoren und Steuerzahler hielt die Politiker tendenziell davon ab, den Bürgern Vorschriften zu machen und die Steuern zu erhöhen. Schon David Hume (1742) hat die These vertreten, dass die Nachbarschaft mehrerer unabhängiger, aber miteinander verbundener Gemeinwesen die Macht der Obrigkeit beschränkt.

Viele, aber bei weitem nicht alle Kantone praktizierten von Anfang an eine Form der direkten Demokratie. Auch das hat mit der Geographie zu tun. In einem zerklüfteten Land bietet es sich an, politische Entscheidungen vor Ort zu treffen. Auf lokaler Ebene funktionieren Volksabstimmungen am besten, denn dort wissen die Bürger in der Regel, worum es geht. Auch die direkte Demokratie schützt die Bürger vor den Regierenden, aber sie schützt nur die Mehrheit, nicht Minderheiten und den Einzelnen. Ohne die Wahlmöglichkeiten, die der Wettbewerb der Kantone dem Einzelnen bietet, könnte die direkte Demokratie die Freiheit gefährden. Auf der Ebene der gesamten Eidgenossenschaft gibt es Volksabstimmungen erst seit 1848 (über die Bundesverfassung); über einfache Gesetze können die Schweizer seit 1874 abstimmen. Die freiheitliche Entwicklung, die schon lange zuvor in der gesamten Schweiz einsetzte, kann man damit nicht erklären.

Wo Freiheit ist, strömen Freiheitsliebende hinzu – besonders solche, die in ihrem Heimatland verfolgt werden. Die neutrale Schweiz wurde im Lauf der Geschichte zur Fluchtburg der Verfolgten aus aller Herren Länder – vor allem aus den Nachbarländern. Dadurch hat der schweizerische Liberalismus zusätzliche Impulse erhalten.

[i] Das Genfer Patriziat verfolgte Liberale. Micheli du Crest (1734), Jean Lui de Lolme (1770) und Etienne Pierre Dumont (1783) mussten fliehen. Pierre Fatio wurde 1707 hingerichtet. Im 19. Jahrhundert wurden die Liberalen in Genf jedoch zur stärksten Partei.

[ii] Ebenfalls aus der Encyclopedia Britannica.

[iii] Die Ehe, die dies möglich machte, wurde 1515 geschlossen und im Vorgriff auf den Gebietsgewinn – z. B. die slowakischen Silberminen – von den Fuggern finanziert. Ein Kredit der Fugger war dann auch 1519 dafür verantwortlich, dass Karl V. zum Kaiser gewählt wurde.

Erstmals erschienen bei Wirtschaftliche Freiheit – Das ordnungspolitische Journal.

Photo: Andy Montgomery from Flickr (CC BY-SA 2.0)

Von Dr. Alexander Fink, Universität Leipzig, Senior Fellow des IREF – Institute for Research in Economic and Fiscal Issues, und Benedikt Schmal, Student von Economics am University College of Dublin.

Je stärker die abschreckende Wirkung, desto höher ist die Gefahr, dass MiFID II dem Verbraucherschutz einen Bärendienst erweist, indem der höhere Aufwand für Anbieter und Kunden die Anzahl zu schützender Verbraucher reduziert. Auch für Regulierungen gilt: Viel hilft nicht immer viel.

Die aktualisierte EU-Richtlinie über Märkte für Finanzinstrumente, auf Englisch kurz MiFID II, soll Verbraucher besser schützen. Neben der Anpassung regulatorischer Fragen im Hintergrund geht es der EU in Bezug auf Privatkunden darum, den „Anlegerschutz durch ein Annahmeverbot für Provisionen, den Schutz unabhängiger Beratung, die Einführung neuer Vorschriften zur Produktüberwachung“ zu verbessern. Die Intention scheint plausibel. Auch unter Anlageberatern gab und gibt es schwarze Schafe. Doch nicht immer ist ‚gut gemeint‘ auch gut für den Verbraucher. Während sich Finanzdienstleister in Reaktion auf die Umsetzung der Richtlinie in Deutschland seit 2018 durch eine aufwendige Dokumentation rechtlich absichern, erfahren die Kunden nicht zwingend eine bessere Beratung. Sie werden durch die umfassende Dokumentation möglicherweise gar von der Geldanlage abgeschreckt.

MiFID II – Das ist neu in der Finanzberatung

MiFID II hat das Privatkundengeschäft deutlich verändert. Einerseits müssen Berater anfallende Kosten eines Wertpapiergeschäfts im Vorfeld umfassend offenlegen, inklusive Gebühren und etwaiger Abschlussprovisionen. Das schafft Transparenz und verstärkt potentiell den gebührensenkenden Wettbewerb unter den Anbietern. Andererseits sind die Anforderungen an den eigentlichen Beratungsprozess gestiegen.

In der Geldanlage fand gewissermaßen eine Beweislastumkehr statt. Wie bisher muss der Kunde selbst seine Risikoneigung einschätzen. Allerdings muss der Berater nun prüfen, ob die Risikotoleranz seines Kunden legitim ist. Er muss sicherstellen, dass das zu erwerbende Finanzprodukt zu ihm passt. Neben Finanzerfahrung, Anlagezielen und dem Anlagehorizont muss er auch die finanzielle Gesamtsituation des potenziellen Kunden im Gespräch evaluieren und dessen spezifische Risikotragfähigkeit mit ihm detailliert errechnen. Das Ganze betrifft nicht nur die Gegenüberstellung von Gehalt und Miete. Vom PayTV-Abo bis zum Handyvertrag für die Kinder muss prinzipiell alles aufgelistet werden, was die finanzielle Gesamtsituation und damit die Tragfähigkeit potenzieller Verluste beeinflusst.
Die Beratung muss mit einem sogenannten Geeignetheitsprotokoll abgeschlossen werden. Darin muss der Berater individuell Rechenschaft ablegen, welche Produkte er empfohlen hat und wie sie auf Lebenssituation, Pläne, Erfahrungen und finanzielle Spielräume des jeweiligen Kunden passen.

Jede Kommunikation, die sich um ein Wertpapiergeschäft dreht, muss aufgezeichnet und 5-7 Jahre aufbewahrt werden. Dazu zählt Schriftverkehr ebenso wie Telefonate. Gemäß Artikel 16 (7) der Richtlinie muss die gesamte Tonspur mitgeschnitten werden. Das gilt auch, wenn der Kunde am Ende des Gesprächs keine Wertpapierorder aufgibt. Das Gespräch vor Ort muss nicht mitgeschnitten werden, allerdings muss jeder Wertpapierauftrag protokolliert und dem Kunden auf Wunsch ausgehändigt werden. Jede Empfehlung muss im genannten Geeignetheitsprotokoll erläutert werden.

Zu viele Informationen

Ausgestattet mit Geeignetheitsprotokoll, Verkaufsprospekten und Produktinformationsblättern stehen Kunden reichlich Informationen zur Verfügung. Doch bei Informationen gilt „viel hilft viel“ nicht unbedingt.

Verhaltensökonomen bezeichnen dies als „curse of knowledge“ oder „information overload“. Gerald Spindler (2011) zeigt in einer Analyse von Anlegerschutzgesetzen, dass sich Privatkunden von umfangreichen Erläuterungen eher überfordert als informiert fühlen. Anbieter einer umfangreicheren Aufklärung zu verpflichten, ist zwar gut gemeint, bringt Privatkunden aber oft nichts. Die Menge überfordert Kunden und sie können die Qualität kaum beurteilen. Die umfangreiche Dokumentation erhöht eher die emotionale Schwelle, sich mit der Geldanlage auseinandersetzen. So kann es sich auch mit MiFID II verhalten.

Zu viel Aufwand

In der Marketingforschung spielt die sogenannte „transaction inconvenience“ beim Onlineshopping eine große Rolle. Melek Erdil (2018) hat zahlreiche Studien zusammengetragen, die einen komplizierten und unbequemen Kaufprozess als Abbruchgrund für Onlinekäufe anführen. Es liegt nahe, dass es sich bei Bankgeschäften ähnlich verhält. Wird die Eröffnung eines Wertpapierdepots durch MiFID II langwieriger, dürften unter sonst gleichen Bedingungen mehr Kunden aufgeben, bevor ein Depot eröffnet ist.

Auch bei der physischen Kontoeröffnung müssen Kunden oft mehr Zeit einplanen. Die Deutsche Bank schätzt, dass sich die Gesprächsdauer für ein Wertpapierdepot von 45 Minuten auf anderthalb bis zwei Stunden verdoppelt hat. Wer beim Berater im Büro sitzt, wird kaum zwischendurch aufstehen und gehen. Doch wenn der Termin vorab vereinbart werden soll, führt ein langer Termin womöglich eher zur Absage als ein kurzer.

Zu viel Gewicht auf Risiken

Verhaltensökonomische Forschung hat gezeigt, dass Menschen Verluste ungleich höher gewichten als Gewinne in äquivalenter Höhe, kurzfristige Ereignisse in der unmittelbaren Zukunft höher gewichten als weiter in der Zukunft liegende und den Effekt langfristigen Sparens, den Zinseszins, unterschätzen.

Angesichts dieser Verhaltsweisen, ist zu erwarten, dass MiFID II Anleger eher abschreckt und somit Vorteile einer vorausschauenden Altersvorsorge vereitelt. Denn durch MiFID II nehmen die kurzfristigen Unannehmlichkeiten bei der Finanzplanung zu. Zugleich werden in der Beratung die möglichen Verluste stärker betont, während die von den Kunden bereits oft vernachlässigten und unterschätzten langfristigen Vorteile weiter in den Hintergrund treten.

Kosten und Reaktionen der Banken

Ob MiFID den Verbrauchern Vorteile bringt, ist nicht offensichtlich. Zugleich ist sicher, dass die MiFID-Umsetzung zu zusätzlichem Ressourceneinsatz auf Seiten der Banken geführt hat, die sich in höheren Gebühren für ihre Kunden niederschlagen können.

Banken haben auf MiFID II auch reagiert, indem sie ihr Produktportfolio reduziert und vor allem einfache, klassische Produkte wie Anleihen und Aktien aus dem Vertrieb genommen haben. Allein die Direktbank ING nahm als Reaktion auf MiFID II rund 80.000 (sic) Finanzprodukte aus dem Sortiment. Andere große Internetbanken handhabten es ähnlich. Das reduziert die Auswahlmöglichkeiten insbesondere für die Kunden, die sich mit einem Wechsel der Bank schwertun. Eine geringere Bandbreite an Produktion sorgt auch dafür, dass den individuellen Wünschen der Anleger schlechter entsprochen werden kann. Das war mit MiFID II sicher nicht intendiert.

Außer Spesen nichts gewesen?

Die MiFID II-Richtlinie war gewiss gut gemeint. Privatleute sind keine Anlageprofis und verhalten sich auch nicht so. Darauf soll die Richtlinie eingehen und sie bei der Geldanlage besser schützen.

Abgesehen von den Offenlegungspflichten bei Gebühren und Provisionen ist die schützende Wirkung der Richtlinie jedoch ungewiss. Zusätzliche Auskunftspflichten und mehr Informationsmaterial führen nicht zwingend zu einer besseren Beratung und können Kunden eher abschrecken als sie aufzuklären.

Je stärker die abschreckende Wirkung, desto höher ist die Gefahr, dass MiFID II dem Verbraucherschutz einen Bärendienst erweist, indem der höhere Aufwand für Anbieter und Kunden die Anzahl zu schützender Verbraucher reduziert. Auch für Regulierungen gilt: Viel hilft nicht immer viel.

Erstmals erschienen bei IREF.

Photo: Austin Distel from Unsplash (CC 0)

Von Dr. Alexander Fink, Universität Leipzig, Senior Fellow des IREF – Institute for Research in Economic and Fiscal Issues, und Kalle Kappner, Promotionsstudent an der Humboldt-Universität zu Berlin, Research Fellow bei IREF, Fackelträger von Prometheus.

David Graebers These von den Bullshit-Jobs findet viel Anklang, adressiert sie doch weit verbreitete Vorurteile von der vermeintlichen Nutzlosigkeit gut bezahlter Berufe im Dienstleistungssektor, etwa im Marketing, Management oder in der Beratung. Es ist indes wenig plausibel, dass sich in einer auf freiwilliger Kooperation basierenden Marktwirtschaft dauerhaft 50 % der Arbeitnehmer unproduktiven Tätigkeiten widmen.

Nachdem der Philosoph Harry Frankfurt den Begriff Bullshit durch ein kurzes Buch in den 2000er Jahren salonfähig machte, stellte der Anthropologe David Graeber in seinem 2018 veröffentlichten Bestseller die These auf, dass etwa die Hälfte der Arbeitsverhältnisse in westlichen Volkswirtschaften „Bullshit-Jobs“ sind – Tätigkeiten, die keinerlei Nutzen für die Gesellschaft haben und deren Sinn selbst den ausführenden Arbeitnehmern unklar ist. Graebers These findet viel Anklang, adressiert sie doch weit verbreitete Vorurteile von der vermeintlichen Nutzlosigkeit gut bezahlter Berufe im Dienstleistungssektor, etwa im Marketing, Management oder in der Beratung.

Es ist indes wenig plausibel, dass sich in einer auf freiwilliger Kooperation basierenden Marktwirtschaft dauerhaft 50 % der Arbeitnehmer unproduktiven Tätigkeiten widmen. Die hohen Personalkosten derart ineffizient wirtschaftender Unternehmen würden sich in hohen Preisen für ihre Produkte widerspiegeln. Konsumenten hätten einen Anreiz, zu effizienter wirtschaftenden Wettbewerbern zu wechseln, die ihre Produkte durch weniger „Bullshit-Beschäftigte“ günstiger anbieten können. Das heißt nicht, dass es gar keine „Bullshit-Jobs“ gibt. Sie sind jedoch vermutlich insgesamt deutlich seltener und vermehrt in Branchen zu erwarten, in denen Konsumenten keine Möglichkeit haben, ineffiziente Anbieter durch ihre Kaufentscheidungen aus dem Markt ausscheiden zu lassen.

Graebers Diagnose: 50 % „Bullshit-Jobs“

„Bullshit-Jobs“ definiert Graeber nicht auf Basis objektiver Kriterien, sondern anhand der Selbsteinschätzung des Nutzens einer Tätigkeit durch Arbeitnehmer. Graeber führt Umfragen an, denen zufolge in Großbritannien und den Niederlanden rund 40 % der befragten Arbeitnehmer der Auffassung sind, mit ihrer Tätigkeit „keinen sinnvollen Beitrag für die Welt zu liefern“.

Diese Auskünfte würden, so Graeber, das tatsächliche Ausmaß unproduktiver Beschäftigung allerdings unterschätzen, da einige oberflächlich nützliche Tätigkeiten lediglich der Zuarbeit sinnloser Tätigkeiten dienten, beispielsweise im Fall von Sushi-Zulieferern für Unternehmensanwälte, Wachpersonal in Verwaltungskomplexen oder Taxifahrern für Lobbyisten. Dazu käme, dass viele grundsätzlich nützliche Tätigkeiten mit unnützen Aufgaben überlagert würden – beispielsweise, wenn Ärzte 50 % ihrer Zeit mit unsinnigen Dokumentationen verbringen. Alles in allem seien rund 50 % der Arbeitsverhältnisse in den Marktwirtschaften des Westens unproduktiver, nutzloser „Bullshit“.

Marktwirtschaft: Massive Zeitverschwendung?

Graebers zynisches Fazit: John Maynard Keynes‘ 1930 geäußerte Prognose, dass ein durchschnittlicher Arbeitnehmer in Zukunft nur noch rund 15 Stunden pro Woche arbeiten müsse, sei durchaus eingetroffen. Nur würden diese 15 produktiven Stunden durch 15 weitere unproduktive Stunden ergänzt. Wo Keynes hoffnungsvoll auf die Effizienz der Marktwirtschaft setzte, fürchtet Graeber die zunehmende Verbreitung unproduktiver Erwerbsarbeit. Er bietet drei Erklärungsansätze an:

Erstens herrsche auf Ebene einzelner Unternehmen ein „Manager-Feudalismus“, sodass Effizienzgewinne nicht vollständig in Profite und Investitionen übersetzt würden, sondern in den Aufbau eines „Hofstaats“ unproduktiver „Lakaien“ flössen, der Prestige und Macht symbolisiert.

Zweitens dienten „Bullshit-Jobs“ auf politischer Ebene den Machthabern zur Wahrung des sozialen Friedens. Wer in angenehmen Bürojobs beschäftigt ist, hinterfragt die Wirtschaftsordnung nicht, selbst wenn seine Tätigkeit unnütz ist.

Drittens gäbe es eine tief verwurzelte Arbeitsethik, der zufolge selbst nutzlose reguläre Arbeitsverhältnisse mehr Legitimität stiften würden als Arbeitslosigkeit.

Unproduktive Beschäftigung: Ein Wettbewerbsnachteil

Unbeantwortet bleibt die Frage, wie unproduktive Beschäftigungsverhältnisse massiven Ausmaßes in einer wettbewerblichen Wirtschaftsordnung dauerhaft Bestand haben können. Unternehmen, die wenig erfolgreich sind, entsprechend der Wünsche der Konsumenten zu niedrigen Kosten zu produzieren, scheiden mittelfristig aus dem Markt aus.

Manager einzelner Unternehmen mögen sich den Aufbau eines eigenen „Hofstaats“ zwar wünschen, doch es ist nicht zu erwarten, dass Unternehmenseigner oder Konsumenten diese Wünsche durch geringere Profite oder höherer Preise zu finanzieren bereit sind. Ebenso unwahrscheinlich ist, dass Unternehmenseigner erfolgreich Kartelle zum Zwecke dauerhaft unproduktiver Produktion bilden, selbst wenn dies ihren politischen Zielen dienen mag.

Gewiss, auch in wettbewerblich organisierten Wirtschaftsordnungen gibt es Raum für Verschwendung und Ineffizienz, etwa aufgrund von Prinzipal-Agenten-Problemen, Informationsasymmetrie oder Statuswettbewerb. Dass dies zur Entstehung unproduktiver Beschäftigungsverhältnisse in Größenordnungen von 50 % führt, ist jedoch nicht plausibel.

Spezialisierung bedeutet nicht Sinnlosigkeit

Graebers theoretische Argumente mögen wenig überzeugend sein, doch illustriert die Tatsache, dass rund 40 % der Arbeitnehmer ihre Jobs für nutzlos halten, nicht dennoch ein tief verankertes Problem?

Eher nicht. Entgegen Graebers Vorstellungen ist es nicht plausibel, dass Außenstehende oder Arbeitnehmer den Nutzen gewisser Tätigkeiten angemessen einordnen können. In komplexen arbeitsteiligen Gesellschaften entstehen hochspezialisierte Berufsbilder, die im Rahmen der Produktion einer klar definierbaren Ware oder Dienstleistung nur einen Bruchteil beisteuern. Einem klassischen Schuster, der ausgestattet mit den notwendigen Materialien und Werkzeugen einen Schuh von A bis Z selbst herstellt, erschließt sich der Sinn seiner Tätigkeit intuitiv. Einem Marketingmitarbeiter eines großen Schuhherstellers fällt es möglicherweise schwerer, den Beitrag seiner Arbeit in der Wertschöpfungskette zu erkennen.

Das maßgebliche Kriterium für den Nutzen einer Tätigkeit ist in einer auf Kooperation ausgelegten Gesellschaft jedoch nicht die eigene Einschätzung, sondern die Zahlungsbereitschaft der Mitmenschen. Konsumenten bewerten dabei nicht die Leistung jeder einzelnen in der Wertschöpfungskette beteiligten Person, sondern wählen aus von Unternehmen angebotenen Bündeln spezifischer Leistungen aus. Insofern die Leistungen eines Marketingmitarbeiters in der Schuhproduktion aus der Perspektive der Konsumenten nutzlos sind, werden sie die Schuhe jener Unternehmen bevorzugen, die auf solchen „Bullshit“ verzichten und daher Schuhe zu einem besseren Preis-Leistungs-Verhältnis anbieten können.

Mittel gegen „Bullshit-Jobs“: Konsumenten-Feedback stärken

Auf Märkten in Branchen, die für neue Anbieter offen sind und den Konsumenten eine reiche Entscheidungsfreiheit bieten, spricht wenig für die Verbreitung von „Bullshit-Jobs“. Vermutlich treten sie dagegen häufiger in Bereichen auf, in denen die Konsumenten als finale Finanzierer einer Tätigkeit nur eingeschränkt oder gar nicht in der Lage sind, durch den Entzug ihrer Zahlungsbereitschaft Feedback an Produzenten zu senden, das diese in Form von schwindenden Gewinnen und steigenden Verlusten zu spüren bekommen.

Dies ist beispielsweise dann der Fall, wenn Zwangsfinanzierung, starke Regulierung oder Monopole einzelne Unternehmen vom Wettbewerb abschirmen und diese in die Lage versetzen, die Kosten unproduktiven „Bullshits“ an die Konsumenten weiterzugeben. Das Antidot ist die Öffnung dieser Branchen für den Wettbewerb.

Erstmals erschienen bei IREF.

Photo: Greger Ravik from Flickr (CC BY 2.0)

Von Prof. Roland Vaubel, emeritierter Professor für Volkswirtschaftslehre und Politische Ökonomie an der Universität Mannheim.

Die Diskussion über die Sicherung der Bankeinlagen in der Eurozone hat sich verlagert: von dem Projekt einer gemeinsamen Einlagen(ver)sicherung zu einer gemeinsamen Einlagenrückversicherung. Erst wenn der Fonds einer nationalen Einlagensicherung erschöpft ist, sollen die Einlagensicherungen der anderen siebzehn Euro-Staaten einspringen, d. h. haften. Wie ist diese Akzentverschiebung zu erklären?

Mögliche Gründe für die Akzentverschiebung

Geht es einfach nur darum, in einem ersten Schritt die zu erwartende Umverteilung zwischen den Euro-Staaten zu begrenzen und damit die politischen Widerstände zu vermindern? Ist der Einstieg erst einmal geschafft, könnte bei nächster Gelegenheit die europäische Direktversicherung folgen.

Ist eine zweite Erklärung vielleicht darin zu sehen, dass die Rückversicherung aufgrund der schwächeren Quersubventionierung weniger Fehlanreize erzeugt? Allerdings ist die Rückversicherung zugleich mit einer geringeren Diversifikation der Risiken verbunden. Wer wie die Befürworter einer europäischen Versicherung davon ausgeht, dass der Vorteil einer stärkeren Diversifikation schwerer wiegt als der Nachteil der stärkeren Fehlanreize, kann schwerlich für eine geringere Risikoteilung – die bloße Rückversicherung – eintreten. Diese Erklärung scheidet daher aus.

Haben sich die Befürworterinnen und Befürworter der Rückversicherung vielleicht drittens vom Subsidiaritätsprinzip leiten lassen? Im Falle einer Rückversicherung könnte innerhalb der einzelnen Euro-Staaten alles beim Alten bleiben, so dass sie einige Freiräume behalten würden. Zwar verpflichtet die Europäische Richtlinie über Einlagensicherungssysteme (2014) alle Mitgliedstaaten der EU, die Bankeinlagen bis 100.00 Euro auf bestimmte Weise zu versichern. Aber nicht alles ist festgelegt. Zum Beispiel gewährt die einschlägige Leitlinie der Europäischen Bankenaufsichtsbehörde (EBA/GL/2015/10) Spielraum bei der Festlegung der Gewichte, mit denen die einzelnen Risikofaktoren in die Berechnung der Beitragsätze eingehen. So darf das Gewicht der notleidenden Kredite von 13 auf 28 Prozent erhöht werden, und die von den Banken gehaltenen Staatsanleihen könnten mit einem Gewicht von bis zu 15 Prozent berücksichtigt werden (Z. 56 und 58 der Leitlinie). Der deutsche Finanzminister macht von dieser Möglichkeit allerdings keinen Gebrauch. Der Einheitliche Abwicklungsfonds der Eurozone schließt den Anteil der notleidenden Kredite und der Staatsanleihen der Banken sogar ganz von der Berechnung der Beitragsätze aus.

Besteht der Charme der Rückversicherung schließlich vielleicht gerade darin, dass sich die Euro-Staaten nicht darüber streiten müssen, wie die Risikoprämien in den Beitragsätzen der Banken am besten berechnet werden können? Aber auch eine Rückversicherung erhebt Versicherungsbeiträge, und auch diese sollten risikogerecht sein. Für die einzelnen Euro-Staaten müssten jeweils gegenüber den anderen siebzehn Ländern risikogerechte Beitragsätze ausgehandelt werden. Dabei ginge es nicht nur um die riesigen internationalen Unterschiede bei den notleidenden Krediten und Staatsanleihen der Banken, sondern auch um die landesspezifischen Risiken. Mehrere ökonometrische Analysen zeigen, dass die Wahrscheinlichkeit von Bankenkrisen signifikant von Makrovariablen wie der Arbeitslosenquote, den Immobilienpreisen, der Volatilität des Wirtschaftswachstums, der Staatsverschuldung und dem Pro-Kopf-Einkommen abhängt.[ 1 ] Eine Untersuchung der EZB (Betz et al., 2013)  kommt sogar zu dem Ergebnis, dass die länderspezifischen Indikatoren mehr zur Prognose des Insolvenzrisikos einzelner Banken beitragen als die bankenspezifischen Indikatoren.

Wenn es permanente länderspezifische Risikofaktoren gibt, genügt es nicht darauf abzustellen, ob die Risiken vielleicht nächstes Jahr niedrig und vor allem weniger unterschiedlich sind. Denn die zu erwartenden Risiken können von länderspezifischen Strukturmerkmalen bestimmt werden, die langfristig wirksam sind. Man könnte zum Beispiel fragen, ob einzelne Euro-Staaten schon in der Vergangenheit – vor 2007/08 – schwere Bankenkrisen durchgemacht haben. Für Griechenland (1991-95), Italien (1990-95) und Spanien (1977-85) ist das der Fall.

Interkulturelle Unterscheide als Grund für Gefälligkeitskredite?

Sind die großen internationalen Unterschiede bei den notleidenden Krediten vielleicht durch interkulturelle Unterschiede bedingt? Notleidende Kredite sind häufig Gefälligkeitskredite. Was sagt die Forschung hierzu? Trompenaars und Hampden-Turner (2012) haben die wirtschaftlich relevanten interkulturellen Unterschiede wissenschaftlich – d. h. mit Hilfe von Umfragen – untersucht. Die Autoren unterscheiden zwischen “Particularism” (Vorrang für die Beziehungen zu Verwandten, Freunden und guten Bekannten) und “Universalism” (Vorrang für die Einhaltung universeller Regeln). Dem Thema Gefälligkeitskredite kommt die folgende Testfrage am nächsten: “Stellen Sie sich vor, Sie sind Arzt bei einer Krankenversicherung und sollen die gesundheitlichen Risiken der prospektiven Versicherungsnehmer einschätzen. Würden Sie bei einem Freund ein Auge zudrücken?” “Ja”, antworten 44 Prozent der Befragten in Griechenland, 42 Prozent in Italien und 39 Prozent in Spanien, aber nur 30 Prozent in Irland und 32 Prozent in Finnland.

Deutschland ist in der betreffenden Stichprobe nicht enthalten. Aber wenn es zum Beispiel darum geht, ob man als Zeuge zugunsten eines Freundes aussagen würde, der durch zu schnelles Fahren einen Fußgänger verletzt hat, ist Deutschland zusammen mit Irland und den Niederlanden klar im universalistischen Bereich, während Griechen und Spanier viel eher dazu neigen, ihren Freund zu entlasten. (Italien fehlt in dieser Stichprobe.) In beiden Umfragen erweisen sich übrigens auch die Franzosen als stark partikularistisch. Die extrem kostspielige Abwicklung des Credit Lyonnais 1994/95 ist noch in Erinnerung.

Würden sich die Euro-Staaten im Rahmen einer europäischen Einlagenrückversicherung auf annähernd risikogerechte Beitragsätze für die einzelnen Länder einigen? Auch der idealistischste Versicherungstheoretiker wird einräumen müssen, dass damit nicht zu rechnen ist. Entweder es kommt zu einem faulen Kompromiss, der die Anreize massiv verzerrt, oder man geht im Streit auseinander, was nicht der Völkerverständigung dient. Sollte man deshalb nicht von vorneherein von dem Projekt Abstand nehmen?

Symmetrische versus asymmetrische Schocks

Die Rückversicherung wirft aber noch ein weiteres Problem auf, das nicht politisch, sondern versicherungstheoretisch bedingt ist. Die Einlagensicherung ist für systemische Schocks gedacht. Sie soll Bank Runs verhindern, die eine allgemeine Finanzkrise auslösen würden. Paradebeispiel ist ein Finanzmarktschock, der von außen – zum Beispiel wie 1929-33 und 2007/08 aus den USA – kommt. Auch ein negativer geldpolitischer Schock von Seiten der EZB käme theoretisch in Frage. In diesen Fällen sind alle Euro-Staaten betroffen. Bei symmetrischen Schocks genügt es jedoch, dass alle Mitgliedstaaten über hinreichende nationale Einlagensicherungen verfügen. Das ist durch die EU-Richtlinie von 2014 sichergestellt.

Eine europäische Einlagenrückversicherung würde dagegen dann zum Zuge kommen, wenn der Schock asymmetrisch ist, d.h. im einfachsten Fall nur einen Euro-Staat trifft. Dann ist der Schock aber typischerweise nicht systemisch, und es bedarf deshalb keiner Rückversicherung.

Außerdem wird im Versicherungsmodell unterstellt, dass die Schocks zufällig sind – zum Beispiel eine schlechte Ernte oder eine Überschwemmung. Asymmetrische Bankenkrisen sind aber in der Regel hausgemacht – so wie in den achtziger und neunziger Jahren in Griechenland, Italien und Spanien. Sie beruhen zumeist auf einer leichtsinnigen Geschäftspolitik der Banken oder einer zögerlichen Bankenaufsicht oder einer falschen Wirtschaftspolitik oder einem krassen Fehlverhalten der Tarifpartner. In allen diesen Fällen wäre es eindeutig ineffizient, die soliden Banken der anderen siebzehn Euro-Staaten zur Kasse zu bitten. Sie trifft keine Verantwortung. Der Wettbewerb zwischen den Banken würde verzerrt. Haften sollten diejenigen, die die Bankenkrise verursacht haben.

Dieser Grundsatz spricht erst recht gegen die ursprünglich vorgeschlagene Einlagensicherung der Euro-Staaten. 154 Wirtschaftsprofessorinnen und -professoren haben davor gewarnt.

Erstmals erschienen bei Ökonomenstimme.

Photo: John Lindie on Wikimedia Commons (CC0)

Von Matthias Still. Unternehmer und PR-Berater, Fackelträger bei Prometheus.

„Prognosen sind schwierig, vor allem, wenn sie die Zukunft betreffen“, sagte einst Mark Twain, spitzfindig wie der alte Haudegen nun einmal war. Aber recht hat er. Es ist alles andere als einfach, vorherzusehen, wie die Zukunft wird. Denn das würde bedeuten, heute schon zu wissen, was 7,63 Milliarden Menschen morgen machen. Und das ist eine echte Mammutaufgabe, denn die allermeisten dieser Menschen machen eben das, was sie wollen. Und nicht das, was wir von ihnen erwarten. Und das macht alles so kompliziert.

Allerdings hat diese Tatsache im Laufe der Geschichte Menschen noch nie davon abgehalten, mutige Prognosen zur Zukunft zu treffen: Das gilt für das eigene Leben („Oh nein, ich werde das nie schaffen!“) genauso wie für die große weite Welt („Das globale Wirtschaftswachstum wird um 0,2 Prozentpunkte einbrechen“). Warum ist das so? Weil der Blick in die Glaskugel Menschen seit jeher fasziniert. Gewissheit zu erlangen über all das, was eigentlich ungewiss ist, bedient unser Bedürfnis nach Sicherheit. Und verleiht Macht – zumindest denjenigen, die glaubhaft darlegen können, zu sagen, was morgen sein wird. Zu früheren Zeiten waren das oft Freiberufler aus Branchen wie der Hellseherei und der Wahrsagerei. Heute bemühen sich Wissenschaftler durch allerlei Rechenmodelle, den zukünftigen Ereignissen etwas zuverlässiger auf die Spur zu kommen. Und, zugegeben, gewisse Annäherungen an das was kommt, lassen sich dabei durchaus erzielen.

Aber man kann auch ganz schön danebenliegen. Ein berühmtes Beispiel dafür sind die Annahmen zur exponentiellen Zunahme von Pferdemist auf den Straßen von New York. Die Ausscheidungen der Vierbeiner machten den Stadtplanern der größten amerikanischen Metropole im Jahr 1850 ordentlich Sorgen. Damals wurde es immer populärer, mit der Kutsche zu reisen. Gleichzeitig stieg die Einwohnerzahl der Stadt rasant an: Von gemütlichen 60.000 im Jahr 1800 hatten sich die New Yorker vierzig Jahre später auf über 300.000 verfünffacht (die Wachstumsrate heutiger afrikanischer Großstädte ist dagegen eine Pfadfinderparty).

So war es also nicht von der Hand zu weisen, dass – rein mathematisch betrachtet – bei anhaltendem Bevölkerungswachstum und weiter wachsender Beliebtheit der Kutschfahrten New York exakt im Jahr 1910 in meterhohem Pferdemist ersticken würde, so die Vorhersagen. Doch dann kam es ganz anders: Zwar wuchs New York weiterhin im atemberaubenden Tempo und hatte an der Schwelle zum 20. Jahrhundert schon über drei Millionen Einwohner – doch die interessierten sich ganz und gar nicht für Kutschfahrten, sondern für das Automobil. Henry Ford ließ 1908 das erste Auto vom Fließband rollen und legte damit den Grundstein für den PKW als Massenprodukt. Die Pferdestärken auf vier Rädern ersetzten die bisherigen Pferdestäken auf vier Beinen. 1850 allerdings konnte das noch keiner ahnen.

Heute, mehr als 100 Jahre später, blicken wir auf das „Klimapaket“ der Großen Koalition. Auch da geht es um Fortbewegung, allerdings um die mit dem Auto (zumindest derzeit liege noch keine Pläne vor, aus Gründen der CO2-Emissionen wieder auf das Pferd umzurüsten). CDU, CSU und SPD wollen die Welt vor der Erwärmung retten und setzen in Sachen Mobilität ganz und gar auf den Elektroantrieb. Das Elektroauto pustet kaum CO2 in die Atmosphäre und soll deshalb bis zum Jahr 2030 möglichst in 10 Millionen deutschen Garagen stehen. Dafür gibt der Bund Milliarden aus: Allein eine Million Ladestationen soll es zukünftig geben (das entspricht etwa einer Station für 10 E-Autofahrer!). Und der Umstieg vom guten alten Verbrennungsmotor auf das Elektrofahrzeug soll mit üppigen Prämien subventioniert werden.

Diese Ziele mögen im Hinblick auf die Gesundung des Weltklimas ehrenwert sein, sie stoßen allerdings in der Realität gleich zweifach an ihre Grenzen: Der Autofahrer, dieser Wicht, macht schon hier und heute nicht das, was er soll. Denn bereits für das Jahr 2020 hatte sich die Bundesregierung gewünscht, dass gefälligst eine Million Elektroautos auf deutschen Straßen fahren. Doch tatsächlich sind es Ende 2019 gerade einmal 150.000. Denn leider halten die vergleichsweise hohen Anschaffungskosten die breite Masse der Bevölkerung immer noch von einem Kauf ab.

Doch was viel wichtiger ist: Der Elektroantrieb erscheint uns heute, im Jahr 2019, als ökologisch sinnvoll. Deshalb wird er mit Milliardenbeträgen gefördert. Doch genau damit gelangen andere, alternative Antriebe ins Hintertreffen. Denn die E-Mobilität ergattert sich durch die Steuermilliarden einen Wettbewerbsvorteil im Vergleich zu Brennstoffzelle, synthetischen Kraftstoffen, Autogas oder anderen Antriebsarten, die wir noch gar nicht kennen. In dem Moment, in dem die Bundesregierung üppige Subventionen für die Weiterentwicklung des Elektroautos in Aussicht stellt, lohnt sich der Aufwand nicht mehr, an Wasserstoff & Co. zu forschen. Es werden massive Anreize in eine bestimmte Richtung gesetzt. Ob dies richtig ist oder nicht, wird erst die Zukunft zeigen.

Mit dem Problem, dass Politiker oft Entscheidungen treffen, hinter denen äußerst ungewisse Annahmen stehen, beschäftigte sich bereits der Ökonom Friedrich August von Hayek (1899-1992). Der Wirtschaftsnobelpreisträger sprach in diesem Zusammenhang von einer „Anmaßung von Wissen“. Politiker können in den allermeisten gesellschaftlichen Fragen gar nicht wissen, was morgen passiert. Klüger wäre es deshalb, es dem Markt – und damit der Weisheit der Vielen – zu überlassen, welche Lösungen für ein Problem gefunden werden. Beim Automobil würde dies bedeuten, keine bestimmten Antriebsarten zu bevorzugen, sondern stattdessen alle Technologien den gleichen Wettbewerbsbedingungen zu unterziehen: Beispielsweise durch eine einheitliche Steuer auf den CO2-Ausstoß oder durch den Handel mit entsprechenden Zertifikaten.

Bis es soweit ist, dürfen wir gespannt verfolgen, ob die Bundeskanzlerin und ihr Kabinett in der Prognosefähigkeit ähnlich treffsicher sind wie die New Yorker Stadtplaner im Jahr 1850.