Ein neuer Blick auf die Beratungsbranche: Mein Praktikum bei fbeta

Im Mai 2018 kam Thorsten als Praktikant zu uns. Einer unserer Geschäftsführer, Kai-Uwe Morgenstern, lernte ihn kennen, als er ein Projektmanagementseminar an der Universität Osnabrück gab. Hier schreibt Thorsten über seine Zeit bei fbeta und seine Erfahrungen als Praktikant in einer jungen Unternehmungsberatung.


Mein Praktikum beginnt an einem Donnerstagnachmittag mit einem kurzen Onboarding. Tags darauf bekomme ich eine tiefere Einführung in die Themen und Aufgaben, mit denen ich mich in den nächsten drei Monaten beschäftigen werde. Zu Anfang beschränken sich meine Tätigkeiten auf das Einlesen, Zuhören und Zusehen. So lerne ich schnell einiges über agile Arbeitsmethoden, allen voran das von fbeta angewandte SCRUM. Mit der Zeit steige ich mehr und mehr in die Arbeitsweisen und -felder der Firma ein.

Die nächsten Arbeitswochen vergehen schnell. Vor allem durch die ständige Abwechslung der Tätigkeiten wird es nicht nur selten langweilig, auch gleicht kaum ein Tag dem anderen. Ich arbeite ausschließlich vom Berliner Büro aus. Dabei reichen meine Aufgaben von einfachen Büro- und Rechercheaufgaben über die intensive Unterstützung bei der Produktion und Vorbereitung von Workshops bis hin zum eigenständigen Wireframing und zur Methodenentwicklung.

Eigenständigkeit wird hier großgeschrieben

Ich merke schnell, dass Eigenständigkeit bei fbeta großgeschrieben wird. Die Anweisungen, die ich bekomme, sind oft weit gefasst und lassen einiges an Interpretationsspielraum offen. Das ist Fluch und Segen zugleich. Zum einen muss ich mich schnell und gründlich in die Aufgaben einarbeiten. Dadurch ist die Lernkurve steil. Gleichzeitig arbeite ich oft ohne genau zu wissen, ob ich in die richtige Richtung arbeite. Die Kolleginnen und Kollegen stehen mir zwar jederzeit für Nachfragen zur Seite, aber aller Anfang ist schwer.

Nach dem ersten Drittel meiner Zeit findet in Berlin ein großer Firmenlauf mit mehr als 17.000 Läuferinnen und Läufern statt – ich bin mit fbeta auch am Start. Das Event ist eine schöne Abwechslung zum Büroalltag und auch sportlich für alle ein Erfolg.

Je länger ich bei fbeta arbeite, desto leichter geht die Arbeit von der Hand. Zunehmend werde ich tiefer in Projekte eingebunden und meine Freiheiten steigen genauso schnell wie die Verantwortung, welche mir zuteilwird.

Dabei fühle ich mich stets nicht nur fachlich, sondern auch persönlich gut in das Team eingebunden. Der Umgang ist freundlich und direkt, unabhängig davon ob mit jungen Kolleginnen und Kollegen, erfahrenen Beraterinnen und Beratern oder den Geschäftsführern: das Du gehört bei fbeta zum guten Ton. Kleinere Reibungen in den heißen Phasen gehören zwar auch dazu, der Respekt füreinander wird aber großgeschrieben.

Mein Fazit

Die drei Monate bei fbeta haben mich positiv überrascht und mein Bild der Beratungsbranche deutlich verändert. Ich konnte viel lernen und habe einen tiefen Einblick in die Arbeit der Firma bekommen, dabei wurde ich nicht nur fair behandelt, sondern auch angemessen entlohnt. Das Praktikum gefiel mir so gut, dass ich noch vor dessen Ablauf einen unbefristeten Arbeitsvertrag für die Zeit nach meinem Studium bei fbeta unterschrieben habe.


Wir bedanken uns ganz herzlich bei Thorsten für die großartige Unterstützung und freuen uns schon, ihn bald wieder bei uns zu begrüßen!

IT – nur Infrastruktur oder strategisch relevant?

Die Frage nach der strategischen Relevanz von IT lautet zugespitzt, ob IT einen Wettbewerbsvorteil generieren kann. Die Frage ist nicht neu und Nicholas Carr hat auch schon 2003 eine Antwort darauf gegeben: “IT doesn’t matter.” Etwas, das der Wettbewerb auch hat oder kurzfristig haben kann, kann keinen Wettbewerbsvorteil erbringen [1]. Und Standard-Software, die auf dem freien Markt verfügbar ist, kann der Wettbewerb kurzfristig haben – umso mehr, wenn sie aus der Cloud kommt und die Kosten mit der Nutzung skalieren, und damit die gravierendsten Nachteile einer on premise-Installation entfallen. Entsprechend rät Carr, IT als Commodity zu behandeln, das heißt vor allem Risiken und Kosten zu minimieren.

Das kann man natürlich auch als Aufforderung verstehen, statt IT-Commodity Individuallösungen einzusetzen, oder zumindest beim den individuellen Anpassungen in die Vollen zu gehen, um besser zu sein als die Konkurrenz. Und das passiert natürlich auch tagtäglich – insbesondere, wenn die Anforderungen von Personen definiert werden, die keine Verantwortung für Kosten oder Wartbarkeit tragen. Dinge anders zu machen ist aber kein Selbstzweck. Die Frage ist letztlich, ob der letzte Schnörkel selbst an einer geschäftskritischen Anwendung wie einem CRM oder einem ERP wirklich dazu führt, dass man etwas deutlich besser oder billiger machen kann als die Konkurrenz – in der Strategieterminologie: einen Kosten- oder Differenzierungsvorteil erzielt – und ob dieser die höheren Kosten (und oft Komplexität und Risiken!) wirklich wert ist.

Natürlich gibt es proprietäre Technologien, die zentral für das Geschäftsmodell eines Unternehmens sind, ob bei etablierten Giganten wie Google oder auf Tech-Start-Ups wie Jobspotting. Das gilt aber nicht unbedingt für alle Technologieunternehmen – bei Facebook z.B. generieren die Netzwerkeffekte in der Nutzerschaft wohl den zentralen Wettbewerbsvorteil (d.h. man wechselt nicht zu Google+ oder Ello, weil alle Freunde und Bekannte ja bei Facebook sind), ggf. zusammen mit der abhängigkeitserzeugenden User Experience, die viele in jeder freien Sekunde reflexartig zum Smartphone greifen lässt.

Für die meisten Firmen aber gilt: Die IT ist nur eine Komponente komplexer organisatorischer Fähigkeiten. Es ist offenkundig übertrieben, zu behaupten, IT wäre (strategisch) irrelevant, aber im Regelfall sind Investitionen in IT nur das Startgeld. Über den Sieg entscheiden sie nicht. Das heißt aber umso mehr, dass man genau hinschauen muss und ernsthaft IT-Strategie betreiben [2].

Die Behauptung, dass der Wettbewerb immer härter werde, verpflichtet ja inzwischen – schon in den 90ern war ja von „Hypercompetition“ die Rede – zu einem Einwurf ins Phrasenschwein. Inwiefern das wirklich stimmt, ist je nach Branche durchaus unterschiedlich, und entsprechend muss sich auch die Strategiemethodik unterscheiden – aber das ist Thema genug für einen eigenen Post. Unser hier beschriebener Ansatz für IT-Strategie z.B. ist insbesondere relevant für große Organisationen mit gewachsener Komplexität in Technik und Organisation in reifen Märkten.

Trotzdem ist klar, dass Wettbewerbsvorteile i.d.R. nur temporär sind, weil die Konkurrenz nachzieht oder weil irgendwann das ganze Produkt oder die ganze Leistung sich überlebt haben (welchen Vorteil stiftet umfassendes Wissen über das Pferdedroschkengeschäft außerhalb von Touristenattraktionen?). Die Strategieliteratur hat das spätestens mit Rita Gunther McGrath anerkannt und Innovationen als Quelle zumindest temporärer Wettbewerbsvorteile in den Fokus gerückt. Mit einem innovativen Prozess, Produkt, Service oder Geschäftsmodell kann man wenigstens eine Zeitlang die Konkurrenz ausstechen.

Was heißt das für die IT?

Ob die IT einen strategischen Wettbewerbsvor- oder Nachteil erzeugt, hängt weniger von einer bestimmten Anwendung oder Funktion ab, sondern viel mehr davon, wie die Architektur, die IT-Organisation und die Integration der IT ins Unternehmen die Gesamtorganisation dabei unterstützen, Verbesserungspotenziale zu erkennen, Lösungsideen zu entwickeln, zu pilotieren und auszurollen. Und wieder einzustellen.

Und konkret (ohne Anspruch auf auch nur annähernde Vollständigkeit, diese Fragen bieten Stoff für einige Posts…):

  • Architektur: Konfigurierbare Plattformen statt hartverdrahteter Funktionen. Eine Serviceorientierte Architektur (SOA) statt monolithischer Host-Applikationen. Virtualisierung. Ich weiß, das klingt alles bekannt, aber es gibt sie noch in großer Zahl, die Legacy Systeme. In der Tat muss man wiederum genau hinschauen, wie Kosten und Nutzen einer Ablösung sich verhalten. Schwierig dabei ist, dass der Nutzen der höheren Innovationsfähigkeit sich schlecht vorab in Euro bemessen lässt, während die Kosten, insbesondere bei Core-Systemen, schnell sehr hoch werden. Ein gutes Argument für eine iterative Vorgehensweise, bei der nicht nur die Technik, sondern möglichst auch der Business Case vorab prototypisch geprüft wird.
  • Organisation: Agile Umsetzung statt umfangreicher Vorab-Konzeption. Kontinuierliches Deployment kleiner Pakete von Changes statt monatelanger Releasezyklen. Auch das klingt plausibel, ist aber in der Praxis nicht so einfach, wenn z.B. eine Website mit dem Backend auf Basis von Standardsoftware integriert ist, deren Hersteller deutlich behäbiger agiert.

Gut gemachte IT ist das Werkzeug, um immer neue strategische Vorteile zu schnitzen, zu erproben und die besten auszubauen und zu behalten. IT kann das Handwerkzeug für stetige und haltbare Innovation im Unternehmen sein, denn IT kann die Mittel liefern, auf Basis der wissenschaftlichen Methode Innovationen und Strategieoptionen zu vertesten. Auf das die besten Ideen und Strategien das Unternehmen nachweislich voranbringen. (Mehr dazu in einem der nächsten Posts.)


 

[1] Das wettbewerbliche und damit das Rendite-Potenzial einer Ressource oder Fähigkeit kann man z.B. anhand des VRIO-Schemas abschätzen: Ist die Fähigkeit oder Ressource valuable (d.h. für den Kunden interessant oder hilfreich im Ringen mit der Konkurrenz), rare (selten), inimitable (d.h. kann sie leicht nachgeahmt oder ersetzt werden?) und ist die Organisation richtig organisiert, um diesen Vorteil auch zu nutzen?

[2] Eine weitere Frage zur Beurteilung der strategischen Relevanz ist, ob die jeweils unterstützten Fähigkeiten den Primär- oder Supportprozessen der Organisation zuzurechnen sind.

Die Macht der kleinen Stücke

Meiner Erfahrung nach gibt es einen Klassiker der Projektarbeit. Die Arbeitspakete werden erdacht und geschnürt. Schön aneinandergereiht und in Abhängigkeit gebracht. Zum Schluss bekommt jeder seine Pakete und nimmt sie mit zur Arbeit.

Jeder beginnt zu arbeiten und berichtet regelmäßig 23% eines Arbeitspakets erledigt zu haben. Das geht gut und gerne sechs Wochen so. Die Prozentzahl wächst leicht pro Woche. Am Ende der Planung ist das Paket nicht fertig. Da war doch noch jede Menge mehr zu tun. War am Anfang schlecht abzusehen. War schwierig zu beginnen, und irgendwie kam zwischendrin neue Erkenntnis.

Alles korrekt, aber das Projekt ist außer Time und Budget und sechs Wochen lang hat es keiner gemerkt. Woran liegt das? Ich denke, je größer und abstrakter eine Aufgabe ist, desto schlechter ist sie zu greifen und zu erledigen. Desto größer sind die inneren Hürden, die die große Aufgabe schwer und unfassbar machen.

Eine Aufgabe wie „Fachkonzept schreiben und in sechs Wochen fertig sein“ ist für die allermeisten Menschen viel schwerer zu erledigen als z.B. „Drei Kollegen fragen, wer am neuen Fachprozess teilnimmt, in das zweite Kapitel ‚Akteure‘ des Fachkonzepts schreiben und übermorgen fertig sein“.

Konkrete Aufgaben für kurze Erledigungszeiträume sind meiner Beobachtung nach für die allermeisten Menschen viel besser zuverlässig zu erledigen. Ein weiterer Vorteil ist, für den Projektstatus reicht ein erledigt/nicht erledigt, da bei Aufgaben, die nur ein bis zwei Tage dauern sollen eigentlich immer Zeit ist bei Problemen gegenzusteuern. Projektmanagement bekommt dadurch viel mehr und direkter Handlungsmöglichkeiten.

Untersuchungen stützen meine Meinung. Die Standish Group stellte mit ihrem 2011er Report fest, dass agile Projektmethoden dreimal so oft zu Projekterfolg führen, wie klassische Wasserfallansätze.

„LAW OF THE EDIBLE ELEPHANT: The only way to eat an elephant is one bite at a time.“

Unternehmer in der Bürokratie

Kürzlich wurde ich gebeten, ein Strategietraining für eine konservative, hierarchische Organisation zu entwickeln – allerdings nicht für die obere oder mittlere Führungsebene oder den Führungskräftenachwuchs, sondern für die Arbeits- und untere Führungsebene! Das ist schon bemerkenswert, wird Strategie doch klassisch als Vorrecht des Top Managements verstanden. Und natürlich müssen Strategiekonzepte zur Kultur einer Organisation passen.

Allerdings verfügt die Organisation auf allen Ebenen über hochqualifiziertes Personal, oftmals promoviert und Expertinnen und Experten auf ihrem jeweiligen Gebiet, deren Potenzial es besser zu nutzen gilt.

Für die Schulung war es mir daher wichtig, neben den klassischen Methoden der internen und externen Analyse und der Strategieentwicklung drei Akzente zu setzen:

 1. Wie Robert Grant es in seinem klassischen Strategielehrbuch so unverblümt auf den Punkt bringt: „Strategy is about winning!“ Ein Aspekt, der ei primär fachlich orientierten Experten leicht in den Hintergrund rücken kann, der aber für das Verständnis und die zielorientierte Anwendung von Strategiemethoden von ganz zentraler Bedeutung ist. (Das ist allerdings ein Thema, das ich an anderer Stelle vertiefen werde.)

2. Strategie heißt Priorisieren und Auswählen, denn wer alles macht, macht nichts richtig (auch das ein Thema für einen eigenen Post).

3. Effectuation – ein Strategiekonzept, das aus dem Vorgehen erfolgreicher Unternehmer abgeleitet wurde.

Effectuation unterscheidet sich durch die zugrundeliegenden Prinzipien radikal von einem klassischen Strategieverständnis:

1. Mittelorientierung (‘Means‘) – Ausgangspunkt sind nicht Ziele (für die man oft nicht die über die notwendigen Mittel verfügt), sondern eben die verfügbaren Mitte – nicht nur Geld, sondern Werte, Wissen, Fähigkeiten und Beziehungen – von denen ausgehend man beginnt, Ziele zu entwickeln.

 2. Leistbarer Verlust (‘Affordable Loss‘) – Handlungsoptionen werden nicht danach ausgewählt, dass sie den maximalen Ertrag versprechen. Stattdessen postuliert das Prinzip des leistbaren Verlusts, schrittweise vorzugehen und sich auch auf Experimente einzulassen – solange das Risiko verkraftbar ist.

 3. Partnerschaften (‘Co-Creation Partnership‘) – Unternehmer gehen bindende Partnerschaften mit anderen ein, die bereit sind, etwas einzubringen. Abhängig davon, wer an Bord ist und was diese mitbringen, ändert sich die Zielrichtung des gemeinsamen Vorhabens.

4. Das Unvorhergesehene nutzen (‘Leverage Contingencies‘) –  es wird nichtprimär versucht, Überraschungen zu vermeiden, sondern im Gegenteil sucht man das Unvorhersehbare, um es nutzbar zu machen. Dabei ändern sich oft auch die angestrebten Ziele wieder.

5. Kontrolle statt Vorhersagen (‘Control vs. Predict‘) – statt zu versuchen, die Zukunft oder mögliche Szenarien vorherzusagen und darauf zu reagieren, propagiert der Effectuation-Ansatz, die Zukunft zu gestalten, indem man sich auf die Handlungsmöglichkeiten konzentriert, deren Erfolg in den eigenen Händen liegt.

Dieser handlungsorientierte Ansatz ist offenbar besonders geeignet für Märkte und Situationen mit hoher Dynamik und Unsicherheit, beispielsweise für völlig neue Produkte und Geschäftsmodelle, deren Erfolg man auch mit Marktforschung nicht vorhersagen könnte, da die potenziellen Nutzer nicht realistisch einschätzen können, ob und wie sie das Produkt nutzen wollen (wer hätte den Erfolg von Twitter prognostiziert?). Oder für Märkte, in denen es zu rapiden technischen Umwälzungen kommt (also zunehmend bei allem, was digitalisierbar ist).

Warum glaube ich dann, dass Effectuation das strategische Repertoire auch einer konservativen Organisation in einem reifen Markt sinnvoll ergänzen kann – und das auf den unteren Hierarchieebenen?

  • Weil der Ansatz von den verfügbaren Mitteln ausgeht, kann jeder auf seiner Position unmittelbar aktiv werden, ohne Anträge zu stellen und auf Budgetfreigaben zu warten – und das umso mehr, da es sich um hochqualifizierte Fachleute handelt!
  • Das Prinzip der Partnerschaften fördert bzw. nutzt Netzwerke in der Organisation über Abteilungs- und Fachgrenzen hinweg. Damit wird eine ganz wesentliche Voraussetzung für Innovationen geschaffen.
  • Die entstehenden Initiativen stellen Optionen dar – aus denen (ganz im Einklang mit der Kultur dieser Organisation) das Top Management diejenigen auswählen kann, die besonders gefördert oder in der Breite ausgerollt werden sollen.
  • Schlussendlich bin ich zudem überzeugt, dass ein solcher Ansatz die Mitarbeiterinnen und Mitarbeiter stärker motiviert und befriedigender ist, als lediglich für eine einzelne Kennzahl einer Balanced Scorecard die Verantwortung zu tragen. Und das ist ein nicht zu unterschätzender Aspekt im immer schärfer werdenden Wettbewerb um gutes Personal!

Weihnachtswunsch für eine Telematikinfrastruktur

Als Bürger und gesetzlich Versicherter glaube ich an das Potential einer Telematik-Infrastruktur im deutschen Gesundheitswesen. Mit Interesse habe ich daher die Erklärung gelesen, dass ein neues E-Health-Gesetz in Planung ist, welches den Aufbau der Telematik-Infrastruktur beschleunigen (ermöglichen?) soll.

Ich persönlich glaube, dass es ein paar grundsätzliche Änderungen der aktuellen (Gesetzes-)Lage braucht, um die Telematik-Infratruktur sinnvoll ans Laufen zu bekommen.

Ich schreibe daher im Folgenden einige Gedanken, die ich mir persönlich zur Grundstruktur eines verbesserten Gesamtkonstrukts gemacht habe, in der weihnachtlichen Hoffnung, dass jemand sie liest und sich Gedanken beim laufenden Gesetzgebungsprozess dazu macht.

Vorschlag einer optimalen Struktur zur Beschleunigung der Einführung der Telematik-Infrastruktur:

Ein neues E-Health-Gesetz sollte Regelungen zu zwei Aspekten treffen.

Teil 1 – Kommunikationsinfrastruktur

Der Auftrag der gematik wird klar festgelegt und reduziert auf:

·         Aufbau der Basis-TI

·         Aufrechterhaltung der Basis-TI

·         Technologische Weiterentwicklung der Basis-TI

·         Kontrolle und Zertifizierung der Technologieanbieter

·         Kontrolle und Zertifizierung von beliebigen Fachanwendungen zum Betrieb auf der Basis-TI

Im Rahmen der gematik wird explizit kein fachliches Projekt mehr betrieben und keine fachliche Diskussion geführt. Alle fachlichen Gremien werden abgeschafft. Einziger Gesellschafter der gematik wird die GKV, da es sich lediglich um eine Technikgesellschaft handelt. Die Leistungserbringer werden über den Beirat eingebunden.

Ziel der Basis-TI soll es sein den Teilnehmern des Gesundheitswesens einen sicheren und diskriminierungsfreien Zugang zum Online-Datenaustausch untereinander zu gewährleisten. Hierfür sind technisch notwendige Dienste (z.B. sichere Kommunikationswege, eGK als Willenswerkzeug des Versicherten, HBA als Willens-/Signaturwerkzeug des Leistungserbringers) zur Verfügung zu stellen, die fachliche Anwendungen nutzen können.

Die Verantwortung (inhaltlich und finanziell) für jegliche Fachanwendungen liegt ausschließlich bei den aufbauenden und betreibenden Organen der Fachanwendung.

Sobald die technischen Komponenten für die Basis-TI verfügbar und getestet sind, erhalten die einzelnen Leistungserbringer die Möglichkeit zum Erwerb der Onlineanbindungskomponenten (Konnektoren). Alle Leistungserbringer, die nicht innerhalb eines Jahres nach Zurverfügungstellung der Komponenten nachweislich online sind, erhalten pauschal einen Abzug von 5% auf Ihre Vergütung (analog DTA).

Mit diesem Konstrukt soll ein marktoffener Zugang für sichere elektronische Kommunikation im Gesundheitswesen schnellstmöglich hergestellt werden.

Teil 2 – Fachliche Anwendungen

Die Verpflichtung für den Aufbau jeglicher, bisherigen fachlichen Anwendungen wird aus dem Gesetz entfernt. Im Allgemeinen hat sich der Gesetzgeber als wenig erfolgreich beim festlegen technischer Anwendungen erwiesen (siehe z.B. ELENA, DE-Mail, ePersonalausweis). Hier sollte dem Markt der Teilnehmer des Gesundheitswesens selbst die Auswahl überlassen werden.

Beliebige Teilnehmer im Gesundheitswesen können auf eigene Verantwortung Anwendungen auf der TI betreiben, wenn Sie die Sicherheits- und Betriebskriterien der gematik erfüllen und dort erfolgreich zertifiziert werden. Dies soll fördern, dass nur Anwendungen bestehen, für die es Nutzer und Nutzen gibt.

10% des geplanten Innovationsfonds werden reserviert für Anträge auf Projekte, die eine neue fachliche Anwendung auf der TI aufbauen und direkt in der Versorgung erproben wollen. Dies soll einen Startbonus für medizinisch/versorgungsrelevante innovative Anwendungen schaffen, um möglichst von Anfang an einen breiten Wettbewerb um die besten Anwendungen zu ermöglichen.

Analog des amerikanischen Projekts des „Meaningful Use“ wird zusätzlich durch ein Expertengremium (z.B. beim GBA?) ein Stufenplan für sinnvolle Reifegrade von Gesundheits-IT aufgestellt. Jede Stufe sollte einen höheren Grad an IT-Unterstützung beim Leistungserbringer darstellen. Jede Stufe sollte zudem einen höheren Grad an Qualität und Transparenz in die medizinische Versorgung bringen. In Fortführung der Interoperabilitätsstudie des BMG wird durch das Expertengremium ein fortzuschreibender Katalog an Kommunikationsstandards festgeschrieben, die es durch die Software zu unterstützen gilt, wenn eine Stufe/ein Qualitätsindikator geltend gemacht werden soll. Ziel ist der Stufen muss es sein zunehmend die folgenden Punkte zu unterstützen:

  • Verbesserung der Koordination in der Versorgung

  • Reduzierung von Brüchen und Diskrepanzen im Gesundheitswesen

  • Aktivierung und Einbindung von Patienten und ihren Familien

  • Gesamtverbesserung der Gesundheit auf Bevölkerungsniveau

  • Angemessene Privatsphäre und Sicherheit zu gewährleisten

Um das erreichen einer Stufe nachzuweisen, ist der Leistungserbringer (z.B. Arzt, Arztnetz, Krankenhaus,…) verpflichtet dazu passende Qualitätsindikatoren (z.B. aus QiSA) elektronisch, online an eine zentrale Stelle (DIMDI?) zu übermitteln. Diese Indikatoren können dann öffentlich für Patienteninformation und Versorgungsforschung genutzt werden.

Beim Nachweis einer Stufe erhält der Leistungserbringer (oder Leistungserbringerverbünde z.B. bei Netzakten) entsprechend seiner Stufe, der Art des Leistungserbringers und der Qualitätsindikatoren eine durch das Expertengremium finanzielle Kompensation für die Einführung der IT.

Mit diesem Konstrukt soll ein Rahmen geschaffen werden, der es den Akteuren im Gesundheitswesen ermöglicht in einen Wettbewerb um die beste Versorgung, unterstützt durch IT, zu treten. Die Qualitätskriterien sollen hier die Anreizrichtung vorgeben. Damit dieser Wettbewerb jedoch von einzelnen IT-Herstellern nicht genutzt wird, um eine ungünstige Marktbeherrschung herbeizuführen, sind klare Vorgaben für Interoperabilität notwendig.