Small Data im großen Stil: Government Analytics macht Politik messbar
Die Einführung von Government Analytics stellt einen Paradigmenwechsel im öffentlichen Sektor dar: Auf der Basis der durch E-Government erhobenen Daten ist es jetzt möglich, die Effizienz politischer Maßnahmen zu messen und zu optimieren. Ziel ist es, administrative Prozesse transparenter zu machen und Bürokratie abzubauen. Damit hält in der Politik Einzug, was unter den Schlagworten Big Data und Business Analytics in der Wirtschaft längst gang und gäbe ist.
1 Von Business zu Government Analytics
Unternehmen setzen Echtzeit-Datenanalysen ein, um die Effizienz ihrer Geschäftsprozesse zu messen. Aus den Ergebnissen von Business Analytics können Entscheider innerhalb kürzester Zeit Maßnahmen ableiten, die Abläufe optimieren und so letzten Endes zu einer höheren Wettbewerbsfähigkeit und mehr Gewinnen beitragen. Die Prozesse der öffentlichen Verwaltung und politische Maßnahmen wie Konjunkturpakete unter diesem Gesichtspunkt zu betrachten, ist allerdings ein Novum, das durch die zunehmende Verbreitung von E-Government möglich wird. Denn durch E-Government entsteht seit einigen Jahren eine strukturierte elektronische Datenbasis, auf der Government Analytics aufsetzen kann. Unternehmen, die das Prinzip Business Analytics zu einem erfolgreichen Geschäftsmodell ausgebaut haben, sind beispielsweise die Big Player des Internets wie Amazon. Durch Daten, die bei einer Vielzahl von Einkäufen erhoben werden, weiß Amazon automatisch, dass Kunden, die eine Waschmaschine kaufen, auch einen Wäscheständer und einen Wäschekorb benötigen. Dahinter stecken Modelle und Methoden, die genauso gut im öffentlichen Bereich genutzt werden können. Zum Beispiel, um aus bestimmten Konstellationen auf eine potenzielle Kindeswohlgefährdung zu schließen.
2 Prognosen zum Erfolg politischer Instrumente
Eines der vielversprechendsten und – da es um enorme Summen geht – gleichzeitig brisantesten Anwendungsfelder für Government Analytics ist die Vergabe von Fördergeldern. Die EU unterstützt finanziell bereits seit Jahrzehnten mit dem Europäischen Sozialfonds (ESF) Maßnahmen, um Jugendliche aus prekären sozialen Verhältnissen in den Arbeitsmarkt zu integrieren. Seit einiger Zeit verlangt die EU-Kommission dafür eine ergebnisorientierte Durchführung. E-Cohesion – der digitale Förderprozess – kombiniert E-Government mit Government Analytics. Hierfür werden Daten aus einer Vielzahl von Projekten betrachtet – von Unternehmen, die schwer integrierbare Jugendliche ausbilden, über öffentliche Stellen, die Projekte an Schulen durchführen, bis hin zu Einzelpersonen, die finanzielle Mittel für eine Weiterbildung beantragen. Für jeden Einzelfall kann eine Bewertung vorgenommen werden. Aggregiert man die Daten von Tausenden von Projekten, kann man eine Aussage darüber treffen, ob eine Maßnahme tatsächlich das bezweckte Ziel erreicht, oder ob die Fördergelder an anderer Stelle besser eingesetzt wären. Werden diese Big-Data-Analysen mit hochleistungsfähigen In-Memory-Datenbanken in Echtzeit durchgeführt, erlauben sie nicht nur eine Aussage über den Status quo, sondern auch Prognosen über das voraussichtliche Ergebnis. Zum Beispiel darüber, ob der Einsatz der Gelder tatsächlich dazu führt, dass mehr Jugendliche aus sozial schwierigen Verhältnissen einen Schulabschluss machen oder dass Förderung mehr Betriebe vor der Insolvenz rettet.
3 Kostendruck zwingt öffentlichen Bereich zu mehr Effizienz
Bislang wurden die Ergebnisse von Maßnahmen mithilfe wissenschaftlicher Untersuchungen gemessen. Diese sind zwar fundiert, ermöglichen allerdings weder Echtzeit-Auswertungen noch in die Zukunft gerichtete Vorhersagen. Seitdem in zahlreichen E-Government-Anwendungen elektronisch Daten strukturiert erhoben werden, können politische Instrumente mithilfe von analytischen Werkzeugen und Mustererkennungen auf ihre Effizienz hin bewertet werden. Banken nutzen ein solches Verfahren – das sogenannte Scoring – seit geraumer Zeit bei der Kreditvergabe. Auf dieselbe Weise kann die EU mithilfe von Government Analytics Subventionsbetrug bekämpfen. Hierfür gilt es, das Wissen von Betrugsexperten in Modelle zu gießen, in IT-Systeme zu implementieren und diese Prozesse zu automatisieren. Voraussetzung für solche Auswertungen ist eine saubere Datenbasis.
Im internationalen Vergleich hat Deutschland hier großen Nachholbedarf, denn Government Analytics ist in vielen Bereichen noch Neuland. Der größte Antrieb ist der Effizienzdruck, unter dem die öffentliche Verwaltung steht. Denn trotz leerer Staatskassen steigen die Anforderungen. Die meisten Fördertöpfe sind gedeckelt, zum Beispiel zur Rehabilitation von chronisch Kranken und Unfallopfern. Durch den demographischen Wandel nimmt die Anzahl der Rehabilitanden aber in einem höheren Maße als das Budget zu. Dadurch steigt der Druck zu einer Überprüfung, ob das Geld sinnvoll investiert wird.
4 Ethik und Datenschutz im Blick behalten
Eine der höchsten Hürden für die Verbreitung von Government Analytics ist die Definition ethischer Grenzen. Denn bei der Bewertung sozialpolitischer Maßnahmen ist ein hohes Maß an Sensibilität gefragt. Es ist zwar technisch und rechtlich möglich, Daten zusammenzuführen, um etwa den Erfolg einer Rehabilitationsmaßnahme vorherzusagen. Aber gerade hier stellt sich die Frage nach der moralischen Vertretbarkeit. Darüber hinaus sind auch datenschutzrechtliche Aspekte zu berücksichtigen. Daher müssen Datenschutzbeauftragte administrativ und rechtlich genau definieren, welche Daten wofür zu erheben sind und dass personenbezogene Daten nur anonymisiert ausgewertet werden dürfen.
Werden diese Barrieren abgebaut, hat Government Analytics das Potenzial, einen Paradigmenwechsel im öffentlichen Sektor einzuleiten. Denn abstrakt ausgedrückt, lassen sich mithilfe von analytischen Werkzeugen und Mustererkennungen auf Datenbasis politische Instrumente hinsichtlich ihrer Effizienz bewerten. Das führt dazu, dass Entscheidungen nicht mehr aus dem Bauch heraus, sondern auf Faktenbasis getroffen werden, was als Evidence-based Decision Making bezeichnet wird. Auf der Mikroebene können sogar prädiktive Aussagen über den Erfolg von Maßnahmen im Einzelfall getroffen werden, die prognostizieren, welche Instrumente für welchen Langzeitarbeitslosen den größten Erfolg versprechen. Brisant wird dies, wenn es um sehr hohe Summen geht, zum Beispiel um sozial- und wirtschaftspolitische Großprojekte wie Konjunkturpakete. Das ist momentan noch Zukunftsmusik, denn für solche Analysen müsste man sehr viele Daten heranziehen. Aber letzten Endes zielt Government Analytics auf die Wirkungsmessung von politischen Maßnahmen und Steuergelder-Verwendung. Derzeit schafft die Europäische Kommission die Voraussetzungen dafür, Aussagen über große Förderprogramme, wie der Europäische Fonds für regionale Entwicklung oder der Europäische Sozialfonds, zu treffen.
5 Fazit: Auf bestem Weg zum transparenten Staat
Im ersten Schritt muss Government Analytics als Proof of Concept an kleineren Projekten getestet werden. Es gibt bereits erste öffentliche Stellen, die diesen Weg mit dem Management- und IT-Berater Sopra Steria Consulting gehen. Das Unternehmen kann im Bereich Government Analytics auf umfassende Business-Analytics-Projekterfahrung im Banken- und Versicherungssektor zurückgreifen. Hierbei gilt: Groß denken und klein anfangen. Denn der Weg zu Big Data fängt mit kleinen Datenquellen an, die Schritt für Schritt strukturiert zusammengeführt werden müssen, um immer feinere und präzisere Analysen zu erlauben. Dazu müssen zunächst Anwendungsfelder und fachliche Fragestellungen identifiziert werden, die sich hierfür eignen. Derzeit liegen viele Daten, die durch E-Government erhoben werden, brach. Werden diese Datenquellen erschlossen, zusammengeführt und analytisch ausgewertet, resultiert daraus automatisch mehr Transparenz, ganz im Sinne von Open Government. Den Bürgern werden in diesem Zuge – wenn die Ergebnisse der Datenanalysen öffentlich zugänglich gemacht werden – zahlreiche Prozesse offengelegt, in die sie bislang keinen oder kaum Einblick hatten.