Schlagwort-Archive: code for germany

Verwaltungsdigitalisierungsinfluencer vs. ArchitektInnen

Die Videos des „Akkudoktor“ Andreas Schmitz rund um Klein-Photovoltaikanlagen sind in Teilen meines Bekanntenkreis lange Pflichtprogramm. Da nerdet sich jemand richtig tief ins Thema rein (und ist auch schon vom Fach), testet Geraete tiefer auf Herz und Nieren als so manchem Hersteller das lieb ist und macht das derweil, ohne dabei was verkaufen zu wollen – weil er an den damit verbundenen hoeheren Zielen interessiert ist.

Im oben eingebetteten Video teilt er gute und schlechte Erfahrungen im Umgang mit Herstellern und wie das normalerweise mit Influencern und Influencer-Agenturen so laeuft – und da fiel es mir wie Schuppen aus den Haaren, dass das in weiten Teilen auch Erwartungshaltung sowie Spannungsfeld zwischen zivilgesellschaftlichem Civic-Tech-Einsatz und Verwaltung – und insbesondere Smart City – widerspiegelt.

Als Gold-Standardfall nennt Schmitz, dass es nach einem von ihm gemeldeten Problem sofort eine Krisensitzung gab, die Entwicklungs-/Engineering-Abteilung einbezogen wurde, er offenbar auch direkten Draht dorthin bekam und er die naechsten Schritte dargelegt bekam, was nun zur Fehlerbehebung passieren wuerde.
Das Negativbeispiel, das bei Influencermarketing normal sei: Man habe nur Kontakt zu einer Influenceragentur. Die hat gar keinen Durchgriff aufs Produkt und bezahlt einen im Zweifelsfall, dass man gefundene Probleme nicht an die grosse Glocke haengt und die Schnauze haelt.

Kommt bekannt vor? Mir schon. Mit dem spannenden Unterschied, dass es die Entwicklungs- und Engineering-Abteilung z.B. in der Smart City meist nie im eigenen Haus gibt. Und es dementsprechend diesen Feedback- und Lösungs-Cycle gar nicht geben kann. Weil quasi jeder Schmarrn von externen Dienstleistern entwickelt wird – die manchmal brauchbares Requirement Engineering vom oeffentlichen Auftraggeber bekommen. Meist aber nicht.

Bei mancher oeffentlichen Stelle wuerde ich mittlerweile aus der Erfahrung im Austausch mit den an der Sache interessierten zivilgesellschaftlichen Engineers (w/m/d) und der behoerdlich eingerichteten Digitalisierungsagentur mittlerweile auch sagen: Das ist mehr Influencer-Agentur denn an der langfristigen Entwicklung interessierte Einheit. Denn sie sind nicht nur von den zu entwickelnden Produkten und Infrastrukturen so weit weg wie die Influencer-Agentur. Sondern ihnen ist im schlimmsten Fall das langfristige ideelle Ziel weniger wichtig als die akute oeffentlichkeitswirksame Darstellung.

Vor dem Hintergrund bin ich gerade auch etwas professionell angepisst vom neuerlichen Vorstoss der Social Entrepreneurs von ProjectTogether, die heute ihr neues rework-Programm vorstellten, mit dem nun alles bei der Verwaltungsdigitalisierung besser werden soll. Nicht nur, dass mir das gesamte Social-Entrepreneur-Wesen von Grund auf unsympathisch ist – ich halte diese Verlagerung von Verantwortung in Startups fuer Teil des Problems, nicht der Loesung. Dazu kommt, dass die Truppe mir mit UpdateDeutschland noch enorm schlecht in Erinnerung ist. Nach dem Event gab es einen Austausch mit Aktiven des Netzwerks Code for Germany, bei dem in kurzer Zeit immer deutlicher wurde, dass der ganzen Veranstaltung kaum vorbereitende Recherche vorausgegangen war, was es bislang schon gab und was weswegen (nicht) funktioniert hatte.

Ich persoenlich haette schon gerne, dass das mit der Verwaltungsmodernisierung was wird. Wenn dann brauchen wir aber mehr Austausch wie den, den Andreas Schmitz beschreibt. Und in vielen Faellen muss dafuer erst einmal die Entwicklungs- und Engineering-Abteilung im Staat erst mal wieder internalisiert und als wichtig eingeordnet werden, anstatt das weiterhin auf Dienstleister auszulagern. Einfach nur dasselbe Silicon-Valley-Cosplay weiter nachzumachen, wird lediglich auch in Deutschland laengst (mehrfach) abgespielte Playbooks nochmal von vorne auffuehren. Dabei den naechsten Schwung ueberzeugter EnthusiastInnen in den Burnout schicken. Denjenigen, die daraus dann eine Buehne machen, hat das bislang selten geschadet. Ich wuerde aber gerne endlich mal wieder die Sache im Vordergrund sehen.

Der GovTech-Campus und der lange Schatten des New Public Management

Der frisch präsentierte Digitalbeirat Ende November 2022 – kann natürlich nichts für den GovTech-Campus

Jetzt will’s die Bundesregierung wissen mit der Digitalisierung. Vergangenen Mittwoch stellte Digitalminister Wissing den Beirat für die Umsetzung der Digitalstrategie vor. Mehrere Ministerien haben Konsultationsprozesse für ihre Digitalvorhaben gestartet – wenngleich vereinzelt wohl nicht allzu umfangreiches Feedback gewollt war. Neben den Digitallaboren, Experimentierräumen und anderen Flaggschiffen existiert zudem seit Anfang diesen Jahres der GovTech-Campus in Berlin. Auf diesen lud der Bundes-CIO Markus Richter unlängst die Podcaster Philip Banse und Ulf Buermeyer ein, die in der Lage der Nation (Ausgabe 313, Kapitel 6 ab 36:53) begeistert von ihrem Besuch dort berichten.

Das ist aus zwei Gründen bemerkenswert. Erstens wegen des GovTech-Campus selbst, seiner Organisation als eingetragener Verein, in dem Unternehmen für mehrere tausend Euro Mitglied werden können, und der Tatsache, dass dort Ministerien und privatwirtschaftliche Dienstleister unter demselben Dach sitzen und „gemeinsam“ IT-Dienstleistungen entwickeln. Die Lage hebt das als positives Beispiel hervor.
Zweitens, weil eher im Nebensatz erwähnt wird, dass es seit vielen Jahren auch eine aktive digitale Zivilgesellschaft in diesem Bereich gibt. Die ehrenamtliche Zivilgesellschaft hat im Konzept des GovTech-Campus aber gar keinen Raum, und wird in der Lage auch nur im Rahmen von Hackathons erwähnt, die an den Bedürfnissen vorbei entwickeln würden.

Derweil kann man argumentieren, dass die Situation, in der die öffentliche Hand bei ihren Digitalisierungsbestrebungen stets auf externe Dienstleister angewiesen ist und mit der Zivilgesellschaft allenfalls im Rahmen von Hackathons interagieren kann, eine Konsequenz des New Public Management ist. In diesem Denkmodell wird die Bevölkerung zu „Kund*innen“ des Staats, der sich – auch in genuinen Aufgaben der Daseinsvorsorge – wie ein Unternehmen verhalten soll. Das heißt zum Beispiel, dass Abteilungen sich untereinander ihre Leistungen in Rechnung stellen. Aber auch, dass Leistungen der öffentlichen Hand an Unternehmen oder eigene Gesellschaften ausgelagert werden. Ein Engagement außerhalb dieser Wirtschaftslogik ist gar nicht vorgesehen – das heißt, die umfangreiche praktische Digitalisierungsexpertise aus dem Ehrenamt zerschellt regelmäßig an der staatlichen Organisationspraxis.

Schon für die Anforderungsbeschreibung von Digitalprojekten braucht es externe Beratung

Wünschewand beim OpenCityCamp 2012

Das hatte gerade für die Digitalisierung fatale Folgen. Anstatt IT-Architekturkompetenzen auf allen Ebenen der föderalen Verwaltung aufzubauen, bestimmt seit Jahren eine Reihe externer Dienstleister, wohin der Staat digitalisiert. Was auf den ersten Blick wie eine Effizienzsteigerung klingt – denn natürlich sollen nicht über 11000 Kommunen jeweils ihre eigene Softwarelösungen entwickeln – führte über die Jahre zu einem weitreichenden Kompetenzverlust schon bei der Bestimmung, was eigentlich die Anforderung an die zu bauenden Softwarearchitekturen sind. Als Nebeneffekt kann es dann auch schon einmal vorkommen, dass die beschaffte Software am Ende gar nicht für den gedachten Einsatzzweck taugt und das Projekt für die Katz war. Lilith Wittmann nennt das in ihrer kritischen Besprechung des GovTech-Campus die „Beratertreppe“: Die laufende Externalisierung von Kompetenzen wurde zur selbstverstärkenden Spirale, so dass seit Langem schon für die Erstellung der Ausschreibungen für ein Softwareprodukt externe Beratung herangezogen werden muss.

Diese Erfahrung haben in den vergangenen Jahrzehnten auch immer wieder Ehrenamtliche aus der Zivilgesellschaft gemacht. Analog zur Civic-Tech-Bewegung in den Vereinigten Staaten entstanden in den späten 2000er-Jahren auch in Deutschland Gruppen Freiwilliger, die am praktischen Beispiel aufzeigten, was mit den Mitteln der Informationstechnik eigentlich möglich wäre. Als Instrument der Selbstermächtigung und zivilgesellschaftlichem Gegenstück zu Open Government entstanden Transparenz fördernde Auswertungen offener Daten, aber auch ausgereifte Beispiele, wie die öffentliche Hand ihre Leistungen für die Bevölkerung noch besser benutzbar machen kann.

All diese Gruppen stießen jedoch früher oder später auf die immer selben strukturellen Hürden, wenn es darum ging, dass der Staat ihre Ideen auch aufgreift und sich zu eigen macht. In ihrem Buch „A civic technologist’s practice guide“ beschreibt die ehemalige leitende 18F-Mitarbeiterin Cyd Harell zwei notwendige Schritte für die erfolgreiche Anwendung von Civic Tech: „Showing what’s possible, and doing what’s necessary“. Dieser Pfad, dass Ehrenamtliche aus der Zivilgesellschaft zeigen, was möglich wäre, und der Staat dann das Notwendige tut, um sich diese Beispiele zu eigen zu machen, scheint in Deutschland aber fast nirgendwo vorgesehen zu sein. Meist ist man entweder zivilgesellschaftliche „Kund*in“ des Staats und kann allenfalls im Rahmen von Anhörungen und Feedbackrunden Jahr für Jahr dieselben Post-Its auf Metaplanwände kleben – oder man muss selbst Dienstleister*in werden und sich beauftragen lassen, der eigenen Idee irgendwo im Wildwuchs der Verwaltungs-IT ein Gärtchen bestellen zu dürfen. 

Für gestaltende Zivilgesellschaft ohne wirtschaftliches Interesse gibt es in diesem Denkmodell keinen Raum

kleineAnfragen.de: 2014–2020

Für die Unterstützung der Umsetzer-Rollen gab es über die Jahre verschiedene Ansätze: Inkubatorprogramme, Förderlinien, Kooperationen mit Umsetzungspartnern aus der Wirtschaft. Das waren aber allesamt lediglich unterschiedliche Geschmacksrichtungen entweder von Firmengründungen oder kurz- bis mittelfristigen finanziellen Förderungen, damit Weiterentwicklung und vor allem Wartung und langfristiger Betrieb wenigstens nicht in der Freizeit der Beteiligten passieren musste. Wir haben im Ergebnis bis heute keinen Ansatz, um langfristig einen Pfad zu ebnen, dass die öffentliche Hand selbst fertige, von der öffentlichen Hand direkt übernehmbare Produkte wie kleineanfragen.de auch selber betreiben könnte, und sei es über Konstrukte wie die kommunalen Rechenzentrumsverbünde. An die Stelle von Civic Tech aus einer engagierten Bürgerschaft und einer Verwaltung, die selbst in der Lage ist, aus deren Erfahrungen zu lernen, ist GovTech getreten – also die vollständige Abhängigkeit von Firmen, die teils den Staat als einzigen Kunden für ihre Produkte haben.

Das ist auch eine Erfahrung der Zivilgesellschaft aus jahrelanger Beschäftigung im Austausch mit der Verwaltung – sei es bei selbst organisierten Barcamps oder der Beteiligung an Hackathon-Formaten. Und hier zeigt sich eine weitere problematische Konsequenz dieser Kompetenzauslagerung durch den Staat. Eher im Nebensatz erwähnt Philip Banse, dass es neben dem ebenfalls auf dem GovTech-Campus vertretenen Digital Service des Bunds auch Ehrenamtsnetzwerke wie Code for Germany gebe – aber die würden ja eher Hackathons machen und an den Bedarfen der öffentlichen Hand vorbei entwickeln.

Aus Sprints werden Marathons – aber warum sollen Ehrenamtliche laufen, und nicht der Staat?

Voll gut: Hackathons, um neue Fähigkeiten zu erwerben oder auf politische Missstände aufmerksam zu machen. Eher nicht so gut: Hackathons, um mal eben Aufgaben des Staats lösen zu wollen. Open Knowledge Foundation Deutschland from Deutschland, Jugend hackt Ulm 2018 (46355412802), CC BY 2.0

Indes waren es gerade die Ehrenamtlichen des Code-for-Germany-Netzwerk, die auf den Nachhall des großen Corona-Hackathons der Bundesregierung 2020 in Form einer Wiederentdeckung von Hackathons durch die öffentliche Hand und seinen Partnerorganisationen wie Tech4Germany (aus dem der oben erwähnte Digital Service hervorging) eher verhalten reagierten. Viele der Code-for-Germany-Aktiven haben über die Jahre hinweg Begegnungen mit Hackathonformaten gehabt  – und merkten über die Zeit, dass sie zwar an Erfahrung dazulernten, wie die Verwaltung funktioniert, aber immer wieder auf dieselben Probleme und Hilflosigkeiten dieser Verwaltung stießen, die schon auf den Austauschformaten mehrere Jahre zuvor adressiert werden sollen hätten. Die Erfahrung der Code-for-Germany-Ehrenamtlichen zeige, „dass es weniger um die Prototypen als viel mehr [um] Erkenntnisse auf einer strukturellen Ebene“ gehe, heißt es in einer Handreichung des Netzwerks vom Sommer 2020. 

Zum einen geht es bei Hackathons wegen des immer noch vielfach genutzten Wettbewerbscharakters nämlich viel zu häufig um den Start neuer Projekte. Häufig werden also Ideen neu erfunden, an denen andere Gruppen bereits – beispielsweise aus eigener Betroffenheit – zur Verbesserung einer konkreten Situation gearbeitet haben und nun Unterstützung zur Weiterentwicklung und Wartung gebrauchen könnten. Zum anderen laufen auch die „Verstetigungsprogramme“ bis heute meist auf die finanzielle Unterstützung der Ideengeber*innen oder die Entwicklung der Ideen in ein Geschäftsmodell hinaus. Aus dem Sprint werde ein Marathon, hieß es im Nachgang des Corona-Hackathons – ohne dabei die Frage zu stellen, warum denn nun ausgerechnet die Zivilgesellschaft einen Marathon laufen soll, und nicht der Staat.

Die ausgearbeiteten Lösungen aus dem Digitalen Ehrenamt liegen meist schon vor – haben aber selten Chance, zu verfangen

Austauschformat, 2017. Open Knowledge Foundation Deutschland from Deutschland, Datensummit 2017 – Tag 1 im BMVi (33974368270), CC BY 2.0

Ganz ähnlich lief dies auch ein Jahr später beim „Update Deutschland“-Hackathon, der auch Länder und Kommunen als „Zielgruppe“ identifiziert hatte und mit deren Unterstützung durchgeführt wurde. Der überfällige Aufbruch der Verwaltungsdigitalisierung sollte auch hier aus der Zivilgesellschaft kommen, die aber gleichzeitig unpolitisch von den veranstaltenden Institutionen in Anspruch genommen und in wirtschaftliche Wirkmuster gelenkt werden sollte, wie Daniel Staemmler und Sebastian Berg konstatierten. Bemerkenswert war, dass auch Kommunen an dem Format teilnahmen, die bislang den Input aus der örtlichen Ehrenamtsszene häufig links liegengelassen hatten. Analog zu kleineanfragen.de lagen auf mehrere der bei Update Deutschland gestellten „Challenges“ der teilnehmenden Verwaltungen bereits seit Jahren tragfähige Vorschläge aus der Zivilgesellschaft vor – die aber bislang von der öffentlichen Hand nicht umgesetzt wurden.

So stellte eine Kommune die Herausforderung vor, die Beschlüsse des Gemeinderats „erlebbarer, einfacher auffindbar und transparenter“ zu machen. Das Ratsinformationssystem der Kommune habe in der Regel Schnittstellen, um diese Informationen abrufen und beispielsweise auf einer Karte darstellen zu können. Bei der beschriebenen Schnittstelle handelt es sich um den seit 2012 durch Ehrenamtliche bei Code for Germany entwickelten Standard OParl. Und die Ironie der Challenge ist, dass, wie gerade erst von Nora Titz beschrieben, am Anfang dieser Standardisierung genau solche grafischen Aufbereitungen der Ratsinformationen standen – damals mit Scrapern aus den Informationssystemen extrahiert und beispielsweise auf Karten dargestellt. Die für die Öffentlichkeit nutzbaren, im Ehrenamt entwickelten Frontends für die Auswertung der OParl-Daten konnten bis heute nicht von der öffentlichen Hand übernommen, geschweige denn betrieben werden. Teilweise scheint es ihr schon schwerzufallen, die beim Ratsinformationssystem-Anbieter bestellte OParl-Schnittstelle auch auf ihre korrekte Installation zu überprüfen und abzunehmen. Die OParl-Schnittstelle der Challenge-gebenden Stadt war zum Zeitpunkt des Hackathons gar nicht aktiviert – und ist es auch zum Zeitpunkt dieses Artikels noch nicht. Es existiert zwar ein fertiges Validierungsskript, mit dessen Hilfe man die Standardkonformität der Schnittstelle in Minutenschnelle prüfen kann. Um dieses Skript bei der Abnahme im Verwaltungsnetz ausführen zu können, bedarf es aber der internen Fähigkeiten, den Validator auf Verwaltungsrechnern selbst zum Laufen zu bringen. Danach braucht es noch etwas Verständnis, die Ausgaben interpretieren zu können und sich vom Dienstleister nicht einreden zu lassen, dass der Fehler bei einem selber liege. Was engagierten Freiwilligen mit grundlegenden Kenntnissen eine spielerische Fingerübung weniger Minuten ist, stellt die Verwaltung teilweise heute noch vor große Herausforderungen. Der Staat baut hier nicht die notwendigen Kompetenzen in der Breite auf, um die gratis vom Ehrenamt gelieferten Skripte auch selbstbestimmt ausführen zu können. Stattdessen sind diese Ehrenamtlichen letztlich dazu gezwungen, selbst als bezahlte Dienstleister*innen aufzutreten, wenn sie wollen, dass ihre Ideen auch in die Tat umgesetzt werden.

Vorhandenes Wissen aufgreifen und dokumentieren – nach den Bedürfnissen des Ehrenamts!

CC0 Matthias Wörle im Auftrag von Wikimedia Deutschland

Die überstarke Begeisterung des Staats für Hackathons scheint mittlerweile – zum Glück! – endlich abzuflauen. Offen bleibt aber die Frage, wie Ehrenamt und Zivilgesellschaft sich überhaupt wirkungsvoll mit ihrer Expertise einbringen können. Der Anspruch kann dabei nicht sein, auch als Zivilgesellschaft ein Büro am GovTech-Campus zu haben. Schon die Existenz eines GovTech-Marktes ist mehr Indikator eines grundsätzlichen Problems, als dass diesem Markt mit einem Austauschcampus noch niederschwelligerer Zugang geschaffen werden soll. Es kann auch nicht die Aufgabe Ehrenamtlicher sein, werktags mit am Tisch zu sitzen, wenn Vergabeverfahren für staatliche IT-Lösungen nun möglicherweise noch weniger nachvollziehbarer als bisher zwischen Verwaltung und Dienstleistern ausgehandelt werden. Vielmehr geht es darum, den Wissensschatz der ehrenamtlichen Digitalen Zivilgesellschaft aktiv zu suchen und in die Verwaltung selbst zu transferieren. 

Wikimedia Deutschland hat gemeinsam ergänzt um Interviews mit der Deutschen Stiftung für Ehrenamt und Engagement vergangene Woche im Politikbrief „Digitales Ehrenamt: Zivilgesellschaftliche Teilhabe im Digitalen Raum“ sechs Forderungen aufgestellt, wie dieses Engagement besser vom Staat gewürdigt und gefördert werden sollte. Eine der Forderungen ist der systematische Transfer ehrenamtlicher Expertise. Der Staat sollte nicht etwa Dienstleister*innen auf seinen GovTech-Campus zu sich einladen und damit weiter Kompetenzen externalisieren, sondern strategisch interne IT-Fähigkeiten aufbauen. Das vorhandene Wissen im digitalen Ehrenamt muss durch aufsuchende Beteiligung und den Bedürfnissen der Freiwilligen folgend aufgegriffen und dokumentiert werden, um es verwaltungsintern verwendbar und anwendbar zu machen. Damit könnte endlich eine Brücke über die nach wie vor bestehenden Wissensklüfte geschlagen werden – damit kommende Generationen ehrenamtlich Aktiver hoffentlich künftig nicht mehr zu ihrer Frustration auf dieselben strukturellen Hürden stoßen, an denen diese Partizipation bislang scheiterte.

//edit am 24. Januar 2023, Rolle der DSEE im Politikbrief von WMDE korrigiert

Abfragen im dezentralen Semantic Web. Oder: Baut viele SPARQL-Endpunkte statt grosser Datenplattformen

Wie Abfragen ueber verteilte Wissensquellen aussehen (nicht eine Super-Datenplattform!), ist in diesem Video von 2018 schoen erklaert (danke MarcelOtto). Ein praktisches Beispiel eines federated query mit Wikidata hatten @saerdnaer und @Wikidatafacts als kleine Fingeruebung fuer den kleineren Massstab bei einem Wikidata-Workshop in Ulm entwickelt.

(quelle:internet)

Ab 09:27 kommt im Video ein anschauliches Beispiel des dahinter liegenden Paradigmenwechsels. Anstelle von Apps, die auf hardcodierte APIs zugreifen muessen (und die dann wieder angeflanscht an zentralisierte Datensilos sind), werden Abfragen im dezentralen Modell lokal synthetisiert. Die notwendigen Daten kommen dann aus denjenigen verteilten Quellen, die fuer genau diese Frage notwendig sind.

In Ergaenzung (und technisch notwenige Voraussetzung) zum auf den Kopf gestellten Nutzungsversprechen von Open Data erlaubt diese Herangehensweise eine Abkehr von zentralisierten Superdatenplattformen. Die bisherige Idee war, dass es ja eine Vielzahl von Fachverfahren gebe, deren Daten in einzelnen Silos liegen. Um das aufzubrechen muessten Verfahren standardisiert werden und alle Daten in ein zentrales Silo anliefern. Was auch bedeutet, dass z.B. einzelne Kommunen oder Bezirke ihre bisherigen Fachverfahren fuer ein Thema aufgeben und sich der Mehrheit anschliessen muesten – und sei es mit Zwang.
Im Gegenmodell waere die interne Datenhaltung oder zumindest das Ergebnis eines ETL-Prozesses der Fachverfahrensdaten ein Knowledge Graph – und ueber verteilte Knowledge Graphs lassen sich wie im Video demonstriert wunderbar Abfragen fahren, nur durch die Magie von 5-Sterne-Daten mit Semantik. Die Bausteine dafuer sind mittlerweile Jahrzehnte alt und gut abgehangen. Und eigentlich passt das auch viel besser in das Modell eines foederalen Staats, der nicht alles von oben her vereinheitlicht und nach oben hin an sich zieht, sondern auf den Ebenen auch Entscheidungsspielraeume laesst.

Lilith Wittmann ist wie immer gleich deutlich radikaler und sagt: Alles bis drei Sterne sollte eigentlich gar nicht mehr zaehlen, wir muessten noch weiter gehen und Open Data erst ab vier Sternen ueberhaupt „zaehlen“ lassen:

Open Data und das auf den Kopf gestellte Nutzungsversprechen

Tori Boeck hatte im Februar einen Artikel ueber ein sich nun seit Jahren hartnaeckig haltendes Muster in der deutschen Open-Data-Szene veroeffentlicht: Alles scheint sich um „Anwendungsfaelle“ zu drehen, und dass die tatsaechliche Nutzung offener Daten (neben der schieren Zahl veroeffentlichter Datensaetze) ein Erfolgskriterium sei.

Toris Post war mir jetzt endlich aufraffender Anlass, verschiedene Textstuecke zusammenzustellen, die ich seit einer Weile vor mir herschiebe, und im Mai war das nun endlich alles so weit, dass ich einen ersten Entwurf beim Kommunalen Open Data Barcamp vortragen konnte. Denn dieser Fokus „die oeffentliche Hand soll Open Data bereitstellen, damit Dritte irgendetwas damit tun“ ist einer der fundamentalsten Missverstaendnisse des letzten Jahrzehnts in dieser Szene. Und ich fuerchte, dieses Missverstaendnis sabotiert seit Jahren die eigentlich anzugehenden Aufgaben.

Eine Quelle dieses Missverstaendnis koennte das typische “Showing what’s possible“-Muster aus dem Digitalen Ehrenamt sein. An einem konkreten Beispiel wird gezeigt, was mit offenen APIs und/oder offenen Daten oder einem besseren User Interface moeglich waere. Dabei ist beinahe egal, ob man nun einen bestehenden Dienst besser macht (wie z.B. kleineanfragen.de das tat), oder ob man an einem ganz konkreten Beispiel (fuer das man irgendwie an Datenpunkte kam) ein anschaulich nutzbares Produkt baut, wie die Trinkwasser-App.

Wolfram Eberius, Cfg-summit-20211127-codefor-berlin-02, CC BY-SA 4.0

Ende November hatten wir im Netzwerk Code for Germany einmal versucht, typische Aktivitaeten der lokalen Open-Data-Arbeitsgruppen einzuordnen, und an vielen Stellen kam dieses „showing what’s possible“ zur Sprache. Menschen machen das aus den verschiedensten Beweggruenden: Weil sie selber einen praktischen Anwendungsfall fuer das Ergebnis haben. Weil sie zeigen wollen, was geht. Oder einfach auch nur aus Spass.

An vielen Orten entstanden genau so vor ca. 10 Jahren die ersten veroeffentlichten Datensaetze. In Ulm hatte die Gruppe Engagierter einzelne Datensaetze per Mail von der Stadtverwaltung erhalten, und beispielsweise die Geodaten der Stadtbezirke selber zum Download und ueber eine CouchDB ausgespielt, und in Click-that-Hood praktisch erfahrbar gemacht.

Andere Staedte sprangen auf den „Trend“ auf. Datensaetze wurden immer noch haendisch herausgesucht und veroeffentlicht – und meist orientierte man sich dabei an den Datensaetzen, die bereits anderswo veroeffentlicht oder gar in einen praktischen Anwendungskontext bezogen wurden. Und nebenbei glaubte man, dass Datenportale hermuessten, Metadatenbeschreibungen fuer jede Excel-Liste im Datenportal wurden umstaendlich gepflegt, und viel dergleichen haendische Arbeit mehr.

Auf der zivilgesellschaftlich engagierten Seite entstand dadurch der empfundene Druck, die bisherigen Konzeptprototypen und Showcases zu „redeployen“. Anderswo gab es nun auch Stadtbezirks-Geoshapes, Trinkwasserinformationen und dergleichen mehr. Also, war die Annahme, muesse man die aktuellen Daten nun auch in einen lokalen Ableger dieser Showcases einpflegen. Gleichzeitig stieg die Erwartung, dass diese Beispielvisualisierungen auch auf lange Frist unterhalten und gepflegt werden wuerden. Und an den Orten, an denen sich niemand auf die aufwaendig bereitgestellten Daten stuerzte, war die Enttaeuschung gross. Denn wofuer macht man sich ueberhaupt den Aufwand?

Tbachner, Container Terminal Dortmund 12.01.2013, CC BY 3.0

Eigentlich seltsam, denn die Metapher ging ja eigentlich schon lange dahin, dass die Bereitstellung offener Daten so etwas wie ein automatisierter Containerhafen werden sollte – derweil die Daten immer noch wie haendisches Stueckgut aus den Fachverfahren und Excel-Listen herausgetragen werden.

Und da sind wir eigentlich am Kernproblem: An viel zu vielen Stellen wird haendisches oder maessig automatisiertes 3-Sterne-Open-Data immer noch als akzeptables Zwischenziel angesehen.

Wir erinnern uns aus dem Covid-Daten-Beispiel: Bis zu 3-Sterne-Daten kommen als CSV daher – ohne Informationen, was eigentlich in welcher Spalte steht und was das sein soll. Ist es ein Datum? Ein Strassenname? Die Zahl der Infizierten am gestrigen Tag? Wenn ich das auswerten will, muss ich das meinem Parser erst einmal haendisch pro Spalte beibringen. Und wenn das RKI die Reihenfolge der Spalten aendert, faellt der Parser auf die Nase.

Ich glaube, dass all das damit zusammenhaengt, dass in der Regel intern gar nicht die Voraussetzungen vorhanden sind, um mit diesen Daten in groesserem Umfang etwas anzufangen. Die Listen sind Datenbasis fuer (haendisch erstellte) Reports, (haendisch erstellte) Schaubilder, aber es sind weder die notwendigen Werkzeuge noch die notwendigen Infrastrukturen vorhanden, um schon verwaltungsintern Daten ueberhaupt strukturiert abzulegen und dann an anderer Stelle damit zu arbeiten – idealerweise mit dem Ziel eines Knowlege Graphs fuer 5-Sterne-Open-Data.

Und gerade weil die notwendige Voraussetzung fuer die Herstellung eines solchen Zustands eine hervorragende IT-Infrastruktur auf dem Stand der Technik ist, muessen wir die bisherigen Herangehensweisen weitgehend auf den Kopf stellen. Bisherige Beispielkataloge, was denn ueberhaupt als Open Data veroeffentlicht werden koennte, orientieren sich meist daran, was anderswo da war. Das waren aber eben entweder die beruechtigten “Low Hanging Fruits”, oder eben Datensaetze fuer die genannten Proofs of Concept. Das ist aber meist komplett losgeloest von einer internen Nutzung, die ueberhaupt erst die Motivation und den Anlass geben koennte, die dafuer notwendigen Strukturen aufzubauen. Idealerweise wuerde eine Strategie nicht damit beginnen, die hunderten Fachverfahren zu kartieren und wie man deren Daten per ETL herauskratzen kann. Sondern (mit einer klaren Strategie zu Linked Open Data im Kopf!) praktische Anwendungsfaelle zu finden, in denen Einheit A intern Daten braeuchte, die Einheit B bislang unstrukturiert ablegt oder auf Zuruf aufbereitet – und dann beginnt, Prozesse fuer die automatische Verdatung zu bauen. Inklusive des Aufbaus der notwendigen Kompetenzen und des Unterbaus, um das selber machen zu koennen oder zumindest den Weg dahin kompetent selbst zu bestimmen. Open Data darf kein Mehraufwand sein, sondern faellt quasi als Abfallprodukt aus besseren Prozessen heraus – wer etwas veraktet, produziert automatisch Linked Data, das bereits behoerdenintern nachgenutzt werden kann. Der Open-Teil ist dann „nur“ noch eine Frage dessen, was nach aussen veroeffentlicht werden soll.

Verantwortung internalisieren, Software verstehen, Nachtrag 2: A Tale of Two Haushaltstoepfe

John McGehjee, Bank of the West Los Altos branch vault, CC0 1.0

Ich sass heute Vormittag in einem Forschungsinterview, in dem der Interviewer eher beilaeufig einen Satz fallen liess, der mich nun den ganzen Tag nicht mehr losgelassen hat.

Eigentlich sprachen wir ueber die Mobility Data Specification, die sich einige US-Staedte ausgedacht hatten, um Shared-Mobility-Anbieter datengetrieben regulieren und steuern zu koennen. In den USA ist die relativ weit verbreitet, und die Staedte oder regionale Zusammenschluesse wie SANDAG betreiben auch die dafuer notwendige Infrastruktur selber, um beispielsweise die gewuenschten Geschaeftsgebiete, Ausschlusszonen etc. maschinenlesbar auszuliefern und die geforderten Statistikdaten entgegennehmen und in die Stadtplanung einfliessen zu lassen. In Europa hingegen erfaehrt das bislang nur eine sehr bruchstueckhafte Nutzung. Ich kenne derzeit keine Stadt in Deutschland, die die Daten bislang wirklich direkt in den Planungsprozess einbezieht – und sei es, indem sie einen der mittlerweile vorhandenen Dienstleister als Datenclearingstelle nutzen.

Der Interviewer kommt selbst aus dem Open-Transport-Feld und hat lange Jahre Erfahrung im ODIN-Netzwerk gesammelt (witzigerweise hatte ich noch einige Mails von ihm aus der OKF-Transport-Mailingliste von 2012 im Mailarchiv). Irgendwann meinte er: Die US-Staedte koennen vieles vielleicht deswegen besser selber intern loesen, weil die ja nicht so viel Geld haben, im Vergleich.

Das rumort jetzt eine Weile in mir, weil es ja intuitiv widerspruechlich erscheint, aber das Problem sehr sehr praegnant auf den Punkt bringt. Wenn die US-Kommunen weniger gut finanziell ausgestattet sind (was ich nicht geprueft habe, stellen wir es mal als These hin), muessen sie viel mehr auf eigene Kompetenzen setzen und diese strategisch gut aufbauen, um Digitalloesungen auch sinnvoll zum Fliegen zu bekommen.

Lilith Wittmann hatte heute einen von ihr fuer das ddb-Magazin geschriebenen Gastbeitrag (Ausgabe 12/2021, Seite 18) vertwittert, in dem sie nochmal sehr treffend den normalen Umgang deutscher Verwaltungen mit diesem Themenfeld beschreibt. Auszug:

Dieser verhängnisvollen Allianz zugrunde liegt der politische Irr­weg, Digitalisierung eben genau nicht als den Kulturwandel zu be­greifen, der erforderlich ist, um sie in der Verwaltung erfolgreich umzusetzen. Stattdessen wird der moderne Staat weiter als „Pro­jekt“ angegangen: Es werden keine neuen Stellen für Menschen mit IT­-Know­how geschaffen, son­dern Millionen für externe Projekt­unterstützung ausgegeben. Die Leitung von Digitalprojekten geht regelmäßig an eine Referatslei­tung, die schon andere Projekte erfolgreich durchgeführt hat – wer Förderleitlinien schreiben kann oder mal Pressesprecher war, der bekommt dieses Digitalisierungs­ding doch bestimmt auch hin.

Was aber sollen nun Menschen ohne Vorerfahrung mit solch hochkomplexen und technisch anspruchsvollen Themen in so einer Projektsituation anderes ma­chen als sich externe Hilfe zu holen? Also fragt man zum Beispiel Capgemini an – für Konzept und Ausschreibung. Und wenn sie schon mal dabei sind, können sie direkt die Projektsteuerung mit­ machen. Capgemini hat für die technische Umsetzung gute Erfahrungen mit IBM. Also holt man die dafür ins Boot. Und PwC übernimmt die Rechtsberatung – hat man ja schon immer so ge­macht.

Ausreichend viele faehige Menschen mit Wissen um IT-Architekturen einzustellen, scheitert derweil viel zu oft am immer selben Endgegner: Dem Stellenplan. Die bisherige IT ist schon vollauf damit beschaeftigt, die historisch gewachsenen Systeme zu baendigen und halbwegs rechtzeitig auf CVEs in der Firewall oder dem Exchange-Server zu reagieren. Und fuer weitere, gut qualifizierte und entsprechend im Wettbewerb nur mit entsprechender Besoldung zu haltende Kraefte gibt’s keine Stelle im Stellenplan, und vor allem kein Geld.

Macht aber nix, weil es ja genuegend Fuellhoerner fuer Leuchtturmprojekte und Vorzeigedigitalisierung gibt, aus denen dann die notwendigen Sachmittel fuer externe BeraterInnen fallen. Und das Externalisierungskarussell dreht sich eine Runde weiter.

Das ist ein wenig wie das alte Klischee vom oeffentlichen Bau, bei dem man an der Daemmung gespart hat und man eigentlich direkt zum Fenster hinausheizt: Im Finanzhaushalt (fuer Investitionen) haetten die besseren Fenster zu viel mehr gekostet. Und dass man das in 10 Jahren bei den Heizkosten wieder drin haette und die darauf folgenden 20 Jahre viel einsparen wuerde, betrifft ja nur den Ergebnishaushalt fuer die laufenden Betriebskosten.

Digitale Souveraenitaet, oder: Welche der Bedeutungen soll’s denn sein?

Gerrit, Border stone, CC BY-SA 3.0

Nach den Aha-Momenten zu Logomachie und einer zunehmenden Grantigkeit ueber die inflationaere Verwendung des immer sinnentleerter wirkenden Begriffs der „Digitalen Souveraenitaet“ hatte ich ueber den Sommer einige Paper zum Begriff gelesen, die mir durch die Timeline flatterten. Den Aufschlag machte IIRC dieses Papier von Julia Pohle, und ich habe dann wie so oft eine groessere Menge offener Browsertabs angesammelt, die ich ueber ein halbes Jahr mit mir herumschleppte.

Wesentlicher Antreiber der Debatte sind Vorhaben der Europaeischen Union, irgendwie „digital souveraener“ zu werden – man koennte meinen, im klassischen Sinn der Staatssouveraenitaet, der auf einem definierten territorialen Gebiet basiert, das es gegen ein Aussen abzugrenzen und offenbar auch abzuschotten gilt. Theodore Christakis geht in einem halben Buch auf die verschiedensten Auspraegungen ein, was das alles bedeuten soll: Wird das so etwas wie das bisher immer scharf kritisierte Modell der chinesischen Internetregulierung? Geht es um strategische Autonomie in Bereichen der Tech-Branche? Quasi eine europaeische Digital-Juche-Ideologie?

Auch irgendwie souveraen, aber halt anders

Gleichzeitig wird der Begriff bereits seit einiger Zeit in eher aktivistischen Kreisen verwendet, die ihn mit einem Begriff individueller oder kollektivistischer Autonomie besetzen. Im Herbst 2019 hatten Stephan Couture und Sophie Toupin (DOI 10.1177/1461444819865984, SciHub *hust) die Verwendung des Begriffs in englischen und (wenigen) franzoesischen Texten ausgewertet, und sie zu klassifizieren versucht. Angefangen von der altbekannten Declaration of Independence of Cyberspace (1996) reicht ihr Spektrum ebenfalls ueber das der Staatssouveraenitaet, aber auch Souveraenitaetsbestreben indigener Voelker in der digitalen Domaene, bis zur aktivistischen Verwendung. Der aktivistische Begriffsgebrauch ist dabei ein voellig anderer als der, den sich die EU beispielsweise bei GAIA-X vorstellt – vielmehr sollten mit Freier/Open-Source-Software und -Hardware Mittel zur Selbstermaechtigung geschaffen werden, ohne auf kommerzielle Angebote angewiesen zu sein. Wir kennen die Slogans: „Program or be Programmed“, oder „ein Geraet gehoert nur dir, wenn du es unter Kontrolle hast“, etc.

Zuletzt gehen die AutorInnen auf Persoenliche Digitale Souveraenitaet ein, als Eigenschaft oder Faehigkeit eines Individuums, Kontrolle ueber eigene Geraete, Daten, Hardware etc auszuueben – oder aber als Parallele zur koerperlichen Autonomie, wie sie auch in feministischen Diskursen verstanden werden kann.

Was jetzt, Staat oder Individuum?

Wir haben es also mit konkurrierenden Definitionen desselben Begriffs zu tun, der aber im politischen Raum von Gruppen verwendet wird, denen ich hoechst unterschiedliche Zielsetzungen unterstellen wuerde. Das ist ja schon einmal ein guter Einstieg.

Auf der Suche, genauer herauszufinden, was denn die moeglichst genaue staatliche Definition ist, gaebe es einmal die eher sachliche Variante:

1) it possesses authority;
2) this authority is derived “from some mutually acknowledged source of legitimacy”—which can be God, a constitution, or a hereditary law;
3) this authority is supreme; and
4) this authority is over a territory

Stanford Encyclopedia of Philosophy

Wegen des durchgehend leicht sarkastischen Tons empfehle ich aber aufs Waermste den Aufsatz “The Treachery of Images in the Digital Sovereignty Debate” von Jukka Ruohonen. Bei dieser Stelle musste ich einfach laut lachen:

The year 1648 haunts everyone participating in the current Internet governance and digital sovereignty debate. But why is something that happened 373 years ago relevant for the debate? In 1648 the Peace of Westphalia was signed.

Waehrend das Westfaelische System naemlich durchaus fuer eine Definition staatlicher Souveraenitaet ausreicht, ist darin auch schon gleich das Kernproblem des Uebertrags ins Digitale umrissen. Man kann die Declaration of Independence of Cyberspace als 90er-Jahre-Cyberpunk-Romantik abtun, aber andersherum stoesst die Souveraenitaet von Staaten bei einem grenzueberschreitenden Konstrukt wie dem Internet ebenfalls an ihre (haha) Grenzen: Wenn die Autoritaet an ein Staatsterritorium gebunden ist, und mangels einer uebergeordneten Autoritaet das Zusammenspiel von Staaten an Freiwilligkeit gebunden ist: Ja wie soll denn das gehen mit der Souveraenitaet im Netz? Auch: Stimmt es ueberhaupt, dass ein Staat einem anderen innerhalb dessen Grenzen keine Vorgaben machen kann – weil er ist ja souveraen? Und falls das stimmt: Dann sind nicht wenige ebenfalls als irgendwas mit Souveraenitaet geframete Gesetze ja fuer die Katz, oder?

Ruohonen beschreibt beispielhaft die Schlagabtausche zwischen der EU und den USA als ein nicht endendes Ping-Pong-Spiel:

The game played is also good drama. Particularly jolly are the frequent episodes depicting the players swinging in slow motion even though the ball has been taken away from them; namely, by Schrems (I) in 2015 and Schrems (II) in 2020.
[…]
With respect to ping, extraterritorial power—the ability of a sovereign to exert governmental actions in another sovereign’s realm without its consent—has long been a part of ping’s data protection legislation. […] That said, the same year the GDPR came into force, pong passed its Clarifying Lawful Overseas Use of Data Act (CLOUD Act). It provides pong’s authorities access to data stored in cloud services without the cumbersome mutual assistance treaty, effectively deprecating ping’s people constitutional protections provided by a jurisdiction where the data is stored

Aber selbst innerhalb des Framings der EU scheinen sich die TreiberInnen nicht auf eine der beiden Perspektiven (Staatlichkeit vs. Individuum) einigen zu koennen. In Foreign Policy kommentiert Tyson Barker: Europe Can’t Win the Tech War It Just Started. Geradezu beliebig werde der Begriff einmal mit persoenlicher Autonomie und Freiheitsrechten motiviert, und im naechsten Atemzug mit der uneingeschraenkten Herrschaft auf einem territorialen Gebiet. Und selbst das Territorialkonzept laesst sich willkuerlich in seiner Bedeutung ausdehnen: Sei es Standortfoerderung unter dem Deckmantel einer angeblich noetigen Autarkie; der Wunsch, auch irgendetwas wie DARPA zu haben; oder ein dumpf-nationalistisch klingendes “Taking back control” – bei dem man sich dann fragen kann, von wem man die denn zurueckhaben will und wie die da ueberhaupt erst gelandet ist.

Was man mit einkauft

Plutowiki, Zoll Gailingen Corona, CC0 1.0

Es mag sein, dass sich mit Begriffen wie der „Digitalen Souveraenitaet“ Opportunitaetsfenster auftun, „etwas gutes“ zu tun. Den Begriff staerker auf die individuelle Autonomie framen, und so weiter. Ich persoenlich moechte nicht so recht daran glauben und halte mich mittlerweile von dem Begriff fern.

Erstens, weil er in seiner Verwendung mehrfach in sich widerspruechlich ist und sich unter derselben Flagge komplett inkompatible Zielvorstellung versammeln, mit gegenlaeufigen Absichten.

Zweitens aber: Jede Verwendung eines aktuellen Hype-Begriffs zahlt letztlich darauf ein, dass das jeweilige Meme am Leben bleibt und weiter befeuert wird. Und selbst wenn man beste Absichten unterstellt, muss doch klar sein, dass man damit gleichzeitig auch eine Denkweise am Leben haelt, fuer die streng gesicherte territoriale Grenzen nicht nur im Netz eine Selbstverstaendlichkeit sind. Die Unterscheidung in ein „innen“ und „aussen”, in ein „wir” und ein „die“ ist fester Bestandteil des Konzepts. Und so sehr man ueber die Vorstellung laecheln kann, dass „unsere“ Daten irgendwie sicherer oder besser dran seien, wenn sie in den Grenzen „unseres“ Staatskonstrukts geparkt sind. So sehr man ueber Protektionismus und die Foerderung heimischer Firmen fuer unsinnige Projekte die Augen rollen mag. Man sollte sich darueber im Klaren sein, welches Meme man da mit ganz realen Konsequenzen fuer reale Menschen am Leben haelt.

Buchempfehlung: A Civic Technologist’s Practice Guide, von Cyd Harrell

Die Civic-Tech-„Bewegung“ – so man ueberhaupt von einer sprechen kann, so vielfaeltig wie die Stroemungen sind – kommt langsam ins Pubertaetsalter. Um so ueberraschender, dass Buecher aus der Praxis wie der “Civic Technologist’s Practice Guide“ von Cyd Harrell immer noch so selten sind. Klar, in den ueblichen Fachbuchverlagen gibt es ganze Regalmeter voll mehr oder eher weniger nuetzlicher Handreichungen zu „Digitaler Transformation“, irgendwas mit Agil, oder Smart-City-Esoterik.

Harrell kann in ihrem Buch mit Stand 2020 aus acht Jahren eigener Praxiserfahrung im Maschinenraum berichten. Sie ist UX-Designerin und begann 2012 erst fuer das Center for Civic Design und danach das damals noch recht neu gegruendete Code for America zu arbeiten, bevor es sie zu 18F verschlug.

Max hat ein physisches Exemplar des Buchs gekauft, das gerade in meinem Umfeld die Runde macht, und nach meinem zweiten Durchlauf ist es gespickt mit Klebezetteln und Annotationen. Nicht etwa, weil man Dinge der Verstaendlichkeit halber annotieren muesste, im Gegenteil, die Sprache im Buch finde ich gut verstaendlich und nachvollziehbar. Ich hatte aber quasi alle drei Seiten einen „Ja, das ist gut umrissen und zusammengefasst, merken!“-Moment.

Egal ob es die Frage ist, was Civic Tech eigentlich alles ist (ehrenamtliches Engagement, externe Unterstuetzung und Beratung der oeffentlichen Hand, interner Kompetenzaufbau in der Verwaltung – ja, alles davon), oder dass sowohl das „zeigen was geht“ als auch das „umsetzen, was es dafuer braucht“ gleichermassen zum Spiel gehoert. Viele in der Szene duerften schon laengst selbst zu diesen Erkenntnissen gekommen sein, zusammengefasst in einem Buechlein sind sie aber praktisch und gut weiterzugeben.

Der Blick auf die Erfahrungen in den USA lohnt sich ohnehin. Den Versuch, Fellows in die Verwaltung zu schicken, gab es dort bereits vor 10 Jahren(!), und auch viele andere Dinge, bei denen man aus den Erfahrungen von anderswo haette lernen koennen, wurden einfach in Deutschland nochmal neu von vorne gemacht.
Erst durch das Buch lernte ich aber, dass in den USA bereits 2014 ein bekannter Venture Capitalist in die US-Civic-Tech-Szene einstieg und bereits laufende Programme einfach nochmal fuer sich neu erfand:

[It] took the civic tech community by surprise, but gained enormous mainstream press attention. It eventually disappeared […] without causing any significant change in the civic sphere, but it sufficiently distracted attention from the other groups working in the same space.

Ich hatte das Buch dann kurz weggelegt, aus dem Fenster geschaut und an hiesige „Social Entrepreneurs“ und Versprechen eines deutschen 18F gedacht und das war ein interessantes Emotiotop.

Im spaeteren Verlauf geht es dann aber auch wirklich ans Eingemachte, wenn man wirklich Dinge modernisieren will in einer Verwaltung und wie das ueberhaupt gehen soll, und hier zeigt sich der Kontrast zu ueblichen „ja da machen wir halt bissel was mit agil“-Simulationen. Laeuft das Schwarzbrotgeschaeft als Unterbau ueberhaupt rund, wer operationalisiert spaeter die schoenen Prototoypen, sind genuegend Ressourcen da, um Legacy-Systeme zu analysieren und sie falls noetig auch aendern zu koennen.
Ueberhaupt, wie wird das Verwaltungssystem langfristig befaehigt, selbstaendig in die Zukunft blicken und die naechste oder gar uebernaechste technologische oder infrastrukturelle Huerde zu nehmen, ohne sich dabei aufs Gesicht zu legen und das womoeglich noch als Erfolg zu verkaufen? (Das mit dem selbstaendig Huerden meistern waere nebenbei die erste Definition einer „Souveraenitaet“, die ich tatsaechlich sinnvoll faende)

An manchen Stellen musste ich schwer seufzen. Fuer Harrell ist es denk- und fragbar, ob eine Verwaltungseinheit selber Dienste in der Produktion faehrt. Dass es Test- und Releaseprozesse fuer Software und Dienste gibt. Umfassendes Monitoring von Verfuegbarkeit und Erfolg. Ich wuenschte, dass man die in deutschen Verwaltungen ueberhaupt als Teil strategischer Aufstellung verstuende.

Und deswegen schliesst das Buch mit einem eigenen Kapitel ueber seelisches Wohlbefinden. Dass es dessen bedarf, hat eine ganz eigene Note. Dass es Teil des Buchs ist, spricht fuer Harrell.

Das Buch ist als Kindle- und EPUB-Format fuer knapp 10 Dollar zu haben, oder fuer rund 20 Euro als Taschenbuch. Ich moechte es sehr empfehlen.

Logomachie: Theologisch-korrekte Powerworte und neoliberale Digitalisierungstrategien

Wer schon eine Weile in der Digitalisierungswelt unterwegs ist, stolpert irgendwann ueber die wellenfoermige Mem-artigkeit von Begriffen, die neu im Diskurs verwendet werden und dann eine gewisse Beliebtheit erreichen, bevor sie – eventuell – im Gebrauch wieder abflachen. „Smart“ scheint beispielsweise kaum totzubekommen sein, ist aber lange nicht mehr so hochmodisch, wie es mal war. Aktuell begegne ich immer wieder Begriffen wie „Resilienz“ oder auch der „Digitalen Souveraenitaet“, und ich muss zugeben, dass es mir mittlerweile zunehmend Freude bereitet, zu fragen, wie der gerade gefallene Satz denn formuliert werden koennte, ohne diesen Begriff zu verwenden.

An ein paar Stellen hatte ich vorher bereits Auseinandersetzungen mit dem Mode- bzw. Mem-Aspekt dieses Hypecycle mitbekommen. Klumpp drueckt das einleitend in „Digitalisierte urbane Mobilitaet“ (2016) – genauso snarky wie in weiten Teile des kompletten Dokuments – aus:

Keine lang laufende Diskussion verträgt aber Konstanten bei den verwendeten Begriffen und Begrifflichkeiten, weshalb in einer Zeit der Beschleunigung eben neue Termini erforderlich sind.

Klumpp, Dieter. „DIVSI Studie-digitalisierte urbane Mobilität: datengelenkter Verkehr zwischen Erwartung und Realität.“

Ein fehlendes Puzzlestueck war fuer mich aber die weitgehende Sinn- oder zumindest Definitionsbefreitheit vieler der verwendeten Begriffe: Was heisst denn „Souveraenitaet“ ueberhaupt? Wer ist gegen was „resilient“? Obwohl die Begriffe sehr haeufig und sehr selbstsicher eingesetzt werden, bringen solche Rueckfragen – oder die oben erwaehnte Bitte, den Satz doch mal inhaltsgleich aber ohne dieses Wort zu verwenden – das Gegenueber sehr schnell ins Schwimmen.

Einen ersten Aufhaenger fuer die Einordnung solcher inhaltslosen Begriffe hatte ich vor einigen Monaten in einem Thread von Simon Wardley zum Begriff der „Digitalen Souveraenitaet“ gelesen, der daraus mittlerweile einen lesenswerten Blogpost gemacht hat. Anders als ich – und das ist ja eben typisch fuer diese Interpretationsoffenheit – definiert Wardley den Begriff in einer raeumlichen Abgrenzung des nationalen (oder EU-zentrischen) Protektionismus, die gerade beim weltweiten Internet einfach keinen Sinn ergibt. Im Thread lieferte er aber einen grossen Aha-Moment fuer mich, diese Projektionsflaechenbegriffe einzuordnen:

Ein spannendes Faedchen, an dem ich dann sehr lange weiter ziehen und Dinge aufzuppeln konnte, lieferte nun vergangene Woche ein Tweet von Basanta Thapa:

Ich habe daraufhin gleich mal das zitierte Paper gesucht und wo es zitiert wird, und bin dabei ueber „Talking about government: The role of magic concepts“ (DOI 10.1080/14719037.2010.532963, ich rate natuerlich dringend davon ab, das z.B. auf SciHub zu suchen) gestolpert. Und das ist einfach wunderbar, weil Pollitt und Hupe darin sehr sueffisant die Rolle und auch die Charakteristika solcher „magischer Worte“ erklaeren. Waehrend man fuer viele Standpunkte oder Thesen einen gegenteiligen Standpunkt formulieren kann, der erstens Sinn ergibt und auch zustimmungsfaehig ist, sind die „magischen Konzepte“ so breit und universell ausgelegt, dass ihre Negation praktisch keinen Sinn ergibt. Sie machen das an den drei Beispielen „Governance“, „Accountability“ und „Network“ fest, auf die das gut zutrifft: „Keine Governance“ mag niemand so recht haben und ist schlecht vorstellbar – aber bei genauerem Hindenken faellt auf, dass auch „Governance“ selbst gar nicht so gut vorstellbar ist, weil es irgendwie alles und nichts ist. Pollitt und Hupe schlagen folgende Charakteristiken fuer solche magischen Worte vor:

1 Broadness. They cover huge domains, have multiple, overlapping, sometimes conflicting definitions, and connect with many other concepts. They have large scope and high valency.

2 Normative attractiveness. They have an overwhelmingly positive connotation; it is hard to be ‘against’ them. Part of this is usually a sense of being ‘modern’ and ‘progressive’ – often replacing something which is now alleged to be out-of-date (e.g. networks replace bureaucracy and/or hierarchy).

3 Implication of consensus. They dilute, obscure or even deny the traditional social science concerns with conflicting interests and logics (such as democracy versus efficiency, or the profit motive versus the public interest).

4 Global marketability. They are known by and used by many practitioners and academics – that is, they are fashionable. They feature frequently in official policy documents, the titles of reform projects and new units in both governmental and university departments. The concepts provide themes for academic conferences, subjects for seminars and titles for journal articles

Pollitt, Christopher, and Peter Hupe. „Talking about government: The role of magic concepts.“ Public Management Review 13.5 (2011): 641-658.

Ich halte es fuer wichtig, diese Begriffe vor allem in der Digitalisierungsdebatte zu dekonstruieren, wo immer wir ihnen begegnen. Erstens – und offensichtlich – weil sie interpretationsoffene Projektionsflaechen sind. In einem Diskurs ueber politische Ziele hilft es ungemein, sich der Bedeutung der gemeinsamen Sprache einig zu sein und eben nicht Schlumpfwoerter wie „smart“ zu verwenden, die lediglich die orthodoxe Rechtglaeubigkeit der aussprechenden Person bekraeftigen sollen.

Wie soll beispielsweise ein Datenethikkonzept dazu fuehren, ethisch mit Daten umzugehen? Welche Definition unethischen Datenumgangs faellt einem ueberhaupt ein, und woraus leitet sich die Ethik denn nun her und in welcher Utopievorstellung von Gesellschaft ist sie begruendet und warum kommt irgendwer auf die Idee, dass es hier eine universelle Vorstellung davon geben koennte? Kann es „ethischen“ Umgang mit Daten durch lokale Definitionen ueberhaupt geben, solange es nebenan Polizeiaufgabengesetze gibt, die sich um diese Ethik wenig scheren, sondern (wie im Fall der Corona-Registrierungszettel) einen konkurrierenden, rechtlich verbrieften Zugriffsanspruch haben, egal wie man selber das dagegen gerne absichern wuerde, fuer eine „ethische“ und vertrauensvolle Handhabung z.B. pseudonymisierter Mobilitaetsdaten? Wenn schon Governance undefinierbar ist, was ist dann Datengovernance? Wer governt denn ueber was, und wo gibt es wieder konkurrierende Akteure (z.B. wieder die Polizei)? Und was bringt mir eine Reflexion ueber Ausschluesse und strukturelle Benachteiligungen, wenn andere da mit reinfunken, die notorisch unreflektiert mit diesen Machtverhaeltnissen umgehen (again)?

Zweitens aber taeuschen viele dieser magical words zwar Universalitaet und auch Neutralitaet vor (“One might say that magic concepts are typical of what social theorists term ‘late modernism’, in the sense that they are of high abstraction and wide generality, and are usually presented as neutral (Scott 1998).”, aus Pollitt&Hupe 2011). Gerade in der Digitalisierungsdebatte kommt jedoch eine Vielzahl der Begriffe aus dem kleinen Woerterbuch des Neoliberalismus (vgl. z.B. Eagleton-Pierce, Matthew. Neoliberalism: The key concepts. Routledge, 2016) und werden ganz nebenbei in Diskursbeitraege eingeflochten – weswegen sich staendige kritische Nachfragen umso mehr lohnen:

Warum sprechen Akteure beispielsweise von Challenges, die es zu loesen gilt? Was waere ein alternativer Begriff und was das Gegenteil? Wie grenzt sich eine Challenge von einer Analyse systemischer Maengel ab, und warum macht man stattdessen lieber die Challenge? Wer oder was ist die Community, wovon waere sie abzugrenzen, wer definiert die Grenzen, und warum ist sie eine eigene Gruppe unter den Stakeholdern? Stellt Partizipation wirklich bestehende Machtverhaeltnisse in Frage und ermaechtigt die Buergerschaft (wer auch immer das sein soll), oder wird der Prozess aus der Machtstruktur heraus gesteuert und legt selber fest, wer eine Stimme hat und wer nicht? Aehnlich auch bei Co-Creation, geht es um “fundamentally changing the relationships, positions and rules between the involved stakeholders” (Voorberg, Bekkers & Tummers, 2015), oder soll eine Checkliste in einem Foerderantrag abgehakt werden? Was heisst es, wenn Verstetigung beispielsweise von Community(sic, klar)-Projekten angestrebt werden soll? Was zum Teufel waere das Gegenteil? Und was genau wird denn verstetigt? Foerdermittel, auf dass die Community (natuerlich nachhaltig) das Projekt auf alle Zeit weiterfuehrt? Quasi die zeitlich unbegrenzte Verstetigung einer Arbeit, die man nie dauerhaft machen wollte, weil man dachte, dass die oeffentliche Hand selber aus dem Quark kommt, das kuenftig besser zu machen? Oder soll das Ziel sein, diese oeffentlichen Aufgaben (am besten noch der Daseinsvorsorge) mit Entrepreneurship in privater Hand durchzufuehren?

Und so weiter.

Vielleicht waere hier mal ein Woerterbuch gut. Oder eben doch ein illustriertes Bilderbuch mit schoenen Metaphern, die diese Begriffsunklarheiten anschaulich aufdroeseln (Danke Julia Barthel fuer die Idee). Und es braucht auch dringend gut verstaendliche Gegenerzaehlungen, die die komplexeren aber eben auch zielfuehrenderen nachhaltigen Ansaetze mindestens ebenso attraktiv machen wie die neoliberalen Gegenstuecke, die gerade durch windelweiche und schoene Worte so leicht verdaulich fuer Entscheidungstraeger:innen sind.

Bis dahin: Bitte kritisch weiterfragen!

//edit: verwirrenden Satz klargestellt, Paper verlinkt. Siehe ausserdem auch anderen Beitrag zu User Centered Design.