Archiv des Autors: stk

Über stk

Medieninformatik-Student mit Visionen. Geht aber trotz Helmut Schmidts eindringlicher Aufforderung deswegen nicht zum Arzt.

Adding shapes to GTFS feeds with pfaedle

Headway frequency mapping in R. Requires shapes.txt

Three years ago, I wrote a little piece about how we cleaned up SWU’s GTFS feed.

I nonchalantly added that adding shapes and Conveyal’s GTFS editor would be a topic for another time, but never came around writing about that. I do not use the GTFS editor anymore, but Patrick Brosi’s pfaedle tool is still invaluable if your GTFS feed does not come equipped with a functional shapes.txt.

I had described the problem and where to find the proper tools back in early 2020 right at the intersection of my activism and public administration work. With the regional transit area spanning two Bundeslaender, there are some pitfalls left, however. Hence, a short primer.

Ingredients:

  • One Linux machine, whatever the flavor. Be it a VM or an old Laptop, it hardly matters. It shouldn’t be the slowest available machine, though, and it should come with a decent amount of RAM (the machine I’m using has 8 GiB). And if you go the germany-latest route (see below), about 100 GiB of hard disk space are required.
  • cmake, gcc (>4.9), git, wget, bzip2: sudo apt install cmake gcc git wget bzip2
  1. Get pfaedle, which is pretty much following the steps outlined in the github repo:
git clone --recurse-submodules https://github.com/ad-freiburg/pfaedle
mkdir build && cd build
cmake ..
make -j4
# optionally:
make install

2. Navigate to the folder where you store your unzipped(!) GTFS feed you want to add shapes to.

3. Get the proper OSM files. Since we are working with Ulm and Neu-Ulm, we’d either need a download of the metropolitan area of both cities, or download and merge the extracts for Bavaria and Baden-Wuerttemberg… or download and use the extract for the whole of Germany :shrug:

# Whole of Germany
wget https://download.geofabrik.de/europe/germany-latest.osm.bz2
bunzip2 germany-latest.osm.bz2

# Merge, requires osmium-tool: apt install osmium-tool
wget https://download.geofabrik.de/europe/germany/bayern-latest.osm.bz2
wget https://download.geofabrik.de/europe/germany/baden-wuerttemberg-latest.osm.bz2
bunzip2 bayern-latest.osm.bz2 && bunzip2 baden-wuerttemberg-latest.osm.bz2
osmium merge baden-wuerttemberg-latest.osm bayern-latest.osm -o merged.osm

Beware: Unzipping the GTFS feeds takes ages, especially the germany-latest. Expect a file exceeding 70 GiB and quite some decompression time. My laptop takes about 4–5 minutes for each Bundesland to unpack.

All that is left to do now is to let pfaedle do it’s work: pfaedle -D -x merged.osm .
After completion (and again, using it with germany-latest.osm takes quite a lot of time), a new folder gtfs-out is created. Test the results with your usual testing suites, ZIP it up, and off you go.

Open Data, wie es zu Covid haette sein koennen

Die Digitalisierung des Gesundheitswesens sei ein Trauerspiel, titelt das Redaktionsnetzwerk Deutschland. Nachdem man dem Reflex nachgegeben hat, „was, nur des Gesundheitswesens?“ zu rufen, dachte ich mir, man koennte ja mal das mit dem Aufschreiben des besseren Gegenentwurfs machen, der mir seit Monaten im Kopf rumspukt.

Tatsaechlich beobachte nicht nur ich die (Daten)lage seit geraumer Zeit mindestens mit Irritation. Lena Schimmel schrieb kurz vor Weihnachten einen ganzen Thread, dass sie selbst erschreckend lange die eigentlich vom RKI veroeffentlichten Daten ueber Sequenzierungen gar nicht erst gefunden hatte:

Ich glaube, dass „wir“ als „die gesellschaftliche Open-Data-Lobby“ uns wieder viel viel mehr auf Linked Open Data als Ziel konzentrieren und das auch kommunizieren muessen. Bei all dem Einsatz, wenigstens CKAN oder irgendein Datenportal auszurollen, scheint das fernere Ziel ueber die Jahre immer mehr in Vergessenheit geraten zu sein.

Schon vom Nutzungsfaktor her duerfte dieses Ziel jedoch am Beispiel der Pandemie sehr klar zu vermitteln sein. Seit nun beinahe zwei Jahren setzen sich jeden Morgen viele DatenjournalistInnen an ihre Rechner und versuchen, aus den aktuellen Datenpunkten zum Infektionsgeschehen und den Impfungen Erkenntnisse zu ermitteln und diese nachvollziehbar aufzubereiten.

Ueber die Zeit hinweg ist es ein bisschen zu einem Running Gag geworden, dass das RKI dabei immer wieder mal Spalten vertauscht oder neue Daten hinzufuegt, so dass all die gebauten Parser auf die Nase fallen.

5-Sterne-Schema aus den 2000ern. Quelle.

Derweil koennte die Lage mit verlinkten – oder wenigstens semantischen – Daten deutlich einfacher ablaufen. Man kann sich die 5-Sterne-Treppe fuer offene Daten am Beispiel der RKI-Berichte recht anschaulich klarmachen:

  • In der ersten Stufe (die Daten sind irgendwie da) sind die Informationen zwar irgendwie als digitale Symbole codiert, das kann aber auch ein PDF sein, oder im schlimmsten Fall ein PDF eines eingescannten Dokuments. Eine Maschine kann diese Symbole uebertragen und die dadurch codierten Inhalte aufbereiten und anzeigen, aber die Datenpunkte darin sind im unpraktischsten Fall nur fuer Menschen lesbar.

(Exkurs. Wenn wir ueber „Daten“ sprechen, werden schon diese beiden Definitionen haeufig wild durcheinander geworfen. Einerseits die Symbole oder „bits und bytes“, die Information codieren – so wie die Buchstaben, die diesen Satz bilden. Andererseits Datenpunkte, die z.B. verarbeitbare Information ueber einen Temperaturmesswertverlauf abbilden.)

  • In Stufe 2 und 3 sind auch die Datenpunkte fuer Maschinen interpretierbar, weil die Informationen mehr oder weniger strukturiert in einem proprietaeren (Excel) oder offenen (CSV) Format vorliegen. Die Zusammenhaenge bzw. die Semantik erschliessen sich jedoch immer noch nur der menschlichen Betrachterin, die diese Struktur selbst in die automatisierte Auswertung einbauen muss. Wenn das RKI ohne Ankuendigung die Reihenfolge der Spalten aendert, kann ein einmal geschriebenes Auswertungsskript diese Aenderung nicht ohne weiteres erkennen und wird erst einmal falsche Auswertungen ausgeben, bis es auf die veraenderte Datenlage angepasst ist.
  • Das ist der Punkt, der in Stufe 4 behoben wird: Dann ist naemlich auch die Semantik als weitere Ebene im Datensatz codiert. Ich muss nicht mehr als auswertende Person aus dem Originaldokument in menschlicher Sprache lesen und dann fuer das Auswertungsskript festlegen, dass Spalte B das Bundesland und Spalte N die Zahl der in einem Impfzentrum vollstaendig geimpften Personen unter 60 Jahren ist. Ich muss stattdessen dem Auswertungsskript fuer das (zugegeben, einfachere) Beispiel des Bundeslands „nur“ mitgeben, dass es in irgendeiner Spalte eine Beschreibung gemaess Language, Countries and Codes (LCC) erwarten kann, und da wird dann ein passender ISO-3166-2-Code mit dabei sein. In welcher Reihenfolge die Spalten dann ankommen, und ob das jetzt der Impf- oder der Inzidenzbericht ist, spielt eigentlich keine Rolle mehr.
Die Fallzahlen kommen aus einem Repo, die Geoshapes aus einem anderen, auf das als Dependency verlinkt werden kann. Ausserdem: Ich kann keine Karten zeichnen (deswegen brauche ich Shapes)

Im Vollausbau der Stufe 5 verlinkter Daten wird vielleicht am besten deutlich, was man mittlerweile haben koennte. Anstatt dass man sich jeden Morgen ein hoffentlich aktualisiertes Excel-File der Inzidenzen und Impfinformationen herunterlaedt, reicht das Gegenstueck zu einem git pull – alles liegt als von Tag zur Tag (bzw Veroeffentlichungsschnappschuss zu Veroeffentlichungsschnappschuss) versionierter Datenframe vor. Wenn ich den Datensatz einmal ausgecheckt habe, kann ich lokal die Updates bekommen, die Unterschiede von Schnappschuss zu Schnappschuss diffen, und auch in der Historie beliebig zurueckspringen, um Zeitreihen zu machen.

Da aber sowohl die Semantik im Datensatz codiert ist, als auch Links auf andere Datenquellen vorhanden sind oder von mir hergestellt werden koennen, kann ich sehr viel mehr automatisieren, was ich sonst zu Fuss machen muesste: Wenn in irgendeiner Spalte die Landkreise mit Kreisschluessel codiert sind, und ich meine Auswertung per Karte machen will, kann ich aus einer passenden anderen Datenquelle automatisch die Geometrien des NUTS-3-Level in Deutschland laden und mit dem RKI-Datensatz verknuepfen.

Das ist jetzt rein aus der Nutzungsperspektive gesehen, weil das mit die anschaulichste ist. Eigentlich viel spannender ist aber, die Konsequenzen durchzudenken, was es bedeuten wuerde, die dafuer notwendige Infrastruktur im Betrieb zu haben. Das heisst, dass Datenpunkte und Informationen nicht haendisch in der Gegend herumgetragen und zu Fuss alleine in Excellisten vorgehalten und gepflegt werden. Dass es definierte Schnittstellen und Datenfluesse gibt, die auch die behoerdeninterne Nutzung von fuer Entscheidungen relevanter Daten erlauben, ohne dass diese muehsam und fehleranfaellig zusammengekratzt werden muessen. Und nicht zuletzt auch, dass wir dafuer die ueber Jahrzehnte aufgebauten technischen Schulden der oeffentlichen IT-Infrastruktur abgebaut und die Architektur vorausschauend sparsamer weil effizienter(!) geplant und umgesetzt haben.

Es ist total schade, dass so viele der Visionen aus den 2000ern durch das jahrelange Klein-Klein der Umsetzung, die zu schliessenden Kompromisse mit Verwaltungen, und die perverse incentives fuer „Umsetzungen“ verkaufende Dienstleister so tief in die metaphorischen Sofaritzen verschwunden und in Vergessenheit geraten sind.

Manches davon ist natuerlich auch mittlerweile ueberholten Ueberlegungen von damals geschuldet. In der 5-Sterne-Treppe wird beispielsweise als erster Schritt ein „OL“ angegeben, das fuer eine Offene Lizenz stehen soll. Das halte ich mittlerweile fuer ueberholt und teilweise durch die viele Wiederholung auch ein wenig schaedlich. Denn die Diskussion z.B. bei Infektions- oder Impfdaten ist eigentlich gar nicht, ob sie unter der internationalen Creative-Commons-Lizenz oder der nutzlosen und ersatzlos abzuschaffenden Datenlizenz Deutschland „lizenziert“ werden. Denn das sind Faktendaten, und die gehoeren allesamt gemeinfrei gemacht.

tl;dr: Bitte einmal Linked Open Data als Ziel, zum mitnehmen, und etwas mehr freundliche Radikalitaet.

The Problem With NFTs

Als Ergaenzung zu den beiden Artikeln ueber Web3 und NFTs, ein 2:18 Stunden langer Videoessay ueber all die Probleme, angefangen von Cryptowaehrungen an sich, bis hin zum aktuellen NFT-Hype:

Waehrend der Rundumschlag wirklich viele der relevanten Themen abfruehstueckt, wird die Rolle der oeffentlichen Hand als Befeuerer irgendwelcher Blockchainprojekte gar nicht angerissen. Ich frage mich ein wenig, ob die grundlegende Denkweise, alles nur in wirtschaftlichen Transaktionen denken zu koennen, nicht auch ein Kernproblem der Verstaendigungsprobleme der verschiedenen Akteure in den Digitalisierungsdiskussionen sein koennte.

NFT und Web3: Eine Einordnung

Auf Social Media und (leider) zunehmend bei Menschen und Organisationen, die ich mal mochte, beobachte ich derzeit das Umgreifen von Blockchainhype auf eine Weise, die mich ungut an eine Sekte mit grossem S erinnert.

Heute las ich zwei Texte von Menschen, die sich die Muehe gemacht haben, diesen Unsinn so aufzubereiten, dass er auch fuer Laien recht gut nachvollziehbar und verstaendlich ist:

The Web3 Fraud von Nicholas Weaver geht im Vogelflug ueber das Thema. The Third Web von tante macht sich darueber hinaus die Muehe, die einzelnen Bestandteile zu erklaeren und ihre Sinnhaftigkeit jeweils fuer sich einzuordnen.

Die Texte duerften sich gut eignen, um sie an interessierte Menschen im eigenen Umfeld weiterzuleiten, die in diese Welt abzudriften drohen. Wer jedoch schon drin ist, scheint in vielen Faellen leider verloren. It’s a cult.

Verantwortung internalisieren, Software verstehen, Nachtrag 2: A Tale of Two Haushaltstoepfe

John McGehjee, Bank of the West Los Altos branch vault, CC0 1.0

Ich sass heute Vormittag in einem Forschungsinterview, in dem der Interviewer eher beilaeufig einen Satz fallen liess, der mich nun den ganzen Tag nicht mehr losgelassen hat.

Eigentlich sprachen wir ueber die Mobility Data Specification, die sich einige US-Staedte ausgedacht hatten, um Shared-Mobility-Anbieter datengetrieben regulieren und steuern zu koennen. In den USA ist die relativ weit verbreitet, und die Staedte oder regionale Zusammenschluesse wie SANDAG betreiben auch die dafuer notwendige Infrastruktur selber, um beispielsweise die gewuenschten Geschaeftsgebiete, Ausschlusszonen etc. maschinenlesbar auszuliefern und die geforderten Statistikdaten entgegennehmen und in die Stadtplanung einfliessen zu lassen. In Europa hingegen erfaehrt das bislang nur eine sehr bruchstueckhafte Nutzung. Ich kenne derzeit keine Stadt in Deutschland, die die Daten bislang wirklich direkt in den Planungsprozess einbezieht – und sei es, indem sie einen der mittlerweile vorhandenen Dienstleister als Datenclearingstelle nutzen.

Der Interviewer kommt selbst aus dem Open-Transport-Feld und hat lange Jahre Erfahrung im ODIN-Netzwerk gesammelt (witzigerweise hatte ich noch einige Mails von ihm aus der OKF-Transport-Mailingliste von 2012 im Mailarchiv). Irgendwann meinte er: Die US-Staedte koennen vieles vielleicht deswegen besser selber intern loesen, weil die ja nicht so viel Geld haben, im Vergleich.

Das rumort jetzt eine Weile in mir, weil es ja intuitiv widerspruechlich erscheint, aber das Problem sehr sehr praegnant auf den Punkt bringt. Wenn die US-Kommunen weniger gut finanziell ausgestattet sind (was ich nicht geprueft habe, stellen wir es mal als These hin), muessen sie viel mehr auf eigene Kompetenzen setzen und diese strategisch gut aufbauen, um Digitalloesungen auch sinnvoll zum Fliegen zu bekommen.

Lilith Wittmann hatte heute einen von ihr fuer das ddb-Magazin geschriebenen Gastbeitrag (Ausgabe 12/2021, Seite 18) vertwittert, in dem sie nochmal sehr treffend den normalen Umgang deutscher Verwaltungen mit diesem Themenfeld beschreibt. Auszug:

Dieser verhängnisvollen Allianz zugrunde liegt der politische Irr­weg, Digitalisierung eben genau nicht als den Kulturwandel zu be­greifen, der erforderlich ist, um sie in der Verwaltung erfolgreich umzusetzen. Stattdessen wird der moderne Staat weiter als „Pro­jekt“ angegangen: Es werden keine neuen Stellen für Menschen mit IT­-Know­how geschaffen, son­dern Millionen für externe Projekt­unterstützung ausgegeben. Die Leitung von Digitalprojekten geht regelmäßig an eine Referatslei­tung, die schon andere Projekte erfolgreich durchgeführt hat – wer Förderleitlinien schreiben kann oder mal Pressesprecher war, der bekommt dieses Digitalisierungs­ding doch bestimmt auch hin.

Was aber sollen nun Menschen ohne Vorerfahrung mit solch hochkomplexen und technisch anspruchsvollen Themen in so einer Projektsituation anderes ma­chen als sich externe Hilfe zu holen? Also fragt man zum Beispiel Capgemini an – für Konzept und Ausschreibung. Und wenn sie schon mal dabei sind, können sie direkt die Projektsteuerung mit­ machen. Capgemini hat für die technische Umsetzung gute Erfahrungen mit IBM. Also holt man die dafür ins Boot. Und PwC übernimmt die Rechtsberatung – hat man ja schon immer so ge­macht.

Ausreichend viele faehige Menschen mit Wissen um IT-Architekturen einzustellen, scheitert derweil viel zu oft am immer selben Endgegner: Dem Stellenplan. Die bisherige IT ist schon vollauf damit beschaeftigt, die historisch gewachsenen Systeme zu baendigen und halbwegs rechtzeitig auf CVEs in der Firewall oder dem Exchange-Server zu reagieren. Und fuer weitere, gut qualifizierte und entsprechend im Wettbewerb nur mit entsprechender Besoldung zu haltende Kraefte gibt’s keine Stelle im Stellenplan, und vor allem kein Geld.

Macht aber nix, weil es ja genuegend Fuellhoerner fuer Leuchtturmprojekte und Vorzeigedigitalisierung gibt, aus denen dann die notwendigen Sachmittel fuer externe BeraterInnen fallen. Und das Externalisierungskarussell dreht sich eine Runde weiter.

Das ist ein wenig wie das alte Klischee vom oeffentlichen Bau, bei dem man an der Daemmung gespart hat und man eigentlich direkt zum Fenster hinausheizt: Im Finanzhaushalt (fuer Investitionen) haetten die besseren Fenster zu viel mehr gekostet. Und dass man das in 10 Jahren bei den Heizkosten wieder drin haette und die darauf folgenden 20 Jahre viel einsparen wuerde, betrifft ja nur den Ergebnishaushalt fuer die laufenden Betriebskosten.

Digitale Souveraenitaet, oder: Welche der Bedeutungen soll’s denn sein?

Gerrit, Border stone, CC BY-SA 3.0

Nach den Aha-Momenten zu Logomachie und einer zunehmenden Grantigkeit ueber die inflationaere Verwendung des immer sinnentleerter wirkenden Begriffs der „Digitalen Souveraenitaet“ hatte ich ueber den Sommer einige Paper zum Begriff gelesen, die mir durch die Timeline flatterten. Den Aufschlag machte IIRC dieses Papier von Julia Pohle, und ich habe dann wie so oft eine groessere Menge offener Browsertabs angesammelt, die ich ueber ein halbes Jahr mit mir herumschleppte.

Wesentlicher Antreiber der Debatte sind Vorhaben der Europaeischen Union, irgendwie „digital souveraener“ zu werden – man koennte meinen, im klassischen Sinn der Staatssouveraenitaet, der auf einem definierten territorialen Gebiet basiert, das es gegen ein Aussen abzugrenzen und offenbar auch abzuschotten gilt. Theodore Christakis geht in einem halben Buch auf die verschiedensten Auspraegungen ein, was das alles bedeuten soll: Wird das so etwas wie das bisher immer scharf kritisierte Modell der chinesischen Internetregulierung? Geht es um strategische Autonomie in Bereichen der Tech-Branche? Quasi eine europaeische Digital-Juche-Ideologie?

Auch irgendwie souveraen, aber halt anders

Gleichzeitig wird der Begriff bereits seit einiger Zeit in eher aktivistischen Kreisen verwendet, die ihn mit einem Begriff individueller oder kollektivistischer Autonomie besetzen. Im Herbst 2019 hatten Stephan Couture und Sophie Toupin (DOI 10.1177/1461444819865984, SciHub *hust) die Verwendung des Begriffs in englischen und (wenigen) franzoesischen Texten ausgewertet, und sie zu klassifizieren versucht. Angefangen von der altbekannten Declaration of Independence of Cyberspace (1996) reicht ihr Spektrum ebenfalls ueber das der Staatssouveraenitaet, aber auch Souveraenitaetsbestreben indigener Voelker in der digitalen Domaene, bis zur aktivistischen Verwendung. Der aktivistische Begriffsgebrauch ist dabei ein voellig anderer als der, den sich die EU beispielsweise bei GAIA-X vorstellt – vielmehr sollten mit Freier/Open-Source-Software und -Hardware Mittel zur Selbstermaechtigung geschaffen werden, ohne auf kommerzielle Angebote angewiesen zu sein. Wir kennen die Slogans: „Program or be Programmed“, oder „ein Geraet gehoert nur dir, wenn du es unter Kontrolle hast“, etc.

Zuletzt gehen die AutorInnen auf Persoenliche Digitale Souveraenitaet ein, als Eigenschaft oder Faehigkeit eines Individuums, Kontrolle ueber eigene Geraete, Daten, Hardware etc auszuueben – oder aber als Parallele zur koerperlichen Autonomie, wie sie auch in feministischen Diskursen verstanden werden kann.

Was jetzt, Staat oder Individuum?

Wir haben es also mit konkurrierenden Definitionen desselben Begriffs zu tun, der aber im politischen Raum von Gruppen verwendet wird, denen ich hoechst unterschiedliche Zielsetzungen unterstellen wuerde. Das ist ja schon einmal ein guter Einstieg.

Auf der Suche, genauer herauszufinden, was denn die moeglichst genaue staatliche Definition ist, gaebe es einmal die eher sachliche Variante:

1) it possesses authority;
2) this authority is derived “from some mutually acknowledged source of legitimacy”—which can be God, a constitution, or a hereditary law;
3) this authority is supreme; and
4) this authority is over a territory

Stanford Encyclopedia of Philosophy

Wegen des durchgehend leicht sarkastischen Tons empfehle ich aber aufs Waermste den Aufsatz “The Treachery of Images in the Digital Sovereignty Debate” von Jukka Ruohonen. Bei dieser Stelle musste ich einfach laut lachen:

The year 1648 haunts everyone participating in the current Internet governance and digital sovereignty debate. But why is something that happened 373 years ago relevant for the debate? In 1648 the Peace of Westphalia was signed.

Waehrend das Westfaelische System naemlich durchaus fuer eine Definition staatlicher Souveraenitaet ausreicht, ist darin auch schon gleich das Kernproblem des Uebertrags ins Digitale umrissen. Man kann die Declaration of Independence of Cyberspace als 90er-Jahre-Cyberpunk-Romantik abtun, aber andersherum stoesst die Souveraenitaet von Staaten bei einem grenzueberschreitenden Konstrukt wie dem Internet ebenfalls an ihre (haha) Grenzen: Wenn die Autoritaet an ein Staatsterritorium gebunden ist, und mangels einer uebergeordneten Autoritaet das Zusammenspiel von Staaten an Freiwilligkeit gebunden ist: Ja wie soll denn das gehen mit der Souveraenitaet im Netz? Auch: Stimmt es ueberhaupt, dass ein Staat einem anderen innerhalb dessen Grenzen keine Vorgaben machen kann – weil er ist ja souveraen? Und falls das stimmt: Dann sind nicht wenige ebenfalls als irgendwas mit Souveraenitaet geframete Gesetze ja fuer die Katz, oder?

Ruohonen beschreibt beispielhaft die Schlagabtausche zwischen der EU und den USA als ein nicht endendes Ping-Pong-Spiel:

The game played is also good drama. Particularly jolly are the frequent episodes depicting the players swinging in slow motion even though the ball has been taken away from them; namely, by Schrems (I) in 2015 and Schrems (II) in 2020.
[…]
With respect to ping, extraterritorial power—the ability of a sovereign to exert governmental actions in another sovereign’s realm without its consent—has long been a part of ping’s data protection legislation. […] That said, the same year the GDPR came into force, pong passed its Clarifying Lawful Overseas Use of Data Act (CLOUD Act). It provides pong’s authorities access to data stored in cloud services without the cumbersome mutual assistance treaty, effectively deprecating ping’s people constitutional protections provided by a jurisdiction where the data is stored

Aber selbst innerhalb des Framings der EU scheinen sich die TreiberInnen nicht auf eine der beiden Perspektiven (Staatlichkeit vs. Individuum) einigen zu koennen. In Foreign Policy kommentiert Tyson Barker: Europe Can’t Win the Tech War It Just Started. Geradezu beliebig werde der Begriff einmal mit persoenlicher Autonomie und Freiheitsrechten motiviert, und im naechsten Atemzug mit der uneingeschraenkten Herrschaft auf einem territorialen Gebiet. Und selbst das Territorialkonzept laesst sich willkuerlich in seiner Bedeutung ausdehnen: Sei es Standortfoerderung unter dem Deckmantel einer angeblich noetigen Autarkie; der Wunsch, auch irgendetwas wie DARPA zu haben; oder ein dumpf-nationalistisch klingendes “Taking back control” – bei dem man sich dann fragen kann, von wem man die denn zurueckhaben will und wie die da ueberhaupt erst gelandet ist.

Was man mit einkauft

Plutowiki, Zoll Gailingen Corona, CC0 1.0

Es mag sein, dass sich mit Begriffen wie der „Digitalen Souveraenitaet“ Opportunitaetsfenster auftun, „etwas gutes“ zu tun. Den Begriff staerker auf die individuelle Autonomie framen, und so weiter. Ich persoenlich moechte nicht so recht daran glauben und halte mich mittlerweile von dem Begriff fern.

Erstens, weil er in seiner Verwendung mehrfach in sich widerspruechlich ist und sich unter derselben Flagge komplett inkompatible Zielvorstellung versammeln, mit gegenlaeufigen Absichten.

Zweitens aber: Jede Verwendung eines aktuellen Hype-Begriffs zahlt letztlich darauf ein, dass das jeweilige Meme am Leben bleibt und weiter befeuert wird. Und selbst wenn man beste Absichten unterstellt, muss doch klar sein, dass man damit gleichzeitig auch eine Denkweise am Leben haelt, fuer die streng gesicherte territoriale Grenzen nicht nur im Netz eine Selbstverstaendlichkeit sind. Die Unterscheidung in ein „innen“ und „aussen”, in ein „wir” und ein „die“ ist fester Bestandteil des Konzepts. Und so sehr man ueber die Vorstellung laecheln kann, dass „unsere“ Daten irgendwie sicherer oder besser dran seien, wenn sie in den Grenzen „unseres“ Staatskonstrukts geparkt sind. So sehr man ueber Protektionismus und die Foerderung heimischer Firmen fuer unsinnige Projekte die Augen rollen mag. Man sollte sich darueber im Klaren sein, welches Meme man da mit ganz realen Konsequenzen fuer reale Menschen am Leben haelt.

Innovationslabore und welche Paradoxe sie an der Arbeit hindern (Eine Podcastzusammenfassung)

Auf der Zeitreise durch noch offene Tabs bin ich ueber die Folge „Innovationsmanagement“ aus dem Podcast „Innovationstheater“ von Dennis Horn gestolpert. Den Tab hatte ich auf Empfehlung von @saerdnaer seit Mai 2021 offen, und ich wuenschte, ich haette die Folge schon viel frueher anhoeren sollen, denn eigentlich steckt darin quasi alles, was ich schon ewig mal ueber „Experimentierraeume“ aufschreiben wollte 😀 Da die Episode aber nur spaerliche Shownotes hat, dachte ich, ich schlage einmal zwei Fliegen mit einer Klappe und fasse das etwas zusammen. Es gilt das gesprochene Wort 😉

Horn betrachtet in der Podcastserie vor allem, wie Medienhaeuser mal erfolgreich, mal hilflos mit diesem ganzen Digitalisierungs- und Innovationskram umgehen. In dieser besonderen Episode tauscht er sich mit Sascha Friesike zum Thema Innovation Labs aus – von denen zumindest in der Wirtschaft 9 von 10 mehr oder weniger bald wieder geschlossen werden.

Levke Wilkens hatte bei Friesike in ihrer Masterarbeit „Ungewissheit führen – Herausforderungen, Strategien und Anpassungen in ergebnisoffenen Projekten“ mittels Grounded Theory das Selbstverstaendnis solcher Labore theoretisch beschrieben, und Friesike schildert, dass dort staendig das Bild von Paradoxen aufgetaucht sei – man wolle quasi das grosse Auto, das aber in kleine Parkluecken passen solle.

In der Arbeit selber (leider ist sie derzeit nicht online oeffentlich verfuegbar) trennt Wilkens das Paradoxon vom Dilemma ab: Beim Dilemma stehen zwei Handlungsoptionen zur Wahl und man muss (und kann!) sich fuer eine entscheiden, nachdem man die Konsequenzen abgewogen hat. Dem Paradox dagegen wohnt ein unaufloeslicher Widerspruch inne – selbst wenn an einem Punkt eine Entscheidung getroffen wurde, passierte das jedoch schon auf einer hoeheren Ebene, die ausserhalb der Handlungsoptionen der Innovations-Labor-Aktiven lag. Man kommt bei den folgenden vier Paradoxen also vielleicht zur Erkenntnis, dass eine andere Handlung/Entscheidung sinnvoll (gewesen) waere – hat aber gar keinen Handlungsspielraum, das zu beeinflussen.

Innovationseinheiten sind zu oft mit sich selbst beschaeftigt (Paradox der entfremdeten Identitaet)

Paradox 1: Innovationseinheiten sind viel damit beschaeftigt, ueberhaupt herauszufinden, wer man eigentlich ist. Der Grund, warum man existiert, liegt ja darin begruendet, dass in der Mutterorganisation etwas nicht funktioniert – weil sonst haette man ja nicht gegruendet werden muessen. Gleichzeitig ist man Teil der Mutterorganisation und muss ihr daher ja irgendwie verbunden sein.

Die Reflexion, was man eigentlich sei und tun soll, nimmt dabei viel Zeit der Entwicklung ein. Selbst die dort Eingesetzten kommen haeufig mit einer anderen Vorstellung an, was sie eigentlich tun (sollen) als dem, was sie dann tatsaechlich tun. Eine grosse Frage ist vor allem, wie man denn die geschaffenen Erkenntnisse wieder ins Mutterschiff ueberfuehren soll.

Verbunden damit ist die staendige Suche nach „verrueckten Ideen“. Die Einheit denkt sich also etwas aus, das wird dann dem Management vorgestellt, und das zuckt mit den Schultern, weiss nicht so recht was damit anzufangen und fragt nach der naechsten verrueckten Idee. Langfristig wird also irgendwann die Frage aufkommen: Wozu die verrueckten Ideen finden, wenn das Feedback ist, dass so etwas in der Muttereinheit ja gar nicht funktionieren koenne?

Die Metapher vom Schnellboot und dem Tanker

Hier geht es um die (ueber)bemuehten Metaphern wie z.B. der Innovationseinheit als Schnellboot und dem Mutterschiff als traegem Tanker. Nur: Wie soll eigentlich ein Schnellboot einen Tanker manoevrieren? Das Schnellboot kann schnell wegfahren, aber wie soll aus der Umgebungserkundung des Schnellboots eine wirksame Kurskorrektur folgen? In der Metaphernlogik braucht es dann einfach weitere Einheiten, die „Schlepper“ oder „Leuchttuerme“ sind. Offen bleibt aber die Kernfrage der Wirkung: Woher kommt die Kurskorrektur beim Kommando auf der Bruecke des Tankers?

In der Masterarbeit wird dies das „Paradox der kontrollierten Flexibilitaet“ genannt: Die neue Einheit soll jetzt Loesungen erarbeiten, die vom Mutterschiff angenommen werden. Der Prozess, wie das dann passiert, ist aber nur selten vorausgedacht. Meist handelt es sich bei den betroffenen Organisationen um solche mit stark durchformalisierten Prozessen und starken Pfadabhaengigkeiten, die nun wahrgenommen haben, dass da draussen in der Digitalisierung viel schnellere Aenderungsprozesse erforderlich werden. Hierfuer wird also eine neue Unterorganisation geschaffen, die das mal erledigen soll.

In der Folge fallen zwei Arbeitsfelder auf: Zum Einen kann es um konkrete Produktentwicklung gehen – beispielsweise bei einem klassischen Automobilhersteller, der nun feststellt, dass man sich vielleicht um Elektromobilitaet kuemmern sollte. Die Einheit arbeitet also an konkreten Produkten, die sich diesem Problem stellen. Zum Anderen waere aber fuer den Vollzug in der Linie eigentlich breit angelegte Organisationsentwicklung notwendig. Letzteres ist aber meistens gar nicht im Scope der Einheit, die sich dadurch sofort wieder in der Identitaetskrise befindet und/oder gar keine Mechanismen vorfindet, auf die Organisationsentwicklung der klassischen Struktur Einfluss nehme zu koennen.

Unabhaengigkeit ist wichtig, dadurch geht aber die Wirksamkeit verloren

Das Paradox der wirksamen Distanz: Einerseits muesste die Innovationseinheit weit genug von der starren Struktur der Muttereinheit entfernt sein, um auch tatsaechlich Dinge umsetzen zu koennen. Sobald sie aber hierfuer weit genug vom Mutterschiff entfernt ist, ist sie aufgrund der Durchformalisierung gleichzeitig gar nicht mehr in der Lage, die geschaffenen Innovationen und Erkenntnisse in die Linie zurueck zu integrieren. Folglicherweise bedarf es einer mindestens genau so grossen Gruppe von LobbyistInnen, die die Formalismen und Ablaeufe des Mutterschiffs verstehen, um die Erkenntnisse zu uebersetzen und fuer die urspruengliche Organisation auch verdaulich und anschlussfaehig machen. Denn die „InnovatorInnen“, die man fuer den eigentlichen Erkenntnisgewinn oder die Schaffung neuer Dinge herangezogen hat, haben auf solche Arbeit – verstaendlicherweise – ueberhaupt keinen Bock.

Innovationseinheiten haben einen Auftraggeber, der die Umsetzung gleichzeitig verhindert

Letztlich bleibt das Paradox der folgenlose Mission: Gleichzeitig soll radikale Innovation geschaffen werden, der Auftraggeber wird aber am Ende sagen, dass diese Forderungen viel zu radikal sind und in der Organisation gar nicht oder nur mit einem sehr sehr langen zeitlichen Horizont umsetzbar ist. Im Podcast ist hier von Firmen oder Medienkonzernen die Rede, dieselbe Argumentation duerfte aber auch verwaltungsnahen Menschen bekannt sein: Die Pfadabhaengigkeiten der Kultur und Hierarchie sind so stark, dass die vorgeschlagenen Wege an Aussagen wie „das haben wir aber schon immer so gemacht“ oder „[Einheit] ist aber so, das laesst sich nicht aendern, das muss man hinnehmen“ ausgebremst werden. Es fehlt also an der Verankerung in den Machtstrukturen, den Impulsen auch eine konkrete Umsetzung folgen zu lassen.

Friesike erzaehlt hier eine Anekdote, ueber die ich laut lachen musste: Eine Innovationseinheit habe von Anfang an viele Leute aus der etablierten Struktur fuer Lobbyarbeit eingestellt, um die Ideen in diese Struktur zurueckzutragen. Das Resultat war, dass gerade aus dieser Lobbygruppe enorm viele Angestellte die Einheit verlassen haben – und zwar nicht wieder zurueck in die Hauptorganisation, sondern ganz raus aus dem Konzern, in spannendere andere Anstellungen. Sie hatten in der Innovationseinheit gelernt und vorgelebt bekommen, was eigentlich alles moeglich waere, wenn nur die Arbeitskultur und die notwendige Infrastruktur vorhanden waere. Und als Resultat hatten sie Lust daran gewonnen, das mit der Situation im Mutterkonzern verglichen, und ihre Konsequenzen daraus gezogen. Hier wuerde ich mir einmal eine Analyse solcher Mechanismen im Verwaltungskontext interessieren.

Keine Wirksamkeit? Flucht in Preise!

Das Grinsen liess bei der folgenden Frage nicht nach: Was tun, wenn man feststellt, dass man mit seiner Arbeit keine Wirksamkeit in der (angeblich) zu aendernden Mutterorganisation erfaehrt? Runter vom Schnellboot? Friesike entgegnet trocken, dass man in der Medienlandschaft wohl die Flucht in Preise antrete, und z.B. nach einem Grimme-Award schiele. Wenn die Anerkennung schon nicht aus Wirksamkeit oder erfuellender Arbeit in einem spanennden Team komme, schaffe man eben abgrenzbare Produkte, fuer die es einen Preis gibt. Auch hier sind Parallelen zur Verwaltungs-Digitalisierungswelt schnell gefunden.

Ich kann die Folge nur waermstens allen empfehlen, die in dem Feld unterwegs sind. Einige Highlights des dritten Drittels, sinngemaess zitiert:

  • Wenn man irgendwo hingeht und dort ein Schnitzel isst und das ist nicht gut – das kann mal passieren. Aber wenn man Jahre spaeter wieder hingeht und das Schnitzel ist immer noch nicht gut, muss man die Frage stellen, was die in der Zwischenzeit (nicht) gelernt haben und warum
  • Es scheint teilweise der Wille zu fehlen, herauszufinden, was muss man eigentlich verbessern. Das ist eine Aufgabe fuer die Organisation selber, sich zu verbessern.
  • Innovation auslagern heisst auch, dem Rest zu sagen: das ist gar nicht eure Aufgabe. Dafuer haben wir ein Team gebaut. Wird dann das Team gestrichen, ist auch das Thema abgeschafft.
  • Wenn es eine Loesung gaebe, haetten wir das Problem nicht. Das haengt immer an der Organisation, ihren Parametern etc. Das ist ein Prozess, den die Organisation selbst durchlaufen muss, und die Innovationsorganisation unterstuetzt bei diesem Wandel nur. Nur ist der Disconnect meist viel zu gross.
  • Eigentlich muesste sich die Organisation ueber die Zeit hinweg entwickeln, sich diese Themen selber aufzuschaffen und sie selber zu uebernehmen.
  • Zudem das Problem der Innovation delusion: Es geht immer nur um das „Neue“, aber nicht um das Reparieren bestehender Dinge, vor allem der Infrastruktur. Dinge sind einfach da, fallen nicht auf, bis sie kaputt sind, aber das ist nichts, womit man Preise gewinnt.
  • Den Beteiligten von Innovationslaboren werde haeufig Arroganz vorgeworfen. Die liegt vielleicht schlicht im Uebermut der Akteure begruendet, die glauben, dass sie das alles jetzt mit [hier Methode einfuellen] geloest bekommen. Im Gegenmodell: Wenn deine Innovationsleute wirklich realistisch einschaetzen koennten, wie hoch eigentlich die Chancen sind, wirklich etwas zu veraendern, wuerden sie sich den Schuh gar nicht anziehen.
  • Womit man bei einem der Grundprobleme waere: Man stellt Leute an, gibt ihnen die Erwartung, wirklich etwas aendern zu koennen, und dann werden sie frustriert.
  • Und zum Schluss die Gretchenfrage: Ist die Erwartung denn wirklich, dass im Innovationslabor wirklich Aenderung geschieht? Oder dient das vielmehr als Ort zum stolz vorzeigen, als Utensil mit dem man vorweisen kann, etwas zu tun?

Verantwortung internalisieren, Software verstehen, Nachtrag 1

Im Maerz 2020 warb ich hier dafuer, dass die oeffentliche Hand Kompetenzen aufbauen muesse, um Software auch verstehen zu koennen. Das heisst unter anderem auch Abhaengigkeiten verstehen, Sicherheitsparadigmen, und sei es im Zweifel nur, um passende Auftraggeberkompetenzen zu haben.

Nachdem die geschaetzten Wesen des IT-Sicherheitskollektivs Zerforschung neulich die Hausaufgaben-Verkaufs-App learnuu zerlegt hatten, gab es im Anschluss einen Twitter-Space mit ueber 200 Menschen, in dem die Geschichte noch einmal erzaehlt und das interessierte Fachpublikum Fragen stellen konnte. Zwei Dinge wollte ich dazu gerne kurz festhalten, nachdem mir eben ein Twitter-Thread dazu ueber den Weg lief.

Die Zivilgesellschaft muss es richten

Zum Einen: Ich finde die Leistung von Zerforschung – und auch all der anderen, die irgendwelchen Startups hinterherkehren – sehr beachtenswert, und zwar in mehreren Dimensionen. Man muss sich das einmal vorstellen: Da sitzen ein paar junge Leute im Pandemiefrust ueber Deutschland verteilt zusammen, verbunden durch Messenger-Chatgruppe und BBB-Videocalls. Und waehrend sie eigentlich mal LED-Lampen aus Fernost zerforschen wollten, stolpern sie nun seit Monaten immer wieder gegen irgendwelche Testzentren oder sonstige IT-Infrastruktur, und aus einer Mischung aus Neugier, dem Wissen um die richtigen Werkzeuge, Schabernack und Koffein entdecken sie dabei eine broeselige Infrastruktur hinter der schicken Fassade nach der anderen. Upsi!

Die ganz andere Dimension ist aber, wenn man sich bewusst macht, wer solche Probleme denn sonst aufdecken wuerde. Derzeit basiert die Ueberpruefung irgendwelcher deutscher IT in der Wildbahn – egal ob privatwirtschaftlich auf den Markt gebracht oder von der oeffentlichen Hand beauftragt – in einer beachtlichen/bedenklichen Anzahl der Faelle darauf, dass spassorientierte Menschen auf Mate damit an einem langsamen Samstagabend in Quarantäne Karussell zu fahren versuchen. Die zustaendigen Behoerden werden meist nur reaktiv – also auf Beschwerden hin – taetig, und das BSI leidet seit Jahren unter dem Schatten, keine unabhaengige Einrichtung sondern nachgeordnete Behoerde des Innenministeriums zu sein.

Egal ob Testzentrum oder Hausaufgaben-Vercheck-App: es scheint also tatsaechlich vielfach daran zu liegen oder zu scheitern, dass zivilgesellschaftliche Akteure genuegend Kentnnisse und Freizeit haben, solche Tests zu machen. Das muss man einfach mal sacken lassen.

Zertifikate vom IT-Planungsrat?

Die andere Sache fiel mir aber auf, als im Twitter Space ueber moegliche Zertifizierung von Software diskutiert wurde, und wie/ob man IT irgendwie pruefen lassen sollte. Weil, so schick und gut ich es faende, wenn Sicherheitstests (vor allem dann, wenn schon einmal schief anschauen reicht) nicht von Menschen in ihrer Freizeit abhaengen wuerden: Ich fuerchte mich ein wenig vor einer Welt, in der solche Zertifikate zu aehnlich religioesen Ersatzhandlungen verkommen wuerden wie die Aufstellung eines Verfahrensverzeichnisses um das passende Haekchen wegen der DSGVO machen zu koennen. Oder in der dieselben Menschen definieren, was „sicher“ ist, die sich den ganzen Prozess rund ums OZG ausgedacht haben.

Denn, auch die oeffentliche Hand, auf allen foederalen Ebenen, beschafft oder finanziert Software. Bisweilen auch mal, um den Eindruck zu erwecken, man taete ja etwas, beispielsweise in einer Pandemie. Und selbst wenn man ein erweitertes Set als die bisherigen Pruefschablonen haette, muesste man diese auch anzuwenden und zu interpretieren verstehen. In der Realitaet muss man lange suchen, dass die oeffentliche Hand bei der Begutachtung von Software die richtigen Fragen stellt – oder andersherum, dass an den entscheidenden Ebenen Input wie der von Zerforschung auch geparst werden koennte.

Mehr Fragen als Antworten

Im Wikimania-Vortrag “Wikimedia Movement and the Paradox of Open” (via @kommunikonautin) nannte einer der Vortragenden die ehrenamtliche Arbeit an Wikipedia und Freiem Wissen eine burgeoise Art des Aktivismus: Einer Wissens- und Zeitelite deutlich zugaenglicher als dem Rest der Menschheit. Dasselbe gilt fuer all die anderen Freizeit-nebenher-Aktivitaeten, egal ob Sicherheitsforschung, Arbeit an Freier/Open-Source-Software, Lobbyarbeit dafuer oder die Geschichten einzusammeln, die ausserhalb der unmittelbaren eigenen Blase in diesen Themen passieren.

Dependency von Randall Munroe, CC BY-NC 2.5

Mit Verweis auf XKCD 2347 (oben) gibt es beispielsweise in der Freien-Software-Welt ueber die Jahre hinweg immer mehr Stimmen, die die oeffentliche Foerderung solcher Softwareprojekte fordern. Das finde ich prinzipiell gut, nur: Was hiesse das, konsequent zu Ende gedacht? Sollte dann nicht auch Drive-by-Gegentreten gegen marode Apps gefoerdert werden? Oder Beitragen zu Wikipedia? Oder zu Wikidata, als Basis aller moeglicher kommerzieller Sprachassistenten? Und, falls ja: Wie? Mit Marktmechanismen? Und im Vertrauen bei der Vergabe der Mittel auf genau die Politik und Verwaltung, die einen all die Jahre nie so wirklich verstanden zu haben scheint, was aber egal ist, Hauptsache ein bissel Foerderung verteilt?

Und – daraus kam der Querverweis zum urspruenglichen Artikel, und daran haengen z.B. solche Foerderentscheidungen – wie zum Teufel bekommen wir denn nach ueber einem Jahrzehnt Civic Tech in Deutschland die Behoerden und politischen Apparate selber auf den notwendigen Stand?

Ich bin ratloser denn je.

Accidental Soundtracks

@maxoto_

This was by far the coolest sound I will ever hear, turn up the volume for this one! ##foryoupage ##fypシ ##music ##amazing

♬ original sound – Maxoto_

Gestern bin ich via Twitter auf obiges Tiktok gestossen, in dem verschiedene Tornadosirenen gemeinsam eine sehr seltsame, Filmmusik-artige Atmosphaere erzeugen. Der gesamte Thread ist eine Goldgrube, denn natuerlich kamen sofort Ergaenzungen. Beispielsweise jemand, vor dessen Haus Gueterzuege mit halb angelegter Bremse auch seltsame (Dis)harmonien abspielten:

Wie andere direkt darunter kommentierten: Waehrend der Sirenensound engelsgleich oder aus Skyrim haette sein koennen, ist der Bremsensound direkt aus einem Horrorfilm oder Silent Hill 😀

Aber damit natuerlich nicht genug, im Thread gab es noch einen Verweis auf einen Channel einer Person mit speziellem Geschmack rund um Sirenen und Katastrophenwarnsysteme, und das war meine erste Begegnung mit einem Sirenen-Mashup oder so?

Hier spielen je eine (offenbar kuenstlich erzeugte) ASC T-128, Federal Signal 2T22, und eine ACA Screamer zusammen. Erst mit „Alert“-Warnsignal (Dauerton), dann ab etwa der Haelfte im „Attack“-Signal mit Heulton — und das wird in den Kommentaren zu Recht mit dem Feeling des Blade-Runner-Soundtracks verglichen 😀 Die T-128 rotiert bei der Alarmierung, d.h. mal ist sie lauter, mal leiser. Und die 2T22 und die Screamer machen so etwas wie eine Akkordfolge mit Spannung und Aufloesung. Siren sounds to relax and work to, ich haette selbst nach Sea Shanty Tik Tok nicht gedacht, dass das ein Genre werden wuerde.

Aber natuerlich gab es auch ein Duett. Ist ja auch schoen, wenn man sich darauf verlassen kann, dass tolle Leute im Internet tolle Dinge machen 😀

Buchempfehlung: A Civic Technologist’s Practice Guide, von Cyd Harrell

Die Civic-Tech-„Bewegung“ – so man ueberhaupt von einer sprechen kann, so vielfaeltig wie die Stroemungen sind – kommt langsam ins Pubertaetsalter. Um so ueberraschender, dass Buecher aus der Praxis wie der “Civic Technologist’s Practice Guide“ von Cyd Harrell immer noch so selten sind. Klar, in den ueblichen Fachbuchverlagen gibt es ganze Regalmeter voll mehr oder eher weniger nuetzlicher Handreichungen zu „Digitaler Transformation“, irgendwas mit Agil, oder Smart-City-Esoterik.

Harrell kann in ihrem Buch mit Stand 2020 aus acht Jahren eigener Praxiserfahrung im Maschinenraum berichten. Sie ist UX-Designerin und begann 2012 erst fuer das Center for Civic Design und danach das damals noch recht neu gegruendete Code for America zu arbeiten, bevor es sie zu 18F verschlug.

Max hat ein physisches Exemplar des Buchs gekauft, das gerade in meinem Umfeld die Runde macht, und nach meinem zweiten Durchlauf ist es gespickt mit Klebezetteln und Annotationen. Nicht etwa, weil man Dinge der Verstaendlichkeit halber annotieren muesste, im Gegenteil, die Sprache im Buch finde ich gut verstaendlich und nachvollziehbar. Ich hatte aber quasi alle drei Seiten einen „Ja, das ist gut umrissen und zusammengefasst, merken!“-Moment.

Egal ob es die Frage ist, was Civic Tech eigentlich alles ist (ehrenamtliches Engagement, externe Unterstuetzung und Beratung der oeffentlichen Hand, interner Kompetenzaufbau in der Verwaltung – ja, alles davon), oder dass sowohl das „zeigen was geht“ als auch das „umsetzen, was es dafuer braucht“ gleichermassen zum Spiel gehoert. Viele in der Szene duerften schon laengst selbst zu diesen Erkenntnissen gekommen sein, zusammengefasst in einem Buechlein sind sie aber praktisch und gut weiterzugeben.

Der Blick auf die Erfahrungen in den USA lohnt sich ohnehin. Den Versuch, Fellows in die Verwaltung zu schicken, gab es dort bereits vor 10 Jahren(!), und auch viele andere Dinge, bei denen man aus den Erfahrungen von anderswo haette lernen koennen, wurden einfach in Deutschland nochmal neu von vorne gemacht.
Erst durch das Buch lernte ich aber, dass in den USA bereits 2014 ein bekannter Venture Capitalist in die US-Civic-Tech-Szene einstieg und bereits laufende Programme einfach nochmal fuer sich neu erfand:

[It] took the civic tech community by surprise, but gained enormous mainstream press attention. It eventually disappeared […] without causing any significant change in the civic sphere, but it sufficiently distracted attention from the other groups working in the same space.

Ich hatte das Buch dann kurz weggelegt, aus dem Fenster geschaut und an hiesige „Social Entrepreneurs“ und Versprechen eines deutschen 18F gedacht und das war ein interessantes Emotiotop.

Im spaeteren Verlauf geht es dann aber auch wirklich ans Eingemachte, wenn man wirklich Dinge modernisieren will in einer Verwaltung und wie das ueberhaupt gehen soll, und hier zeigt sich der Kontrast zu ueblichen „ja da machen wir halt bissel was mit agil“-Simulationen. Laeuft das Schwarzbrotgeschaeft als Unterbau ueberhaupt rund, wer operationalisiert spaeter die schoenen Prototoypen, sind genuegend Ressourcen da, um Legacy-Systeme zu analysieren und sie falls noetig auch aendern zu koennen.
Ueberhaupt, wie wird das Verwaltungssystem langfristig befaehigt, selbstaendig in die Zukunft blicken und die naechste oder gar uebernaechste technologische oder infrastrukturelle Huerde zu nehmen, ohne sich dabei aufs Gesicht zu legen und das womoeglich noch als Erfolg zu verkaufen? (Das mit dem selbstaendig Huerden meistern waere nebenbei die erste Definition einer „Souveraenitaet“, die ich tatsaechlich sinnvoll faende)

An manchen Stellen musste ich schwer seufzen. Fuer Harrell ist es denk- und fragbar, ob eine Verwaltungseinheit selber Dienste in der Produktion faehrt. Dass es Test- und Releaseprozesse fuer Software und Dienste gibt. Umfassendes Monitoring von Verfuegbarkeit und Erfolg. Ich wuenschte, dass man die in deutschen Verwaltungen ueberhaupt als Teil strategischer Aufstellung verstuende.

Und deswegen schliesst das Buch mit einem eigenen Kapitel ueber seelisches Wohlbefinden. Dass es dessen bedarf, hat eine ganz eigene Note. Dass es Teil des Buchs ist, spricht fuer Harrell.

Das Buch ist als Kindle- und EPUB-Format fuer knapp 10 Dollar zu haben, oder fuer rund 20 Euro als Taschenbuch. Ich moechte es sehr empfehlen.