Veranstaltungs-Nachbesprechungen, aber verteilt. Hybrid forever!

Am Donnerstag war eine Veranstaltung der Friedrich-Ebert-Stiftung zu „Digitaler Souveraenitaet“, und natuerlich musste ich da unbedingt mal reinschauen. Eigentlich war die in Praesenz in Karlsruhe geplant, und da waere ich auch extra hingefahren. Kurz vorher gab es aber einen Schwenk auf online, und das ermoeglichte auch vielen anderen Leuten aus dem weiteren Civic-Tech-Umfeld, teilzunehmen.

Abgesehen von einigen Seltsamkeiten (siehe Liliths Tweet) war das ein spannender Austausch, und im Chat gab es eine rege Diskussion auch mit Menschen, die offenbar Kommunalbackground hatten. Etwas den Rahmen verschoben hatte die Anwesenheit von MdL Jonas Hoffmann, dessen Forderungen zur Vermarktung oeffentlicher Daten ich hier schon kommentiert hatte. Das loeste natuerlich den Bedarf zu weiterer Diskussion aus – wohlgemerkt leider nicht „auf der Veranstaltung selbst“, denn von den vielen Diskussionsstraengen im Chat wurde nur wenig offiziell ausgewaehlt und besprochen. Aber Liliths gewohnt provokante Art sorgte dafuer, dass wir uns fuer nach der Veranstaltung noch in einem Twitter Space verabredeten und dort auch noch eine Stunde quatschten. Die Aufzeichnung ist auch nachhoerbar (im Tweet verlinkt).

Ich will jetzt gar nicht auf das Fuer und Wider von Twitter Spaces (oder anderen solchen Walled Garden) eingehen. Ich wuenschte, es gaebe mehr Alternativen, aber am Ende wird mir dann wieder unironisch die Forderung nach Digitalkommunismus vorgeworfen.

Was ich viel spannender fand: Jemand meinte im Codeforde-Austauschchat, dass man selber ja nicht nochmal eine Stunde investiert haette fuer so eine Nachbesprechung. Aber andererseits war das ja genau das Format, wie man es frueher in der Hosenwelt nach einer Praesenzveranstaltung gehabt haette mit rumstehen und quatschen. Nur dass es sich jetzt weniger in Teildiskussionsrunden aufteilt – und dass Leute von ganz woanders teilnehmen und mitdiskutieren koennen, die in Praesenz nicht unbedingt dabei sein koennten.

Ich glaube ja zwar nicht an eine Rueckkehr in „ein Leben wie vor der Pandemie“. Hybride Veranstaltungen sollten ganz normal werden. Aber ich baue jetzt schon ein wenig in meinem Kopf Setups, wie wir eigentlich auch bei Teilpraesenz-Veranstaltungen gerade solche Nach-Diskussionsrunden unter Einbeziehung moeglichst vieler nicht-anwesender Dritter technisch gut abwickeln koennen. Im Verschwoerhaus hatte der Verein diesen Winter richtig dick Geld in die Hand genommen, um genau solche hybriden Sachen noch besser abwickeln zu koennen (Symbolbild oben). Und uns ist immer wieder aufgefallen, dass all die praktischen Faehigkeiten aus Congress-Streaming, bisherigen Veranstaltungen und natuerlich den Erfahrungen aus pandemischen Loesungen total viel Wissen und Skills aufgebaut haben, die sich relativ gut auf solche Situationen uebertragen lassen duerften.

Ich wuerde das fuer einen grossen Gewinn halten.

Was tun in Krisen: Technologie ist nicht (immer) die Loesung

Ich sass die letzten Tage – vermutlich wie viele andere – oft doomscrollend die Lage in der Ukraine beobachtend herum. Und das ist der Kern: Man sitzt da, man kann beobachten, aber viele fuehlen sich hilf- und machtlos und wuerden gerne etwas tun.

Das trifft offenbar vor allem gerne die Gruppe von Menschen, die es sonst gewohnt ist, viel Zuspruch und Lob dafuer zu bekommen, mit ihren auf dem Markt gefragten Faehigkeiten Dinge zu entwickeln. Und so scrollen mir regelmaessig Vorschlaege und Ideen durch die Timeline, die sich vor allem um Tech-Solutionismus drehen: Irgendetwas bauen, was helfen kann, oder Technologie ausrollen, die… irgendetwas zum Besseren dreht.

Ich verstehe die reinherzige Motivation dahinter. Man fuehlt sich verpflichtet, etwas zu tun. Und sich in einem schnell zusammengefundenen Team zusammenzutun und die eigenen Faehigkeiten einzusetzen, gibt einem das Gefuehl, einen Beitrag zu leisten und wenigstens nicht nur dabeizustehen und nichts tun zu koennen.

Derweil ist dieses Engagement und diese Geschaeftigkeit in vielen Faellen wenig mehr als Selbstzweck. Er bereitet den dabei Engagierten ein gutes Gefuehl und gegebenenfalls auch tolle Publicity, traegt aber wenig zu einer wirklichen Loesung bei, sondern schadet im Zweifel sogar.
In ganzer Laenge daher ein Twitterthread dazu, um etwas Kontext zu schaffen:

tl;dr: Im Zweifel hilfst du als Tech-Person mit schnoedem Geld und Unterstuetzung bestehender Aktivitaeten und Gruppen mehr, als wenn du jetzt anfaengst, Dinge neu zu erfinden. In ukrainischen Staedten fuellen BewohnerInnen Molotowcocktails, um den Angriff einer mechanisierten Armee abzuwehren. Und tausende junge russische Soldaten, die offenbar weitgehend ahnungslos in einen Krieg geschickt wurden, liegen tot auf Strassen und Feldwegen. Das ist kein Zeitpunkt, um sich als Schreibtisch-Tech-Held zu profilieren.

(PS, heute 15 Uhr Demo in Ulm)

DigSouv als Handlungsfaehigkeit

Ein kleiner Nachtrag zur Digitalen Souveraenitaet: Anne Roth hatte diesen Artikel von 2015 auf netzpolitik.org gefunden, in dem Anna Biselli den damaligen Aufschlag des Bitkom zur „Digitalen Souveraenitaet“ kommentiert.

Spannend finde ich, dass sowohl der Artikel als auch das Bitkom-Positionspapier Fragen ueber den „blumigen“ (netzpolitik) bzw undefinierten (Bitkom) Begriff aufwerfen. Waehrend Biselli aber sogleich die fehlende Erwaehnung von Open Source bemaengelt und die Interpretation ins Spiel bringt, nicht auf „Technologie von US-Firmen“ angewiesen zu sein (territoriale Komponente, check), finde ich die Darstellung des Bitkom total interessant.

DigSouv wird dort naemlich als Handlungs- und Entscheidungsfaehigkeit oder vielmehr -kompetenz dargestellt und in Kontrast sowohl zu Fremdbestimmung als auch Autarkie gestellt. Und wenn man das einmal aus der Denkweise heraushebt, dass es dabei um die Fertigung von Software und Technologie geht, halte ich das nicht einmal fuer ein schlechtes Modell.

Am Beispiel der oeffentlichen Hand hiesse das z.B., dass man einerseits nicht in der Beratertreppe landet (schon die Ausschreibung muss extern vergeben werden, weil im Haus niemand Ahnung von der Materie und von Techstrategie hat), und andererseits auch nicht alle Raeder selbst erfinden will („wir pflegen unsere Datensaetze in einem historisch gewachsenen Gemisch aus Windows Server, einem Rudel Excel-Files und hoffnungslos an den Anforderungen vorbeigehenden On-Prem-Datenbanken“). Vielmehr ist man selber in der Lage, die eigenen strategischen Ziele zu ueberblicken, Baustellen in der Infrastruktur zu erkennen und diese gemeinsam mit kuenftigen Zielmarken abzuhaken.

Das halte ich eigentlich fuer ganz erstrebenswerte Ziele. Vielleicht hilft es ja, das einfach als Handlungs- und Entscheidungskompetenz zu bezeichnen und damit den Ballast des magischen Souveraenitaetsbegriffs ueber Bord zu werfen.

Der Wirtschaftstraum vom Datenraum

Ist das ein Datenraum?
Photograph of the Division of Classification and Cataloging, 1937, gemeinfrei gekennzeichnet, Details auf Wikimedia Commons

In den letzten Jahren begegnet man immer wieder Pressemitteilungen zu „Datenraeumen“. Egal ob „urbaner Datenraum“ oder „Datenraum Mobilitaet“, aus irgendwelchen Gruenden will man nun nicht mehr nur Daten haben, sondern in der schoenen Tradition der Komposita muss man jetzt irgendwas dranhaengen, und jetzt ist es eben ein „Raum“.

Ich habe lange nicht verstanden, was es damit auf sich haben soll, und witzigerweise enden auch Nachfragen, was denn der Unterschied eines Datenraums zu einer Datenbereitstellung ist, oder was einen urbanen Datenraum so urban macht, oft in Handwaving. Urbane Datenraeume sind offenbar deswegen urban, weil sie mit urbanen Datenplattformen passieren. Klar.

Erst die Vorstellung der „Datenraum Mobilitaet“ im Open Transport Meetup im Mai 2021 liess einige Lichter bei mir aufgehen. Und gleichzeitig ergaben auch einige andere Projekte, naja, nicht wirklich einen Sinn, aber ihre Intention wurde mir etwas klarer. Und oh boy, laesst sich die oeffentliche Hand da gerade wieder spektakulaer ueber den Tisch ziehen.

Aus sehr sehr weiter Entfernung klingt die Mischung aus Datenraum und zugehoerigen Datenplattformen gar nicht so ganz verkehrt: Irgendwie (vielleicht magisch) sollen Datenpunkte aus verschiedensten Quellen mittels eines Enterprise Service Bus eingesammelt und vereinheitlicht bereitgestellt werden. Und zweitens soll dieser Datenraum am Ende dann alles koennen: Dort sollen nicht nur Daten der oeffentlichen Hand landen, sondern auch von Unternehmen, von BuergerInnen, alles ist an einem Ort, Rehkitze springen hocherfreut durch die bluehenden Landschaften usw usf.

Bei genauerem Hinsehen stellen sich dann aber einige Fragen:

  • Warum sollte ich als Privatperson oder Unternehmen die von mir erhobenen Datenpunkte auf dieser urbanen Datenplattform veroeffentlichen? Oeffentlich betriebene Internetdienste haben nicht den allerbesten Track Record dafuer, dass sie dauerhaft verfuegbar sind, dass URIs stabil bleiben, dass es keine ueberraschenden Datenreichtuemer gibt, dass Patches schnell eingespielt werden, etc pp.
  • Wie soll denn eine Plattform alles koennen? Also gleichermassen einigermassen statische (versionierte) Datensaetze, aber gleichzeitig auch Zeitreihen z.B. von Sensornetzwerken?
  • Wenn es am Ende (eigentlich logisch und notwendigerweise) sowieso mehrere verschiedene Plattformen fuer verschiedene Zwecke sind: Warum dann nicht gleich in Richtung Semantik und 5-Sterne-Open-Data arbeiten?
  • Und wenn man in Richtung 5-Sterne arbeitet – ist dann ein verteiltes und verlinktes System nicht eh viel gescheiter, und es ginge einzig darum, passende Infrastruktur als Commodity einkaufen zu koennen (wovon auch die oeffentliche Hand profitieren wuerde)?

Das sind zumindest die Fragen, die ich mir parallel bei den Vorstellungen diverser Datenraeume und beim Betrachten von vermeintlich alles koennen sollenden Datenportalen gestellt hatte. Bis es eben bei der Vorstellung des Datenraums Mobilitaet klick machte: Das alles ergibt genau dann einen Sinn, wenn man von einer Annahme ausgeht, die ich gar nie in Betracht gezogen hatte, weil sie so grotesk und hanebuechen ist: Naemlich, dass man irgendwie Eigentum an Daten haben und sichern kann. Im Zweifelsfall per Digitalem Rechtemanagement.

Vielleicht ist daher die Anlehnung an den (physischen) Datenraum auf neutralem Boden im Rahmen eines Konzernverkaufs oder einer Uebernahme abgeleitet: Die oeffentliche Hand soll ein System bereitstellen, in das sie selbst und privatwirtschaftliche Unternehmen Datensaetze einstellen koennen, und dann sollen die Beteiligten auf irgendeine Weise entscheiden koennen, wer Zugriff auf die geteilten Datensaetze bekommt und zu welchem Zweck sie genutzt werden koennen.

Das Framing findet beispielsweise im Rahmen magischer Begriffe wie der „Digitalen Souveraenitaet“ statt: Man moechte die Kontrolle behalten, auch nachdem man etwas veroeffentlicht hat, und diese Kontrolle verleiht einem irgendwie Souveraenitaet. Dass das de facto eben nur mit digitalen Rechteverwaltungsverfahren geht, faellt stillschweigend unter den Tisch. Das ganze Verfahren ist also nicht nur komplett orthogonal zur Weiterentwicklung in Richtung 5-Sterne-Open-Data und den dafuer notwendigen (und nach dem Datenraum-Projekt immer noch nicht hergestellten) Voraussetzungen, sondern es ignoriert auch die komplette DRM-Debatte der 2000er-Jahre. (Es sei ja eh ODRL und kein DRM und das mache es alles besser, naja)

Gleichzeitig werden wieder die Memes der „grossen auslaendischen Konzerne“ ausgepackt, gegen die es sich zu schuetzen gelte. Warum das Problem vor allem in der Herkunft der Konzerne liegen soll und man gleichzeitig gerne Smart-City-Millionen mit inlaendischen Konzernen verbrennt, bleibt unklar.

Viel schlimmer finde ich aber, dass dieses Framing sich offenbar – ebenfalls in kompletter Verkennung der Diskussionen der letzten 15 Jahre – auch allgemein in Debatten ueber Open Data einschleicht. In der oben eingebetteten Rede von Jonas Hoffmann (SPD) zum von der FDP eingebrachten Open-Data-Gesetzesentwurf in Baden-Wuerttemberg (PDF, 17/513) geht es nicht nur auf einmal auch um personenbezogene Daten und Datenschutz, sondern ab 03:20 soll gar „sichergestellt werden“, dass „Open Data nicht nur auslaendischen Konzernen hilft“. Open Data wird rein als Arbeitsplatzmaschine gesehen – und auf einmal sollen ueber rechtliche und technische Konstrukte die gewerbliche Nutzung von Daten eingeschraenkt bzw Geld daraus beschafft werden.

Das ist nicht nur deswegen bemerkenswert, weil der FDP-Entwurf in Abs. 3 des zu schaffenden § 3a ganz ausdruecklich diejenigen Informationen ausnimmt, zu denen ein Zugang erst nach einem Drittbeteiligungsverfahren moeglich waere oder deren Veroeffentlichung Urheberrechte Dritter entgegenstehen. Rein auf Faktendatenebene bleibt dann sowieso nur noch das Datenbankherstellerrecht als Rechtsgrundlage fuer eine Einschraenkung der Nachnutzung – wir hatten das hier bereits. Der Entwurf haette vor allem dafuer gesorgt, dass all die Informationen, die per Landesinformationsfreiheitsgesetz ohnehin auf Anfrage zu veroeffentlichen waeren, nun eben von Anfang an veroeffentlicht werden sollen. Man koennte die Umsetzung des Entwurfs theoretisch Crowdsourcen. Naja.

Zum Anderen aber sind Daten, die nicht fuer jedwede Zwecke frei nutzbar sind, schlicht kein Open Data. Das kann man dann Hoffmann-Daten nennen oder sonst etwas, aber Open Data ist das nicht. Und ich finde es etwas erschreckend, dass wir darueber im Jahr 2022 immer noch diskutieren muessen. (Erneut der Verweis auf den Dateneigentum-Artikel samt zugehoeriger Links)

Die einzigen Profiteure solcher Konstrukte sind a) grosse aus… moment… inlaendische Konzerne, die ums Verrecken Datenhandel mit Faktendaten betreiben wollen, und b) die beteiligten Unternehmen und Berater, die im Rahmen grosser Foerderprojekte an den dafuer noetigen DRM-Verfahren und -Plattformen herumdoktorn. Bezahlt wird das indes aus oeffentlichen Foerdermitteln – und leider lassen sich oeffentliche Stellen dafuer einspannen, diese Projekte voranzutreiben. Waehrend sich die technischen Schulden an anderer Stelle weiter ansammeln, und nichts passiert, um Open Data vernuenftig und automatisiert bereitstellen zu koennen.

Ich kann nur dazu aufrufen, als aufgeklaerte Zivilgesellschaft solche Projekte enorm kritisch zu hinterfragen. Es ist nichts weiter als die kuenstliche Privatisierung von Commons – und das traegt nicht etwa dazu bei, die Marktmacht boeser grosser Konzerne zu mindern, sondern verursacht Kollateralschaeden, die Groessenordnungen ueber dem erwarteten Nutzen liegen.

PS: Es geht auch positiv. Das Badische Landesmuseum hat angekuendigt, die Daten zu 10.000 Objekten aus seiner Sammlung im Sommer unter CC-0 gemeinfreiaehnlich zu veroeffentlichen – 3D-Scans, Audiodateien, PDFs, Bilder, Videos. Die Beteiligten schrieben auf Linkedin sueffisant, dass das 2022 doch Standard sei. Baem.

Eine Blockchain- und Web3-FAQ

Ergaenzend zum langen Artikel und dem langen Video zu NFTs und Web3 hat tante bewundernswerterweise noch die Geduld gehabt, eine lange FAQ zum Thema zu schreiben.

Was ich nicht nur in diesem Themenbereich so perfide finde ist der Umstand, dass sich im Feld so viele Gluecksritter aufhalten, die wirklich absurde Zauberprodukte verkaufen und vermarkten und in viele Schichten wohlklingenden Fachjargons wickeln, der sie kompetent und weltmaennisch wirken laesst.

Dem gegenueber stehen Menschen, die das Spiel fachlich beurteilen und als den Unsinn einordnen koennen, der er ist – die jetzt aber das Problem haben, fuer die Entlarvung des Quatschs meist eine Groessenordnung mehr Energie einsetzen zu muessen, als der urspruengliche Zauber erfordert hat. Das betrifft genauso alle moeglichen weiteren Bereiche von „Digitalisierung“.

Umso mehr Respekt fuer alle, die sich die Zeit und die Nerven nehmen, in verstaendlicher Sprache einen Gegenpol zu Unsinn aufzustellen.

Adding shapes to GTFS feeds with pfaedle

Headway frequency mapping in R. Requires shapes.txt

Three years ago, I wrote a little piece about how we cleaned up SWU’s GTFS feed.

I nonchalantly added that adding shapes and Conveyal’s GTFS editor would be a topic for another time, but never came around writing about that. I do not use the GTFS editor anymore, but Patrick Brosi’s pfaedle tool is still invaluable if your GTFS feed does not come equipped with a functional shapes.txt.

I had described the problem and where to find the proper tools back in early 2020 right at the intersection of my activism and public administration work. With the regional transit area spanning two Bundeslaender, there are some pitfalls left, however. Hence, a short primer.

Ingredients:

  • One Linux machine, whatever the flavor. Be it a VM or an old Laptop, it hardly matters. It shouldn’t be the slowest available machine, though, and it should come with a decent amount of RAM (the machine I’m using has 8 GiB). And if you go the germany-latest route (see below), about 100 GiB of hard disk space are required.
  • cmake, gcc (>4.9), git, wget, bzip2: sudo apt install cmake gcc git wget bzip2
  1. Get pfaedle, which is pretty much following the steps outlined in the github repo:
git clone --recurse-submodules https://github.com/ad-freiburg/pfaedle
mkdir build && cd build
cmake ..
make -j4
# optionally:
make install

2. Navigate to the folder where you store your unzipped(!) GTFS feed you want to add shapes to.

3. Get the proper OSM files. Since we are working with Ulm and Neu-Ulm, we’d either need a download of the metropolitan area of both cities, or download and merge the extracts for Bavaria and Baden-Wuerttemberg… or download and use the extract for the whole of Germany :shrug:

# Whole of Germany
wget https://download.geofabrik.de/europe/germany-latest.osm.bz2
bunzip2 germany-latest.osm.bz2

# Merge, requires osmium-tool: apt install osmium-tool
wget https://download.geofabrik.de/europe/germany/bayern-latest.osm.bz2
wget https://download.geofabrik.de/europe/germany/baden-wuerttemberg-latest.osm.bz2
bunzip2 bayern-latest.osm.bz2 && bunzip2 baden-wuerttemberg-latest.osm.bz2
osmium merge baden-wuerttemberg-latest.osm bayern-latest.osm -o merged.osm

Beware: Unzipping the GTFS feeds takes ages, especially the germany-latest. Expect a file exceeding 70 GiB and quite some decompression time. My laptop takes about 4–5 minutes for each Bundesland to unpack.

All that is left to do now is to let pfaedle do it’s work: pfaedle -D -x merged.osm .
After completion (and again, using it with germany-latest.osm takes quite a lot of time), a new folder gtfs-out is created. Test the results with your usual testing suites, ZIP it up, and off you go.

Open Data, wie es zu Covid haette sein koennen

Die Digitalisierung des Gesundheitswesens sei ein Trauerspiel, titelt das Redaktionsnetzwerk Deutschland. Nachdem man dem Reflex nachgegeben hat, „was, nur des Gesundheitswesens?“ zu rufen, dachte ich mir, man koennte ja mal das mit dem Aufschreiben des besseren Gegenentwurfs machen, der mir seit Monaten im Kopf rumspukt.

Tatsaechlich beobachte nicht nur ich die (Daten)lage seit geraumer Zeit mindestens mit Irritation. Lena Schimmel schrieb kurz vor Weihnachten einen ganzen Thread, dass sie selbst erschreckend lange die eigentlich vom RKI veroeffentlichten Daten ueber Sequenzierungen gar nicht erst gefunden hatte:

Ich glaube, dass „wir“ als „die gesellschaftliche Open-Data-Lobby“ uns wieder viel viel mehr auf Linked Open Data als Ziel konzentrieren und das auch kommunizieren muessen. Bei all dem Einsatz, wenigstens CKAN oder irgendein Datenportal auszurollen, scheint das fernere Ziel ueber die Jahre immer mehr in Vergessenheit geraten zu sein.

Schon vom Nutzungsfaktor her duerfte dieses Ziel jedoch am Beispiel der Pandemie sehr klar zu vermitteln sein. Seit nun beinahe zwei Jahren setzen sich jeden Morgen viele DatenjournalistInnen an ihre Rechner und versuchen, aus den aktuellen Datenpunkten zum Infektionsgeschehen und den Impfungen Erkenntnisse zu ermitteln und diese nachvollziehbar aufzubereiten.

Ueber die Zeit hinweg ist es ein bisschen zu einem Running Gag geworden, dass das RKI dabei immer wieder mal Spalten vertauscht oder neue Daten hinzufuegt, so dass all die gebauten Parser auf die Nase fallen.

5-Sterne-Schema aus den 2000ern. Quelle.

Derweil koennte die Lage mit verlinkten – oder wenigstens semantischen – Daten deutlich einfacher ablaufen. Man kann sich die 5-Sterne-Treppe fuer offene Daten am Beispiel der RKI-Berichte recht anschaulich klarmachen:

  • In der ersten Stufe (die Daten sind irgendwie da) sind die Informationen zwar irgendwie als digitale Symbole codiert, das kann aber auch ein PDF sein, oder im schlimmsten Fall ein PDF eines eingescannten Dokuments. Eine Maschine kann diese Symbole uebertragen und die dadurch codierten Inhalte aufbereiten und anzeigen, aber die Datenpunkte darin sind im unpraktischsten Fall nur fuer Menschen lesbar.

(Exkurs. Wenn wir ueber „Daten“ sprechen, werden schon diese beiden Definitionen haeufig wild durcheinander geworfen. Einerseits die Symbole oder „bits und bytes“, die Information codieren – so wie die Buchstaben, die diesen Satz bilden. Andererseits Datenpunkte, die z.B. verarbeitbare Information ueber einen Temperaturmesswertverlauf abbilden.)

  • In Stufe 2 und 3 sind auch die Datenpunkte fuer Maschinen interpretierbar, weil die Informationen mehr oder weniger strukturiert in einem proprietaeren (Excel) oder offenen (CSV) Format vorliegen. Die Zusammenhaenge bzw. die Semantik erschliessen sich jedoch immer noch nur der menschlichen Betrachterin, die diese Struktur selbst in die automatisierte Auswertung einbauen muss. Wenn das RKI ohne Ankuendigung die Reihenfolge der Spalten aendert, kann ein einmal geschriebenes Auswertungsskript diese Aenderung nicht ohne weiteres erkennen und wird erst einmal falsche Auswertungen ausgeben, bis es auf die veraenderte Datenlage angepasst ist.
  • Das ist der Punkt, der in Stufe 4 behoben wird: Dann ist naemlich auch die Semantik als weitere Ebene im Datensatz codiert. Ich muss nicht mehr als auswertende Person aus dem Originaldokument in menschlicher Sprache lesen und dann fuer das Auswertungsskript festlegen, dass Spalte B das Bundesland und Spalte N die Zahl der in einem Impfzentrum vollstaendig geimpften Personen unter 60 Jahren ist. Ich muss stattdessen dem Auswertungsskript fuer das (zugegeben, einfachere) Beispiel des Bundeslands „nur“ mitgeben, dass es in irgendeiner Spalte eine Beschreibung gemaess Language, Countries and Codes (LCC) erwarten kann, und da wird dann ein passender ISO-3166-2-Code mit dabei sein. In welcher Reihenfolge die Spalten dann ankommen, und ob das jetzt der Impf- oder der Inzidenzbericht ist, spielt eigentlich keine Rolle mehr.
Die Fallzahlen kommen aus einem Repo, die Geoshapes aus einem anderen, auf das als Dependency verlinkt werden kann. Ausserdem: Ich kann keine Karten zeichnen (deswegen brauche ich Shapes)

Im Vollausbau der Stufe 5 verlinkter Daten wird vielleicht am besten deutlich, was man mittlerweile haben koennte. Anstatt dass man sich jeden Morgen ein hoffentlich aktualisiertes Excel-File der Inzidenzen und Impfinformationen herunterlaedt, reicht das Gegenstueck zu einem git pull – alles liegt als von Tag zur Tag (bzw Veroeffentlichungsschnappschuss zu Veroeffentlichungsschnappschuss) versionierter Datenframe vor. Wenn ich den Datensatz einmal ausgecheckt habe, kann ich lokal die Updates bekommen, die Unterschiede von Schnappschuss zu Schnappschuss diffen, und auch in der Historie beliebig zurueckspringen, um Zeitreihen zu machen.

Da aber sowohl die Semantik im Datensatz codiert ist, als auch Links auf andere Datenquellen vorhanden sind oder von mir hergestellt werden koennen, kann ich sehr viel mehr automatisieren, was ich sonst zu Fuss machen muesste: Wenn in irgendeiner Spalte die Landkreise mit Kreisschluessel codiert sind, und ich meine Auswertung per Karte machen will, kann ich aus einer passenden anderen Datenquelle automatisch die Geometrien des NUTS-3-Level in Deutschland laden und mit dem RKI-Datensatz verknuepfen.

Das ist jetzt rein aus der Nutzungsperspektive gesehen, weil das mit die anschaulichste ist. Eigentlich viel spannender ist aber, die Konsequenzen durchzudenken, was es bedeuten wuerde, die dafuer notwendige Infrastruktur im Betrieb zu haben. Das heisst, dass Datenpunkte und Informationen nicht haendisch in der Gegend herumgetragen und zu Fuss alleine in Excellisten vorgehalten und gepflegt werden. Dass es definierte Schnittstellen und Datenfluesse gibt, die auch die behoerdeninterne Nutzung von fuer Entscheidungen relevanter Daten erlauben, ohne dass diese muehsam und fehleranfaellig zusammengekratzt werden muessen. Und nicht zuletzt auch, dass wir dafuer die ueber Jahrzehnte aufgebauten technischen Schulden der oeffentlichen IT-Infrastruktur abgebaut und die Architektur vorausschauend sparsamer weil effizienter(!) geplant und umgesetzt haben.

Es ist total schade, dass so viele der Visionen aus den 2000ern durch das jahrelange Klein-Klein der Umsetzung, die zu schliessenden Kompromisse mit Verwaltungen, und die perverse incentives fuer „Umsetzungen“ verkaufende Dienstleister so tief in die metaphorischen Sofaritzen verschwunden und in Vergessenheit geraten sind.

Manches davon ist natuerlich auch mittlerweile ueberholten Ueberlegungen von damals geschuldet. In der 5-Sterne-Treppe wird beispielsweise als erster Schritt ein „OL“ angegeben, das fuer eine Offene Lizenz stehen soll. Das halte ich mittlerweile fuer ueberholt und teilweise durch die viele Wiederholung auch ein wenig schaedlich. Denn die Diskussion z.B. bei Infektions- oder Impfdaten ist eigentlich gar nicht, ob sie unter der internationalen Creative-Commons-Lizenz oder der nutzlosen und ersatzlos abzuschaffenden Datenlizenz Deutschland „lizenziert“ werden. Denn das sind Faktendaten, und die gehoeren allesamt gemeinfrei gemacht.

tl;dr: Bitte einmal Linked Open Data als Ziel, zum mitnehmen, und etwas mehr freundliche Radikalitaet.

The Problem With NFTs

Als Ergaenzung zu den beiden Artikeln ueber Web3 und NFTs, ein 2:18 Stunden langer Videoessay ueber all die Probleme, angefangen von Cryptowaehrungen an sich, bis hin zum aktuellen NFT-Hype:

Waehrend der Rundumschlag wirklich viele der relevanten Themen abfruehstueckt, wird die Rolle der oeffentlichen Hand als Befeuerer irgendwelcher Blockchainprojekte gar nicht angerissen. Ich frage mich ein wenig, ob die grundlegende Denkweise, alles nur in wirtschaftlichen Transaktionen denken zu koennen, nicht auch ein Kernproblem der Verstaendigungsprobleme der verschiedenen Akteure in den Digitalisierungsdiskussionen sein koennte.

NFT und Web3: Eine Einordnung

Auf Social Media und (leider) zunehmend bei Menschen und Organisationen, die ich mal mochte, beobachte ich derzeit das Umgreifen von Blockchainhype auf eine Weise, die mich ungut an eine Sekte mit grossem S erinnert.

Heute las ich zwei Texte von Menschen, die sich die Muehe gemacht haben, diesen Unsinn so aufzubereiten, dass er auch fuer Laien recht gut nachvollziehbar und verstaendlich ist:

The Web3 Fraud von Nicholas Weaver geht im Vogelflug ueber das Thema. The Third Web von tante macht sich darueber hinaus die Muehe, die einzelnen Bestandteile zu erklaeren und ihre Sinnhaftigkeit jeweils fuer sich einzuordnen.

Die Texte duerften sich gut eignen, um sie an interessierte Menschen im eigenen Umfeld weiterzuleiten, die in diese Welt abzudriften drohen. Wer jedoch schon drin ist, scheint in vielen Faellen leider verloren. It’s a cult.

Verantwortung internalisieren, Software verstehen, Nachtrag 2: A Tale of Two Haushaltstoepfe

John McGehjee, Bank of the West Los Altos branch vault, CC0 1.0

Ich sass heute Vormittag in einem Forschungsinterview, in dem der Interviewer eher beilaeufig einen Satz fallen liess, der mich nun den ganzen Tag nicht mehr losgelassen hat.

Eigentlich sprachen wir ueber die Mobility Data Specification, die sich einige US-Staedte ausgedacht hatten, um Shared-Mobility-Anbieter datengetrieben regulieren und steuern zu koennen. In den USA ist die relativ weit verbreitet, und die Staedte oder regionale Zusammenschluesse wie SANDAG betreiben auch die dafuer notwendige Infrastruktur selber, um beispielsweise die gewuenschten Geschaeftsgebiete, Ausschlusszonen etc. maschinenlesbar auszuliefern und die geforderten Statistikdaten entgegennehmen und in die Stadtplanung einfliessen zu lassen. In Europa hingegen erfaehrt das bislang nur eine sehr bruchstueckhafte Nutzung. Ich kenne derzeit keine Stadt in Deutschland, die die Daten bislang wirklich direkt in den Planungsprozess einbezieht – und sei es, indem sie einen der mittlerweile vorhandenen Dienstleister als Datenclearingstelle nutzen.

Der Interviewer kommt selbst aus dem Open-Transport-Feld und hat lange Jahre Erfahrung im ODIN-Netzwerk gesammelt (witzigerweise hatte ich noch einige Mails von ihm aus der OKF-Transport-Mailingliste von 2012 im Mailarchiv). Irgendwann meinte er: Die US-Staedte koennen vieles vielleicht deswegen besser selber intern loesen, weil die ja nicht so viel Geld haben, im Vergleich.

Das rumort jetzt eine Weile in mir, weil es ja intuitiv widerspruechlich erscheint, aber das Problem sehr sehr praegnant auf den Punkt bringt. Wenn die US-Kommunen weniger gut finanziell ausgestattet sind (was ich nicht geprueft habe, stellen wir es mal als These hin), muessen sie viel mehr auf eigene Kompetenzen setzen und diese strategisch gut aufbauen, um Digitalloesungen auch sinnvoll zum Fliegen zu bekommen.

Lilith Wittmann hatte heute einen von ihr fuer das ddb-Magazin geschriebenen Gastbeitrag (Ausgabe 12/2021, Seite 18) vertwittert, in dem sie nochmal sehr treffend den normalen Umgang deutscher Verwaltungen mit diesem Themenfeld beschreibt. Auszug:

Dieser verhängnisvollen Allianz zugrunde liegt der politische Irr­weg, Digitalisierung eben genau nicht als den Kulturwandel zu be­greifen, der erforderlich ist, um sie in der Verwaltung erfolgreich umzusetzen. Stattdessen wird der moderne Staat weiter als „Pro­jekt“ angegangen: Es werden keine neuen Stellen für Menschen mit IT­-Know­how geschaffen, son­dern Millionen für externe Projekt­unterstützung ausgegeben. Die Leitung von Digitalprojekten geht regelmäßig an eine Referatslei­tung, die schon andere Projekte erfolgreich durchgeführt hat – wer Förderleitlinien schreiben kann oder mal Pressesprecher war, der bekommt dieses Digitalisierungs­ding doch bestimmt auch hin.

Was aber sollen nun Menschen ohne Vorerfahrung mit solch hochkomplexen und technisch anspruchsvollen Themen in so einer Projektsituation anderes ma­chen als sich externe Hilfe zu holen? Also fragt man zum Beispiel Capgemini an – für Konzept und Ausschreibung. Und wenn sie schon mal dabei sind, können sie direkt die Projektsteuerung mit­ machen. Capgemini hat für die technische Umsetzung gute Erfahrungen mit IBM. Also holt man die dafür ins Boot. Und PwC übernimmt die Rechtsberatung – hat man ja schon immer so ge­macht.

Ausreichend viele faehige Menschen mit Wissen um IT-Architekturen einzustellen, scheitert derweil viel zu oft am immer selben Endgegner: Dem Stellenplan. Die bisherige IT ist schon vollauf damit beschaeftigt, die historisch gewachsenen Systeme zu baendigen und halbwegs rechtzeitig auf CVEs in der Firewall oder dem Exchange-Server zu reagieren. Und fuer weitere, gut qualifizierte und entsprechend im Wettbewerb nur mit entsprechender Besoldung zu haltende Kraefte gibt’s keine Stelle im Stellenplan, und vor allem kein Geld.

Macht aber nix, weil es ja genuegend Fuellhoerner fuer Leuchtturmprojekte und Vorzeigedigitalisierung gibt, aus denen dann die notwendigen Sachmittel fuer externe BeraterInnen fallen. Und das Externalisierungskarussell dreht sich eine Runde weiter.

Das ist ein wenig wie das alte Klischee vom oeffentlichen Bau, bei dem man an der Daemmung gespart hat und man eigentlich direkt zum Fenster hinausheizt: Im Finanzhaushalt (fuer Investitionen) haetten die besseren Fenster zu viel mehr gekostet. Und dass man das in 10 Jahren bei den Heizkosten wieder drin haette und die darauf folgenden 20 Jahre viel einsparen wuerde, betrifft ja nur den Ergebnishaushalt fuer die laufenden Betriebskosten.