Archiv der Kategorie: Allgemein

Der GovTech-Campus und der lange Schatten des New Public Management

Der frisch präsentierte Digitalbeirat Ende November 2022 – kann natürlich nichts für den GovTech-Campus

Jetzt will’s die Bundesregierung wissen mit der Digitalisierung. Vergangenen Mittwoch stellte Digitalminister Wissing den Beirat für die Umsetzung der Digitalstrategie vor. Mehrere Ministerien haben Konsultationsprozesse für ihre Digitalvorhaben gestartet – wenngleich vereinzelt wohl nicht allzu umfangreiches Feedback gewollt war. Neben den Digitallaboren, Experimentierräumen und anderen Flaggschiffen existiert zudem seit Anfang diesen Jahres der GovTech-Campus in Berlin. Auf diesen lud der Bundes-CIO Markus Richter unlängst die Podcaster Philip Banse und Ulf Buermeyer ein, die in der Lage der Nation (Ausgabe 313, Kapitel 6 ab 36:53) begeistert von ihrem Besuch dort berichten.

Das ist aus zwei Gründen bemerkenswert. Erstens wegen des GovTech-Campus selbst, seiner Organisation als eingetragener Verein, in dem Unternehmen für mehrere tausend Euro Mitglied werden können, und der Tatsache, dass dort Ministerien und privatwirtschaftliche Dienstleister unter demselben Dach sitzen und „gemeinsam“ IT-Dienstleistungen entwickeln. Die Lage hebt das als positives Beispiel hervor.
Zweitens, weil eher im Nebensatz erwähnt wird, dass es seit vielen Jahren auch eine aktive digitale Zivilgesellschaft in diesem Bereich gibt. Die ehrenamtliche Zivilgesellschaft hat im Konzept des GovTech-Campus aber gar keinen Raum, und wird in der Lage auch nur im Rahmen von Hackathons erwähnt, die an den Bedürfnissen vorbei entwickeln würden.

Derweil kann man argumentieren, dass die Situation, in der die öffentliche Hand bei ihren Digitalisierungsbestrebungen stets auf externe Dienstleister angewiesen ist und mit der Zivilgesellschaft allenfalls im Rahmen von Hackathons interagieren kann, eine Konsequenz des New Public Management ist. In diesem Denkmodell wird die Bevölkerung zu „Kund*innen“ des Staats, der sich – auch in genuinen Aufgaben der Daseinsvorsorge – wie ein Unternehmen verhalten soll. Das heißt zum Beispiel, dass Abteilungen sich untereinander ihre Leistungen in Rechnung stellen. Aber auch, dass Leistungen der öffentlichen Hand an Unternehmen oder eigene Gesellschaften ausgelagert werden. Ein Engagement außerhalb dieser Wirtschaftslogik ist gar nicht vorgesehen – das heißt, die umfangreiche praktische Digitalisierungsexpertise aus dem Ehrenamt zerschellt regelmäßig an der staatlichen Organisationspraxis.

Schon für die Anforderungsbeschreibung von Digitalprojekten braucht es externe Beratung

Wünschewand beim OpenCityCamp 2012

Das hatte gerade für die Digitalisierung fatale Folgen. Anstatt IT-Architekturkompetenzen auf allen Ebenen der föderalen Verwaltung aufzubauen, bestimmt seit Jahren eine Reihe externer Dienstleister, wohin der Staat digitalisiert. Was auf den ersten Blick wie eine Effizienzsteigerung klingt – denn natürlich sollen nicht über 11000 Kommunen jeweils ihre eigene Softwarelösungen entwickeln – führte über die Jahre zu einem weitreichenden Kompetenzverlust schon bei der Bestimmung, was eigentlich die Anforderung an die zu bauenden Softwarearchitekturen sind. Als Nebeneffekt kann es dann auch schon einmal vorkommen, dass die beschaffte Software am Ende gar nicht für den gedachten Einsatzzweck taugt und das Projekt für die Katz war. Lilith Wittmann nennt das in ihrer kritischen Besprechung des GovTech-Campus die „Beratertreppe“: Die laufende Externalisierung von Kompetenzen wurde zur selbstverstärkenden Spirale, so dass seit Langem schon für die Erstellung der Ausschreibungen für ein Softwareprodukt externe Beratung herangezogen werden muss.

Diese Erfahrung haben in den vergangenen Jahrzehnten auch immer wieder Ehrenamtliche aus der Zivilgesellschaft gemacht. Analog zur Civic-Tech-Bewegung in den Vereinigten Staaten entstanden in den späten 2000er-Jahren auch in Deutschland Gruppen Freiwilliger, die am praktischen Beispiel aufzeigten, was mit den Mitteln der Informationstechnik eigentlich möglich wäre. Als Instrument der Selbstermächtigung und zivilgesellschaftlichem Gegenstück zu Open Government entstanden Transparenz fördernde Auswertungen offener Daten, aber auch ausgereifte Beispiele, wie die öffentliche Hand ihre Leistungen für die Bevölkerung noch besser benutzbar machen kann.

All diese Gruppen stießen jedoch früher oder später auf die immer selben strukturellen Hürden, wenn es darum ging, dass der Staat ihre Ideen auch aufgreift und sich zu eigen macht. In ihrem Buch „A civic technologist’s practice guide“ beschreibt die ehemalige leitende 18F-Mitarbeiterin Cyd Harell zwei notwendige Schritte für die erfolgreiche Anwendung von Civic Tech: „Showing what’s possible, and doing what’s necessary“. Dieser Pfad, dass Ehrenamtliche aus der Zivilgesellschaft zeigen, was möglich wäre, und der Staat dann das Notwendige tut, um sich diese Beispiele zu eigen zu machen, scheint in Deutschland aber fast nirgendwo vorgesehen zu sein. Meist ist man entweder zivilgesellschaftliche „Kund*in“ des Staats und kann allenfalls im Rahmen von Anhörungen und Feedbackrunden Jahr für Jahr dieselben Post-Its auf Metaplanwände kleben – oder man muss selbst Dienstleister*in werden und sich beauftragen lassen, der eigenen Idee irgendwo im Wildwuchs der Verwaltungs-IT ein Gärtchen bestellen zu dürfen. 

Für gestaltende Zivilgesellschaft ohne wirtschaftliches Interesse gibt es in diesem Denkmodell keinen Raum

kleineAnfragen.de: 2014–2020

Für die Unterstützung der Umsetzer-Rollen gab es über die Jahre verschiedene Ansätze: Inkubatorprogramme, Förderlinien, Kooperationen mit Umsetzungspartnern aus der Wirtschaft. Das waren aber allesamt lediglich unterschiedliche Geschmacksrichtungen entweder von Firmengründungen oder kurz- bis mittelfristigen finanziellen Förderungen, damit Weiterentwicklung und vor allem Wartung und langfristiger Betrieb wenigstens nicht in der Freizeit der Beteiligten passieren musste. Wir haben im Ergebnis bis heute keinen Ansatz, um langfristig einen Pfad zu ebnen, dass die öffentliche Hand selbst fertige, von der öffentlichen Hand direkt übernehmbare Produkte wie kleineanfragen.de auch selber betreiben könnte, und sei es über Konstrukte wie die kommunalen Rechenzentrumsverbünde. An die Stelle von Civic Tech aus einer engagierten Bürgerschaft und einer Verwaltung, die selbst in der Lage ist, aus deren Erfahrungen zu lernen, ist GovTech getreten – also die vollständige Abhängigkeit von Firmen, die teils den Staat als einzigen Kunden für ihre Produkte haben.

Das ist auch eine Erfahrung der Zivilgesellschaft aus jahrelanger Beschäftigung im Austausch mit der Verwaltung – sei es bei selbst organisierten Barcamps oder der Beteiligung an Hackathon-Formaten. Und hier zeigt sich eine weitere problematische Konsequenz dieser Kompetenzauslagerung durch den Staat. Eher im Nebensatz erwähnt Philip Banse, dass es neben dem ebenfalls auf dem GovTech-Campus vertretenen Digital Service des Bunds auch Ehrenamtsnetzwerke wie Code for Germany gebe – aber die würden ja eher Hackathons machen und an den Bedarfen der öffentlichen Hand vorbei entwickeln.

Aus Sprints werden Marathons – aber warum sollen Ehrenamtliche laufen, und nicht der Staat?

Voll gut: Hackathons, um neue Fähigkeiten zu erwerben oder auf politische Missstände aufmerksam zu machen. Eher nicht so gut: Hackathons, um mal eben Aufgaben des Staats lösen zu wollen. Open Knowledge Foundation Deutschland from Deutschland, Jugend hackt Ulm 2018 (46355412802), CC BY 2.0

Indes waren es gerade die Ehrenamtlichen des Code-for-Germany-Netzwerk, die auf den Nachhall des großen Corona-Hackathons der Bundesregierung 2020 in Form einer Wiederentdeckung von Hackathons durch die öffentliche Hand und seinen Partnerorganisationen wie Tech4Germany (aus dem der oben erwähnte Digital Service hervorging) eher verhalten reagierten. Viele der Code-for-Germany-Aktiven haben über die Jahre hinweg Begegnungen mit Hackathonformaten gehabt  – und merkten über die Zeit, dass sie zwar an Erfahrung dazulernten, wie die Verwaltung funktioniert, aber immer wieder auf dieselben Probleme und Hilflosigkeiten dieser Verwaltung stießen, die schon auf den Austauschformaten mehrere Jahre zuvor adressiert werden sollen hätten. Die Erfahrung der Code-for-Germany-Ehrenamtlichen zeige, „dass es weniger um die Prototypen als viel mehr [um] Erkenntnisse auf einer strukturellen Ebene“ gehe, heißt es in einer Handreichung des Netzwerks vom Sommer 2020. 

Zum einen geht es bei Hackathons wegen des immer noch vielfach genutzten Wettbewerbscharakters nämlich viel zu häufig um den Start neuer Projekte. Häufig werden also Ideen neu erfunden, an denen andere Gruppen bereits – beispielsweise aus eigener Betroffenheit – zur Verbesserung einer konkreten Situation gearbeitet haben und nun Unterstützung zur Weiterentwicklung und Wartung gebrauchen könnten. Zum anderen laufen auch die „Verstetigungsprogramme“ bis heute meist auf die finanzielle Unterstützung der Ideengeber*innen oder die Entwicklung der Ideen in ein Geschäftsmodell hinaus. Aus dem Sprint werde ein Marathon, hieß es im Nachgang des Corona-Hackathons – ohne dabei die Frage zu stellen, warum denn nun ausgerechnet die Zivilgesellschaft einen Marathon laufen soll, und nicht der Staat.

Die ausgearbeiteten Lösungen aus dem Digitalen Ehrenamt liegen meist schon vor – haben aber selten Chance, zu verfangen

Austauschformat, 2017. Open Knowledge Foundation Deutschland from Deutschland, Datensummit 2017 – Tag 1 im BMVi (33974368270), CC BY 2.0

Ganz ähnlich lief dies auch ein Jahr später beim „Update Deutschland“-Hackathon, der auch Länder und Kommunen als „Zielgruppe“ identifiziert hatte und mit deren Unterstützung durchgeführt wurde. Der überfällige Aufbruch der Verwaltungsdigitalisierung sollte auch hier aus der Zivilgesellschaft kommen, die aber gleichzeitig unpolitisch von den veranstaltenden Institutionen in Anspruch genommen und in wirtschaftliche Wirkmuster gelenkt werden sollte, wie Daniel Staemmler und Sebastian Berg konstatierten. Bemerkenswert war, dass auch Kommunen an dem Format teilnahmen, die bislang den Input aus der örtlichen Ehrenamtsszene häufig links liegengelassen hatten. Analog zu kleineanfragen.de lagen auf mehrere der bei Update Deutschland gestellten „Challenges“ der teilnehmenden Verwaltungen bereits seit Jahren tragfähige Vorschläge aus der Zivilgesellschaft vor – die aber bislang von der öffentlichen Hand nicht umgesetzt wurden.

So stellte eine Kommune die Herausforderung vor, die Beschlüsse des Gemeinderats „erlebbarer, einfacher auffindbar und transparenter“ zu machen. Das Ratsinformationssystem der Kommune habe in der Regel Schnittstellen, um diese Informationen abrufen und beispielsweise auf einer Karte darstellen zu können. Bei der beschriebenen Schnittstelle handelt es sich um den seit 2012 durch Ehrenamtliche bei Code for Germany entwickelten Standard OParl. Und die Ironie der Challenge ist, dass, wie gerade erst von Nora Titz beschrieben, am Anfang dieser Standardisierung genau solche grafischen Aufbereitungen der Ratsinformationen standen – damals mit Scrapern aus den Informationssystemen extrahiert und beispielsweise auf Karten dargestellt. Die für die Öffentlichkeit nutzbaren, im Ehrenamt entwickelten Frontends für die Auswertung der OParl-Daten konnten bis heute nicht von der öffentlichen Hand übernommen, geschweige denn betrieben werden. Teilweise scheint es ihr schon schwerzufallen, die beim Ratsinformationssystem-Anbieter bestellte OParl-Schnittstelle auch auf ihre korrekte Installation zu überprüfen und abzunehmen. Die OParl-Schnittstelle der Challenge-gebenden Stadt war zum Zeitpunkt des Hackathons gar nicht aktiviert – und ist es auch zum Zeitpunkt dieses Artikels noch nicht. Es existiert zwar ein fertiges Validierungsskript, mit dessen Hilfe man die Standardkonformität der Schnittstelle in Minutenschnelle prüfen kann. Um dieses Skript bei der Abnahme im Verwaltungsnetz ausführen zu können, bedarf es aber der internen Fähigkeiten, den Validator auf Verwaltungsrechnern selbst zum Laufen zu bringen. Danach braucht es noch etwas Verständnis, die Ausgaben interpretieren zu können und sich vom Dienstleister nicht einreden zu lassen, dass der Fehler bei einem selber liege. Was engagierten Freiwilligen mit grundlegenden Kenntnissen eine spielerische Fingerübung weniger Minuten ist, stellt die Verwaltung teilweise heute noch vor große Herausforderungen. Der Staat baut hier nicht die notwendigen Kompetenzen in der Breite auf, um die gratis vom Ehrenamt gelieferten Skripte auch selbstbestimmt ausführen zu können. Stattdessen sind diese Ehrenamtlichen letztlich dazu gezwungen, selbst als bezahlte Dienstleister*innen aufzutreten, wenn sie wollen, dass ihre Ideen auch in die Tat umgesetzt werden.

Vorhandenes Wissen aufgreifen und dokumentieren – nach den Bedürfnissen des Ehrenamts!

CC0 Matthias Wörle im Auftrag von Wikimedia Deutschland

Die überstarke Begeisterung des Staats für Hackathons scheint mittlerweile – zum Glück! – endlich abzuflauen. Offen bleibt aber die Frage, wie Ehrenamt und Zivilgesellschaft sich überhaupt wirkungsvoll mit ihrer Expertise einbringen können. Der Anspruch kann dabei nicht sein, auch als Zivilgesellschaft ein Büro am GovTech-Campus zu haben. Schon die Existenz eines GovTech-Marktes ist mehr Indikator eines grundsätzlichen Problems, als dass diesem Markt mit einem Austauschcampus noch niederschwelligerer Zugang geschaffen werden soll. Es kann auch nicht die Aufgabe Ehrenamtlicher sein, werktags mit am Tisch zu sitzen, wenn Vergabeverfahren für staatliche IT-Lösungen nun möglicherweise noch weniger nachvollziehbarer als bisher zwischen Verwaltung und Dienstleistern ausgehandelt werden. Vielmehr geht es darum, den Wissensschatz der ehrenamtlichen Digitalen Zivilgesellschaft aktiv zu suchen und in die Verwaltung selbst zu transferieren. 

Wikimedia Deutschland hat gemeinsam ergänzt um Interviews mit der Deutschen Stiftung für Ehrenamt und Engagement vergangene Woche im Politikbrief „Digitales Ehrenamt: Zivilgesellschaftliche Teilhabe im Digitalen Raum“ sechs Forderungen aufgestellt, wie dieses Engagement besser vom Staat gewürdigt und gefördert werden sollte. Eine der Forderungen ist der systematische Transfer ehrenamtlicher Expertise. Der Staat sollte nicht etwa Dienstleister*innen auf seinen GovTech-Campus zu sich einladen und damit weiter Kompetenzen externalisieren, sondern strategisch interne IT-Fähigkeiten aufbauen. Das vorhandene Wissen im digitalen Ehrenamt muss durch aufsuchende Beteiligung und den Bedürfnissen der Freiwilligen folgend aufgegriffen und dokumentiert werden, um es verwaltungsintern verwendbar und anwendbar zu machen. Damit könnte endlich eine Brücke über die nach wie vor bestehenden Wissensklüfte geschlagen werden – damit kommende Generationen ehrenamtlich Aktiver hoffentlich künftig nicht mehr zu ihrer Frustration auf dieselben strukturellen Hürden stoßen, an denen diese Partizipation bislang scheiterte.

//edit am 24. Januar 2023, Rolle der DSEE im Politikbrief von WMDE korrigiert

Kommunalverwaltungen sollten sich nicht fuer IT-Entwicklung missbrauchen lassen

Bundesarchiv, B 145 Bild-F088837-0009 / Thurn, Joachim F. / CC-BY-SA 3.0, Bundesarchiv B 145 Bild-F088837-0009, Berlin, Volksfest, Toiletten-Wagen, CC BY-SA 3.0 DE

„Kommunalverwaltungen sind keine IT-Entwickler“, titelte Sven Hense aus Bonn dieser Tage. Ich war zuerst reflexartig gewillt, ihm zu widersprechen: Ich hatte hier mehrfach gefordert, dass Verwaltungen genau solche Faehigkeiten internalisieren sollen, die man fuer Softwareentwicklung braucht. Und das dann auch anwenden zu koennen:

wenn dieses Digitalisierungszeug endlich mal gelingen soll […] gehoert […] auch passende Kompetenz in der Verwaltung aufgebaut. Muessen zumindest manche VerwaltungsbeamtInnen auch irgendwann mal Cronjobs und Shellscripts einrichten koennen. Muessen dafuer schnell passende VMs fuer die Verwaltung klickbar sein. Muss statt Innovationstheater mit (natuerlich nicht transferierbaren) Leuchttuermen die marode IT-Basisinfrastruktur in einen brauchbaren Zustand versetzt und kontinuierlich weiter gewartet werden koennen. Nicht unbedingt, weil die oeffentliche Hand alles selber machen koennen sollte. Im Gegenteil, moeglichst viel sollte als Commodity klickbar sein. Dafuer muesste man aber wissen, was es alles gibt, und Technikfolgen abschaetzen koennen. Und dafuer hilft es ungemein, mal ellenbogentief in APIs gewuehlt zu haben.

Ich glaube, dass meine Forderung immer noch gilt, und dass Sven Recht hat. Denn er beschreibt ein Modell, das in den letzten Jahren immer beliebter geworden ist: Die Kommunen sollen’s richten, indem sie selber die Loesungen stricken, die es braucht, aber um die sich niemand kuemmert. Also eben nicht nach dem Showing-whats-possible-doing-whats-necessary-Muster, bei dem man zeigt was moeglich waere, als Anlass der zustaendigen Stellen, endlich das zu tun, was es dafuer braucht. Sondern, indem sich Bund und Laender aus der Verantwortung stehlen und die Kommunen tragen die Last – in einem „Wettbewerb der Ideen“, der dazu noch perverse Anreize fuer ziellose Digitalisierungsperformance schafft.

Anstatt die marode IT-Basisinfrastruktur zu staerken, laeuft die Foerderschiene naemlich etwa so: Bund und/oder Laender suchen sich ein aktuelles Hypethema aus, um das man nicht herumkommt. Dafuer ist natuerlich eine „Strategie“ aufzustellen. Leider weiss man selber auch nicht so richtig, was man damit anfangen soll. Also werden Foerdermittel ausgelobt, auf die sich Regionen oder Kommunen doch bewerben moegen, und wenn alles gut geht, wird irgendeine der Foerdernehmerinnen schon etwas abliefern, was man am Ende stolz vorzeigen kann. Man hat was getan, muss sich selber nicht kuemmern, und die auserkorenen Regionen/Kommunen duerfen stolz wie Bolle sein, wie sehr man ihnen zutraut, die Zukunft der Digitalisierung mit passgenauen Leuchttuermen zum neuesten Hype auszuleuchten. Aller Seiten Egos sind gestreichelt, und jetzt muss man nur noch irgendwas entwickeln.

Bloederweise geht es dabei selten um die beklagte marode IT-Basis, die man eigentlich zappelnd und schreiend ins 21. Jahrhundert modernisieren sollte. Mit einer gewissen Weitsicht koennte man die derweil einfach im Vorbeigehen mit Teilen dieser Foerdersumme begiessen, so dass das Geld nicht ganz zum Fenster hinausgeworfen ist. Stattdessen ist meist das Gegenteil der Fall: Die gewuenschten Modellprojekte – egal ob jetzt Digitaler Zwilling, Datenraeume, Datenplattformen oder eine sonstige Mode damit abgefruehstueckt werden soll – muessen gelingen, egal was eine kritisch-unabhaengige Begutachtung ergibt. Damit dieser Eindruck aufrechterhalten werden kann, muessen irgendwelche Datenfluesse, Systeme, sonst etwas an die bestehende Legacy-IT angedengelt werden. Technische Schulden werden damit also nicht abgebaut, sondern weitere Interimsbaracken an das aechzende Gesamthaus genagelt, die irgendwann irgendein armes Team wieder abraeumen muss. Wie es mit Wartung und Unterhalt dieser Systeme aussehen soll, ist ebenfalls unklar. Ich wuerde mittlerweile sagen, dass das in gar nicht so wenigen Faellen unter dem Strich ein Draufzahlgeschaeft wird, weil die langfristigen Folgekosten die kurzzeitige Foerderung uebersteigen werden.

Leider fehlt dafuer aber viel zu haeufig ein verwaltungsinterner Blick auf die systemischen Zusammenhaenge der IT-Landschaft und wohin sie sich entwickeln sollte. Und das liegt nicht einmal daran, dass viele der in den Foerderaufrufen gewuenschten Projekte bei den Kommunen eventuell einfach am falschen Ort sind. Bei den meisten Innovation-durch-Wollen-Projekten, denen ich begegnet bin, haette man mit einem Verstaendnis dafuer, wohin man eigentlich will, gar nicht so wenig bewegen koennen. Dafuer haette es aber der Bereitschaft bedurft, nicht nur Sachmittel fuer externe Beratung und Dienstleistung auszugeben, sondern auch Kompetenz im Stellenplan zu verankern und das auch langfristig weitertragen zu wollen. Die fuer diese Entscheidung zustaendigen Gremien verfuegen aber derzeit meist selbst nicht ueber ein Gefuehl fuer IT-Strategie und Opportunitaetskosten (siehe Biancas aktuelle Kolumne), und so dreht sich das Rad weiter. Und nicht zuletzt scheint es bisweilen auch einfach egal, ob das gewuenschte Produkt architekturell ueberhaupt Sinn und Nutzen ergibt – es ging eigentlich nur um einen Dunkelleuchtturm, der Energie und Aufmerksamkeit aufsaugt und allein dem Status und Ansehen dient.

tl;dr: Es ist ultra hilfreich, Kompetenzen zu internalisieren, die man fuer Entwicklung/Betrieb/Deployment von Software braucht. Allein, um aus diesem Wissen die strategischen Pfade auszuwaehlen, die langfristig den Abbau technischer Schulden ermoeglichen oder zumindest den effizientesten Einsatz von Mitteln bedeuten. Stattdessen lagern Bund und Laender derzeit abstrakte Wunschvorstellungen ueber Giesskannenfoerderung an Kommunen aus, die viel zu oft gar nicht die richtigen Anforderungen skizzieren koennen und politisch gewollte Produkte bauen, die womoeglich sowieso niemandem etwas nuetzen.

Solarcampingbusfahrrad

(Dieser Blogpost datiert als Draft von Anfang Februar 2021 und ich wollte „nur noch“ ein paar illustrierende Bilder machen. Ende November Mitte Juli 2022 ist aber besser als gar nicht.)

Ich spiele seit Beginn der Pandemie mit einem (laut Aufschrift) 100-Watt-Solarpanel herum, an das ich mal guenstig gekommen war. Anfangs habe ich versucht, alte Bleigelakkus damit wiederzubeleben, die waren aber einfach schon jenseits ihrer Lebensdauer angekommen. Also liefen die Experimente mit drei 18650-Zellen in Serie.

Sonniger Herbsttag: Es kommen laut 6-EUR-Messgeraet 75 Wp durch.

Je tiefer ich eingestiegen bin, desto faszinierter bin ich, wie guenstig die notwendigen Komponenten mittlerweile geworden sind. Der PWM-Laderegler zum Experimentieren ist fuer unter 10 EUR inklusive Versand zu haben, bringt gleich auch zwei USB-Ladebuchsen mit und war ganz witzig fuer erste Schritte. Ich hatte mir auch diverse Bauanleitungen fuer selbstgebaute „Powerwalls“ auf 18650er-Basis angesehen, letztlich schien mir das aber alles etwas zu muehsam. Der 2020 ausgedachte Plan war also eher, das Panel mit dem PWM-Regler einfach z.B. bei laengeren Ausfluegen an die Autobatterie des Blauen Bus anzuklemmen, damit man problemlos Handys laden oder ne Kompressorkuehlbox betreiben kann und solche Spaesse, ohne dass die Batterie leerlaeuft.

Nach dem Sommerurlaub 2020 mit dem Blauen Bus fiel mir aber auf, wie gross mittlerweile die Vielfalt bei sogenannten „Solargeneratoren“ geworden ist. Das sind Akkupacks, die mit eingebautem MPPT-Solarladeregler, einem Wechselrichter fuer 230-V-Geraete, und meist noch einer Reihe typischer Anschluesse wie USB-A- und -C-Ladebuchsen, 12V-Hohlstecker und Zigarrenanzuenderbuchse daherkommen. Solche Packs kannte ich vorher z.B. von Goalzero, wo sie gerne mal 800 Euro fuer 500 Wh kosteten – umso angenehmer war ich ueberrascht, dass es mittlerweile eine grosse Vielfalt solcher „Powerstationen“ gibt, mit Preisen typischerweise unter 1 EUR pro Wh Speicherkapazitaet.

51 Watt in der Kueche durchs Dachfenster

Ich bin eine ganze Weile um das Angebot im Netz herumgetigert – die hoechstgelobte Suaoki-Station war leider im Sommer 2020 nicht mehr lieferbar – und irgendwann im Herbst ’20 bei einer Allpowers-Solarpowerbank mit 372 Wh haengen geblieben, als es sie durch Rabatt- und Gutschein- und Preisvorschlag-Senden-Kombination fuer 220 Euro gab. Fuer einen Campingurlaub zum Handys nachladen reicht das glaube ich locker, fuer spassigere Sachen (Freiluft-Beamer-Kino, Oelpumpe der Heizung bei Stromausfall versorgen, PA-Anlage unterwegs betreiben) ist die Kiste vielleicht etwas zu klein dimensioniert. Aber die Entwicklung bleibt ja auch nicht stehen – mal schauen, was es in ein paar Jahren da alles geben wird. Das Gesamtpaket ist so jedenfalls komplett in einer Box, passt zusammen, und vielleicht haette ich sowas im Eigenbau etwas guenstiger hinbekommen – aber garantiert nicht so schnell und sauber und aufeinander abgestimmt.

Spannend wird kuenftig auf jeden Fall die Entwicklungen zu beobachten und was sich da noch tut. 2020 sah es so aus als passiere da viel, auch weil die Geraete als Notversorgung fuer CPAP-Beatmungsmaschinen angepriesen wurden. 2021 schien sich die Szene wieder etwas beruhigt zu haben. Ich bin sehr gespannt, was hier noch mit anderen, zyklenfesteren Batteriechemien (v.A. LiFePO) passieren wird.

Solar mit dem Fahrrad?

Im Hinterkopf rumoren bei mir seither auch die Moeglichkeiten, was denn auf die Weise noch so alles moeglich waere. Auf den langen Ueberland-Radtouren 2013 nach Berlin und 2018 zur Ostsee hatte ich das Handy meistens im Flugmodus und mal hier und da aus der Steckdose geladen, da war nichts mit mobiler Elektrizitaet. Und andererseits reizt mich seit Jahren auch die Vorstellung, einmal eine weitere Tour mit einem groesseren Pedelec oder gar Lasti zu fahren. Einmal „weil’s geht“, natuerlich auch weil’s witzig ist, und als drittes Argument vielleicht auch, weil man mit E-Support auch ein Feldbett unterbringen koennte, fuer richtiges Luxus-Lagern statt am Feldrand auf der Isomatte zu schlafen und nachts Nacktschnecken uebers Gesicht kriechen zu haben 😉

Ich hatte aber lange keinerlei Ahnung, wie man das mit dem Solar-Laden hinbekommen soll. Am Powerpack das 230V-Akkuladegeraet anschliessen ist etwas von hinten durch die Brust ins Auge; und wie man 48V-Packs mit 18VOC-Solarpanels laden soll, hatte ich erst nicht verstanden.

Irgendwann stiess ich dann aber auf eine Solar-Bike-Weitfahr-Challenge, und das hiess ja, dass das irgendwie moeglich sein musste. Wie so oft ging es nun also darum, den richtigen Suchbegriff zu finden, um auf das richtige Geraet zu kommen 😀 Und der richtige Begriff ist hier „MPPT-Boost-Controller“, und in diesem Video wird etwas erklaert, was es damit auf sich hat:

Neben den sehr gelobten „Marken“-Boost-Controllern fuer 200 EUR gibt es naemlich auch welche, die fuer rund 30 EUR aus China zu haben sind. Ich hatte mir im Fruehjahr 2021 einen bestellt, um auszuprobieren, wie gut und wie schnell sich die typische Pedelec-Akkus damit laden lassen. Mit einer Akkuladung lassen sich bei 25 km/h Ueberland und hoher E-Unterstuetzung etwa 25 Kilometer mit dem Armadillo fahren; mit langsamerer Geschwindigkeit und mehr Eigen-Muskel-Einsatz natuerlich entsprechend mehr. Eine Option waere, gemuetlich zu fahren und immer den jeweils anderen Akku aus dem Solarpanel laden zu lassen, wobei selbst zwei 100-Watt-Panel da nicht so furchtbar weit kommen duerften.

Die andere Option (und die Idee gefaellt mir gerade sehr gut) ist, das Panel einfach stationaer aufzustellen und die Lasti-Akkus immer daraus nachzuladen. Praktisch die Idee mit dem E-Fahrzeug als dezentralem Solarspeicher, nur halt aeeeh mit Lastenrad statt Tesla und Zeug. Im Praxistest hat das jedenfalls zumindest beim Armadillo funktioniert. Unnoetig schwierig ist das derweil mit den Bosch-Akkus, die noch irgendwelche Beschaltung im Akkupack haben und mit dem Ladegeraet ueber Steuerleitungen zu kommunizieren scheinen.

PS: Die Welt ist natuerlich klein. Norbert aus der Verschwoerhaus-Ehrenamtstruppe hat auch schon bei dieser Solar-Fahrradchallenge mitgemacht. Haette ich mir ja denken koennen!

Parkraumwandler, selbstgebaut

Seit 2017 gibt es „das kleine Parkraumwunder“, das leider keine eigene Website aber eine Facebook-Fanpage hat. Und seit ich das kenne, bin ich begeistert von dem Teil und moechte das nachbauen: Es ist gemaess StVO ein Handwagen, und weil es so gross und sperrig ist wie ein Auto, muss man es auf der Fahrbahn hinter sich herziehen. Und stellt man es auf einem Parkplatz ab, wird es zum Parklet, das die Nutzung des oeffentlichen Strassenraums wieder fuer Alle zugaenglich macht.

Das Modell ist an einigen Orten mittlerweile nachgebaut worden, und dient seither als einer von vielen Beweisen, wie man angesichts von Klimakatastrophe und ueberfaelliger Mobilitaetswende auch einfach mal selber Hand an die eigene Stadt anlegen und Veraenderung bewirken kann, wenn es sonst niemand tut. Waehrend das „Original“ bis hin zur Lenkaufhaengung aus Holz gebaut ist, gibt es auch Plaene mit einem geschweissten Fahrgestell. Und mit zwei Schubkarrenreifen und ein wenig Holz lassen sich beispielsweise auch kleine fahrbare Pflanzkuebel mit Minisitzbank bauen.

Es gibt dann natuerlich wieder Kleingeister, die sagen, „aber das ist ja gar kein Fahrzeug, das ist ein GeGeNsTaNd!“ und mit dem Abschleppen des Gefaehrts drohen. Die Raumwandler in Graz haben das pfiffig geloest, indem sie ihre Plattform auf jeweils ein Schwerlastenrad aufgebaut haben. Das ist dann definitiv ein Fahrzeug 😉

Abfragen im dezentralen Semantic Web. Oder: Baut viele SPARQL-Endpunkte statt grosser Datenplattformen

Wie Abfragen ueber verteilte Wissensquellen aussehen (nicht eine Super-Datenplattform!), ist in diesem Video von 2018 schoen erklaert (danke MarcelOtto). Ein praktisches Beispiel eines federated query mit Wikidata hatten @saerdnaer und @Wikidatafacts als kleine Fingeruebung fuer den kleineren Massstab bei einem Wikidata-Workshop in Ulm entwickelt.

(quelle:internet)

Ab 09:27 kommt im Video ein anschauliches Beispiel des dahinter liegenden Paradigmenwechsels. Anstelle von Apps, die auf hardcodierte APIs zugreifen muessen (und die dann wieder angeflanscht an zentralisierte Datensilos sind), werden Abfragen im dezentralen Modell lokal synthetisiert. Die notwendigen Daten kommen dann aus denjenigen verteilten Quellen, die fuer genau diese Frage notwendig sind.

In Ergaenzung (und technisch notwenige Voraussetzung) zum auf den Kopf gestellten Nutzungsversprechen von Open Data erlaubt diese Herangehensweise eine Abkehr von zentralisierten Superdatenplattformen. Die bisherige Idee war, dass es ja eine Vielzahl von Fachverfahren gebe, deren Daten in einzelnen Silos liegen. Um das aufzubrechen muessten Verfahren standardisiert werden und alle Daten in ein zentrales Silo anliefern. Was auch bedeutet, dass z.B. einzelne Kommunen oder Bezirke ihre bisherigen Fachverfahren fuer ein Thema aufgeben und sich der Mehrheit anschliessen muesten – und sei es mit Zwang.
Im Gegenmodell waere die interne Datenhaltung oder zumindest das Ergebnis eines ETL-Prozesses der Fachverfahrensdaten ein Knowledge Graph – und ueber verteilte Knowledge Graphs lassen sich wie im Video demonstriert wunderbar Abfragen fahren, nur durch die Magie von 5-Sterne-Daten mit Semantik. Die Bausteine dafuer sind mittlerweile Jahrzehnte alt und gut abgehangen. Und eigentlich passt das auch viel besser in das Modell eines foederalen Staats, der nicht alles von oben her vereinheitlicht und nach oben hin an sich zieht, sondern auf den Ebenen auch Entscheidungsspielraeume laesst.

Lilith Wittmann ist wie immer gleich deutlich radikaler und sagt: Alles bis drei Sterne sollte eigentlich gar nicht mehr zaehlen, wir muessten noch weiter gehen und Open Data erst ab vier Sternen ueberhaupt „zaehlen“ lassen:

Replying to @LilithWittmann Das Problem ist aber: Wir haben seit 15 Jahren dieselbe Vision, bei der alles ab Schritt 4 in weiter Ferne erscheint.
Und gerade in Deutschland kam nie irgendwas über 3⋆ hinaus.

Deshalb schlage ich heute eine neue Version von 5⋆ #OpenData vor.

5⋆ #OpenData 2022. pic.x.com/xwpsoktwvo

Open Data und das auf den Kopf gestellte Nutzungsversprechen

Tori Boeck hatte im Februar einen Artikel ueber ein sich nun seit Jahren hartnaeckig haltendes Muster in der deutschen Open-Data-Szene veroeffentlicht: Alles scheint sich um „Anwendungsfaelle“ zu drehen, und dass die tatsaechliche Nutzung offener Daten (neben der schieren Zahl veroeffentlichter Datensaetze) ein Erfolgskriterium sei.

Toris Post war mir jetzt endlich aufraffender Anlass, verschiedene Textstuecke zusammenzustellen, die ich seit einer Weile vor mir herschiebe, und im Mai war das nun endlich alles so weit, dass ich einen ersten Entwurf beim Kommunalen Open Data Barcamp vortragen konnte. Denn dieser Fokus „die oeffentliche Hand soll Open Data bereitstellen, damit Dritte irgendetwas damit tun“ ist einer der fundamentalsten Missverstaendnisse des letzten Jahrzehnts in dieser Szene. Und ich fuerchte, dieses Missverstaendnis sabotiert seit Jahren die eigentlich anzugehenden Aufgaben.

Eine Quelle dieses Missverstaendnis koennte das typische “Showing what’s possible“-Muster aus dem Digitalen Ehrenamt sein. An einem konkreten Beispiel wird gezeigt, was mit offenen APIs und/oder offenen Daten oder einem besseren User Interface moeglich waere. Dabei ist beinahe egal, ob man nun einen bestehenden Dienst besser macht (wie z.B. kleineanfragen.de das tat), oder ob man an einem ganz konkreten Beispiel (fuer das man irgendwie an Datenpunkte kam) ein anschaulich nutzbares Produkt baut, wie die Trinkwasser-App.

Wolfram Eberius, Cfg-summit-20211127-codefor-berlin-02, CC BY-SA 4.0

Ende November hatten wir im Netzwerk Code for Germany einmal versucht, typische Aktivitaeten der lokalen Open-Data-Arbeitsgruppen einzuordnen, und an vielen Stellen kam dieses „showing what’s possible“ zur Sprache. Menschen machen das aus den verschiedensten Beweggruenden: Weil sie selber einen praktischen Anwendungsfall fuer das Ergebnis haben. Weil sie zeigen wollen, was geht. Oder einfach auch nur aus Spass.

An vielen Orten entstanden genau so vor ca. 10 Jahren die ersten veroeffentlichten Datensaetze. In Ulm hatte die Gruppe Engagierter einzelne Datensaetze per Mail von der Stadtverwaltung erhalten, und beispielsweise die Geodaten der Stadtbezirke selber zum Download und ueber eine CouchDB ausgespielt, und in Click-that-Hood praktisch erfahrbar gemacht.

Andere Staedte sprangen auf den „Trend“ auf. Datensaetze wurden immer noch haendisch herausgesucht und veroeffentlicht – und meist orientierte man sich dabei an den Datensaetzen, die bereits anderswo veroeffentlicht oder gar in einen praktischen Anwendungskontext bezogen wurden. Und nebenbei glaubte man, dass Datenportale hermuessten, Metadatenbeschreibungen fuer jede Excel-Liste im Datenportal wurden umstaendlich gepflegt, und viel dergleichen haendische Arbeit mehr.

Auf der zivilgesellschaftlich engagierten Seite entstand dadurch der empfundene Druck, die bisherigen Konzeptprototypen und Showcases zu „redeployen“. Anderswo gab es nun auch Stadtbezirks-Geoshapes, Trinkwasserinformationen und dergleichen mehr. Also, war die Annahme, muesse man die aktuellen Daten nun auch in einen lokalen Ableger dieser Showcases einpflegen. Gleichzeitig stieg die Erwartung, dass diese Beispielvisualisierungen auch auf lange Frist unterhalten und gepflegt werden wuerden. Und an den Orten, an denen sich niemand auf die aufwaendig bereitgestellten Daten stuerzte, war die Enttaeuschung gross. Denn wofuer macht man sich ueberhaupt den Aufwand?

Tbachner, Container Terminal Dortmund 12.01.2013, CC BY 3.0

Eigentlich seltsam, denn die Metapher ging ja eigentlich schon lange dahin, dass die Bereitstellung offener Daten so etwas wie ein automatisierter Containerhafen werden sollte – derweil die Daten immer noch wie haendisches Stueckgut aus den Fachverfahren und Excel-Listen herausgetragen werden.

Und da sind wir eigentlich am Kernproblem: An viel zu vielen Stellen wird haendisches oder maessig automatisiertes 3-Sterne-Open-Data immer noch als akzeptables Zwischenziel angesehen.

Wir erinnern uns aus dem Covid-Daten-Beispiel: Bis zu 3-Sterne-Daten kommen als CSV daher – ohne Informationen, was eigentlich in welcher Spalte steht und was das sein soll. Ist es ein Datum? Ein Strassenname? Die Zahl der Infizierten am gestrigen Tag? Wenn ich das auswerten will, muss ich das meinem Parser erst einmal haendisch pro Spalte beibringen. Und wenn das RKI die Reihenfolge der Spalten aendert, faellt der Parser auf die Nase.

Ich glaube, dass all das damit zusammenhaengt, dass in der Regel intern gar nicht die Voraussetzungen vorhanden sind, um mit diesen Daten in groesserem Umfang etwas anzufangen. Die Listen sind Datenbasis fuer (haendisch erstellte) Reports, (haendisch erstellte) Schaubilder, aber es sind weder die notwendigen Werkzeuge noch die notwendigen Infrastrukturen vorhanden, um schon verwaltungsintern Daten ueberhaupt strukturiert abzulegen und dann an anderer Stelle damit zu arbeiten – idealerweise mit dem Ziel eines Knowlege Graphs fuer 5-Sterne-Open-Data.

Und gerade weil die notwendige Voraussetzung fuer die Herstellung eines solchen Zustands eine hervorragende IT-Infrastruktur auf dem Stand der Technik ist, muessen wir die bisherigen Herangehensweisen weitgehend auf den Kopf stellen. Bisherige Beispielkataloge, was denn ueberhaupt als Open Data veroeffentlicht werden koennte, orientieren sich meist daran, was anderswo da war. Das waren aber eben entweder die beruechtigten “Low Hanging Fruits”, oder eben Datensaetze fuer die genannten Proofs of Concept. Das ist aber meist komplett losgeloest von einer internen Nutzung, die ueberhaupt erst die Motivation und den Anlass geben koennte, die dafuer notwendigen Strukturen aufzubauen. Idealerweise wuerde eine Strategie nicht damit beginnen, die hunderten Fachverfahren zu kartieren und wie man deren Daten per ETL herauskratzen kann. Sondern (mit einer klaren Strategie zu Linked Open Data im Kopf!) praktische Anwendungsfaelle zu finden, in denen Einheit A intern Daten braeuchte, die Einheit B bislang unstrukturiert ablegt oder auf Zuruf aufbereitet – und dann beginnt, Prozesse fuer die automatische Verdatung zu bauen. Inklusive des Aufbaus der notwendigen Kompetenzen und des Unterbaus, um das selber machen zu koennen oder zumindest den Weg dahin kompetent selbst zu bestimmen. Open Data darf kein Mehraufwand sein, sondern faellt quasi als Abfallprodukt aus besseren Prozessen heraus – wer etwas veraktet, produziert automatisch Linked Data, das bereits behoerdenintern nachgenutzt werden kann. Der Open-Teil ist dann „nur“ noch eine Frage dessen, was nach aussen veroeffentlicht werden soll.

Veranstaltungs-Nachbesprechungen, aber verteilt. Hybrid forever!

Am Donnerstag war eine Veranstaltung der Friedrich-Ebert-Stiftung zu „Digitaler Souveraenitaet“, und natuerlich musste ich da unbedingt mal reinschauen. Eigentlich war die in Praesenz in Karlsruhe geplant, und da waere ich auch extra hingefahren. Kurz vorher gab es aber einen Schwenk auf online, und das ermoeglichte auch vielen anderen Leuten aus dem weiteren Civic-Tech-Umfeld, teilzunehmen.

Bin bei Veranstaltung der @FESonline zu Verwaltungsdigitalisierung. Die faseln da die ganze Zeit von Zivilgesellschaft und Datensouveränität und so😂.
Niemanden von Zivilgesellschaft ist auf dem Podium.
Allgemein hat in der letzten Stunde niemand aus Zivilgesellschaft gesprochen. pic.x.com/6wbkeuqrod

Abgesehen von einigen Seltsamkeiten (siehe Liliths Tweet) war das ein spannender Austausch, und im Chat gab es eine rege Diskussion auch mit Menschen, die offenbar Kommunalbackground hatten. Etwas den Rahmen verschoben hatte die Anwesenheit von MdL Jonas Hoffmann, dessen Forderungen zur Vermarktung oeffentlicher Daten ich hier schon kommentiert hatte. Das loeste natuerlich den Bedarf zu weiterer Diskussion aus – wohlgemerkt leider nicht „auf der Veranstaltung selbst“, denn von den vielen Diskussionsstraengen im Chat wurde nur wenig offiziell ausgewaehlt und besprochen. Aber Liliths gewohnt provokante Art sorgte dafuer, dass wir uns fuer nach der Veranstaltung noch in einem Twitter Space verabredeten und dort auch noch eine Stunde quatschten. Die Aufzeichnung ist auch nachhoerbar (im Tweet verlinkt).

Der @hoffmannspd redet gleich mit dem @_stk und mir über #OpenData und so. (Falls er kommt)

x.com/i/spaces/1mrgm…

Ich will jetzt gar nicht auf das Fuer und Wider von Twitter Spaces (oder anderen solchen Walled Garden) eingehen. Ich wuenschte, es gaebe mehr Alternativen, aber am Ende wird mir dann wieder unironisch die Forderung nach Digitalkommunismus vorgeworfen.

Was ich viel spannender fand: Jemand meinte im Codeforde-Austauschchat, dass man selber ja nicht nochmal eine Stunde investiert haette fuer so eine Nachbesprechung. Aber andererseits war das ja genau das Format, wie man es frueher in der Hosenwelt nach einer Praesenzveranstaltung gehabt haette mit rumstehen und quatschen. Nur dass es sich jetzt weniger in Teildiskussionsrunden aufteilt – und dass Leute von ganz woanders teilnehmen und mitdiskutieren koennen, die in Praesenz nicht unbedingt dabei sein koennten.

Ich glaube ja zwar nicht an eine Rueckkehr in „ein Leben wie vor der Pandemie“. Hybride Veranstaltungen sollten ganz normal werden. Aber ich baue jetzt schon ein wenig in meinem Kopf Setups, wie wir eigentlich auch bei Teilpraesenz-Veranstaltungen gerade solche Nach-Diskussionsrunden unter Einbeziehung moeglichst vieler nicht-anwesender Dritter technisch gut abwickeln koennen. Im Verschwoerhaus hatte der Verein diesen Winter richtig dick Geld in die Hand genommen, um genau solche hybriden Sachen noch besser abwickeln zu koennen (Symbolbild oben). Und uns ist immer wieder aufgefallen, dass all die praktischen Faehigkeiten aus Congress-Streaming, bisherigen Veranstaltungen und natuerlich den Erfahrungen aus pandemischen Loesungen total viel Wissen und Skills aufgebaut haben, die sich relativ gut auf solche Situationen uebertragen lassen duerften.

Ich wuerde das fuer einen grossen Gewinn halten.

Was tun in Krisen: Technologie ist nicht (immer) die Loesung

Ich sass die letzten Tage – vermutlich wie viele andere – oft doomscrollend die Lage in der Ukraine beobachtend herum. Und das ist der Kern: Man sitzt da, man kann beobachten, aber viele fuehlen sich hilf- und machtlos und wuerden gerne etwas tun.

Das trifft offenbar vor allem gerne die Gruppe von Menschen, die es sonst gewohnt ist, viel Zuspruch und Lob dafuer zu bekommen, mit ihren auf dem Markt gefragten Faehigkeiten Dinge zu entwickeln. Und so scrollen mir regelmaessig Vorschlaege und Ideen durch die Timeline, die sich vor allem um Tech-Solutionismus drehen: Irgendetwas bauen, was helfen kann, oder Technologie ausrollen, die… irgendetwas zum Besseren dreht.

Ich verstehe die reinherzige Motivation dahinter. Man fuehlt sich verpflichtet, etwas zu tun. Und sich in einem schnell zusammengefundenen Team zusammenzutun und die eigenen Faehigkeiten einzusetzen, gibt einem das Gefuehl, einen Beitrag zu leisten und wenigstens nicht nur dabeizustehen und nichts tun zu koennen.

Derweil ist dieses Engagement und diese Geschaeftigkeit in vielen Faellen wenig mehr als Selbstzweck. Er bereitet den dabei Engagierten ein gutes Gefuehl und gegebenenfalls auch tolle Publicity, traegt aber wenig zu einer wirklichen Loesung bei, sondern schadet im Zweifel sogar.
In ganzer Laenge daher ein Twitterthread dazu, um etwas Kontext zu schaffen:

tl;dr: Im Zweifel hilfst du als Tech-Person mit schnoedem Geld und Unterstuetzung bestehender Aktivitaeten und Gruppen mehr, als wenn du jetzt anfaengst, Dinge neu zu erfinden. In ukrainischen Staedten fuellen BewohnerInnen Molotowcocktails, um den Angriff einer mechanisierten Armee abzuwehren. Und tausende junge russische Soldaten, die offenbar weitgehend ahnungslos in einen Krieg geschickt wurden, liegen tot auf Strassen und Feldwegen. Das ist kein Zeitpunkt, um sich als Schreibtisch-Tech-Held zu profilieren.

(PS, heute 15 Uhr Demo in Ulm)

DigSouv als Handlungsfaehigkeit

Ein kleiner Nachtrag zur Digitalen Souveraenitaet: Anne Roth hatte diesen Artikel von 2015 auf netzpolitik.org gefunden, in dem Anna Biselli den damaligen Aufschlag des Bitkom zur „Digitalen Souveraenitaet“ kommentiert.

Spannend finde ich, dass sowohl der Artikel als auch das Bitkom-Positionspapier Fragen ueber den „blumigen“ (netzpolitik) bzw undefinierten (Bitkom) Begriff aufwerfen. Waehrend Biselli aber sogleich die fehlende Erwaehnung von Open Source bemaengelt und die Interpretation ins Spiel bringt, nicht auf „Technologie von US-Firmen“ angewiesen zu sein (territoriale Komponente, check), finde ich die Darstellung des Bitkom total interessant.

DigSouv wird dort naemlich als Handlungs- und Entscheidungsfaehigkeit oder vielmehr -kompetenz dargestellt und in Kontrast sowohl zu Fremdbestimmung als auch Autarkie gestellt. Und wenn man das einmal aus der Denkweise heraushebt, dass es dabei um die Fertigung von Software und Technologie geht, halte ich das nicht einmal fuer ein schlechtes Modell.

Am Beispiel der oeffentlichen Hand hiesse das z.B., dass man einerseits nicht in der Beratertreppe landet (schon die Ausschreibung muss extern vergeben werden, weil im Haus niemand Ahnung von der Materie und von Techstrategie hat), und andererseits auch nicht alle Raeder selbst erfinden will („wir pflegen unsere Datensaetze in einem historisch gewachsenen Gemisch aus Windows Server, einem Rudel Excel-Files und hoffnungslos an den Anforderungen vorbeigehenden On-Prem-Datenbanken“). Vielmehr ist man selber in der Lage, die eigenen strategischen Ziele zu ueberblicken, Baustellen in der Infrastruktur zu erkennen und diese gemeinsam mit kuenftigen Zielmarken abzuhaken.

Das halte ich eigentlich fuer ganz erstrebenswerte Ziele. Vielleicht hilft es ja, das einfach als Handlungs- und Entscheidungskompetenz zu bezeichnen und damit den Ballast des magischen Souveraenitaetsbegriffs ueber Bord zu werfen.