Ein paar Gegenfragen zur Frage „wem gehoeren die Daten?“ (Kurze Antwort: Niemandem. Und das ist auch gut so.)

Vielleicht ist das nur ein subjektiver Eindruck, oder ich reagiere darauf mittlerweile staerker, aber mir begegnen gefuehlt immer haeufiger beilaeufige Bemerkungen oder Fragen dazu, „wem die Daten gehoeren“. Beispielsweise bei der Frage, wer die Veroeffentlichung irgendwelcher Messdaten als Open Data freigeben koenne, „weil die Daten ja XY gehoeren“. Oder aber auch als vermeintliches Argument fuer technologische Souveraenitaet: Die oeffentliche Hand soll Dienste selbstbestimmt anbieten anstatt sie dem freien Markt ueberlassen, „weil dann gehoeren die Daten der IoT-Sensorik am Ende der Stadt, anstatt privatwirtschaftlichen Akteuren“.

Es ist wichtig, dass wir alle solche Bemerkungen immer und konsequent hinterfragen, wenn wir ihnen begegnen. Gerade die zweite Form ist naemlich eigentlich eine fast schon witzige Verdrehung dessen, was passiert ist: Privatwirtschaftliche Akteure haben sehr lange versucht, ein in der Realitaet gar nicht existierendes Eigentumsrecht an Daten in unsere Alltagssprache zu verankern – und indem wir ein Gegenmodell zur Privatisierung von Daten fordern, verbreiten wir ungewollt das Maerchen vom Dateneigentum.

Denn es ist vollkommen egal, ob oeffentliche Hand, Privatperson oder Wirtschaft: Daten (und hier meine ich insbesondere automatisiert erfasste Messdaten, aber auch schiere Faktendaten) koennen niemandem „gehoeren“. Und das ist auch gut und richtig so. Ein „Eigentum“ an Daten wuerde bedeuten, dass ich mit meinem Thermometer die Aussentemperatur messen und dann Dritten verbieten koennte, diesen Temperaturwert an andere weiterzugeben, nachdem ich ihn verraten habe. Und das waere fatal. Genausowenig kann und darf irgendwer mir verbieten oder nur unter bestimmten Auflagen erlauben, weiterzuerzaehlen, dass 768 Stufen aufs Ulmer Münster führen – auch wenn ich das aus einem (insgesamt urheberrechtlich geschuetzten) Buch oder der Wikipedia weiss (siehe auch).

Tatsaechlich kann die Verwertung und Verbreitung von Daten durch Dritte nur unter ganz bestimmten Bedingungen eingeschraenkt werden – beispielsweise aufgrund datenschutzrechtlicher Bestimmungen, meist aber aufgrund des Urheberrechts. Und nachdem sich neben des Begriffs des Dateneigentums auch die Annahme eingeschlichen hat, dass man Lizenzen (also Bedingungen und Einschraenkungen, zu welchen Konditionen Daten verarbeitet oder weiterverbreitet werden duerfen) einfach so anwenden kann (hier ist beschrieben, warum dem nicht so ist), halte ich es fuer ueberfaellig, diese Annahmen durch gezielte Nachfragen bei jeder Gelegenheit einem Realitaetscheck zu unterziehen.

Beispielfragen, die mir bislang eingefallen sind (und die ich bislang nie in exakt diesem Script abgespult habe, weil ich kein sadistischer Quaeler bin):

  • Was meinen Sie mit „gehoeren“?
  • Auf welcher genauen Rechtsgrundlage soll hier die Nachnutzbarkeit durch Dritte eingeschraenkt werden koennen?
  • Ich meine, auf welcher Rechtsgrundlage soll hier die CC-BY-Lizenz verbindlich gemacht werden koennen? Warum soll ein Dritter hier zur verbindlichen Namensnennung verpflichtet werden koennen?
  • Sie sagen schon wieder „gehoert“ – es gibt doch gar kein Eigentumsrecht an Daten, sondern nur bestimmte Immaterialgueterrechte. Bauen Sie hier auf das Urheberrecht auf?
  • Nach welcher Argumentation handelt es sich denn um ein geschuetztes Werk? (vgl. Kapitel 2.6 dieses Abschlussberichts, inline PDF)
  • Aber Faktendaten sind doch gar keine individuelle schoepferische Leistung (PDF), weswegen sollte hier ein Schutz nach § 2 Abs. 2 UrhG vorliegen?
  • Aber das Datenbankurheberrecht nach § 4 UrhG schuetzt doch nur die Form und Anordnung, nicht die Daten selbst. Und ueberhaupt: Ist die Anordnung der Daten hier wirklich eine schoepferische Leistung?
  • Sind Sie sicher, dass fuer das Live-Ausspielen eines aktuellen Messwerts Datenbankherstellerrechte nach §§ 87a ff. UrhG anwendbar sind?
  • Selbst wenn es so ein Eigentum gaebe: Wie wuerden sie das durchsetzen wollen? (PDF)
  • Kennen Sie das Gutachten der Justizministerkonferenz (PDF), dass ein Dateneigentum ueberhaupt nicht sinnvoll waere und oekonomisch keinen Nutzen haette?

Mit solchen (freundlich verpackten) Fragen bekommen wir hoffentlich bald sowohl die Idee vom Dateneigentum wie auch die Annahme von der Anwendbarkeit von „Datenlizenzen“ als magische Zaubersprueche etwas geradegerueckt. Interessanterweise scheint solche Fragen vor allem auf C-Level-Entscheiderebenen sonst kaum jemand zu stellen.

Das graue Rhinozerus der oeffentlichen IT-Infrastruktur

Die letzten zwei Wochen waren rasant. Was ich hier aufzuschreiben versuche, gehoert ganz klar in die „unsortierte Gedanken“-Kategorie, die hier augenzwinkernd im Titel steht. Das ist nicht reif. Das ist einfach dahingeschrieben, Status jetzt. Und mit einer gehoerigen Portion Wut im Bauch geschrieben.

Die IT-Infrastruktur der oeffentlichen Hand ist eine Shitshow. Das ist nichts neues. Wer auch nur ein wenig Zeit damit verbracht hat, sich damit zu beschaeftigen und die notwendige Fachkompetenz mitbringt, wird dem zustimmen. Oder ist BeraterIn, und macht jede Menge Geld damit, das naechste Leuchtturmprojekt zu verkaufen – natuerlich nicht auf andere Einsatzorte transferierbar, nicht nachhaltig, Hauptsache Powerpoint. Die Gruende dafuer sind vielfach hier und an vielen anderen Orten beschrieben, und ich habe nicht einmal Lust, die passenden, teilweise Jahre alten Texte dazu zu verlinken. Ich dachte lange Zeit, das liesse sich durch „Kill them by friendliness“ und Umarmung loesen. (Danke an der Stelle an meinen guten Freund S. fuer die jahrelange Motivation, nicht in noch mehr Zynismus abzugleiten. Bei ihm funktionierte seine Methode innerhalb seiner oeffentlich-rechtlichen Struktur, und ich bin ein wenig neidisch).

Covid-19 bringt derzeit viele Dinge ans Tageslicht, die bislang implizit irgendwie dahinschmorten. Es steht die Frage im Raum, wie Verwaltungen ihre Kernaufgaben wahrnehmen koennen, auch dann, wenn zur Sicherheit der Allgemeinheit Menschen aus der Verwaltung von zuhause aus arbeiten sollen. Und vielleicht bekomme ich nur einseitig Informationen, oder ich bekomme Erfahrungsberichte nur von Staedten, in denen es strukturell schon viel zu lange brennt, aber die Antworten bleiben bislang aus.

Es geht hier um strukturelle Defizite der oeffentlichen Hand, die lange Zeit gerade mal Feuerwehr spielen konnte, wenn es irgendwo im eigenen Haus brennt. Nicht selten waren die IT-affinen Kraefte die einzigen, die (um in der Metapher zu bleiben) ueberhaupt eine Rauchentwicklung wahrnehmen konnten – was zur Folge hatte, das sie gar nicht das notwendige Loeschwasser bekommen haben, um abwehrenden Brandschutz zu betreiben. Und da sind wir noch nicht einmal bei der Praevention und der Luft zum Atmen, um die Situation strukturell zu verbessern. Wir haben den Zustand, dass im metaphorischen Gebaeude der Verwaltung im Treppenhaus offene Reifenfeuer aufrechterhalten werden, um die Bude zu heizen – und keiner stoert sich daran. Ich war vor gut zwei Jahren Teil des kommunalen Fachpublikums bei einem Vortrag, wie die Verwaltungs-IT einer nicht genannten Kommune (nein, nicht meine) mit Kryptotrojanern umgehen moechte. Und die geplanten Massnahmen waren – und das ist kein Witz – die Vorbereitung von Alarmfax-Boegen, und der Austausch der Netzwerkkabel durch rote Kabel, um diese nach Ausloesung der Kryptotrojaneralarms (per Fax, klar) aus der Wand ziehen zu koennen.

Das ist der Status Quo.

Und jetzt haben wir unseren Black Swan, der vielleicht eher ein Gray Rhino ist.

Zur Erklaerung. Ein Black-Swan-Event ist ein Ereignis, das sich durch folgende drei Kriterien auszeichnet, copy und paste aus Wikipedia:

1) The event is a surprise (to the observer).

2) The event has a major effect.

3) After the first recorded instance of the event, it is rationalized by hindsight, as if it could have been expected; that is, the relevant data were available but unaccounted for in risk mitigation programs. The same is true for the personal perception by individuals.

https://en.wikipedia.org/wiki/Black_swan_theory#Identifying, CC BY-SA

Die Black-Swan-Theorie wurde 2013 von Michele Wucker durch die Gray-Rhino-Theorie ergaenzt. Gray-Rhino-Faelle sind durchaus realistisch und ihr Eintreten wahrscheinlich, ihr Einfluss ist betraechtlich, aber dennoch werden die mit ihnen verbundenen Folgen systematisch kleingeredet. Eine Uebersicht habe ich in diesem Post gefunden – auch wenn ich das Wording etwas problematisch finde, ich habe leider nichts besseres auf die Schnelle gefunden.

Das graue Rhinozeros, ueber das wir hier sprechen, sind die systematischen Folgen einer ueber Jahre, wenn nicht Jahrzehnte, vernachlaessigten IT-Infrastruktur aus oeffentlicher Hand. Wenn wir als Gesellschaft laut fragen, warum das RKI die letzten Wochen lang die Meldungen der Gesundheitsaemter haendisch in Excel-Listen gepflegt hat: Das ist das Resultat eines Gray Rhino. Wenn wir uns fragen, ob und wie Kommunen in der Lage sind, auch dann handlungsfaehig zu bleiben, wenn die Beschaeftigten mobil arbeiten: Das ist das Resultat eines Gray Rhino.

Mobil arbeiten ist derweil keine Statusfrage. Viel zu lange wurden Laptops und Smartphones im oeffentlichen Dienst quasi als Perks fuer Fuehrungs- und sonst irgendwie herausragende Kraefte verstanden. Es geht aber darum, auch in aussergewoehnlichen Lagen die Grundfunktionalitaeten der Verwaltung aufrecht zu erhalten. Kann eine Kasse keine Zahlungen mehr anweisen, trifft das im schlimmsten Fall sehr vulnerable Bevoelkerungsgruppen. Es geht nicht darum, ob die Arbeitsgruppe Trullala den Fuehrungskraefteaustausch jetzt auch remote durchfuehren kann. Sondern darum, ob Bafoeg-EmpfaengerInnen Geld aufs Konto bekommen, um ihre Miete zu bezahlen. Oder Menschen, die Wohngeld bekommen. Spielt die Szenarien gerne weiter durch. Wir haben das im eigenen Beritt vor zwei Wochen gemacht.

Was jetzt abzusehen ist: Die kommunalen Haushalte werden leiden. Die notwendigen Massnahmen zur Eindaemmung der Pandemie werden das Gewerbesteueraufkommen der Kommunen – und das ist ihre wesentliche Einnahmequelle – treffen. Auch Staedte, die bislang gut dastanden, werden knapper wirtschaften muessen.

Und jetzt sind wir wieder bei der Rauchwahrnehmung des Reifenfeuers.

Wenn die Konsequenz ist, dringend notwendige Investitionen in die Verwaltungs-IT nicht vorzunehmen. Wenn die Konsequenz ist, rundum den Guertel enger zu schnallen und eine funktionierende Infrastruktur irgendwie als eh-da zu betrachten. Wenn die derzeitige Offenlegung systematischer Defizite nicht Anlass ist, massiv Versaeumnisse der vergangenen Jahre nachzuholen, sondern allenfalls der metaphorischen IT-Feuerwehr endlich mal ein bissel Wasser nachzufuellen, um die allerallerschlimmsten Braende zu loeschen. Dann haben wir ein Problem. Das Shitrix-Desaster hat gezeigt, dass selbst fuer die Reaktion auf oeffentlich angekuendigte Sicherheitsluecken vielerorts keine Luft ist. Dass Verwaltungs-IT von Ereignissen getrieben ist, und aufgrund ihrer Besoldungsstruktur im Zweifelsfall vielerorts nur solche Leute in verantwortungsvolle Positionen bekommt, fuer die Alarmfaxe und rote Netzwerkkabel als zeitgemaesse Loesung angemessen scheint. Jetzt hier Abstriche zu machen und die offenkundig werdenden Defizite nicht als laut schreiendes Warnsignal zu verstehen, dass wir es mit dem Aequivalent zu jahrelang vermodernder Infrastruktur analog zu Bruecken zu tun haben, und als Reaktion nicht alle gebotenen Mittel aufzuwenden, den Betrieb nachhaltig zu sichern ist grob fahrlaessig. Jetzt kurzfristig einzusparen, wird sich auf Jahre hinweg raechen.

Der naechste Black Swan, ach was, das naechste Graue Rhinozeros wird kommen. Wer jetzt nicht umgehend handelt, muss sich persoenlich die Konsequenzen zuschreiben lassen. Wer jetzt nicht trotz zu erwartender knapperer Kassen nicht in Infrastruktur investiert, laesst wider besseren Wissens notwendige Bruecken in sich zusammenfallen. Bis sie nicht mehr passierbar sind. Und steht bei der naechsten kritischen Situation mit weit heruntergelassenen Hosen da. Das sollten wir alle klarstellen. Und die Verantwortung dafuer klar personell benennen.

Verantwortung internalisieren: Als Verwaltung Software verstehen

Unter diesem Tweet sammelten sich einige Antworten, die mir Anlass sein sollen, einmal unsortierte Gedanken der letzten Monate ein wenig zu ordnen. Die meisten Mitlesenden duerften wissen, dass seit ueber 5 Jahren bei Code for Germany (und vielerorts schon viel laenger, und natuerlich nicht nur in Deutschland) ehrenamtliche oertliche Gruppen der oeffentlichen Verwaltung zeigen, was Open Data bringt. Wie man Daten strukturiert. Worin die Vorteile des Ganzen liegen.

Man koennte also sagen: Dass Open Data nuetzlich ist, das daraus tolle Dinge entstehen, dass das ein anstrebenswerter Zielzustand ist und dass 100% Open Data eigentlich spaetestens seit 4 Jahren Status Quo sein sollte, darueber muss man eigentlich nicht mehr diskutieren.

Und dennoch tut sich die oeffentliche Hand offenkundig an sehr vielen Orten immer noch enorm schwer, dies alles in eine Praxis automatisiert bereitgestellter Offener Daten, passender Beschlussgrundlagen und weitsichtiger Beschaffungspolitik zu giessen. Es beschaemt mich, wenn 2020 immer noch Hackathons als neue Massnahme vorgeschlagen werden. Dazu dachte ich sei auch schon das meiste gesagt, aber ergaenzend sei nochmal auf die vielen vielen Beispiele von Jugend hackt verwiesen, die wirklich nun ueber Jahre und hervorragend zeigen, was sich mit Open Data und einer engagierten Zivilgesellschaft machen laesst. Die Frage ist jetzt doch vielmehr, was die naechsten Schritte sind, um die Ideen der Hackathons in der Verwaltung zu verfestigen.

Witzigerweise zeigte gerade ein eher schiefes Beispiel im weiteren Verlauf der Twitterdiskussion worum es eigentlich geht und wo es hakt:

Der Punkt ist natuerlich, dass Kraftfahrzeuge und Vergaser fertig zu kaufende Produkte sind, die selbst fuer den Einsatz im oeffentlichen Dienst passgenau von der Stange gekauft werden koennen. Fuer Spezialanfertigungen – sagen wir mal, Loeschgruppenfahrzeuge – gibt es jahrzehntelang entwickelte Prozesse, Schirrmeistereien und Fachmenschen, die tatsaechlich wissen, welche Ausruestung und Beladung auf das neue Einsatzfahrzeug kommen soll. Und es gibt in der Tat nicht wenige oeffentliche Einrichtungen (ja, ich spreche hier wieder mit der Feuerwehrbrille), die ihre Fahrzeuge selber warten und pflegen. Warum auch nicht.

Auf einer Wardley-Map fuer Datenfluesse, Prozesse und Entwicklungsketten innerhalb der oeffentlichen Verwaltung stuenden aber neben den vielen Bruechen im System jede Menge Komponenten, die entweder aktuell “Custom built” sind oder sich ueberhaupt erst noch in der “Genesis” befinden. Daten werden vielfach noch haendisch per Excel-Export aus Fachverfahren gekratzt und dann mehr oder weniger bereinigt in irgendein Datenportal geschaufelt.

Ueberhaupt: Datenportale. Oder nein, Datenplattformen. Meine Guete. Das ist das Gegenstueck zur Silver Bullet: Wenn man erstmal die Datenplattform hat, dann… ja was dann? Dann ist der Rauskratzprozess der Daten immer noch haendisch. Und was bringt es, wenn das neue Supersystem theoretisch Zeitreihen abbilden kann, wenn innerhalb der Verwaltung niemand da ist, um im Zweifelsfall mittels eines sehr kleinen Shellscripts eine Echtzeit-Datenquelle auch mit der passenden Senke in der Plattform™ zu verbinden? Oder wenn es – noch schlimmer – immer noch keine Ansaetze von Ratsbeschluessen und Grundsaetzen gibt, dass z.B. auf Grundlage von Vergaben entstehende geeignete Daten auch mittels passender Klauseln zu Open Data gemacht werden? Lucy Chambers nennt sowas Upside-Down-Projects: Es soll eine der oberen Schichten im Stack gebaut werden (vielleicht weil das irgendwo in einem Grant Proposal stand), also wird erstmal die Fassade vor dem Fundament gebaut. Oder die uebermaechtige Wasser-Echtzeit-Verbrauchsanzeige, waehrend das metaphorische Wasser noch haendisch im Eimer ins Haus getragen wird. Im schlimmsten Fall hat man nicht mal nen verdammten Eimer.

Und dann sind wir doch relativ schnell wieder bei der Frage, ob die oeffentliche Hand Code anfassen koennen soll. Meine Ueberzeugung: Ja, das sollte sie unbedingt.

Denn, und da sind wir bei einem Knackpunkt fuer mich: Diese Vermittlerrolle, diese Adapterfunktion – Daten aufbereiten, Dinge scrapen, Prozesse bauen – wird bislang viel zu viel vom Digitalen Ehrenamt in Deutschland aufgefangen. Also von all den Menschen, die jetzt immer wieder und immer noch auf Hackathons eingeladen werden, als haetten sie nicht mittlerweile genug damit zu tun, die Proofs-of-Concept aufrechtzuerhalten, was alles moeglich waere, wenn die oeffentliche Hand zumindest in Grundzuegen selber wuesste, wie Code, Datenstandards und IT-Architekturen aussehen.

Paradebeispiele gibt es genug: kleineanfragen.de als Ein-Personen-Projekt, um zu zeigen, wie man solche Dokumente richtig bereitstellt. Einfach nur ein Proof of Concept, seit September 2014(!) bereit zur schluesselfertigen Uebernahme durch die oeffentliche Hand – und nichts dergleichen ist passiert. Im Gegenteil verlassen sich zunehmend JournalistInnen und ParlamentarierInnen auf ein ehrenamtliches Projekt, dem nun seit ueber fuenf Jahren das „offizielle“ Produkt nicht annaehernd gleichziehen konnte (siehe, siehe, siehe). Oder die ganze Geschichte rund um OParl: Ein Datenstandard fuer Parlamentsinformationssysteme, der nur durch massiven persoenlichen Zeitaufwand Ehrenamtlicher entstehen konnte, und fuer den ich bis heute bei keinem Dienstleister eine schicke Auswertung als Ersatz fuer die meist grottigen Ratsinformationssystem-Oberflaechen buchen kann, selbst wenn ich als Kommune Geld darauf werfen wollen wuerde.

Also nein, Software ist kein Auto. (Manche Vergleiche sind aber absurd. Okay.) Aber wenn dieses Digitalisierungszeug endlich mal gelingen soll – und wenn wir die vielen Ehrenamtlichen, die jahrelang gezeigt haben, wo die Reise hingehen kann, endlich aus der nie gewollten Garantenposition herausloesen wollen – gehoert nach dem Pioneer/Settler/Town-Planner-Muster auch passende Kompetenz in der Verwaltung aufgebaut. Muessen zumindest manche VerwaltungsbeamtInnen auch irgendwann mal Cronjobs und Shellscripts einrichten koennen. Muessen dafuer schnell passende VMs fuer die Verwaltung klickbar sein. Muss statt Innovationstheater mit (natuerlich nicht transferierbaren) Leuchttuermen die marode IT-Basisinfrastruktur in einen brauchbaren Zustand versetzt und kontinuierlich weiter gewartet werden koennen. Nicht unbedingt, weil die oeffentliche Hand alles selber machen koennen sollte. Im Gegenteil, moeglichst viel sollte als Commodity klickbar sein. Dafuer muesste man aber wissen, was es alles gibt, und Technikfolgen abschaetzen koennen. Und dafuer hilft es ungemein, mal ellenbogentief in APIs gewuehlt zu haben.

Davon hoere ich auf den ganzen Schlipstraeger-Digitalisierungsgipfeln aber erstaunlicherweise immer noch erstaunlich wenig.

Fahrplandaten, Zwischenstand 2020

Seit September 2006 gibt es das GTFS-Format fuer Soll-Fahrplandaten des oeffentlichen Verkehrs, entstanden mehr als Zufalls-Seitenprojekt aus einer Kooperation zwischen einem Google-Maps-Entwickler und dem Portlander Verkehrsverbund. Gedacht war es als Standard-Austauschformat, um Fahrplandaten in verschiedene beliebige Verkehrsauskuenfte zu integrieren – auch Google Maps, aber eben auch viele andere Anwendungen.

In Deutschland dauerte es sehr lange, bis GTFS oder das sehr viel umfangreichere NeTEx-Format halbwegs breit als Grundlage fuer Open-Data-Fahrplaene angeboten wurde. Deutsche Verkehrsverbuende sind vielfach bis heute der Ueberzeugung, dass nur sie selbst „richtige“ Auskuenfte geben koennen. Das wuerde ich generell sowieso in Frage stellen, aber das ist gaengige Policy, und auch in der VDV-Schrift 7030 „Open Service“ in eine wirklich haarstraeubende Sammlung zurschaugestellter Ahnungslosigkeit und Falschdarstellungen zusammengefasst. Teile der Geschichte dazu lassen sich in meiner Diplomarbeit von 2014 (sic) nachlesen.

Sehr sehr langsam tat sich aber etwas in Deutschland – auch weil Anfang Dezember 2019 die Delegierte Verordnung (EU) 1926/2017 die Auslieferung aller(!) Soll-Fahrplandaten ueber einen Nationalen Accesspoint zur Pflicht machte. Die Verbuende, die sich lange Zeit wehrten, mussten also nun ihre Fahrplaene offenlegen, auch zur Nachnutzung durch Dritte. Die Open-Data-Landkarte, auf der 2013 nur der VBB und die vergleichsweise winzigen Stadtwerke Ulm zu finden waren, faerbte sich nach und nach:

Wenn auch viel zu spaet und sehr schleppend und weit entfernt von den skandinavischen Best-Practise-Beispielen, die hier meilenweit voraus sind: Es tat sich was.

Das schien nun also der Anlass fuer diverse Diensteanbieter zu sein, nun auch die notorisch verspaeteten deutschen Verbuende in ihre Auskuenfte einzubinden. So auch Apple Maps, die offenbar nun einige Regionen mehr in ihre Auskunft aufnahmen – was zu diesem denkwuerdigen Artikel auf nordbayern.de fuehrte, der einem nochmal plakativ vor Augen fuehrt, auf welchem unterirdischen Niveau wir 2020 noch ueber intermodale Verkehrsauskuenfte reden. Beste Zitate:

Die Daten stammen, so behauptet es Apple in der App, von der Verkehrs-Aktiengesellschaft Nürnberg (VAG) und dem Verkehrsverbund Großraum Nürnberg (VGN). Dort allerdings wundert man sich. „Es gibt keine vertragliche Vereinbarung (…) zu einer Überlassung von Fahrplandaten“, sagt VGN-Sprecher Manfred Rupp. „Wir wissen auch nicht, woher Apple die Fahrplandaten zu den VGN-Linien hat.“ Man könne, sagt Rupp, nur spekulieren – und sei dabei, die technischen Vorgänge aufzuarbeiten.

Das ist wirklich bemerkenswert, denn auf der Website des VGN selber findet sich ein Punkt „Soll-Fahrplaene im GTFS-Format“, und ueber den Standardvertrag der Creative-Commons-Lizenz ist auch die vertragliche Ueberlassung von Fahrplandaten ganz klar geregelt (Ueberlegungen, ob es sich bei Fahrplandaten ueberhaupt um ein urheberrechtlich geschuetztes Werk handelt, auf das auf dem UrhG basierende Lizenzen anzuwenden sein koennen, seien mal aussen vor gelassen).

Im weiteren Text wird zunaechst behauptet, Apple erwecke den Eindruck, dass es sich um Echtzeitdaten (also unter Einberechnung von Verspaetungen) handle. „Das könne aber gar nicht sein […] Die liegen nicht einmal mehr auf unseren Servern“ wird der VGN zitiert. Einen Absatz weiter wird jedoch zurueckgerudert, dass es sich um „aeltere“ Soll-Fahrplandaten unklaren Alters handelt.

Diese Reaktion ist fuer mich wirklich erschreckend. Ziel des VGN muesste es sein, eine stabile Quelle tagesaktueller Soll-Fahrplaene bereitzustellen. Sollte Apple wirklich den GTFS-Feed des VGN vom Dezember 2019 benutzen und dieser nicht aktuell sein, liegt das Problem glasklar auf Seiten des Verbunds. Er hat dafuer zu sorgen, dass Dritte Daten in guter Qualitaet nutzen koennen – spaetestens seit der Delegierten Verordnung. Und die vielfach als Argument angefuehrten Echtzeit-Ist-Daten sind vielmehr ein gewichtiges Argument, spaetestens jetzt die Vorbereitungen zu treffen, auch diese Daten fuer Dritte nutzbar ausspielen zu koennen. Denn Echtzeit und Open Data schliessen sich nicht aus – wenn man denn wie die Skandinavier auf die richtigen Formate setzt, anstatt dem VDV-Unsinn rund um den sogenannten „Open Service“ nachzulaufen.

Die Uhr tickt indes. Spaetestens im Dezember 2023 ist die Ausspielung der dynamischen (Echtzeit) Daten gemaess DV 1926/2017 EU-weit gefordert und nicht mehr nur optional. Ich bin gespannt, ob die deutschen Verbuende das auch so grandios verkacken werden wie bei den Soll-Daten.

PS: Wer Lobbyarbeit machen moechte: Die Karte oben stammt aus dem 2017 als Spassprojekt gestarteten One-Click-Lobby-Projekt rettedeinennahverkehr.de – dort kannst du dich mit wenig Aufwand an deinE LandraetIn oder OberbuergermeisterIn wenden.

„Warum 5G nicht das bessere WiFi ist“

Spannender Artikel aus unumstrittener Expertinnenfeder: Elektra Wagenrad ueber die Marketingversprechen rund um 5G, was das alles mit der Unterordnung unter politische Ziele und weitere Problemchen zu tun hat.

5G ist mit großen Marketing-Versprechungen verbunden. Doch tatsächlich wird hier mit immensem technischem und finanziellem Aufwand überwiegend das umgesetzt, was Wi-Fi bereits kann – ohne dessen Probleme zu lösen.

Das pwc-Gutachten fuer NRW zur Datenlizenz Deutschland

Im letzten Post hatte ich angekuendigt, etwas auf das vom Land NRW bei pwc in Auftrag gegebene „Kurzgutachten“ zur sogenannten Datenlizenz Deutschland einzugehen.

Ich habe keine Ahnung, wie das zustande kam, aber ich kann mich des Eindrucks nicht erwehren, dass die dort Beteiligten die Welt der freien Lizenzen nicht so recht kennen, oder dass eventuell das gewuenschte Ergebnis schon vorher feststand.

Kurz und knackig: Die Zusammenfassung

Fangen wir einmal mit der Zusammenfassung auf Seite 4 an:

Gegenüber anderen Open Data-Lizenzen bietet die Datenlizenz Deutschland 2.0 den Vorteil, dass diese auf die Begrifflichkeiten des deutschen Urheberrechts ausgelegt ist und so keine zusätzlichen Auslegungsprobleme bereitet.

Diese Aussage ist in zweierlei Hinsicht bemerkenswert.

Zum Einen gibt es durchaus Open-Data-Lizenzen, die auf den europaeischen Urheberrechtsraum ausgelegt sind. Zum Entstehungszeitpunkt der DL-DE 1.0 gab es zwar die Creative-Commons-Lizenz noch in der Version 3.0, die z.B. kein Datenbankherstellerrecht nach dem europaeischen Rechtsverstaendnis kannte. Genau um diese Luecke zu beheben, wurde jedoch beispielsweise die ODbL entwickelt (hierzu spaeter mehr). Und die CC 4.0 ist ganz klar und von Anfang an auf Kompatibilitaet mit dem europaeischen Rechtsrahmen hin entwickelt worden.

In einer Broschuere von 2019 zu implizieren, dass die DL-DE allen anderen Open-Data-Lizenzen eine Passgenauigkeit auf den deutschen Urheberrechtsraum voraus habe, ist schlichtweg eine Falschaussage.

Zum Anderen ist spannend, dass hier behauptet wird, dass keine „zusaetzlichen“ (zusaetzlich wozu?) Auslegungsprobleme bereitet werden wuerden. Das steht in krassem Widerspruch zum naechsten Absatz:

Sie ist einfach strukturiert, knapp, und somit auch vom nicht rechtskundigen Anwender ohne vertiefte weitere Erläuterungen zu verstehen

Im letzten Post erwaehnte ich schon die Dreigliedrigkeit der CC-Lizenzen: Die fuer Laien verstaendliche Kurzfassung, die maschinenlesbare Fassung und den formellen Lizenzvertrag unter Berufung auf die anzuwendenden einschlaegigen Rechtsgrundlagen.

Die CC-Lizenzen bringen also durchaus eine einfach strukturierte, knappe, und explizit an Laien gerichtete Kurzfassung („human-readable summary“) mit sich, um mit wenigen Worten den Rahmen und die Bedingungen fuer die Nutzung zu umreissen.

Um aber auch in unklaren Faellen Rechtssicherheit und Verlaesslichkeit zu haben, gehoert bei den CC-Lizenzen die Langfassung dazu – die beispielsweise erklaert, warum diese Lizenz ueberhaupt in diesem Fall angewendet werden kann, worum es genau geht, dass keine Beschraenkungen der gewaehrten Rechte fuer nachfolgende Empfaenger zulaessig sind, wie es mit der Lizenzierung von Patent- oder Markenrechten aussieht, etc pp.

Hierzu schweigt sich die DL-DE aus. Komplett. Wer genaueres wissen will, hat einfach Pech gehabt. Nice!

Mit den beiden Datenlizenzen Deutschland steht zudem ein bereits abgestimmtes, vom IT-Planungsrat vorgeschlagenes Lizenzie-rungsregime zur Verfügung.

„Die Leute, die »aendert alle 90 Tage euer Windowspasswort und es muss folgende Zeichen haben« kauften, kauften auch:“

Die Verwendung anderer Open Data-Datenlizenzen ist grundsätzlich möglich. Im Hinblick auf die praktische Handhabung durch die Verwaltung wären damit aber signifikante Nachteile verbunden. Diese Nachteile ergeben sich im Regelfall aus der mangelnden Abgestimmtheit auf das deutsche Urheberrecht und der vergleichsweisen Komplexität der Regelungen dieser Lizenzen.

Wie oben beschrieben: Das ist schlicht und dreist gelogen. Andere Lizenzen sind nicht weniger auf das UrhG abgestimmt, sondern die DL-DE unterschlaegt, wie sie eigentlich im Detail mit dem UrhG korrespondiert. Die notwendigerweise zugrundeliegenden Regelungen, wie die DL-DE funktioniert, sind in der Praxis nicht weniger komplex – sie sind halt einfach bei der DL-DE nirgendwo aufgeschrieben, und damit fuer juristische Laien gar nicht erst zugaenglich.

Die Verwendung ausländischer Open Data-Lizenzen kann zudem im Einzelfall ausgeschlossen sein, soweit Regelungen dieser Lizenzen mit deutschem Recht nicht vereinbar sind. Dies gilt insbesondere für die regelmäßig vorgesehenen weitgehenden Haftungsausschlüsse, selbst wenn diese unter einen Anwendungsvorbehalt gestellt sind.

Das ist natuerlich eine besonders schoene Passage – deutsches Recht fuer deutsche Daten. Naja. Wie bereits mehrfach beschrieben faellt das Argument der Nichtanwendbarkeit „auslaendischer“ Lizenzen recht schnell in sich zusammen.

Sehr witzig finde ich auch, wie in Bezug auf die problematisierten Haftungsausschluesse sofort zurueckgerudert wird. Schliesslich finden sich im Legal Code der CC folgende Passus:

„Sofern der Lizenzgeber nicht separat anderes erklärt und so weit wie möglich, bietet der Lizenzgeber das lizenzierte Material so wie es ist und verfügbar ist an […]“, oder „Dort, wo Haftungsbeschränkungen ganz oder teilweise unzulässig sind, gilt die vorliegende Beschränkung möglicherweise für Sie nicht.“

(Das wird im Abschnitt 6.1 des Gutachtens dann auch eingeraeumt. Klingt halt weniger knackig.)

Anstatt die schoen designte Broschuere voller Unsinn zu bauen, haette man einen Boilerplate-Text entwerfen, der die CC-Lizenzen durch eine Erklaerung zur moeglicherweise doch vorliegenden Haftung und im idealfall sogar fuer die passende Attribuierung bei der Verwendung durch OpenStreetMap (oder auch andere) ergaenzt. Aber vielleicht war dafuer zu wenig Geld da, oder es sollte ein vorher feststehendes Ergebnis rauskommen.

Das faellt dann auch im direkt nachfolgenden Absatz auf:

Die Vorgaben der Datenlizenzenz Deutschland 2.0 mit Namensnennung zu Namensnennung und Quellenvermerk können allerdings mit anderen Lizenzregimen kollidieren […] Hier empfehlen wir ggf. Klarstellungen durch den Bereitsteller […], etwa im Hinblick auf die Möglichkeit der Nutzung der Contributor List von OpenStreetMap, um den Nutzerinnen und Nutzernn ausreichend Rechtssicherheit zu geben.

Ach. Ich will jetzt gar nicht auf die grundsaetzliche Problematik der OSM-Datenbanklizenzierung eingehen – aber wenn die DL-DE doch so einwandfrei fuer den deutschen Open-Data-Kontext angepasst ist, warum ist sie dann nicht von Haus aus fuer die Nutzung mit OSM geeignet? Ihr habt eine Lizenz speziell fuer OSM [Korrektur:] den deutschen Rechtsraum geschaffen, die aber dann nochmal ergaenzt werden muss, damit mit die groesste existierende OSM-Community (naemlich die deutschsprachige) mit unter ihr lizenzierten Daten arbeiten kann? Was ist denn das fuer eine Kack-Anpassung? 😀

Kapitel 2: Die Ausgangslage

Spannend ist im gesamten Gutachten, wie eben auch dem Kapitel ueber die Ausgangslage, dass das Vorliegen einer Werkqualitaet im Sinne des UrhG als notwendige Voraussetzung fuer die Anwendbarkeit einer auf dem UrhG basierenden Standardlizenz sehr nonchalant unter den Tisch fallen gelassen wird. So beginnt das Kapitel mit diesem Satz:

Werden Daten der öffentlichen Verwaltung als »Open Data« veröffentlicht, werden die Nutzungs- und Verwertungsrechte der Nutzerinnen und Nutzer an diesen Daten durch Nutzungsbedingungen festgelegt. Abruf und Verwendung der Daten stehen unter dem Vorbehalt der Einhaltung dieser Nutzungsbedingungen.

Alleine der zweite Satz ist ein kleines Feuerwerk, aus dem sich sicher eine schoene Diskussion im Medienrechtsseminar drehen laesst.

Aber schon der erste Satz ist als fuer die oeffentliche Verwaltung geschriebenes Gutachten fatal. Es bleibt hier vollkommen unklar, ob es sich um ein privatrechtliches Verhaeltnis zwischen anbietender Stelle und NutzerIn handelt (und was passiert dann eigentlich, wenn die NutzerIn vertragsbruechig handelt, die Daten entgegen der Vereinbarung einfach so an mich weitergibt und ich dann beliebige Dinge damit mache?), oder ob es sich (was anzunehmen ist) um einen Standardvertrag zur Uebertragung der Verwertungs- und Vervielfaeltigungsrechte handelt, wie das eben bei anderen Open-Data-Lizenzen (oder eben auch bei Free-Software-Lizenzen) der Fall ist.

Im weiteren Verlauf wird die „Vielfalt“ der verschiedenen Open-Data-Lizenzen bemaengelt und dass das ein Problem fuer die Open-Data-Proliferation sei. An der Stelle haette man durchaus einmal innehalten und reflektieren koennen, ob diese Situation durch die Einfuehrung zweier zusaetzlicher Lizenzen, die wenn dann nur in Deutschland Anwendung finden werden, irgendwie besser werden soll, aber ich glaube ich muss im weiteren Verlauf dieses Textes vielleicht ein Clownsemoji als Sarkasmuskennzeichner einfuehren. Noch viel dummdreister wird diese Passage aber dadurch, dass sie den Text Avoiding Data Silos als Fussnote und angeblichen Beweis dieser Behauptung heranzieht. Weder behauptet dieser Text, dass die Situation durch die Einfuehrung neuer Lizenzen besser wird. Noch, und das regt mich viel mehr auf, fliessen danach die Recommendation des Texts in das „Gutachten“ ein. Dort steht naemlich unter anderem:

Clarify if data falls under the scope of copyright, database rights, or similar rights.

Nichts davon ist in der DL-DE zu finden.

Consider copyright reform if the protection status of public sector information is not clear. This may include granting positive use rights for public sector information within copyright law instead of adding many exceptions to copyright.

Nichts davon haben der IT-Planungsrat oder sonstige Gremien auf den Weg gebracht. Stattdessen reibt man sich an der hundsvermaledeiten Datenlizenz Deutschland auf. Anstatt den passenden Rechtsrahmen zu bauen, um einfach, gut und rechtssicher Open Data in Deutschland vielleicht sogar generell im Rahmen von §5 UrhG als gemeinfrei veroeffentlichen zu koennen, wird eine Sonderlocke nach der anderen gedreht, die mit nichts kompatibel und handwerklich unzulaenglich ist. Man vergleiche hierzu auch die Stellungnahme von Mathias Schindler im Bundestags-Ausschuss Digitale Agenda von 2014(!)

If data is exempt from copyright and database rights, publish clear notices that inform users about their rights to freely reuse, combine and distribute information.

Nichts davon kann die DL-DE. Danke hier an @krabina, der im Kommentar zum vorigen Post richtigerweise darauf hingewiesen hat, dass die CC 0 besser nur dann verwendet werden soll, wenn es sich um urheberrechtlich geschuetztes Material handelt, das mit Absicht freigegeben wird, und bei nicht schuetzbarem Material die Public Domain Mark verwendet werden soll. Die DL-DE hat hier eine Zero-Lizenz, die nichts erklaert und nicht klarstellt, warum da jetzt Zero draufsteht.

Recommended solutions are the public domain dedication Creative Commons Zero and the Creative Commons Attribution 4.0 licence.

Ja. Das steht im Text, der per Fussnote als Beweis der Notwendigkeit genau des Gegenteils herangezogen werden soll. Weiter will ich darauf gerade gar nicht eingehen. Der gesamte Text ist als Handlungsempfehlung deutlich besser als das pwc-Ramschgutachten.

Der Vollstaendigkeit halber sei darauf hingewiesen, dass die europaeische Kommission nun auch die Creative-Commons-Lizenzen in Version 4.0 empfiehlt, auch fuer Daten. So von wegen Vereinheitlichung.

Kapitel 5: OSM und DL-DE und Lizenzfolklore

In Kapitel 5 werden diverse offene Lizenzen angefuehrt und verglichen.

Spannenderweise wird hier (mit angegebenem Abrufdatum Herbst 2018) bei der Creative Commons unter Verweis auf Spindler/Schuster/Wiebe, „Recht der elektronischen Medien“ (3. Aufl. 2015) immer noch angefuehrt, dass die CC-Lizenzen „für mehr als 50 Länder an die nationale Rechtslage angepasst und über-setzt“ worden seien. Das Buch liegt mir leider nicht vor; wohl aber der Verdacht, dass hier Bezug auf die CC in der Version vor der international passenden 4.0 genommen wird – also noch mit der bereits mehrfach thematisierten und mittlerweile weggefallenen Portierungsproblematik.

Weiter werden die Datenbanklizenzen PDDL, ODC-By und ODbL thematisiert. Hier wird an keiner Stelle auch nur mit einer Silbe erwaehnt, dass diese Lizenzen zu Zeiten der CC 3.0 dazu dienten, das mit der CC damals nicht abgedeckte Sui-Generis-Recht fuer Datenbanken im europaeischen Rechtsraum abzudecken. Zwar werden die Nutzungsbedingungen kurz umrissen, ein Gesamtbild des Zusammenspiels der verschiedenen Lizenzen wird aber nicht aufgezeigt. Es darf die Frage gestattet sein, ob es bei den ErstellerInnen des Gutachtens vorhanden war.

Im Folgenden wird es dann echt witzig:

Die dl-de/by-2-0 unterscheidet nicht zwischen Urheberrechten und Leistungsschutzrechten. Sie ist daher sowohl auf Datenbanken i.S.d. § 87a UrhG als auch auf Werke i.S.d. § 2ff. UrhG anwendbar.

WO STEHT DAS? WIE BEKOMME ICH DAS ALS ANWENDER HERAUS???

Sorry. Kurz durchatmen.

Das ist genau der Punkt: Ich persoenlich nehme selber natuerlich an, dass die DL-DE auf dem UrhG fusst, weil ich weiss, wie andere freie Lizenzen funktionieren. Das wird aber weder denjenigen explizit gemacht, die diese Lizenz vergeben (ist sie hier ueberhaupt einschlaegig?), noch denjenigen, die so lizenzierte Daten nutzen wollen. Ich kann nur nochmal auf den als Fussnote herangezogenen Text verweisen: “Clarify if data falls under the scope of copyright, database rights, or similar rights.” – das bleibt die DL-DE schuldig.

Der Rest des Kapitels geht dann sehr ausfuehrlich darauf ein, wann wo und wie die DL-DE nicht mit der OSM kompatibel ist. Wie oben beschrieben: Seltsam, wenn sie doch angeblich eine speziell angepasste Lizenz fuer Open Data in Deutschland ist, und es OSM sowie die Datenbereitstellung fuer OSM durch die oeffentliche Hand bereits vor der Erfindung der DL-DE gab.

Haftungsunklarheiten

In Abschnitt 6.1.1 wird nun endlich die CC BY in Version 4.0 mit der DL-DE BY verglichen, und bezeichnenderweise wird beiden gleich eingangs derselbe Rechteumfang zugesprochen. Oder anders gesagt: Sie sind hier offenbar funktional identisch. Es bleibt also die Frage offen, wofuer es die DL-DE ueberhaupt braucht.

Danach wird die eingangs angerissene Haftungsproblematik angerissen. Hier wird offenbar darauf herumgeritten, dass die DL-DE von vorneherein keine Haftungsausschluesse vorsieht, waehrend die CC 4.0 „soweit anwendbar“ die Haftung ausschliesst und das am Ende wieder passt, weil das ja nicht anwendbar ist. Die Konsequenz des Gutachtens ist daraufhin:

Dies gilt allerdings nur, soweit sich auch die weitere Nutzung nach deutschem Recht richtet. Im Übrigen ist von einer Inkompatibilität auszugehen.

Von den GutachterInnen wird dadurch offenbar geflissentlich der Teilsatz „Sofern der Lizenzgeber nicht separat anderes erklärt“ im Legal Code der CC unter den Tisch fallen gelassen. Die Schlussfolgerungen verstehe ich jedenfalls ueberhaupt nicht.


An der Stelle pausiere ich die Kommentierung, weil der Zug gleich in Hamburg ankommt und mich der restliche Text aufregt. Mehr folgt.

Die Datenlizenz Deutschland gehoert auf den Muell. Jetzt.

Leider schwappt mir der Unsinn gerade wieder auf den Schreibtisch, obwohl ich eigentlich gerade eine coole Veranstaltung mitzugestalten habe. Mittlerweile ist die Geduld aber einfach am Ende.

Worum es geht: Die sogenannte Datenlizenz Deutschland. Die wurde 2013 zu unklaren Kosten als nationale Sonderloesung entwickelt und war in der ersten Version einfach vollkommen inkompatibel zu allen bestehenden Lizenzen und fuer Open Data schlicht ungeeignet, was auch direkt zu umfangreicher Kritik fuehrte. Nicht nur war sie vollkommen schwammig und unklar formuliert, sie erlaubte auch eine „Freigabe“ von Daten nur zu nichtkommerziellen Zwecken. Dieses Prinzip ist auch bei den Creative-Commons-Lizenzen hochproblematisch (und gehoert eigentlich auch abgeschafft, naja).

Auf die Kritik hin wurde im weiteren Verlauf eine Version 2.0 geschaffen, die nur mehr die Varianten Zero (Kennzeichnung als gemeinfrei bzw. in der Konsequenz der Rechtedurchsetzung damit gleichzusetzen) und obligatorische Namensnennung vorsah. Und leider wirkte die zivilgesellschaftliche Beteiligung daran, den kolossalen Unsinn der Version 1.0 geradezubiegen, wohl so, als wuerde man diesen unnoetigen nationalen Alleingang billigen. Obgleich beispielsweise die OKF ausdruecklich schreibt:

Wir haben immer, ausdrücklich und grundsätzlich von der Schaffung einer nationalen Open-Government-Data-Lizenz abgeraten und tun das auch weiterhin. Wir freuen uns zwar sehr, dass die Daten-Deutschland-Lizenz 2.0 jetzt konform mit der Open Definition ist, als Insellösung ist es aber natürlich nur die zweitbeste Lösung. Die erstbeste Lösung ist und bleibt natürlich die Verwendung der offenen Versionen der Creative Commons Lizenz.

https://okfn.de/blog/2014/09/erfolg-fuer-open-data-datenlizenz-deutschland-version-2-0-ist-eine-offene-lizenz/

Nun sind fuenf Jahre vergangen, und der langfristige Flurschaden der unnoetigen sogenannten Datenlizenz Deutschland wird deutlich. Wer beispielsweise auf govdata.de nach Datensaetzen unter DL-DE Namensnennung sucht, duerfte etwas erstaunt sein. Finden sich dort doch beispielsweise CSV-Listen von Projektstandorten. Oder Auflistungen von AbsolventInnen nach Kreisen. Oder Umsaetze von Unternehmen.

Und jetzt mal bloed gefragt: Warum genau sollte mich die Lizenz in diesen Faellen zur Nennung der Quelle verpflichten koennen? Die Creative Commons erklaeren in ihrer FAQ, dass ihre Lizenzen – genau wie Freie Softwarelizenzen – das Urheberrecht nutzen, um genau dann, wenn es sich um ein urheberrechtlich geschuetztes Werk handelt, per Standardvertrag die Nachnutzung (Verbreitung, Vervielfaeltigung, etc) explizit und unter bestimmten Bedingungen zu erlauben. Und weil das bei Creative Commons auch handwerklich gut durchdacht und gemacht ist, besteht die Lizenz aus drei Schichten: Der Kurzfassung fuer Laien, einer maschinenlesbaren Fassung, und einer ausfuehrlichen Fassung fuer JuristInnen, die auf die Details und die rechtlichen Grundlagen der Lizenz eingeht. Wer Zweifel hat, kann also in der Langfassung herausfinden, ob diese Lizenz ueberhaupt fuer einen Datensatz Anwendung finden kann, oder ob ein so lizenzierter Datensatz auch in einem angenommenen Spezialfall genutzt werden kann.

Die Datenlizenz Deutschland besteht dagegen nur aus der Kurzfassung. AnwenderInnen wird nicht klargemacht, dass die Namensnennung-Version ueberhaupt nur benutzt werden kann, wenn es sich beim zu lizenzierenden Datensatz um ein urheberrechtlich geschuetztes Werk handelt. Und so schleicht sich nun seit fuenf Jahren offenbar die Ansicht in die oeffentliche Verwaltung, dass es sich bei Datenlizenzen nicht etwa um Standard-Vertraege auf Basis des Urheberrechts handelt, sondern um magische Zaubersprueche, die man ohne weitere Grundlage einfach so nur aussprechen muss, und dann muss jemand einen Herausgebernamen nennen. Das ist halt einfach Quatsch.

Unterstuetzt wird die Datenlizenz derzeit vor allem noch durch ein vom Land NRW in Auftrag gegebenes, von PWC erstelltes „Rechtliches Kurzgutachten“ vom Februar 2019, bei dem ich mich frage, ob daran wirklich JuristInnen beteiligt waren – und wenn ja, ob sie sich je zuvor mit Freien Lizenzen befasst haben. Aber das wird wohl demnaechst ein weiterer Blogpost werden muessen.

TL;DR: Die Datenlizenz Deutschland ist handwerklich schlecht gemacht. Sie haelt die oeffentliche Verwaltung in einem halbinformierten Zustand und sorgt reihenweise zu Schutzrechtsberuehmungen. Sie hat seit der Creative Commons 4.0 keine Daseinsberechtigung mehr und gehoert ersatzlos gestrichen.

re;publica 19 – tl;dr

Ich kam schon am Wochenende in Berlin an, weil ich noch Slides schrubben musste. Deswegen habe ich sehr viel Zeit auf Sofas befreundeter Leute und im Hotelzimmer verbracht, und Sonntag bis in die Nacht Creative-Commons-Hinweise angebracht

Am naechsten Tag hab ich herausgefunden, dass @katjaberlin krank geworden ist und sie deswegen meinen Vortrag auf Buehne 2 verlegt haben, was mich ein wenig panisch gemacht hat.

Andererseits war somit die gesamte Sicherheitsueberpruefung beim BKA hinfaellig eventuell. Weil der Bundesmeier naemlich eine Eroeffnungsrede hielt und ich kurz darauf eigentlich haette auf Buehne 4 sein sollen, musste ich vorab Namen, Geburtsdatum und -ort anmelden, damit die irgendwas damit machen. Es ist naemlich offenbar eine anerkannte terroristische Strategie, auf Verdacht irgendwo Vortraege einzureichen in der Hoffnung dass man dann vielleicht irgendwann eine Stunde spaeter als der Bundespraeses irgendwo auf einer Buehne spricht, von wo aus man natuerlich die krassesten Moeglichkeiten hat irgendwas dummes zu tun im Gegensatz zu den 1200 Leuten im Publikum.

Aber ich schweife ab.

Ich hab die Rede vom Steinmeier hinterher auf Video gesehen, und der Redenschreibmensch scheint sich Gedanken gemacht zu haben, was man da sagen koennte. Es war aber trotzdem vorgetragen wie beim Jubilaeum zum 100. Jubilaeum des Steinkohlefoerderausschusses Vogtland e.V. mit ganz viel „liebe Gaeste“ und anderen Floskeln. Kann man mal gemacht haben, Haken dran, bitte nicht nochmal so ein Sicherheitstheater mit irgendwelchen Pseudo-Personenkontrollen an den Zugaengen zu Saal 1. Felix Schwenzel hat das gut zusammengefasst:

er sagte nichts doofes, war entspannt, wich auch mal vom manuskript ab, aber euphorisierend oder mitreissend war an seiner rede nichts. dafür gab’s soliden, pathosfreien und vernünftigen verfassungspatriotismus und eine freundliche aufforderung die konsruktiven debatten der letzten jahre fortzusetzen.

https://wirres.net/article/articleview/11264/1/6/

Ich bin dann irgendwann zu „meiner“ Buehne getrottet. Vor mir war Ingrid Brodnig dran und weil ich mir keine Gedanken gemacht hatte, dachte ich, dass es sicher ein paar Minuten Zeitfenster zwischen den Vortraegen geben wuerde, zum Rechner anschliessen oder so. Dem war aber nicht so. Ich kam in letzter Sekunde auf die Idee, die Vortragsnotizen per Calibre auf meinen E-Book-Reader zu kopieren, anstatt auf dem Handy zu spicken, das war eine gute Idee. Nachdem Ingrids Vortrag abmoderiert wurde, war ich naemlich sofort dran, fand erstmal keine Stromsteckdose und bekam dann ein vollkommen zerstoertes Bild auf den Beamer. Da steht man dann erstmal etwas unwohl da. Ganz grossen Dank an den Stage Manager Clemens, der unaufgeregt und professionell die Fallback-Loesung eingerichtet hat, waehrend Max souveraen eine Zwischenmoderation eingeworfen hat. War aber eh okay, weil noch etwa 300 Leute den Saal verlassen wollten, die Torten der Wahrheit sehen wollten und enttaeuscht waren, nun so nen komischen Vogel mit Bart zu sehen.

Am Ende mussten deswegen 22 Minuten fuer einen Ritt durch 30 Vortragsminuten reichen, zum Leidwesen des Uebersetzungsteams. Danach einige Gespraeche und Interviews (siehe, siehe, siehe) und mit Haenden und Fuessen abgewehrte Anfragen („keine Termine vor nach dem Camp“) und dann war der Tag eigentlich auch ziemlich gelaufen.

Ich hab mich irgendwann dann am spaeteren Nachmittag mit Ilona und Robert selber auf dem Hof disrupted (danke an diplix fuer diesen Ausdruck). 2019 gab es erstmals neben dem Berliner Pilsener auch Weizenbier, und es irritiert mich ja immer noch, aber auch in Berlin ist es offenbar akzeptierter, Weizenbier aus einem Plastebecher zu nippen anstatt es aus der Flasche zu trinken (nachdem man es vorher angedreht hat wegen der Hefe, klar). Ich habe mich mit diesem Outcast-Image irgendwann abgefunden und bin durch die Landschaft gewandert, um Leute zu treffen. Das gestaltete sich als enorm schwierig. Erstens verlief es sich dieses Jahr noch mehr als je zuvor. Das ist eventuell eine Naturkonstante der Veranstaltung. Zum Anderen hatte ich nicht mehr so volle soziale Akkus, so dass ich mich teilweise nur darueber freute, gewisse Menschen zu sehen, mich aber dann sofort versteckte, um selber nicht gesehen zu werden und daraufhin eventuell sozial interagieren zu muessen.

Tag 2

In zwei Vortraege hatte ich es tatsaechlich geschafft. Einmal als Bezugsgruppen-Support im Vortrag von Vanessa und Michael zur Panama-Papers-Recherche und der Forderung nach einem Transparenzregister.

Danach bin ich ein wenig herumgelaufen, hab Leute kennengelernt die ich schon lang mal kennenlernen wollte, und andere neue Bekannte wiedergetroffen, und am Ende hatte es mich in den Vortrag von Cory Doctorow verschlagen. Den fand ich auch wirklich gut, wenngleich ich sehr viel der Zeit davon abgelenkt war, die Produktion rund um Buehne 1 zu begutachten.

Die fahren wirklich von Jahr zu Jahr noch eine Schippe mehr Veranstaltungstechnik auf, und bisweilen driftete meine Aufmerksamkeit etwas ab, weil ich wieder ein neues Detail gefunden hatte, das ich eventuell gerne nachmachen wuerde.

(Ausserdem macht sich Cory Doctorow offenbar weniger Sorgen ueber rechtlich richtige Attribution von Creative-Commons-Bildern auf Slides)

Abends hab ich dann die re:publica einfach links liegen lassen und bin mit alten FreundInnen in ein koreanisches Restaurant gegangen das eventuell Hodor heisst oder so aehnlich.

Tag 3

An Tag 3 waren die Leistungsfaehigkeits-Akkus immerhin etwas voller, so dass ich mir mittags ein Panel ueber die Kommunikation zwischen Verwaltung und Tech-Community ansah. Moderiert von der tags zuvor kennengelernten Tori Boeck unterhielten sich Ulrich Binner vom Bezirksamt Tempelhof-Schoeneberg und Adriana Groh vom Prototype Fund, und es war leider nicht so ganz klar, worauf sie hinauswollten.

Also ja, ganz klar, es braucht diesen Austausch. Und ganz klar, dafuer braucht es Begegnungsraeume, Formate, alles. Aber zwischendrin stellte Ulrich es so dar, als sei die Verwaltung ein total rueckstaendiger Haufen von Verweigerungsmaschinen – sehr demotivierend, sagte Maxi, und nicht nur der neben mir sitzende Kollege Ivan von der Verwaltung in Freiburg schuettelte etwas irritiert den Kopf ueber die Darstellung, dass die Verwaltung ausschliesslich machen koenne, was abschliessend im Gesetz steht.

Eventuell sind die zu durchbohrenden Bretter aber in Berlin einfach dicker als anderswo und das alles war irgendwie dringend notwendige Rahmenoeffentlichkeit fuer das CityLab Berlin, das irgendwie schon 2015 angekuendigt wurde, 2017 dann „bald“ kommen sollte, 2018 u.A. von der OKF nochmal mit einem Papier angeschoben wurde und nun offenbar wirklich da ist.

Ich habe mir die andere Session zu dem Lab ebenfalls angesehen, und wirklich respektabel finde ich ja, mit wie viel Ressourcen die Akteure von Anfang an reingehen (zum Vergleich: Das Verschwoerhaus startete mit einer 50%-Stelle; Mitte 2017 waren wir bei 2×50% FTE, und im Mai 2019 sind wir vielleicht mit viel Uminterpretation bei ebensovielen Koepfen fuer das Haus :D).

Einige Fragezeichen habe ich aber offen gestanden bei der Zielsetzung des Ganzen. Wo kommen denn die ganzen Ehrenamtlichen aus dem Civic-Tech-Umfeld her, die das bespielen wollen? Forkt sich das OK Lab, das sich derzeit bei Wikimedia Deutschland trifft? Ziehen die um? Wurden die ueberhaupt einbezogen? Wo sind die Abwehrmechanismen, um Businesskasperei aus den Raeumen zu halten? Oder ist das am Ende wieder nur ein weiteres Beispiel, wo in etablierte Strukturen Foerdergelder fuer Design-Thinking-Workshops fliessen, und die zivilgesellschaftliche Civic-Tech-Community darf schauen, wo sie bleibt? Wirklich klar wurde das nicht. Persoenlich faende ich ja cool, wenn dieses Lab nicht allzu glatt, allzu business, allzu angepasst werden wuerde, sondern widerborstig und communitygetrieben, mit einem klaren Mandat dafuer, Machtstrukturen in allen Dimensionen anzugreifen und dabei auch vor der fuetternden Hand nicht halt zu machen.

Naja.

So mit zum Schluss habe ich mir noch die State of the Open von Fiona und Arne angesehen – solide, witzig, Klassiker. Wegen nochmal Leute treffens und Gelaende erkundens hatte ich danach verpasst, in das Panel mit Francesca Bria zur technologischen Souveraenitaet von Kommunen zu gehen. Das Video ist aber mittlerweile online:

Das plaetschert leider etwas traege dahin, und ich finde die Distributed-Ledger-Idee etwas… eigen. Aber dazwischen gibt es schoene Zitate dazu, wie Staedte zum Beispiel in ihren Vergaben Nachhaltigkeitsklauseln einbauen koennen: Wenn die Stadt irgendwas mit Software macht, muss Open Source rauskommen, die Stadt (bzw. ihre BuergerInnen) muessen frei ueber die Daten verfuegen koennen, etc.

Und dann bin ich bei einem Datenjournalismustreffen in dem verhipsterten Biergarten mit viel zu teurem Bier nebenan gelandet. Penny, die auch dort war, ist uebrigens ursaechlich verantwortlich fuer das ernorm coole Programmieren-mit-der-Maus-Projekt. Leider kann sie ebensowenig mit Lob umgehen wie ich, weswegen ihr sie bei jeder Gelegenheit fuer dieses Ding unbedingt loben solltet.

Und dann war rum. Also nach kurzem Ausflug nochmal zu Tasmos Tanzflaeche und Unterhaltungen ueber sueddeutsche, kirchlich gepraegte Schulkultur.

Danach noch so

Ich hab einige Dinge nachgesehen, weil ich sonst vermutlich zuviel FOMO gehabt haette, obwohl ich da war. An der Stelle mal eingeworfen: Meine Peer Group kam erst am spaeten Nachmittag von Tag 3 darauf, den zum Veranstaltungsgelaende gehoerenden Park beim Technikmuseum anzuschauen. Eigentlich, um mich kritisch schauend vor so einem Flugtaxi-Mockup zu fotografieren, aber heilige Verwaltungsvorschrift! Dieses Aussengelaende war der Hammer! Das waere eigentlich ein super Ort gewesen, um waehrend der Schoenwetterphasen ohne staendigen Menschenueberlauf irgendwo rumzuhaengen. Man konnte sogar auf Liegestuehlen den Livestream von Buehne 1 sehen und waehrenddessen diesen sehr eigenenen Schmiere-Geruch der direkt nebenan stehenden alten Dampfloks in der Nase haben. Das ist eine sehr lange Umschreibung fuer „schaut immer gleich ganz am Anfang alles an was es auf einem Gelaende gibt auch wenn ihr schon oft da wart, und wenn man was machen kann zB Gruppenselfie mit der WDR-Maus, dann macht es sofort weil nachher gehts vielleicht nimmer“

Was danach aber ging: Videoaufzeichnungen ansehen. Den Lobo-Vortrag hab ich nach 15 Minuten ausgemacht, Dueck hab ich noch nicht ausprobiert. Folgende Dinger fand ich aber Knaller und bette ich daher direkt ein:

Technikvorhersagen vor 60 Jahren & was daraus wurde (Theobald Fuchs)


Supergut und unterhaltsam! Dank Theobald weiss ich jetzt, dass quasi alle dieser Retrofuturismusillustrationen, die ich kenne, von Klaus Buergle sind; eine kleine Uebersicht gibt es hier und ein flickr-Album hier. Leider scheinen viele der Originale verschollen und es gibt nur Scans der Drucke in diversen Zeitschriften, in denen sie reproduziert wurden. Der Vortrag ist jedenfalls unglaublich witzig und unterhaltsam, und die Checkliste am Ende teilens- und wiederbenutzenswert.

Nicole Christ: Zeichen der Zeit: Emojis als visuelle Sprache aus Perspektive der Designforschung

Das ist so’n Ding, da wuerde ich mich normalerweise nicht reinsetzen, sondern eher reinstolpern. Und das bin ich quasi auch, was das Video angeht. Aber es ist halt einfach eine kurze, kurzweilige, aber nicht nur oberflaechliche Einfuehrung in ein Thema, mit dem man sich normal vielleicht maximal beschaeftigen wuerde, weil man gerne auf Parties klugscheisst. Ich fands witzig.

Oliver Nachtwey – Der Geist des digitalen Kapitalismus – Solution und Techno-Religion

Teilweise ist das so ein Vortrag wo du dir denkst „sag, eh, ihr Soziologen, ihr koenntet’s das auch weniger akademisch ausdruecken, wenn ihr wollen taetet’s, aber ihr habt’s dann alle Angst dass euch niemand mehr glaubt dass ihr habilitiert seid, gell“. Wenn man darueber hinwegkommt (oder die Geschwindigkeit reduziert) bleibt ein Vortrag mit einigen schoenen Aufhaengern. Vom Solutionismus bis hin zum Religiositaetsvergleich und der vermeintlichen Weltverbesserung der Tech-Branche als Absolution von allem, was sie sonst so ueber die Welt bringen. Den werde ich mir wohl noch ein paar Mal ansehen muessen.

Sonst noch so

Anderswo

Danke an leralle, der mir durch seinen eigenen Post den notwendigen Arschtritt gegeben hat, wieder mal Dinge zu verbloggen. Dort findet sich auch eine Linkliste zu anderen Beitraegen. Oskar Vitlif hat derweil noch eine eigene Anschauempfehlungsliste veroeffentlicht.

Wie Städte die Mobilität der Zukunft gestalten

Linkliste zum Vortrag auf der re:publica. Arbeitsfassung vom Dienstag; wird noch erweitert werden.

Das Upgrade auf Stage 2 war etwas arg respekteinfloessend. Sorry auch an alle, die die Torten der Wahrheit erwartet hatten; als Ausgleich folgender Versuch

Silicon-Valley-Techsolutionismus

Silicon Valley erfindet den Bus neu. Ein Drama in mehreren Akten:

Elon Musk, Monorail-Verkaeufer

Gemeint ist diese Episode: Marge vs. the Monorail – S04E12 bei den Simpsons, Wikipedia:EN

Screenshot von Volker Blees beim Verkehrsministerium Baden-Württemberg im April 2019

Vernetzte Verkehrstraeger

Technologische Souveraenitaet; Oeffentliche Gelder → Oeffentliche Gueter

Mobilitätsportal Karlsruhe

Open-Data-Community: Code for Germany

Oertliche Communities mit oeffentlicher Foerderung: BonnLab, hackspace moers, WesterwaldLab Betzdorf, Verschwoerhaus Ulm, plus unzaehlige andere, tolle, nicht staedtisch gefoerderte als Vorbild (zB Dingfabrik Koeln, Eigenbaukombinat Halle, die Liste koennte hier quasi endlos sein)

Code for America Fellowship

Digitransit: Offizielle Seite; Deployment in Helsinki; Github-Repositories; Architektur; Ulmer Alpha-Deployment

Datenraum Ulm: GTFS-Daten der SWU; rettedeinennahverkehr.de; GD 411/18 (Anlage 1, Anhang 2 ist hier relevant)

Herrenberg: https://mobil-in-herrenberg.de/; TTN-Links folgen

Mitfahrdezentrale: Twitter @mfdz_de

Radforschung: radforschung.org

Mobility Data Specification

Spezifikation auf Github

Was Städte lernen können (radforschung.org)

MDS für Kommunen erklärt (radforschung.org)

Weitere Lektüre

Verkehrspolitik – eine Interdisziplinäre Einführung (Oliver Schwedes, Hrsg) (via @gglnx)

It’s not all lightbulbs – If we abandon the cult of the Great White Innovator, we will understand the history of technology in a much deeper way