Schlagwort-Archive: Medieninformatik

MetaOptimize

Ganz kurz: Was StackOverflow fuer Codemonkeys Programmierer ist, ist MetaOptimize fuer Data Mining und Visualisierungen:

Where scientists ask and answer questions on machine learning, natural language processing, artificial intelligence, text analysis, information retrieval, search, data mining, statistical modeling, and data visualization!

Hoersaalkino ueber Weizenbaum

„Nicht nur fuer Informatiker interessant“, sagen der IN-Dekan und die Uni-Pressestelle, und deswegen auch hier der Hinweis: Am 8. Juni 2010 wird um 17:00 Uhr im Hörsaal H20, Gebäude O27, der Film „Weizenbaum. Rebel at Work“ gezeigt. Nach der Filmvorführung findet eine Diskussion mit den Filmemachern, Silvia Holzinger und Peter Haas, statt.

Der 80-minütige Dokumentarfilm porträtiert den deutsch-amerikanischen Informatikpionier und Gesellschaftskritiker Joseph Weizenbaum. In Berlin geboren, verließ Joseph Weizenbaum Deutschland 1936 und kehrte nach über 60 Jahren dorthin zurück. Der Film ist die erzählte, persönliche Lebensreise des 85-jährigen „Rebellen“ und die Geschichte einer Jahrhunderterfindung, die des Computers.

Im Film schildert der Mathematiker und Informatikpionier, der zur Kultfigur geworden ist, sein Leben und Wirken in Anekdoten und Exkursen. Amüsiert berichtet er, wie er eines Tages zum Full Professor am renommierten Massachusetts Institute of Technology ernannt wurde und wie es zu “ELIZA” kam, seinem wohl bekanntesten Beitrag auf dem Gebiet der Informatik.

„Wir freuen uns, diesen Film an die Universität zu holen, wo er sicher thematisch breit gefächert wahrgenommen wird. Schließlich sind unter dem Dach der Informatik ganz unterschiedliche Ausrichtungen vereint: Von der Künstlichen Intelligenz, der Medieninformatik bis zur Neuroinformatik. Wir hoffen auf regen Zuspruch und eine lebhafte Diskussion.“ sagt Professor Dr. Michael Weber, Dekan der Fakultät für Ingenieurwissenschaften und Informatik sowie Direktor des Instituts für Medieninformatik, der die Filmemacher und ihren Film an die Universität eingeladen hat.

Anschliessend an die Vorfuehrung gibt es eine Diskussion mit den Filmemachern, Silvia Holzinger und Peter Haas.

Trailer:

rtmi! rtmi!

Viel zu tun: Gerade laeuft der Blockseminarteil von rtmi10, und morgen frueh muss ich 480 Pruefungsfragen so weit auswendig koennen, dass ich sie in Prosa beantworten kann. Und natuerlich feile ich gerade erst noch am Schluss meines Vortrags fuer morgen mittag.

Deswegen auch nur in aller Kuerze, wie mir das Forschungsseminar bisher gefaellt: Mega! Die Themen sind allesamt interessant, und unsere Betreuer haben quasi alles im Stil einer wissenschaftlichen Konferenz aufgezogen — inklusive Session-Chairs, Proceedings-Band fuer jeden Teilnehmer und sogar Namensschilder fuer alle „Speaker“ 🙂 Und wie ich das bisher auch auf jeder Konferenz mitbekommen habe, die ich selbst betreut habe, geraet der Zeitplan spaetestens ab dem zweiten Vortrag aus dem Ruder 😉

So, nun aber weiter Folien fertig bauen und lernen, was ein Z-Getriebe ist…

tadamm-tamm-tadamm!

Das Ding ist das Head-Mounted Display eines Wearable Computers von Xybernaut, der in der Rumpelkammer der Medieninformatik an der uulm sein Dasein fristet. Wir hatten gehofft, ihn irgendwie an einen normalen Rechner adaptieren zu koennen — die Anschlussstecker sind aber proprietaer, Dokumentation dazu war nicht zu finden, und eigentlich sollte das Display auch zum Traeger zeigen, und nicht von ihm weg.

So wird das Teil wohl weiter im Regal liegen, als Zeuge einer Zeit, in der man dachte, dass die Leute irgendwann tatsaechlich alle mal mit seltsamen Visoren vor dem Auge herumlaufen wuerden.

Mir faellt dazu immer nur eins ein: tadamm-tamm-tadamm!

diretto — Technische Details

Da in den Kommentaren schon spekuliert wurde, ein paar Punkte zur diretto-Implementierung, wie wir sie uns derzeit vorstellen:

  • Ein Netbook als Basis fuer das uplink device war auch bei uns die erste Idee. Mittlerweile halten auch die Akkus lang genug, wie wir uns das denken, und natuerlich ist auch gleich ein Bildschirm und eine Tastatur dabei, so dass man auf dem Ding auch mobil direkt am System arbeiten koennte.
    Den Bildschirm muesste man dann aber wieder besonders vor Umwelteinfluessen schuetzen, und beim Wasserschutz steht man ziemlich schnell vor dem Problem, dass man nicht weiss, wohin man mit der Abwaerme soll. Im Idealfall koennte man einen Nettop passiv ueber das Schutzgehaeuse kuehlen. Da muss ich mir aber noch Gedanken machen.
  • Das uplink device soll, wie Flo erkannt hat, regelmaessig seine Position mitloggen. Das ist auch dann interessant, wenn der Rucksacktraeger eine Videokamera verwendet und der Fotograf ein wenig abgesetzt operiert — hinterher kann man so Videobild und Standort synchronisieren, was ja sonst nicht ginge.
  • Benjamin hatte die Tage auch einen netten Einfall, wie man auch mit einem Nettop HCI ueber akustisches Feedback per Headset hinaus machen koennte. Da verrate ich aber noch nix, das muss erst getestet werden, bevor wir Sachen versprechen koennen.

Das Sendestudio, nicht nur im Rucksack

Bevor jemand meint, die Idee des direkt uebertragenden Fotografensystems sei bereits wieder gestorben: Ist sie nicht. Wir sind nur gerade noch nicht so ganz sicher, welchen Weg wir einschlagen sollen.

Auf der Zugfahrt nach Koeln und zurueck hatte ich neben der Korrektur von Uebungsaufgaben auch Zeit dafuer, mir die Aufzeichnungen einiger 26C3-Vortraege anzusehen, unter anderem die Nachbereitung der „Ereignisse des 12.9.“, und mir gefiel, was ich da sah. Also natuerlich nicht, nochmal aus unzaehligen Blickwinkeln Polizeigewalt zu sehen, sondern dass die Idee eines direkt uebertragenden Dokumentationssystems gut zu sein scheint. Neben dem FSA-Vortrag klang fuer mich auch im Street-Photography-Vortrag des dpd-Fotografen und dem spassig-peinlichen Unbild-Projektvortrag der Wunsch mit, manchmal auch mal direkt alle Fotos in Sicherheit zu bekommen, ohne eine Beschlagnahme befuerchten zu muessen.

Mit diesen Erkenntnisen begann aber noch einmal das Gruebeln, denn auch bei einem Feuerwehreinsatz neulich fielen mir einige Punkte auf, die ich vorher nicht bedacht hatte, und die die Umsetzung nicht einfacher machen werden:

  • Es ist sehr schwierig, zeitliche und raeumliche Ablaeufe im Nachhinein zu rekonstruieren, wenn nicht sofort mitprotokolliert wird, besonders wenn neue Ereignisse dazukommen, die der Aufmerksamkeit beduerfen.
  • Schriftliche Dokumentation erfordert die volle Aufmerksamkeit und nimmt Zeit in Anspruch.
  • Muendliche Dokumentation funktioniert relativ gut, wenn (mit Zeitcode) mitgeschnitten wird oder die Einsatzbegleitung (der Feuerwehr) die Meldungen mit Zeitstempel sofort ins Einsatztagebuch transkribiert.
  • Ich hatte den Eindruck, dass insbesondere bei der FSA-Aufarbeitung die Videoaufzeichnungen deutlich wertvoller waren, um schnelle Handlungsabfolgen nachvollziehen zu koennen. Bei Fotos waeren hier Serienbilder notwendig, um die Abfolge erkennen zu koennen.
  • Wenn ich Andy Mueller-Maguhn richtig verstanden habe, waren auch die Audiospuren der Filmaufzeichnungen im Nachhinein relativ wertvoll. Hier war man aber offenbar vielfach verleitet, auf die Audiospur die eigene Interpretation der Handlungen aufzusprechen, die mangels Ueberblick ueber die Gesamtsituation quasi immer vorurteilsbehaftet ist.

Da das Ganze nun als diretto im Rahmen unseres Anwendungsfaches umgesetzt werden soll, muessen wir uns jetzt anhand dieser Bedingungen erst einmal gut ueberlegen, was unsere Implementation am Ende koennen soll. Was ich mir so ueberlegt habe:

  • Zeitsynchronisierung, um auf jeden Fall immer korrekte Zeitstempel in allen Medien zu haben
  • Uebertragung beliebiger (vorerst einmal nicht gestreamter) Medien, was die Bandbreite hergibt, an ein Lagezentrum oder externe Speicher (Text, Bild), samt Metainformationen (Ort, Zeit, Ausrichtung, Prioritaet)
  • eventuell auch das Setzen von Cue-Punkten (Kamera ein, Kamera aus)
  • Vorausschauende Unterstuetzung von Smartphones, ohne momentan sonderlich viel Zeit darauf zu verwenden, da die Kameras immer noch zu schlecht sind und die Uebertragungsmoeglichkeit per MMS oder UMTS unkritisch ist
  • Spaetere Verfeinerung von Medien, bei denen Aufnahmeort und -Zeit nicht ganz sicher sind (vor Ereignis X, nach Ereignis Y)
  • Verschlagwortung der einzelnen Medien

…und letztendlich stellt sich nun auch die Frage, in welche Richtung das Ganze gehen soll. Meine urspruengliche Idee drehte sich ja nur darum, die Daten sicher zu verteilen, entweder per Ad-hoc-WLAN-Meshrouting oder per UMTS — der jetzige Entwurf laesst das konkrete Endgeraet aber erst einmal links liegen und fokussiert sich hauptsaechlich auf die Datenhaltung, um sowohl live als auch in der Nachbereitung Zusammenhaenge feststellen zu koennen.Benni haengt sich nun schon seit Wochen voll rein, um gerade dieses System hinzubekommen und ruft mich auch schon einmal Mitternachts an, weil er fuerchtet, gescoopt worden zu sein — und ich versteife mich dann wieder auf Detailfragen und Ideen, wie das Rucksackgeraet nun aussehen koennte.

Am Montag muessen wir den Projektvorschlag einreichen — mal sehen, was es im Endeffekt wird 😉

Von Zukunftsvisionen und verbindenden Highways

Die mit viel Leidenschaft innerhalb des Netzes gefuehrte und ausserhalb quasi vollkommen ignorierte Debatte ueber Schirrmachers juengstes Buch habe ich eigentlich nur irritiert-amuesiert vom Spielfeldrand aus beobachtet. Erstens, weil ich „Payback“ noch gar nicht gelesen hatte (und mich wundert bis heute, wie schnell das die Kritiker schafften), hauptsaechlich aber deswegen, weil das argumentative Widerlegen eines deutschlandweit bekannten Feuilletonisten zwar definitiv auf meiner Bucket-List, auf der Prioritaetenliste aber erstmal hinter ein paar anderen Sachen steht. Ihr wisst schon, Studium und so. Und als ich dann endlich Zeit hatte, war ohnehin schon alles gesagt, nur eben noch nicht von allen, und da muss ich mich eigentlich auch nicht mehr einmischen.

Seinen Artikel ueber das „Schwellenjahr 2010“ in der FAZ habe ich hingegen gelesen, und zwar mit Freude. Erstens, weil in dem Text keine Donnerpfeile gegen die generell boesen Entwicklungen der Moderne aus einem mit Haekeldeckchen versehenen Elfenbeinturm geschleudert werden, sondern Schirrmacher durchaus tiefgehende Ahnung von dem zu haben scheint, ueber das er schreibt. Ob die zu 100% von ihm selbst stammt, oder ihm bei manchen Passagen jemand beistand, ist dabei eigentlich nebensaechlich.

Zweitens, weil er mich zum Nachdenken ueber Zukunftsvisionen gebracht hat. Die zeichnen sich ja in der Regel dadurch aus, dass wir alle schon im Jahr 2000 mit fliegenden Atomraketenautos durch die Welt haetten fliegen muessen und fuer uns moderne Leute des Atomraketenautozeitalters immer ein wenig laecherlich wirken. Sie liegen aber im Kern selten verkehrt, wenngleich sie einfach auf ganz andere Art und Weise Realitaet wurden, wie man sich das damals vorgestellt hatte.

Bei Star Trek begibt man sich in ein Holodeck, um an alten Autos herumzuschrauben oder Sherlock Holmes zu spielenVirtual Reality also, das, an dem seit Jahren herumgeforscht wird, ohne dass man der Zukunftsvision des ganz normalen Holodecks naeher gekommen waere. Zu Recht bezeichnet Schirrmacher das als „Uebergangsbegriff“:

Das Jahr 2010 könnte das Jahr sein, in dem der immer blasser gewordene Begriff „virtual reality“, der Übergangsbegriff des letzten Jahrzehnts, endgültig verlöschen wird. Die Brücke zwischen virtueller und wirklicher Wirklichkeit bricht gerade hinter uns zusammen, kaum dass wir den ersten Fußtritt ins neue Jahr gesetzt haben. Es ist ganz anders gekommen als gedacht. Die Menschen treten nicht mit Cyberhelmen und digitalen Handschuhen bewaffnet in ein Paralleluniversum des zweiten Lebens ein. Wir sind, wo wir auch sind, im Netz.

Stattdessen also Augmented Reality? Alternate Reality Games gibt es bereits, und das allgegenwaertige Netz koennte sogar das bislang doch eher arg nerdige LARP einer breiten Masse zugaenglich machen. Aber E-Mail war schliesslich auch mal nur etwas fuer Nerds.

Abschliessend: Nochmal eine ausdrueckliche Leseempfehlung fuer den FAZ-Artikel, und das Video einer ganz anderen Zukunftsvision, erdacht vor ueber 51 Jahren in den Disney-Studios, ueber die Highways der Zukunft:

Okay okay, das mit den Turbinenautos hat ebensowenig stattgefunden wie die Erfindung des Massen-Atomautos, und die Idee einer vollkommen zersiedelten Landschaft ist im ersten Moment fuer uns eher erschreckend.

Mich erstaunt aber doch, wie viele der aufgezeigten Ideen heutzutage tatsaechlich Alltag sind, wenngleich eben in ganz anderer Form, als man sich das damals vorstellen konnte. Und wer den Schluss uebermaessig pathetisch findet, der substituiere gedanklich einfach mal „Highway“ durch „Information Highway“ und schaue sich das nochmal an. Aha-Moment garantiert.

PS: Bin ich der einzige, dem das Gesamtdesign des Films so ueberragend gut gefaellt? Allein schon die Architektur des Einkaufszentrums… ich liebe diesen Stil!

Nachwuchsforschung

Eigentlich ist es zum heulen: Das Institut fuer Medieninformatik an der uulm loest sich langsam aber sicher auf. Frank Kargl hat mittlerweile fertig habilitiert und sucht sich neue Herausforderungen, und so wie es aktuell aussieht, entfaellt damit das komplette Anwendungsfach Mobile/Ubiquitous Computing und die Vorlesungen zu IT-Sicherheit. Das ist bitter, da das fuer mich eines der attraktivsten Standbeine der MI war und Potenzial fuer das bietet, was man so schoen „Leuchtturmprojekt“ nennt.

In der Zwischenzeit kommt es mir so vor, als wuerde die MI zum Grossteil von den aktuellen Doktoranden geschmissen, von denen sogar der Herr Doktor Buchberger in den hoechsten Toenen schwaermt (ich sehe gerade, dass ich das Bild ganz rechts auf der Buchitec-Seite geschossen habe und er es ohne meine Erlaubnis verwendet. Wo sind noch gleich meine Blankorechnungen?). Und an mir waere das ganz vorbeigegangen, aber Dank Andy habe ich heute auch mitbekommen, dass auch der erste Platz fuer Diplom- und Masterarbeiten des Foerderpreises des CAST e.V. an einen der Doktoranden ging — Bastian Koenings darf sich somit ueber 3000 EUR Preisgeld freuen.

Hoffen wir mal, dass auf die Weise noch was vom Institut erhalten bleibt 😉

Was ist denn dieses “Crowdsourcing” ueberhaupt?

Einige Leser duerften sich jetzt ausklinken, aber ich muss dieses Blog mal wieder dafuer nutzen, wofuer ich es urspruenglich angeschafft habe: Als Gedankenmuellhalde, auf der ich meine Ueberlegungen ablegen und dabei strukturieren kann ;)

Eine meiner Seminararbeiten dieses Semesters wird sich naemlich um Crowdsourcing drehen, und obwohl ich das Thema urspruenglich gar nicht haben wollte, finde ich es immer faszinierender. Und da ich jetzt mit der Literaturrecherche anfange und mich durch tausend Papers wuehlen werde, moechte ich erst einmal das festhalten, was ich mir bisher ausgedacht habe.

Erst einmal ist der Begriff relativ diffus — im Wesentlichen geht es einfach nur darum, dass eine bestimmte Arbeit an viele Leute verteilt wird. Entweder macht man das, weil man selber keine Lust darauf oder Ressourcen dafuer hat (Firmen wollen damit auch gerne Geld sparen). Oder aber man vertraut dabei auf die Intelligenz der Masse, weil heterogene Ansammlungen ganz verschiedener Leute, anders als man vielleicht zunaechst meinen wuerde, bei der Erledigung mancher Aufgaben deutlich besser sind als einzelne Experten. Letzteres ist gar nichts so neues, Francis Galton nannte es schon 1906 Vox Populi: Als damals 787 Leute das Lebendgewicht eines Ochsen (1198 Pfund) schaetzen sollten, lagen die einzelnen Schaetzungen zwar zum Teil weit vom tatsaechlichen Ergebnis entfernt, den Mittelwert aller Schaetzungen errechnete Galton aber bei 1207 Pfund, also mit nur 0,8% Abweichung vom tatsaechlichen Ergebnis. Klingt also prinzipiell prima: Der Schwarm ist intelligenter oder zumindest staerker als die einzelnen Mitglieder des Schwarms, also schreiben wir alle Probleme oeffentlich aus, und der Superorganismus Internet wird’s schon richten.

Klappt aber nicht. Jedenfalls nicht immer.

Im Fontblog gibt es heute eine beispielhafte Aufzaehlung von Crowdsourcing-Aktionen, die in die Hose gegangen sind, natuerlich aus dem Designbereich. Der Logowettbewerb von Frank-Walter Steinmeier ist nur ein Beispiel. Andere Wettbewerbe — dem Gefuehl nach hauptsaechlich die Aktionen, die von irgendwelchen Werbeagenturen konzipiert werden — locken keinen Hund hinter dem Ofen hervor. Woran koennte das liegen?

Die erste Idee war, die Crowdsourcing-Konzepte, die ich kannte, ein wenig zu ordnen. Man kommt auf diese Weise relativ schnell auf die folgenden Kategorien:

  • Grosser Sandhaufen, viele Schaufeln: Man hat einen grossen Haufen simpler Arbeit, die von Maschinen nicht, von Menschen aber relativ einfach erledigt werden kann. Auf diese Weise funktionieren recaptcha oder das Projekt des Guardian, zwei Millionen(!) Seiten Dokumente von 20.000 Freiwilligen durchsuchen zu lassen, um so eine Schmiergeldaffaere aufarbeiten zu koennen. Die einzelnen Arbeitsbloecke lassen sich mehr oder weniger beliebig gross einteilen, bauen nicht oder nur kaum aufeinander auf, koennen parallel abgearbeitet werden und lassen sich hinterher problemlos wieder zusammenfuehren. Distributed-Computing-Systeme wie SETI und Co. wuerde ich auch gefuehlsmaessig hier einordnen, auch wenn hier tatsaechlich die Maschinen arbeiten, nicht die Menschen.
  • Irgendwo wird sich schon ein Experte finden: Wir haben ein Problem, fuer das es viele moegliche Loesungen gibt, letzlich kann aber nur eine einzige eingereichte Loesung verwendet werden. Kollaboration ist quasi nicht moeglich, und oft bedarf es ausreichender Kenntnisse, um eine hochwertige Loesung zu finden. Typische Vertreter dieser Gattung sind Logowettbewerbe oder Logo-crowdsourcing-Plattformen.
  • Evolutionaere Projekte: Man beginnt mit einem relativ einfachen Grundstock, der sukzessive kollaborativ erweitert wird, bis man einem Ziel moeglichst nahe kommt. In den unterschiedlichen Entwicklungsstadien (die bisweilen innerhalb eines Projektes auch gleichzeitig vorkommen) koennen Personen verschiedener Kenntnisstaende ihre Beitraege leisten und fuer die Weiterentwicklung des Systems sorgen. Beispiele sind die Wikipedia und Open-Source-Projekte.

Die Grenzen sind bisweilen fliessend.

Zweitens faellt auf, dass es quasi immer eines Anreizes bedarf, Zeit und Hirnschmalz fuer diese Arbeit zu investieren. Bei der Schmiergeldaffaere ist es tatsaechlich “oeffentliches Interesse”, wegen dessen sich ein Teil der interessierten Oeffentlichkeit durch die Akten wuehlt, bei den Logowettbewerben ein ausgelobtes Preisgeld oder die schiere Begeisterung fuer die Sache (Obama! Piraten! Jehova!), und bei vielen Open-Source-Projekten einfach die pure Notwendigkeit, dem WLAN-Router jetzt auch noch Asterisk, VLANs und ENUM-Lookup beizubringen (und, natuerlich, Muhgeraeusche zu machen. Das ist meistens wichtiger als alles andere).

Die fehlgeschlagenen Kategorie-2-Crowdsourcingprojekte scheinen also hauptsaechlich daran zu scheitern, dass die wirklich guten Experten keinen Anreiz hatten, sich an den Wettbewerben zu beteiligen — ich bin mir aber ohnehin uneins, ob man hier den Begriff “Crowdsourcing” ueberhaupt verwenden sollte. Sollte “Crowd” schon deswegen gelten, weil man den Auftrag an eine grosse Menge von Leuten ausschreibt, oder sollte das erst zutreffen, wenn auch tatsaechlich eine gewisse Menge von Menschen am Endprodukt mitarbeitet?

Einmal davon abgesehen, ist eine weitere Frage, wie man einen geeigneten Anreiz fuer die Arbeit an Crowdsourcingprojekten findet. Recaptcha kombiniert das klassische Captcha — das auszufuellen notwendig ist — mit der Eingabe ocr-unlesbarer Texte, also quasi die Kombination des Notwendigen mit dem Nuetzlichen. Nachdem es fuer einige Menschen offenbar auch die vollkommene Erfuellung darstellt, taeglich stundenlang ihre Farmen auf Facebook zu pflegen, koennte man auch darueber nachdenken, verteilte Arbeiten in Spielen loesen zu lassen. Es scheint also so, als muesste ich auch mal bei den Psychologen anklopfen ;)

…ja, das sind die Fragen, mit denen ich mich jetzt so beschaeftigen werden. Und einmal aufgeschrieben wirken sie gar nicht mehr so maechtig und bedeutend wie im Kopf. Aber zumindest habe ich jetzt einmal einen Anfang — und kann nun herausfinden, wie viel des oben geschriebenen schon vor Jahren in wissenschaftlichen Journals klassifiziert und beschrieben wurde :D

Edit: Fleissaufgabe — in welche Kategorie faellt die Blogosphere?

Lustiges Blaulichtfahren, Teil II

Hier gibts nun endlich ein Video zu der Blaulicht-Warn-Sache, ueber dessen Dreh ich neulich berichtet hatte. Das dazugehoerige Paper landet leider via Konferenz im IEEE-Journal und ist daher nicht per Open Access o.ae. frei verfuegbar, ich werde aber Andy noch bearbeiten, dass es da irgendwann mal eine freie Version gibt 🙂