Archiv der Kategorie: Experimentelles

Arduino mit Protoshield

Richtiges Werkzeug. Dann gehts.

Arduino mit Protoshield

Gut vier Jahre habe ich nun meinen Arduino, und ganz offen gestanden: Die meiste Zeit lag er in der Ecke herum.

Das hat sich ganz drastisch geaendert, seitdem ich mir ein Protoshield mit Breadboard drauf und endlich flexible(!) statt starrer Breadboardkabel gekauft habe. Die gab’s fuer jeweils wenige Euros auf ebay, wahlweise mit vier Wochen Lieferzeit aus China, oder fuer ein bissel mehr Geld mit schnellerem Versand aus Europa.

Ob und wie der Abgesang auf die 8-bit-µCs bald kommen wird, und ob wir dann alle nur noch auf RasPis und anderen „vollwertigen“ Rechnern coole Hardware-Dinge machen, vermag ich nicht zu sagen. In der Zwischenzeit prototype ich jedenfalls IR-Sender und -Empfaenger, damit wir beim Girls’Day eigene „uulmduinos“ zum Selberloeten und Fernseher-ausmachen bauen lassen koennen 🙂 In der Selbstloet-Variante kosten die unter 10 EUR – und liegen damit noch weit ueber den Uno- und Nano-Clones aus China, die teilweise fuer weniger Geld zu haben sind, als ein blanker Atmega328 in der DIP-Variante. Wahnsinn.

(Randnotiz: Was ausserdem sehr zum Spass am Arduino-prototypen beigetragen hat, war die Anschaffung eines  Sortierkoefferchens. Meine Eltern wollten mir wohlmeinend die Vorzuege von Sortierkoefferchen, z.B. fuer Lego, schon im Kindesalter beibringen. Aber manche Dinge versteht man wohl erst ab einem gewissen Alter. Tja.)

Arduino und Co: µC fuer Dummies

Arduino Uno unboxing
arduino uno unboxing by bjepson
, cc-by-nc-sa

Wenn ich ein einzelnes Projekt benennen muesste, das meines Erachtens am Meisten fuer die breite Zugaenglichkeit von Mikrocontrollern (µCs) fuer die breite (Nicht-Experten-)Masse getan hat, dann duerfte das Arduino sein. Waehrend man frueher neben einem Evaluationsboard entweder einen Rechner mit klassischer serieller Schnittstelle oder gleich einen ISP zur Programmierung brauchte, und dann auch noch die Untiefen der µC-C-Programmierung erlernen musste, hat der Arduino die Huerden bis zum schnellen Bastelprojekt deutlich gesenkt.

Ich hatte auch ewige Zeiten das oben verlinkte Pollin-AVR-Evaluationsboard herumliegen und versucht, ATMega8-Controller zu programmieren — arg weit bin ich damit aber nie gekommen. Von Arduino hatte ich immer wieder einmal gehoert und Anfang des Jahres stiess ich auf diese Dokumentation — und wusste, dass ich mir so ein Teil kaufen wuerde 🙂

Arduino The Documentary (2010) English HD from gnd on Vimeo.

Der eine Trick, der bei Arduino alles anders macht, ist der eingebaute Bootloader. Nach dem Reset des Chips wartet dieser wenige Sekunden lang, ob jemand versucht, ihm ueber die eigene serielle Schnittstelle neue Software unterzuschieben, und programmiert sich gegebenenfalls mit dieser neu. Auf den Arduino-Platinen ist hierfuer nochmals ein eigener Controller verbaut, der zwischen USB-Anschluss und µC vermittelt, so dass man weder auf einen externen Programmer noch auf klassische serielle Schnittstellen auf Rechnerseite angewiesen ist. Einfach, aber genial.

Der zweite Trick ist die Entwicklungsumgebung, die auf Processing basiert und mittels ihrer Bibliotheken die hardwarenahen Operationen sehr weit wegabstrahiert. An die Stelle bitweiser Verschiebeoperationen treten Funktionen wie digitalWrite(7, HIGH) um beispielsweise an den Pin 7 ein ausgehendes 1-Signal anzulegen — das sollte kein Problem sein, wenn man jemals rudimentaer C oder Java zu programmieren gelernt hat.

Addendum, 2016-03-04: Der urspruengliche Entwickler von Wiring hat dieser Geschichte auch noch ein Scherflein beizutragen. Insbesondere die Doku sollte nicht ohne diesen Kontext gesehen werden.

Arduino Motion Detector
arduino motion detector by plamoni
, cc-by-sa

Mittlerweile sind knapp elf Monate vergangen, in denen ich in der Freizeit immer wieder mit dem Arduino Uno herumgespielt, eigene Shields gebastelt und Low-Cost-Nachbauten auf Lochraster aufgebaut habe. Und Zeit fuer ein wenig Gerante, was mir nicht so ganz gefallen hat.

Shields vs. Breadboard

Arduino ist modular erweiterbar ausgelegt: Ueber die Steckheader beidseitig der Platine sollen sogenannte Shields aufgesteckt werden koennen, die dem Controller beispielsweise Ein- und Ausgabemoeglichkeiten geben: LC-Displays, Taster, Drehregler, Ethernet-Schnittstellen, was auch immer man dort haben moechte.

Das ist an sich eine nette Idee, wenn man mal eben etwas zusammenstecken moechte — und gleichzeitig meines Erachtens der groesste Mist an der ganzen Plattform. Klar, ein LCD-Shield mit Buttons ist fuer 15 EUR zu haben und sofort, ohne weiteren Aufwand aufgesteckt und verwendbar. Das geht aber meines Erachtens nur so lange gut, wie man sich wirklich in dieser Shield-Welt aufhalten und mit Originalboards basteln moechte. Will man jemals mit Steckbrettern (Breadboards) arbeiten, um eigene Komponenten zu verwenden, wird’s mitunter haarig. Man kann sich entweder Prototyping-Shields kaufen (oder aetzen), auf denen man die Komponenten einsteckt, oder muss Arduino und Breadboard auf irgendeine Unterlage kleben, damit diese zueinander fixiert sind und nicht bei jeder Bewegung die Verbindungskabel auseinandergezogen werden.

Arduino LED Modulearduino led module by lenp17, cc-by-nc-sa

Dazu kommt, dass die Arduino-Boards seit Generationen einen Designfehler mitschleppen, der aus Abwaertskompatibilitaetsgruenden beibehalten wird (sic!): Auf einer Seite haben zwei der Anschlussheader einen nicht standardkonformen Abstand, was zur Folge hat, dass man bei Lochrasteraufbauten Dinge verbiegen (oder seinen Arduino umbauen) muss. So etwas nervt tierisch, vor allem, wenn man bedenkt, dass das alles ganz anders gehen koennte.

Selbstbau auf Steckbrett

Die simpelste Variante, sich einen Arduino-kompatiblen Aufbau zusammenzustecken, bedarf naemlich nur einer kleinen Handvoll Bauteile fuer knapp 10 EUR, von denen die Haelfte fuer den Spannungsregler noetig ist. Noch einmal knapp 12 EUR gehen fuer einen Adapter mit dem FTDI-Chip drauf, der fuer die Signalwandlung von USB auf Serielle Schnittstelle zustaendig ist — den man aber frueher oder spaeter ohnehin einfach haben will. Mit diesem lassen sich naemlich auch die integrierteren „offiziellen“ Arduino-Varianten ohne eingebauten USB-Port programmieren, wie der oben abgebildete Arduino Pro Mini oder seine Klone. Mit dem simplen Steckbrettaufbau laesst sich prima basteln und experimentieren (Sets dafuer gibt’s natuerlich auch bei umtriebigen Haendlern zu kaufen), und das fertige Produkt kann spaeter 1:1 auf Lochraster oder z.B. mittels Fritzing auf „richtige“ Platine uebertragen werden.

Die einzigen zwei Nachteile der Steckbrett-Variante sind, dass ein „Overhead“ mit Quarz und Kondensatoren (bzw. einem Resonator) und dem Reset-Button samt Pull-Up-Widerstand „mitgeschleppt“ bzw. jedes Mal haendisch aufgebaut werden muss, und dass man wissen muss, welcher physikalische µC-Pin mit welchem Arduino-Pinout korrespondiert. Fuer letzteres kann man sich einfach einen Aufkleber fuer den Controller-Ruecken drucken (oder kaufen) — fuer ersteres gibt es gleich mehrere Loesungen.

Arduino-based remote
arduino-based remote by cibomahto
, cc-by-sa

Die Bare-Bones-Varianten

Die simpelste und spassigste mir bekannte Loesung, Reset, Takt und Status-LEDs fuer ein Steckbrett zu optimieren, ist das Ardweeny, das „huckepack“ auf den Controllerruecken gesetzt wird — Pinout-Bezeichnungen gleich inklusive.

Andersherum, mit sehr kompakten Boards, auf denen der AVR-Controller sitzt, gibt es gleich mehrere: DorkBoard, Boarduino und das BareBonesBoard/BBB (Foto oben). Letzteres hat dann zwei Weiterentwicklungen hervorgebracht, die ich momentan von allen Arduino-Clones am interessantesten finde: Einmal das ReallyBareBonesBoard/RBBB, das ueber JeeLabs auch in Europa mit 14 EUR noch recht erschwinglich zu haben ist. Bei dieser Variante kann man (je nach Geschmack) die Platine gegebenenfalls noch um den Hohlstecker oder gar die gesamte Spannungsregelung „kuerzen“, falls man diese nicht braucht. JeeLabs hat sich dann auch dieser Variante noch einmal angenommen und die kaugummiriegelgrossen JeeNodes daraus weiterentwickelt, die von Haus aus mit einem RFM12-Funkmodul fuer drahtlose Kommunikation daherkommen.

Was ich von den JeeNodes halten soll, weiss ich noch nicht so ganz: Die Erweiterungsmoeglichkeiten sind wirklich durchdacht, beispielsweise Adapter mit Inverswandlern, mittels dessem man die Nodes mit nur einer AA-Zelle betreiben kann (das Blog ist uebrigens riesig und sehr lesenswert!), andererseits bringen die JeeNodes wieder ihr eigenes Port-System mit sich, das man zwar nicht mitspielen muss, aber eben doch wieder eine eigene Welt definiert. Gut gefallen mir die RFM12-Module, die spottbillig sind und fuer die meisten Anwendungen den viel teureren ZigBee-Modems kaum etwas nachstehen.

Und was soll ich jetzt kaufen?

Tja, die Qual der Wahl. Lipoly.de verkauft gerade Restbestaende der DFRduino Duemilanove, also Klone der letzten Arduino-Generation, fuer 15 Euro — das ist meines Erachtens ein No-Brainer, wenn man einfach nur unkompliziert einsteigen will. Und falls man sich irgendwann zum Steckbrett noch einen FTDI-Adapter kauft, kommt’s letztlich auf den eigenen Geschmack und die eigenen Anforderungen an, ob es nun ein reiner Steckbrett-Aufbau wird, ein RBBB, JeeNode… oder ob man doch einen Original-Arduino Mega haben moechte, um seinen Roomba fernzusteuern, wie das aktuell in der Medieninformatik der Uni Ulm passiert 🙂

Anmekung: Wer vor dem Henne-Ei-Problem steht, wie der Arduino-Bootloader auf den ATmega kommen soll, kann ihn sich gerne von mir flashen und an der Uni oder im frrm hinterlegen lassen.

Dieser Text steht unter einer cc-by-nc-sa-Lizenz

Mein erster Hackathon

Nach der Idee von Benjamin habe ich am vergangenen Wochenende tatsaechlich an meinem ersten Hackathon teilgenommen. Das ist tatsaechlich in etwa so, wie man sich das klischeeweise vorstellt: Man verbringt beinahe 48 Stunden mit seinem Team und stellt in der Zeit etwas auf die Beine.

In unserem Fall eine Livekarte der Stadt Ulm mit den Nahverkehrslinien 1, 3/5 und N1–N8. Auf denen sich die Busse live bewegen. Awesome.

Unser Team bestand aus Benjamin, cmichi, Fox und mir, musste gemaess der Regeln des Nodeknockout-Wettbewerbs node.js verwenden und hatte genau 48 Stunden Zeit, etwas auf die Beine zu stellen. Klar, dass wir vor unserem ulmapi-Hintergrund irgendetwas in der Richtung offene Daten und Nahverkehr machen wollten 😉

 

„Tatort“ war das Students‘ Lab der Fachschaft Elektrotechnik, wo wir dankenswerterweise von Samstag frueh bis Montag frueh arbeiten und zum Teil auch schlafen durften.

Aber von Anfang an.

Livevisualisierungen sind jetzt keine bahnbrechende, neue und revolutionaere Sache (mehr), das gibt es schon eine ganze Weile. Wir hatten uns aus zwei Gruenden trotzdem dazu entschlossen, so etwas umzusetzen:

  1. Es ging beim Contest um node.js, was insbesondere fuer Benni und Michi eine ziemlich erotisierende Wirkung hat aktuell sowas wie eine Lieblingssprache ist. Zudem baut die Loesung auf freien(!) Frameworks auf, im Gegensatz zum Beispiel zu Google Maps, was man hier ja immer mal wieder sieht
  2. Wir wollten uns einmal selbst „so richtig“ mit der General Transit Feed Specification (GTFS), dem Quasi-Standard fuer maschinenlesbare Nahverkehrsdaten, auseinandersetzen. Ich hatte mich schon vorab immer mal wieder in den Standard eingelesen, jetzt sollte es aber ans Eingemachte gehen.

Womit wir dann schon gleich beim grossen Problem waren.

I can haz GTFS feed, plz?

Unsere Nahverkehrsanbieter (DING fuers Umland, SWU fuer die staedtischen Linien) bieten einfach nichts dergleichen an. Waehrend das Frontend dank der freien Leaflet-Bibliothek und dazu passenden huebschen OpenStreetMap-Karten in kurzer Zeit aufgebaut war, mussten die notwendigen Betriebsdaten erstmal muehselig von Hand zusammengebaut werden.

(An dieser Stelle moechte ich noch einmal erwaehnen, wie toll ich Leaflet und auch die Cloudmade-OSM-Karten finde. Wie neulich hier schon geschrieben: Die freien Dienste muessen gut aussehen, und mit der Leaflet/Cloudmade-Kombination sieht OSM einfach rattenscharf aus und bedient sich erstklassig.)

Ja. Die Fahrplandaten. Das klingt jetzt wirklich archaisch, aber: Alles, was momentan auf der Livekarte zu sehen ist, ist datenseitig mit viel Handarbeit zusammengestueckelt worden. Mittels einiger Skripte konnten wir die Shapefiles der Busrelationen aus der DING-Fahrplanauskunft extrahieren, und die Relationen selbst (also der Plan, welche Fahrgastfahrt der Linie X um welche Zeit von A nach B faehrt und wo sie ueberall haelt) ist aus den PDF-Fahrplaenen der SWU zusammengebaut. Das ist haesslich, das war verdammt zeitaufwaendig, aber es ist zumindest halbwegs vollstaendig.

Wenigstens die Nachtbusse sind tatsaechlich zu 100% und auch korrekt nach GTFS ueberfuehrt. Immerhin. Dafuer fahren sie auf der Karte auch jede Nacht 🙂 (siehe unten)

Da stimmt aber noch irgendetwas nicht…

Ja:

  • GTFS sieht ziemlich genaue Unterscheidungen vor, welche Services wann fahren. Auf der aktuellen Karte fahren aber auch die Busse, die (korrekterweise) dem Service „university“ angehoeren, also eigentlich nur an Vorlesungstagen fahren. Unser Parser ignoriert das momentan und laesst alles fahren, was er an Daten vorliegen hat: Alles, was Montag bis Freitag an einem Vorlesungstag ausserhalb der Schulferien auf besagten Linien faehrt. Und die Nachtbusse 😉
  • Einige Sonderrelationen sind noch nicht abgebildet. Linien die spaet abends nur freitags fahren, oder nur freitags nicht, dafuer Montag bis Donnerstag. Sorry. Kuerze der Zeit. Die Rohdaten aus den Fahrplaenen sind aber mittlerweile halbwegs so aufbereitet, dass man sie fuer einen kompletten GTFS-Datensatz umparsen koennte. Stattdessen koennte man aber auch eine Datensammlung aus der DING-Onlinefahrplanauskunft machen.

Ich bin mir momentan nicht sicher, was die „beste“ Loesung ist, um endlich einen vollstaendigen GTFS-Datensatz fuer die SWU-Linien inklusive aller Sonderfaelle zu bekommen (im Dezember ist uebrigens wieder Fahrplanwechsel…), aber klar ist: Ideal waere eine vernuenftige Originalquelle direkt vom Verkehrsdienstleister. Vielleicht haben wir mit der Karte ja nun weiteres Interesse bei den Stadtwerken geweckt 🙂

Nachtrag am 31. August

Einige Dinge waren wohl trotz der „About“-Seite nicht so ganz klar, und andere habe ich vergessen zu erwaehnen:

  • Warum fahren da Busse, die da nicht fahren sollten? — Die GTFS-Scrapedaten unterscheiden zwar zwischen Nachtbusterminen und Wochentagen, der Parser diskriminiert hier aber nicht. Das heisst zum Beispiel, dass die Nachtbusse jede Nacht fahren, und auch trotz vorlesungsfreier Zeit die Sonderfahrten zwischen Science Park II und Ehinger Tor auf der Karte unterwegs sind
  • Warum fahren die Busse laenger, als sie sollten? — Der no.de-Server laeuft auf UTC, waehrend Ulm momentan auf UTC+2 liegt. Tatsaechlich sieht man also, was vor zwei Stunden los war. Das ist wegen der zyklischen Plaene tagsueber nicht so schlimm, schoen aber natuerlich auch nicht.
  • Warum macht der Bus beim Umlauf 3/5 keine Klinikpause? — GTFS sieht hier vor, fuer jeden Halt eine zurueckgelegte Strecke auf dem Streckenshape zu hinterlegen. Das auszurechnen war in den 48h nicht moeglich (zum Vergleich: Alleine die Linie 3 hat bei uns momentan fuenf verschiedene Shapes fuer alle moeglichen Start-Ziel-Kombinationen). Die Position wird momentan nur relativ krude ueber Start- und Zielort sowie vergangener Zeit approximiert.
  • Warum verwendet die Karte keine Echtzeitdaten? — Uns war es wichtig, hier auf den offenen Standard GTFS zu setzen. Was in den 48h herausgekommen ist, ist zwar keine wirklich saubere Loesung, kann aber noch so weit „gesaeubert“ werden, dass am Ende ein vollstaendiger GTFS-Datensatz verwendet wird, und eben keine Flickschusterei mit manipulierten Fahrauskunft-Anfragen, die man dann minuetlich fuer alle Relationen aktualisieren muesste.

    Es gibt mittlerweile die Erweiterung GTFS-Realtime, die mit Echtzeitdaten umgehen kann. Mit diesen Daten koennte man sogar soweit herunterbrechen, dass angezeigt wird, welcher Bus da jetzt gleich kommen wird (Kennzeichen, dadurch dann z.B. auch, ob es ein Gelenkbus, Standardbus, Viertuerer, Dreituerer, klimatisiert… ist). All das setzt aber erst einmal voraus, dass wir irgendwann einen GTFS-Volldatensatz von den SWU bekommen. Und darum geht’s jetzt erst einmal.

Wo wohne ich gleich?

Viele Leute haben ja in Ulm ein Problem, zuzuordnen, in welchem Quartier sie eigentlich wohnen — zum Teil nicht mal, in welchem Stadtteil. Da wird aus der Neustadt schnell mal ein Teil der Oststadt, und wer weiss auch schon, wo die Weststadt aufhoert und Soeflingen anfaengt…

Dem kann aber nun abgeholfen werden, und es ist auch der erste veroeffentlichte Datensatz auf ulmapi.de: Die Stadt Ulm hat uns Shapefiles aller Stadtteile und deren Quartiersuntergliederungen zur Verfuegung gestellt, und die Kombination aus Benjamins CouchDB-Skills und meinen Tabellenscanabschreibeskills sorgt nun dafuer, dass sich das auch schoen auf der Karte anzeigen laesst (heilige Scheisse, die CloudeMade-Karten sehen mal geil aus! Das ist OpenStreetMap!)

Mehr kommt hoffentlich bald — aktuelle Hinweise immer auf Twitter @ulmapi

I can haz trigger

Eben bei Strobist gesehen: Den ersten selbstgebauten Blitzfunkausloeser, der mich ueberzeugt.

Simpelste Technik (ein Atmega8 mit Minimalansteuerung), und genau die grundlegenden Features, die eigentlich auch der AOSflash haette haben sollen, wenn ihn denn jemand mal fertiggebaut haette. Im Prinzip reicht es naemlich, einen alten Blitz herzunehmen, ihn zu zuenden und nach einer bestimmten Zeit wieder abzuwuergen (zu „quenchen“), um Teilleistungen abgeben zu koennen, und nichts anderes machen die Teile.

Man koennte sich nun noch ueberlegen, von den RFM12-Modulen auf Bluetooth umzusteigen, und die Kennlinien fuer Metz-Blitze zu hinterlegen… schauen wir mal. Ich werde das Projekt mal weiter beobachten 😉

Perfekter deutscher Satz

IMG_8771_1

So, jetzt kommt raus, was das mit den Plaetzchen auf sich hatte: Ich wollte ausprobieren, ob man mit Ami-Mehl und Zeug auch Springerle backen kann. Kann man. Sogar ohne Mixer. Man braucht nur ordentlich Zeit, um Eier mit ner Gabel schaumig zu schlagen.

IMG_8785_1

Die Teile habe ich gestern zur Review-Session von Annes Deutschvorlesung in den Starbucks mitgebracht, und da die alle nicht wussten, dass Springerle normal doch ein wenig arg viel anders aussehen muessten, hat sich auch keiner beschwert. Naechstes Mal die Formlinge vor dem Backen laenger stehen lassen 😀

Nachdem ich das gestern gesehen habe, tut mir jeder leid, der Deutsch als Fremdsprache lernen muss… kommt ein „dass“, muss das Verb ans Satzende, dann die Endungen der Woerter je nach Person — fuer uns vollkommen natuerlich, aber die Kursteilnehmer hatten zu kaempfen. Dafuer haben sie von Anne beigebracht bekommen, wie man „ficken“ konjugiert (wobei das glaube ich auch nicht ueber die Schmerzen hinweghilft, die man beim Erlernen des Konjunktiv II und der passiven Form haben muss oO)

Praesentation rausgenommen, solange ich nicht den Autostart abschalten kann. Klick hier fuer Vollansicht.

Das am Schluss war uebrigens Steve mit dem perfekten deutschen Satz, er habe Emilys Mutter… gaynow :-> (erstes Experiment mit Vuevox, das will wohl noch nicht so recht)

Zahlenvisualisierung deluxe

Nachdem Raimar schon den Windows-Bildschirmschoner bemaengelt, der auf unserem Mega-Visualisierer 2000[tm] zu sehen ist, weil Andy sein MSI Wind so komisch konfiguriert hat: Die Studenten waren gestern eine Stunde zu spaet dran, und in der Zeit hatten sich Andy und ich auf dem grossen Schirm ein paar Videos zur Visualisierung von Zahlen angesehen, weil wir doch so gerne etwas 1337es haetten, mit denen wir unsere Gaeste beeindrucken koennen.

Akamai hat 2006 einen Einblick in sein Proll-NOC gewaehrt und erklaert einem die wunderhuebschen riesigen Kontrollmonitore:

Und Andy war total begeistert von der kurzweiligen TED-Praesentation von Altmeister Hans Rosling, der 2006 auf lockerste Art verschiedene geniale Visualisierungen zur Weltgesundheit und -Einkommensverteilung praesentiert hat:

Stellt sich nun die Frage: Sollen wir von TU aus nochmal ein Medienpraktikum an der Uni ausschreiben, um mal ganz IS-maessig eine tolle Visualisierungssuite zu entwickeln, die die Echtzeitstatistiken der Server auswertet und Apple-glanz-und-Helvetica-maessig todschick auf unseren grossen Bildschirm wirft? 😉

NERT: Man muss auch mal auf die Schnauze fallen

Egal ob es ums fahrradfahren, lesen, schreiben oder kuchenbacken geht — am Anfang macht man dabei ganz furchtbar dummes Zeug. Wenn ich irgendwelche Bilder oder Videos ansehe, die ich vor laengerer Zeit einmal gemacht habe und auf die ich damals furchtbar stolz war, bin ich oft entsetzt, was ich da fuer einen Unsinn angestellt habe und wuerde heute alles ganz anders machen.

Die wichtigste Erkenntnis dabei ist aber, dass diese peinlichen suboptimalen Zwischenergebnisse einfach dazugehören. Niemand steigt zum ersten Mal auf ein Fahrrad und kann sofort losradeln — geschweige denn Kunststueckchen vorfuehren. Im Umkehrschluss heisst das, dass man so viel wie moeglich ueben und experimentieren moechte, um besser zu werden. Ganz analog zu Edison, der erst einmal unzaehlige Wege finden musste, wie man eine Gluehlampe nicht baut, bis er eine brauchbare Loesung fand. (Edison war zwar nicht der erste, der das hinbekam, aber das Prinzip gilt ja noch heute — wer’s zuerst breit veroeffentlicht, sackt auch den Ruhm ein)

Genau das gleiche muss auch bei uns in der Redaktion gelten. Multimedialen Journalismus lernt man in erster Linie dadurch, dass man Artikel verfasst, passende Bilder macht und einbindet, Videos dreht und schneidet, Soundslides bastelt. Und deswegen gebe ich jetzt fuer die TU-Redaktion eine neue Marschrichtung aus.

Ich moechte, dass alle unsere Redaktionsmitarbeiter sich ein Blog, einen Twitter-Account oder beides zulegen, und dort so viel und so oft experimentieren, wie sie nur koennen. Die Themen sind vollkommen offen, Vorgaben gibt es keine, es darf und soll wild ausprobiert werden. Passende andere Blogartikel aufgreifen, Trackbacks setzen, Videos basteln, alles ist drin — hauptsache, es gibt regelmaessig neue Inhalte.

Warum? Ganz einfach: Wer es nicht schafft, ueber beliebige Themen etwas interessantes zu schreiben, der wird wohl auch fuer unsere Redaktion kaum etwas beitragen koennen. Und wer andererseits diese Chance ergreift, der kann nur dazulernen — nicht zuletzt werde ich die interessanten Sachen auch in den redaktionellen Teil schaufeln 😉

Links:

Multimediamampfen

Wer noch nicht wusste, was man alles braucht, um so Multimediakrams zu machen: Eigentlich nur Apfelschorle und Suesskram.

Ich war diesen Sommer bei der letzten Ausgabe von Run Dinner Run mit Kamera und Audiorecorder unterwegs gewesen, um meinen Spieltrieb zu stillen und mal wieder mit Soundslides zu experimentieren. Wem das nichts sagt: RDR ist sowas wie das Perfekte Dinner, nur eben an einem Abend mit ganz vielen Teams, zwischen denen von Vorspeise ueber Hauptgericht zum Dessert durchgemischt wird. Sehr spassig, inklusive anschliessender Preiskroenung im Studentencafe Ulm.

Leider musste ich bei der Aktion feststellen, dass es gar nicht so einfach ist, alleine sowohl Bilder als auch Ton passend zueinander festzuhalten, wenn die Oertlichkeiten relativ schnell wechseln — insbesondere dann, wenn die Gastkoeche davon ausgegangen waren, fuer mich mitzukochen. Das war zwar journalistisch vollkommen untragbar, andererseits war das Essen einfach so furchtbar lecker, dass ich mich leider dadurch von meinem Job ablenken lassen habe. Im Endeffekt habe ich mich daraufhin eine Woche lang mit dem Quellmaterial herumgeschlagen und danach frustriert das Handtuch geworfen (nicht zuletzt auch deswegen, weil meine Kamera kaputtgegangen war und mir das die Motivation zerstoert hatte).

Sei es wie es will, am 8.11. steht die naechste Ausgabe RDR an, und das Orgateam wollte gerne doch irgendetwas vorzeigbares haben. Also habe ich mich heute nachmittag noch einmal hingesetzt, viel ummontiert und -arrangiert und schlussendlich tatsaechlich etwas halbwegs passables herausbekommen. Stolz kann ich auf das Resultat zwar nicht sein (was da genau passiert, wird einem allein vom Soundslide gar nicht klar, teilweise gabs zu wenig Bilder, Bild-Ton-Schere, etc…) aber wenigstens kann es als warnendes Beispiel dienen, dass man entweder zu zweit arbeiten oder aweng mehr mitdenken sollte, wenn man sich an so etwas macht 😉

…und jetzt bin ich heilfroh, dass die Story somit gegessen ist. Nach dem gezwungenermassen 239823492. Mal anhoeren geht einem die Tonspur naemlich unheimlich auf die Nerven — aber das ist bisher bei jedem Soundslide oder Video so gewesen 😉