live.hackr

die romantische komödie

5 Jahre live.hackr

live.hackr feiert heute seinen 5ten Geburtstag!

fünf jahre sind doch ein kompakter block, guter anlass für einen kleinen (eher assoziativen und nicht ansatzweise vollständigen) rückblick:

wie wars?

vor fünf jahren stellte sich die situation etwa so dar, dass der übergang zum ‘web 2.0’ quasi vollzogen war. o’reilly hat die elemente und die sich daraus ergebende dynamik sehr treffend erkannt und benannt, die fundamentalen datentypen (links: delicious, fotos: flickr, video: youtube, musik: last.fm, maps: google maps, location: plazes, usw.) wurden gerade besetzt, die zutaten (profile, tags, ajax) waren bekannt, die design-ästhetik wurde (sicherlich auch damals schon ironisch affirmativ) eingehalten.

vieles davon war auch damals schon nicht neu (es gab zb. auch 2004 eine gefühlte social network erschöpfung (yasn/yet another social network), einen seit jahren vor allem akademisch geführten diskurs über social software, usw.), aber es war auch spürbar, dass sich eine spezifische formation (die abstraktion von allem tu- und denkbaren in den raum web; die interpenetration der systeme menschen und maschinen) gebündelt hat, die ein aufbruch zu etwas neuartigem war. und das war es dann auch und wir stecken mittendrin.

was ist passiert?

  • die besetzung der fundamentalen datentypen hat sich weitestgehend granularisiert (neben delicious: ma.gnolia, diigo, pinboard.in, …; neben flickr: picasa, ffffound, zooomr, …; neben youtube: ustream, blip, dailymotion, hulu, …; neben last.fm: hypemachine, soundcloud, spotify, pandora, …; neben google maps: openstreetmap, bing maps, yahoo maps, …; neben plazes: brightkite, fireeagle, foursquare, …)
    dienste entstanden entlang aller sinnvollen achsen (regionale klone, thematische vertikale, achse zeit (live video, timestamp check-in), open source, etc.). üblicherweise gab es zunächst viele direkte klone, nachdem sich aber ein gewinner abgezeichnet hat, kam es zu stratifizierungen und spezialisierungen.
  • so gut wie jeder andere sozialisierbare datentyp wurde besetzt und in das gesamtgewebe eingebunden (ich bin über 25.000 webapps gestolpert, die zu guten teilen kleinere datentypen sozialisieren; nur ein paar beispiele: bücher: library thing, farben: kuler, dokumente: scribd, finanzen: mint, …) das kernkonzept dabei ist das der social objects – die dienste entstanden rund um beziehungsgeflechte rund um getauschte objekte.
  • was die traditionellen medien betrifft kam es zu einer atomarisierung der vorherigen, an bestimmte formen geknüpfte aggregatszustände für inhalte (stichworte: unbundling, microchunking) und zu verschiedenen formen der rekombination.
    das betraf im übrigen nicht nur die traditionellen formen (albums zu tracks zu samples; zeitung zu artikel zu zitaten; etc.) sondern auch die webnativen formen wie etwa blogging (micro aka twitter, tumblelogs wie tumblr, soup.io).
  • es enstanden einige genuin neue und eben molekulare fundamentale datentypen: tweets / twitter (die kleinste gedankentragende einheit), check-ins / foursquare (die kleinste ortbesetzende einheit), likes / facebook (die kleinste aufmerksamkeit-indizierende einheit), usw., und eine neue semiotik bzw. ökonomie der produktion, distribution und rezeption dieser neuen datentypen.
  • the rise of the stream
    der stream wurde in der folge zur zentralen metapher für den konsum (input) und die transformation (output) dieser klein- und kleinstformatigen inhalte.
    der konsum von streams ist nach dem lesen von feeds tatsächlich auch die zweite grundsätzliche, web-native kulturtechnik des rezipierens. beide muss man sich aneignen bzw. erlernen, wenn man sie nicht kann, versteht man bestimmte phänomene nicht bzw. ist mit ihnen nicht kompatibel.
    imho ist das lesen von feeds die wertvollere (effizientere, optimierbarere, personalisierbarere) technik, aber das schwimmen im strom hat natürlich auch seine qualitäten (wireds proprioception / social 6th sense).
    (nur am rande: insofern ist es mehr als verwunderlich, dass es da nicht mehr gute lösungen gibt; friendfeed gibt’s jetzt auch schon drei jahre und viel hat sich seither nicht getan, buzz etwa hinkt konzeptionell und technisch noch immer hinter friendfeed stand 2008 hinterher).
  • the rise of mobile
    (devoha weil nicht wirklich mein thema; das iphone hat mehr oder weniger alleine das potential des mobilen internets freigesetzt, mit dem ipad machen sie jetzt das gleiche mit tablets, apps!, google versucht mit android den anschluss zu halten, etc; damit verbunden natürlich auch die zarten versuche rund um location).
  • der shift in die cloud.
    auch das war als vision und wunschvorstellung nicht neu (man denke an suns ansatz in den 90ern, grid computing, etc.) – aber auch hier hat sich wohl in den letzten fünf jahren eine konkrete formation gebildet, die erstmals auch marktfähig ist und auch gefühlsmässig hier ist; um zu den 25.000 webapps zurückzukommen: ein guter anderer teil davon sind tools, die ehemalige desktop apps in die cloud bringen; wie immer entlang der achsen private tools, kollaborative tools, enterprise tools und per definitionem auch soziale tools; man kann mittlerweile wirklich fast alles im browser machen. neben der abwanderung von funktionalitäten in die cloud hat sich auch eine neue infrastruktur für die cloud entwickelt, sprich amazons cloud-folio, google app engine, heroku, etctrara.
  • the rise and fall of the real time
    auch das real time web war nichts neues – technorati hat sich glaub ich schon 2004 damals das ‘live web’ auf die fahne geschrieben, instant messaging gab’s schon immer usw. – aber die letzte meile (von minuten zu sekunden) sind wir wohl erst jetzt gegangen. was aber ausblieb waren wirklich schlüssige anwendungen. das kleine gefühl der sich autoaktualisierenden intimität braucht eben nicht nur zufällige zeitgleichheit, sondern auch noch den unwahrscheinlichen fall der aufmerksamkeitskoinzidenz.
    (würde ich als thema nicht abschreiben, da werden sicher weniger ‘naive’ anwendungsfälle kommen, vor allem im bereich rekombination, filtering, analytics der gigantischen mengen an rohen echtzeitdaten)
  • the death of theory
    konzeptionell hingegen hat sich das web jeden funken theorie ausgetrieben. der eher akademische diskurs rund um social software wurde von niemandem gelesen und in der folge vom eher technokratischen diskurs web 2.0 abgelöst, dieser wiederum wurde von niemandem verstanden und in der folge von social media abgelöst, der aber eigentlich nur angewandte pr ist. was fehlt ist eine theorie, die konsequent den wirklichen wert für den user (entlang des gesamten spektrums individuum – gruppe – gesellschaft – system) in den mittelpunkt stellt. (in ansätzen gibt es das bei shirky (wie transformieren wir den cognitive surplus in civic value) und haque (was sind die relevanten kennzahlen für eine nicht selbstzerstörerische ökonomie)).
  • die gleichzeitigkeit von ungleichzeitigkeiten
    ohne das breit zu problematisieren, 2004/05 gab es eine art kultur der gleichzeitigkeit, einfach deshalb, weil alles für alle neu war und gerade kollektiv erarbeitet wurde. heute ist die situation eher eine radikale gleichzeitigkeit von ungleichzeitigkeiten, ständig fliessen neue gruppen hinzu und werden ein einer art atemporality, die auch die gesamte vergangenheit schluckt, aufgelöst.
    ein effekt davon ist, dass es für neue user insgesamt sehr viel schwerer geworden ist, die wichtigsten basics zu verstehen, weil das web nicht sehr gut dabei ist, wissen zu bewahren, und weil natürlich tonnenweise gänzlich uninformierte aussagen zirkulieren (nicht nur das systematische und hysterische verblödungsprogramm der massenmedien, auch die social media platituden, etc.), aber woher soll man das als frischling wissen oder richtig einschätzen können.
  • die übersättigung
    für neue apps wurde es ab einem gewissen grad der sättigung an apps unglaublich schwer, eine gesunde grund-community anzuziehen. eine solche ist aber unendlich wichtig, weil sie die kultur des dienstes definiert, den vibe vorgibt, weil sie sich und den dienst gegen einflüsse und angriffe von aussen verteidigt, weil sie oft überhaupt erst den dienst erfindet – siehe twitter. (das gefüge der community kann sich verändern und in den meisten fällen verändert es sich auch und oft zieht die grundcommunity weiter, aber sie wirkt trotzdem nach. man denke an delicious, flickr, ffffound oder dysfunktional digg). viele neue tools suchen ihr heil in der flucht (we’re in it to win it, fokus auf betriebswirtschaftliche zahlen und die social media metriken, herankarren von beliebigen usern, virality) – aber ignorieren die kulturelle dynamik von diensten. die sensiblere variante setzt derzeit auf game mechanics (paradebeispiele foursquare und gowalla mit ihren badges), aber auch hier muss man aufpassen, welche anreize man setzt. ein dienst ist nicht nur das von ihm ermöglichte angebot, sondern auch das spezifische ökosystem an usern und das zusammenspiel mit dem ökosystem at large.

neben dieser serie an entwicklungen, die (tendenziell) expandierende und deterritorialisierende kräfte freisetzte, gab es eine andere serie an entwicklungen, die (tendenziell) alles wieder aufsaugte und auf sich reterritorialisierte:

darth facebook

an sich ist facebook eine extrem gut gemachte und extrem gut durchdachte seite, die für viele leute wirlich ganz super ist. etwas abstrahiert betrachtet ist facebook ein ding gelungen: sie haben grössere teile ehemals privater kommunikation ins web gebracht und vernetzt. für sich allein betrachtet ist das super aber für das web at large ist der aufstieg von facebook zum schwarzen loch ein holzweg. nicht wegen facebook selbst, sondern wegen der reaktionen aller anderen (was man facebook eigentlich nicht vorwerfen kann.)

(privacy ist bei facebook übrigens kein echtes problem. wer sich eine stunde mit den settings auseinandersetzt, der kann die sichtbarkeit seiner outputs grundsätzlich kontrollieren; ein echtes problem wäre eher die übertragung der ownership des eigenen outputs an facebook, die auslieferung unter die willkür der tos, usw., aber das ist dann teilweise auch egal, weil die aktivitäten oft nur einen temporären charakter haben und von einem selbst gwm. abgeschrieben werden können.)

einige der sich aus facebook ableitenden probleme sind:

die neutralisierung des potentials des offenen webs

die dominanz von facebook hat dazu geführt, dass grosse teile des offenen webs (natürlich nicht alle, es gab auch eine fülle an interessantesten entwicklungen) von facebooks grösse quasi mesmerisiert nur noch eines wollen: offene alternativen zu facebook zu schaffen. reflexartig wird bei jedem neuen feature von facebook oft innerhalb von wenigen tagen ein offenes gegenprodukt ausgerufen (fb connect – openid; likes – openlike; share – openexchange; facebook plattform – open social; usw.)

effekt ist, dass sie nur von facebook ohnehin schon gelöste probleme nochmal lösen, aber keinen neuen horizont öffnen, keine bessere alternative offerieren. der einzige anspruch ist, von facebook vl. ein paar prozentpunkte marktanteil abzuknabbern.

der wahrscheinlich blockierendste selbstgewählte würgegriff: sie setzen auf noch mehr privacy – wir alle wissen: facebook kann man nicht trauen, das ist unser usp – und machen dadurch für sich selbst alles wirklich kompliziert. wenn das open web privacy zunächst einmal ausklammern würde und versuchen würde, das fliessen von allem öffentlichen zu katalysieren, dann wären wir schon jahre weiter.

the one social graph

ein weiterer von facebook ausgehender bremsklotz für die entwicklung des webs ist die grundannahme, dass jeder seinen sozialen graphen hat und den dann idealerweise von dienst zu dienst mit sich mitschleppt (was eben auf facebook zentralsiert geschieht).

schon die vorstellung ist schrecklich: man kann gehen wohin man will – und überall sind immer schon die gleichen leute da.

der ganze punkt am web aber ist, dass man nicht auf den handlungs- und denkkosmos seiner freunde beschränkt bleibt, sondern dass man sich interessengetrieben ausdifferenzieren kann. die eigenen freunde sind immer die besten und sie bleiben es auch, aber einerseits weiss man ohnehin, was man von ihnen erwarten kann (i.e. ich weiss wen ich fragen kann, was ich lesen oder hören oder mir anschauen soll, und wen ich besser nicht frage), und andererseits macht sie die tatsache der freundschaft nicht notwendigerweise in jedem bereich interessant.
(ich vermute mal der studentische background von facebook ist der grund, dass facebook das noch nicht erkannt hat. in der high school und im college hängt man halt mit seinen freunden ab und darüber hinaus interessiert einen wenig; es ist jedoch unverständlich, dass etwa google etwas noch viel blöderes glauben konnte, nämlich dass das adressbuch des email-accounts auch nur irgendwas bedeutet, geschweige denn ein indikator für globales interesse ist, wobei sich das wahrscheinlich daraus erklärt, dass das im googleverse zusammenfällt)

wir brauchen jedenfalls eine entkoppelung vom engen social graph der freunde und eigentlich auch vom halt mitgeschleppten social graph aus twitter, gmail und allen anderen sammelgraphen und bessere mechanismen für frei flottierende graphen, die sich konkret via der zirkulation von social objects ausdifferenzieren können. das ist jetzt sicher nicht das grösste problem, aber angesichts der tatsache, dass jeder zweite neue dienst als erste amtshandlung facebook connect anbietet und mehr als eine million seiten die social widgets integrieren, zumindest ein bedenkenswerter.

das verlernen von sharing

das klingt ein bisschen paradox, aber facebook verlernt uns das sharen oder genauer: erschwert den moment des aha-erlebnis des erkennens des prinzips sharing, das uns quasi zu sozialen bürgern macht (und der, wenn man will, mit dem spiegelstadium vergleichbar ist, also jenem moment, in dem ein kind sich selbst als individuum neben anderen erkennt). sharing ist ja mehr als ein bloßes veröffentlichen, sharing ist eine sehr spezifische, soziale form des publizieren, die das milieu eines dienstes kennt und berücksichtigt, die das jeweils gegebene beziehungsgeflecht kennt und berücksichtigt, usw.

der parasit

es gibt viele gute köpfe auch im deutschen web, aber mit der kollektiven kompatibilität mit dem web ist es so eine sache. irgendwie läuft es mit selbstauferlegten fussfesseln herum. für das dahinmurksen gibt es wohl viele gründe, zumindest einen strukturellen, den ich sehr spannend finde, möchte ich erwähnen:

das nicht ertragen können, dass ein anderer aus der eigenen existenz ungefragt und ohne direkte bezahlung irgendeinen nutzen zieht.

dieses grundgefühl zieht sich durch alle schichten und ist – so verständlich auch die haltung ist, wer wollte das schon – im web die blockade schlechthin.

paradigmatisch wird das von der kulturindustrie repräsentiert: zeitungsverleger halten es nicht aus, dass eine nachricht ohne direkte bezahlung gelesen wird und dass google davon sogar finanziell profitiert, musikverwerter halten es nicht aus, dass ein track ohne bezahlung angehört oder als untermalung einer slideshow benutzt werden kann und dass google davon sogar finanziell profitiert, usw., aber – wie wir eben im fall faz vs. mspro miterleben konnten – es reicht schon aus, einmal ein falsch lizenziertes bild zu verwenden, um als ausbeuter wahrgenommen zu werden, oder noch viel schlimmer: als jemand, der sich als gänzlich unsensibel gegenüber den globalen ausbeutungszusammenhängen erweist.

komplementär zu diesem grundgefühl kommt der anspruch, aus der verwertung eines produktes auch noch den letzten tropfen wert aussaugen zu wollen.

dass auch die produzenten vorteile davon hätten, wenn sie ihre objekte/produkte netzwerktauglich machten, ist dabei egal. ich schneide mir lieber den finger ab, bevor ein anderer von meiner leistung profitiert, ohne dass ich direkt bezahlt werde oder mein explizites einverständnis gebe, und den finger schneide ich mir übrigens ganz sicher nicht ab, also fordere ich umfassende kontroll- und sanktionssysteme, die diesem treiben der nutznießer einhalt gebieten. die kosten für die systemische verunmöglichung von missbrauch sind aber üblicherweise um faktoren höher, als der tatsächliche schaden selbst.

im web gilt aber (mit o’reilly): erzeuge mehr wert als du abschöpfst. niemand im web will die produzenten, egal jetzt ob gross oder klein, um die früchte ihrer arbeit bringen. aber man muss sich vom anspruch befreien, die gesamte wertschöpfungskette kontrollieren zu können und jeden tropfen wert abschöpfen zu müssen. gefragt ist nicht das pochen auf sein recht und das festbetonieren von monetarisierungsmodellen und der krieg gegen die fans, gefragt sind neue geschäftsmodelle unter den bedingungen des webs. dass man nicht jeden track und jeden artikel verkaufen (oder oft nur lizenzieren) kann, bedeutet nicht, dass man damit kein geld verdienen kann.

inklusion : exklusion

eine der mich am meisten nervenden immer wieder gestellten forderungen ist, dass alles für alle voraussetzungslos zugänglich und unmittelbar verständlich sein muss, dass das internet viel zu kompliziert ist. mir ist klar, dass das gut gemeint ist (alle sollen sich an den früchten erfreuen dürfen/können/wollen, sonst verbaut man sich die chance, dass es jeder verwenden könnte, etc.) – aber der effekt davon ist, dass alles wertloser wird.

natürlich sollten verschiedene klassen von diensten so verständlich und bedienbar sein, dass sie auch von leuten, die nur seltenst das web benutzen und nicht täglich vier stunden webtechblogs lesen, angstfrei benutzt werden können. aber für spannendere geschichten ist es üblicherweise fast eine voraussetzung, wenn sie etwas sperriger sind, wenn man vorab einen bestimmten grad an eigener kognitiver leistung aufbringen muss, wenn man ein spezifisches set an problemen haben muss, bevor das tool als sinnvoll erscheint.

es geht mir um himmelswillen nicht um ausschlussmechanismen (türsteher vorm p1: mit diesen schuhen kommst du hier nicht rein) sondern um komplexitäten, die selbstselektionen ermöglichen, die in der folge eine kulturelle ausdifferenzierung auf diensten triggern (torhüter bei kafka: dieser eingang war immer schon nur für dich bestimmt).

nanocasestudy delicious: bis zum verkauf an yahoo gab sich delicious in der neuuserakquise sehr, wirklich sehr spröde, es hat sich tatsächlich überhaupt nicht erklärt. viele haben es nicht verstanden (warum soll ich überhaupt bookmarken? warum sollte ich meine bookmarks auch noch öffentlich machen? was sollen diese tags überhaupt? die seite schaut ja hässlich aus! etc.) – der effekt des nichterklärens war aber, dass es in den ersten jahren fast ausschliesslich leute verwendet haben, die sich diese fragen selbst beantworten konnten. der effekt davon war, dass die qualität der geposteten links und der vergebenen tags sehr hoch war und dass eine community entstand, die ein regelwerk an akzeptablen verhalten entwickelte und die sich gegen störungen verteidigte. auch nach dem verkauf an yahoo blieb es spröde. sie haben zwar eine art begründung und anleitung geschrieben, aber auch nach yahoo blieb das wichtigste feature die verweigerung der implementierung von geforderten features.

nanocasestudy hacker news: hacker news ist ein paradebeispiel dafür, wie sich ein dienst durch eigensinn auch in einem gesättigt scheinenden markt positionieren kann. 2007 gab es schon hunderte soziale aggregatoren für technews, allen voran digg. aber diggs dna war traffic und einfluss, es wurde zu einer art MMORPG mit der währung diggs und dem sozialen objekt links, das in der folge in die inhaltliche irrelevanz gegamed wurde (aber natürlich noch immer tonnen an traffic verschickte, was leider als relevanz interpretiert wurde). hackr news tat einen teufel, um auf sich aufmerksam zu machen, und hat der quantität an usern, links, diggs und klicks ein einfaches regelwerk entgegengesetzt, welches die höchste qualität an startup news und fast immer auch interessante kommentar-threads produzierte. der unterschied ist die qualität der community und das ignorieren unfruchtbarer metriken.

livecasestudy tumblr vs. posterous: ein interessanter fall spielt sich gerade vor unseren augen ab: der kampf zwischen tumblr und posterous um die hegemonie unter den tumblogs. beide tun im grunde das gleiche, aber tumblr setzt (tendenziell) auf kultur und community und posterous setzt (tendenziell) auf alles was sich bewegt (inklusive yo mama und abwerbeaktionen von anderen publishing-plattformen) und auf ein aggressives virales cross-posting der posteroustings auf jeder möglichen plattform. der ausgang ist ungewiss (die lage ist etwas komplizierter, weil die soziale dynamik nur eine und vielleicht nicht die wichtigste komponente bei der benutzung ist. posterous ist, bei aller platzhirschigkeit, ein gutes tool und nichts verhindert das betreiben von coolen posterous-blogs. gleichzeitig sind diverse traffic acquisition stunts auch tumblr nicht fremd), aber tumblr sollte die kulturell interessantere plattform werden, weil es wuchernde serien fördert, die sich aufeinander beziehen. beide sind übrigens schon so gross, dass es auch wieder platz für nachzügler gibt, wenn sie das problem gute und selbstselektierende community knacken.

dienste für alle sind also völlig ok, aber es muss nicht jeder dienst für alle sein. wir brauchen mehr tools, die sich an den rändern ausdifferenzieren, die für wenige aber für diese dafür extrem gut geeignet sind. auch die spezielleren dienste brauchen üblicherweise eine gewisse kritische masse, davor greifen die verstärkungslogiken und sozialen dynamiken nicht. es gibt aber auch eine kritische masse nach oben, einen punkt, an dem der dienst nur noch schlechter wird. (dabei ganz interessant: facebook ist gegen diesen punkt resistent, weil es kein eigentliches ‘soziales’ tool ist, sondern nur ein überraum über partialgraphen; auch wenn facebook eine milliarde mitglieder hat, tangiert mich das nicht).

mit d/g könnte man sagen: wir brauchen ein web der tausend plateaus, der milieus, der falten.

konversation

words are cheap und conversation ist auch cheap.

natürlich nichts gegen das prinzip konversation, aber wie oben im bereich theorie hat auch der begriff konversation in den letzten fünf jahren eine eine konzeptionelle abwertung erlebt; ging es im cluetrain manifesto noch um die veränderung und transformation von märkten, fehlt mittlerweile in der gleichung die transformation der märkte und der reine akt der konversation als solcher wird gefeiert. die folge ist leider systematisierte zeitverschwendung.

ich kann mich an keinen tag in den letzten drei jahren erinnern, wo nicht irgendwer irgendwarum irgendwas über konversation gefaselt hat, sei es weil sie fehlt, oder als lobende erwähnung, weil sie da ist, oder als kategorischer imperativ für das web. ich kann mich aber nicht daran erinnern, dass irgendwer in den letzten drei jahren den tatsächlichen wert der tatsächlich geführten konversationen jenseits ihres bloßen haltdaseins hinterfragt hat. natürlich, sie muss authentisch und menschlich sein, engaging sein, auf augenhöhe geführt werden, durch zuhören getriggert sein, etc., aber wenn sie das ist (oder so tut, was auch nicht so schwer ist), dann geht schnell die la ola los und alle sind über sich selbst gerührt. und kann man mit seiner checkliste technische fehler ausmachen, dann wird gleich mit verve erklärt, wie man das jetzt in social media so macht. aber niemand schaut sich an, was der eigentliche mehrwert der konversation ist und vor allem: ob es tatsächlich effekte gibt. (ok, ok, jarvis hat natürlich dell vom taylorismus ins googlezeitalter geführt).

mein eindruck: unterm strich sind grösste teile des gequatsches (von unternehmen auf ihren gefundenen social media kanälen) eine reine beschäftigungstherapie und also reine zeitverschwendung für alle beteiligten. ich habe zwar überhaupt nichts gegen selbstbestimmte zeitverschwendung. wer jeden tag eine stunde (oder drei stunden) farmville spielen will, weil ihm das spass macht, der soll das tun, besser als fernsehen ist es allemal. das problem ist, wenn unternehmen diese zeitverschwendung künstlich und systematisch in ihre aussenkommunikation hineinbauen, um irgendwelche (engagement-) metriken optisch aufzubessern, ohne aber auch nur im ansatz darüber nachzudenken, wie sie bessere produkte und weniger crap produzieren. (den unternehmen kann man wie oben facebook natürlich keinen vorwurf machen. klar findet es coca-cola super, wenn ein promoted tweet 85 mio impressions und 6% engagement kriegt und leute dann auf dem youtube-kanal von coke landen, wo man teil der coca-cola jubelkette werden kann).

uff, ist doch etwas länger geworden. und auch etwas jammernder, als es mir lieb ist. und natürlich teilweise auch sehr pauschalisierend.

Einen herzlichen Dank an alle, die es bis hierher geschafft haben oder gelegentlich hier mitlesen und kommentieren, ohne euch wäre es nicht so lustig!

☍ 01.07.2010 # hackr birthday
kommentare
ich verwende das kommentarsystem disqus, mit dem man mit verschiedenen accounts oder als gast (option 'I'd rather post as a guest') kommentieren kann. es wird erst nach dem klick eingebettet, bei bedenken bitte erst nach zurkenntnisnahme der (datenschutzinfos) kommentieren.