(statt der bürokratischen informatik sollten sie logik, viel model thinking und ein bisschen hacken unterrichten)

Wer am Tag 50 oder mehr Tweets raushaut optimiert nur noch für die, die einen ohnehin ignorieren.

(omg, web 2.0 wurde 10 jahre alt1 und niemand hat’s bemerkt)

1 die erste web 2.0 conference, später dann summit, fand im oktober 2004 statt

(nature beats palace)

Der Rechtmacher ist ein abstrakter aber in den verschiedenen Instantiierungen extrem weit verbreiteter Zeitgenosse, der sich dadurch auszeichnet, dass er es den anderen Leuten Recht machen will.

Das ist sicher nicht die bösartigste Einstellung, die man haben kann, allerdings führt sie öfter als nicht zu unserem beliebten gut gemeint ist schlecht gemacht oder durchdacht.

Der mit Abstand größte Rechtmacher-Doofus ist natürlich Google – bei denen kann man fast die Hypothese aufstellen, dass das Rechtmachen ihre große Schwäche ist, sprich sie immer dann genial oder zumindest gut sind, wo sie versuchen irgendwas so gut wie möglich zu machen und mit diesen Serien dann etwa bei einem neutralen Funktionalismus (etwa gmail vor 6, 7 jahren) oder einer autoritären Algorithmokratie (etwa google suche vor 6, 7 jahren) landen, und immer dann bestenfalls unbeholfen oder debil sind, wo sie versuchen das dann noch besser zu machen, indem sie es personalisieren, antizipieren und eben dem User rechter zu machen (so ziemlich jeder versuch email oder die suchergebnisse in dieser richtung zu verbessern ist bis dato in einem fiasko oder einer stillen revision geendet, siehe dazu googleheimer). Wobei Gmail und Suche ja noch tendenziell resilient sind und die Interventionen von Google noch relativ locker wegstecken konnten, problematischer ist natürlich, dass die ganze Vision von Google in diese Richtung schielt.

die genuin falsche grundannahme ist, dass es dieses im moment ‘richtige’ gibt und man es nur auf basis der daten ausrechnen muß, daten hat google ja im idealfall wohl genug, es kennt den ort, es kennt die zeit, es kennt die gesamte vorgeschichte, alle bisherigen suchen, käufe, mahlzeiten, treffen, alle kontakte, die gesamte kommunikation, usw., da kann das dann wohl nicht so schwer sein. aber genau das ist der fehler. dieses ‘richtige’ gibt es nicht vorab, sondern nur retrospektiv. bei allem was den funken eines persönlichen werts hat, spielt das begehren eine viel grössere rolle als die summe aller neutraler sachverhalte. man kann glaub ich fast sagen, dass alles, was uns eine suchmaschine vorschlagen kann, per definitionem ‘wertlos’ wird und das begehren verscheucht. das begehren kommt immer nur von der seite, von der wir es nicht erwarten oder sehen können. google will also wohin, wohin es – zumindest für moderat komplexe lebewesen – nicht kann.

The Google Supposed To Know (nts: mich öfter selbst zitieren)

In eine ähnliche Sackgasse laufen aber auch alle anderen Rechtmacher, die die Zukunft der Ausdifferenzierung von sozialen Objekten (Zeitungen als personalisierte Nachrichtenströme, Fernsehen als personalisierte Ströme von Sendungen und Serien, etc.) in personalisierten Empfehlungssystemen sehen. Sie übersehen den entscheidenden Punkt, nämlich dass Wert nur aus Differenz entsteht. Wenn alles gut ist, ist nichts gut. Intensitäten kann man nur in Relation zu einem ‘Mangel’ erzeugen. Hunger ist der beste Koch. Und sie übersehen, dass Identitäten nur im aktiven Auslassen von dem, was man nicht ist, entsteht; das registrierende Auslassen ist eine wichtige Geste.

Empfehlungssysteme sind grossartig zur Inspiration, als Reize, als Serendipity, usw. – aber sie sind kein guter kategorischer Imperativ für gesellschaftliche mediale Produkte.

(wer sich noch daran erinnern kann: die über die filterbubble jammerten, jammerten exakt über den falschen punkt. das problem einer algorithmischen bubble ist nicht, dass man die alternativen stimmen nicht mehr zu sehen bekommt und deshalb auch keine alternativen blickwinkel kennen lernt, das problem der algorithmischen bubble ist, dass man die alternativen stimmen nicht mehr zu sehen bekommt und deshalb nicht mehr so tun kann, als gäbe es die ohnehin bestehende bubble nicht)

(abt. supermarket studies)

Eine weitere zumindest pragmatisch nützliche Unterscheidung kommt von Seth Godin und unterscheidet 2 Arten von Jobs: welche, die man nur selbst machen kann, und alle anderen, die man auch delegieren könnte.

When you get rid of every job you do that could be done by someone else, something needs to fill your time. And what you discover is that you’re imagining growth, building partnerships, rethinking the enterprise (working on your business instead of in it, as the emyth guys would say). Right now, you don’t even see those jobs, because you’re busy doing things that feel efficient instead.

(^ diese seine schlussfolgerung ist dann natürlich teilweise falsch, vor allem die vollständige eliminierung von allgemeinen skills aus dem eigenen bündel ist nicht nur nicht wünschenswert, sondern kann auch schnell die bedingung der möglichkeit für das eigene selbst zersetzen, aber als gedanklicher hintergrund ist die unterscheidung seminal)

(abt: draw the distinction!)

stellen wir uns nach dem minimal model pt. 1 nun eine andere welt mit 100 teilnehmern vor, und in dieser welt kann kann man jede woche entweder eine stunde schreiben oder eine stunde lesen; und nehmen wir auch an, dass schreiben etwa 10x so lang dauert wie lesen.

szenario 1: 10 schreiber, 90 leser
90h lesen verteilen sich auf 10 schreiber -> 9h lesen pro schreiber (es wird jeder text von allen lesern gelesen)

szenario 2: 50 schreiber, 50 leser
50h lesen verteilen sich auf 50 schreiber -> 1h lesen pro schreiber (jeder text wird immerhin von 10 lesern gelesen)

szenario 3: 90 schreiber, 10 leser
10h lesen verteilen sich auf 90 schreiber -> 7 min lesen pro schreiber (jeder text wird von immerhin noch einem leser gelesen)

was kann man nun schon aus diesem allereinfachsten modell lernen?

  • produktion braucht konsumption und umgekehrt
  • mehr ‘produktion’ ist nicht unbedingt das wünschenswerte
  • es geht vielmehr um das erzeugen von milieus, auf denen sich die produktionsbedingungen und rezeptionsbedingungen auf einem für alle beteiligten nützlichen gleichgewicht einpendeln kann
  • genau das erzeugen dieser milieus für die produktion und rezeption von spezifischen sozialen objekten ist die aufgabe der verschiedenen dienste. wie das dann jeweils idealerweise ausschaut folgt keiner faustregel, sondern muss man sich von fall zu fall genau anschauen. sowas wie diese unsägliche 90-9-1 regel zeigt vielleicht den median der verteilungen an (i.e. auf vielen foren pendelt es sich da ein), ist ansonsten aber völlig nutzlos.

nur zur sicherheit: das modell ist natürlich nicht realistisch. leute können üblicherweise lesen und schreiben, ob man produziert hängt von einer jeweils individuellen motivationsfunktion ab, ob und was man konsumiert hängt von einer jeweils individuellen interessefunktion ab, daraus leiten sich verteilungskurven mit abnehmendem grenznutzen ab, die wiederum verschiedene triggermilieus bzgl. der motivationsfunktion bilden, die wiederum feedbackloops innerhalb einer allgemeinen ausdifferenzierung erzeugen, usw.

(und nur am rande: wenn man sich die realen verteilungen auf webdiensten anschaut, dann sind die meistens erstaunlich plausibel. die wikipedia pendelt sich auf einem niveau ein, das zur aktualisierung völlig reicht; die 0,1% produzenten (hausnummer) erzeugen immer noch einen massiven inhaltlichen überschuss, der halt in den löschdiskussionen abgefackelt wird, aber der nutzen jeder änderung betrifft natürlich immer gleich millionen; auf twitter ist mit dem produzieren von tweets kaum aufwand verbunden, da entstehen dann wilde mischungen von den verschiedensten subbündeln, aber insgesamt hat twitter, wenn es ein problem hat, sicher nicht wie oft naiv angenommen eines von zu wenig produzenten, sondern von zu wenig lesern, die faven, subscriben, auf die links klicken, auf die ads klicken; usw.)

iOS oder Android App, die den aktuell auf dem Turntable gespielten Track registriert, ggf. durch Shazam jagt, das entsprechende Youtubevideo heraussucht und dann auf dem sozialen Netzwerk der Wahl postet.

(blogpost über DAS fundamentale dilemma im derzeitigen web: den umstand, dass dinge nicht in ihrem idealen gleichgewichtszustand belassen, sondern immer weiter verbessert werden – und dabei aber nur verschlechtert werden können)

((wie so oft liegt der grund dafür im umstand, dass der idealzustand selbst zufällig gefunden wurde und nicht das ergebnis einer klarer vision, harter arbeit und genialem design war und dass die technische maschine halt einfach den drang hat, immer weiter fortzuschreiten. eine analyse von fallbeispielen könnte aber durchaus interessant sein, weil ich vermute, dass die kosten des abweichens zunehmend teuer werden, weil man immer auch gleichzeitig gegen die gravitation das idealzustands arbeitet, und sich die dynamik dabei also zunehmend hochschaukelt; ein an der hand liegendes beispiele wären sicherlich gmail, das irgendwann, gefühlsmässig gegen 2010 kann aber auch früher gewesen sein, wirklich den idealen universellen email client repräsentierte, während in der folge fast jede weitere verbesserung nur noch ein kleineres oder grösseres hindernis oder ärgernis war, das man im besten fall ignorieren konnte oder das man irgendwie umschiffen musste.))

(((bonuspunkte also wie immer für konkrete fallstudien und sternchen für eine umfassende typologie)))

nopattern

^ auch devoha: ello hat mit ello x threadless die erste der angedeuteten monetarisierungsideen vorgestellt, und ich finde die idee gar nicht unnett – neben ello shirts gibt es alle zwei wochen auch ein limitiertes shirt von einem ‘community artist’.


^ devoha ein RB, aber wenn man den struggle von twitter mit der suche mitbekommen hat, im grunde kämpfen sie ja seit 2007 damit, dann hat es mit der übernahme von summize 2008 ganz kurz funktioniert und seit ende 2008 struggleten sie wieder damit usw., dann ist doch erwähnenswert, wenn die suche tatsächlich wieder bis in die anfänge zurückreicht.

völlig jenseitig: welches mehr als 25 jahre album einer band, deren name ein vor vl. 7, 8 jahren seminales webkonzept antizipiert, finde ich 25 jahre später erstmals hörbar/gar nicht so schlecht?

(hint: iirc hat sie spex/diederichsen damals zur sensation des jahres gekürt. aber es geht wie angedeutet um den namen des webkonzepts, der ja bei bands und webkonzepten ja nicht so oft koinzidiert)

(blogpost über DAS fundamentale dilemma im derzeitigen web: den umstand, dass digitalisiertes ganz grundsätzlich nicht die position des lacanschen meistersignifikanten einnehmen kann)

((das klingt zunächst natürlich sogar nach einem fortschritt, weil man sich vermeintlich von den warenfetischistischen bindungen usw. löst und sich deshalb metaphysisch befreit etc. – allerdings stellt sich leider genau dieser rest als bedingung der möglichkeit der semiose heraus usw.))

Dienst oder Tool, das einen Überblick generiert/aggregiert, was aus einem gesuchten Ding – einer Person, einer Band, dem Mitglied einer Band, gerne auch einem Konzept, einem Webdienst, etctrara – geworden ist.

(bonuspunkte für eine liste aller aktuell betriebenen kanäle wie facebook, ello, twitter, medium, youtube oder sogar blogs)

(etwa heute vor 20 jahren hat die hochzeit von d&b begonnen, die dann etwa 3, 4 jahre lang eine absolut phantastische entwicklung mit einigen der soundsemiotisch grossartigsten ausdifferenzierungen ever hingelegt hat (nur um dann natürlich irgendwann bei dub- und clownstep zu landen und sich dann auf einem insignifikanten aber auch nicht schlechten level irgendwie einzupendeln))

Originality is local.

^ seth godin in Of course it’s been done before (seine argumentation ist in diesem fall ein bisschen holprig und die beschränkung auf eine subjektivität ist unnötig und local könnte man vl. auf lokal in raum und zeit erweitern, dann aber ist das eine wirklich nützliche verdichtung)

Die Funktion von Favs ist nicht aufs Favorisieren von Tweets beschränkt, es funktioniert auch als kontextuelle Geste wie den Nod o das Gotya

(wenn man zb. in einem tweet erwähnt oder angesprochen wurde, aber nichts wirklich dazu zu sagen hat oder einem gerade die zeit oder muse fehlt, dann indiziert ein fav dem anderen diesen umstand. man setzt hinter den thread gwm. einen punkt und hinterlässt keine offenen enden; favs sind aber wirklich ein plastischer datentyp und haben viele verschiedene anwendungsmöglichkeiten, die sich automagisch aus dem kontext richtig interpretieren lassen)

Greasemonkey Script, das den Linkstrom des eigenen Networks bei Pinboard mit dem Avatar des jeweils Verlinkenden annotiert (wie es delicious zb macht).

stellen wir uns einmal eine welt vor, in der es zur elektronischen publikation/kommunikation nur ein medium gibt: jeder der will kann schreiben was und wie er will. nennen wir es blogs.

alle, die etwas publizieren wollen, benutzen blogs für ihr gesamtes ausdrucksbedürfnis, was sollten sie auch sonst tun. es wird sich ein bestimmter infoökonomischer raum an bloggern und lesern ausbilden und sich auf einem gewissen aktivitätsniveau mit einer gewissen verteilung von ‘jobs’ einpendeln.

stellen wir uns vor, dass dann ein zweites medium hinzukommt, das zwei unterscheidungen einführt: einerseits wird die länge der texte auf 140 zeichen begrenzt, andererseits werden die teilnehmer sozialisiert/vernetzt. nennen wir es twitter.

was wird passieren?

  • leute werden neue kommunikative ‘jobs’ entdecken, die mit dem neuen, kleinen medium plötzlich sinnvoll werden (nicht, weil sie davor grundsätzlich unmöglich waren, aber weil sie davor ‘infoökonomisch’ gwm. zu teuer waren).
  • es wird eine umverteilung/migration der beteiligten geben: leute werden beginnen, twitter statt blogs für die neuen dinge zu verwenden, und für die dinge, für die twitter besser geeignet ist.
  • einige leute werden erstmals an der kommunikation teilnehmen, weil sie erstmals für sich sinnvolle jobs entdecken oder weil es für sie erstmals einfach genug ist oder schnell genug geht.
  • einige andere werden fortan blogs und twitter verwenden, einige weiterhin nur blogs, einige nur oder nur noch twitter.
  • die anzahl der teilnehmer wird insgesamt zunehmen.
  • die anzahl der kommunikationsereignisse wird in diesem fall wohl dramatisch zunehmen, einfach weil es von einfacherem und kleinerem üblicherweise mehr gibt (allerdings könnte das auch anders sein; hätten wir unsere welt mit twitter begonnen, würde sie wohl ebenso dramatisch abnehmen).
  • der marktanteil wird sich verschieben. (die bewertung davon ist jedoch eine schwierige sache, weil der marktanteil an den gesamten kommunikationsereignissen tatsächlich nichts über die nachhaltigkeit oder gesellschaftliche relevanz von medien aussagt.)

als ergebnis entsteht irgendwann jedenfalls ein neues infoökonomisches milieu mit zwei ebenen der ausdifferenzierung: einerseits differenzieren sich die medien ‘gegeneinander’ aus; andererseits differenzieren sich innerhalb der einzelnen medien die kommunikationsereignisse der jeweiligen jobs aus. sowohl die medien selbst als auch die qualität und quantität der kommunikationsereignisse innerhalb der jeweiligen medien pendeln sich auf einem gewissen neuen aktivitätsniveau ein.

these:

mit jedem weiteren medium entstehen – immer der gleichen logik folgend – jeweils immer wieder neue milieus, die sich jeweils immer wieder einerseits bezüglich der medien untereinander und andererseits in jedem medium in sich selbst bezüglich der jobs und ereignisse ausdifferenzieren.

(neue medien entstehen üblicherweise durch einführung von neuen unterscheidungen; neben der unterscheidung lang und asozial (blogs)/kurz und sozial (twitter) wie in unserer welt, gibt es viele andere wie öffentlich/privat, stationär/mobil, billig/teuer, E/U, autonom und selbstbetrieben/abhängig und in der cloud, permanent/peripher, frei flottierend/vernetzt, vom gemeinen volk/von spezialisten, und viele mehr. jede unterscheidung verdoppelt gwm. die anzahl der möglichen medien, wobei es aber auch clusterbildungen und nicht genutzte kombinationen gibt).

was kann man nun schon aus diesem allereinfachsten modell lernen?

  • ein neues medium kann die anzahl der systemweiten ‘kommunikationsereignisse’ erhöhen (etwa weil es schneller oder kleiner oder billiger oder omnipräsent ist) oder aber auch reduzieren (etwa weil es dinge zusammenfasst oder überflüssig macht). in beiden fällen funktioniert die gesamtkommunikation danach idealerweise besser. die anzahl der kommunikationsereignisse selbst ist also eine völlig sinnlose metrik.
  • man kann und sollte mehrere medien gleichzeitig verwenden, idealerweise jeweils für den damit angemessenen job. das alte oder andere medium muss nicht sterben, damit das neue sinnvoll oder wertvoll wird. (das klingt offensichtlich aber viele fühlen sich leider nur wohl, wenn sie irgendwas ausstopfen und an die wand hängen können.)
  • es ist ganz grundsätzlich nicht schlecht oder beklagenswert, wenn ein altes medium ‘marktanteile’ an ein neues medium verliert. das ergebnis der anpassung ist ein kommunikatives gleichgewicht auf höherem niveau. es gibt ganz grundsätzlich nichts zu urteilen, sondern nur was zu beobachten. (don’t ask yourself if this is a good thing or a bad thing. ask yourself what’s going on)
  • der ‘marktanteil’ der verschiedenen medien ist auch nicht sinnvollerweise vergleichbar, weil sie völlig unterschiedliche funktionen mit unterschiedlicher wertigkeit entlang der achsen persönlich, sozial und system (siehe) erfüllen können. (ein beliebiger blogeintrag erzeugt eine woche später mehr diskursive anschlussfähigkeit als alle 50 milliarden whatsapp messages eines tages zusammen.)
  • es bringt nichts, die alten marktanteile im neuen milieu retten zu wollen oder künstlich zu pimpen. (das zu verstehen ist wirklich wichtig, wenn man ein betreiber vom alten medium ist, vor allem, wenn man die produktion – etwa von zeitungen – irgendwie ‘finanzieren’ muss. den eigenen realistischen anteil falsch einzuschätzen kann mitunter auch ein fataler fehler sein, weil der threshold zur erhaltung von aufgeblähten apparaten ja nicht kontinuierlich ist, sondern erst ab einem kritischen punkt einen dann aber plötzlichen sog nach unten erzeugt, der oft aber vermeidbar wäre. wir sehen das leider derzeit bei fast allen altmedien wie print aber auch etwa bei twitter inc.) viel wichtiger als der relative marktanteil sind die absoluten ereignisse.
  • die effekte und möglichkeiten des jeweiligen mediums sind keine ‘leistung’ des mediums oder der macher, sondern effekte, die durch die benutzung entstehen.
  • es gibt strukturell keine zeitlichkeit oder vorrecht des einen mediums über das andere; ist das neue medium einmal da, koexistiert es mit allen anderen medien gleichwertig. (der kleine vorteile vom historisch älteren medium ist, dass die leute erst wechseln/ihr verhalten adaptieren müssen. das endgültige gleichgewicht für eine bestimmte konstellation ist aber zeitlos.) zwar wird es im konkreten historischen verlauf gewisse wellen geben (überschätzung am anfang, hysterie bei beobachteter abnahme, etc.), früher oder später passt sich die kommunikation jedoch an, weil das kämpfen gegen die ineffizienzen zu teuer wird.
  • interessanterweise ist die möglichkeit der entstehung mancher medien selbst ‘historisch’. bestimmte medien sind nur sinnvoll, wenn sie sich etwa asymmetrisch gegen andere medien positionieren können. (sind sie aber erst einmal da, können sie gwm. nicht mehr ungeschehen gemacht werden.)
  • medien können durchaus auch obsolet werden und verschwinden. (allerdings sollten sie überleben können, solange es zumindest einen halbwegs populären ‘job’ gibt, für den sie das medium sind, das dafür am besten geeignet ist.)
  • gelegentlich können die verschiebungen und migrationen ob eines neuen mediums auch sehr schnell gehen und/oder sehr grosse auswirkungen haben.
  • es ist wirklich wichtig, nicht den fehler zu machen, die übergangsphase von einem zustand in den neuen als etwas anderes als eine anpassung ans neue gleichgewicht zu interpretieren. (das ist natürlich der fehler, den alle machen, die sich zahlen von twitter, facebook und whatsapp anschauen und dann aleatorisch extrapolieren um dann wasauchimmer und jedenfalls den tod von irgendwas zu prognostizieren.)
  • auch wenn medien wegen anderen medien üblicherweise ‘marktanteile’ verlieren, so wird doch gleichzeitig auch ihr eigenes profil geschärft. sie werden also besser, weil sie zunehmend für die jobs herangezogen werden, für die sie wirklich geeignet sind.

nur zur sicherheit: das modell ist natürlich nicht realistisch; es basiert auf der sicher nicht erwartbaren annahme, dass alle teilnehmer über alle medien vollständig informiert sind und sich egoistisch rational verhalten; es nimmt auch einen frei fliessenden informationsmarkt an, während die reale situation in vielen fällen ein spieltheoretisches problem egoistischer anbieter ist. auch als medientheorie ist es supernaiv. aber für die entwicklung eines gefühls für die grösse des eigenen ballparks ist es tatsächlich nützlich, zumal sich die menschen in summe üblicherweise erstaunlich rational verhalten, oft viel rationaler, als es zb die macher der einzelnen angebote selbst können. (twitter zb macht entgegen vieler unkenrufe ja noch immer vieles richtig, ihre ganzen probleme haben sie sich eigentlich durch eine deutliche selbstüberschätzung eingehandelt und je länger sie das nicht verstehen, desto fragiler wird der ganze datentyp tweet, weil sie ihn mehr und mehr micromanagen und immer mehr einschränken, aber das ist eine andere geschichte.)

(die gleiche logik kann man grundsätzlich natürlich auch in anderen feldern wie handel oder gadgets vermuten, zumindest als asymptotischer horizont. oft hilft wirklich schon, wenn man sich die lage für die zwei achsen offline/online und statisch/mobil durchdenkt.)

wall art

^ ganz lustig: Flickr startet die Möglichkeit, Fotos in Bilder oder Bücher zu transformieren.

« vorher