kl. nachtrag zu curate or die: die nyt hat vor kurzem ja von ihren kollegen viel bewunderndes kopfnicken geerntet, weil sie intern mal eine woche den zugang zur eigenen desktop-version gesperrt hat, damit alle ihre mobilen gerätschaften verwenden müssen und dadurch quasi gezwungen werden, sich in die mehrzahl der leser zu versetzen und die kommende ‘bedeutung’ von mobile zu verstehen.

ich glaube als experiment machen sie da etwas sehr richtiges, aber ich bin mir ziemlich sicher, dass sie daraus die falschen schlüsse ziehen werden, weil sie bei ihren bestehenden grundsätzlichen annahmen bleiben werden. und die axiomatische annahme aller verlage ist, dass es einerseits eine grundstätzlich gegebene nachfrage nach journalistischen inhalten gibt und dass sie andererseits die gottgegebenen produzenten ebendieser journalistischen produkte sind.

diese im papierzeitalter quasi seine perfekte realisation gefunden habende natürliche ordnung erlebt aus diesem blickwinkel zuerst mit dem internet/web und dann mit mobile zwar eine krise der verkauf- und verwertbarkeit, aber die struktur der ordnung selbst wird nicht in frage gestellt. wer kein zeitungspapier mehr liest, der hat vor 10 jahren die zeitung als startseite im browser gehabt, mehr web braucht man nicht; und wer kein zeitungsportal mehr liest, der verwendet google um zeitungsartikel zu finden oder facebook, um sich von den freunden zeitungsartikel empfehlen zu lassen und darüber zu diskutieren; und wer nur noch ein handy hat, der verwendet es um sich in der strassenbahn oder im park mit zeitungsartikeln über die geschehnisse zu informieren.

das medium, wie die leserschaft das eigene angebot konsumiert, wandelt sich und die aktuellen trends (omg, mehr und mehr mobile) erkennt man im analyse-tool der wahl, aber die struktur und die aufgabe resp. position der beteiligten parteien bleibt konstant.

für die zeitungsmacher ist zu jedem zeitpunkt ganz klar, dass sie der fixpunkt sind, um den die welt sich dreht. und der typische deutsche verleger geht zusätzlich auch noch davon aus, dass ihnen google, facebook und twitter einfach alles zu verdanken haben, dass leute nur auf google gehen, um die verlagsinhalte zu finden, dass leute nur auf facebook und twitter gehen, um dort verlagsinhalte zu teilen, usw. (aus dieser sicht sind so dinge wie das leistungsschutzrecht oder die forderung nach 11% vom umsatz von google zumindest nicht mehr wirr oder wahnhaft, sondern einfach kontrafaktisch grundbegründet.)

die neuen umstände werden also immer nur als fragen der form und der distribution und der monetarisierbarkeit behandelt, was nicht gestellt wird, ist die frage nach dem eigenen sinn und den neuen umständen selbst. aber der eigene sinn ist vielleicht fragiler, als nicht nur von ihnen angenommen wird.

was wie eine evolution von ‘trends’ im konsum von nachrichten ausschaut – leute lesen sie zuerst auf papier, dann auf dem portal, dann auf facebook, dann auf dem handy – müsste nämlich eher als ganz grundsätzlich neuentwicklung des gesamten ‘dispositivs’ unter grundsätzlich neuen bedingungen bewertet werden, für das alles andere als klar ist, was dort funktionieren kann und wie das funktionieren wird. die welt versucht gwm. gerade herauszufinden, wie sie ausschauen würde, wenn es das web und mobile immer schon gegeben hätte.

man kann aber fast davon ausgehen, dass der ‘journalismus’ wir wir ihn kennen retrospektiv betrachtet eher wie ein historischer zufall ausschauen wird, als wie eine gegebenheit, die nur ein zeitgemäßes gefäß suchen muss. man braucht ja nur die perspektive auf die entwicklung zu wechseln: leute haben zeitungen nur solange gelesen, solange es nichts gab, was leichter und gleichzeit gut genug war (online portale); und leute haben die zeitungsportale nur solange als startseite benutzt, solange es nichts gab, was leichter und gleichzeitig gut genug war (facebook); und auf facebook nehmen die leute die nachrichten bestenfalls noch hin, ein bisschen informiert werden und synchronisation mit der welt ist ja nicht schlecht, aber sie sind doch nicht der grund, um auf facebook zu gehen, die leute interessieren sich für sich selbst und ihre bekannten und verwandten; anders gesagt: zeitungen konnte es nur deshalb geben, weil es damals noch kein facebook gab.

und die radikalste transformation deutet sich natürlich gerade mit dem übergang zu mobile an, weil damit zwar auf der einen seite ein universeller und permanenter zugang für alle gegeben sein wird, gleichzeitig aber ganz grundsätzliche begrenzungen der komplexität des ‘rezipierten’ etabliert werden, die aber natürlich immer noch gut genug sein werden.

die leute waren gwm. jahrzehntelang zu ihrem journalistischen ‘glück’ gezwungen, aber sie haben jede möglichkeit zu was einfacherem auch immer sofort genutzt, sobald sie sich ergeben hat. der journalismus in der uns bekannten form ist also eine reine historische kontingenz, die zwar gesellschaftlich wünschenswert ist, aber niemanden wirklich interessiert.

selbst beim am weltgeschehen interessierten bildungsbürger ist die disposition grundsätzlich anders, wenn er eine mobile gerätschaft verwendet. auch wenn es theoretisch natürlich möglich ist, auf dem iphone täglich ein potpourri an kritischen, gesellschaftspolitischen, analytischen longreads zu lesen, die form und die disposition verstärkt natürlich alles snackbare und unmittelbar intensive, also die snapchats und whatsapps, die vines und instagrams, die tweets mit animierten katzengifs.

(nur am rande: gerade deshalb ist es so absurd, dass die verlage mit aller gewalt gegen google kämpfen aber apple und facebook in den arsch kriechen, weil google gwm. der einzige kanal ist, über den sie intentional offene, weil eben genau nach dem thema suchende besucher bekommen. alles was sich über sharing aufschaukelt oder ausdifferenziert ist zwar viel ‘erfolgreicher’, muss aber auch mit einem gähnenden wegwischen nach 2 sekunden rechnen)

aber um zur ausgangsthese zurückzukommen: die frage ist natürlich, was die richtigen schlüsse auf das experiment der nyt sein könnten. und das wird ein harter knochen, weil das baumaterial nur der sinn sein kann.

‘mögen deine wünsche in erfüllung gehen’ ist ja einer dieser chinesischen flüche, die sich früher oder später besonders hinterlistig bewahrheiten – und am umstand, dass es durch das vom web bedingten unbundling und microchunking zu einer strukturellen krise der durchschnittlichkeit, besonders zu einer krise des durchschnittlichen textes kam, ist vielleicht einer der hinterlistigsten bewahrheitungen.

wir erinnern uns: neben dem hypertext, also der möglichkeit zur vernetzbarkeit von texten, was der grundsätzlichen kern vom web ist, war die damit verbundene entkoppelung der textfragmente von ihrem kontext, die das freie flottieren und beliebige rekombinieren und reaggregieren von texten, informationen, gedanken und also ein genuin neues dispositiv ermöglicht, die zentrale metapher und wunschvorstellung für die zukunft von text.

was auf semiotischer ebene jedoch wie ein paradies klingt, hat nicht mit den psychologischen resp. infoökonomischen nebeneffekten gerechnet.

ganz allgemein gesagt sind menschen relativ unkomplizierte und leicht zufriedenzustellende lebewesen, die mit durchschnittlichkeit gut leben können, solange das gesamtpaket stimmt. ein, zwei goodies reichen aus, um der gesamten restlichen durchschnittlichkeit zumindest den notwendigen hauch von wertigkeit zu verleihen.

(durchschnittliches als angenehm empfinden zu können ist übrigens alles andere als ungeschickt, weil es nicht nur naturgemäß viel mehr durchschnittliches als besonderes gibt und man sich also über viel mehr im leben freuen kann, sondern weil das durchschnittliche in den allermeisten fällen auch völlig ausreicht. dieser von der werbung erzeugte wahn immer nur das allerbeste zu wollen ist aber ein völlig anderes thema).

bündel und pakete sind jedenfalls notwendige formen, uns viele durchschnittliche einzeldinge als angenehm wahrnehmen zu lassen und uns zufrieden zu stellen. bricht man die bündel jedoch auf, liegen die dinge plötzlich isoliert vor uns und müssen also einzeln beurteilt, bewertet und empfunden werden. das hat natürlich gegenüber dem bündel einen riesigen vorteil – man kann sich die rosinen aus dem kuchen picken (wenn man rosinen mag, ansonsten kann man sich den kuchen aus den rosinen picken), es hat aber auch eine ganze reihe an nachteilen. die notwendigkeit plötzlich alles einzeln beurteilen, bewerten und empfinden zu müssen ist nicht nur aufwendig und belastend, die davor geniessbare durchschnittlichkeit verliert entbündelt sogar ganz grundsätzlich den zugang zu diesem naiven genuss und muss sich plötzlich die frage gefallen lassen, warum man nun gerade es und nicht etwas anderes lesen soll, usw.

die zwei paradigmatischen formate, die mit dem internet entbündelt und in die einzelnen bestandteile zerlegt wurden, sind natürlich zeitungen und LPs.

bei LPs sind die effekte jedem musikliebhaber bekannt: das snacken nur an den ‘besten’ songs eines albums ermöglicht zwar viel mehr streuung, discovery und durchschnittlich eine viel höhere einzelintensität der gehörten tracks, aber es geht auch der persönliche bezug verloren, den man etwa in den kleinen aha momenten entwickelt, wenn ein song, den man bis dato völlig ignoriert hat, plötzlich der lieblingssong eines albums wird usw. (natürlich funktioniert das nur bei alben, die wirklich als solche bestimmt sind und denen das auch gelungen ist, aber guten musikern gelingt das oft). das vermeiden der durchschnittlichkeit und die erhöhte intensität der einzelstücke macht gleichzeitig den hörer selbst unzufriedener, weil er fortan immer auf der suche nach etwas besserem sein muss. die sehnsucht nach dieser bindung an etwas vorgegebenes erkennt man ja am comeback von vinyl.

und bei zeitungen sind die effekte allen ausser den zeitungsmachern bekannt: ein davor wirklich großartiges papierbündel zerfällt zu einem losen haufen an artikeln, die fast alle durchschnittlich und nicht besser oder schlechter als die artikelhaufen aller anderen zeitungen sind und für den leser also eine einzige infoökonomische zumutung sind (für den übergang vom wertvollen bündel zum wertlosen haufen können die zeitungen nichts, ihre plötzliche wertlosigkeit war gwm. höhere gewalt; woran sie allerdings selbst schuld sind, ist, dass sie die situation und ihre position nicht verstehen, den kopf in den sand stecken und dort dann versuchen, ein liedchen zu pfeifen). die wirklich einmaligen artikel, die eine zeitung an einem tag erzeugt, die man also nicht gleichwertig überall sonst findet, dürften sich im einstelligen, bei wochenzeitungen vl. im zweistelligen bereich befinden und die muss man natürlich auch erstmal finden.

aber interessanter als die krise der texte der zeitungen ist der umstand, dass dieses verhältnis jede art an text betrifft und sich früher oder später also direkt in den text selbst einschreibt. es hat eine zeit lang gedauert, bis wir das bemerken können, weil sich natürlich auch die produktions- und rezeptionsbedingungen anpassen müssen, durch die verstärkung dank social media wird die logik jedoch langsam sichtbar:

damit durchschnittliche texte, die bisher ein perfekt feines dasein als füllstoff führen konnten, im haufen aller aufgelösten artikel aller einen funken wert behalten können, müssen sie jetzt auf irgendeine art auch isoliert und autonom funtionieren. und dafür gibts zwei primäre möglichkeiten: entweder sie stiften selbst ‘sinn’ für den leser, enthalten zumindest etwa eine nützliche information; oder sie erzeugen eine ‘erregung’, also das kompakte gefühl eines lols, oder wins, oder omgs, oder cutes, oder fails, oder wtfs.

und woran erkennt man, ob ein text ‘sinn’ oder ‘erregung’ erzeugt? genau, er wird geshared. wenn ein text im web von niemandem geshared wurde, wurde er dann überhaupt geschrieben? der verbliebene wert von durchschnittlichen texten im zustand der entbündeltheit zeigt sich also in der sharebarkeit.

das ding jetzt ist natürlich, dass sinn nicht nur viel schwerer zu produzieren ist, es erfordert auch viel mehr aufwand vom leser, ihn zu erkennen, und es ist auch viel riskanter ihn zu sharen. und dass erregungen andererseits nicht nur viel leichter erzeugt werden können als sinn, erregungen können auch viel schneller aufgeschnappt werden und erzeugen also auch viel eher anschlusskommunikation und selbstverstärkung in den sogenannten erregungswellen. ich habe oben die lols, wins, omgs, usw. als qualifizierer von erregungen nicht zufällig von buzzfeed zitiert – sie zeigen, wie präzise buzzfeed diese logik schon vor langem erkannt hat und deshalb nur noch genau diese art von texten produziert. buzzfeed ist eine maschine zur produktion und distribution der letzten durchschnittlichen texte, die noch verwertbar sind.

die zeitungen, zumindest die qualitätszeitungen, haben nun natürlich das problem, dass sie in ihrem selbstverständnis die produzenten vom sinn sind und die produzenten von erregungen gwm. verachten müssen und sie sich dadurch quasi auf diese eine position festlegen; gleichzeitig produzieren sie natürlich in realität deutlich mehr (unsharebaren und austauschbaren) fülltext als sonstwas, erzeugen also viel weniger leistung, als sie es in ihrer selbstwahrnehmung glauben; nur müssen sie auch ihren kollegen von buzzfeed dabei zuschauen, wie die ganz ungeniert eine wissenschaft der verpönten sharebaren erregungen entwickeln können und ihnen die PIs, die aufmerksamkeit und die werbegelder und fast den ganzen kuchen wegknabbern.

von dieser logik sind natürlich auch die blogs betroffen. auch die konnten in den ersten 10, 15 jahren gut mit durchschnittlichem fülltext leben, weil es mehrere kontexte gab, die den fülltext im ‘bündel’ rezipierbar machten. einerseits gab es (imaginierte) communities wie antville oder twoday, andererseits gab es feedreader wie den google reader oder netvibes, die die abos der feeds zu einer personalisierten superzeitung rekontextualisierten. im aufgelösten zustand haben blogs aber das gleiche problem wie die zeitungen: die durschnittlichen posts, wenn wir ehrlich sind also fast alles was wir produzieren, sind im haufen aller posts aller völlig wertlos. im grunde gibt’s dann nur 2 strategien: man produziert selbst shareables (socialismus), oder man erzeugt sich seinen eigenen kontext im eigenen gesamtwerk und tut so als wär das jetzt so (solipsismus). wem das eine zu blöd und das andere zu anstrengend ist, der hört dann halt auf zu bloggen und wechselt vielleicht zu einer plattform wie tumblr oder medium, wo man ein bisschen kontext von der plattform spendiert bekommt und gleichzeitig in die eine oder andere richtung ‘gelenkt’ wird (erregung bei tumblr, sinn bei medium).

(überhaupt ist es natürlich nicht so, dass der durchschnittliche text seine funktion für immer verloren hat. ich habe das nur nicht betont, weil ich sonst jeden punkt relativieren hätte müssen, und dann aber auch die relativerungen relativieren hätte müssen, weil sie auf tektonischer ebene trotzdem wieder egal wären, es hätte alles jedenfalls unnötig verkompliziert. aber die entbündelung hat nicht nur opfer, sondern erzeugt naturgemäß auch einen neuen möglichkeitsraum für tools, plattformen, communities (fast alle funktionierenden tun das letztendlich) etc. dafür, eigene, neue kontexte für text zu erzeugen, innerhalb derer dann auch die durchschnittlichen texte wieder einen platz bekommen können, ohne dass diese sich selbst beweisen müssen. wie fast immer kann man sich einfach anschauen, was funktionert.)

nur am rande beobachtet ist doch lustig, dass wir gerade mit der krise der durchschnittlichkeit den von den poststrukturalisten vor 50 jahren diagnostizierten verlust der autorschaft konkretisiert bekommen. nur, wie so oft, kommt es anders als damals gedacht: die neuen kleinformate transzendieren nicht nur den autor, sie schreiben sich wörtlich genommen tatsächlich selbst und brauchen die readaktionellen prozesse inklusive aller beteiligten menschen und software nur noch als organisatorische struktur. moderne redakteure tun ja im grunde nichts anderes als texten eine erste form zu geben und diese dann solange anzupassen, bis die roten lämpchen, die auf schlecht formulierte überschriften, hohe absprungraten nach dem ersten satz, falsche keywords, geringes sharementum, etc. hinweisen, nicht mehr rot blinken und der text also seine objektive form gefunden hat. paradoxerweise sind es deshalb ausgerechnet die roboterjournalisten, die den ethischen anspruch auf autorschaft am reinsten repräsentieren.

kl. nachtrag zu 598425890696073216 – zumindest eine erste iteration, die sich lustigerweise aus der überschneidung mit einem anderen tweet ergibt, den ich am gleichen tag aber in einem völlig anderen kontext (verizon schluckt aol) getwittert hatte:


um die zwei tweets zusammenzubringen, sollte ich zwei dinge erwähnen:

(1) einer der größten, wenn nicht der größte im allgemeinen ausgemachte feinde des offenes webs sind projekte wie facebook zero oder internet.org, also konstrukte, die ein kontrolliertes subset an webseiten oder apps kostenlos offerieren, um der nächsten milliarde menschen zugang zum internet zu ermöglichen. was sich als akt der nächstenliebe gibt, ist jedoch, so die verteidiger des offenen webs unisono, nichts anderes als die ausbeutung ökonomischer benachteiligung, die nur neue user einfangen und an sich binden und damit das eigene wachstum anheizen will, also digitaler imperialismus (und wem das nicht reicht nachtürlich auch eine freche verletzung der netzneutralität, aber um das geht es hier nicht). und ihr plan geht auch noch auf, viele der so angelockten glauben dann sogar, facebook sei das internet. statt im offenen web zu publizieren, verkaufen sich diese armen seelen an facebook und landen im vorraum zur hölle.

(2) compuserve war anno dazumal, also plus/minus vor 20 jahren, neben aol die einfachste möglichkeit, mit einem macintosh zugang zum internet und email zu bekommen. es gab auch schon einige websites und der netscape navigator war gerade neu und hip, aber ein grosser teil des nutzens war zunächst das angebot, das compuserve bereitstellte. über die uni hatte ich dann bald auch ein bisschen webspace und zugang zum usenet und unter der ägide von hotwired und webmonkey dann irgendwann auch ein rudimentäres verständnis von html und framesets, aber die möglichkeiten von compuserve hat meine erfahrung mit dem internet in den ersten jahren weitgehend dominiert. und auch wenn ich dann quasi das web ‘mitbegleitet’ habe, bis zu meinem eigentlichen knacks im kopf dauerte es dann weitere 10 jahre.

der punkt dieser zweiten, zugegebenerweise schon etwas verstaubten geschichte ist, dass die erste geschichte nicht notwendigerweise den dystopischen verlauf nehmen muss, von dem alle ausgehen. wer in einem geschlossenen garten aufwächst, muss nicht notwendigerweise den rest seines lebens darin verbringen. menschen können lernen und zusammenhänge verstehen. manchmal fehlt nur eine einzige information. wer heute zb. glaubt, dass facebook das internet ist, dem muss nur einer einmal zeigen, dass das nicht der fall ist, sondern dass facebook im besten fall ein nützlicher und in jedem fall ein grosser wal in einem riesigen ozean namens web ist, das man mit etwas entdeckergeist dann selbst erforschen kann (ob das dann angenommen wird und denjenigen interessiert ist eine andere frage). und wir brauchen gar nicht so betroffen tun, noch vor 10 jahren haben hierzulande die meisten geglaubt, dass das internet dieses blaue ‘e’ am desktop ist.

ich will mit dieser anmerkung nicht die grundsätzliche korrektheit der kritik an facebook (und co) kritisieren und ich will die machenschaften von facebook (und co) weder relativieren noch legitimieren. was sie abziehen ist unterm strich eine riesige sauerei, vor allem deshalb, weil sie es auch ganz einfach auch anders andenken und umsetzen hätten können.

der fehler liegt nicht in der vorgetragenen kritik, sondern in der analyse und der bewertung, was das bedeutet. und eine hysterische bewertung (es ist ganz eindeutig das endgame, wenn wir jetzt verlieren, dann ist das offene web verloren, usw.) führt zu einer hysterischen überreaktion, die dann, wenn wir pech haben, mehr schaden anrichtet als der feind, wegen dem man überhaupt erst losgelegt hat.

(interessanterweise teilen die protagonisten eines offenen webs, hier fortan stellvertretend mozilla, und die ideologisch mehr oder weniger aus der gegenteiligen ecke kommenden verlage diesen schaum vor dem mund, wenn sie es mit google oder facebook oder apple zu tun bekommen; aber lassen wir hier die verlage einmal beiseite)

der allgemeine fehler von mozilla ist, vom offenen web kein ‘sinnverständnis’ zu haben, sondern den sinn in der vorhandenheit selbst zu sehen, was bedeutet, dass sie den erzeugten wert also nur am marktanteil messen können. alles, was von facebook (und co) aufgesaugt wird, ist ein verlust und die masse des von facebook aufgesaugten ist eine katastrophe. als reaktion bleibt ihnen also nur der ‘kampf’ um marktanteile und als grund für die beliebtheit von facebook (und co) ist ihnen leider nur eingefallen, dass der offene stack technisch unterlegen ist, was nur bedeuten kann, dass sämtliche apis der geschlossenen plattformen nachgebaut werden müssen, siehe den kleinen überblick ihrer aktuellen interventionen.

(man erkennt auch die wiederholung eines musters: als das soziale web der katalysator für das wachstum war, wurde im ‘social graph’ von facebook der zaubertrank gesehen, und die damalige erwartung war, dass man den nur offen nachbrauen muss, dann wird alles gut. wir erinnern uns an projekte wie open social, friend connect, portable contacts, chi.mp, diaspora, usw.)

der spezifische fehler in hinblick auf die ‘emerging markets’ neuer user, die gleich mit dem smartphone einsteigen, ist, dass die entwicklung als lineare, technik-getriebene evolution vom statischen über das soziale hin zum mobilen web gesehen wird, und den menschen innerhalb dieser entwicklung keine subjektivität oder möglichkeit zum widerstand oder zur reinterpretation zuzutrauen. wir sehen es ja bei uns, da kleben die jungen ja nur noch an ihren handys und chatten oder posten selfies statt zu bloggen oder die wikipedia zu verbessern. was wir bei uns erleben ist aber weniger eine evolution, sondern eine angleichung an das ‘natürliche’ kommunikative gleichgewicht unter den bedingungen vom mobilen internet, das halt erst jetzt möglich geworden ist, aber immer schon so veranlagt war. die phasen waren also, wenn man so will, in ihrem historischen ablauf notwendig, weil wir uns immer kollektiv an das gerade technisch machbare angepasst haben, aber einmal vorhanden verhalten sie sich, als wären sie immer schon da gewesen.

aber die technische ebene ist ja nicht die einzige. auch interessant ist mitunter, wie sich die technik / das web auf gesellschaftlicher ebene auswirkt – und da macht das narrativ der evolution einen u-turn. da sind dann plötzlich die apps des mobilen webs die primitive form, die halt (natürlich massenweise) private kommunikationsereignisse ermöglichen, die aber weder für die öffentlichkeit bestimmt noch für die gesellschaft nützlich wären. erst mit dem offenen und sozialen web bekommen wir einen viel interessanteren hebel, um gesellschaftliche probleme zu behandeln und gemeinsame lösungen auf sozialer sinnebene zu finden.

und hier muss man der kommenden ‘mobilen milliarde’ einfach zutrauen, dass sie ihre eigene entwicklungsgeschichte durchmachen und dabei vl. auf einem viel höheren niveau landen, als wir es bis dato geschafft haben, oder aber auch nicht. sie beginnen zwanzig jahre später und das dauert sicher ein bisschen zeit, aber der umstand, dass sie bei unserem ‘ende’ beginnen bedeutet eben nicht, dass sie dort bis in alle ewigkeit braten müssen.

(man erkennt übrigens die wiederholung eines weiteren musters: als etwa das ipad vorgestellt wurde, haben es die vertreter des offenen webs als zynische und infantilisierende konsumationsmaschine wahrgenommen und die kollektive volksverblödung befürchtet, siehe das offene web und seine feinde. gekommen ist es natürlich anders, nur das mangelnde vertrauen in die systemkraft der eigenen offenheit und die kreativkraft der menschen ist ihnen leider geblieben)

endlich wieder einmal ein Quiz: Was kann man von Pulp Fiction über die Apple Watch lernen?

ich bin euch ja noch die auflösung von quiz pt. 96 schuldig und die verbirgt sich in der frage, wie der film wohl geworden wäre, wenn der vater von butch coolidge statt seiner goldenen uhr eine apple watch edition getragen hätte, aber first things first:

nach der vorstellung der watch im september konnte man ja sehen, dass sie als ding die von apple erwartbare tollheit haben wird. smartwatches sind natürlich keine ganz neue kategorie, man denke an die pebble oder einiges im umfeld von android wear und michael knight hat schon in den 80ern eine gehabt. aber apple hat damit wohl den ersten sich als uhr verkleidenden minicomputer gebaut, an dem sich fortan alles andere messen lassen muss.

(smartwatches selbst haben imo mit ‘innovation’ ohnehin wenig zu tun, sie sind die offensichtliche extrapolation in einer serie an kleiner werdenden touchscreens als user interface für universelle mobile computation. sprich: auf die idee kommt jeder, die leistung besteht in der ‘exekution’, also dem design und der entwicklung/produktion und vor allem auch dem zusammenspiel von soft- und hardware und dem bereitstellen eines ökosystems für andere, und da ist apple natürlich in der einzigartigen situation den ganzen stack in der eigenen hand zu haben)

neben dieser dinghaften schlüssigkeit scheint mir aber auch der preis zu stimmen. mit $350 liegt sie in diesem mental als taschengeld abschreibbaren bereich von übers jahr betrachtet weniger als einem euro pro tag.

der preis ist deshalb bei der watch so wichtig (und wir kommen weiter unten nochmal darauf), weil apple selbst auch 6 monate nach der ersten vorstellung der watch noch überhaupt kein gespür dafür hat, für was sie wirklich gut sein wird.

ich frage mich wirklich, was apple im letzten halben jahr gemacht hat. fast alle von ihnen gezeigten beispiele sind noch immer im grunde nur störungen des menschen bei anwendungsfällen, die vom iphone – das man ohnehin eingesteckt haben muss, damit die uhr überhaupt funktioniert – wesentlich besser gelöst werden. sie betonen zwar die eigenschaft ‘most personal device’ als mantra immer und immer wieder, aber sie interpretieren sie zumindest derzeit nur als irritant.

zu apples glück tut das der attraktivität der watch deshalb keinen abbruch, weil es wegen dem preis eben rational ausreicht, wenn jeder für sich den einen usecase entdeckt, der einen einmal am tag kurz happy macht. für die watch also jedenfalls ein thumbs up.

aber all das konnte man sich auch schon nach der vorstellung im september denken, die einzige katze, die sie jetzt im jüngsten kick-off event aus dem sack gelassen haben, war das pricing für die watch edition. und die hat dann für etwas kognitive dissonanz gesorgt:


die diskussion war nicht unwitzig, weil sie eigentlich nur darin bestand, dass apple analysten/cheerleader dem säkularen rest unterstellt haben, dass sie über den preis sicherlich jammern werden, dass sie dabei aber überhaupt nicht verstehen, wie genial der schachzug von apple ist und was apple damit will und tut und kann und welche märkte apple damit erschliesst, think vogue not chip, usw.

Und jetzt kommt Ihr ins Spiel, die Ihr hämische, amüsierte oder neiderfüllte Scherze macht über die superteure, goldene Apple-Uhr, die nur Deppen kaufen. Wie jeder einzelne davon Apple glücklich macht!

sascha lobo etwa bleibt noch vergleichsweise pragmatisch und unterstreicht nur – iirc asymco folgend – die verkaufspsychologische these, dass teure dinge im direkten vergleich weniger teure dinge billiger erscheinen lassen, und dass sich deshalb die immer noch viel zu teuren watches neben den editions billig wie semmeln anfühlen und entsprechend verkaufen werden.

Wer sich eine 10k+-Uhr leisten kann, sieht den kommenden Wertverlust der Technik als Teil des Statussymbols.

marcel weiss andererseits verabschiedet sich gleich von jeglicher rationalität und sieht im zu erwartenden wertverlust selbst den eigentlichen sinn. auch er folgt iirc einer anderen einschätzung von asymco, dass sich nämlich die neureichen asiaten nur so darauf stürzen werden.

was die zwei und alle anderen positionen dazwischen, die den luxus-charakter der editions betonen und damit den preis erklären, aber nicht verstehen ist, dass es nicht der preis ist, der das zu erklärende ist.

dass es luxusgüter gibt, die hochwertig und mit edelsten materialien in handarbeit in abgeschotteten bergdörfern gefertigt werden, um dann unverschämt teuerer verkauft werden zu können, leuchtet jedem ein, auch denen die sich das dann nicht leisten können oder wollen.

das zu erklärende ist, wie es überhaupt dazu kommen konnte, dass apple eine solche nur außenrum luxuriöse uhr konzipiert und baut, wenn ganz offensichtlich ist, dass das technische herz ein stück technologie für $50 ist, das in eher 3 als 5 jahren völlig veraltet sein wird und dass man dann also auf einer uhr für $10.000 sitzt, die technisch und funktionell jeder nächsten generation an normalwatches für 350$ deutlich unterlegen sein wird.

und auch wenn man über die software selbst viel abstrahieren kann, dinge wie verbesserte akkulaufzeit oder chips für den aktuellsten übertragungsstandard oder unabhängigkeit von einem mitzuschleppenden mutterschiff iphone definieren doch mitunter radikale unterschiede in der nützlichkeit.

(ich könnte die editions ja noch irgendwie verstehen, wenn apple für sie eine eingeweidetechnische upgradeability offerieren und garantieren würde; alle zwei jahre bekommt man, wenn man will, für eine pauschale service-gebühr den aktuellsten und besten chip eingebaut, was kommt ist sicher nicht grösser und hätte bei standardisierter schnittstelle also locker platz. aber as is entsprechen die uhren spätestens in ein paar jahren bestenfalls vergoldeten minis, die aber von selbstfahrenden smarts in allen kategorien übertroffen werden)

um zb auf das argument von lobo zurückzukommen: der fehler in seiner analogie ist, dass es sich bei den watches nicht um rolexes handelt, die sich als swatches verkleiden, sondern dass es sich bei den editions um swatches handelt, die sich als rolex verkleiden.

was und finally, sorry, zu meiner antwort auf das quiz bringt: hätte butch’s vater im vietnamkrieg statt der goldenen uhr seines grossvaters eine apple watch edition getragen, er hätte sie wohl nicht in der gefangenschaft 5 jahre lang in seinem hintern versteckt, und spätestens captain koons hätte sie nicht weitere zwei jahre in seinem hintern versteckt und butch hätte sie also nie bekommen. er hätte sie dann also auch nie in seinem apartment vergessen und hätte also nie vincent dann dort beim holen der uhr erschossen und wäre also dann nie auf der flucht marsellus begegnet, was ja erst die seminale szene mit dem schwert getriggert hat, die butch dann ja im grunde gerettet hat, weil er seine schuld begleichen konnte usw.

und ich will jetzt nicht apple unterstellen, dass ihre watch am vermutlichen tod von butch in der alternativwelt schuld gewesen wäre. man kann aber lernen, dass wertschätzung immer auch ein element der narration benötigt. und die narration von luxus operiert natürlich auf einer trivialeren ebene als familiengeschichte, aber auch luxus ist keine reine funktion von preis oder exklusivität, sondern benötigt für die symbolische schliessung zumindest eine imaginierbare qualität als anker in der realität, und die ist, wie wir gesehen haben, bei der edition halt nicht gegeben.

(blogpost über DAS fundamentale dilemma im derzeitigen web: den umstand, dass wir nicht besonders gut dabei sind, die schnittstellen zu erkennen und benennen, die zwischen dem was wir tun/tun wollen und dem angebot/mittel stehen, das wir dafür verwenden, und – vor allem emotional – zu verstehen, dass eigenschaften des angebots/mittels nichts mit den eigenschaften des ergebnisses zu tun haben)

((ein plakatives beispiel: wer will, kann seine allgemeine theorie und praxis zur revolution mit einem proprietären editor auf dem geschlossensten aller systeme schreiben, der text würde dadurch nicht schlechter.

gleichzeitig können die geheimdienste aller länder ihre überwachungsprogramme vollständig auf einem open stack an hard- und software betreiben, das gesellschaftliche vertrauen würde deshalb nicht weniger aufgelöst.

dem text ist es egal, wo und womit er geschrieben wurde.1 dem web ist es egal, mit welchem gerät es betrachtet oder benutzt wird.2 der funktionalen ausdifferenzierung ist es egal, was in der schwarzen schachtel hinter dem interface steckt.

bei text leuchtet glaub ich unmittelbar ein, dass man die schreibumgebung als black box verstehen kann, deren innereien auf das geschriebene keinen einfluss haben.

das gleiche prinzip gilt aber auch für sozialen plattformen oder für das ökosystem an mobilen apps, den üblicherweise ausgemachten feinden des offenen webs, und da wird die assoziation fast reflexartig hergestellt. winer glaubt noch immer, dass an facebook doch wirklich nix so kompliziertes dran sein kann, was man nicht schnell mit open source komponenten emulieren könnte. im cluetrain manifesto wird ganz selbstverständlich davon ausgegangen, dass die benutzung des webs selbst schon ein ethischer akt ist, während die benutzung von apps den wert in sich aufsaugt. usw. fast immer geht es dabei um kontrolle, aber um kontrolle über dinge, bei denen man mit der kontrolle nichts funktionales gewinnt.

das problem der oft falscherweise hergestellten assoziation der eigenschaften vom mittel hinter der schnittstelle mit den eigenschaften des produktes ist, dass im anschluss das falsche problem gelöst werden soll, was der lösung der eigentlichen probleme – es sind dann üblicherweise immer zwei: ein technopolitisches und ein produktqualitatives3 – dann doppelt im weg steht, vor allem aber auch die gesamte ‘schlagkraft’ der grundsätzlich vorhandenen energien für gesellschaftlich sinnvolle offene systeme reduziert, weil nicht nur energien in projekte gesteckt werden, die nix bringen, sondern im verlauf auch alle beteiligten frustriert))

(((bonuspunkte also wie immer für konkrete fallstudien und sternchen für eine umfassende typologie)))

1 was natürlich nicht heisst, dass man nicht auf gewisse technische details achten muss. im falle text etwa, dass man ihn in einem format speichert, der von den verschiedensten editoren auf den verschiedensten plattformen gelesen und geschrieben werden kann. oder dass man bei plattformen darauf achtet, dass man seine posts jederzeit sauber exportieren kann, siehe die pownce lektion.

2 was wiederum nicht heisst, dass es nicht unterschiede in der usability gibt und vor allem natürlich die bildschirmgrösse auch einschränkungen setzen kann.

3 technopolitisch meint etwa, dass es gesellschaftlich nicht wünschenswert ist, wenn es zum dominanten anbieter keine alternative gibt, oder wenn es für bestimmte anwendungsbereiche keine offene software gibt, weil man sich bei gewissen dingen nicht auf den goodwill eines herstellers verlassen will.

stellen wir uns einmal eine welt vor, in der es zur elektronischen publikation/kommunikation nur ein medium gibt: jeder der will kann schreiben was und wie er will. nennen wir es blogs.

alle, die etwas publizieren wollen, benutzen blogs für ihr gesamtes ausdrucksbedürfnis, was sollten sie auch sonst tun. es wird sich ein bestimmter infoökonomischer raum an bloggern und lesern ausbilden und sich auf einem gewissen aktivitätsniveau mit einer gewissen verteilung von ‘jobs’ einpendeln.

stellen wir uns vor, dass dann ein zweites medium hinzukommt, das zwei unterscheidungen einführt: einerseits wird die länge der texte auf 140 zeichen begrenzt, andererseits werden die teilnehmer sozialisiert/vernetzt. nennen wir es twitter.

was wird passieren?

  • leute werden neue kommunikative ‘jobs’ entdecken, die mit dem neuen, kleinen medium plötzlich sinnvoll werden (nicht, weil sie davor grundsätzlich unmöglich waren, aber weil sie davor ‘infoökonomisch’ gwm. zu teuer waren).
  • es wird eine umverteilung/migration der beteiligten geben: leute werden beginnen, twitter statt blogs für die neuen dinge zu verwenden, und für die dinge, für die twitter besser geeignet ist.
  • einige leute werden erstmals an der kommunikation teilnehmen, weil sie erstmals für sich sinnvolle jobs entdecken oder weil es für sie erstmals einfach genug ist oder schnell genug geht.
  • einige andere werden fortan blogs und twitter verwenden, einige weiterhin nur blogs, einige nur oder nur noch twitter.
  • die anzahl der teilnehmer wird insgesamt zunehmen.
  • die anzahl der kommunikationsereignisse wird in diesem fall wohl dramatisch zunehmen, einfach weil es von einfacherem und kleinerem üblicherweise mehr gibt (allerdings könnte das auch anders sein; hätten wir unsere welt mit twitter begonnen, würde sie wohl ebenso dramatisch abnehmen).
  • der marktanteil wird sich verschieben. (die bewertung davon ist jedoch eine schwierige sache, weil der marktanteil an den gesamten kommunikationsereignissen tatsächlich nichts über die nachhaltigkeit oder gesellschaftliche relevanz von medien aussagt.)

als ergebnis entsteht irgendwann jedenfalls ein neues infoökonomisches milieu mit zwei ebenen der ausdifferenzierung: einerseits differenzieren sich die medien ‘gegeneinander’ aus; andererseits differenzieren sich innerhalb der einzelnen medien die kommunikationsereignisse der jeweiligen jobs aus. sowohl die medien selbst als auch die qualität und quantität der kommunikationsereignisse innerhalb der jeweiligen medien pendeln sich auf einem gewissen neuen aktivitätsniveau ein.

these:

mit jedem weiteren medium entstehen – immer der gleichen logik folgend – jeweils immer wieder neue milieus, die sich jeweils immer wieder einerseits bezüglich der medien untereinander und andererseits in jedem medium in sich selbst bezüglich der jobs und ereignisse ausdifferenzieren.

(neue medien entstehen üblicherweise durch einführung von neuen unterscheidungen; neben der unterscheidung lang und asozial (blogs)/kurz und sozial (twitter) wie in unserer welt, gibt es viele andere wie öffentlich/privat, stationär/mobil, billig/teuer, E/U, autonom und selbstbetrieben/abhängig und in der cloud, permanent/peripher, frei flottierend/vernetzt, vom gemeinen volk/von spezialisten, und viele mehr. jede unterscheidung verdoppelt gwm. die anzahl der möglichen medien, wobei es aber auch clusterbildungen und nicht genutzte kombinationen gibt).

was kann man nun schon aus diesem allereinfachsten modell lernen?

  • ein neues medium kann die anzahl der systemweiten ‘kommunikationsereignisse’ erhöhen (etwa weil es schneller oder kleiner oder billiger oder omnipräsent ist) oder aber auch reduzieren (etwa weil es dinge zusammenfasst oder überflüssig macht). in beiden fällen funktioniert die gesamtkommunikation danach idealerweise besser. die anzahl der kommunikationsereignisse selbst ist also eine völlig sinnlose metrik.
  • man kann und sollte mehrere medien gleichzeitig verwenden, idealerweise jeweils für den damit angemessenen job. das alte oder andere medium muss nicht sterben, damit das neue sinnvoll oder wertvoll wird. (das klingt offensichtlich aber viele fühlen sich leider nur wohl, wenn sie irgendwas ausstopfen und an die wand hängen können.)
  • es ist ganz grundsätzlich nicht schlecht oder beklagenswert, wenn ein altes medium ‘marktanteile’ an ein neues medium verliert. das ergebnis der anpassung ist ein kommunikatives gleichgewicht auf höherem niveau. es gibt ganz grundsätzlich nichts zu urteilen, sondern nur was zu beobachten. (don’t ask yourself if this is a good thing or a bad thing. ask yourself what’s going on)
  • der ‘marktanteil’ der verschiedenen medien ist auch nicht sinnvollerweise vergleichbar, weil sie völlig unterschiedliche funktionen mit unterschiedlicher wertigkeit entlang der achsen persönlich, sozial und system (siehe) erfüllen können. (ein beliebiger blogeintrag erzeugt eine woche später mehr diskursive anschlussfähigkeit als alle 50 milliarden whatsapp messages eines tages zusammen.)
  • es bringt nichts, die alten marktanteile im neuen milieu retten zu wollen oder künstlich zu pimpen. (das zu verstehen ist wirklich wichtig, wenn man ein betreiber vom alten medium ist, vor allem, wenn man die produktion – etwa von zeitungen – irgendwie ‘finanzieren’ muss. den eigenen realistischen anteil falsch einzuschätzen kann mitunter auch ein fataler fehler sein, weil der threshold zur erhaltung von aufgeblähten apparaten ja nicht kontinuierlich ist, sondern erst ab einem kritischen punkt einen dann aber plötzlichen sog nach unten erzeugt, der oft aber vermeidbar wäre. wir sehen das leider derzeit bei fast allen altmedien wie print aber auch etwa bei twitter inc.) viel wichtiger als der relative marktanteil sind die absoluten ereignisse.
  • die effekte und möglichkeiten des jeweiligen mediums sind keine ‘leistung’ des mediums oder der macher, sondern effekte, die durch die benutzung entstehen.
  • es gibt strukturell keine zeitlichkeit oder vorrecht des einen mediums über das andere; ist das neue medium einmal da, koexistiert es mit allen anderen medien gleichwertig. (der kleine vorteile vom historisch älteren medium ist, dass die leute erst wechseln/ihr verhalten adaptieren müssen. das endgültige gleichgewicht für eine bestimmte konstellation ist aber zeitlos.) zwar wird es im konkreten historischen verlauf gewisse wellen geben (überschätzung am anfang, hysterie bei beobachteter abnahme, etc.), früher oder später passt sich die kommunikation jedoch an, weil das kämpfen gegen die ineffizienzen zu teuer wird.
  • interessanterweise ist die möglichkeit der entstehung mancher medien selbst ‘historisch’. bestimmte medien sind nur sinnvoll, wenn sie sich etwa asymmetrisch gegen andere medien positionieren können. (sind sie aber erst einmal da, können sie gwm. nicht mehr ungeschehen gemacht werden.)
  • medien können durchaus auch obsolet werden und verschwinden. (allerdings sollten sie überleben können, solange es zumindest einen halbwegs populären ‘job’ gibt, für den sie das medium sind, das dafür am besten geeignet ist.)
  • gelegentlich können die verschiebungen und migrationen ob eines neuen mediums auch sehr schnell gehen und/oder sehr grosse auswirkungen haben.
  • es ist wirklich wichtig, nicht den fehler zu machen, die übergangsphase von einem zustand in den neuen als etwas anderes als eine anpassung ans neue gleichgewicht zu interpretieren. (das ist natürlich der fehler, den alle machen, die sich zahlen von twitter, facebook und whatsapp anschauen und dann aleatorisch extrapolieren um dann wasauchimmer und jedenfalls den tod von irgendwas zu prognostizieren.)
  • auch wenn medien wegen anderen medien üblicherweise ‘marktanteile’ verlieren, so wird doch gleichzeitig auch ihr eigenes profil geschärft. sie werden also besser, weil sie zunehmend für die jobs herangezogen werden, für die sie wirklich geeignet sind.

nur zur sicherheit: das modell ist natürlich nicht realistisch; es basiert auf der sicher nicht erwartbaren annahme, dass alle teilnehmer über alle medien vollständig informiert sind und sich egoistisch rational verhalten; es nimmt auch einen frei fliessenden informationsmarkt an, während die reale situation in vielen fällen ein spieltheoretisches problem egoistischer anbieter ist. auch als medientheorie ist es supernaiv. aber für die entwicklung eines gefühls für die grösse des eigenen ballparks ist es tatsächlich nützlich, zumal sich die menschen in summe üblicherweise erstaunlich rational verhalten, oft viel rationaler, als es zb die macher der einzelnen angebote selbst können. (twitter zb macht entgegen vieler unkenrufe ja noch immer vieles richtig, ihre ganzen probleme haben sie sich eigentlich durch eine deutliche selbstüberschätzung eingehandelt und je länger sie das nicht verstehen, desto fragiler wird der ganze datentyp tweet, weil sie ihn mehr und mehr micromanagen und immer mehr einschränken, aber das ist eine andere geschichte.)

(die gleiche logik kann man grundsätzlich natürlich auch in anderen feldern wie handel oder gadgets vermuten, zumindest als asymptotischer horizont. oft hilft wirklich schon, wenn man sich die lage für die zwei achsen offline/online und statisch/mobil durchdenkt.)

kl. nachtrag zum besserwisser pt. 1 revisited : ich wollte eigentlich zur apple watch nichts mehr sagen, bevor ich sie nicht zumindest einmal an der hand gehabt habe und zumindest die rudimentärsten offenen fragen (wie lang hält der akku wirklich, was geht für entwickler mit diesem watchkit, bis zu welchem grad kann man sie ohne iphone in unmittelbarer nähe verwenden, wieviel kosten die editions, inwieweit lassen sich die innereien updaten, etc.) ansatzweise beantwortet sind, und ich wollte die besserwisserserie eigentlich auch besser früher als später unter den teppich kehren, aber mit zwei kleinen änderungen des bezüglich ellos im speziellen aber sozialer webapps im allgemeinen vorgeschlagenen modells lassen sich auch die meisten einschätzungen zur watch etwas relativieren, wenn ich also schon dabei bin hier also auch noch usw…

zur erinnerung: die unterscheidung in maschine auf der einen seite und historisch soziale kontingenz auf der anderen seite im zusammenspiel mit dem begriff des asymmetrischen wettbewerbs hilft uns zwar nicht beim vorhersagen der auswirkungen von sozialen webapps, aber so trivial sie ist lassen sich damit die meisten getätigten prognosen ‘dekonstruieren’.

änderung 1: auf der anderen seite der ‘maschine’ apple watch steht nicht länger eine gesellschaftliche kontingenz, kein ergebnis eines historischen und sozialen ausdifferenzierungsprozesses usw., sondern ein jeweils einzelnes subjekt mit jeweils konkreten bedürfnissen und begierden. es gibt also nicht eine maschine für alle, sondern die (im rahmen der editions und variierbarkeit mehr oder weniger) gleichartige maschine für jeden einzelnen.

änderung 2: asymmetric competition bleibt zwar auch hier ein nützliches konzept, hier noch nützlicher aber ist: job to be done

und auch das verwende ich frei nach asymco der es frei nach christensen verwendet und das ist die ganz einfache frage: für welchen job heuere ich ein ding an? es geht dabei nicht darum, dass das jeweilige individuum die frage dann auch adäquat beantworten kann (oft wissen wir es selbst nicht, oft ist es was gänzlich anderes als vermutet), sondern um die annahme, dass wir das immer für einen konkreten job in unserem leben tun. diese jobs können übrigens durchaus andere sein, als es die macher der maschine gedacht oder geplant haben.

der fehler, den fast alle machen, die ihre einschätzungen zur apple watch publizieren, ist für die watch den EINEN RICHTIGEN job to be done zu suchen, diesen dann üblicherweise als zu erledigenden job FÜR ALLE selbst festzulegen und dann ihre gesamte kritik auf diese ihre eigene festlegung zu beziehen. aber hier kommt der unterschied zwischen der anderen seite der maschine zum tragen: anders als bei sozialen webapps, wo es (innerhalb vieler freiräume) doch auch stark darauf ankommt, ein spezifisches soziales objekt gemeinsam auszuhandeln, die dichte also mit dem grad der gemeinsamkeit zunimmt, liegt der wert von gadgets im potential für einen einzelnen einen oder auch mehrere jobs zu erledigen, der wert des gadgets also mit der vielzahl an möglichkeiten zunimmt.

im fall soziale webapps ist die geschichte kontingent, im fall gadgets der nutzen. die watch muss also keinen von irgendeiner instanz festgelegten universellen überjob realisieren, sie muss nur für jedes konkrete individuum NUR EINEN EINZIGEN aller möglichen jobs realisieren, um dem leben mehr freude oder sinn zu geben. und mit kosten von 50c pro tag liegt die hürde dafür, die watch auch ökonomisch attraktiv zu machen, wirklich nicht besonders hoch.

wenden wir diese abgewandelte unterscheidung und das neue konzept nur exemplarisch an einem der grössten cluster eines vorfestgelegten überjobs an (wer lust hat kann das leicht auf andere cluster wie ‘mode’, auch hier ‘offenheit’, etc. übertragen):

die naiven evolutionisten

die naiven evolutionisten zeichnen sich dadurch aus, dass sie die watch als technoevolutionäre weiterentwicklung vom iphone sehen und die uhr als neue zentrale (kleinere, permanentere, bessere) kommandozentrale für das vernetzte selbst konzipieren, die das handy ablösen wird. und weil die watch das in der vorgestellten version nicht in der geforderten autonomie und vollständig tut und das iphone noch nicht komplett ersetzt, wird sie gleich bis auf weiteres als im grunde völlig sinnlos verworfen.

ich sympathisiere grundsätzlich mit jedem ansatz, der sich explorativ oder als gedankenspiel mit möglicherweise kommenden technologien auseinandersetzt, und es steht natürlich jedem völlig frei was auch immer als k.o.-kriterium für sich selbst zu definieren – aber wie man nicht sehen kann, dass die watch nicht alles bisherige vollständig ersetzen muss und wie sie auch im zusammenspiel mit dem ohnehin gegebenem setup hunderte andere und mitunter auch gänzlich neue jobs tun kann, geht wirklich über meine vorstellungskraft.

(nur am rande: ich glaube überhaupt, dass erst durch den dialektischen gang durch die watch einige qualitäten und eigenschaften von stinknormalen smartphones sichtbar werden, die wir derzeit gar nicht als solche registrieren oder schätzen; ein screen in der grösse zwischen 4 und 5 inch dürfte doch der sweet spot zwischen nützlichkeit zur darstellung von information und den kosten für portabilität sein; alles was kleiner ist hat (auch wenn es optimierte apps oder alternative interfaces wie voice gäbe) zunehmende kosten bei der informativen universalität, alles was grösser ist kann nicht länger gedankenlos eingesteckt werden. und wir können damit telefonieren; auch wenn wir das üblicherweise nicht mehr tun, viele wollen zumindest die theoretische möglichkeit dazu und nicht jeder will dick tracy sein. aber davon abgesehen hat ein phone etwa auch den vorteil nicht am körper befestigt zu sein, sondern als ding autonom zu sein, und das ist vl. wichtiger als wir es derzeit vermuten. aber das ist ein anderes thema.)

hmm, das mit dem besserwisser hat ja nicht gerade zu viel falsifikation von aussen geführt (nts: der titel war wohl doch ein bisschen suboptimal gewählt), hier zumindest als nachtrag zwei beispiele von mir selbst…

vorab eine vielleicht nützliche unterscheidung für die ‘bewertung’ von webapps (und im konkreten fall ello) und zwar die unterscheidung in die ‘maschine’ und das was die menschen damit machen also die ‘historisch soziale kontingenz der benutzung’.

unter maschine verstehe ich dabei die der anwendung zugrundeliegende analoge und digitale materialität, also den gesamten stack an hardware und software und den konkreten code der anwendung selbst. während das an sich jeweils unendlich komplex sein mag, diese komplexität braucht den benutzer nicht zu interessieren; was ihn betrifft stellt sich die maschine auf eine ganz konkrete art zur verfügung und den möglichkeitsraum könnte er ganz konkret beobachten. es gibt kein geheimnis, man muss es sich nur anschauen.

und unter der historisch sozialen kontingenz der benutzung verstehe ich die gesamtheit der konkret stattgefundenen und stattfindenden aktivitäten der benutzer, die von der maschine gebrauch machen und dinge tun inklusive der gesamtheit aller dabei angefallenen daten und spuren – das darauf stattgefundene und stattfindende leben, wenn man so will. auch diese prozesse können unendlich komplex sein, aber auch diese komplexitäten brauchen den benutzer nicht zu interessieren; was ihn betrifft stellen sich alle anderen auf eine jeweils ganz konkrete art und dadurch erzeugten möglichkeiten zur anschlusskommunikation zur verfügung und auch das könnte er wieder ganz konkret beobachten.

im zusammenspiel zwischen maschine und der historisch sozialen kontingenz ist es wichtig im hinterkopf zu behalten, dass jede historisch soziale kontingenz zwar eine maschine benötigt, die maschine selbst aber nie ein hinreichender grund für das auf ihr stattfindende ist. ab einem gewissen punkt der gegenseitigen ‘interpenetration’ kommt es idealerweise natürlich zu einer funktionierenden koevolution, aber auch dann bleibt der zusammenhang kontingent und kleinste justierungen an der maschine können ungewollt riesige konsequenzen haben und größte änderungen können wirkungslos bleiben.

und mehr vorab ein nützliches konzept: asymmetric competition

ich verwende es frei nach asymco der es frei nach christensen verwendet und ich verstehe darunter eigentlich nur die zwei ich glaube selbstevidenten aussagen, dass einerseits vorteile der einen mitunter auch vorteile für andere erzeugen können und dass andererseits einfach nicht alle das gleiche spiel spielen, aber alle oft so tun als ob. zum beispiel: sind plattformen einmal dominant, dann stellt es einen wert an sich dar, nicht ebendiese plattform zu sein. wer alles mit google macht, für den ist vl. sogar schon yahoo für die mails interessant, weil dann zumindest die mails und damit der zugang zu allen anderen accounts nicht bei google liegen. wer sein leben auf facebook verbringt, für den ist alles was nicht facebook ist eine möglichkeit für einen frischen wind, für andere kontakte, für eine andere darstellung von sich selbst, usw. nicht-das-eine-sein ist ein riesiger vorteil, den das eine selbst nie haben wird und der umso grösser wird, je dominanter das eine wird.

— (1)

[…] Paul Budnitz […] hat nach den Machern von Diaspora als einer der Ersten die Eier gehabt, einfach mal zu versuchen, einen Facebook-Konkurrenten zu basteln.

spreeblick

denkt man die zwei dinge zusammen, dann erledigen sich schon einige unfruchtbare vergleiche oder annahmen, die über ello gemacht wurden.

ello muss dann nämlich nicht mehr in einer direkten konkurrenzbeziehung zu facebook oder twitter konzipiert werden, sondern kann als asymmetrische und durchaus auch koexistierende alternative verstanden werden, deren wert gerade nicht darin besteht ein anderes facebook oder twitter zu sein um dort mit den gleichen das gleiche halt woanders zu tun, sondern darin, einen anderen raum aufzuspannen, den man auf facebook oder twitter nicht mehr aufspannen kann. und während das wiederum viele neue netzwerke tun hatte ello dabei auch das notwendige quäntchen glück vom richtigen timing, weil facebook gerade eine gruppe von dragqueens und viele andere mit einer verschärften durchsetzung vom juristischen namen quasi vertrieben hat, die dann ello als neues zuhause adoptiert haben, was als story natürlich gut war und ello also in die presse brachte.

gleichzeitig ist jede frage, ob es sich bei irgendwas um das – meistens bzgl. der grösse gefragte – nächste facebook oder twitter handelt, schon auf ganz grundsätzlicher ebene blödsinnig. nicht weil es grundsätzlich nicht möglich ist (statistisch wird halt jede 10.000 anwendung oder 2 bis 3 pro jahrgang gross und wenn man es bei jeder anwendung fragt hat man also auch mal recht), sondern weil die historisch sozialen kontingenzen einfach nicht vorhersehbar sind und milliarden von einzelentscheidungen zusammenkommen müssen und gleichzeitig keine destruktiven ereignisse eintreten dürfen.

(wie seltsam johnnys zitat auch ansonsten ist wird glaub ich klar, wenn man es neun jahre vordatiert als: “ehssan dariani hat mit seinem studivz als einer der ersten die eier, einfach mal zu versuchen, einen facebook-konkurrenten zu basteln”)

der grund, warum ich auf dem vl. mehr als angemessen herumreite, ist auch, weil der vergleich zwar gut gemeint ist aber mehr schadet als nützt. leute plappern das mit dem ‘neuer facebook konkurrent’ nach, schauen sich die seite an, denken sich aha, das soll das neue facebook sein, und gehen wieder. das ganze framing wird den möglichkeiten und eigenen eigenschaften überhaupt nicht gerecht.

— (2)

They don’t have feeds in or out. That means whatever you put in there, starting right now, is theirs. They won’t even share your stuff with you. That’s not a good deal. You shouldn’t accept that.
So Ello isn’t answering any question I can think of.
If they were open, then I would be interested.”

dave winer (interessanterweise ursprünglich auf facebook)

dave winer steht hier synekdochisch für alle vertreter und spielarten der offenheit, die seit vielen jahren reflexartig jedes geschlossene system mit der immer gleichen checklist in der hand kritisieren, sich aber anscheinend noch nie wirklich gefragt haben, warum offenheit in vielen bereichen so offensichtlich unwichtig ist, während sich die user in geschlossenen gärten horten und freiwillig melken lassen.

die einfache antwort ist: kultur. kultur verstanden als spezifische ausbildung eines sozialen objekts (SO) und von gemeinsam ausgehandelten formen zur produktion, rezeption und distribution ebendieses SOs (das ist etwas komprimiert formuliert, aber wer hier ein bisschen sucht findet viel dazu). und in diesem sinne verstandene kultur ist deshalb ein so filigranes und unwahrscheinliches pflänzchen, weil sie nur als ganz spezifische ausdifferenzierung zwischen maschine und der historisch sozialen kontingenz entsteht, wobei das soziale objekt sehr stark durch die maschine aber die gemeinsam ausgehandelten praktiken natürlich primär auf der seite der historisch sozialen kontingenz definiert werden. aber es ist halt die kultur, die einen dienst attraktiv und sinnvoll macht, nicht die tatsache offen oder verschlüsselt zu sein. solange die open crowd nicht versteht, dass ein tweet etwas ganz grundsätzlich anderes ist, als ein string mit maximal 140 zeichen, solange werden sie es nicht schaffen dienste zu entwickeln die kultur haben und offen sind.

der grund, warum ich auch auf dem vl. mehr als angemessen herumreite, ist, weil auch die forderung nach offenheit gut gemeint ist aber auch wieder mehr schadet als nützt. in vielen situationen ist die offenheit selbst nämlich der verunmöglicher der möglichkeit der entwicklung einer kultur. dienste brauchen üblicherweise eine gewisse zeit, bis sie zu sich selbst finden, die meisten bekannten dienste sind reine zufälle. das letzte was sie in dieser inkubationsphase brauchen sind leute, die irgendeine automatisierbare sozialmediale kommandozentrale verwenden, um ihre inhalte dann auf maximal vielen plattformen zu verbreiten oder um ihre netzwerkdichte zu maximieren ohne auf die jeweilige kultur rücksicht zu nehmen und alle andere bots. (der differenzlose gesamtstrom ist gwm. die definition der kulturlosigkeit)

(nur zur sicherheit als faustregel: sei so indie wie möglich!!11 und backe alles up; aber beharre nicht auf dem indie wo es mehr schadet als nützt oder wo es irrelevant ist)

We believe a social network can be a tool for empowerment. Not a tool to deceive, coerce, and manipulate – but a place to connect, create, and celebrate life.
You are not a product.

ello manifest

als kleiner anhang ein bauchgefühl: die art, wie die selbstbeschreibung von ello angenommen wurde, war eig. auch interessant. die einen nahmen es irgendwie wörtlich, haben es einfach mal geglaubt und das hat viele sicher auch motiviert; die anderen haben es mit dem dann ‘aufgedeckten’ funding quasi als grosse lüge entlarvt, weil vc-money und grundsätze oder keine ads ja ein oxymoron sind. ich glaube beide schiessen in die falsche richtung. das manifest kann glaub ich besser als übersteigerte approbation von tautologischen plattituden über soziale netzwerke – also etwa im stile von laibach – verstanden werden. mir kommt überhaupt vor, dass ello die erste app ist, die darauf basiert sich mit ernster miene ironisch von sich selbst zu distanzieren und die jetzt trotzdem einfach mit allem entstehenden und zufallenden einfach läuft, was ello dann wieder irgendwie sympathisch macht.

weil es @_jk mehr oder weniger aufgelöst hat hier auch meine antwort auf quiz pt. 90 :

der grundlegende fehler ist zu glauben, dass es DIE universelle killerapp für die apple watch überhaupt gibt bzw. dass die apple watch eine solche universelle killerapp überhaupt braucht, um sinnvoll und/oder erfolgreich zu sein.

anders als bei anderen einführungen von apple gibt es bei der watch am ersten tag vl. keine langen schlangen vor den geschäften, aber der mittelfristige erfolg und der wert der watch hängt nicht davon ab, dass sie irgendwas universell besonders gut kann und gwm. universell gut löst (aka die vermisste killerapplikation), sondern nur davon, dass jeder einzelne für sich selbst zumindest eine einzige, idiosynkratische ‘killeranwendung’ entdeckt, die ein begehren erzeugt und den kaufreflex triggert.

und das muss noch nicht mal so besonders ‘killer’ sein: es reicht ja schon aus, dass man sich – übers jahr abgeschrieben – einen gegenwert von einem euro pro tag verspricht, um die uhr für einen persönlich attraktiv zu machen. und das wiederum kann jetzt schon das herzchen sein, das man einmal am tag als kleine aufmerksamkeit verschickt, oder ein dezenter farblicher hinweis, dass man noch 4000 schritte bis zum plansoll von 5000 schritten gehen sollte, oder eine schicke visualisierung des eigenen biorhythmus im vergleich zum biorhythmus des aktuellen gegenübers, oder oder oder. unterm strich: wenn man sich einmal am tag kurz darüber freut, hat man den anschaffungspreis gwm. bereits herinnen, alles andere ist ein bonus. der wert der uhr besteht also nicht darin, eine killeranwendung für alle zu sein, sondern darin, einen möglichkeitsraum für selbstbestimmte werte aufzuspannen.

und anders als bei bestehenden kategorien wie phones und tablets und notebooks, deren wert mittlerweile natürlich schon kommodifiziert ist und deren wert also immer gegen alle jeweiligen alternativen und damit verbundenen opportunitätskosten aufgerechnet werden muss – ein iphone 5s ist halt nur das ‘mehr’ (oder weniger) wert, was das aktuelle nexus oder huawei noch nicht so gut kann usw -, ist alles, was die erste watch neu offeriert, quasi ein unmittelbar als wertvoll empfindbarer wert, weil alles eben neu ist und noch mit nichts anderem verglichen werden kann.

apropos Aktualisierung von 140 Prozent Plus : auch kathrin passig hat ihre (auch schon wieder in die jahre gekommenen) standardsituationen der technologiekritik überarbeitet : Neue Technologien, alte Reflexe. der vollständigkeit halber also auch eine art aktualisierung meiner damaligen kritik (siehe Standardsituationen aus 2009; ich empfehle überhaupt zuerst standardsituationen zu lesen, dann kathrins standardsituationen 2014 und dann das hier):

wie schon bei den alten standardsituationen dreht es sich auch bei den neuen standardsituationen um ein erfassen der technologischen gegenwart, nur hat sie diesmal die standardargumente der luddistischen neinsager antithetisch mit standardargumenten technoptimistischer jasager konfrontiert, um das ganze dann dialektisch in einigen pragmatischen handlungsanleitungen für ein dem neuen gegenüber aufgeschlossenes leben und/oder wirtschaften aufzulösen.

und während mir zwar die allegorie des laubhaufens für den igel wie jedem echten freund von katzencontent das herz wärmt, meine kleine kritik an ihrem ansatz ist, dass sie das problem (‘was bedeutet technologie für uns jetzt und in zukunft?’) schon wieder auf der falschen, oder was heisst falsch, aber auf einer für den diskurs unfruchtbaren ebene löst.

das problem mit ihrer parade von nein- und jasagern ist, dass sie sie nur ‘literaturwissenschaftlich’ dokumentiert, aber überhaupt nicht epistemologisch kritisiert (sie überlegt sich nicht, was der tätiger einer aussage über das ausgesagte überhaupt wissen kann, und wenn es um das web geht ist das in den seltensten fällen besonders viel, die leute glauben und sagen halt irgendwas, auch zu dingen von denen sie keine ahnung haben oder die ganz grundsätzlich unwissbar sind). ein rudimentärer nutzen davon ist sicherlich eine art pattern recognition für die eben standardtropen und denkreflexe von menschen, aber das hat alles mit der möglichen wissbarkeit überhaupt nichts zu tun und bringt uns auch nicht weiter.

das problem mit ihrer synthese ist, dass sie den diskursiven anspruch überhaupt über bord wirft und die lösung gwm. in den bereich lifehacks und/oder produktivitätstechnik verschiebt (sie also plateautechnisch lustigerweise wieder bei ihrem ‘dinge geregelt kriegen’ landet). ihre tipps – genauso wie viele andere tipps vieler anderer – sind dann sicherlich nicht falsch und tatsächlich nützlich, besonders auch als starthilfe oder erste hilfe, aber im dispositiv der aussagemöglichkeiten über das web und technologie kommen wir damit natürlich nicht weiter.

kurze (oder besser nicht ganz so kurze) unterbrechung der unterbrechung, aber ich miste gerade mein scrivener aus und wollte diesen text nicht wegschmeissen, würde ihn mit der wm vor der tür in absehbarer zeit aber wohl auch nicht abrunden, also poste ich ihn ein bisschen aktualisiert hier, die beispiele sind sicherlich nicht besonders gut gewichtet. ungewollt ist es jedenfalls eine art nachtrag zu 5 jahre live.hackr, das vor 4 jahren und irgendwie am höhepunkt der konzeptionellen ausdifferenzierung und vielfalt im web geschrieben wurde, sich der scheitelpunkt der entwicklung aber gerade abzuzeichnen begann.

unter talfahrt verstehe ich etwa die symptome und effekte, die dadurch entstanden, dass die gesellschaftlichen subsysteme nach der ersten schockstarre endlich ihre abwehrmechanismen gegen das web voll in gang gebracht haben (oft in form von rechten wie urheberrechten, patentrechten, datenschutzrechten, leistungsschutzrechten, pixelschutzrechten, rechten aufs vergessenwerden, usw.), oder die dadurch entstanden, dass die gleichen oder andere gesellschaftlichen subsysteme begonnen bzw. verstärkt haben, von den techniken selbst maßlos gebrauch zu machen (z.b. überwachung, vollständige privatisierung des immateriellen, beschleunigung der ungleichheiten durch netzwerkeffekte, usw.), oder die dadurch entstanden, dass startups zu konzernen und konglomeraten wurden und damit andere prioritäten ausbildeten (z.b. die verdummung von google oder twitter), oder aber auch das ganz natürliche gemetzel unter den diensten und das aussterben/verlernen/vergessen von technokulturellen techniken bei reterritorialisierung auf wenigeren und immer geschlosseneren plattformen.

in dieser implosion wurden allerdings einige verhältnisse und prinzipien deutlich, die zwar retrospekiv nicht überraschen, die aber in der phase der expansion eben nicht bedeutsam waren – und zwei bereiche davon möchte ich hier zumindest anreissen. und nur zur sicherheit: ich versuche hier nur das nicht-funktionieren, die störungen und filter der ersten welle zurück zu erklären, nicht eine bestandsaufnahme vom aktuell funktionierende zu geben. ich spare euch also das bauchpinseln, wachstumscharts oder einen internetoptimismus, das halte ich für gegeben. es kommt also, das sag ich euch gleich, eher ein downer.

der abbau von dingen und techniken

leicht dramatisiert sind wir in den letzten jahren von einem wilden garten mit erstaunlicher artenvielfalt und wildwüchsiger schönheit zu betreutem wohnen und überwachtem cluburlaub übergegangen. natürlich gibt es enklaven, gallische dörfer und biotope, aber was die gesellschaftlich paradigmatische praxis betrifft. den rückgang der artenvielfalt kann man in drei gruppen unterteilen, wobei jede gruppe unterschiedliche gründe und auswirkungen hat:

1. dinge, die einfach überholt wurden

viele dinge, techniken und gerätschaften wurden einfach von anderen dingen, techniken und gerätschaften überholt, weil sie kleiner, schneller, billiger, nützlicher oder besser waren. (man denke an den trolly mit dem pc, den bruce sterling auf der sxsw herumschiebt. niemand würde sich bücken und ihn aufheben, selbst wenn man dafür geld bekäme.)

über diese gruppe gibt’s glaub ich wenig diskussionsbedarf, auch wenn die effekte davon enorm sein können und ganze technologien fast verschwinden lassen, nur um aber einer viel stärkeren und schnelleren welle der nächsten generation an technologien platz zu machen. (nur als beispiel: 1,7 mrd. smartphones mit mobilem internetzugang ändern natürlich nicht nur die gesamte globale infosphäre und alle damit assoziierten ströme fundamental, sondern erzeugen ein genuin neues ‘infoökonomisches dispositiv’. und darüber wird sich niemand wirklich wundern, ausser vl. journalisten, blogger und analysten). vieles davon lässt sich jedenfalls gut mit halbjährigen trendreports dokumentieren.

2. dinge, die nützlicher klangen, als sie waren

in ihrer funktionslogik (nicht in ihrer wirkung) etwas interessanter sind vl. die dinge, techniken und gerätschaften, die zunächst ausgesprochen nützlich klangen, sich in der folge aber als weniger nützlich oder wichtig als vermutet herausgestellt haben. grundsätzlich wird natürlich immer alles machbare auch gemacht. und durch das web wurde so viel machbar, dass wir in der ersten phase auch wirklich vieles ausprobiert haben – und fast alles klang zumindest für die macher wie eine gute idee. aber nicht alle, genauer gesagt nur die allerwenigsten dinge und techniken haben sich dann als tatsächlich wertvoll herausgestellt, und viele techniken, die besser klangen als sie waren, wurden in der folge wieder eingestellt bzw. haben sich auf niedrigem aktivitätslevel neu eingependelt.

beispiele:

  • social bookmarking (sorry)
  • tagging (sorry)
  • blogging (sorry)
  • abonnieren und lesen von feeds (sorry)
  • startseiten wie netvibes (sorry)
  • lifestream- und andere aggregatoren (sorry)
  • local check-ins (sorry)
  • bürgerjournalismus (sorry not sorry; aber niemand setzt sich hin und verfasst zum spass journalistische beiträge, wenn es ein halbwegs gut funktionierendes mediensystem gibt. was aber zumindest eine zeit lang funktioniert sind halt medienkritische geschichten.)
  • usw.

das grundproblem ist immer das gleiche: als technik entfalten sie zu wenig strukturelle koppelungen, um eine gewisse nachhaltigkeit zu etablieren. im ersten schwung können die kosten durch übermotivation der neuartigkeit bereitgestellt werden, aber mittelfristig wird dann vieles eben finanziell nicht tragbar. auch bei der adaption eines dienstes durch benutzer gibt am anfang eine dynamik der neuheit, die dann verfliegt. der ‘naive’ glaube daran, dass dinge mit neuer technik automagisch besser werden, ist zwar auf gewisse weise nützlich, weil er das experimentieren erst ermöglicht, aber er hilft den je konkreten techniken oder technologien halt mittelfristig auch nix.

und neben diesen ‘schlechten guten ideen’ gab es natürlich auch den abbau vieler ‘schlechter schlechter ideen’, also von ansätzen, bei denen man das ende schon am anfang absehen konnte.

diese liste wäre sehr lang, aber eine sich zombieartig regenerierende fixe idee von ingenieuren ist jedenfalls zu versuchen, die perfekte algorithmische empfehlungsmaschine zu bauen, die dem menschen in jeder situation zu jedem zeitpunkt an jedem ort das perfekte produkt empfiehlt und ganz allgemein immer schon vor dem menschen selbst weiß, was er will. die ergebnisse stehen fast immer mehr im weg als sie nützen, aber mehr noch: sie wollen das falsche problem lösen, ein bisschen mehr dazu hier. die übernahme von beats durch apple zeigt, dass zumindest apple das wirkliche problem erkannt hat. (in einem satz: apple hat verstanden, dass musik kein problem für empfehlungsalgorithmen, sondern eine funktion von geschmack, vertrauen und begehren ist – und das war ihnen 3 mrd. dollar wert, weil sie es in 13 jahren itunes und ipod nicht selbst lösen konnten. nicht dass sie es nicht versucht hätten, man denke nur an ping, genius, itunes radio, usw.) auch fast alles, was primär auf aufwendigen content oder beteiligung der user setzt, braucht ein kleines sinnwunder oder extrem gutes design des sozialen objekts und der ströme.

andererseits: was wirklich nützlich wird und was ein dud bleibt muss sich einfach zeigen, das experimentieren hat also schon auch mit den anscheinend schlechtesten ideen seine berechtigung. die wenigsten fälle an wert entstehen aber durch features oder technik. game of thrones wurde und wird auf dos geschrieben.

3. dinge und techniken, die von höheren zu niedrigeren aggregatszuständen übergegangen sind

das ist die wohl interessanteste kategorie und sie klingt grundsätzlich ähnlich wie die dinge, die einfach nicht so nützlich wie vermutet waren, aber ich möchte sie deshalb unterscheiden, weil die dahintersteckende funktionslogik eine andere ist. dinge und techniken, die von höheren zu niedrigeren aggregatszuständen übergegangen sind, sind nämlich eben potentiell nützlich, nur konnten sie nicht genügend ‘kraft’ aufbringen, um sich gegen die kleineren/schnelleren/leichteren alternativen zu behaupten, von denen es dann sehr viel schneller sehr viel mehr gibt, weil sie eben kleiner, schneller und leichter sind.

neben den ‘guten schlechten ideen’ gibt es also auch eine art entropie, bei der ‘hochwertigere’ techniken durch ‘niederwertigere’ ersetzt werden. grundprinzip ist, dass sich die alternativen zunächst vom ursprünglichen ding deterritorialisieren, sich dann aber auf einer neuen ebene als neue formation reterritorialisieren. im unterschied zu den ‘guten schlechten ideen’ besteht bei diesen ‘schwachen guten ideen’ aber immer die möglichkeit, sie zu revitalisieren, oder besser: kann es mitunter sinnvoll sein, zu versuchen sie zu revitalisieren, wenn man diesmal dann aber auf die voraussetzungen und rahmenbedingungen zu achtet (miniquiz am rande: was dürfte was aussichtsreichste schraube sein, die man bei einem ‘neustart’ einer ‘schwachen guten idee’ festgezogen haben sollte?).

beispiele:

  • von blogs zu tumblr, g-plus oder quora.
  • vom journalismus zu huffington post, buzzfeed oder heftig.
  • von flickr zu instagram und selfie.
  • von subscribern zu followern.
  • von tags zu hashtags.
  • vom meme zum viral. während es heute zwar noch immer gelegentlich als ‘meme’ bezeichnete phänomene gibt, die goldene zeit der meme ist vorbei. das paradigmatische modell für sozialen erfolg ist nun das viral, das sich tautologisch selbst beweist.
  • von rocketboom und lifecastern zu beauty gurus und gamecastern. (man denke nur an justin.tv, das alle bisherigen aufzeichnungen bald löschen wird, dessen spin-off für games twitch aber gerade von google bei einer kolportierten bewertung von 1 mrd. umworben wird.)
  • vom postmodernen pastiche auf myspace zur fanpage auf facebook.
  • von der gleichzeitigkeit von ungleichzeitigkeiten zu einer allgemeinen unzeitlichkeit.
  • von lolcats zu caturday und grumpy cat.
  • usw.

konfliktierende interessen

während die verschiedenen gruppen des abbaus der arten gwm. ein symptom der aktuellen talfahrt sind, sind verschiedene gruppen ‘konfliktierender interessen’ zwar meistens nicht die ursache, aber gwm. die rahmenbedingung für die ausdifferenzierungsmechanismen, die uns dann oft vor spieltheoretische konstellationen wie dem usergefangenendilemma stellen.

vorab: das sind grundsätzlich alles duh’s. und während das natürlich auch keine eigenheit des webs ist, so sehen wir doch erst in den letzten jahren, wie sich latent immer schon vorhandene unterschiedliche interessen als ganz konkreten effekte im web realisieren, indem sie sich in den ‘neuen’ gegebenheiten neu konstituieren bzw. teilweise auch erst mit dem web realisierbar und damit als konflikt sichtbar wurden.

1. die interessen der firmen stimmen nicht mit denen der benutzer überein

am anfang jeden startups müssen die interessen des startups und die interessen der benutzer natürlich synchronisiert sein. zumindest muss es für die benutzer eine art nutzenüberschuss und werterzeugung geben, sonst würde es ganz einfach nicht benutzt und es gäbe kein startup; aber ab einem punkt im lebenszyklus der firma beginnen die interessen oft zu divergieren und spätestens mit dem ipo werden die benutzer meistens nur noch als parameter zur optimierung von verschiedenen kennzahlen konzipiert. was nicht notwendigerweise sofort auch für die benutzer schlecht sein muss, es gibt sicherlich hinreichend gut funktionierende symbiotische modelle. aber öfter als nicht geraten die effekte zum nachteil der benutzer, der communities oder der ‘gesellschaft’.

ich hoffe es ist klar, dass das was anderes impliziert, als das konzipieren von google, amazon, apple, facebook und co als geldgierige, imperialistische und grundsätzlich abzulehnende konzerne, die deshalb auch mit den blödesten mitteln bekämpft werden können und vor denen die gesellschaft und vor allem die verlage beschützt werden müssen. das problem hier ist nicht, dass sie versuchen von ihren benutzern zu profitieren, das problem ist, dass sie selbst verlernen, wert zu erzeugen. (ein grund dafür könnte übrigens sein, dass die ab einer gewissen organisatorischen grösse eingeführten ‘manager’ selbst nur gelernt haben, in neoliberalen/globalisierten mustern zu ‘führen’ und zu ‘denken’ und nicht verstehen, dass web- und technologiestartups nach tatsächlich anderen ökonomischen logiken funktionieren könnten und sollten.) und nur zur sicherheit: das bedeutet natürlich auch nicht, dass man sie nicht für das wirklich kritisierenswerte kritisieren sollte. das problem mit der aktuellen europäischen kritik am komplex us-tech ist, dass das falsche kritisiert und bekämpft wird und dass die effekte die gegenteiligen vom erwünschten sind.

interessanterweise sind es vor allem die tech-blogger, die am allerwenigsten kapieren, dass das, wozu sie die firmen anfeuern, exakt die nachteile für die benutzer erzeugt, deren effekte sie dann bejammern.

unternehmen durchlaufen jedenfalls einen gewissen lebenszyklus und manche unternehmen landen irgendwann in einer lebensphase, in der sie gewissen erwartungen anderer genügen müssen, was viele unternehmen in ganz andere wesen und manchmal in walking dead transformiert. hier muss ich übrigens wirklich facebook loben; aus dem trio google/facebook/twitter sind sie nämlich die einzigen, die sich auch nach ihrem ipo noch immer relativ konsequent am ursprünglichen eigenen sozialen objekt orientieren und klare grenzen ziehen. sowohl google als auch twitter tun sich als von managern optimierte unternehmen mit ihrer eigenen sinn- und wertstiftung viel schwerer, wobei twitter der mit abstand größte dolm ist (d.h. die am leichtesten vermeidbaren kapitalen fehler macht, im grunde müssten sie ja wirklich nur nichts machen) und google der größte unnötige wertvernichter zumindest im web ist und eine lange trophäensammlung kleinerer und größerer böcke angesammelt hat, siehe google studies, nur erzeugen halt beide, vor allem natürlich google, gleichzeitig auch so einen riesigen sozialen und kommunikativen überschuss, dass das auf absehbare zeit ohne echte kosten oder konsequenzen für sie bleiben wird.

ein hauptgrund für diesen interessenskonflikt ist der oben erwähnte übergang von höheren zu niedrigeren aggregatszuständen. wie soll ein unternehmen wie yahoo reagieren, wenn der ‘hochbrauige’ und viele jahre dominierende datentyp flickr mit entwicklungen zu tun bekommt, bei denen die kombination aus handy, mobilem internet und für einen sozialisierten strom optimierte plattformen wie instagram und tumblr oder auch messenger zu einer exponentiellen explosion der zirkulierenden fotos führt, die sie im staub stehen lassen?

im grunde gibt es nur zwei möglichkeiten: sie bleiben entweder dem originalen datentyp treu, auch wenn sie dann marktanteile verlieren (was, nur nebenbei, ja nicht notwendigerweise weniger aktivität oder einnahmen bedeutet). oder sie versuchen sich zu transformieren, was unter umständen gelingen kann, aber in jedem fall den ursprünglichen sinn zerstört. das kann mitunter auch gelingen, wenn man unter gelingen als marke überleben versteht, wenn die eigene schwungmasse gross genug oder wenn für die user die kosten für einen absprung zu gross sind. aber der ursprüngliche datentyp wird natürlich trotzdem zerstört und die wahrscheinlichkeit des nichtgelingens ist hoch, weil ihre organisatorische dna den neuen datentyp oft nicht versteht. und sie öffnen damit natürlich wieder die tür für nachrücker, die dann von unten, von der seite und dann eben auch von oben kommen können (z.b. medium, das sich gwm. über das soziale objekt bemühtheit definiert und sich quasi auf die blogs setzt).

2. die interessen der regierungen stimmen nicht mit denen der bürger überein

das ist ein viel zu großes thema, das ich weder hier noch sonst behandeln kann, aber ich will es nicht unerwähnt lassen, weil man viele probleme damit verstehen kann.

das paradigmatische beispiel ist natürlich überwachung: aus irgendeinem grund lieben regierungen nichts mehr, als ihre bürger und wenn wir schon dabei sind die ganze welt möglichst total und jedenfalls mit allen ihnen zur verfügung stehenden technischen mitteln zu überwachen. ein paar worte dazu etwas weiter unten.

eine variation davon ist eine vermeintliche aber falsche orientierung am bürger. beispiel hier etwa das recht auf vergessen, das als ‘sieg für datenschutz und gegen google’ gefeiert wird, aber die echten probleme nur verschlimmert oder über die hintertür erst konstruiert. siehe das ‘gut gemeint ist schlecht gemacht’ weiter unten.

insgesamt werden regierungen und regierungsorganisationen zunehmend selbst das eigentliche problem, siehe lazy blog ep. 23

3. die interessen der journalisten stimmen nicht mit denen der leser oder der gesellschaft überein

auch das ist ein viel zu großes thema, das ich weder hier noch sonst behandeln will oder kann, aber auch das soll nicht ganz unerwähnt bleiben, weil auch das so einiges erklärt. journalismus ist vor allem in deutschland leider eines der organe geworden, das die gesellschaftlich schädlichsten abwehrstrategien gegen das web ausgebildet hat, was doppelt blöd ist, weil die deutsche seele diskurs tendenziell nur massenmedial sanktioniert akzeptiert.

journalismus ist ingesamt natürlich eine unwahrscheinliche form, die eine zeit lang eine gewisse stabilität gefunden hat, deren bisherige ökonomie aber mit dem internet ganz real zu bröckeln begonnen hat. was sie tun sollten oder könnten ist ein anderes thema, hier aber sei erwähnt, dass was das thema web betrifft von den massenmedien eine absichtliche oder unabsichtliche volksverblödung betrieben wird, die sich natürlich ungünstig auf die entwicklung auswirkt, weil der großteil der bevölkerung einfach falsch informiert wird und deshalb oft auch phänomene nur falsch bewerten kann, was dann wieder als beweis für die richtigkeit der falschen informationen herangezogen wird.

(karma am rande: der journalismus bekommt mit buzzfeed, heftig und co nun endlich die rechnung dafür präsentiert, dass sie die nullerjahre mit dem belächeln und verspotten von zuerst blogs und dann twitter verbracht haben, die mit ihrer zukunft wenig bis nichts zu tun haben bzw. hatten. die irritation und konsternation darüber, dass es da plötzlich was anderes gibt, wo jeder seine meinung publizieren konnte und kann, hat sie blind für alle ihre existenz tatsächlich betreffenden entwicklungen gemacht. mit der aktuellen hysterie – man denke an das schnipsel- und leistungsschutzrecht, den ‘kampf’ gegen google, das am besten zerschlagen werden soll, usw. – wiederholen sie gwm. diesen ersten fehler, nur dieses mal ganz brav nach marx und hegel nicht als tragödie, sondern als farce.)

ursachen und fehler

während die verschiedenen gruppen des abbaus der arten gwm. ein symptom und die verschiedenen gruppen konfliktierender interessen gwm. ein katalysator der aktuellen talfahrt sind, gibt es eine palette an anderen kleineren und grösseren ursachen und fehlern, verstärkern und verhinderern, die die derzeitige situation beeinflussten. hier nur vier signifikante:

1. das fehlen eines ethischen kompasses

das fehlen eines ethischen kompasses ist eine der hauptursachen für einige der angedeuteten missstände.

das web hat auf institutioneller ebene nur ein problem, weil institutionen keinen ethischen kompass haben. daten selbst sind nicht das problem, nur die art, wie sie von unternehmen, organisationen und staaten verwendet werden. wenn sich alle (auch geheimdienste) an dem orientieren würden, was (auch für geheimdienste) gesellschaftlich sinnvoll und nicht an dem, was technisch machbar ist, dann hätten wir kein problem. es geht nicht darum, eine situation herbeizuwünschen, die es nicht geben kann, oder zu verleugnen, dass staaten, organisationen, menschen und sogar katzen mitunter egoistische, territoriale, neidische, irrationale oder gierige impulse haben und denen gelegentlich auch folgen. es geht aber wirklich darum, in der diskussion und bewertung dieser aktivitäten dann zu verstehen, was die ursache und was nur ein mittel oder eine wirkung ist.

das problem an der totalüberwachung der menschheit ist doch nicht, dass mit unserem leben daten anfallen, die geschützt werden müssen, sondern dass eine staatliche institution eines gwm. erleuchteten staates überhaupt auf die idee kommen kann, dass man am besten alle daten aller speichern könnte. und dass das dann auch mit dutzenden milliarden gefördert und realisiert wird, indem das weltweite kommunikationssystem mit einem rhizomatisches geflecht an sensoren infiltriert wird, die wenn möglich bis zum letzten endgerät vordringen und es anzapfen können. aber dass der staat und die staatengemeinschaft keine kontroll- und bewertungsmechanismen ausgebildet haben, die dem von selbst entgegenwirken, einfach weil es ein offensichtlicher wahnsinn und solider grundstein eines präventions- und überwachungsstaats ist, oder weil es am grundvertrauen in kommunikation – und also dem stoff für alles andere – sägt, ist der eigentlich skandal und eine echte schande für die welt und grund für eine eselsmütze für alle beteiligten.

die daten sind zwar das mittel, mit denen das möglich wurde, aber sie sind halt eben auch tatsächlich nur das mittel. das problem ist die nicht mehr vorhandene ethik der organisationen.

nur am rande: die eigene ethik (bzw. die abwesenheit derselben) wird übrigens oft erst sichtbar, wenn es probleme gibt. im fall der massenmedien und des journalismus hat man die ich sag mal löcher und lücken lange nicht gesehen, weil es die längste zeit halt hinreichend gut funktioniert hat. die abwesenheit eines eigenen sinns wurde erst sichtbar, als sie probleme bekamen und nicht mehr weiter machen konnten wie davor. ohne sinn (also etwa: wenn man den leser als nichts anderes als eine page impression wahrnehmen und bewerten kann, die dann hoffentlich auch noch auf einen werbebanner klickt, wenn sie schon da ist) befindet man sich aber schnell in einem race to the bottom um diese dann eben sinnlosen klicks (wobei das race natürlich selbst auch wieder potential für neue formen hat, nur stehen sich die incumbents da immer selbst im weg). blogs andererseits können deshalb extrem ineffizient arbeiten, weil sie ihren eigenen sinnüberschuss selbst erzeugen. es reicht eben schon aus, wenn der blogger für sich selbst ausreichend interessant ist, jeder leser ist da eher ein willkommener gast.

das gilt aber natürlich nicht nur für text, sondern für jedes andere medium auch. wir sehen das wie oben angedeutet auch bei flickr, twitter, google, usw. wer den eigenen sinn verliert, landet dann schnell bei der sinnlosen optimierung, die im idealfall halt ein erträgliches alternatives gleichgewicht auf niedrigerem niveau findet.

2. das fehlen eines schützenden und inkubierenden diskurses

über die theorielosigkeit im web 2.0 hab ich schon vor 4 jahren gejammert, warum da so gar nix kommt ist mir wirklich ein unerklärliches rätsel, so ziemlich jede andere disziplin hat zumindest ein gewisses bündel sozial ausgehandelter begrifflichkeiten generiert, die dann ‘dichtere’ kommunikation erlauben usw., aber das ist natürlich ein moo point. das web selbst hat sich jedenfalls als nicht besonders gut herausgestellt, ‘organische’ intellektuelle hervorzubringen oder die anderer sparten zu integrieren. es gibt zwar einige subdiskurse verschiedener ‘crowds’ (die netzpolitik crowd, die medienkritik crowd, die gründer crowd, die hacker crowd, versprengte reste einer netzkunst crowd, einsprengsel einer soziologie crowd, jenseits von gut und böse sicher auch die crowd der künstler und journalisten), aber die köcheln alle relativ unbeobachtet und unbeeinflusst von den subdiskursen der anderen crowds vor sich hin, es sind ja wirklich nicht nur die journalisten, die sich nur an ihrer eigenen bubble orientieren.

(ich sehe keinen grund für hoffnung, dass da in absehbarer zeit was tolles kommt, aber das ist auch nicht wirklich wichtig. wichtiger ist eher, dass endlich die 10 oder so blödesten grundannahmen widerlegt werden und quasi nicht mehr salonfähig sind, das würde das grundpotential vom web in deutschland sofort verdoppeln. und eine mischung aus praxis und proaktiver falsifikation bei genügend freundlichkeit könnte ein solches plateau erzeugen oder zumindes zu einer art anpassung der blickwinkel führen)

3. gut gemeint ist schlecht gemacht.

auch das zieht sich wie ein faden durch die meisten problemfelder. künstler, intellektuelle, netzpolitische aufrufer, krautreporter, indiewebler und politiker eint, dass sie es immer wirklich gut meinen, aber mit ihren ansätzen und forderungen oft leider genau das gegenteil bewirken und sich so also zu erfüllungsgehilfen der hegemonialen strukturen machen.

besonders in kombination mit (1) einem nichtverstehen der dynamik der sozialen objekte und/oder (2) einem nichtverstehen der logik des werts und/oder (3) einem nichtverstehen der produktions-, rezeptions-, und distributionsbedingungen und der ströme wird ein gut gemeint schnell zu einem schlecht gemacht. der weg zur hölle ist gepflastert mit guten intentionen.

4 follow the money

wenn ein in ein paar tagen entwickeltes flappy bird mehr umsatz generiert als 99% aller webapps, dann wandern die talente früher oder später ins appland, auch wenn dort kein ‘gesellschaftlicher’ wert entsteht. mir fehlt zwar die intuition, zu welchem grad das wirklich ein problem ist (dem web fehlt es nämlich nicht an code sondern an verdichtungen, und die beginnen historisch oft mit zwei, drei leuten; wo es sich anbietet werden die mobil erzeugten inhalte dann ohnehin auch im web veröffentlicht; ob sich private ströme auf mobilen kanälen oder auf facebook realsieren ist – ausser für irgendwelche kennzahlen – völlig egal; usw.) aber ich vermute doch, dass es eine gewisse verschiebung der indifferenzkurven gibt, die das web mittelfristig suboptimal ausdifferenziert. oder anders gesagt: ich vermute, dass das web den monetären offset zum mobilen internet quasi durch sinn ausgleichen muss. die gefahr ansonsten ist nicht so sehr, dass es ‘weniger’ web gibt, sondern dass sich einige möglichkeitsräume, die sich nur im web entfalten könnten, einfach nicht entfalten können.

zauberhut

das allerwichtigste für eine schubumkehr dürfte jedenfalls eine art rudimentäre netzbildung mit netzpraxis oder wenn man so will eine allgemeine netzaufklärung sein. fast jedes problem eskaliert erst dadurch, dass die beteiligten und oft entscheidenden personen einige eigentlich ‘zumutbar wissbare’ dinge übersehen oder noch nicht verstanden haben und in der folge zu ‘falschen’ bewertungen und massnahmen kommen. und ich meine das wirklich nicht hochnäsig oder besserwisserisch oder im glauben eine ultimativ richtige antwort zu haben, aber es gibt halt situationen, wo man sehen kann, dass ein anderer etwas nicht sieht, was dieser naturgegeben nicht selbst sehen kann, weil man eben nur sieht was man sieht, aber nicht sieht was man nicht sieht. internet ist eben nicht segen oder fluch, internet ist ein möglichkeitsraum, der genützt werden kann oder nicht.

netzbildung bedeutet übrigens nicht, dass alle programmieren lernen sollten (diese idee kommt, kommt mir vor, immer von leuten, die selbst nicht programmieren können). bei der netzbildung gibt es sicherlich verschiedendliche ‘tiers’, wobei man aber schon mit wenig aufwand die meisten probleme in luft auflösen könnte (think pareto).

und ich habe kein programm dafür im zauberhut, aber mit sehr wenig wissen um einige techniken und zusammenhänge kann man schon sehr viel abfedern. wenn man etwa weiß, was ein browser ist und was man mit dem browser alles machen kann und wie man ihn erweitern und für sich selbst optimieren kann und dass browser auch einen privacy-modus haben und dass man auch mehrere browser gleichzeitig benutzen kann, dann hat man z.b. geschätzte 80% der nicht-staatlichen privacy-probleme schon im eigenen griff. (nur wird man das z.b. niemals im feuilleton lesen, weil das die leser ja dazu befähigen würde, die tracker zu blockieren, über die sie ihre leser monetarisieren. wir sind also auf uns selbst gestellt.)

(kontextlose randbemerkung: das web selbst ist ja nicht interessant. wenn was interessant ist, dann sind das die gesellschaftlichen symptome und ereignisse und damit einhergehende veränderungen, die im ‘web’ (also auf den konkreten plattformen) oder durch das web vermittelt auftreten und möglich werden. und weil es eben ein gesellschaftliches verhältnis ist, ist die mögliche kraft an gesellschaftliche verhältnisse bzw. ans wechselseite verhältnis dieser verhältnisse gebunden. und da hat halt jede ‘kultur’ ihr eigenes potential. und in deutschland ist das halt eher so lala. lustig dabei aber ist, dass jede kultur den unmittelbaren vergleich zur höchstentwickelten stufe immer direkt vor der nase hat. und faszinierend dabei ist, wie perkolationsresistent deutschland da ist)

Eine weitere besonders nützliche Unterscheidung ist ganz sicherlich die Unterscheidung: wie viel Aufwand erfordert denn die Produktion bzw. die Rezeption von Datentypen im jeweils konkreten Fall als soziales Objekt einer Plattform?

(man könnte die aufwände sicher noch weiter differenzieren in zeit-aufwand, geld-aufwand, konzentrations-aufwand, etc., aber mit ‘aufwand’ alleine ist es auch schon recht nützlich differenziert)

((der aufwand für produzenten und konsumenten korrespondiert oft, aber bei weitem nicht immer. die konsequenzen davon müsste man mal durchdenken, zumal recht interessante konstellationen dadurch entstehen, dass konsumenten primär auf ebene ihres eigenen aufwands vergleichen aber produzenten ihren aufwand primär auf ebene des erwartbaren erfolges ‘kalkulieren’))

Diese Unterscheidung ist natürlich ziemlich offensichtlich, interessanterweise wird sie bei der ‘Bewertung’ von Plattformen und Trends aber selten berücksichtigt. Dabei kann schon eine kleine Reduktion des Aufwands Platzhirsche ersetzen (man denke an instagram vs. flickr; der aufwand für die produzenten ging bei instagram plötzlich gegen den klick null, da ja anders als bei flickr auch der ‘anspruch’ der plattform an die fotos im schnappschuss und nicht in der bildkomposition und einer diskussion über die gewählte linse besteht).

als allgemeine Formel gilt: je kleiner der Aufwand für Produzenten, desto mehr produzieren sie davon. Ein Tweet geht schneller als ein Roman mit 1000 Seiten, also gibt es mehr Tweets. Und je kleiner der Aufwand für Rezipienten, desto mehr konsumieren sie davon. Die meisten lesen mehr Tweets als Romane von Thomas Pynchon.

(das problem, wenn man so will, dabei ist natürlich, dass mit jedem übergang zu was noch unaufwändigerem, auch der potentielle ‘wert’ oder ‘inhalt’ oder die ‘mögliche komplexität’ der vorigen formation verringert wird und also immer mehr immer schneller immer wertloseres zeug zirkuliert; aber darüber jammern nützt halt nix, und es gibt natürlich auch für aufwändigere produktionen neue sweet spots im sich ausdifferenzierenden milieu, man denke an die populären kanäle auf youtube, die fast alle schon zumindest wieder semiprofessionell produziert sind. trotzdem ist das für die ‘incumbents’ immer eine blöde situation, weil sie vor dem dilemma stehen, entweder den schritt nach ‘unten’ mitzugehen und sich dabei auflösen oder verlieren könnten, oder starr zu bleiben und zu riskieren vom neuling in 5 jahren für ein butterbrot übernommen zu werden, wenn es ihnen nicht gelingt, ihren wertvorschlag unter den neuen bedingungen zu restabilisieren (was aber in vielen fällen möglich sein sollte, wenn sie offen genug bleiben))

(abt: draw the distinction!)

Der sharegorische Imperativ (im Folgenden kurz SI) lautet in seiner Grundform:

Share so, dass die Maxime deines Sharens Grundlage einer allgemeinen Strombildung werden kann.

Wenn man nun davon ausgeht, dass jeder tun können soll, wo und wie er will, und also niemand beim Senden oder Empfangen von Strömen zur Verwendung eines bestimmten Dienstes genötigt werden darf, dann stellt der SI nur eine einzige Anforderung an den Strömenden:

der jeweilige Strom muss (alternativ) auch als Feed zur Verfügung gestellt werden.

Gibt es (auch) einen Feed, dann werden alle anderen Kontingenzen hinfällig.

(die verantwortung dafür würde ich fast beim strömer sehen und nur sekundär beim verwendeten dienst. dieser unterstützt das im idealfall out of the box (natürlich blogs aber zb. auch app.net), oder er ermöglicht es zumindest via einer api (zb. twitter), oder er versucht es andererseits möglichst zu verhindern (zb. google+), die verwendung bleibt aber in jedem fall eine freie entscheidung des strömers, der deshalb also einen feed für den strom mit workarounds (die es immer gibt) generieren sollte.)

ach google. aber eine frage bleibt beim google reader desaster:

was ist wirklich kaputt gegangen?

die offizielle antwort heisst natürlich ‘das vertrauen, das vertrauen ist kaputt gegangen!’ usw. aber ich glaube, es ist etwas anderes. google hat – wie viele andere auch – bereits viel zu viele andere dienste gekillt, ohne dass wir kollektiv dieses gefühl der irritation mit google hatten. insgesamt haben wir uns mittlerweile wohl an den umstand gewöhnt, dass wir auf jedem webdienst zu jedem zeitpunkt nach reiner willkür rausgeschmissen werden können, unsere sachen packen und weiterziehen müssen, siehe dazu die überlegungen zum favela chic von bruce sterling oder auch auch postpreposterous. und im vergleich zu vielen anderen schliessungen ist das ende vom google reader ja tatsächlich kein datentechnisches problem bei dem wir jahre an arbeit und inhalten verlieren, wir exportieren einfach unser opml-file und importieren es woanders und gut ists.

was, glaub ich, kaputt gegangen ist, ist die möglichkeit an eine ethik von google zu glauben. daran zu glauben, dass google einer der ‘guten’ und keiner der gemeinen (wie facebook, microsoft, apple und twitter) ist. google hat ethisch begonnen und diese ethik war tatsächlich die bedingung der möglichkeit für ihren erfolg (alle megalosaurischen portale wollten nur eines: die eyeballs der besucher auf dem eigenen property behalten und melken; google hat in einem paradigmenwechsel die suchenden zur besten externen seite weggeschickt; noch heute ist es etwa für verlage einfach ein ding der undenkbarkeit, für die leser das beste zu tun, deshalb sind sie ja in einem zustand der dauerirritation durch google). und bei allem was danach kam war es bis zu diesem zeitpunkt immer möglich, die von google gemachten fehler, flops, facepalms und fails einfach auf dummheit oder profane unfähigkeit zurückzuführen. google ist halt ein sozialer doofus, eine geschmackstechnische dumpfbacke, hat halt einen facebook-komplex, der gelegentlich irrationale und erratisch reaktionen triggert, hat kein sensorium für soziale objekte, usw., schwamm drüber (für eine lange kritik aus diesem blickwinkel siehe googleheimer). auch wenn google seit einigen jahren vl. nicht länger als ‘subject supposed to know’ betrachtet werden konnte, es blieb das einzige megaunternehmen, bei dem man nicht vom bösen (im sinne von: spieltheoretisch versierte buchhalter, deren ziel das gewinnen und akkumulieren von wert ist, was natürlich trotzdem tollste produkte und viel wert für alle erzeugen kann, bestes beispiel apple) ausgehen musste.

diese möglichkeit zu glauben hat uns google mit der vernichtung des google readers nun genommen. und zwar deshalb, weil es keine andere mögliche erklärung als vorsätzliche und rücksichtslose bösartigkeit gibt, die die interessen der benutzer unter irgendwelche fünfjahrespläne+ stellt. viele dinge lassen sich durch umstände erklären oder zumindest relativieren, aber in diesem fall ist der einzige umstand, dass sie auf geschätzte 5-10 millionen benutzer schlicht und einfach scheissen, weil das in ihren büchern eine fussnote ist und weil das einer anderen agenda ((a) – wir bauen mit g+ unser eigenes schwarzes loch, (b) – für den rest sind eyeballs für raufpappbare werbung doch nicht schlecht, gelesenes muss wieder page impression werden, da ist noch einiges drin) entgegenläuft, auch wenn es die allerengsten benutzer mit der allergrössten bindung sind, was google natürlich weiss. ein an sich durchaus kleines ereignis hat also eine phantasie zerstört und eine (ich will nicht sagen mütterliche, aber viele user hingen beim reader wie am tropf) bindung einfach so aufgelöst. google hat sich gemein gemacht und sich neben allen anderen eingereiht. google ist nicht länger der imaginierte nordstern, an dem man sich ausrichten kann, sondern nur noch ein (mächtiger aber nicht besonders heller) spielstein in einem relationalen spiel (das sie selbst als nullsummenspiel spielen, obwohl es natürlich keines ist). und wir müssen das zur kenntnis nehmen und können das investment in unseren bisherigen glauben abschreiben, deshalb fühlen wir uns so beleidigt.

(es geht natürlich nur um die möglichkeit zu glauben, innerhalb von google selbst hat sich die ursprüngliche ethik wohl schon eine weile zerfastert und zersetzt, das leitbild g+ und indirekt also facebook hat den verbliebenen rest dann ausgeräuchert)

was die betroffenen user mit dieser säkularisierung machen, liegt jetzt dafür in ihrer hand. aber es muss nicht nur schlecht sein und neben dem zynismus (siehe nochmal postpreposterous) stehen natürlich auch andere serien (webaufklärung, postwebismus, neopragmatismus, etc.) zur verfügung.

aus der serie: Reader—

auch nicht wirklich weitergekommen sind 2012 jedenfalls die deutschen massenmedien/zeitungen mit ihrer disposition gegenüber dem web.

(es wurde zwar in den letzten 2, 3 jahren ein bisschen besser, sprich: die absoluten pflichtübungen (ein twitter account, ein paar hausblogs, kommentare auch am wochenende, eine ipad app, vl. ein bissl datenjournalismus, vl. sogar mal ein hangout auf google+, …) werden mittlerweile von fast allen gemacht, die ganz ganz blöden artikel sind eig. auch schon fast verschwunden, im letzten jahr wurde sogar auf twitter (sic) beschlossen, dass man sich ja auch gegenseitig verlinken könnte, usw. aber man spürt doch deutlich, dass alle zusammen in jeder faser ihres seins das web als einen zu bekämpfenden eindringling empfinden, für den es antikörper auszubilden gilt, und nicht als vor den eigenen augen aufgehenden möglichkeitsraum, in dem man sich auf ganz anderem niveau neu erfinden könnte – was natürlich auch eine option gewesen wäre. konkret etwa: rücksichtsloses leistungsschutzrecht mit unabsehbaren externen kosten statt neugier und erforschung.

das ist natürlich eh klar und nix neues, allein es war zumindest mir nicht klar, warum. und beim warum vor allem die frage, warum gerade die deutschen qualitätszeitungen, denen ja ansonsten durchaus und noch immer ein weltniveau zugeschrieben werden kann, bei ihrer beschreibung des entstehenden webs so daneben war und noch immer ist, während die kollegen bei der nyt, der washington post, des guardians diese macke nicht oder in deutlich kleinerem ausmaß hatten.

beim retro egoing bin ich dann aber über plastilin aus dem jahr 2006 gestolpert und retrospektiv bekommt dieser kleine text eine neue bedeutung, die dann zumindest eine erklärung mit gewisser plausibilität ermöglicht:

Web 2.0 ist ein plastischer Begriff. Die Bedeutung ist nicht festgelegt oder fixiert, sondern muss gewissermassen von jedem für sich selbst erarbeitet werden. Es gibt keine ultimative Referenz oder Definition. Die Aussagekraft des Begriffes hängt deshalb also von der Arbeit ab, die man selbst hineinsteckt. Wer es sich leicht macht (wie etwa ein Großteil der Massenmedien, wo ein Journalist mal schnell irgendwas zusammengesampelt hat und die anderen die immer gleichen Ressentiments, Vorurteile und 5 Paradebeispiele von Firmen dann abgeschrieben und weitergetragen haben), der agiert dann mit einem einfachen, aber eben auch undifferenzierten Begriff, der dann halt tatsächlich auch wenig bzw. nichts bringt.

Das bedeutet nicht, dass man Web 2.0 beliebig definieren kann – zumindest wenn man mit anderen kommunizieren will. Web 2.0 entsteht sicherlich irgendwo als Beschreibung der Ensembles von neuen Möglichkeiten, die die zunehmende Ausdifferenzierung der beteiligten Systeme (Mensch und Maschine, Soziologie und Ökonomie, …) und deren Zusammenspiel, zunehmende Interpenetration und Koppelungen, etc. ermöglichen. Je nach Interesse machen dabei unterschiedliche Beobachtungspostionen Sinn, man sollte aber im Hinterkopf behalten, dass es immer auch andere gibt. Wer Tomaten auf den Augen hat und glaubt, da sei überhaupt nichts ausser einem Buzzword oder Hype, dem kann man auch nicht helfen.

^ plastilin

(nts: mich öfter selbst zitieren)

in den deutschen medien gab es aber von anfang an nur eine retrospektiv fast schon als debil zu bezeichnende differenziertheit der begrifflichkeiten rund um das web, die sie in der folge bis heute nicht wirklich verfeinert haben. das web war ein einziger container, in den dann einfach alles geworfen wurde bzw. eben in ermangelung genauerer begriffe geworfen werden musste, was nur irgendwie im web stattgefunden hat. nur als beispiel: der begriff internetcommunity oder die differenz internetbefürworter/-kritiker sind beides völlig sinnlose abstraktionen, die nicht nur nichts erklären, sondern die sogar falsches suggerieren. es gibt keine internetcommunity, es gibt nur x-millionen konkrete individuen mit je spezifischen und wiederum konkreten situationen, motivationen und hoffnungen, die einen zugang zum internet haben und damit ihr leben (ihr eigenes, das ihrer freunde, das der gesellschaft) ergänzen und hoffentlich bereichern oder auch nicht.

gepaart mit diesen wenigen, viel zu grossen und oft falsch gewählten containern oder begrifflichen schachteln war eine vorzeitige und durchaus als ignorant zu bezeichnende festlegung auf einen x-beliebigen anwendungsfall mit einem y-beliebigen bewertungskriterium. blogs wurden als internettagebücher abgetan (das ist auch die erklärung 2013) und ausschliesslich in ihrem wert als alternativer journalismus bewertet, dabei sind blogs ganz einfach aber auch nicht weniger als die summe aller realisierten möglichkeiten1 vom format blog. und wasauchimmer das sein mag, es ist zumindest der möglichkeitsraum, der entsteht, wenn jeder mensch, der will, öffentlich publizieren kann, was er will, ohne davor irgendwelche prozesse durchlaufen oder redaktionelle filter passieren zu müssen, wasauchimmer das dann bedeutet (wie immer: alles innerhalb der filigranen prozesse einer vernetzten ökonomie der produktion, rezeption und distribution, die halt auch nicht immer so ablaufen, wie man sich das wünschen würde). twitter wiederum wurde die längste zeit als narzisstisches miniinternettagebuch (was ich gerade esse) abgetan (und wen interessiert das?), während auch twitter natürlich nichts weniger als die summe aller realisierten möglichkeiten vom format ‘vernetzt sozialisierte 140 zeichen’ ist, wasauchimmer das wieder sein mag, mitunter ist es jedenfalls auch ein infoökonomischer durchlauferhitzer für alles, was eine URL hat, weil man die ja (gerne auch annotiert) twittern kann, ein sozialer sechster sinn und vieles mehr.

es bleibt natürlich die frage zu beantworten, wie und warum sie – entgegen allen empirischen offensichtlichkeiten und trotz von anderen kulturkreisen durchgekauten diskursserien, an denen man sich orientieren könnte – in der folge doch erstaunlich undifferenziert und lernunfähig geblieben sind bzw. bleiben konnten. es ist ja nicht so, dass man die wichtigsten aussagen nicht einfach nachlesen könnte. es reicht ja schon kelly und techdirt und vl. noch shirky zu lesen und man hat zumindest pareto-mässig das wichtigste auf dem radar.

eine mögliche und durchaus wahrscheinliche antwort findet sich in einem der lieblingsthemen der zeitungen: der filter bubble. übersehen haben sie bei ihrem abfeiern der bubble jedoch, in welchem noch viel grösserem umfang das auf sie selbst zutrifft. journalisten lesen – zumindest wenn es um das thema web geht, in anderen feldern schaut das hoffentlich anders aus – tatsächlich nur andere journalisten, und dann vl. noch einige wenige andere mögliche quellen, wenn sie sich auf die irgendwie als ‘experten’ beziehen können. aufwandstechnisch ist das sinnvoll: man erspart sich das denken oder ausprobieren (ausprobieren ist überhaupt eine sehr unterschätzte technik, dabei ginge das besonders im web oft recht einfach; nachdenken eigentlich auch), die verifikation der aussagen wird einfach zum experten oder eben anderen journalisten ausgelagert, passt! das problem dabei: man schottet sich von sämtlichen inputs von aussen ab und alle lesen, schreiben und glauben das gleiche und das wie gesagt auf niedrigstem niveau. (man sieht das ja auch am nennen der quellen. wenn überhaupt jemals auf die idee eines blogs zurückgegriffen oder ein thema aus der blogosphäre aufgegriffen wird, dann wird das entweder überhaupt verschwiegen, oder es wird ein ominöser, vl. bekannter ‘blogger’ ansonsten nicht weiter benannt und üblicherweise ohne link referiert. ausgeborgte fotos oder videos werden mit quelle: flickr oder quelle: youtube aber nie namentlich attribuiert geschweige denn konkret verlinkt, usw.)

auch hier versteht man zumindest das motiv: ihre macht besteht in der entscheidung etwas zu benennen oder zu verschweigen, und sie sichern sich selbst primär dadurch ab, eben alles andere zu verschweigen und nicht in die welt zu schreiben (und dadurch gar als wesen auf gleicher augenhöhe zu betrachten). was sie dabei aber übersehen, ist, dass sie sich selbst dadurch über die hintertür ein viel grösseres problem einhandeln, weil sie auch das gute nicht hineinlassen und also nur in ihrem eigenen sud dahinkochen (leider sind sie kein gulasch). das geht in deutschland, weil sie keinen grossen wettbewerbsnachteil haben, weil die anderen auch nichts anderes machen, aber im internationalen vergleich verlieren sie natürlich zunehmend den anschluss – was übrigens auch für den wirtschaftsstandort deutschland ein problem wird, zumal sich die deutschen politiker ausschliesslich an den deutschen medien orientieren und überhaupt nicht ahnen, wie sehr deutschland in sachen internet schon hinterherhinkt und wie lächerlich sich deutschland mit themen wie leistungsschutzrecht, gema, verpixelung, etc. international macht und wie sehr das dem über jahrzehnte durchaus zurecht aufgebauten image als innovativ, fortschrittlich und technologiefreundlich schadet. der schaden ist, nur so dahingesagt, wohl dutzende oder auch hunderte male grösser, als alles, was ein etwaiges lsr jemals von google abzwicken können wird, weil ich mir auch als eric schmidt oder marc zuckerberg oder beliebiger anderer ceo eines techunternehmens denken würde, was sind denn das für hinterwäldler, usw., aber das ist wirklich ein anderes thema.

bleibt die frage, ja gut, gähn, aber warum jetzt diese plattitüde und/oder tirade? eigentlich nur deshalb, weil es doch ein schönes beispiel für den wert einer erbsenzählerisch/analen kritik an (aber eben auch ein plädoyer für die entwicklung von) begrifflichkeiten ist, die uns dann doch mit dem web gesteigert entweder zum nutzen kommen oder eben auch in den arsch beissen werden, weil sich dort fast alles auf der ebene des symbolisch vermittelten imaginären abspielt – die begriffe wirken sich dann auch ganz real aus. und weil es eben auch ein schönes beispiel für eine art ethik der begriffe ist, die die richtung der feedbackloops quasi eingebaut hat, nur ist das noch nicht bei allen angekommen. und weil es aber auch bedeutet, dass man sich nicht nur die ‘bösen’ sondern auch die ‘guten’ begriffe etwas genauer anschaut und dekonstruiert, weil uns gut gemeinte aber ungenaue ‘gute’ begriffe (offenheit, …) ebenso wenig weiterbringen.

1 es gibt bei dingen natürlich immer: (1) einen grundsätzlichen allgemeinen möglichkeitsraum, den tautologischen raum aller möglichen möglichkeiten, (2) als subset davon das zu einem gegebenem zeitpunkt realiserbare latente potential, (3) als subset davon die zu einem gegebenem zeitpunkt konkret stattfindenden und also empirisch wahrnehmbaren realisierungen dieses potantials; nicht alles was möglich wäre wird realisiert, und (4) die geschichte und geschichtliche ausdifferenzierung dieser verläufe aka das dispositiv, das wiederum auf (2) und (3) einwirkt. ich verkürze das hier auf (3).

(abt. supermarket studies)

Die Überwinder ist ein in letzter Zeit häufig gesehener Zeitgenosse, der sich dadurch auszeichnet, dass er sich selbst als Vertreter (oder auch nur ungewollter aber jedenfalls Teil) einer neuen, digitalen Formation sieht, die im Begriff ist, eine alte, analoge Formation abzulösen. Der Ablösungsprozess selbst wird dabei als mitunter durchaus kämpferisches Handeln für die revolutionäre Sache innerhalb einer allerdings natürlich gesehenen Evolution von etwas Einfacherem zu etwas Besserem gesehen, wobei sich die alte Formation aber durchaus auch wehrt, also zu überwinden gilt.

Die dabei produzierten Aussagen sind dabei oft gar nicht falsch, das Problem seh ich eher darin, dass sich die Position für den eigenen Blick von Anfang an in einem weniger fruchtbaren Gegensatz verfängt, was in der Folge dazu führt, von Anfang an weniger fruchtbare Unterscheidungen aufgedrängt zu bekommen, die man dann kaum mehr los wird. Oft sind das eben genau die alten, eigentlich zu überwindenden Differenzen, die sich dadurch quasi in den Blick selbst hineinretten.

(das spektrum der überwinder reicht natürlich von der liebenswerten dumpfbacke bis zum zynisch-pragmatischen vollprofi, der genau weiss, dass er sich damit (und eig. nur damit) am effizientesten sein massenmediales scheinwerferlicht abholen kann)

((ein subtypus ist übrigens der selbstüberwinder, ein überwinder, der aber zumindest ein bisschen mit sich ringt und irgendwie kurz davor steht das überwinden selbst zu überwinden. ein interessantes beispiel dafür ist der auf g+ dokumentierte schreibprozess vom bildungsbuch von yuri m lotman. kein expose – etwa heute – kommt ohne die tropen ‘früher wars mal so (langsam, zeitlich begrenzt, bürokratisch, verkrustet, …), aber jetzt geht das nicht mehr, jetzt läuft das so (schnell, lebenslang, graswurzelig, verflüssigt, …)’ aus, aber man spürt gleichzeitig auch das unbehagen mit sich selbst und gwm. ein dahinter der begriffe))

(abt. supermarket studies)

(was ich immer sinnloser empfinde, ist diese unterscheidung analog/digital; vl. noch für vertriebler und marketingler interessant, semiotisch aber völlig irrelevant)

Der immer leicht Danebene ist ein eher seltener Zeitgenosse, der sich dadurch auszeichnet, dass er mit seinen Aussagen, seinem Verständnis und seinen Schlussfolgerungen immer leicht daneben liegt. Wenn man so will sieht und denkt er nicht unscharf, hat also keine falsche Brille auf der Nase, aber einen leicht verzogenen Diopter.

(für mich ist das paradigmatische beispiel für den immer leicht danebenen alexander kluge’s stimme aus dem off bei den dctp sendungen; er ist eine quelle für – oder eig. ein strom an – assoziationen, verknüpfungen, ableitungen und verdichtungen, aber je ‘rigoroser’ sein jeweiliges gegenüber denkt, desto mehr muss es sich lustigerweise winden, den gedankengang wieder einzufangen, bevor die schlussfolgerungen dann wieder losgaloppieren)

(für systemische ausdifferenzierungen ist der immer leicht danebene wichtig, weil er anschlusskommunikation ermöglicht/erfordert und weil er verbindungen herstellt, die es eigentlich nicht geben dürfte)

(abt. supermarket studies)

Eine weitere besonders nützliche Unterscheidung ist ganz sicherlich die Unterscheidung: auf welcher Ebene befinde ich mich mit meinen Unterscheidungen (meta!) und Beschreibungen und was bedeuten die diagnostizierten Effekte und Gesetze eigentlich eine Ebene darüber oder darunter?

(systemtheoretisch stellt sich diese frage natürlich nicht, weil in den systembeschreibungen davon ausgegangen werden kann, dass die jeweiligen systeme ihre selektionsroutinen usw. selbst generieren, da ist es wenn als strategische kalkulation der möglichen umweltreaktionen relevant, das für sich durchzuspielen; die vorgeschlagenen unterscheidung meint eher die groben vertikalen schichten; und da vermute ich, dass von vielen auf der einen ebene stattfindenden prozessen, beschleunigungen und potentialitäten oft – sicher nicht immer, es gibt natürlich eine ganze palette der möglichen interpenetrationen und nichtlineare relationen wie tipping points – auf der anderen eigentlich wenig übrigbleibt, zb weil die betrachtete ebene das phänomen ganz gut einkapselt; sprich: manche dinge wirken zwar unglaublich interessant, sind aber schon eine ebene höher völlig irrelevant)

(abt: draw the distinction!)

« vorher