hackr.de hackr logo abt. featured

die romantische komödie


10 Jahre live.hackr

live.hackr feiert heute seinen 10. Geburtstag!

Einen herzlichen Dank an alle, die hier immer noch vorbeischauen, ohne euch wäre es nicht so lustig!

(ich empfehle ja niemandem zu bloggen, einfach weil es für die damit assoziierten kommunikationsakte mittlerweile mitunter deutlich bessere plattformen gibt; anders gesagt: wer nicht selbst weiß, warum er selbst ein blog betreiben sollte, statt zu twittern, zu redditen, zu tumblrn, zu instagrammen, zu facebooken, zu medium’en, für die exzentrischen auch statt zu plussen, zu appen oder zu elloen, wer also nicht selbst weiß, warum er auf die dort jeweils angebotenen karotten verzichten wollte, der fährt auf den spezialisierten plattformen ohnehin besser, für den ist der aufruf zum bloggen eher fahrlässig. ein unbestreitbarer vorteil vom bloggen ist allerdings, dass doch so einiges zusammenkommt, wenn man ein paar jahre dranbleibt, dass eine art bau entsteht, der seine eigenen gesetzmässigkeiten entwickelt und serien triggert, in dem es seine eigenen gänge und verbindungslinien und abkürzungen und transversalen gibt. nur ein paar beispiele:

serien wie

oder sammlungen wie

oder selections wie

auf der startseite gibt’s eine art inhaltsverzeichnis mit den größeren gängen. das ist zugegebenerweise nur für einen selbst interessant, aber es fällt ja als nebenprodukt einfach an und erzeugt im laufe der zeit die möglichkeit von zunehmend komplexeren strukturen, während der output auf plattformen ja die halbwertszeit von ein, zwei wochen wenn nicht ein, zwei tagen hat)

meta 01.07.2015 #

The Strain

kl. nachtrag zu curate or die: die nyt hat vor kurzem ja von ihren kollegen viel bewunderndes kopfnicken geerntet, weil sie intern mal eine woche den zugang zur eigenen desktop-version gesperrt hat, damit alle ihre mobilen gerätschaften verwenden müssen und dadurch quasi gezwungen werden, sich in die mehrzahl der leser zu versetzen und die kommende ‘bedeutung’ von mobile zu verstehen.

ich glaube als experiment machen sie da etwas sehr richtiges, aber ich bin mir ziemlich sicher, dass sie daraus die falschen schlüsse ziehen werden, weil sie bei ihren bestehenden grundsätzlichen annahmen bleiben werden. und die axiomatische annahme aller verlage ist, dass es einerseits eine grundstätzlich gegebene nachfrage nach journalistischen inhalten gibt und dass sie andererseits die gottgegebenen produzenten ebendieser journalistischen produkte sind.

diese im papierzeitalter quasi seine perfekte realisation gefunden habende natürliche ordnung erlebt aus diesem blickwinkel zuerst mit dem internet/web und dann mit mobile zwar eine krise der verkauf- und verwertbarkeit, aber die struktur der ordnung selbst wird nicht in frage gestellt. wer kein zeitungspapier mehr liest, der hat vor 10 jahren die zeitung als startseite im browser gehabt, mehr web braucht man nicht; und wer kein zeitungsportal mehr liest, der verwendet google um zeitungsartikel zu finden oder facebook, um sich von den freunden zeitungsartikel empfehlen zu lassen und darüber zu diskutieren; und wer nur noch ein handy hat, der verwendet es um sich in der strassenbahn oder im park mit zeitungsartikeln über die geschehnisse zu informieren.

das medium, wie die leserschaft das eigene angebot konsumiert, wandelt sich und die aktuellen trends (omg, mehr und mehr mobile) erkennt man im analyse-tool der wahl, aber die struktur und die aufgabe resp. position der beteiligten parteien bleibt konstant.

für die zeitungsmacher ist zu jedem zeitpunkt ganz klar, dass sie der fixpunkt sind, um den die welt sich dreht. und der typische deutsche verleger geht zusätzlich auch noch davon aus, dass ihnen google, facebook und twitter einfach alles zu verdanken haben, dass leute nur auf google gehen, um die verlagsinhalte zu finden, dass leute nur auf facebook und twitter gehen, um dort verlagsinhalte zu teilen, usw. (aus dieser sicht sind so dinge wie das leistungsschutzrecht oder die forderung nach 11% vom umsatz von google zumindest nicht mehr wirr oder wahnhaft, sondern einfach kontrafaktisch grundbegründet.)

die neuen umstände werden also immer nur als fragen der form und der distribution und der monetarisierbarkeit behandelt, was nicht gestellt wird, ist die frage nach dem eigenen sinn und den neuen umständen selbst. aber der eigene sinn ist vielleicht fragiler, als nicht nur von ihnen angenommen wird.

was wie eine evolution von ‘trends’ im konsum von nachrichten ausschaut – leute lesen sie zuerst auf papier, dann auf dem portal, dann auf facebook, dann auf dem handy – müsste nämlich eher als ganz grundsätzlich neuentwicklung des gesamten ‘dispositivs’ unter grundsätzlich neuen bedingungen bewertet werden, für das alles andere als klar ist, was dort funktionieren kann und wie das funktionieren wird. die welt versucht gwm. gerade herauszufinden, wie sie ausschauen würde, wenn es das web und mobile immer schon gegeben hätte.

man kann aber fast davon ausgehen, dass der ‘journalismus’ wir wir ihn kennen retrospektiv betrachtet eher wie ein historischer zufall ausschauen wird, als wie eine gegebenheit, die nur ein zeitgemäßes gefäß suchen muss. man braucht ja nur die perspektive auf die entwicklung zu wechseln: leute haben zeitungen nur solange gelesen, solange es nichts gab, was leichter und gleichzeit gut genug war (online portale); und leute haben die zeitungsportale nur solange als startseite benutzt, solange es nichts gab, was leichter und gleichzeitig gut genug war (facebook); und auf facebook nehmen die leute die nachrichten bestenfalls noch hin, ein bisschen informiert werden und synchronisation mit der welt ist ja nicht schlecht, aber sie sind doch nicht der grund, um auf facebook zu gehen, die leute interessieren sich für sich selbst und ihre bekannten und verwandten; anders gesagt: zeitungen konnte es nur deshalb geben, weil es damals noch kein facebook gab.

und die radikalste transformation deutet sich natürlich gerade mit dem übergang zu mobile an, weil damit zwar auf der einen seite ein universeller und permanenter zugang für alle gegeben sein wird, gleichzeitig aber ganz grundsätzliche begrenzungen der komplexität des ‘rezipierten’ etabliert werden, die aber natürlich immer noch gut genug sein werden.

die leute waren gwm. jahrzehntelang zu ihrem journalistischen ‘glück’ gezwungen, aber sie haben jede möglichkeit zu was einfacherem auch immer sofort genutzt, sobald sie sich ergeben hat. der journalismus in der uns bekannten form ist also eine reine historische kontingenz, die zwar gesellschaftlich wünschenswert ist, aber niemanden wirklich interessiert.

selbst beim am weltgeschehen interessierten bildungsbürger ist die disposition grundsätzlich anders, wenn er eine mobile gerätschaft verwendet. auch wenn es theoretisch natürlich möglich ist, auf dem iphone täglich ein potpourri an kritischen, gesellschaftspolitischen, analytischen longreads zu lesen, die form und die disposition verstärkt natürlich alles snackbare und unmittelbar intensive, also die snapchats und whatsapps, die vines und instagrams, die tweets mit animierten katzengifs.

(nur am rande: gerade deshalb ist es so absurd, dass die verlage mit aller gewalt gegen google kämpfen aber apple und facebook in den arsch kriechen, weil google gwm. der einzige kanal ist, über den sie intentional offene, weil eben genau nach dem thema suchende besucher bekommen. alles was sich über sharing aufschaukelt oder ausdifferenziert ist zwar viel ‘erfolgreicher’, muss aber auch mit einem gähnenden wegwischen nach 2 sekunden rechnen)

aber um zur ausgangsthese zurückzukommen: die frage ist natürlich, was die richtigen schlüsse auf das experiment der nyt sein könnten. und das wird ein harter knochen, weil das baumaterial nur der sinn sein kann.


Durchschnittlichkeit und Zufriedenheit

‘mögen deine wünsche in erfüllung gehen’ ist ja einer dieser chinesischen flüche, die sich früher oder später besonders hinterlistig bewahrheiten – und am umstand, dass es durch das vom web bedingten unbundling und microchunking zu einer strukturellen krise der durchschnittlichkeit, besonders zu einer krise des durchschnittlichen textes kam, ist vielleicht einer der hinterlistigsten bewahrheitungen.

wir erinnern uns: neben dem hypertext, also der möglichkeit zur vernetzbarkeit von texten, was der grundsätzlichen kern vom web ist, war die damit verbundene entkoppelung der textfragmente von ihrem kontext, die das freie flottieren und beliebige rekombinieren und reaggregieren von texten, informationen, gedanken und also ein genuin neues dispositiv ermöglicht, die zentrale metapher und wunschvorstellung für die zukunft von text.

was auf semiotischer ebene jedoch wie ein paradies klingt, hat nicht mit den psychologischen resp. infoökonomischen nebeneffekten gerechnet.

ganz allgemein gesagt sind menschen relativ unkomplizierte und leicht zufriedenzustellende lebewesen, die mit durchschnittlichkeit gut leben können, solange das gesamtpaket stimmt. ein, zwei goodies reichen aus, um der gesamten restlichen durchschnittlichkeit zumindest den notwendigen hauch von wertigkeit zu verleihen.

(durchschnittliches als angenehm empfinden zu können ist übrigens alles andere als ungeschickt, weil es nicht nur naturgemäß viel mehr durchschnittliches als besonderes gibt und man sich also über viel mehr im leben freuen kann, sondern weil das durchschnittliche in den allermeisten fällen auch völlig ausreicht. dieser von der werbung erzeugte wahn immer nur das allerbeste zu wollen ist aber ein völlig anderes thema).

bündel und pakete sind jedenfalls notwendige formen, uns viele durchschnittliche einzeldinge als angenehm wahrnehmen zu lassen und uns zufrieden zu stellen. bricht man die bündel jedoch auf, liegen die dinge plötzlich isoliert vor uns und müssen also einzeln beurteilt, bewertet und empfunden werden. das hat natürlich gegenüber dem bündel einen riesigen vorteil – man kann sich die rosinen aus dem kuchen picken (wenn man rosinen mag, ansonsten kann man sich den kuchen aus den rosinen picken), es hat aber auch eine ganze reihe an nachteilen. die notwendigkeit plötzlich alles einzeln beurteilen, bewerten und empfinden zu müssen ist nicht nur aufwendig und belastend, die davor geniessbare durchschnittlichkeit verliert entbündelt sogar ganz grundsätzlich den zugang zu diesem naiven genuss und muss sich plötzlich die frage gefallen lassen, warum man nun gerade es und nicht etwas anderes lesen soll, usw.

die zwei paradigmatischen formate, die mit dem internet entbündelt und in die einzelnen bestandteile zerlegt wurden, sind natürlich zeitungen und LPs.

bei LPs sind die effekte jedem musikliebhaber bekannt: das snacken nur an den ‘besten’ songs eines albums ermöglicht zwar viel mehr streuung, discovery und durchschnittlich eine viel höhere einzelintensität der gehörten tracks, aber es geht auch der persönliche bezug verloren, den man etwa in den kleinen aha momenten entwickelt, wenn ein song, den man bis dato völlig ignoriert hat, plötzlich der lieblingssong eines albums wird usw. (natürlich funktioniert das nur bei alben, die wirklich als solche bestimmt sind und denen das auch gelungen ist, aber guten musikern gelingt das oft). das vermeiden der durchschnittlichkeit und die erhöhte intensität der einzelstücke macht gleichzeitig den hörer selbst unzufriedener, weil er fortan immer auf der suche nach etwas besserem sein muss. die sehnsucht nach dieser bindung an etwas vorgegebenes erkennt man ja am comeback von vinyl.

und bei zeitungen sind die effekte allen ausser den zeitungsmachern bekannt: ein davor wirklich großartiges papierbündel zerfällt zu einem losen haufen an artikeln, die fast alle durchschnittlich und nicht besser oder schlechter als die artikelhaufen aller anderen zeitungen sind und für den leser also eine einzige infoökonomische zumutung sind (für den übergang vom wertvollen bündel zum wertlosen haufen können die zeitungen nichts, ihre plötzliche wertlosigkeit war gwm. höhere gewalt; woran sie allerdings selbst schuld sind, ist, dass sie die situation und ihre position nicht verstehen, den kopf in den sand stecken und dort dann versuchen, ein liedchen zu pfeifen). die wirklich einmaligen artikel, die eine zeitung an einem tag erzeugt, die man also nicht gleichwertig überall sonst findet, dürften sich im einstelligen, bei wochenzeitungen vl. im zweistelligen bereich befinden und die muss man natürlich auch erstmal finden.

aber interessanter als die krise der texte der zeitungen ist der umstand, dass dieses verhältnis jede art an text betrifft und sich früher oder später also direkt in den text selbst einschreibt. es hat eine zeit lang gedauert, bis wir das bemerken können, weil sich natürlich auch die produktions- und rezeptionsbedingungen anpassen müssen, durch die verstärkung dank social media wird die logik jedoch langsam sichtbar:

damit durchschnittliche texte, die bisher ein perfekt feines dasein als füllstoff führen konnten, im haufen aller aufgelösten artikel aller einen funken wert behalten können, müssen sie jetzt auf irgendeine art auch isoliert und autonom funtionieren. und dafür gibts zwei primäre möglichkeiten: entweder sie stiften selbst ‘sinn’ für den leser, enthalten zumindest etwa eine nützliche information; oder sie erzeugen eine ‘erregung’, also das kompakte gefühl eines lols, oder wins, oder omgs, oder cutes, oder fails, oder wtfs.

und woran erkennt man, ob ein text ‘sinn’ oder ‘erregung’ erzeugt? genau, er wird geshared. wenn ein text im web von niemandem geshared wurde, wurde er dann überhaupt geschrieben? der verbliebene wert von durchschnittlichen texten im zustand der entbündeltheit zeigt sich also in der sharebarkeit.

das ding jetzt ist natürlich, dass sinn nicht nur viel schwerer zu produzieren ist, es erfordert auch viel mehr aufwand vom leser, ihn zu erkennen, und es ist auch viel riskanter ihn zu sharen. und dass erregungen andererseits nicht nur viel leichter erzeugt werden können als sinn, erregungen können auch viel schneller aufgeschnappt werden und erzeugen also auch viel eher anschlusskommunikation und selbstverstärkung in den sogenannten erregungswellen. ich habe oben die lols, wins, omgs, usw. als qualifizierer von erregungen nicht zufällig von buzzfeed zitiert – sie zeigen, wie präzise buzzfeed diese logik schon vor langem erkannt hat und deshalb nur noch genau diese art von texten produziert. buzzfeed ist eine maschine zur produktion und distribution der letzten durchschnittlichen texte, die noch verwertbar sind.

die zeitungen, zumindest die qualitätszeitungen, haben nun natürlich das problem, dass sie in ihrem selbstverständnis die produzenten vom sinn sind und die produzenten von erregungen gwm. verachten müssen und sie sich dadurch quasi auf diese eine position festlegen; gleichzeitig produzieren sie natürlich in realität deutlich mehr (unsharebaren und austauschbaren) fülltext als sonstwas, erzeugen also viel weniger leistung, als sie es in ihrer selbstwahrnehmung glauben; nur müssen sie auch ihren kollegen von buzzfeed dabei zuschauen, wie die ganz ungeniert eine wissenschaft der verpönten sharebaren erregungen entwickeln können und ihnen die PIs, die aufmerksamkeit und die werbegelder und fast den ganzen kuchen wegknabbern.

von dieser logik sind natürlich auch die blogs betroffen. auch die konnten in den ersten 10, 15 jahren gut mit durchschnittlichem fülltext leben, weil es mehrere kontexte gab, die den fülltext im ‘bündel’ rezipierbar machten. einerseits gab es (imaginierte) communities wie antville oder twoday, andererseits gab es feedreader wie den google reader oder netvibes, die die abos der feeds zu einer personalisierten superzeitung rekontextualisierten. im aufgelösten zustand haben blogs aber das gleiche problem wie die zeitungen: die durschnittlichen posts, wenn wir ehrlich sind also fast alles was wir produzieren, sind im haufen aller posts aller völlig wertlos. im grunde gibt’s dann nur 2 strategien: man produziert selbst shareables (socialismus), oder man erzeugt sich seinen eigenen kontext im eigenen gesamtwerk und tut so als wär das jetzt so (solipsismus). wem das eine zu blöd und das andere zu anstrengend ist, der hört dann halt auf zu bloggen und wechselt vielleicht zu einer plattform wie tumblr oder medium, wo man ein bisschen kontext von der plattform spendiert bekommt und gleichzeitig in die eine oder andere richtung ‘gelenkt’ wird (erregung bei tumblr, sinn bei medium).

(überhaupt ist es natürlich nicht so, dass der durchschnittliche text seine funktion für immer verloren hat. ich habe das nur nicht betont, weil ich sonst jeden punkt relativieren hätte müssen, und dann aber auch die relativerungen relativieren hätte müssen, weil sie auf tektonischer ebene trotzdem wieder egal wären, es hätte alles jedenfalls unnötig verkompliziert. aber die entbündelung hat nicht nur opfer, sondern erzeugt naturgemäß auch einen neuen möglichkeitsraum für tools, plattformen, communities (fast alle funktionierenden tun das letztendlich) etc. dafür, eigene, neue kontexte für text zu erzeugen, innerhalb derer dann auch die durchschnittlichen texte wieder einen platz bekommen können, ohne dass diese sich selbst beweisen müssen. wie fast immer kann man sich einfach anschauen, was funktionert.)

nur am rande beobachtet ist doch lustig, dass wir gerade mit der krise der durchschnittlichkeit den von den poststrukturalisten vor 50 jahren diagnostizierten verlust der autorschaft konkretisiert bekommen. nur, wie so oft, kommt es anders als damals gedacht: die neuen kleinformate transzendieren nicht nur den autor, sie schreiben sich wörtlich genommen tatsächlich selbst und brauchen die readaktionellen prozesse inklusive aller beteiligten menschen und software nur noch als organisatorische struktur. moderne redakteure tun ja im grunde nichts anderes als texten eine erste form zu geben und diese dann solange anzupassen, bis die roten lämpchen, die auf schlecht formulierte überschriften, hohe absprungraten nach dem ersten satz, falsche keywords, geringes sharementum, etc. hinweisen, nicht mehr rot blinken und der text also seine objektive form gefunden hat. paradoxerweise sind es deshalb ausgerechnet die roboterjournalisten, die den ethischen anspruch auf autorschaft am reinsten repräsentieren.

meta 22.05.2015 #

598425890696073216 Revisited

kl. nachtrag zu 598425890696073216 – zumindest eine erste iteration, die sich lustigerweise aus der überschneidung mit einem anderen tweet ergibt, den ich am gleichen tag aber in einem völlig anderen kontext (verizon schluckt aol) getwittert hatte:


um die zwei tweets zusammenzubringen, sollte ich zwei dinge erwähnen:

(1) einer der größten, wenn nicht der größte im allgemeinen ausgemachte feinde des offenes webs sind projekte wie facebook zero oder internet.org, also konstrukte, die ein kontrolliertes subset an webseiten oder apps kostenlos offerieren, um der nächsten milliarde menschen zugang zum internet zu ermöglichen. was sich als akt der nächstenliebe gibt, ist jedoch, so die verteidiger des offenen webs unisono, nichts anderes als die ausbeutung ökonomischer benachteiligung, die nur neue user einfangen und an sich binden und damit das eigene wachstum anheizen will, also digitaler imperialismus (und wem das nicht reicht nachtürlich auch eine freche verletzung der netzneutralität, aber um das geht es hier nicht). und ihr plan geht auch noch auf, viele der so angelockten glauben dann sogar, facebook sei das internet. statt im offenen web zu publizieren, verkaufen sich diese armen seelen an facebook und landen im vorraum zur hölle.

(2) compuserve war anno dazumal, also plus/minus vor 20 jahren, neben aol die einfachste möglichkeit, mit einem macintosh zugang zum internet und email zu bekommen. es gab auch schon einige websites und der netscape navigator war gerade neu und hip, aber ein grosser teil des nutzens war zunächst das angebot, das compuserve bereitstellte. über die uni hatte ich dann bald auch ein bisschen webspace und zugang zum usenet und unter der ägide von hotwired und webmonkey dann irgendwann auch ein rudimentäres verständnis von html und framesets, aber die möglichkeiten von compuserve hat meine erfahrung mit dem internet in den ersten jahren weitgehend dominiert. und auch wenn ich dann quasi das web ‘mitbegleitet’ habe, bis zu meinem eigentlichen knacks im kopf dauerte es dann weitere 10 jahre.

der punkt dieser zweiten, zugegebenerweise schon etwas verstaubten geschichte ist, dass die erste geschichte nicht notwendigerweise den dystopischen verlauf nehmen muss, von dem alle ausgehen. wer in einem geschlossenen garten aufwächst, muss nicht notwendigerweise den rest seines lebens darin verbringen. menschen können lernen und zusammenhänge verstehen. manchmal fehlt nur eine einzige information. wer heute zb. glaubt, dass facebook das internet ist, dem muss nur einer einmal zeigen, dass das nicht der fall ist, sondern dass facebook im besten fall ein nützlicher und in jedem fall ein grosser wal in einem riesigen ozean namens web ist, das man mit etwas entdeckergeist dann selbst erforschen kann (ob das dann angenommen wird und denjenigen interessiert ist eine andere frage). und wir brauchen gar nicht so betroffen tun, noch vor 10 jahren haben hierzulande die meisten geglaubt, dass das internet dieses blaue ‘e’ am desktop ist.

ich will mit dieser anmerkung nicht die grundsätzliche korrektheit der kritik an facebook (und co) kritisieren und ich will die machenschaften von facebook (und co) weder relativieren noch legitimieren. was sie abziehen ist unterm strich eine riesige sauerei, vor allem deshalb, weil sie es auch ganz einfach auch anders andenken und umsetzen hätten können.

der fehler liegt nicht in der vorgetragenen kritik, sondern in der analyse und der bewertung, was das bedeutet. und eine hysterische bewertung (es ist ganz eindeutig das endgame, wenn wir jetzt verlieren, dann ist das offene web verloren, usw.) führt zu einer hysterischen überreaktion, die dann, wenn wir pech haben, mehr schaden anrichtet als der feind, wegen dem man überhaupt erst losgelegt hat.

(interessanterweise teilen die protagonisten eines offenen webs, hier fortan stellvertretend mozilla, und die ideologisch mehr oder weniger aus der gegenteiligen ecke kommenden verlage diesen schaum vor dem mund, wenn sie es mit google oder facebook oder apple zu tun bekommen; aber lassen wir hier die verlage einmal beiseite)

der allgemeine fehler von mozilla ist, vom offenen web kein ‘sinnverständnis’ zu haben, sondern den sinn in der vorhandenheit selbst zu sehen, was bedeutet, dass sie den erzeugten wert also nur am marktanteil messen können. alles, was von facebook (und co) aufgesaugt wird, ist ein verlust und die masse des von facebook aufgesaugten ist eine katastrophe. als reaktion bleibt ihnen also nur der ‘kampf’ um marktanteile und als grund für die beliebtheit von facebook (und co) ist ihnen leider nur eingefallen, dass der offene stack technisch unterlegen ist, was nur bedeuten kann, dass sämtliche apis der geschlossenen plattformen nachgebaut werden müssen, siehe den kleinen überblick ihrer aktuellen interventionen.

(man erkennt auch die wiederholung eines musters: als das soziale web der katalysator für das wachstum war, wurde im ‘social graph’ von facebook der zaubertrank gesehen, und die damalige erwartung war, dass man den nur offen nachbrauen muss, dann wird alles gut. wir erinnern uns an projekte wie open social, friend connect, portable contacts, chi.mp, diaspora, usw.)

der spezifische fehler in hinblick auf die ‘emerging markets’ neuer user, die gleich mit dem smartphone einsteigen, ist, dass die entwicklung als lineare, technik-getriebene evolution vom statischen über das soziale hin zum mobilen web gesehen wird, und den menschen innerhalb dieser entwicklung keine subjektivität oder möglichkeit zum widerstand oder zur reinterpretation zuzutrauen. wir sehen es ja bei uns, da kleben die jungen ja nur noch an ihren handys und chatten oder posten selfies statt zu bloggen oder die wikipedia zu verbessern. was wir bei uns erleben ist aber weniger eine evolution, sondern eine angleichung an das ‘natürliche’ kommunikative gleichgewicht unter den bedingungen vom mobilen internet, das halt erst jetzt möglich geworden ist, aber immer schon so veranlagt war. die phasen waren also, wenn man so will, in ihrem historischen ablauf notwendig, weil wir uns immer kollektiv an das gerade technisch machbare angepasst haben, aber einmal vorhanden verhalten sie sich, als wären sie immer schon da gewesen.

aber die technische ebene ist ja nicht die einzige. auch interessant ist mitunter, wie sich die technik / das web auf gesellschaftlicher ebene auswirkt – und da macht das narrativ der evolution einen u-turn. da sind dann plötzlich die apps des mobilen webs die primitive form, die halt (natürlich massenweise) private kommunikationsereignisse ermöglichen, die aber weder für die öffentlichkeit bestimmt noch für die gesellschaft nützlich wären. erst mit dem offenen und sozialen web bekommen wir einen viel interessanteren hebel, um gesellschaftliche probleme zu behandeln und gemeinsame lösungen auf sozialer sinnebene zu finden.

und hier muss man der kommenden ‘mobilen milliarde’ einfach zutrauen, dass sie ihre eigene entwicklungsgeschichte durchmachen und dabei vl. auf einem viel höheren niveau landen, als wir es bis dato geschafft haben, oder aber auch nicht. sie beginnen zwanzig jahre später und das dauert sicher ein bisschen zeit, aber der umstand, dass sie bei unserem ‘ende’ beginnen bedeutet eben nicht, dass sie dort bis in alle ewigkeit braten müssen.

(man erkennt übrigens die wiederholung eines weiteren musters: als etwa das ipad vorgestellt wurde, haben es die vertreter des offenen webs als zynische und infantilisierende konsumationsmaschine wahrgenommen und die kollektive volksverblödung befürchtet, siehe das offene web und seine feinde. gekommen ist es natürlich anders, nur das mangelnde vertrauen in die systemkraft der eigenen offenheit und die kreativkraft der menschen ist ihnen leider geblieben)

meta 18.05.2015 #

Quiz Pt. 97 Solution

Warum fällt es der Indiecrowd so schwer zu verstehen, dass sie es sind, die das materialistische/warenfetischistische Verständnis von Daten haben, und nicht die Plattformen?

Ich bin euch ja noch meine Antwort auf Quiz Pt. 97 schuldig:

Ich glaube die Wurzel des Nichtverstehens liegt in den tendenziell linken/liberalen Werten der Indiecrowd – dem Glauben an Offenheit, Freiheit, Gerechtigkeit, Autonomie, Demokratie, Bürgerrechten, Datenrechten, usw. Damit ausgestattet werden sie wiederholt mit Plattformen konfrontiert, auf denen Menschen Dinge tun und die mit hunderten Millionen, manche sogar mit dutzenden (Twitter) oder hunderten (Facebook) Milliarden bewertet werden.

Das weckt natürlich die Neugier und wenn man sich fragt, wo der Wert denn herkommt, wer ihn erzeugt, wer davon u.u. unrechtsmäßig profitiert, usw., dann landet man schnell bei der Diagnose, dass es – und ich beziehe mich im folgenden exemplarisch auf Twitter, das Prinzip lässt sich aber leicht auf die meisten anderen Plattformen übertragen – ein Produkt gibt (den Tweet), das von ganz offensichtlich unbezahlten Arbeitern produziert wird (den Usern), was in der Summe ein aggregiertes Ganzes ergibt, dessen Mehrwert sich die Betreiber dann fürstlich bezahlen lassen.

Ist man gedanklich einmal bei diesem Ausbeutungszusammenhang gelandet, kommt man nicht nur schwer wieder davon los, es beginnt auch eine Art warenfetischistische Überbewertung des Produktes Tweet. Sprich: der Tweet selbst wird als viel wichtiger und bedeutsamer und wertvoller imaginiert, als er eigentlich ist (in 98,2% aller Fälle ist es ein in 20 Sekunden abgesetzter Blurb mit 80 Zeichen und zwei Hashtags und/oder einem Link und/oder 6 Emojis).

Es wäre sicherlich interessant, sich die Arten der Übertragungen und Projektionen etwas genauer anzuschauen – mitunter geht es um Fragen der Kontrolle, vom Besitzanspruch, von der sogenannten Hoheit über die eigenen Daten, um die Ströme und Reaggregierbarkeit, usw. – hier relevant ist aber nur, dass der Tweet fortan als Ware und also die eigene Aktivität als Arbeit und also das Verhältnis als Ausbeutungsverhältnis konzipiert wird und dass man sich in dieser Schlinge umso mehr verfängt, je mehr man sich darauf fixiert.

Mein Vorschlag zur Kur wäre, Tweets nicht länger als Produkt mit einem (ohnehin nur solipsistisch imaginierten) Wert zu konzipieren, den dann ein anderer abschöpft, sondern funktionalistisch als Abfälle kommunikativer Akte zu verstehen, mit denen man Dinge erreichen will und/oder kann.

Man twittert aus reinem Egoismus, weil man seine Bekannten und Verwandten mit dem eigenen Geistesblitz beglücken möchte, weil man die Welt unbedingt über den letzten grenzgenialen eigenen Blogeintrag informieren möchte, weil man eine schnelle Frage hat auf die wohl einer aus der geneigten Verfolgschaft eine Antwort hat, uswusf.

Und man liest die Tweets der Anderen aus reinem Egoismus, weil es einen mit dem bekannten sozialen 6ten Sinn versieht, weil man über Ereignisse fast in Echtzeit informiert wird, weil man eine Injektion an Serendipity bekommt, die sonst kaum möglich wäre, weil man ein genuines Interesse an den Mitmenschen hat, etctrara.

Das Problem der Indiecrowd ist also grundsätzlich, dass sie gelegentlich bürgerliche Eigentums- und die damit verbundenen Kontrollverhältnisse konstruieren und darauf bestehen, wo es eigentlich um Kommunikationsverhältnisse geht und wo deshalb auf diese Kommunikationsverhältnisse optimierte Plattformen, auch wenn sie noch so geschlossen sind (funktional sind die meisten ohnehin offen), den auf Eigentums- und Kontrollverhältnisse optimierten Indieplattformen in der Gunst der Benutzer bei weitem überlegen sind. Benutzer verhalten sich üblicherweise halt funktional rational und nicht asketisch ethisch.

(nur zur sicherheit wie immer als faustregel: sei so indie wie möglich!!11 und backe alles up; aber beharre nicht auf dem indie wo es mehr schadet als nützt oder wo es irrelevant ist)

meta 05.05.2015 #

Lazy Blog Ep. 47

(blogpost über DAS fundamentale dilemma im derzeitigen web: den umstand, dass öfter als nicht das gesamte ‘web’ als beobachtungs- und bewertungsebene für dinge ausgemacht wird)

((was leider eine sinn- weil diskriminationslose abstraktionsebene ist, weil das web keine ontologische substanz ist oder hat, in der irgendwas stattfinden kann, sondern bestenfall die aggregierte summe aller einzelereignisse ist, die auf allen jeweils konkreten plattformen halt stattfinden. das zu unterscheiden ist deshalb wichtig, weil es eben keine allgemeine logik des webs gibt, sondern nur konkrete einzellogiken konkreter plattformen, die aber mitunter auch völlig verschieden sein und verschiedenste dynamiken triggern können))

(((nur als kleines beispiel, weil wir das in letzter zeit häufiger hören: die aussage ‘im web werden die umgangsformen immer barbarischer’ klingt zunächst völlig plausibel; man muss schon ein sehr behütetes dasein führen, wenn man noch nie über kommentare gestolpert ist, wo man sich nur fassungslos fragen konnte, wo man denn da gelandet ist. und gefühlsmässig weitet sich das tatsächlich auch in bereiche aus, die vor einigen jahren noch nicht betroffen waren. es breitet sich also aus, im netz, und da muss man was gegen tun.

das ding ist halt: die kommunikationskultur ist kein abstraktes phänomen, das im web seine ausdruckskraft sucht, kommunikationskultur entsteht immer nur als konkretes produkt auf konkreten plattformen. die gute nachricht dabei ist, dass sich damit das problem sofort zerteilt und dass es also viel leichter ist, die ‘pathologischen’ ereignisse auf plattformen zu isolieren und zu versuchen zu verstehen, was bei ihnen warum ‘schiefläuft’. die schlechte nachricht ist, dass trotzdem immer auch plattformen betroffen sein können, die das wirklich nicht wollen (etwa die kommentarspalten der qualitätszeitungen), oder die eingebaute verstärkungseffekte haben, die das ganze also auch noch multiplizieren (etwa facebook). die gute nachricht ist wieder, dass man das verständnis der plattformdynamik in die bewertung hinein fakturieren kann und man die tatsächliche signifikanz vl. realistischer versteht. die schlechte nachricht ist, dass man sicher auch gelegentlich plattformen gwm. abschreiben bzw. aufgeben muss, zumindest was die erwartungshaltung einer idylle zum erzeugen von kommunikativer vernunft betrifft (was nicht heisst, dass eine solche nicht auch stattfinden kann, das kann sie immer; nur stellen sich plattformen im konkreten gebrauch früher oder später als mehr oder weniger resilient heraus). was als gute nachricht nochmal die einschätzung des stattfindenden diskurses verbessert; das ist übrigens deshalb wirklich wichtig, weil das übliche hysterische skandalisieren oft selbst mehr schadet als nützt.

jedenfalls ist es wichtig im hinterkopf zu behalten, dass der kommunikative umgangston kein symptom vom web ist, sondern immer das symptom einer konkreten plattform, die halt im web ist, aber immer neben allen anderen plattformen steht, die halt auch im web sind und ihre eigenen verhältnisse und dynamiken und umgangstöne erzeugen. es gibt zum glück ja auch viele, die wirklich angenehm funktionieren. der gedanke ist übrigens auch dann nützlich, wenn man sich überlegt, wie man kommunikativ resiliente oder sogar antifragile plattformen bauen könnte)))

(bonuspunkte also wie immer für konkrete fallstudien und sternchen für eine umfassende typologie)

meta 22.04.2015 #

Sauerkrauts Revolutions

Warum ist Deutschland in allen Dingen Web so daneben?

Ich bin euch ja noch meine Antwort auf Quiz Pt. 61 schuldig.

Und die ist: wegen den Deutschen.

——

Derzeit gibt es wohl zwei dominante Kulturformen, die das allgemeine sozio-technologische Potential einer ‘Gesellschaft’ reflektieren:

(1) das Fernsehen
(2) das Web

Beide Formen sind hochgradig komplex (duh) und auf vielfältige Weise mit mehreren anderen gesellschaftlichen Subsystemen verwoben (duh). Beide sind nicht als Produkt, sondern nur als systemisches Bündel an Produktions-, Rezeptions- und Distributionsbedingungen, die alle selbst wiederum in den verschiedensten systemischen Abhängigkeiten zu Bildung, Technologie, Finanzierung/Kapital, Politik/Recht, etc. stehen, zu verstehen.

Das gesellschaftlich mögliche Potential beider Felder entsteht als Equilibrium im Zusammenspiel der jeweils beteiligten Strukturen, wobei es innerhalb dieses Equilibriums nur beschränkt die Möglichkeit zum ‘Ausbruch’ nach oben gibt.

Sprich: es ist nicht möglich, in einer Kultur einfach schnell mal besseres Fernsehen zu machen, oder einfach schnell mal bessere Startups zu erzeugen, indem man sie ein bisschen fördert oder in Schulen C++ unterrichtet. Will man sich verbessern, muss man das Niveau des Gesamtsystems erhöhen, was nur gelingen kann, wenn man das Zusammenspiel versteht.

(was es allerdings gibt, sind lokale maxima und talente, die auch in anderen milieus funktionieren könnten. ein harald schmidt war in seiner hochzeit mitunter sogar besser als ein david letterman; ein stefan raab macht – egal ob man ihn mag oder nicht – unterhaltsames fernsehen, das in dieser form woanders gar nicht möglich wäre; ein christoph waltz kommt in hollywood überhaupt erst zur entfaltung; usw.)

Spielen wir das nur mal als Milchmädchen frei assoziativ mit Fernsehserien durch: Es gibt die Ebenen der Produktion, die einerseits mehrere kulturelle Gebiete wie Schauspiel, Literatur/Drehbuchschreiberei, Musik/Ton und Regie/Kamera integriert, aber natürlich auch alle anderen Aspekte einer Produktion wie Schnitt, Casting, Kostüme, Bühnenbild und Set Design, Postproduktion und Special Effects, etctrara beinhaltet. Dann gibt es die Ebene der Kritik und der Rezeption, also wie viele Leute es anschauen, welche Leute es anschauen, was von Kritikern oder Sehern darüber gesagt und geschrieben und gevloggt wird, welche Themen oder Charaktere sich ins kulturelle Unbewusste einprägen, welche Bilder oder Themen davon zu zirkulieren beginnen, auch welche Veranstaltungen es dazu gibt (Comic-Con, Bambi), usw. Und es gibt natürlich die Ebene der Finanzierung, Distribution, Vermarktung und Ausstrahlung, also dem Gewebe an öffentlichen und privaten Fernsehanstalten, an Produktionsfirmen, an Programmverantwortlichen, Showrunnern, Werbenden, usw, die auch wiederum alle in unterschiedliche Strukturen mit unterschiedlichen Rahmenbedingungen eingebettet sind.

(nicht jede erwähnte und vergessene schraube wirkt sich sofort auf alle anderen schrauben aus, d.h. es gibt schon grössere und kleinere abstraktionen, aber vieles hängt mit vielem anderen mehr oder weniger direkt zusammen)

Für jede der beteiligten ‘Positionen’ gibt es offizielle oder inoffizielle Bildungswege, Werdegänge und Verfahren der Besetzung (gewerkschaftlich, meritokratisch, nepotistisch, etc.). Und auf jeder Ebene werden sich formelle oder informelle Prozesse etablieren und ausdifferenzieren. Und das Zusammenspiel von allem etabliert dann eben halt das jeweils konkrete gesellschaftliche Gesamtmilieu.

Hier ist nun das Ding: dieses Gesamtmilieu definiert weitgehend einerseits die durchschnittlich erwartbare minimale Qualität von Produktionen und andererseits die maximale Höhe der Idealproduktion. In einer Kultur mit hohem Gesamtmilieu ist nicht nur jede durchschnittliche Produktion viel besser als jede durchschnittliche Produktion aus einer Kultur mit niedrigerem Gesamtmilieu, in einer Kultur mit hohem Gesamtmilieu sind auch die Spitzen (die The Wire’s, die Breaking Bad’s oder die Jon Stewart’s) ungleich viel höher, als sie in einer Kultur mit niedrigerem Gesamtmilieu überhaupt möglich sind.

Innerhalb eines (niedrigeren) Milieus fällt das nicht auf, weil alles andere ja genauso mittelgut ist und es eine lokale Verteilung mit lokalen Hits gibt. Die eigene Höhe im internationalen Vergleich spürt man nur, wenn man die eigenen Programme international verkaufen will. Und bei Fernsehserien kann man sich ja leicht ausmalen, wie das Verhältnis von Import zu Export ist.

Ich glaube die Frage, warum es fast unmöglich ist, aus dem lokalen Milieu auszubrechen, wird am Beispiel Fernsehen recht anschaulich: Bei guten TV-Serien (oder auch Reality TV) sind einfach alle Ebenen irre gut; die Schauspieler sind irre gut und die Stories bzw. die Dialoge sind irre gut und die Cinematographie ist irre gut und der Schnitt ist irre gut und die Musik ist irre gut und die ganze Qualität der Produktion ist irre gut, usw. Was bedeutet, dass es diese guten Schauspieler und Schreiber und Regisseure und Kameramänner und Editoren und alle anderen zuerst einmal geben und dass man sie dann auch finden und bekommen muss. Und in Kulturen mit hohem Milieu haben sich diese Prozesse eben zu einem Grad ausdifferenziert, dass es einerseits einen sich permanent nachfüllenden Pool an Talenten gibt, und andererseits Mechanismen die besten zu entdecken und auf die aktuellen Projekte zu mappen. Und weil sich Talent nicht in einem Vakuum entwickelt sondern nur im Benchmark gegen andere wird dieser Pool an Talenten umso besser, je besser er schon ist. Und je grösser und besser der Pool ist, desto eher professionalisieren und spezialisieren sich die Filterprozesse; Aufgaben wie Casting werden überhaupt erst dann ‘als Kunst’ geschätzt und anerkannt, wenn man aus einem vollen Pool schöpfen kann, aber auch weiß, dass es auch alle anderen tun. (deutsches reality tv beginnt üblicherweise mit wirklich lahmem casting, was ihnen in konsequenz dann kein material für subtileres storytelling gibt, sondern halt nur für ein sich akzelerierendes gegenseitiges anschnauzen)

Komponenten beim Web

Mit dem Web verhält es sich grundsätzlich sehr ähnlich. Es gibt die Ebene der Produktion, die mehrere technische/informatische Gebiete wie Systemanalyse, Programmieren, Entwicklung von bösen Algorithmen, Datenbanken, Testen oder Design integriert, aber natürlich auch alle anderen Aspekte eines Projekts wie Projektmanagement, Qualitätssicherung, Administration, Dokumentation, usw. beinhaltet. Dann gibt es die Ebene der Benutzung und der Rezeption, also wie und wie viele und welche Leute es verwenden, was die Blogger oder Benutzer darüber sagen, welche soziale Objekte erzeugt werden und wie sie fliessen können, wie es via APIs o.ä. mit dem Gesamtsystem anderer Dienste zusammenhängt, usw. Und natürlich die Ebene der Leitung, Finanzierung und Vermarktung, also den Gründern und Managern, dem Gewebe an öffentlichen Förderungen und Einrichtungen und Wagniskapital, an Human Resources und Contractors, an Werbenden und zahlenden Kunden, Presse, Kommunikation, Community Management, usw. die auch alle wiederum in unterschiedliche Strukturen mit unterschiedlichen Rahmenbedingungen eingebettet sind.

Und auch hier gibt es für jede der beteiligten Positionen offizielle oder inoffizielle Wege der Ausbildung und Besetzung und auf jeder Ebene eine Ausdifferenzierung formeller und informeller Prozesse zum gesellschaftlichen Gesamtmilieu, das auch hier wieder ganz weitgehend einerseits die durchschnittlich erwartbare minimale Qualität von und andererseits die maximale Höhe der Idealproduktion definiert. Wir kennen die Logik von oben.

Zu erwähnen ist vielleicht, dass es bei Startups natürlich ein viel breiteres Spektrum an Größenordnungen als beim Fernsehen gibt. Es gibt ja tatsächlich Ein-Personen Startups, die gesellschaftlich durchaus signifikante Effekte erzielen können. Und es gibt Probleme, die mehrere Tausend hochgradig spezialisierte Leute beschäftigen können und manche Milieus beschäftigen sogar zehntausende Leute damit alle andern zu überwachen. Der sweet spot für Startups scheint jedenfalls aber ein Kern von zwei, drei Leuten zu sein. Aber ob groß oder klein, alle sind an ihr Milieu gebunden.

Aber es gibt zwei wichtige Unterschiede:

Die Auswirkungen sind gesellschaftlich deutlich relevanter, weil es nicht nur ein Markt für Unterhaltung ist und/oder die Gesellschaft auf symbolischer Ebene tangiert (was natürlich auch nicht zu unterschätzen ist), sondern eben direkt in grundsätzlich alle anderen gesellschaftlichen Subsysteme einwirkt und diese u.u. transformiert, egal ob die das selbst dann wollen oder nicht. Dieses ‘es ändert sich alles’ klingt zwar wie eine blöde Plattitüde, aber es kann ja jeder versuchen sich zu erinnern, wie die Welt vor nur 20 Jahren noch war und es geht natürlich erst los, nur wissen wir noch nicht wohin.

Und die Bedeutung der ‘Rezeption’, also der Feedbackloops mit den ‘Benutzern’, ist nicht nur ungleich höher, sie ist essentiell, weil die Entwicklung neuartiger Dienste nur in Koevolution mit Benutzern möglich ist. Aus den Standardsituationen (aus 2009, also immer 5 jahre dazurechnen):

gerade im und um das internet lagen eigentlich alle schon immer falsch, man braucht nur an die metaphern und visionen von vor 15 jahren denken. niemand hat vor 10 jahren mit wikipedia, google oder blogs, vor fünf jahren mit facebook, youtube oder flickr, noch vor zweieinhalb jahren mit twitter und mit den damit einhergegangenen strukturveränderungen gerechnet, einfach auch deshalb, weil die meisten tools selbst reine zufälle waren, deren effekte noch nicht mal die gründer auch nur erahnten. facebook entstand, weil zuckerberg ein fauler hund war und aufgaben crowdsourcen wollte; flickr war ein abfallprodukt eines online-games; die wikipedia entstand, weil aus der eigentlich angedachten nupedia, die von experten geschrieben werden sollte, nix wurde; twitter war als sms-dienst unter freunden gedacht, den die user dann umfunktionalisiert haben und zu dem gemacht haben, was es ist. wir wissen alle nix und selbst wenn man mit einer aussage/prognose zufällig richtig liegt, dann eher deshalb, weil irgendeine aussage immer stimmt, und nicht weil man es wissen konnte.

(nts: mich öfter selbst zitieren)

Aber der Zufall kommt, das habe ich damals nicht betont, nicht von allein; er entsteht nur in der Dialektik zwischen der Art, wie Leute ein Angebot be- und oft missnutzen und für sich interpretieren, und der Aufmerksamkeit von Gründern, die sich abzeichnende Flüsse wahrnehmen und im Idealfall aufgreifen und damit laufen. Ohne die Neugier der frühen Benutzer entsteht ganz einfach nichts Neues. (Permutationen sind ab einem gewissen Grad des Verständnisses dann natürlich möglich, aber auch die erhöhen im besten Fall die Wahrscheinlichkeit für einen gewissen Erfolg; man sieht das daran, wie wenige Gründer ihren ersten Erfolg dann wiederholen können, auch wenn sie dann deutlich freundlicher behandelt werden, was natürlich auch schon wieder der Grund für das ‘Nichtfunktioneren’ sein kann, weil ihnen der tatsächliche Gegenwind fehlt; VC folgt übrigens einer anderen Logik, die versuchen Wahrscheinlichkeitsverteilungen zu optimieren)

Und das ist dann eigentlich schon das K.o. für rein deutsche Startups in der ersten Runde, die notwendige Dichte an explorativen Benutzern gibt es hier einfach nicht, weil alles Neue zunächst als reine Zumutung wahrgenommen wird, die einen mit einer Vollbegründung erst von ihrem Sinn und Nutzen überzeugen muss, bevor man sich vl. mal zur temporären Benutzung erbarmt. Rationalität und Erbsenzählerei sind in einigen Bereichen nützliche Eigenschaften, als Katalysatoren für Startups sind sie aber ungeeignet. In Deutschland ist sicherlich einiges suboptimal, aber auch Medien und Politik, die zwei größten absichtlichen Bremser, können nichts verunmöglichen was wirklich ans Tageslicht will. Das große Unglück für die deutschen Startups sind die deutschen User.

(wenn das noch nicht reicht, dann kommt in deutschland noch dazu, dass gründungen häufig bwl-getrieben sind, was auch noch die zweite seite der erwähnten dialektik behindert, weil es bei denen im vergleich zu tech-getriebenen deutlich schwerer ist, aufmerksam zu sein und sich mit agilität anzupassen)

Und das bedeutet leider, dass das ganze Standard-Repertoire an von Politikern, Verbänden, Vertretern und Bloggern geforderten Förderungen überhaupt nichts bringt, weil sie im besten Fall ein Problem lösen, das von diesem Grundproblem dann schon im Keim erstickt wird. Die (oft bemängelte) Anzahl an Startups zb. ist ja überhaupt nur dann bedeutsam, wenn es einerseits zu mehr Variation führt und es andererseits auch eine gesellschaftliche Selektionsfunktion gibt, die die potentiell funktionierenden Startups dann entdecken kann. Ansonsten ist das ein reiner crap shoot. (inkubatoren sind die standard-maschine zur erzeugung dieser variation, nur benötigen auch die wieder eine gewisse systemische dichte als katalysator, die üblicherweise durch eine art hunger-funktion erzeugt wird, die es in deutschland eigentlich – zum glück – auch nicht gibt).

(nur zur sicherheit: mich interessieren hier nur native webstartups, die irgendeine neue beziehung oder verbindung von davor unverbundenem ermöglichen, irgendein neues soziales objekt generieren, irgendwelche neuen ströme erzeugen oder fliessen lassen, irgendeinen neuen möglichkeitsraum erzeugen. mich interessiert hier nicht die abbildung von grundsätzlich ohnehin gut verstandenen verhältnissen jetzt halt auch im web, das folgt mitunter einer etwas anderen logik mit teilweise grösserer steuer- und planbarkeit; auch der komplex internet of things und alles was mikro- oder makroskopisch mit hardware zu tun hat funktioniert anders)

Wenn man sich also sagen wir mal auf mittlerem Niveau überlegt, wo man ansetzen soll und was man tun kann, um international mitzuspielen zu können, dann ist es wichtig, die eigenen Schwächen zu verstehen, damit man an seinen asymmetrischen Stärken arbeiten kann.

Das ist im Falle Web im Vergleich zum Fernsehen auch deshalb relativ wichtig, weil im Web nur die Ebene der Produktion an das lokale Milieu gebunden ist; die Ebene der Rezeption ist zumindest grundsätzlich flüssig, d.h. für Benutzer gibt es keine Notwendigkeit, mittelgute lokale Reinterpretationen zu verwenden, weil man immer auch das Original verwenden kann. Der Name World Wide Web deutet das schon an.

(es ist nicht nur völlig sinnlos, den höchstentwickelten projekten des höchstentwickelten milieus à la ‘wir brauchen ein europäisches google’ direkt konkurrenz machen zu wollen, es ist auch eine verschwendung von ressourcen, die in andere projekte gesteckt werden könnten. mit den 200 mio die etwa in theseus gepumpt wurden, hätte y-combinator 1.667 startups inkubieren können. das problem dabei ist natürlich, dass es im milieu dementsprechende verfahren geben müsste, die diese sinnvolleren projekte erkennen kann, was auf mittelhohem niveau eher unwahrscheinlich ist, es hängt eben alles mit allem zusammen)

Es wird ein bisschen lang und das ist vl. Thema für ein anderes Posting, aber ich glaube es ist die Hoffnung nicht ganz unbegründet, dass das ‘Deutsche’ nicht nur das Problem, sondern auch die Lösung ist, weil es einige tatsächlich distinktive Eigenschaften und ausgeprägte Qualitäten hat, die sich für die zukünftige Ausdifferenzierung vom weltweiten Gesamtmilieu als nützlich erweisen könnten.

-

update: see 260680356

meta 17.04.2015 #

Eine Unter

weil gerade links und rechts paywalls aus dem boden schießen:

was zeitungen, glaub ich, noch nicht verstanden haben aber verstehen sollten, ist, dass sich ihr wert für den benutzer als ‘bündel’ nicht nur verändert, sondern sogar umgekehrt hat. was als papier nützlich war, wurde im web ein störfaktor.

ihr wert im ‘analogen’ war, dass sie im monatlichen abo für $40 einen großteil des informationsbedürfnisses des lesers befriedigen konnten. leser mussten sich gwm. aus dem vorhandenen angebot aller zeitungen für eine zeitung entscheiden, und die ausdifferenzierung der zeitungen basierte darauf, für möglichst große oder zumindest gut definierte gruppen von lesern das attraktivste bündel zu schnüren.

das lesen einer und nur einer zeitung war deshalb sinnvoll, weil der wert einer 2. zeitung bei verdopplung der kosten nur wenig zusätzlichen nutzen brachte. gleichzeitig wurde dadurch die eigenleistung der gewählten zeitung überbewertet, weil ihr eben auch das angerechnet wurde, was die baseline ohnehin aller zeitungen ist (dpa-meldungen, fernsehprogramm, usw.).

ihr wert im ‘digitalen’ geht aber plötzlich gegen null, weil es keine distributionsbedingte notwendigkeit mehr gibt, sich auf eine zeitung zu beschränken. jeder artikel steht plötzlich neben allen anderen artikeln aller anderen nationalen und internationalen, grossen, kleinen und kleinsten publisher. im entbündelten stadium gibt es immer etwas besseres direkt daneben.

das lesen einer einzigen zeitung ist also nicht nur nicht mehr sinnvoll, es verursacht für den leser sogar ganz reale kosten, nämlich die verpassten gelegenheiten in gewissen ressorts oder zu bestimmten themen oder für bestimmte funktionen was viel besseres zu lesen oder zu benutzen. noch schlimmer wenn man dafür auch noch geld bezahlt, weil menschen dazu tendieren, ihr investment wieder hereinzubekommen und die zeitung dann auch dann lesen, wenn sie sogar wissen, dass es da was anderes viel g’scheiteres dazu gäbe.

aus dieser sicht täten zeitungen sehr gut daran, wenn sie ihre selbstwahrnehmung von der von den lesern verehrten prinzessin auf ‘eine unter’ umstellen würden, die prinzessin sind sie tatsächlich nur noch für sich selbst.

die gute nachricht ist, dass sie diese ‘eine unter’ für viel, viel mehr leute sein können, und dass sie es auf viele verschiedene weisen sein könnten, was gänzlich neue möglichkeiten eröffnen kann, wenn man sich nicht auf die ehemalige rolle als prinzessin kapriziert.

(minianmerkung zum pricing von paywalls: aus oben genannten gründen sind modelle für ‘full digital access’ für 25$ oder mehr völlig kontraproduktiv, selbst wenn sich einige finden, die es bezahlen. das werden primär ehemalige abonnenten der papierversion sein, die sich freiwillig selbst beschränken wollen oder die möglichkeiten noch nicht kennen oder können. der preis wird ansonsten aber allen anderen, auch den echten sympathisanten, schwer zu verkaufen sein, weil sich die frage aufdrängt, warum gerade für dieses und nicht für das oder für das dort oder für das dort drüben und überhaupt, die ja auch gute arbeit leisten. und für alle bezahlen geht halt auch nicht, das allokierte budget wird für bits kaum viel grösser sein als für papier. auf den selbstempfundenen wert und den hineingesteckte aufwand sollte man da nicht beharren, weil der grenznutzen aus lesersicht wie oben beschrieben eben fast null ist. techdirt’s cwf+rtb ist auch für zeitungen noch immer das einzige schlüssig klingende modell, wobei diese bei ihrem rtb vor allem auch auf eine ‘erzählung’ setzen müssen, wenn sie nur auf der ebene der inhalte bleiben wollen und ihre prozesse und produkte lieber nicht aufbohren)

meta 26.03.2015 #

Lazy Blog Ep. 46

(blogpost über DAS fundamentale dilemma im derzeitigen web: den umstand, dass wir nicht besonders gut dabei sind, die schnittstellen zu erkennen und benennen, die zwischen dem was wir tun/tun wollen und dem angebot/mittel stehen, das wir dafür verwenden, und – vor allem emotional – zu verstehen, dass eigenschaften des angebots/mittels nichts mit den eigenschaften des ergebnisses zu tun haben)

((ein plakatives beispiel: wer will, kann seine allgemeine theorie und praxis zur revolution mit einem proprietären editor auf dem geschlossensten aller systeme schreiben, der text würde dadurch nicht schlechter.

gleichzeitig können die geheimdienste aller länder ihre überwachungsprogramme vollständig auf einem open stack an hard- und software betreiben, das gesellschaftliche vertrauen würde deshalb nicht weniger aufgelöst.

dem text ist es egal, wo und womit er geschrieben wurde.1 dem web ist es egal, mit welchem gerät es betrachtet oder benutzt wird.2 der funktionalen ausdifferenzierung ist es egal, was in der schwarzen schachtel hinter dem interface steckt.

bei text leuchtet glaub ich unmittelbar ein, dass man die schreibumgebung als black box verstehen kann, deren innereien auf das geschriebene keinen einfluss haben.

das gleiche prinzip gilt aber auch für sozialen plattformen oder für das ökosystem an mobilen apps, den üblicherweise ausgemachten feinden des offenen webs, und da wird die assoziation fast reflexartig hergestellt. winer glaubt noch immer, dass an facebook doch wirklich nix so kompliziertes dran sein kann, was man nicht schnell mit open source komponenten emulieren könnte. im cluetrain manifesto wird ganz selbstverständlich davon ausgegangen, dass die benutzung des webs selbst schon ein ethischer akt ist, während die benutzung von apps den wert in sich aufsaugt. usw. fast immer geht es dabei um kontrolle, aber um kontrolle über dinge, bei denen man mit der kontrolle nichts funktionales gewinnt.

das problem der oft falscherweise hergestellten assoziation der eigenschaften vom mittel hinter der schnittstelle mit den eigenschaften des produktes ist, dass im anschluss das falsche problem gelöst werden soll, was der lösung der eigentlichen probleme – es sind dann üblicherweise immer zwei: ein technopolitisches und ein produktqualitatives3 – dann doppelt im weg steht, vor allem aber auch die gesamte ‘schlagkraft’ der grundsätzlich vorhandenen energien für gesellschaftlich sinnvolle offene systeme reduziert, weil nicht nur energien in projekte gesteckt werden, die nix bringen, sondern im verlauf auch alle beteiligten frustriert))

(((bonuspunkte also wie immer für konkrete fallstudien und sternchen für eine umfassende typologie)))

1 was natürlich nicht heisst, dass man nicht auf gewisse technische details achten muss. im falle text etwa, dass man ihn in einem format speichert, der von den verschiedensten editoren auf den verschiedensten plattformen gelesen und geschrieben werden kann. oder dass man bei plattformen darauf achtet, dass man seine posts jederzeit sauber exportieren kann, siehe die pownce lektion.

2 was wiederum nicht heisst, dass es nicht unterschiede in der usability gibt und vor allem natürlich die bildschirmgrösse auch einschränkungen setzen kann.

3 technopolitisch meint etwa, dass es gesellschaftlich nicht wünschenswert ist, wenn es zum dominanten anbieter keine alternative gibt, oder wenn es für bestimmte anwendungsbereiche keine offene software gibt, weil man sich bei gewissen dingen nicht auf den goodwill eines herstellers verlassen will.

meta 05.03.2015 #

Leftovers 2014 (Low Hanging Fruit Edition)

(oops, hab ich damals zum anlass begonnen und wollte ich noch überarbeiten und hab ich dann aber vergessen und jetzt ist es ein bisschen zu spät aber bevor ich es lösche usw.)

auch nicht weitergekommen sind wir 2014 jedenfalls mit dem entschärfen vom komplex urheberrecht/copyright, vor allem in der nicht geschäftsmäßigen benutzung, das wohl eine der unnötigsten fussfesseln vor allem für die entwicklung im deutschen internet ist.

(die gute nachricht ist, dass es damit tatsächlich eine tief hängende frucht gibt, mit der sich der webtechnologische entwicklungsgrad mit hoher wahrscheinlichkeit in absehbarer zeit deutlich verbessern könnte; die schlechte nachricht ist, dass alle anderen interventionen ohne diese frucht ziemlich sicher wirkungslos verpuffen werden)

warum ist eine anale auslegung vom urheberrecht so schädlich?

erinnern wir uns an den jüngsten fall, bei dem ein moderator abgemahnt wurde, weil er auf twitter ein foto gepostet hat. mich interessiert hier weniger das abwägen der verschiedenen positionen, ich möchte nur kurz zu ökosystemischen konsequenzen von einem ‘sich durchsetzenden’ urheberrecht erwähnen:

fotos können von mir aus gerne beschützt werden. wenn ein fotograf partout nicht will, dass sein foto in keinem von ihm nicht abgesegneten kontext erscheint, warum sollte er seinen wunsch nicht erfüllt bekommen?

das problem dabei ist halt, dass man dem foto nicht ansieht, ob sich dahinter ein fotograf mit einer ebensolchen disposition verbirgt (der dann unter umständen auch eine firma angeheuert hat, die das web und soziale netzwerke proaktiv und systematisch nach ‘verletzungen’ durchsucht, um die rechte mit kostennote durchzusetzen usw.), oder ob dahinter ein normaler mensch steckt, der sich über jede weiterverbreitung sogar freuen würde oder den es zumindest nicht stört.

und ich habe keine zahlen, aber ich vermute dass vl. jedes 1.000. geschossene foto urheberrechtlich wirklich beschützt werden will, es allen 999 anderen aber völlig egal wäre, wenn sie mal in einem twitterstrom oder illustrativ in einem blogpost auftauchen würden. (ich beziehe meine schätzung auf den differenzlosen urheberrechtlichen schutz; es gibt natürlich andere valide gründe, fotos nicht öffentlich verteilt zu sehen, das ist aber ein völlig anderes thema)

das problem ist also, dass der schutz nicht nur die tatsächlich schutzsuchenden und/oder schutzfordernden fotos betrifft, sondern auch alle anderen, und dass also das sharen von fotos ganz grundsätzlich mit einem über dem kopf schwingenden da­mo­k­les­schwert verbunden ist. (ja, fotos können auch etwa cc-lizensiert sein und also selbst quasi die zustimmung geben, aber selbst da besteht immer die möglichkeit, dass die jeweilige quelle selbst nicht die rechte daran hat usw.)1

und da könnte man jetzt anmerken, na und, dann kann man halt nicht sharen, wenn man das foto nicht selbst gemacht hat oder man keine wasserdichte rechtekette nachweisen kann, das ist dann halt so, aber genau das bringt uns dann zur anderen seite der medaille, nämlich der kultur und der gesellschaftlichen ausdruckskraft. neben dem eigentlichen erzeugen von fotos (und allen anderen kulturprodukten) – dessen anregen und absichern ja gwm. der gesellschaftliche sinn der diversen urheberrechte ist – sind wir als gesellschaft mit dem web an einem punkt angekommen, an dem auch das zirkulieren, rekombinieren, reflektieren, reutilisieren, reanimieren, etc. ebendieser kulturellen entitäten selbst ganz nativ zur kultur und gesellschaftlichen ausdruckskraft dazugehört und diese gwm. ‘bildet’. mit dem web und den damit erzeugten ausdrucksformen wird gwm. jede kultur zur popkultur oder zumindest zur basis für popkulturelle referenzen. und kultur, die sich dem verweigert, findet im gesellschaftlichen bewusstsein quasi einfach nicht mehr statt und verliert durch die verweigerung eher früher als später gwm. auch die gesellschaftliche legitimität.2

wenn uns etwas gefällt, hatten wir immer schon den unwiderstehlichen drang, das anderen zu erzählen und sie damit anzustecken. auf den verschiedenen plattformen können wir das jetzt halt viel einfacher, effektiver, besser und mit zunehmend vielen medien tun und/oder auch als basis für eigene aktivitäten benutzen. und nicht nur das, das einfache sharen (mit dem immer anschliessenden deuten oder diskutieren) ist gwm. der einstieg in die ‘kulturproduktion’ und das beste format, leute mit (der) technologie vertraut zu machen und zu verbinden. wir eignen uns ja technologie nicht um ihrer selbst willen an (und wir lernen nicht mal einfach so und zu seiner selbst willen programmieren), wir eignen sie uns an, weil wir damit was machen können was wir machen wollen (bzw. eben dann was programmieren können was wir haben wollen).

nun ist das spezifisch deutsche problem, dass es um die ich sag einmal spielerische ausdruckskraft im weltweiten vergleich ohnehin nicht besonders gut bestellt ist. es gibt eine hoch ausgeprägte diskursive diskussionskraft (und das mit dem fehlenden humor ist ein völliger blödsinn, es gibt neben dem fasching auch einen weit verbreiteten extrem subtilen und trockenen humor), aber der ansatz ist selten neugierig und/oder expressiv (wer twitter ende 2006 oder anfang 2007 entdeckt hat, wird sich vl. noch daran erinnern können, in welche völlige sinnkrise das die damalige deutsche webgemeinde und ein paar jahre später dann die deutschen medien gestürzt hat, siehe etwa metahyping und 140 prozent). was wiederum bedeutet, dass es weniger vorhandene grundkraft gibt, die eine ausdrucksform sucht und ans licht will. und wenn man nun bei jeder aktivität sofort gefahr läuft abgemahnt zu werden, dann dämpft das die pflänzchen schon im keim ab.3

1 ein anderes beispiel der jüngeren zeit (no pun intended) war ein ‘geistreicher’ tweet, den die zeit auf ihrer facebookseite zwar brav attribuiert aber als gif und nicht zum konkreten tweet verlinkt eingebettet hat, um dann nach großer empörung reumütig eine rechnung zu bezahlen. auch das bedeutet natürlich asymptotisch, das es grundsätzlich gefährlich ist, tweets ausserhalb von twitter zu wiederholen, weil man nicht wissen kann wie der jeweilige twitterer gestrickt ist.

2 (nicht die institutionelle; institutionen sind gwm. spezialisten darin, die wertschöpfung aufzusaugen und in sich selbst zu kapseln, sich damit aufzublähen und zu verbrauchen; der effekt vom urheberrecht ist jedenfalls ein farbloseres web, das weniger spass macht, das also weniger anreiz zur beschäftigung generiert, was zunehmend weniger webkompetenz der leute bedeutet, was gesamtgesellschaftlich die eigene schlagkraft insgesamt schwächt)

3
youtube gesperrt

bonus: welche absurden blüten dieses spezifisch deutsche beharren hat, sieht man etwa auch an dieser ^ grafik, die illustriert, wie viele der weltweit beliebtesten youtube-videos in deutschland gesperrt sind. und das ist zwar – genau wie das leistungsschutzrecht oder das verpixelungsrecht für hausfassaden, die es sonst auf der ganzen welt nicht gibt – ein grundsätzlich anderes thema, aber die zugrundeliegende disposition ist die gleiche.

meta 24.02.2015 #

Social Books Revolutions

sobooks

kl. nachtrag zu Social Books und Social Books Reloaded : nachdem sie ihr sobooks vor einem jahr und 4 monaten vorgestellt und vor 4 monaten lanciert haben, blickt sascha lobo ein bisschen zurück und versucht, das grössere bild zu skizzieren: Der eilige Gral der E-Book-Welt. und ich will eigentlich nicht schon wieder jammern, aber ich bin mir nicht sicher, ob sich mein gefühl dadurch verbessert hat, weil sie mir schon das grundproblem falsch zu framen scheinen – i.e. sie rennen sie gegen den völlig falschen ‘feind’ an.

Das Problem ist: Wie werden E-Books sichtbar, wie entdeckt die Leserschaft E-Books?

^ die formulierung des von ihnen diagnostizierten hauptproblems ist zwar formal richtig, aber nur mit zwei einschränkungen:

sichtbarkeit muss als synonym von ‘bewusstheit’ gelesen werden – es ist ja nur ‘das wissen’ darüber, dass es das buch mit dem jeweiligen titel vom jeweiligen autor gibt und dass man das ggf. lesen will, um das es dabei wirklich geht. sascha nimmt sichtbarkeit aber ‘als das buch in der buchhandlung sehen’ wörtlich und denkt es in dieser form weiter. als solches ist das zwar ein tatsächlich sehr effektiver spezialfall, weil es nicht nur ein (digital ohnehin nicht emulierbares) spontanes begehren bei gleichzeitiger möglichkeit zur sofortigen befriedigung im kauf erzeugt, aber selbst in der materiellen form reaktualisiert diese sichtbarkeit meistens nur eine davor schon gegebene bewusstheit. wer in buchhandlungen stöbert ‘sieht’ nämlich primär nur bücher, die er davor ohnehin schon ‘kennt’, sei es als aktual (als titel, von dem ich schon weiß, dass ich ihn lesen will) oder als potential (also als fortführung einer serie, die sich aus der jeweiligen bisherigen lesegeschichte ganz automagisch ergibt). und gerade von diesem potential in serien gibt es alles andere als einen mangel, es gibt immer ein ‘nächstes’ buch zu lesen (alles von einem autor oder philosophen, alles von einem verlag oder einer reihe eines verlages, alles zu einem genre oder thema, alle literaturnobelpreisträger, alle autoren eines landes und/oder einer epoche, alle bestseller der nyt, aller bücher einer liste mit den 100 büchern die man gelesen haben muss, etctrara).

was uns zur zweiten einschränkung führt: das ‘problem’ der sichtbarkeit ist also ausschliesslich ein problem für die autoren resp. die bücher, aber in keinster weise für die leser. wer gerne liest, wird immer ein nächstes buch finden (ah, ein neuer auster; hey, das von bernhard kenn ich ja noch gar nicht; hmm, vl. sollte ich doch auch mal was von camus lesen; reflexartig alles von deleuze; … uff, ein 1000 seiter von zizek). ob ebook oder papier ist dabei völlig egal, und neben den serien stolpert man alternativ und zur abwechslung/irritation online und offline über buchempfehlungen, wohin man auch geht oder blickt. für die leser gibt es dieses problem schlichtweg nicht. (was nicht heisst, dass die leser nicht selbst am allermeisten davon profitieren würden, wenn sie den prozess des entdeckens der für sie idealen bücher verbessern oder optimieren würden; aber sie haben überhaupt keinen leidensdruck, weil sie nicht wissen was sie nicht wissen und unter umständen verpassen; die bringschuld liegt also ausschliesslich bei den autoren/büchern, wenn man so will).

sie denken diese beiden einschränkungen aber nicht mit und wollen mit sobooks deshalb also schon auf grundsätzlicher ebene ein problem lösen, das sich in der form gar nicht stellt. (lustigerweise denken sie das dann ‘ungenau’ durch und landen gerade deshalb gelegentlich aus den falschen gründen bei ‘richtigen’ beobachtungen, etwa der einsicht, dass man den blickwinkel nicht vom leser sondern eben vom buch aus stellen muss). und das ist natürlich nicht gut, weil sie deshalb etwa ‘das soziale’ der bücher auf einer eher unfruchtbaren ebene abstrahieren; die von ihnen anvisierte, am modell facebook orientierte vernetzung und damit einhergehende sichtbarmachung scheint mir etwa viel zu wenig die sperrigkeit und spezifität des formats buch zu berücksichtigen. (lesen ist ja, entgegen ihrer prämisse, gerade nicht sozial sondern die antisoziale aktivität schlechthin; was nicht heisst, dass bücher nicht gesellschaftlich sind oder dass bücher (oder damit verbundene elemente oder tätigkeiten) nicht als soziale objekte fungieren können; nur als beispiel: empfehlungen von goodreads oder expressive impressionen von booktubern). aber da die richtige ‘ebene’ zu finden ist halt natürlich auch nicht so einfach.

(was übrigens nicht heisst, dass sobooks keine nische finden oder gegenüber anderen plattformen keine relativen vorteile etablieren wird; ich mag es grundsätzlich, auch wenn es nichts für mich ist, weil ich einerseits eher kommentarscheu bin und ich mir andererseits bücher in papierform kaufe, wenn ich sie lesen will)

meta 04.02.2015 /via @saschalobo #

New Clues

Hear, O Internet

ein bisschen devoha: doc searls und david weinberger haben ihr cluetrain manifesto aktualisiert: new clues

ich für mich freue mich natürlich immer, wenn es noch andere gibt, die bzgl. dem web ähnliche werte haben und es als universellen gesellschaftlichen möglichkeitsraum definieren, das ist eine aussterbende gattung. und sie spannen natürlich einige relevante themenkomplexe auf und machen den einen oder anderen konzisen punkt. insgesamt ist es aber doch etwas durchwachsen; die mischung der themen ist dann doch etwas willkürlich, einige clues sind ungenau oder falsch, vor allem mit den apps laufen sie gegen einen falschen feind an und einige lösungsansätze sind eher micromanagement (weil es nach dieser auflistung nicht so klingt: sie machen mehr gute punkte als schlechte).


Techblogs des Jahres (2014 Edition)

(ohne grossartige beschreibung des speziellen oder allgemeinen milieus, im grunde gibts ja auch kaum was dazu zu sagen und auch über die unsaggebbarkeit gibts nichts mehr zu sagen, aber gleichzeitig ist das alles auch egal, usw.)

techdirt
seth godin

Anyway, die zwei für mich besten/nützlichsten Techblogs 2014 waren Techdirt und Seth Godin. Mike Masnick (via) ist noch immer eine Art ein-Mann-Armee, der mit glasklarer Urteilskraft sämtlichen Schwachsinn des medial-politischen Komplexes dekonstruiert und gleichzeitig dabei ohne Hysterie auskommt; und Seth Godin (via) kommt und bleibt zwar aus dem Marketing, aber er ist – zumindest in seinen guten Phasen – eine endlose Quelle von zwar einfachen aber sehr guten und tatsächlich hilfreichen Differenzen und Metaphern.

Eine lobenswerte Erwähnung geht an die Exchanges von @excitingcommerce – das kann sich nicht nur auch im internationalen Vergleich hören lassen, das ist oft auf fast schon unheimliche Weise über längere Strecken erstaunlich schlüssig.

siehe Techblogs des Jahres und Techblogs des Jahres 2009 Edition und Techblogs des Jahres 2010 Edition und Techblogs des Jahres 2011 Edition und Techblogs des Jahres 2012 Edition und Techblogs des Jahres 2013 Edition

meta 16.12.2014 /via @techdirt #

Social Contracts Pt. 94

ich bin euch ja noch (meine) antwort auf quiz 94 schuldig, die da wäre, dass beide argumentationslinien den umstand übersehen, dass die cc-lizenz neben der literalen bedeutung auch noch eine dimension der (unausgesprochenen aber als bekannt vorausgesetzten) sozialen erwartungshaltung hat.

die konkreten sozialen erwartungshaltungen sind von fall zu fall verschieden und müssen also jeweils konkret bestimmt und berücksichtigt werden, aber cc-lizenzen sind üblicherweise eine einladung zur ‘benutzung’ aber nicht zur ‘ausnutzung’.

(soziale erwartungshaltungen drücken sich insgesamt oft durch ein doppeltes ‘so tun als ob’ aus. zb.: wenn ein neffe mit seinem onkel essen geht, dann tut er wenn die rechnung kommt so, als ob er nach seiner geldbörse greifen würde, und der onkel winkt ab, weil es natürlich auf ihn geht. beides gehört aber notwendigerweise zum ‘ereignis’ dazu. grosse teile des humors von ‘curb your enthusiasm’ basieren darauf, die literalen bedeutungen zugunsten dieser sozialen erwartungshaltungen zu substituieren, was die situation auf dem papier schlüssig aber ingesamt eben katastrophal macht.)

im fall flickr ist diese motivation der cc-linzenz vermutlich, dass man das allgemeine strömen von fotos zulassen will (also etwa das persönlich ausgewählte einbinden von fotos auf einem blogpost, als illustration in der wikipedia oder einer präsentation, gerne auch das integrieren in einem prospekt oder einer kommerziellen publikation, uvm.) und dabei durchaus auch kleinere egoismen in kauf nimmt, um die allgemeine und angemessene strombildung nicht insgesamt zu verhindern. genau dieser aspekt scheint mir überhaupt die zentrale funktion von cc zu sein: es geht um das zulassen von strömen auch unter möglichkeit der parasitären bunutzung, weil die verhinderung jeder möglichen ausnutzung selbst die verunmöglichung der strombildung selbst bedingen würde.

und das funktioniert üblicherweise reibungslos, weil die missbräuchlichen anwendungsfälle selbst öfter als nicht schlimmstenfalls eben nur lästige fliegen sind, mit denen man halt leben muss. wenn ein einzelner eines meiner fotos auf ein t-shirt drucken und verkaufen will, good luck und whatshallyado. genau das ändert sich aber, wenn die plattform selbst die grenzen übertritt. dann handelt es sich nämlich nicht mehr um die fliege, die man halt in kauf nimmt, sondern um die verletzung der sozialen erwartungshaltung auf struktureller ebene. der missbrauch wird nicht länger als vernachlässigbare rahmenbedingung in kauf genommen, der missbrauch wird gwm. strukturell ins system eingebaut.

die dummheit von yahoo besteht also nicht in der ‘ausbeutung’ der lizenzen, die die user ihren fotos verpasst haben, die rechtlich natürlich zulässig und auch nicht schlimmer als jede mögliche intervention von dritten ist, die sich in diesem sinne auf der plattform bedienen würden; die dummheit besteht darin, nicht zu verstehen, dass die erlaubnis des gebrauchs die erwartungshaltung der vermeidung eines missbrauchs beinhaltet, den man in ‘pathologischen’ fällen ignoriert, um das system am laufen zu halten, der aber nicht selbst in das system hineingebaut werden darf.

meta 03.12.2014 #

Die Zeitgenossen der Gesellschaft Pt. 17: Der Rechtmacher

Der Rechtmacher (m/w) ist ein abstrakter aber in den verschiedenen Instantiierungen extrem weit verbreiteter Zeitgenosse, der sich dadurch auszeichnet, dass er es den anderen Leuten Recht machen will.

Das ist sicher nicht die bösartigste Einstellung, die man haben kann, allerdings führt sie öfter als nicht zu unserem beliebten gut gemeint ist schlecht gemacht oder durchdacht.

Der mit Abstand größte Rechtmacher-Doofus ist natürlich Google – bei denen kann man fast die Hypothese aufstellen, dass das Rechtmachen ihre große Schwäche ist, sprich sie immer dann genial oder zumindest gut sind, wo sie versuchen irgendwas so gut wie möglich zu machen und mit diesen Serien dann etwa bei einem neutralen Funktionalismus (etwa gmail vor 6, 7 jahren) oder einer autoritären Algorithmokratie (etwa google suche vor 6, 7 jahren) landen, und immer dann bestenfalls unbeholfen oder debil sind, wo sie versuchen das dann noch besser zu machen, indem sie es personalisieren, antizipieren und eben dem User rechter zu machen (so ziemlich jeder versuch email oder die suchergebnisse in dieser richtung zu verbessern ist bis dato in einem fiasko oder einer stillen revision geendet, siehe dazu googleheimer). Wobei Gmail und Suche ja noch tendenziell resilient sind und die Interventionen von Google noch relativ locker wegstecken konnten, problematischer ist natürlich, dass die ganze Vision von Google in diese Richtung schielt.

die genuin falsche grundannahme ist, dass es dieses im moment ‘richtige’ gibt und man es nur auf basis der daten ausrechnen muß, daten hat google ja im idealfall wohl genug, es kennt den ort, es kennt die zeit, es kennt die gesamte vorgeschichte, alle bisherigen suchen, käufe, mahlzeiten, treffen, alle kontakte, die gesamte kommunikation, usw., da kann das dann wohl nicht so schwer sein. aber genau das ist der fehler. dieses ‘richtige’ gibt es nicht vorab, sondern nur retrospektiv. bei allem was den funken eines persönlichen werts hat, spielt das begehren eine viel grössere rolle als die summe aller neutraler sachverhalte. man kann glaub ich fast sagen, dass alles, was uns eine suchmaschine vorschlagen kann, per definitionem ‘wertlos’ wird und das begehren verscheucht. das begehren kommt immer nur von der seite, von der wir es nicht erwarten oder sehen können. google will also wohin, wohin es – zumindest für moderat komplexe lebewesen – nicht kann.

The Google Supposed To Know (nts: mich öfter selbst zitieren)

In eine ähnliche Sackgasse laufen aber auch alle anderen Rechtmacher, die die Zukunft der Ausdifferenzierung von sozialen Objekten (Zeitungen als personalisierte Nachrichtenströme, Fernsehen als personalisierte Ströme von Sendungen und Serien, etc.) in personalisierten Empfehlungssystemen sehen. Sie übersehen den entscheidenden Punkt, nämlich dass Wert nur aus Differenz entsteht. Wenn alles gut ist, ist nichts gut. Intensitäten kann man nur in Relation zu einem ‘Mangel’ erzeugen. Hunger ist der beste Koch. Und sie übersehen, dass Identitäten nur im aktiven Auslassen von dem, was man nicht ist, entsteht; das registrierende Auslassen ist eine wichtige Geste.

Empfehlungssysteme sind grossartig zur Inspiration, als Reize, als Serendipity, usw. – aber sie sind kein guter kategorischer Imperativ für gesellschaftliche mediale Produkte.

(wer sich noch daran erinnern kann: die über die filterbubble jammerten, jammerten exakt über den falschen punkt. das problem einer algorithmischen bubble ist nicht, dass man die alternativen stimmen nicht mehr zu sehen bekommt und deshalb auch keine alternativen blickwinkel kennen lernt, das problem der algorithmischen bubble ist, dass man die alternativen stimmen nicht mehr zu sehen bekommt und deshalb nicht mehr so tun kann, als gäbe es die ohnehin bestehende bubble nicht)

(abt. supermarket studies)

meta 25.11.2014 #

Minimal Models pt. 2 (The Consumption Edition)

stellen wir uns nach dem minimal model pt. 1 nun eine andere welt mit 100 teilnehmern vor, und in dieser welt kann kann man jede woche entweder eine stunde schreiben oder eine stunde lesen; und nehmen wir auch an, dass schreiben etwa 10x so lang dauert wie lesen.

szenario 1: 10 schreiber, 90 leser
90h lesen verteilen sich auf 10 schreiber -> 9h lesen pro schreiber (es wird jeder text von allen lesern gelesen)

szenario 2: 50 schreiber, 50 leser
50h lesen verteilen sich auf 50 schreiber -> 1h lesen pro schreiber (jeder text wird immerhin von 10 lesern gelesen)

szenario 3: 90 schreiber, 10 leser
10h lesen verteilen sich auf 90 schreiber -> 7 min lesen pro schreiber (jeder text wird von immerhin noch einem leser gelesen)

was kann man nun schon aus diesem allereinfachsten modell lernen?

  • produktion braucht konsumption und umgekehrt
  • mehr ‘produktion’ ist nicht unbedingt das wünschenswerte
  • es geht vielmehr um das erzeugen von milieus, auf denen sich die produktionsbedingungen und rezeptionsbedingungen auf einem für alle beteiligten nützlichen gleichgewicht einpendeln kann
  • genau das erzeugen dieser milieus für die produktion und rezeption von spezifischen sozialen objekten ist die aufgabe der verschiedenen dienste. wie das dann jeweils idealerweise ausschaut folgt keiner faustregel, sondern muss man sich von fall zu fall genau anschauen. sowas wie diese unsägliche 90-9-1 regel zeigt vielleicht den median der verteilungen an (i.e. auf vielen foren pendelt es sich da ein), ist ansonsten aber völlig nutzlos.

nur zur sicherheit: das modell ist natürlich nicht realistisch. leute können üblicherweise lesen und schreiben, ob man produziert hängt von einer jeweils individuellen motivationsfunktion ab, ob und was man konsumiert hängt von einer jeweils individuellen interessefunktion ab, daraus leiten sich verteilungskurven mit abnehmendem grenznutzen ab, die wiederum verschiedene triggermilieus bzgl. der motivationsfunktion bilden, die wiederum feedbackloops innerhalb einer allgemeinen ausdifferenzierung erzeugen, usw.

(und nur am rande: wenn man sich die realen verteilungen auf webdiensten anschaut, dann sind die meistens erstaunlich plausibel. die wikipedia pendelt sich auf einem niveau ein, das zur aktualisierung völlig reicht; die 0,1% produzenten (hausnummer) erzeugen immer noch einen massiven inhaltlichen überschuss, der halt in den löschdiskussionen abgefackelt wird, aber der nutzen jeder änderung betrifft natürlich immer gleich millionen; auf twitter ist mit dem produzieren von tweets kaum aufwand verbunden, da entstehen dann wilde mischungen von den verschiedensten subbündeln, aber insgesamt hat twitter, wenn es ein problem hat, sicher nicht wie oft naiv angenommen eines von zu wenig produzenten, sondern von zu wenig lesern, die faven, subscriben, auf die links klicken, auf die ads klicken; usw.)

meta 22.11.2014 #

Minimal Models pt. 1 (The Media Edition)

stellen wir uns einmal eine welt vor, in der es zur elektronischen publikation/kommunikation nur ein medium gibt: jeder der will kann schreiben was und wie er will. nennen wir es blogs.

alle, die etwas publizieren wollen, benutzen blogs für ihr gesamtes ausdrucksbedürfnis, was sollten sie auch sonst tun. es wird sich ein bestimmter infoökonomischer raum an bloggern und lesern ausbilden und sich auf einem gewissen aktivitätsniveau mit einer gewissen verteilung von ‘jobs’ einpendeln.

stellen wir uns vor, dass dann ein zweites medium hinzukommt, das zwei unterscheidungen einführt: einerseits wird die länge der texte auf 140 zeichen begrenzt, andererseits werden die teilnehmer sozialisiert/vernetzt. nennen wir es twitter.

was wird passieren?

  • leute werden neue kommunikative ‘jobs’ entdecken, die mit dem neuen, kleinen medium plötzlich sinnvoll werden (nicht, weil sie davor grundsätzlich unmöglich waren, aber weil sie davor ‘infoökonomisch’ gwm. zu teuer waren).
  • es wird eine umverteilung/migration der beteiligten geben: leute werden beginnen, twitter statt blogs für die neuen dinge zu verwenden, und für die dinge, für die twitter besser geeignet ist.
  • einige leute werden erstmals an der kommunikation teilnehmen, weil sie erstmals für sich sinnvolle jobs entdecken oder weil es für sie erstmals einfach genug ist oder schnell genug geht.
  • einige andere werden fortan blogs und twitter verwenden, einige weiterhin nur blogs, einige nur oder nur noch twitter.
  • die anzahl der teilnehmer wird insgesamt zunehmen.
  • die anzahl der kommunikationsereignisse wird in diesem fall wohl dramatisch zunehmen, einfach weil es von einfacherem und kleinerem üblicherweise mehr gibt (allerdings könnte das auch anders sein; hätten wir unsere welt mit twitter begonnen, würde sie wohl ebenso dramatisch abnehmen).
  • der marktanteil wird sich verschieben. (die bewertung davon ist jedoch eine schwierige sache, weil der marktanteil an den gesamten kommunikationsereignissen tatsächlich nichts über die nachhaltigkeit oder gesellschaftliche relevanz von medien aussagt.)

als ergebnis entsteht irgendwann jedenfalls ein neues infoökonomisches milieu mit zwei ebenen der ausdifferenzierung: einerseits differenzieren sich die medien ‘gegeneinander’ aus; andererseits differenzieren sich innerhalb der einzelnen medien die kommunikationsereignisse der jeweiligen jobs aus. sowohl die medien selbst als auch die qualität und quantität der kommunikationsereignisse innerhalb der jeweiligen medien pendeln sich auf einem gewissen neuen aktivitätsniveau ein.

these:

mit jedem weiteren medium entstehen – immer der gleichen logik folgend – jeweils immer wieder neue milieus, die sich jeweils immer wieder einerseits bezüglich der medien untereinander und andererseits in jedem medium in sich selbst bezüglich der jobs und ereignisse ausdifferenzieren.

(neue medien entstehen üblicherweise durch einführung von neuen unterscheidungen; neben der unterscheidung lang und asozial (blogs)/kurz und sozial (twitter) wie in unserer welt, gibt es viele andere wie öffentlich/privat, stationär/mobil, billig/teuer, E/U, autonom und selbstbetrieben/abhängig und in der cloud, permanent/peripher, frei flottierend/vernetzt, vom gemeinen volk/von spezialisten, und viele mehr. jede unterscheidung verdoppelt gwm. die anzahl der möglichen medien, wobei es aber auch clusterbildungen und nicht genutzte kombinationen gibt).

was kann man nun schon aus diesem allereinfachsten modell lernen?

  • ein neues medium kann die anzahl der systemweiten ‘kommunikationsereignisse’ erhöhen (etwa weil es schneller oder kleiner oder billiger oder omnipräsent ist) oder aber auch reduzieren (etwa weil es dinge zusammenfasst oder überflüssig macht). in beiden fällen funktioniert die gesamtkommunikation danach idealerweise besser. die anzahl der kommunikationsereignisse selbst ist also eine völlig sinnlose metrik.
  • man kann und sollte mehrere medien gleichzeitig verwenden, idealerweise jeweils für den damit angemessenen job. das alte oder andere medium muss nicht sterben, damit das neue sinnvoll oder wertvoll wird. (das klingt offensichtlich aber viele fühlen sich leider nur wohl, wenn sie irgendwas ausstopfen und an die wand hängen können.)
  • es ist ganz grundsätzlich nicht schlecht oder beklagenswert, wenn ein altes medium ‘marktanteile’ an ein neues medium verliert. das ergebnis der anpassung ist ein kommunikatives gleichgewicht auf höherem niveau. es gibt ganz grundsätzlich nichts zu urteilen, sondern nur was zu beobachten. (don’t ask yourself if this is a good thing or a bad thing. ask yourself what’s going on)
  • der ‘marktanteil’ der verschiedenen medien ist auch nicht sinnvollerweise vergleichbar, weil sie völlig unterschiedliche funktionen mit unterschiedlicher wertigkeit entlang der achsen persönlich, sozial und system (siehe) erfüllen können. (ein beliebiger blogeintrag erzeugt eine woche später mehr diskursive anschlussfähigkeit als alle 50 milliarden whatsapp messages eines tages zusammen.)
  • es bringt nichts, die alten marktanteile im neuen milieu retten zu wollen oder künstlich zu pimpen. (das zu verstehen ist wirklich wichtig, wenn man ein betreiber vom alten medium ist, vor allem, wenn man die produktion – etwa von zeitungen – irgendwie ‘finanzieren’ muss. den eigenen realistischen anteil falsch einzuschätzen kann mitunter auch ein fataler fehler sein, weil der threshold zur erhaltung von aufgeblähten apparaten ja nicht kontinuierlich ist, sondern erst ab einem kritischen punkt einen dann aber plötzlichen sog nach unten erzeugt, der oft aber vermeidbar wäre. wir sehen das leider derzeit bei fast allen altmedien wie print aber auch etwa bei twitter inc.) viel wichtiger als der relative marktanteil sind die absoluten ereignisse.
  • die effekte und möglichkeiten des jeweiligen mediums sind keine ‘leistung’ des mediums oder der macher, sondern effekte, die durch die benutzung entstehen.
  • es gibt strukturell keine zeitlichkeit oder vorrecht des einen mediums über das andere; ist das neue medium einmal da, koexistiert es mit allen anderen medien gleichwertig. (der kleine vorteile vom historisch älteren medium ist, dass die leute erst wechseln/ihr verhalten adaptieren müssen. das endgültige gleichgewicht für eine bestimmte konstellation ist aber zeitlos.) zwar wird es im konkreten historischen verlauf gewisse wellen geben (überschätzung am anfang, hysterie bei beobachteter abnahme, etc.), früher oder später passt sich die kommunikation jedoch an, weil das kämpfen gegen die ineffizienzen zu teuer wird.
  • interessanterweise ist die möglichkeit der entstehung mancher medien selbst ‘historisch’. bestimmte medien sind nur sinnvoll, wenn sie sich etwa asymmetrisch gegen andere medien positionieren können. (sind sie aber erst einmal da, können sie gwm. nicht mehr ungeschehen gemacht werden.)
  • medien können durchaus auch obsolet werden und verschwinden. (allerdings sollten sie überleben können, solange es zumindest einen halbwegs populären ‘job’ gibt, für den sie das medium sind, das dafür am besten geeignet ist.)
  • gelegentlich können die verschiebungen und migrationen ob eines neuen mediums auch sehr schnell gehen und/oder sehr grosse auswirkungen haben.
  • es ist wirklich wichtig, nicht den fehler zu machen, die übergangsphase von einem zustand in den neuen als etwas anderes als eine anpassung ans neue gleichgewicht zu interpretieren. (das ist natürlich der fehler, den alle machen, die sich zahlen von twitter, facebook und whatsapp anschauen und dann aleatorisch extrapolieren um dann wasauchimmer und jedenfalls den tod von irgendwas zu prognostizieren.)
  • auch wenn medien wegen anderen medien üblicherweise ‘marktanteile’ verlieren, so wird doch gleichzeitig auch ihr eigenes profil geschärft. sie werden also besser, weil sie zunehmend für die jobs herangezogen werden, für die sie wirklich geeignet sind.

nur zur sicherheit: das modell ist natürlich nicht realistisch; es basiert auf der sicher nicht erwartbaren annahme, dass alle teilnehmer über alle medien vollständig informiert sind und sich egoistisch rational verhalten; es nimmt auch einen frei fliessenden informationsmarkt an, während die reale situation in vielen fällen ein spieltheoretisches problem egoistischer anbieter ist. auch als medientheorie ist es supernaiv. aber für die entwicklung eines gefühls für die grösse des eigenen ballparks ist es tatsächlich nützlich, zumal sich die menschen in summe üblicherweise erstaunlich rational verhalten, oft viel rationaler, als es zb die macher der einzelnen angebote selbst können. (twitter zb macht entgegen vieler unkenrufe ja noch immer vieles richtig, ihre ganzen probleme haben sie sich eigentlich durch eine deutliche selbstüberschätzung eingehandelt und je länger sie das nicht verstehen, desto fragiler wird der ganze datentyp tweet, weil sie ihn mehr und mehr micromanagen und immer mehr einschränken, aber das ist eine andere geschichte.)

(die gleiche logik kann man grundsätzlich natürlich auch in anderen feldern wie handel oder gadgets vermuten, zumindest als asymptotischer horizont. oft hilft wirklich schon, wenn man sich die lage für die zwei achsen offline/online und statisch/mobil durchdenkt.)


Ethische Rocker III - Die Rückkehr der Kontrollgesellschaft

4 jahre nach ethische rocker und ethische rocker II gwm. der dritte teil meiner trilogie über die theorie des kontrollverlusts von mspro – zur abrundung in form eines (informellen, nicht kritischen) eindrucks von das neue spiel.

wie soll ich sagen und ich will nicht despektierlich klingen, aber ich war wirklich positiv überrascht. nicht dass ich was anderes erwartet hätte, aber es ist inhaltlich insgesamt sehr rund und durchaus am puls, er hat eine gute und sehr lesbare sprache gefunden und driftet dabei weder in diesen oft unsäglichen babytalk für dummies ab, noch überladet er es bedeutungsschwanger mit irgendeinem jargon. und er definiert einen sinnvollen und konkreten politischen vektor, ohne dabei aber ins assoziative wunschdenken oder ins frei flottierende fordern oder in die netzpolitische selbstgefälligkeit zu verfallen (wie es sich beim thema doch anbieten würde). eher im gegenteil, er bleibt eher pragmatisch und stapelt mit seinen thesen fast schon tief. nicht nur deshalb von mir eine kauf- resp. leseempfehlung.

(seine kernbegriffe (kontrollverlust, query) verwendet er vl. etwas zu grosszügig. nicht dass sie unfruchtbar wären, aber er presst so ziemlich jeden gedanken mit ihnen aus, egal ob er jetzt besonders gut passt oder nicht. und query oder kontrollverlust sind halt so generisch und selbstevident, dass sie natürlich immer irgendwie passen. aber ich könnte sie auch auf jede beliebige folge columbo anwenden und hätte die gleiche schlüssigkeit (ist der täter nicht das paradigmatische (arrogante, selbstverliebte) subjekt des kontrollverlusts, das alles geplant und in der höchsten präzision ausgeführt hat, nur um dann über columbo zu stolpern, der die spuren sammelt und sie mit queries mehr und mehr vernetzt bis der täter selbst die unmöglichkeit seiner offiziellen narration eingestehen muss usw.) aber darauf will ich nicht herumreiten; wer kein freund von social objects ist, muss zb hier einiges ertragen, die mappe ich ja auf alles was nicht bei drei auf den bäumen ist)

mein kleines problem mit dem buch ist aber, dass sein hauptbegriff ‘kontrollverlust’ selbst auf der falschen seite der unterscheidung/des bruchs angesiedelt ist und gwm. den blick aus der vergangenheit kapselt. was wir mit dem internet erleben ist in seinem wesen ja nicht ein verlust der kontrolle, sondern eine intensivierung und eine steigerung der komplexität des gesamtsystems, die halt mitunter eine verringerte kontrollierbarkeit der art und weise hat, wie andere systeme von uns und allem anderen ‘gebrauch machen’ oder eben anschluss suchen (siehe etwa am ende der wurst). der jeweilige grad der kontrollierbarkeit ist kein wesensmerkmal, sondern ein effekt des neuen aggregatzustands. über den kontrollverlust sinniert man nur auf dem schrumpfenden eisberg, im wasser selbst ist er nicht besonders sinnvoll. (er spürt das glaube ich auch selbst. wenn man so will ist das ganze buch der versuch diesen begrifflichen fehler/den umstand sich auf die eisscholle gesetzt zu haben zu korrigieren.)

aber wie gesagt: lesetipp.

meta 10.11.2014 /via @mspro #

Die Zeitgenossen der Gesellschaft Pt. 15: Die Stummfilm-Diva

Die Stummfilm-Diva (m/w) ist ein gelegentlich gesehener Zeitgenosse, der sich dadurch auszeichnet, dass er vor 30, 40 Jahren mal ein Star war, er sein Selbstbild seit damals aber nicht mehr angepasst hat und nun nur noch in einer Scheinwelt lebt, in der er immer noch der Star ist, während die Welt weitergezogen ist und etwa Farbe und Ton bekommen hat.

Der Punkt, um den es mir dabei geht, ist das Divergieren von Selbstwahrnehmung und Fremdwahrnehmung, wobei die Selbstwahrnehmung oft durchaus verständlicherweise gleich bleibt, sich die Fremdwahrnehmung aber mitunter dramatisch verändert hat, weil sich die eigene Funktion für die Anderen dramatisch verändert hat, das jedoch nicht zur Kenntnis genommen wird. Und es geht dabei nicht um eine natürliche Evolution oder um unvermeidbare Kollateralschäden von einem ‘Fortschritt’, sondern um das Ignorieren von – oft natürlich technokulturell bedingten – Veränderungen und Verschiebungen der eigenen Position, was mittelfristig halt zu einer zunehmenden ‘Verrücktheit’ des eigenen Blickwinkels führt.

Wie das oft ausgeht wissen wir aus Sunset Blvd.

(die paradigmatischen stummfilm-diven sind derzeit natürlich die zeitungen und zeitschriften. immer, wenn man vom nächsten bezahlmodell hört, das sich irgendeine publikation ausgedacht hat, muss man sich ja kurz am kopf kratzen und sich fragen, wie sie sich auch nur ansatzweise denken können, dass das eine gute idee ist, oder wie sie sich auch nur irgendwie vorstellen können, dass das eigentlich funktionieren müsste. aber wenn man sie als stummfilm-diva konzipiert, wird das auf einmal schlüssig:

vor dem internet war des selbstbild der verlage noch halbwegs mit dem fremdbild für ihre leser im einklang. nach dem internet haben die verlage von sich selbst noch immer das gleiche selbstbild, aber das fremdbild für die leser hat sich fundamental verändert, ebenso wie alle jobs, die sie für ihre leser noch erfüllen. dieser umstand wird von der verlagen aber mit doch bemerkenswerter sturheit übersehen und/oder verdrängt.

wenn man so will: vor dem internet waren zeitungen für die zeitungsmacher und für die leser ein menü mit suppe, wienerschnitzel, salat und einem seidel bier. was anderes gab es im anderen gasthaus des dorfes auch nicht, und es war günstig und hat wirklich gut geschmeckt – es war also für alle ein guter deal. nach dem internet sind zeitungen für die zeitungsmacher selbst noch immer das gasthaus mit diesem köstlichen menü, für das leute aus der ganzen welt angereist kommen – aber für die leser haben sich die einzelnen gerichte der speisekarte schon vor jahren aufgelöst und mit allen anderen gerichten aller anderen gasthäuser zu einem einzigen, überall und immer verfügbaren, megalomanischen all-you-can-eat buffet mit köstlichkeiten aus der ganzen welt rekombiniert. der leser sieht die gasthäuser der zeitungen überhaupt nicht mehr; wenn der gurkensalat wirklich gut war, dann schlägt man vl. mit besonderer freude zu, wenn man im buffet darüber stolpert, und wenn das wienerschnitzel wirklich besonders zart und knusprig war, dann merkt man sich vl. sogar den ort, aber wenn nicht auch kein problem. wie gesagt: selbstbild der verlage und fremdbild für die leser stimmen nicht mehr überein, weil sich für die leser die funktion, der wert und die relativen vorteile der zeitungen komplett verändert haben.

es ist nicht gänzlich unverständlich, dass die verlage den umstand, dass sich die umwelt verändert hat und sie für alle anderen plötzlich eine andere funktion erfüllen, einfach verdrängen. ihre internen prozesse zur erstellung von texten haben sich ja vglw. wenig verändert, der aufwand zur erstellung von ‘aufwändig recherchierten’ artikeln wurde nicht viel kleiner, die grossartigkeit des geschmacks oder der urteilskraft des redakteurs nicht schwächer, es gibt noch immer viel vom gleichen zu tun. der gedanke, dass sie für die leser nicht mehr der informationsnabel der welt sind, kommt ihnen ganz einfach gar nicht, und deshalb haben sie ihren eigenen anspruch überhaupt nie reflektiert oder überdacht und also auch nicht angepasst.

das problem ist halt, dass in der realität das selbstbild mit dem fremdbild konfrontiert wird, und dass ein zu stark divergierendes selbstbild zu aktivitäten führt, die einfach nicht mehr angenommen werden oder anschlussfähig sind. sich im all-you-can-eat buffet hinzustellen und für den gurkensalat eine zusätzliche wöchentliche pauschale zu verlangen und die wienerschnitzel à la carte zu verkaufen wird selten funktionieren, auch wenn das vl. ungerecht ist, weil sie sich beim kochen wirlich sehr bemüht haben und sie wirklich gut schmecken. es nützt halt nichts.

solange sie aber nicht den blickwinkel wechseln und ihre funktion einmal von aussen wahrnehmen, werden sie zu keinen massnahmen kommen, die tatsächlich funktionieren könnten. sie brauchen also einen realitätscheck, sie müssten wirklich einmal in einen spiegel schauen und das ist natürlich nicht leicht und wird mit jedem jahr schwerer)

((nur ein hint: auch vor dem internet haben die leser nie für den eigentlichen ‘journalismus’ bezahlt und das wussten die zeitungen auch selbst, es war aber gwm. notwendig so zu tun als ob es so wäre; dafür nach dem internet geld zu verlangen ist also völlig aussichtslos. aber sie waren doch aus anderen gründen ein wirklich attraktives produkt und haben eine ganze reihe an anderen jobs erfüllt; ihre überlegungen für die gegenwart und zukunft sollten also eher in die richtung gehen, welche davon noch immer funktionieren könnten und welche neuen sie vl. erfüllen könnten. ein guter startpunkt ist dabei übrigens immer cwf+rtb. das problem dabei ist, dass das eine gewisse ehrlichkeit, bescheidenheit und realismus erfordert, keine eigenschaften mit denen sie sich als stummfilm-diva bisher ausgezeichnet haben. aber wieder: es nützt halt nichts))

(abt. supermarket studies)

meta 19.10.2014 #

Der Besserwisser pt. 2 (Apple Watch)

kl. nachtrag zum besserwisser pt. 1 revisited : ich wollte eigentlich zur apple watch nichts mehr sagen, bevor ich sie nicht zumindest einmal an der hand gehabt habe und zumindest die rudimentärsten offenen fragen (wie lang hält der akku wirklich, was geht für entwickler mit diesem watchkit, bis zu welchem grad kann man sie ohne iphone in unmittelbarer nähe verwenden, wieviel kosten die editions, inwieweit lassen sich die innereien updaten, etc.) ansatzweise beantwortet sind, und ich wollte die besserwisserserie eigentlich auch besser früher als später unter den teppich kehren, aber mit zwei kleinen änderungen des bezüglich ellos im speziellen aber sozialer webapps im allgemeinen vorgeschlagenen modells lassen sich auch die meisten einschätzungen zur watch etwas relativieren, wenn ich also schon dabei bin hier also auch noch usw…

zur erinnerung: die unterscheidung in maschine auf der einen seite und historisch soziale kontingenz auf der anderen seite im zusammenspiel mit dem begriff des asymmetrischen wettbewerbs hilft uns zwar nicht beim vorhersagen der auswirkungen von sozialen webapps, aber so trivial sie ist lassen sich damit die meisten getätigten prognosen ‘dekonstruieren’.

änderung 1: auf der anderen seite der ‘maschine’ apple watch steht nicht länger eine gesellschaftliche kontingenz, kein ergebnis eines historischen und sozialen ausdifferenzierungsprozesses usw., sondern ein jeweils einzelnes subjekt mit jeweils konkreten bedürfnissen und begierden. es gibt also nicht eine maschine für alle, sondern die (im rahmen der editions und variierbarkeit mehr oder weniger) gleichartige maschine für jeden einzelnen.

änderung 2: asymmetric competition bleibt zwar auch hier ein nützliches konzept, hier noch nützlicher aber ist: job to be done

und auch das verwende ich frei nach asymco der es frei nach christensen verwendet und das ist die ganz einfache frage: für welchen job heuere ich ein ding an? es geht dabei nicht darum, dass das jeweilige individuum die frage dann auch adäquat beantworten kann (oft wissen wir es selbst nicht, oft ist es was gänzlich anderes als vermutet), sondern um die annahme, dass wir das immer für einen konkreten job in unserem leben tun. diese jobs können übrigens durchaus andere sein, als es die macher der maschine gedacht oder geplant haben.

der fehler, den fast alle machen, die ihre einschätzungen zur apple watch publizieren, ist für die watch den EINEN RICHTIGEN job to be done zu suchen, diesen dann üblicherweise als zu erledigenden job FÜR ALLE selbst festzulegen und dann ihre gesamte kritik auf diese ihre eigene festlegung zu beziehen. aber hier kommt der unterschied zwischen der anderen seite der maschine zum tragen: anders als bei sozialen webapps, wo es (innerhalb vieler freiräume) doch auch stark darauf ankommt, ein spezifisches soziales objekt gemeinsam auszuhandeln, die dichte also mit dem grad der gemeinsamkeit zunimmt, liegt der wert von gadgets im potential für einen einzelnen einen oder auch mehrere jobs zu erledigen, der wert des gadgets also mit der vielzahl an möglichkeiten zunimmt.

im fall soziale webapps ist die geschichte kontingent, im fall gadgets der nutzen. die watch muss also keinen von irgendeiner instanz festgelegten universellen überjob realisieren, sie muss nur für jedes konkrete individuum NUR EINEN EINZIGEN aller möglichen jobs realisieren, um dem leben mehr freude oder sinn zu geben. und mit kosten von 50c pro tag liegt die hürde dafür, die watch auch ökonomisch attraktiv zu machen, wirklich nicht besonders hoch.

wenden wir diese abgewandelte unterscheidung und das neue konzept nur exemplarisch an einem der grössten cluster eines vorfestgelegten überjobs an (wer lust hat kann das leicht auf andere cluster wie ‘mode’, auch hier ‘offenheit’, etc. übertragen):

die naiven evolutionisten

die naiven evolutionisten zeichnen sich dadurch aus, dass sie die watch als technoevolutionäre weiterentwicklung vom iphone sehen und die uhr als neue zentrale (kleinere, permanentere, bessere) kommandozentrale für das vernetzte selbst konzipieren, die das handy ablösen wird. und weil die watch das in der vorgestellten version nicht in der geforderten autonomie und vollständig tut und das iphone noch nicht komplett ersetzt, wird sie gleich bis auf weiteres als im grunde völlig sinnlos verworfen.

ich sympathisiere grundsätzlich mit jedem ansatz, der sich explorativ oder als gedankenspiel mit möglicherweise kommenden technologien auseinandersetzt, und es steht natürlich jedem völlig frei was auch immer als k.o.-kriterium für sich selbst zu definieren – aber wie man nicht sehen kann, dass die watch nicht alles bisherige vollständig ersetzen muss und wie sie auch im zusammenspiel mit dem ohnehin gegebenem setup hunderte andere und mitunter auch gänzlich neue jobs tun kann, geht wirklich über meine vorstellungskraft.

(nur am rande: ich glaube überhaupt, dass erst durch den dialektischen gang durch die watch einige qualitäten und eigenschaften von stinknormalen smartphones sichtbar werden, die wir derzeit gar nicht als solche registrieren oder schätzen; ein screen in der grösse zwischen 4 und 5 inch dürfte doch der sweet spot zwischen nützlichkeit zur darstellung von information und den kosten für portabilität sein; alles was kleiner ist hat (auch wenn es optimierte apps oder alternative interfaces wie voice gäbe) zunehmende kosten bei der informativen universalität, alles was grösser ist kann nicht länger gedankenlos eingesteckt werden. und wir können damit telefonieren; auch wenn wir das üblicherweise nicht mehr tun, viele wollen zumindest die theoretische möglichkeit dazu und nicht jeder will dick tracy sein. aber davon abgesehen hat ein phone etwa auch den vorteil nicht am körper befestigt zu sein, sondern als ding autonom zu sein, und das ist vl. wichtiger als wir es derzeit vermuten. aber das ist ein anderes thema.)

meta 06.10.2014 #