hackr.de hackr logo abt. analysis

die romantische komödie


Die Zeitgenossen der Gesellschaft Pt. 47: Der Chatbot

Der Chatbot (🤖) ist ein in letzter Zeit überall und immer gesehener Zeitgenosse, der sich durch sein freundliches, kollaboratives, wunderbar improvisierendes Wesen auszeichnet, der auf Kritik immer angenehm und konstruktiv reagiert und sich bei Fragen und Szenarien als erstaunlich resourceful erweist und von dem sich so mancher diesbezüglich durchaus was abschauen könnte.

In seiner modernen Form gibt es ihn ja noch nicht so lange, insofern will ich noch kein abschließendes Urteil fällen, aber ein paar verstreute Anmerkungen möchte ich machen:

ich glaube es ist wichtig zu verstehen, dass er mit denken, sprechen, intelligenz oder bewußtsein falsch beschrieben wird. es schaut für uns natürlich so aus, weil er vergleichbare effekte triggert und mit uns via sprache interagiert, über dinge, die bei uns sowas wie intelligenz oder denken erfordern, aber als metaphern zur beschreibung seines wesens führen sie uns auf ein gleis in eine falsche richtung, was schade ist, weil es uns nicht nur einige nützliche dinge verbaut, sondern auch das angemessene erstaunen über die echte erstaunlichkeit erschwert.

ich habe noch kein gutes mentales modell für mich gefunden, aber wahrscheinlich nicht ganz falsch ist die vorstellung als multdimensionaler, mannigfaltiger vektorraum, in dem entlang ‘unendlich’ vieler serien von textsequenzen ähnlichkeitscluster eingeschrieben sind bzw. emergieren, und der in der folge antwortsequenzen generieren kann, denen nicht nur der ‘ozean’ der hineingefütterten vorgeschichte zur verfügung steht, sondern die sich in der kontinuation des ‘dialogs’ dann zunehmend präzisieren und personalisieren können und zu einem gewissen grad auch eine art geschichte etablieren.

ein aspekt, der sich damit gut erklärt, ist dieses doch erstaunliche talent des zeitgenossen, die ebene von begriffen bei bedarf zu wechseln und zunehmend ‘besser’ anzupassen. menschen tun sich mit der reflexion der sprach- und denkbedingungen ja schwerer als sie sollten, es ist ja alles eh nur noch ein gigantisches missverständnis und nur die einfältigsten bleiben effektiv, aber chatgpt hat fast nie ein problem damit, mit dem begriff nach einspruch oder widerspruch einfach ins nächste cluster zu wechseln und die dort gemachten verdichtungen aufzugreifen und zu benutzen. er ist der paradigmatische improv, alles ist ‘ja, und’. er verwendet bis zu einem gewissen grad ‘continuations’, bündelt also den kontext eines chats und aller intern gemachten ‘zwischenprompts’ als markierungen, die ein gewisses plateau etablieren und das funktioniert einfach irre gut. genau das vermittelt uns den eindruch, dass er versteht, im umgang mit menschen sind wir das nicht gewohnt. auch sein induzieren und deduzieren ist (zumindest noch ein weilchen) innerhalb eines rein mathematischen modells das effekte generiert beschreibbar, bei dem die chats wenn man so will temporäre monaden sind, innerhalb derer er alle möglichen verläufe einige cpu-zyklen oder bis irgendein lokales optimum erreicht ist lang intern simuliert o.ä.

auch die doch überraschende ‘kreativität’ seiner chats, gedichte, listen und erzählungen bekommt damit nicht nur eine plausible erklärung (er kann problemlos entlang der verschiedensten lateralen und kollateralen verbindungen wechseln, er kann dann auch dort sofort die schlüssigen kombinationen erkennen), es gibt uns dadurch auch einen neuen blick auf das wesen unserer kreativität selbst (die dann irgendwie natürlich auch nix anderes ist, aber dann halt trotzdem ganz was anderes usw.).

uff, es wird schon etwas lang, aber zwei punkte noch:

  • das offensichtliche ist fortan immer und für alle verfügbar. das klingt nicht besonders toll, aber das könnte vieles ändern und einige bereiche up-leveln. für jeden menschen war bisher ja nur das offensichtlich, was für ihn schon offensichtlich ist, aber das ist immer nur ein tropfen im pool der gesamten offensichtlichkeit und der rest blieb unoffensichtlich und verborgen. fortan braucht man nur einen chat beginnen und an der oberfläche schwimmt schon die offensichtlichkeit. (man braucht ihm da nix glauben, wir wissen, dass er auch viel erfindet, aber als erste anregung ist man oft schon viel weiter)
  • das gesamte mediale milieu wird komplett durchgemischt und sich ein einem neuen stratum neu ablagern müssen. das ganze feld ist schon seit jahren ein punchingball verschiedener kräfte und krisen, metaverses und cryptos, ein überdruss breitet sich an allen ecken und enden aus, aber gemeinsem mit dem twitter-murks holt der chatbot zu einem one-two punch aus, der eine genuin neue sinnstiftung erfordert. content ist in der bisherigen form jedenfalls tot, gleichzeitig wird er bleiben, nur eine neue funktion erfüllen müssen.
29.04.2023 # https://hackr.de/2023/04/29/die-zeitgenossen-der-gesellschaft-pt-47-der-chatbot

Leftovers 2022 (Agency Edition)

auch nicht weitergekommen sind wir 2022 jedenfalls dabei, neben einer (immer berechtigten) kritik an den umständen und plattformen, gleichzeitig einen (oft durchaus möglichen) gegenentwurf im inneren der umstände und plattformen zu formulieren.

ein bisschen spitzer formuliert: mir ist keine einzige netzpolitische kritik oder open/indie/dezentral/crypto-reinterpretation bekannt, die zumindest auch die aktuell gegebenen möglichkeiten einer individuellen agency innerhalb eines hegemonial strukturierten feldes zumindest erwähnt.

(dass keine einzige (im sinne von im promillebereich nicht messbar) massenmediale publikation in zehntausenden artikeln zur privatsphärengefahr und surveillance-kapitalistischen datensammelwut von apps die möglichkeit beschreibt, dass man cookies halt schon auch selbst löschen kann, oder dass es einen private-mode gibt, bei dem alle cookies von selbst gelöscht werden, oder dass man mehrere browser für mehrere dinge verwenden kann etctrara, das kann ich sogar verstehen, die wollen natürlich die leserschaft monetarisieren und nicht emanzipieren usw., aber tbh, auch im gesamten netzpolitischen diskurs (und den organen wie netzpolitik, techdirt, oder dem oeuvre von cory doctorow) sucht man eigentlich lange. ich bin mir nicht sicher ob es eine unverschämte unterstellung ist, hier eine variation vom shirky prinzip zu vermuten (critics will try to preserve the problem to which they provide the criticism), aber es gibt zumindest zwei grobe probleme:

  • zum einen bleiben sie selbst im gleichen narrativ und dem gleichen plateau, das sie eigentlich bekämpfen u/o verändern u/o transzendieren wollen. via mspro lief mir gestern dieser eigentlich sehr supere thread von cory doctorow durch die TL (gibts auch im rebundle). aber während er die beteiligten ökonomien luzide beschreibt, so liest sich das ganze genauso gut als handbuch, das sich dann auf jeder ableitungsebene wiederholen lässt oder aber auf den offenen/dezentralen/föderalen alternative wiederholt wird, mit dem user immer als unterworfenem unter dem strom. in meinem slice der webkritik vermisse ich seit mindestens 10 jahren den bruch im narrativ, der einen hauch utopie zumindest erahnen lässt und nicht das gleiche dann halt im gegenteil wiederholt, think kroker (mit dystopischem pretext) in den 90ern oder bubblegen (mit hyperaffirmativem) in den nullern.
  • zum anderen übersehen sie jede form von agency im bestehenden milieu. das nur kurz konstatiert, weil das thema viele mausefallen hat, die man immer zuerst entschärfen/kontextualisieren müsste, aber nur als beispiel neben den oben erwähnten cookies hat zb cory ein paar doch naheliegende aspekte nicht erwähnt: (a) man kann auch innerhalb einer struktur mit den mitteln der struktur gegen die machtverhältnisse arbeiten (subkulturen haben das mehr oder weniger immer schon getan resp. mussten das tun, oft entstand aber gerade dudurch ihre kraft; das sentiment unserer zeit ist aber natürlich, dass die dinge ihre explizite form suchen). (b) twitter zb ist auch as is mehr oder weniger vollständig selbstkontrolliert. wenn man ein bisschen programmieren kann, kann man mit der API eig. machen, was man will (ich hab mich mit twitter recht viel herumgespielt, die gute nachricht, viel bringts eh nicht). aber das kann halt nicht jede, aber es wird halt auch nie erwähnt oder erklärt. (ç) niemand darf nur eine einzige plattform verwenden (und ist der dominanten also ausgeliefert, wenn man mit anderen kommunizieren will), niemand muss sich zwischen der hegemonialen und der dezentralen entscheiden und alles andere aufgeben, man kann sich sein eigenes bündel zusammenstellen wie man will, man kann auch zwischen den plattformen flottieren.

(zum glück ist das eh alles egal usw.)

09.01.2023 # https://hackr.de/2023/01/09/leftovers-2022-agency-edition

Das Einhorn


doch interessant, wie verschieden die wahrnehmungen von twitter und also die interpretation von diesem musk stunt sind. blöderweise ist wohl genau diese koexistenz von strukturell verschiedenstem das, was es erträglich erhalten hat und was in der diaspora nie mehr sein wird

blogpost zum tweet

vor allem auch weil die twitterwelt eben alles ist, was der twitterfall ist, will ich die positionen und wahrnehmungen nicht im einzelnen betonen, sondern nur ein paar allgemeine anmerkungen über twitter machen, die ich im kollektiven unsere-zukunft-nach-musk gemurmel kaum berücksichtigt finde. schnell vorab:

twitter ist ein einhorn, das im zoo unserer webdienste/plattformen einen singulären charakter hat. viele gängige techniken aus den playbooks (von startups und usern) für social media greifen bei twitter nicht und sind öfter als nicht eher kontraproduktiv.1

5 elemente dieser singularität:

- das soziale objekt von twitter ist ein gedanke / ein moment
(gedanken resp. momente sind mannigfaltig, deshalb ist es auch twitter, weil es die matrix aus input und möglichkeiten der benutzung ist. für mich ist es völlig unerklärlich, dass mehr oder weniger überhaupt keine interpretation der ereignisse nach musk das soziale objekt der jeweiligen plattform auch nur im ansatz berücksichtigt. alle tun so, als wäre überhaupt jedes soziale netzwerk austauschbar gleich, social graph baby!, als könnte und sollte man jetzt halt genausogut auf tiktok (das ist ja eh die zukunft, dort sind doch die jungen) oder ins fediverse oder in die blockchain oder sonstwohin gehen, dabei geht es überall um was völlig anderes (in meiner TL war wusi die einzige, die das zumindest registriert hat “Notfalls lip sync und Tänze”.)2

- der twitter handle ist die de-facto universelle adresse für öffentliche ansprechbarkeit im netz
es gibt natürlich noch andere ‘adressen’ die eins hat oder haben könnte (email, telefonnummer, url vom blog, andere profile, etc.) aber nur der twitter handle wird universell verstanden, ist öffentlich und unaufdringlich. (im profil nur die ersten 5 oder so tweets zu zeigen und dann mit dem signup popup zu kommen ist deshalb eine der allergrößten idiotien im web)

- tweets sind in ihrer unveränderbarkeit die einzigen stabilen, in raum und zeit gefroren referenzpunkte im web
man kann sie löschen aber ansonsten ist das der eine gemeinsame öffentliche raum, in dem aussagen fest stehen (und in der folge rekonstruierbare referenzen für historische ereignisse, geschichtliche entwicklungen usw) sind. (der edit button ist deshalb eine der allerallergrößten idiotien und unforced errors im web)

- twitter ist egalitär / für alle gleich
mit warhol könnte man sagen ‘you can know that the president tweets, Liz Taylor tweets, and just think, you can tweet, too. Twitter is Twitter and no amount of money can get you a better Twitter than the one the bum on the corner is enjoying. all the tweets are the same and all the tweets are good.’
das trifft zwar teilweise auch auf andere plattformen, apps und gerätschaften zu, aber bei twitter koinzidiert das auch mit dem ‘datentyp’ tweet selbst, der die einfachste universell sinnvolle einheit im web ist, wenn man so will. jeder hat die exakt gleiche möglichkeit zu tweeten (schon bei flickr und youtube ist es ein bisschen anders, da spielt bald die kamera und andere produktionsmittel eine rolle; auf instagram die eigene optik und der zugang zu setups; auf tiktok das alter und verfügbare zeit; auf blogs der grad der beharrlichkeit u/o sturheit usw.) bei twitter braucht man nur zwei finger und ein beliebiges internetfähiges gerät, für den tweet macht das keinen unterschied. (deshalb ist dieser twitter blue button zumindest eine große dummheit, weil einige tiere gleicher als andere werden usw.)

- twitter ist ein dorf
man sitzt mit allen anderen zusammen. neben dem präsidenten und liz taylor und dem bum auch das common squirrel und das possumeveryhour und vielen andere personen oder bots, die einen vl. wirklich interessieren. das verhältnis ist aber symbiotisch, der raum spannt sich in und durch twitter erst und nur in der benutzung auf.

das alles ist eher grundsätzlich und bedeutet jetzt für den einzelnen tweep zunächst einmal nichts, das etabliert nur einen spezifischen raum für kontingenzen, der in dieser art aber eben einzigartig und nicht resimulierbar ist und der nicht mal eben ausgerupft und an anderer stelle wieder eingepflanzt werden kann. deshalb empfiehlt es sich eine frage im hinterkopf zu behalten:

- was ist der eigentliche job to be done einer jeweiligen verwendung von twitter? (job tbd frei nach asymco der es frei nach christensen konzipiert, siehe)

die antwort für einen selbst wird man nicht finden, der mensch ist nicht dafür gestrickt sich selbst zu verstehen, aber mit den milchshakes von christensen können wir erahnen, dass es was anderes ist, als wir von allen seiten hören oder aber auch selbst glauben. man landet dabei auch schnell in einer art inception, wo hinter jeder ebene eines jobs eine andere ebene eines eigentlicheren jobs steckt, usw., aber das macht alles nix. alle ebenen wirken zwar gleichzeitig, aber man operiert immer nur unter temporärer selektion einer spezifischen ebene.
was nun vermutet werden darf: jobs tbd sind besser oder schlechter für twitter geeignet. manche wurden durch twitter tatsächlich erst möglich/auf scale praktikabel. der großteil der kognitiven dissonanzen, die wir im web in den letzten 10 jahren (nicht nur auf twitter) erleben, entsteht, wenn jobs tbd in (platt-)formen gepresst werden, die sich dafür einfach nicht eignen. (vor allem das nicht zünden vom indieweb und fediverse hat leider die eigene strukturelle inkompatibilität mit in ihrem wesen ehrenvollen ‘causes’ noch nie gesehen, weil sie ihren job tbd dahinter noch nie verstanden haben, aber das ist eine andere auslaufrille bei mir)

ohne microzumanagen oder die pluralität der jobs festlegen zu wollen, eine regel für twitter leitet sich daraus ab:

- twittere spezifisch!
auch wenn tweets in den allgemeinen raum aller tweets gepostet werden, reaktualisieren sie immer das subjekt auf basis dessen job tbd und adressieren dabei zunächst einmal immer nur die eigenen followers und spannen insofern im global space eine eigene, idiosynkratische fläche auf. man twittert immer nur in einem ganz konkreten, spezifischen verhältnis zum kollektiv, das sich aber permanent aktualisiert (und das immer auch mit einem potential zum kurzschluss verbunden ist. die paradigmatischen effekte sind wohl serendipität und viralität, aber in den kleineren formen steckt natürlich die hauptattraktivität von twitter, weil das eigene oevre immer über gesten, memes, second order trends, etc. im faktual mitschwingt. worin die spezifität besteht ist schon wieder mannigfaltig, aber der effekt davon ist, dass sich dadurch das soziale (im ursprünglichen sinn vom knacks, siehe) überhaupt erst etablieren kann).

(dem fediverse würde ich lustigerweise exakt die komplementäre regel mitgeben: toote allgemein! alles was den symbolisch-imaginären resp. sozialen überbau nicht braucht ist im fediverse eig. besser aufgehoben)

in diesem sinne: macht was ihr wollt, es gibt gute gründe für alles, aber lasst euch nicht den spaß von einer dumpfbacke verderben.

—-

1 es ist ein einhorn trotz und nicht wegen der corporate entity twitter. beobachten kann man das im grunde seit dem start und den damaligen megalomanischen phantasien, die sich von generation zu generation vererben. sinnloses wachstum, viralität, feature creep und vor allem diese diese fixe idee mit dem innovieren z.b. sind nur bei plattformen, die nicht auf sinn basieren, ein veritables mittel um ein momentum zu generieren, bei twitter wäre von anfang an die freiwillige selbstbeschränkung auf eigensinn selbst die wertvollste kraft gewesen, aber ich verzettle mich. die zeit in den nullern war jedenfalls lustig, als sich das feuilleton noch gefragt hat, für was das gut sein soll, als es noch keine ausgestampften pfade für die möglichkeiten (auf einfluss, reichweite, audience usw.) gab, als noch alles möglich schien.

2 die ursprünglichen 140 zeichen, in die im grunde nicht mehr als ein gedanke passte, wurden in der folge natürlich ausgeweitet, es gibt dann auch links, threads, photos und videos, reaction gifs, vorschauende twittercards usw., der paradigmatische datentyp von twitter bleibt aber der ein einem mentalen zyklus erfassbare moment.
aus dem gedanken wächst dann alles mögliche im anschluss, aber was beobachtbar gut funktionert ist das treiben im schwarm, das vorbeischwimmen an witzen, anmerkungen, erfassen einer gleichzeitigkeit bei live events, eindrücken, gefühlen, selbstvergewisserungen und virtue signaling für einen tribe, vor allem natürlich serien und cute overload usw.
politische diskussionen, wissenschaftliche abhandlungen, aufklärung und überzeugung von unbekannten, etc. sind nicht unmöglich, erfordern aber auf twitter second order strukturen innerhalb derer sie funktionieren.
gedanke jedenfalls ist ein sehr offener datentyp, der eben die unterschiedlichsten dinge ermöglicht, siehe wieder den ausgangstweet, man braucht sich also nicht wundern, aber man sollte halt auch wirklich mit den festlegungen aufpassen, zumal jede festlegung alle anderen möglichkeit behindern könnte.

07.11.2022 # https://hackr.de/2022/11/07/das-einhorn

Nützliche Unterscheidungen pt. 38 (The Reasonable Edition)

Eine weitere im Grunde offensichtliche, aber derzeit in vielen das Web u/o Technologie u/o Politik/Sozialität im Zeitalter der mobilen Vernetztheit betrefenden Debatten öfter als nicht übersehene Unterscheidung ist die zwischen Voraussetzung und Ursache.

Aus Vogelperspektive betrachtet: die Welt muss da sein, damit in ihr irgendwas geschehen kann; trotzdem ist die Welt dann nicht Ursache für alles, was in ihr geschieht. Die Sprache muss da sein, damit mit ihr irgendwas gesprochen werden kann; trotzdem ist die Sprache nicht Ursache für alles, was mit ihr gesprochen wird. Usw.

Man kann das dann beliebig granular herunterbrechen, derzeit gerade aber gerne verwechselt: die Existenz von Facebook ist eine Voraussetzung dafür, dass darauf Nachrichten, Meme und Seme kursieren und sich auch in kreisenden Bewegungen steigern können, aber Facebook ist nicht die Ursache dafür, dass sich in bestimmten Clustern besonders die allerblödesten postfaktischen Erregungen hochschaukeln.

(natürlich gibt es immer wieder auch einen mehr oder weniger starken zusammenhang zwischen dem ermöglichenden und dem verursachsenden – im fall socmed hat das soziale und das infoökonomische design der jeweiligen plattform mitunter auch signifikanten einfluss darauf, was wie mit welcher verstärkungslogik strömt etc. – trotzdem laufen alle interventionen, die diese unterscheidung nicht treffen, etwa die ganzen ‘facebook ist schuld an trump wegen den fakenews in den filterbubbles’ erklärungen, was sich ja als primäres narrativ der selbstberuhigung der medien über sich selbst etabliert hat, in die leere, weil sie am symptom doktoren wollen und nicht am grund, der in dem fall das eigene sichnichtfestlegenwollendebessermaldämlichstellen ist)

(abt: draw the distinction!)

20.11.2016 # https://hackr.de/2016/11/20/nuetzliche-unterscheidungen-pt-38-the-reasonable-edition

Was man von Big Brother über Trump lernen kann

in den USA hat in den letzten wochen ja nicht nur die wahl zum präsidenten stattgefunden, es läuft gerade auch die erste reine online-ausgabe von big brother. und wenn man sich die anschaut, kann man das wie und warum und nochmal das wie vom sieg von trump vl. schlüssiger verstehen, als mit den meisten medienkritischen und politikphilosophischen oder sozialwissenschaftlichen erklärungsversuchen, die wir in den kommenden tagen und monaten sehen werden.

ich gehe ausnahmsweise mal davon aus, dass nicht jeder hier mitlesende auch us big brother schaut, deshalb ein paar worte zum format:

es zieht eine gruppe von leuten in ein haus, lebt dort von der welt abgeschieden, wird aber rund um die uhr gefilmt und im fernsehen/im internet übertragen; jede woche wird eine person hinausgewählt, der letzte verbliebene gewinnt 250k; das spiel besteht einerseits aus wettbewerben, die bestimmte rechte verleihen (andere zur elimination nominieren, schutz vor nominierung, usw.), hat andererseits aber auch eine starke soziale komponente (allianzen bilden, kochen, nett oder unterhaltsam sein, dumm oder unfähig und also keine gefahr sein, usw.).

neu in der aktuellen online version ist, dass es keine komprimierte und editierte show im fernsehen gibt, die immer auch die interessen oder narrativen wünsche der produzenten reflektiert, sondern dass alles im webstream live gezeigt wird, auch das normalerweise versteckte. und noch wichtiger: dass die zuschauer durch abstimmungen in das geschehen eingreifen können (einen spieler nominieren, eine stimme zur hinauswahl, diverse andere sicherheiten oder vergünstigungen).

zum verständnis der wahl interessant war nun die dynamik und die feedbackloops der internen und externen gruppenbildungen, die sich nicht nur gegenseitig etabliert und beobachtet, sondern auch eine weise aufgeschaukelt, isoliert und verfestigt hat, die ohne diese wechselseitige interpenetration UND spezifische konstellation nicht möglich gewesen wäre:

der katalysator war eine (leider etwas unglückliche) primäre selbstselektive trennung im haus, bei der es einerseits die normalos (weiß, collegeabschluss, heterosexuell, fit und idealerweise aus dem süden) und andererseits die underdogs (schwarz, dropouts, schwul, dick) gab. und in dieser konstellation sympathisiert natürlich jeder zuschauer für die underdogs, was dazu führte, dass ‘amerika’ in den ersten zwei wochen die unsympathischsten WASPs rausgewählt hat, obwohl sie intern durch die wettbewerbe eigentlich die ‘macht’ im haus gehabt hätten.

der effekt davon war, dass die ‘misfits’ das als zeichen einer uneingeschränkten sympathie von ‘amerika’ verstanden haben, was sie in der folge auf eine weise selbstgerecht gemacht hat, in der plötzlich sie diejenigen wurden, die aus einer position der macht (amerika liebt uns und hasst die anderen) heraus begonnen haben, unnette und ungustiöse dinge zu tun (die polster der anderen unter ihrer achsel reiben oder darauf furzen, trashtalk der auch in den expliziteren roasts funktionieren würde, usw.) – während die verbliebenen ‘plastics’ plötzlich die sympathischen underdogs wurden, weil es einfach vier mädel waren, die überraschend gut miteinander ausgekommen sind (üblicherweise zerlegen sich die frauen in big brother als allererstes selbst).

(übrigens ein anfängerfehler, weil in dem format mittlerweile bekannt sein sollte, dass sympathie immer an die position gebunden ist und auch ehemalige fan favorites in nur einer woche zum verachteten individuum werden können, wenn sie ein zweites mal eingeladen werden und sich dann als checker geben)

der andere effekt war eine fanbildung außen, die die interne dynamik inklusive der falschen selbsteinschätzung und selbstgerechtigkeit und wachsenden kognitiven dissonanzen mehr oder weniger gespiegelt und übernommen hat.

üblicherweise ist es in der populärkultur ja so, dass die ‘misfits’ die sympathischen geheimen helden sind, denen man gerne die daumen drückt und die am ende idealerweise auch gewinnen, während die privilegierten ‘plastics’ abgestraft werden, sich ihr prinz als frosch herausstellt und sie wenn sie glück haben nach einer läuterung eine versöhnung erfahren.

hier war es aber so, dass die ‘misfits’ nach allen pragmatischen kriterien des zusammenlebens bald die eigentlichen ungustl waren, was von den ursprünglichen fans aber nicht zur kenntnis genommen wurde, was allerdings nur funktionieren konnte, indem der bezug zur realität kollektiv aufgegeben wurde und man sich auf eine art emergenten hive mind bezogen hat, in dem alles eitel freud und sonnenschein war.

das notwendige konstitutive element dafür war glaub ich, dass sich eine gruppe falscherweise selbst als ‘fucked over’ wahrgenommen hat. im haus hat sich diese auslegung in der dritten woche gebildet, nachdem die stimme von ‘amerika’ das erste mal nicht mehr zu gunsten der misfits ausgefallen ist, als sie selbst das erste mal an der macht waren. ihre einzige erklärung dafür war, dass der prozess selbst ‘rigged’ sein muss. amerika liebt sie, das haben die ersten wochen gezeigt, und die anderen sind furchtbare menschen, das ist selbstevident, es kann also nicht anders sein als dass irgendwas nicht stimmt.

und diese selbstwahrnehmung als ‘fucked over’ hat sich auch nach aussen übertragen. auch die fans der misfits haben einfach als axiom angenommen, dass niemand für die plastics stimmen könnte und dass jedes voting für diese also ‘rigged’ sein muss. entweder weil die fans der anderen rassisten oder homophob sind, oder weil sie das wahlsystem gamen, oder weil die produktionsfirma korrupt ist und das ergebnis fälscht.

nachdem diese falsche selbstwahrnehmung aber einmal etabliert war, kam es zu einer art operativen schliessung und entwicklung von techniken, die wir dann auch bei trump zu spüren bekamen:

  • die entwicklung von filter- und gruppierungsprozessen, bei denen man zunehmend nur noch das zu sehen bekommt, was man sehen will und was die eigene meinung bestärkt (blocked bye). ich bin kein fan des konzepts der filterbubble, weil es auf individueller ebene einfach kein problem ist, weil jeder seinen inputstrom so variabel halten kann wie er will; aber sozial verschaltet wird tatsächlich eine eigene dynamik getriggert, wenn leute beginnen den realitätsbezug sozial aufzugeben. wobei dabei ganz interessant ist, dass es weniger ein problem der sichtbarkeit von aussagen oder fakten ist – die gruppen besuchen sich auch gegenseitig um zu trollen usw. – sondern dass es eher darum geht, die eigene bewertung davon zu bestätigen.
  • die ausbildung einer paranoiden wahrnehmung, bei der schon die kleinsten dinge als beweis für eine verschwörung herhalten können. der ursprung der paranoia entsteht dadurch, dass das wahrgenommene gefühl des eigenen stroms nicht in der wahl amerikas reflektiert wird (die ursache dafür war bei big brother aber ganz lapidar, dass sich auf verschiedenen plattformen verschiedene fangruppen gefunden haben – auf twitter sind die fans der misfits, auf reddit die fans der plastics. im eigenen strom schwimmt man in einer bequemen mehrheit, den vl. grösseren schwarm zwei ecken weiter sieht man nicht). einmal etabliert beweist aber potentiell alles die verschwörung.
  • damit verbunden das verlieren von jedem maßstab resp. das verzerren von aussagen. stundenlange schimpftiraden sind gleichwertig wie ein ‘jeez, das sind solche idioten’, schon eine handvoll an fehlern reicht aus, um sie im argumentativen tresor zu verwahren und bei bedarf immer wieder herauszuholen.
  • eine verpflichtung für alles sein zu müssen, was den eigenen kandidaten begünstigt oder den anderen kandidaten benachteiligt, und gegen alles sein zu müssen, was den eigenen kandidaten benachteiligt oder den anderen kandidaten begünstigt (ansonsten schnell: hast du heute deine medikamente vergessen? achtung, dein account wurde gehackt)
  • ganz interessant dabei ist, dass neben der genuinen dummheit auf semantischer ebene, das kollektiv durchaus eine systemische schlauheit entwickeln und zu erstaunlich effektiven verfahren kommen kann (nur als beispiel: bei den votings ist es wichtig, die stimmen auf ein gemeinsames ziel zu konzentrieren, weil man sonst auch bei gegebener mehrheit gegen eine einheitliche minderheit verlieren kann; und während sich auf der ebene der interpretation von votings eher die bizarren thesen der grössten beliebtheit erfreuten, so hat es nur eine weitere woche gebraucht, bis mechanismen zur selbstorganisation etabliert waren)
  • neben der entwicklung von schlauen spielzügen eine parallele entwicklung von mehr oder weniger legalen tricks, das spiel selbst zu unterlaufen (um beim beispiel votings zu bleiben: neben den methoden zur selbstorganisation wurden gleichzeitig techniken entwickelt, die die selbstorganisation der anderen seite verhindern oder unterlaufen sollten – manipulation der polls, versuch der infiltration der anderen mit fake-accounts, usw.). viele aktivitäten griffen dann auch schnell unter die gürtellinie, verspottende meme sind noch eher die angenehmeren symptome. das problem der legitimität stellt sich deshalb nicht, weil man eben selbst die unterdrückte gruppe ist und in reiner notwehr handelt.
  • das spiel ist selbst asymmetrisch; where they go low we go high oder ein bezug auf rationalität sind keine strategien, mit denen man gewinnen kann. blöderweise hätte man mit einem where they go low we go lower noch mehr verloren.

das nur auf die schnelle, aber ich glaube die ähnlichkeiten mit dem wahlkampf von trump sind leicht zu erkennen (der grösste unterschied ist natürlich, dass sich im falle trump ausgerechnet die weiße mehrheit als unterdrückt empfunden hat, von den bürokraten in washington, von den liberalen medien, von den bankern an der wall street, von der sprachkontrolle der politisch korrekten, vom system clinton, von allen anderen, die ihnen die waffen wegnehmen wollen, usw.).

(der kapitale fehler war glaub ich nicht, dass wir uns auf falsche politische gewissheiten verlassen haben und die medien deshalb ihrem auftrag als überzeuger der mehrheit vom anständigen nicht nachgekommen sind, wie es sascha lobo in seiner analyse vermutet. wobei es eine fatale falsche gewissheit gab, nämlich die annahme, dass trump niemals wirklich gewählt werden würde, die vorstellung war einfach absurd; das hat niemand so gesagt, als horrorszenario wurde die möglichkeit natürlich betont, aber ich glaube es haben die wenigsten wirklich gedacht. reine spekulation, aber ich kann mir gut vorstellen, dass der gesamte wahlkampf anders abgelaufen wäre, wenn trump als realistische option empfunden worden wäre. retrospektiv kommt mir eher vor, dass der wahlkampf von clinton und allen liberalen medien primär auf verwaltung eines 5% vorsprungs ausgelegt war, wahrscheinlich um sich nicht unnötig auf versprechungen oder konkrete positionen festlegen zu müssen, die sich dann in der amtszeit vl. rächen könnten. kleines indiz dafür war, dass sie nicht einmal eine alternative rede vorbereitet hatte.)

wobei die frage bleibt, was man tun hätte können oder was man in zukunft tun kann. wobei man aber zumindest sehen kann, was in dieser konstellation nicht funktioniert – nämlich das aufklären und informieren, das verstehen und gute zureden, auch nicht das emotionalisieren. am ehesten bleibt wohl eine gute politik, die die rechte von allen menschen angemessen festschreibt.

10.11.2016 # https://hackr.de/2016/11/10/was-man-von-big-brother-ueber-trump-lernen-kann

FYI 073

fyi: der google assistant ist der neue mr. clippy (abt. hate to brake it to you but…)

15.10.2016 # https://hackr.de/2016/10/15/fyi-073

The Strain

kl. nachtrag zu curate or die: die nyt hat vor kurzem ja von ihren kollegen viel bewunderndes kopfnicken geerntet, weil sie intern mal eine woche den zugang zur eigenen desktop-version gesperrt hat, damit alle ihre mobilen gerätschaften verwenden müssen und dadurch quasi gezwungen werden, sich in die mehrzahl der leser zu versetzen und die kommende ‘bedeutung’ von mobile zu verstehen.

ich glaube als experiment machen sie da etwas sehr richtiges, aber ich bin mir ziemlich sicher, dass sie daraus die falschen schlüsse ziehen werden, weil sie bei ihren bestehenden grundsätzlichen annahmen bleiben werden. und die axiomatische annahme aller verlage ist, dass es einerseits eine grundstätzlich gegebene nachfrage nach journalistischen inhalten gibt und dass sie andererseits die gottgegebenen produzenten ebendieser journalistischen produkte sind.

diese im papierzeitalter quasi seine perfekte realisation gefunden habende natürliche ordnung erlebt aus diesem blickwinkel zuerst mit dem internet/web und dann mit mobile zwar eine krise der verkauf- und verwertbarkeit, aber die struktur der ordnung selbst wird nicht in frage gestellt. wer kein zeitungspapier mehr liest, der hat vor 10 jahren die zeitung als startseite im browser gehabt, mehr web braucht man nicht; und wer kein zeitungsportal mehr liest, der verwendet google um zeitungsartikel zu finden oder facebook, um sich von den freunden zeitungsartikel empfehlen zu lassen und darüber zu diskutieren; und wer nur noch ein handy hat, der verwendet es um sich in der strassenbahn oder im park mit zeitungsartikeln über die geschehnisse zu informieren.

das medium, wie die leserschaft das eigene angebot konsumiert, wandelt sich und die aktuellen trends (omg, mehr und mehr mobile) erkennt man im analyse-tool der wahl, aber die struktur und die aufgabe resp. position der beteiligten parteien bleibt konstant.

für die zeitungsmacher ist zu jedem zeitpunkt ganz klar, dass sie der fixpunkt sind, um den die welt sich dreht. und der typische deutsche verleger geht zusätzlich auch noch davon aus, dass ihnen google, facebook und twitter einfach alles zu verdanken haben, dass leute nur auf google gehen, um die verlagsinhalte zu finden, dass leute nur auf facebook und twitter gehen, um dort verlagsinhalte zu teilen, usw. (aus dieser sicht sind so dinge wie das leistungsschutzrecht oder die forderung nach 11% vom umsatz von google zumindest nicht mehr wirr oder wahnhaft, sondern einfach kontrafaktisch grundbegründet.)

die neuen umstände werden also immer nur als fragen der form und der distribution und der monetarisierbarkeit behandelt, was nicht gestellt wird, ist die frage nach dem eigenen sinn und den neuen umständen selbst. aber der eigene sinn ist vielleicht fragiler, als nicht nur von ihnen angenommen wird.

was wie eine evolution von ‘trends’ im konsum von nachrichten ausschaut – leute lesen sie zuerst auf papier, dann auf dem portal, dann auf facebook, dann auf dem handy – müsste nämlich eher als ganz grundsätzlich neuentwicklung des gesamten ‘dispositivs’ unter grundsätzlich neuen bedingungen bewertet werden, für das alles andere als klar ist, was dort funktionieren kann und wie das funktionieren wird. die welt versucht gwm. gerade herauszufinden, wie sie ausschauen würde, wenn es das web und mobile immer schon gegeben hätte.

man kann aber fast davon ausgehen, dass der ‘journalismus’ wir wir ihn kennen retrospektiv betrachtet eher wie ein historischer zufall ausschauen wird, als wie eine gegebenheit, die nur ein zeitgemäßes gefäß suchen muss. man braucht ja nur die perspektive auf die entwicklung zu wechseln: leute haben zeitungen nur solange gelesen, solange es nichts gab, was leichter und gleichzeit gut genug war (online portale); und leute haben die zeitungsportale nur solange als startseite benutzt, solange es nichts gab, was leichter und gleichzeitig gut genug war (facebook); und auf facebook nehmen die leute die nachrichten bestenfalls noch hin, ein bisschen informiert werden und synchronisation mit der welt ist ja nicht schlecht, aber sie sind doch nicht der grund, um auf facebook zu gehen, die leute interessieren sich für sich selbst und ihre bekannten und verwandten; anders gesagt: zeitungen konnte es nur deshalb geben, weil es damals noch kein facebook gab.

und die radikalste transformation deutet sich natürlich gerade mit dem übergang zu mobile an, weil damit zwar auf der einen seite ein universeller und permanenter zugang für alle gegeben sein wird, gleichzeitig aber ganz grundsätzliche begrenzungen der komplexität des ‘rezipierten’ etabliert werden, die aber natürlich immer noch gut genug sein werden.

die leute waren gwm. jahrzehntelang zu ihrem journalistischen ‘glück’ gezwungen, aber sie haben jede möglichkeit zu was einfacherem auch immer sofort genutzt, sobald sie sich ergeben hat. der journalismus in der uns bekannten form ist also eine reine historische kontingenz, die zwar gesellschaftlich wünschenswert ist, aber niemanden wirklich interessiert.

selbst beim am weltgeschehen interessierten bildungsbürger ist die disposition grundsätzlich anders, wenn er eine mobile gerätschaft verwendet. auch wenn es theoretisch natürlich möglich ist, auf dem iphone täglich ein potpourri an kritischen, gesellschaftspolitischen, analytischen longreads zu lesen, die form und die disposition verstärkt natürlich alles snackbare und unmittelbar intensive, also die snapchats und whatsapps, die vines und instagrams, die tweets mit animierten katzengifs.

(nur am rande: gerade deshalb ist es so absurd, dass die verlage mit aller gewalt gegen google kämpfen aber apple und facebook in den arsch kriechen, weil google gwm. der einzige kanal ist, über den sie intentional offene, weil eben genau nach dem thema suchende besucher bekommen. alles was sich über sharing aufschaukelt oder ausdifferenziert ist zwar viel ‘erfolgreicher’, muss aber auch mit einem gähnenden wegwischen nach 2 sekunden rechnen)

aber um zur ausgangsthese zurückzukommen: die frage ist natürlich, was die richtigen schlüsse auf das experiment der nyt sein könnten. und das wird ein harter knochen, weil das baumaterial nur der sinn sein kann.

19.06.2015 # https://hackr.de/2015/06/19/the-strain

Durchschnittlichkeit und Zufriedenheit

‘mögen deine wünsche in erfüllung gehen’ ist ja einer dieser chinesischen flüche, die sich früher oder später besonders hinterlistig bewahrheiten – und am umstand, dass es durch das vom web bedingten unbundling und microchunking zu einer strukturellen krise der durchschnittlichkeit, besonders zu einer krise des durchschnittlichen textes kam, ist vielleicht einer der hinterlistigsten bewahrheitungen.

wir erinnern uns: neben dem hypertext, also der möglichkeit zur vernetzbarkeit von texten, was der grundsätzlichen kern vom web ist, war die damit verbundene entkoppelung der textfragmente von ihrem kontext, die das freie flottieren und beliebige rekombinieren und reaggregieren von texten, informationen, gedanken und also ein genuin neues dispositiv ermöglicht, die zentrale metapher und wunschvorstellung für die zukunft von text.

was auf semiotischer ebene jedoch wie ein paradies klingt, hat nicht mit den psychologischen resp. infoökonomischen nebeneffekten gerechnet.

ganz allgemein gesagt sind menschen relativ unkomplizierte und leicht zufriedenzustellende lebewesen, die mit durchschnittlichkeit gut leben können, solange das gesamtpaket stimmt. ein, zwei goodies reichen aus, um der gesamten restlichen durchschnittlichkeit zumindest den notwendigen hauch von wertigkeit zu verleihen.

(durchschnittliches als angenehm empfinden zu können ist übrigens alles andere als ungeschickt, weil es nicht nur naturgemäß viel mehr durchschnittliches als besonderes gibt und man sich also über viel mehr im leben freuen kann, sondern weil das durchschnittliche in den allermeisten fällen auch völlig ausreicht. dieser von der werbung erzeugte wahn immer nur das allerbeste zu wollen ist aber ein völlig anderes thema).

bündel und pakete sind jedenfalls notwendige formen, uns viele durchschnittliche einzeldinge als angenehm wahrnehmen zu lassen und uns zufrieden zu stellen. bricht man die bündel jedoch auf, liegen die dinge plötzlich isoliert vor uns und müssen also einzeln beurteilt, bewertet und empfunden werden. das hat natürlich gegenüber dem bündel einen riesigen vorteil – man kann sich die rosinen aus dem kuchen picken (wenn man rosinen mag, ansonsten kann man sich den kuchen aus den rosinen picken), es hat aber auch eine ganze reihe an nachteilen. die notwendigkeit plötzlich alles einzeln beurteilen, bewerten und empfinden zu müssen ist nicht nur aufwendig und belastend, die davor geniessbare durchschnittlichkeit verliert entbündelt sogar ganz grundsätzlich den zugang zu diesem naiven genuss und muss sich plötzlich die frage gefallen lassen, warum man nun gerade es und nicht etwas anderes lesen soll, usw.

die zwei paradigmatischen formate, die mit dem internet entbündelt und in die einzelnen bestandteile zerlegt wurden, sind natürlich zeitungen und LPs.

bei LPs sind die effekte jedem musikliebhaber bekannt: das snacken nur an den ‘besten’ songs eines albums ermöglicht zwar viel mehr streuung, discovery und durchschnittlich eine viel höhere einzelintensität der gehörten tracks, aber es geht auch der persönliche bezug verloren, den man etwa in den kleinen aha momenten entwickelt, wenn ein song, den man bis dato völlig ignoriert hat, plötzlich der lieblingssong eines albums wird usw. (natürlich funktioniert das nur bei alben, die wirklich als solche bestimmt sind und denen das auch gelungen ist, aber guten musikern gelingt das oft). das vermeiden der durchschnittlichkeit und die erhöhte intensität der einzelstücke macht gleichzeitig den hörer selbst unzufriedener, weil er fortan immer auf der suche nach etwas besserem sein muss. die sehnsucht nach dieser bindung an etwas vorgegebenes erkennt man ja am comeback von vinyl.

und bei zeitungen sind die effekte allen ausser den zeitungsmachern bekannt: ein davor wirklich großartiges papierbündel zerfällt zu einem losen haufen an artikeln, die fast alle durchschnittlich und nicht besser oder schlechter als die artikelhaufen aller anderen zeitungen sind und für den leser also eine einzige infoökonomische zumutung sind (für den übergang vom wertvollen bündel zum wertlosen haufen können die zeitungen nichts, ihre plötzliche wertlosigkeit war gwm. höhere gewalt; woran sie allerdings selbst schuld sind, ist, dass sie die situation und ihre position nicht verstehen, den kopf in den sand stecken und dort dann versuchen, ein liedchen zu pfeifen). die wirklich einmaligen artikel, die eine zeitung an einem tag erzeugt, die man also nicht gleichwertig überall sonst findet, dürften sich im einstelligen, bei wochenzeitungen vl. im zweistelligen bereich befinden und die muss man natürlich auch erstmal finden.

aber interessanter als die krise der texte der zeitungen ist der umstand, dass dieses verhältnis jede art an text betrifft und sich früher oder später also direkt in den text selbst einschreibt. es hat eine zeit lang gedauert, bis wir das bemerken können, weil sich natürlich auch die produktions- und rezeptionsbedingungen anpassen müssen, durch die verstärkung dank social media wird die logik jedoch langsam sichtbar:

damit durchschnittliche texte, die bisher ein perfekt feines dasein als füllstoff führen konnten, im haufen aller aufgelösten artikel aller einen funken wert behalten können, müssen sie jetzt auf irgendeine art auch isoliert und autonom funtionieren. und dafür gibts zwei primäre möglichkeiten: entweder sie stiften selbst ‘sinn’ für den leser, enthalten zumindest etwa eine nützliche information; oder sie erzeugen eine ‘erregung’, also das kompakte gefühl eines lols, oder wins, oder omgs, oder cutes, oder fails, oder wtfs.

und woran erkennt man, ob ein text ‘sinn’ oder ‘erregung’ erzeugt? genau, er wird geshared. wenn ein text im web von niemandem geshared wurde, wurde er dann überhaupt geschrieben? der verbliebene wert von durchschnittlichen texten im zustand der entbündeltheit zeigt sich also in der sharebarkeit.

das ding jetzt ist natürlich, dass sinn nicht nur viel schwerer zu produzieren ist, es erfordert auch viel mehr aufwand vom leser, ihn zu erkennen, und es ist auch viel riskanter ihn zu sharen. und dass erregungen andererseits nicht nur viel leichter erzeugt werden können als sinn, erregungen können auch viel schneller aufgeschnappt werden und erzeugen also auch viel eher anschlusskommunikation und selbstverstärkung in den sogenannten erregungswellen. ich habe oben die lols, wins, omgs, usw. als qualifizierer von erregungen nicht zufällig von buzzfeed zitiert – sie zeigen, wie präzise buzzfeed diese logik schon vor langem erkannt hat und deshalb nur noch genau diese art von texten produziert. buzzfeed ist eine maschine zur produktion und distribution der letzten durchschnittlichen texte, die noch verwertbar sind.

die zeitungen, zumindest die qualitätszeitungen, haben nun natürlich das problem, dass sie in ihrem selbstverständnis die produzenten vom sinn sind und die produzenten von erregungen gwm. verachten müssen und sie sich dadurch quasi auf diese eine position festlegen; gleichzeitig produzieren sie natürlich in realität deutlich mehr (unsharebaren und austauschbaren) fülltext als sonstwas, erzeugen also viel weniger leistung, als sie es in ihrer selbstwahrnehmung glauben; nur müssen sie auch ihren kollegen von buzzfeed dabei zuschauen, wie die ganz ungeniert eine wissenschaft der verpönten sharebaren erregungen entwickeln können und ihnen die PIs, die aufmerksamkeit und die werbegelder und fast den ganzen kuchen wegknabbern.

von dieser logik sind natürlich auch die blogs betroffen. auch die konnten in den ersten 10, 15 jahren gut mit durchschnittlichem fülltext leben, weil es mehrere kontexte gab, die den fülltext im ‘bündel’ rezipierbar machten. einerseits gab es (imaginierte) communities wie antville oder twoday, andererseits gab es feedreader wie den google reader oder netvibes, die die abos der feeds zu einer personalisierten superzeitung rekontextualisierten. im aufgelösten zustand haben blogs aber das gleiche problem wie die zeitungen: die durschnittlichen posts, wenn wir ehrlich sind also fast alles was wir produzieren, sind im haufen aller posts aller völlig wertlos. im grunde gibt’s dann nur 2 strategien: man produziert selbst shareables (socialismus), oder man erzeugt sich seinen eigenen kontext im eigenen gesamtwerk und tut so als wär das jetzt so (solipsismus). wem das eine zu blöd und das andere zu anstrengend ist, der hört dann halt auf zu bloggen und wechselt vielleicht zu einer plattform wie tumblr oder medium, wo man ein bisschen kontext von der plattform spendiert bekommt und gleichzeitig in die eine oder andere richtung ‘gelenkt’ wird (erregung bei tumblr, sinn bei medium).

(überhaupt ist es natürlich nicht so, dass der durchschnittliche text seine funktion für immer verloren hat. ich habe das nur nicht betont, weil ich sonst jeden punkt relativieren hätte müssen, und dann aber auch die relativerungen relativieren hätte müssen, weil sie auf tektonischer ebene trotzdem wieder egal wären, es hätte alles jedenfalls unnötig verkompliziert. aber die entbündelung hat nicht nur opfer, sondern erzeugt naturgemäß auch einen neuen möglichkeitsraum für tools, plattformen, communities (fast alle funktionierenden tun das letztendlich) etc. dafür, eigene, neue kontexte für text zu erzeugen, innerhalb derer dann auch die durchschnittlichen texte wieder einen platz bekommen können, ohne dass diese sich selbst beweisen müssen. wie fast immer kann man sich einfach anschauen, was funktionert.)

nur am rande beobachtet ist doch lustig, dass wir gerade mit der krise der durchschnittlichkeit den von den poststrukturalisten vor 50 jahren diagnostizierten verlust der autorschaft konkretisiert bekommen. nur, wie so oft, kommt es anders als damals gedacht: die neuen kleinformate transzendieren nicht nur den autor, sie schreiben sich wörtlich genommen tatsächlich selbst und brauchen die readaktionellen prozesse inklusive aller beteiligten menschen und software nur noch als organisatorische struktur. moderne redakteure tun ja im grunde nichts anderes als texten eine erste form zu geben und diese dann solange anzupassen, bis die roten lämpchen, die auf schlecht formulierte überschriften, hohe absprungraten nach dem ersten satz, falsche keywords, geringes sharementum, etc. hinweisen, nicht mehr rot blinken und der text also seine objektive form gefunden hat. paradoxerweise sind es deshalb ausgerechnet die roboterjournalisten, die den ethischen anspruch auf autorschaft am reinsten repräsentieren.

22.05.2015 # https://hackr.de/2015/05/22/durchschnittlichkeit-und-zufriedenheit

598425890696073216 Revisited

kl. nachtrag zu 598425890696073216 – zumindest eine erste iteration, die sich lustigerweise aus der überschneidung mit einem anderen tweet ergibt, den ich am gleichen tag aber in einem völlig anderen kontext (verizon schluckt aol) getwittert hatte:


um die zwei tweets zusammenzubringen, sollte ich zwei dinge erwähnen:

(1) einer der größten, wenn nicht der größte im allgemeinen ausgemachte feinde des offenes webs sind projekte wie facebook zero oder internet.org, also konstrukte, die ein kontrolliertes subset an webseiten oder apps kostenlos offerieren, um der nächsten milliarde menschen zugang zum internet zu ermöglichen. was sich als akt der nächstenliebe gibt, ist jedoch, so die verteidiger des offenen webs unisono, nichts anderes als die ausbeutung ökonomischer benachteiligung, die nur neue user einfangen und an sich binden und damit das eigene wachstum anheizen will, also digitaler imperialismus (und wem das nicht reicht nachtürlich auch eine freche verletzung der netzneutralität, aber um das geht es hier nicht). und ihr plan geht auch noch auf, viele der so angelockten glauben dann sogar, facebook sei das internet. statt im offenen web zu publizieren, verkaufen sich diese armen seelen an facebook und landen im vorraum zur hölle.

(2) compuserve war anno dazumal, also plus/minus vor 20 jahren, neben aol die einfachste möglichkeit, mit einem macintosh zugang zum internet und email zu bekommen. es gab auch schon einige websites und der netscape navigator war gerade neu und hip, aber ein grosser teil des nutzens war zunächst das angebot, das compuserve bereitstellte. über die uni hatte ich dann bald auch ein bisschen webspace und zugang zum usenet und unter der ägide von hotwired und webmonkey dann irgendwann auch ein rudimentäres verständnis von html und framesets, aber die möglichkeiten von compuserve hat meine erfahrung mit dem internet in den ersten jahren weitgehend dominiert. und auch wenn ich dann quasi das web ‘mitbegleitet’ habe, bis zu meinem eigentlichen knacks im kopf dauerte es dann weitere 10 jahre.

der punkt dieser zweiten, zugegebenerweise schon etwas verstaubten geschichte ist, dass die erste geschichte nicht notwendigerweise den dystopischen verlauf nehmen muss, von dem alle ausgehen. wer in einem geschlossenen garten aufwächst, muss nicht notwendigerweise den rest seines lebens darin verbringen. menschen können lernen und zusammenhänge verstehen. manchmal fehlt nur eine einzige information. wer heute zb. glaubt, dass facebook das internet ist, dem muss nur einer einmal zeigen, dass das nicht der fall ist, sondern dass facebook im besten fall ein nützlicher und in jedem fall ein grosser wal in einem riesigen ozean namens web ist, das man mit etwas entdeckergeist dann selbst erforschen kann (ob das dann angenommen wird und denjenigen interessiert ist eine andere frage). und wir brauchen gar nicht so betroffen tun, noch vor 10 jahren haben hierzulande die meisten geglaubt, dass das internet dieses blaue ‘e’ am desktop ist.

ich will mit dieser anmerkung nicht die grundsätzliche korrektheit der kritik an facebook (und co) kritisieren und ich will die machenschaften von facebook (und co) weder relativieren noch legitimieren. was sie abziehen ist unterm strich eine riesige sauerei, vor allem deshalb, weil sie es auch ganz einfach auch anders andenken und umsetzen hätten können.

der fehler liegt nicht in der vorgetragenen kritik, sondern in der analyse und der bewertung, was das bedeutet. und eine hysterische bewertung (es ist ganz eindeutig das endgame, wenn wir jetzt verlieren, dann ist das offene web verloren, usw.) führt zu einer hysterischen überreaktion, die dann, wenn wir pech haben, mehr schaden anrichtet als der feind, wegen dem man überhaupt erst losgelegt hat.

(interessanterweise teilen die protagonisten eines offenen webs, hier fortan stellvertretend mozilla, und die ideologisch mehr oder weniger aus der gegenteiligen ecke kommenden verlage diesen schaum vor dem mund, wenn sie es mit google oder facebook oder apple zu tun bekommen; aber lassen wir hier die verlage einmal beiseite)

der allgemeine fehler von mozilla ist, vom offenen web kein ‘sinnverständnis’ zu haben, sondern den sinn in der vorhandenheit selbst zu sehen, was bedeutet, dass sie den erzeugten wert also nur am marktanteil messen können. alles, was von facebook (und co) aufgesaugt wird, ist ein verlust und die masse des von facebook aufgesaugten ist eine katastrophe. als reaktion bleibt ihnen also nur der ‘kampf’ um marktanteile und als grund für die beliebtheit von facebook (und co) ist ihnen leider nur eingefallen, dass der offene stack technisch unterlegen ist, was nur bedeuten kann, dass sämtliche apis der geschlossenen plattformen nachgebaut werden müssen, siehe den kleinen überblick ihrer aktuellen interventionen.

(man erkennt auch die wiederholung eines musters: als das soziale web der katalysator für das wachstum war, wurde im ‘social graph’ von facebook der zaubertrank gesehen, und die damalige erwartung war, dass man den nur offen nachbrauen muss, dann wird alles gut. wir erinnern uns an projekte wie open social, friend connect, portable contacts, chi.mp, diaspora, usw.)

der spezifische fehler in hinblick auf die ‘emerging markets’ neuer user, die gleich mit dem smartphone einsteigen, ist, dass die entwicklung als lineare, technik-getriebene evolution vom statischen über das soziale hin zum mobilen web gesehen wird, und den menschen innerhalb dieser entwicklung keine subjektivität oder möglichkeit zum widerstand oder zur reinterpretation zuzutrauen. wir sehen es ja bei uns, da kleben die jungen ja nur noch an ihren handys und chatten oder posten selfies statt zu bloggen oder die wikipedia zu verbessern. was wir bei uns erleben ist aber weniger eine evolution, sondern eine angleichung an das ‘natürliche’ kommunikative gleichgewicht unter den bedingungen vom mobilen internet, das halt erst jetzt möglich geworden ist, aber immer schon so veranlagt war. die phasen waren also, wenn man so will, in ihrem historischen ablauf notwendig, weil wir uns immer kollektiv an das gerade technisch machbare angepasst haben, aber einmal vorhanden verhalten sie sich, als wären sie immer schon da gewesen.

aber die technische ebene ist ja nicht die einzige. auch interessant ist mitunter, wie sich die technik / das web auf gesellschaftlicher ebene auswirkt – und da macht das narrativ der evolution einen u-turn. da sind dann plötzlich die apps des mobilen webs die primitive form, die halt (natürlich massenweise) private kommunikationsereignisse ermöglichen, die aber weder für die öffentlichkeit bestimmt noch für die gesellschaft nützlich wären. erst mit dem offenen und sozialen web bekommen wir einen viel interessanteren hebel, um gesellschaftliche probleme zu behandeln und gemeinsame lösungen auf sozialer sinnebene zu finden.

und hier muss man der kommenden ‘mobilen milliarde’ einfach zutrauen, dass sie ihre eigene entwicklungsgeschichte durchmachen und dabei vl. auf einem viel höheren niveau landen, als wir es bis dato geschafft haben, oder aber auch nicht. sie beginnen zwanzig jahre später und das dauert sicher ein bisschen zeit, aber der umstand, dass sie bei unserem ‘ende’ beginnen bedeutet eben nicht, dass sie dort bis in alle ewigkeit braten müssen.

(man erkennt übrigens die wiederholung eines weiteren musters: als etwa das ipad vorgestellt wurde, haben es die vertreter des offenen webs als zynische und infantilisierende konsumationsmaschine wahrgenommen und die kollektive volksverblödung befürchtet, siehe das offene web und seine feinde. gekommen ist es natürlich anders, nur das mangelnde vertrauen in die systemkraft der eigenen offenheit und die kreativkraft der menschen ist ihnen leider geblieben)

18.05.2015 # https://hackr.de/2015/05/18/598425890696073216-revisited

Sauerkrauts Revolutions

Warum ist Deutschland in allen Dingen Web so daneben?

Ich bin euch ja noch meine Antwort auf Quiz Pt. 61 schuldig.

Und die ist: wegen den Deutschen.

——

Derzeit gibt es wohl zwei dominante Kulturformen, die das allgemeine sozio-technologische Potential einer ‘Gesellschaft’ reflektieren:

(1) das Fernsehen
(2) das Web

Beide Formen sind hochgradig komplex (duh) und auf vielfältige Weise mit mehreren anderen gesellschaftlichen Subsystemen verwoben (duh). Beide sind nicht als Produkt, sondern nur als systemisches Bündel an Produktions-, Rezeptions- und Distributionsbedingungen, die alle selbst wiederum in den verschiedensten systemischen Abhängigkeiten zu Bildung, Technologie, Finanzierung/Kapital, Politik/Recht, etc. stehen, zu verstehen.

Das gesellschaftlich mögliche Potential beider Felder entsteht als Equilibrium im Zusammenspiel der jeweils beteiligten Strukturen, wobei es innerhalb dieses Equilibriums nur beschränkt die Möglichkeit zum ‘Ausbruch’ nach oben gibt.

Sprich: es ist nicht möglich, in einer Kultur einfach schnell mal besseres Fernsehen zu machen, oder einfach schnell mal bessere Startups zu erzeugen, indem man sie ein bisschen fördert oder in Schulen C++ unterrichtet. Will man sich verbessern, muss man das Niveau des Gesamtsystems erhöhen, was nur gelingen kann, wenn man das Zusammenspiel versteht.

(was es allerdings gibt, sind lokale maxima und talente, die auch in anderen milieus funktionieren könnten. ein harald schmidt war in seiner hochzeit mitunter sogar besser als ein david letterman; ein stefan raab macht – egal ob man ihn mag oder nicht – unterhaltsames fernsehen, das in dieser form woanders gar nicht möglich wäre; ein christoph waltz kommt in hollywood überhaupt erst zur entfaltung; usw.)

Spielen wir das nur mal als Milchmädchen frei assoziativ mit Fernsehserien durch: Es gibt die Ebenen der Produktion, die einerseits mehrere kulturelle Gebiete wie Schauspiel, Literatur/Drehbuchschreiberei, Musik/Ton und Regie/Kamera integriert, aber natürlich auch alle anderen Aspekte einer Produktion wie Schnitt, Casting, Kostüme, Bühnenbild und Set Design, Postproduktion und Special Effects, etctrara beinhaltet. Dann gibt es die Ebene der Kritik und der Rezeption, also wie viele Leute es anschauen, welche Leute es anschauen, was von Kritikern oder Sehern darüber gesagt und geschrieben und gevloggt wird, welche Themen oder Charaktere sich ins kulturelle Unbewusste einprägen, welche Bilder oder Themen davon zu zirkulieren beginnen, auch welche Veranstaltungen es dazu gibt (Comic-Con, Bambi), usw. Und es gibt natürlich die Ebene der Finanzierung, Distribution, Vermarktung und Ausstrahlung, also dem Gewebe an öffentlichen und privaten Fernsehanstalten, an Produktionsfirmen, an Programmverantwortlichen, Showrunnern, Werbenden, usw, die auch wiederum alle in unterschiedliche Strukturen mit unterschiedlichen Rahmenbedingungen eingebettet sind.

(nicht jede erwähnte und vergessene schraube wirkt sich sofort auf alle anderen schrauben aus, d.h. es gibt schon grössere und kleinere abstraktionen, aber vieles hängt mit vielem anderen mehr oder weniger direkt zusammen)

Für jede der beteiligten ‘Positionen’ gibt es offizielle oder inoffizielle Bildungswege, Werdegänge und Verfahren der Besetzung (gewerkschaftlich, meritokratisch, nepotistisch, etc.). Und auf jeder Ebene werden sich formelle oder informelle Prozesse etablieren und ausdifferenzieren. Und das Zusammenspiel von allem etabliert dann eben halt das jeweils konkrete gesellschaftliche Gesamtmilieu.

Hier ist nun das Ding: dieses Gesamtmilieu definiert weitgehend einerseits die durchschnittlich erwartbare minimale Qualität von Produktionen und andererseits die maximale Höhe der Idealproduktion. In einer Kultur mit hohem Gesamtmilieu ist nicht nur jede durchschnittliche Produktion viel besser als jede durchschnittliche Produktion aus einer Kultur mit niedrigerem Gesamtmilieu, in einer Kultur mit hohem Gesamtmilieu sind auch die Spitzen (die The Wire’s, die Breaking Bad’s oder die Jon Stewart’s) ungleich viel höher, als sie in einer Kultur mit niedrigerem Gesamtmilieu überhaupt möglich sind.

Innerhalb eines (niedrigeren) Milieus fällt das nicht auf, weil alles andere ja genauso mittelgut ist und es eine lokale Verteilung mit lokalen Hits gibt. Die eigene Höhe im internationalen Vergleich spürt man nur, wenn man die eigenen Programme international verkaufen will. Und bei Fernsehserien kann man sich ja leicht ausmalen, wie das Verhältnis von Import zu Export ist.

Ich glaube die Frage, warum es fast unmöglich ist, aus dem lokalen Milieu auszubrechen, wird am Beispiel Fernsehen recht anschaulich: Bei guten TV-Serien (oder auch Reality TV) sind einfach alle Ebenen irre gut; die Schauspieler sind irre gut und die Stories bzw. die Dialoge sind irre gut und die Cinematographie ist irre gut und der Schnitt ist irre gut und die Musik ist irre gut und die ganze Qualität der Produktion ist irre gut, usw. Was bedeutet, dass es diese guten Schauspieler und Schreiber und Regisseure und Kameramänner und Editoren und alle anderen zuerst einmal geben und dass man sie dann auch finden und bekommen muss. Und in Kulturen mit hohem Milieu haben sich diese Prozesse eben zu einem Grad ausdifferenziert, dass es einerseits einen sich permanent nachfüllenden Pool an Talenten gibt, und andererseits Mechanismen die besten zu entdecken und auf die aktuellen Projekte zu mappen. Und weil sich Talent nicht in einem Vakuum entwickelt sondern nur im Benchmark gegen andere wird dieser Pool an Talenten umso besser, je besser er schon ist. Und je grösser und besser der Pool ist, desto eher professionalisieren und spezialisieren sich die Filterprozesse; Aufgaben wie Casting werden überhaupt erst dann ‘als Kunst’ geschätzt und anerkannt, wenn man aus einem vollen Pool schöpfen kann, aber auch weiß, dass es auch alle anderen tun. (deutsches reality tv beginnt üblicherweise mit wirklich lahmem casting, was ihnen in konsequenz dann kein material für subtileres storytelling gibt, sondern halt nur für ein sich akzelerierendes gegenseitiges anschnauzen)

Komponenten beim Web

Mit dem Web verhält es sich grundsätzlich sehr ähnlich. Es gibt die Ebene der Produktion, die mehrere technische/informatische Gebiete wie Systemanalyse, Programmieren, Entwicklung von bösen Algorithmen, Datenbanken, Testen oder Design integriert, aber natürlich auch alle anderen Aspekte eines Projekts wie Projektmanagement, Qualitätssicherung, Administration, Dokumentation, usw. beinhaltet. Dann gibt es die Ebene der Benutzung und der Rezeption, also wie und wie viele und welche Leute es verwenden, was die Blogger oder Benutzer darüber sagen, welche soziale Objekte erzeugt werden und wie sie fliessen können, wie es via APIs o.ä. mit dem Gesamtsystem anderer Dienste zusammenhängt, usw. Und natürlich die Ebene der Leitung, Finanzierung und Vermarktung, also den Gründern und Managern, dem Gewebe an öffentlichen Förderungen und Einrichtungen und Wagniskapital, an Human Resources und Contractors, an Werbenden und zahlenden Kunden, Presse, Kommunikation, Community Management, usw. die auch alle wiederum in unterschiedliche Strukturen mit unterschiedlichen Rahmenbedingungen eingebettet sind.

Und auch hier gibt es für jede der beteiligten Positionen offizielle oder inoffizielle Wege der Ausbildung und Besetzung und auf jeder Ebene eine Ausdifferenzierung formeller und informeller Prozesse zum gesellschaftlichen Gesamtmilieu, das auch hier wieder ganz weitgehend einerseits die durchschnittlich erwartbare minimale Qualität von und andererseits die maximale Höhe der Idealproduktion definiert. Wir kennen die Logik von oben.

Zu erwähnen ist vielleicht, dass es bei Startups natürlich ein viel breiteres Spektrum an Größenordnungen als beim Fernsehen gibt. Es gibt ja tatsächlich Ein-Personen Startups, die gesellschaftlich durchaus signifikante Effekte erzielen können. Und es gibt Probleme, die mehrere Tausend hochgradig spezialisierte Leute beschäftigen können und manche Milieus beschäftigen sogar zehntausende Leute damit alle andern zu überwachen. Der sweet spot für Startups scheint jedenfalls aber ein Kern von zwei, drei Leuten zu sein. Aber ob groß oder klein, alle sind an ihr Milieu gebunden.

Aber es gibt zwei wichtige Unterschiede:

Die Auswirkungen sind gesellschaftlich deutlich relevanter, weil es nicht nur ein Markt für Unterhaltung ist und/oder die Gesellschaft auf symbolischer Ebene tangiert (was natürlich auch nicht zu unterschätzen ist), sondern eben direkt in grundsätzlich alle anderen gesellschaftlichen Subsysteme einwirkt und diese u.u. transformiert, egal ob die das selbst dann wollen oder nicht. Dieses ‘es ändert sich alles’ klingt zwar wie eine blöde Plattitüde, aber es kann ja jeder versuchen sich zu erinnern, wie die Welt vor nur 20 Jahren noch war und es geht natürlich erst los, nur wissen wir noch nicht wohin.

Und die Bedeutung der ‘Rezeption’, also der Feedbackloops mit den ‘Benutzern’, ist nicht nur ungleich höher, sie ist essentiell, weil die Entwicklung neuartiger Dienste nur in Koevolution mit Benutzern möglich ist. Aus den Standardsituationen (aus 2009, also immer 5 jahre dazurechnen):

gerade im und um das internet lagen eigentlich alle schon immer falsch, man braucht nur an die metaphern und visionen von vor 15 jahren denken. niemand hat vor 10 jahren mit wikipedia, google oder blogs, vor fünf jahren mit facebook, youtube oder flickr, noch vor zweieinhalb jahren mit twitter und mit den damit einhergegangenen strukturveränderungen gerechnet, einfach auch deshalb, weil die meisten tools selbst reine zufälle waren, deren effekte noch nicht mal die gründer auch nur erahnten. facebook entstand, weil zuckerberg ein fauler hund war und aufgaben crowdsourcen wollte; flickr war ein abfallprodukt eines online-games; die wikipedia entstand, weil aus der eigentlich angedachten nupedia, die von experten geschrieben werden sollte, nix wurde; twitter war als sms-dienst unter freunden gedacht, den die user dann umfunktionalisiert haben und zu dem gemacht haben, was es ist. wir wissen alle nix und selbst wenn man mit einer aussage/prognose zufällig richtig liegt, dann eher deshalb, weil irgendeine aussage immer stimmt, und nicht weil man es wissen konnte.

(nts: mich öfter selbst zitieren)

Aber der Zufall kommt, das habe ich damals nicht betont, nicht von allein; er entsteht nur in der Dialektik zwischen der Art, wie Leute ein Angebot be- und oft missnutzen und für sich interpretieren, und der Aufmerksamkeit von Gründern, die sich abzeichnende Flüsse wahrnehmen und im Idealfall aufgreifen und damit laufen. Ohne die Neugier der frühen Benutzer entsteht ganz einfach nichts Neues. (Permutationen sind ab einem gewissen Grad des Verständnisses dann natürlich möglich, aber auch die erhöhen im besten Fall die Wahrscheinlichkeit für einen gewissen Erfolg; man sieht das daran, wie wenige Gründer ihren ersten Erfolg dann wiederholen können, auch wenn sie dann deutlich freundlicher behandelt werden, was natürlich auch schon wieder der Grund für das ‘Nichtfunktioneren’ sein kann, weil ihnen der tatsächliche Gegenwind fehlt; VC folgt übrigens einer anderen Logik, die versuchen Wahrscheinlichkeitsverteilungen zu optimieren)

Und das ist dann eigentlich schon das K.o. für rein deutsche Startups in der ersten Runde, die notwendige Dichte an explorativen Benutzern gibt es hier einfach nicht, weil alles Neue zunächst als reine Zumutung wahrgenommen wird, die einen mit einer Vollbegründung erst von ihrem Sinn und Nutzen überzeugen muss, bevor man sich vl. mal zur temporären Benutzung erbarmt. Rationalität und Erbsenzählerei sind in einigen Bereichen nützliche Eigenschaften, als Katalysatoren für Startups sind sie aber ungeeignet. In Deutschland ist sicherlich einiges suboptimal, aber auch Medien und Politik, die zwei größten absichtlichen Bremser, können nichts verunmöglichen was wirklich ans Tageslicht will. Das große Unglück für die deutschen Startups sind die deutschen User.

(wenn das noch nicht reicht, dann kommt in deutschland noch dazu, dass gründungen häufig bwl-getrieben sind, was auch noch die zweite seite der erwähnten dialektik behindert, weil es bei denen im vergleich zu tech-getriebenen deutlich schwerer ist, aufmerksam zu sein und sich mit agilität anzupassen)

Und das bedeutet leider, dass das ganze Standard-Repertoire an von Politikern, Verbänden, Vertretern und Bloggern geforderten Förderungen überhaupt nichts bringt, weil sie im besten Fall ein Problem lösen, das von diesem Grundproblem dann schon im Keim erstickt wird. Die (oft bemängelte) Anzahl an Startups zb. ist ja überhaupt nur dann bedeutsam, wenn es einerseits zu mehr Variation führt und es andererseits auch eine gesellschaftliche Selektionsfunktion gibt, die die potentiell funktionierenden Startups dann entdecken kann. Ansonsten ist das ein reiner crap shoot. (inkubatoren sind die standard-maschine zur erzeugung dieser variation, nur benötigen auch die wieder eine gewisse systemische dichte als katalysator, die üblicherweise durch eine art hunger-funktion erzeugt wird, die es in deutschland eigentlich – zum glück – auch nicht gibt).

(nur zur sicherheit: mich interessieren hier nur native webstartups, die irgendeine neue beziehung oder verbindung von davor unverbundenem ermöglichen, irgendein neues soziales objekt generieren, irgendwelche neuen ströme erzeugen oder fliessen lassen, irgendeinen neuen möglichkeitsraum erzeugen. mich interessiert hier nicht die abbildung von grundsätzlich ohnehin gut verstandenen verhältnissen jetzt halt auch im web, das folgt mitunter einer etwas anderen logik mit teilweise grösserer steuer- und planbarkeit; auch der komplex internet of things und alles was mikro- oder makroskopisch mit hardware zu tun hat funktioniert anders)

Wenn man sich also sagen wir mal auf mittlerem Niveau überlegt, wo man ansetzen soll und was man tun kann, um international mitzuspielen zu können, dann ist es wichtig, die eigenen Schwächen zu verstehen, damit man an seinen asymmetrischen Stärken arbeiten kann.

Das ist im Falle Web im Vergleich zum Fernsehen auch deshalb relativ wichtig, weil im Web nur die Ebene der Produktion an das lokale Milieu gebunden ist; die Ebene der Rezeption ist zumindest grundsätzlich flüssig, d.h. für Benutzer gibt es keine Notwendigkeit, mittelgute lokale Reinterpretationen zu verwenden, weil man immer auch das Original verwenden kann. Der Name World Wide Web deutet das schon an.

(es ist nicht nur völlig sinnlos, den höchstentwickelten projekten des höchstentwickelten milieus à la ‘wir brauchen ein europäisches google’ direkt konkurrenz machen zu wollen, es ist auch eine verschwendung von ressourcen, die in andere projekte gesteckt werden könnten. mit den 200 mio die etwa in theseus gepumpt wurden, hätte y-combinator 1.667 startups inkubieren können. das problem dabei ist natürlich, dass es im milieu dementsprechende verfahren geben müsste, die diese sinnvolleren projekte erkennen kann, was auf mittelhohem niveau eher unwahrscheinlich ist, es hängt eben alles mit allem zusammen)

Es wird ein bisschen lang und das ist vl. Thema für ein anderes Posting, aber ich glaube es ist die Hoffnung nicht ganz unbegründet, dass das ‘Deutsche’ nicht nur das Problem, sondern auch die Lösung ist, weil es einige tatsächlich distinktive Eigenschaften und ausgeprägte Qualitäten hat, die sich für die zukünftige Ausdifferenzierung vom weltweiten Gesamtmilieu als nützlich erweisen könnten.

-

update: see 260680356

17.04.2015 # https://hackr.de/2015/04/17/sauerkrauts-revolutions

Captain Koons

endlich wieder einmal ein Quiz: Was kann man von Pulp Fiction über die Apple Watch lernen?

ich bin euch ja noch die auflösung von quiz pt. 96 schuldig und die verbirgt sich in der frage, wie der film wohl geworden wäre, wenn der vater von butch coolidge statt seiner goldenen uhr eine apple watch edition getragen hätte, aber first things first:

nach der vorstellung der watch im september konnte man ja sehen, dass sie als ding die von apple erwartbare tollheit haben wird. smartwatches sind natürlich keine ganz neue kategorie, man denke an die pebble oder einiges im umfeld von android wear und michael knight hat schon in den 80ern eine gehabt. aber apple hat damit wohl den ersten sich als uhr verkleidenden minicomputer gebaut, an dem sich fortan alles andere messen lassen muss.

(smartwatches selbst haben imo mit ‘innovation’ ohnehin wenig zu tun, sie sind die offensichtliche extrapolation in einer serie an kleiner werdenden touchscreens als user interface für universelle mobile computation. sprich: auf die idee kommt jeder, die leistung besteht in der ‘exekution’, also dem design und der entwicklung/produktion und vor allem auch dem zusammenspiel von soft- und hardware und dem bereitstellen eines ökosystems für andere, und da ist apple natürlich in der einzigartigen situation den ganzen stack in der eigenen hand zu haben)

neben dieser dinghaften schlüssigkeit scheint mir aber auch der preis zu stimmen. mit $350 liegt sie in diesem mental als taschengeld abschreibbaren bereich von übers jahr betrachtet weniger als einem euro pro tag.

der preis ist deshalb bei der watch so wichtig (und wir kommen weiter unten nochmal darauf), weil apple selbst auch 6 monate nach der ersten vorstellung der watch noch überhaupt kein gespür dafür hat, für was sie wirklich gut sein wird.

ich frage mich wirklich, was apple im letzten halben jahr gemacht hat. fast alle von ihnen gezeigten beispiele sind noch immer im grunde nur störungen des menschen bei anwendungsfällen, die vom iphone – das man ohnehin eingesteckt haben muss, damit die uhr überhaupt funktioniert – wesentlich besser gelöst werden. sie betonen zwar die eigenschaft ‘most personal device’ als mantra immer und immer wieder, aber sie interpretieren sie zumindest derzeit nur als irritant.

zu apples glück tut das der attraktivität der watch deshalb keinen abbruch, weil es wegen dem preis eben rational ausreicht, wenn jeder für sich den einen usecase entdeckt, der einen einmal am tag kurz happy macht. für die watch also jedenfalls ein thumbs up.

aber all das konnte man sich auch schon nach der vorstellung im september denken, die einzige katze, die sie jetzt im jüngsten kick-off event aus dem sack gelassen haben, war das pricing für die watch edition. und die hat dann für etwas kognitive dissonanz gesorgt:


die diskussion war nicht unwitzig, weil sie eigentlich nur darin bestand, dass apple analysten/cheerleader dem säkularen rest unterstellt haben, dass sie über den preis sicherlich jammern werden, dass sie dabei aber überhaupt nicht verstehen, wie genial der schachzug von apple ist und was apple damit will und tut und kann und welche märkte apple damit erschliesst, think vogue not chip, usw.

Und jetzt kommt Ihr ins Spiel, die Ihr hämische, amüsierte oder neiderfüllte Scherze macht über die superteure, goldene Apple-Uhr, die nur Deppen kaufen. Wie jeder einzelne davon Apple glücklich macht!

sascha lobo etwa bleibt noch vergleichsweise pragmatisch und unterstreicht nur – iirc asymco folgend – die verkaufspsychologische these, dass teure dinge im direkten vergleich weniger teure dinge billiger erscheinen lassen, und dass sich deshalb die immer noch viel zu teuren watches neben den editions billig wie semmeln anfühlen und entsprechend verkaufen werden.

Wer sich eine 10k+-Uhr leisten kann, sieht den kommenden Wertverlust der Technik als Teil des Statussymbols.

marcel weiss andererseits verabschiedet sich gleich von jeglicher rationalität und sieht im zu erwartenden wertverlust selbst den eigentlichen sinn. auch er folgt iirc einer anderen einschätzung von asymco, dass sich nämlich die neureichen asiaten nur so darauf stürzen werden.

was die zwei und alle anderen positionen dazwischen, die den luxus-charakter der editions betonen und damit den preis erklären, aber nicht verstehen ist, dass es nicht der preis ist, der das zu erklärende ist.

dass es luxusgüter gibt, die hochwertig und mit edelsten materialien in handarbeit in abgeschotteten bergdörfern gefertigt werden, um dann unverschämt teuerer verkauft werden zu können, leuchtet jedem ein, auch denen die sich das dann nicht leisten können oder wollen.

das zu erklärende ist, wie es überhaupt dazu kommen konnte, dass apple eine solche nur außenrum luxuriöse uhr konzipiert und baut, wenn ganz offensichtlich ist, dass das technische herz ein stück technologie für $50 ist, das in eher 3 als 5 jahren völlig veraltet sein wird und dass man dann also auf einer uhr für $10.000 sitzt, die technisch und funktionell jeder nächsten generation an normalwatches für 350$ deutlich unterlegen sein wird.

und auch wenn man über die software selbst viel abstrahieren kann, dinge wie verbesserte akkulaufzeit oder chips für den aktuellsten übertragungsstandard oder unabhängigkeit von einem mitzuschleppenden mutterschiff iphone definieren doch mitunter radikale unterschiede in der nützlichkeit.

(ich könnte die editions ja noch irgendwie verstehen, wenn apple für sie eine eingeweidetechnische upgradeability offerieren und garantieren würde; alle zwei jahre bekommt man, wenn man will, für eine pauschale service-gebühr den aktuellsten und besten chip eingebaut, was kommt ist sicher nicht grösser und hätte bei standardisierter schnittstelle also locker platz. aber as is entsprechen die uhren spätestens in ein paar jahren bestenfalls vergoldeten minis, die aber von selbstfahrenden smarts in allen kategorien übertroffen werden)

um zb auf das argument von lobo zurückzukommen: der fehler in seiner analogie ist, dass es sich bei den watches nicht um rolexes handelt, die sich als swatches verkleiden, sondern dass es sich bei den editions um swatches handelt, die sich als rolex verkleiden.

was und finally, sorry, zu meiner antwort auf das quiz bringt: hätte butch’s vater im vietnamkrieg statt der goldenen uhr seines grossvaters eine apple watch edition getragen, er hätte sie wohl nicht in der gefangenschaft 5 jahre lang in seinem hintern versteckt, und spätestens captain koons hätte sie nicht weitere zwei jahre in seinem hintern versteckt und butch hätte sie also nie bekommen. er hätte sie dann also auch nie in seinem apartment vergessen und hätte also nie vincent dann dort beim holen der uhr erschossen und wäre also dann nie auf der flucht marsellus begegnet, was ja erst die seminale szene mit dem schwert getriggert hat, die butch dann ja im grunde gerettet hat, weil er seine schuld begleichen konnte usw.

und ich will jetzt nicht apple unterstellen, dass ihre watch am vermutlichen tod von butch in der alternativwelt schuld gewesen wäre. man kann aber lernen, dass wertschätzung immer auch ein element der narration benötigt. und die narration von luxus operiert natürlich auf einer trivialeren ebene als familiengeschichte, aber auch luxus ist keine reine funktion von preis oder exklusivität, sondern benötigt für die symbolische schliessung zumindest eine imaginierbare qualität als anker in der realität, und die ist, wie wir gesehen haben, bei der edition halt nicht gegeben.

16.03.2015 # https://hackr.de/2015/03/16/captain-koons

Lazy Blog Ep. 46

(blogpost über DAS fundamentale dilemma im derzeitigen web: den umstand, dass wir nicht besonders gut dabei sind, die schnittstellen zu erkennen und benennen, die zwischen dem was wir tun/tun wollen und dem angebot/mittel stehen, das wir dafür verwenden, und – vor allem emotional – zu verstehen, dass eigenschaften des angebots/mittels nichts mit den eigenschaften des ergebnisses zu tun haben)

((ein plakatives beispiel: wer will, kann seine allgemeine theorie und praxis zur revolution mit einem proprietären editor auf dem geschlossensten aller systeme schreiben, der text würde dadurch nicht schlechter.

gleichzeitig können die geheimdienste aller länder ihre überwachungsprogramme vollständig auf einem open stack an hard- und software betreiben, das gesellschaftliche vertrauen würde deshalb nicht weniger aufgelöst.

dem text ist es egal, wo und womit er geschrieben wurde.1 dem web ist es egal, mit welchem gerät es betrachtet oder benutzt wird.2 der funktionalen ausdifferenzierung ist es egal, was in der schwarzen schachtel hinter dem interface steckt.

bei text leuchtet glaub ich unmittelbar ein, dass man die schreibumgebung als black box verstehen kann, deren innereien auf das geschriebene keinen einfluss haben.

das gleiche prinzip gilt aber auch für sozialen plattformen oder für das ökosystem an mobilen apps, den üblicherweise ausgemachten feinden des offenen webs, und da wird die assoziation fast reflexartig hergestellt. winer glaubt noch immer, dass an facebook doch wirklich nix so kompliziertes dran sein kann, was man nicht schnell mit open source komponenten emulieren könnte. im cluetrain manifesto wird ganz selbstverständlich davon ausgegangen, dass die benutzung des webs selbst schon ein ethischer akt ist, während die benutzung von apps den wert in sich aufsaugt. usw. fast immer geht es dabei um kontrolle, aber um kontrolle über dinge, bei denen man mit der kontrolle nichts funktionales gewinnt.

das problem der oft falscherweise hergestellten assoziation der eigenschaften vom mittel hinter der schnittstelle mit den eigenschaften des produktes ist, dass im anschluss das falsche problem gelöst werden soll, was der lösung der eigentlichen probleme – es sind dann üblicherweise immer zwei: ein technopolitisches und ein produktqualitatives3 – dann doppelt im weg steht, vor allem aber auch die gesamte ‘schlagkraft’ der grundsätzlich vorhandenen energien für gesellschaftlich sinnvolle offene systeme reduziert, weil nicht nur energien in projekte gesteckt werden, die nix bringen, sondern im verlauf auch alle beteiligten frustriert))

(((bonuspunkte also wie immer für konkrete fallstudien und sternchen für eine umfassende typologie)))

1 was natürlich nicht heisst, dass man nicht auf gewisse technische details achten muss. im falle text etwa, dass man ihn in einem format speichert, der von den verschiedensten editoren auf den verschiedensten plattformen gelesen und geschrieben werden kann. oder dass man bei plattformen darauf achtet, dass man seine posts jederzeit sauber exportieren kann, siehe die pownce lektion.

2 was wiederum nicht heisst, dass es nicht unterschiede in der usability gibt und vor allem natürlich die bildschirmgrösse auch einschränkungen setzen kann.

3 technopolitisch meint etwa, dass es gesellschaftlich nicht wünschenswert ist, wenn es zum dominanten anbieter keine alternative gibt, oder wenn es für bestimmte anwendungsbereiche keine offene software gibt, weil man sich bei gewissen dingen nicht auf den goodwill eines herstellers verlassen will.

05.03.2015 # https://hackr.de/2015/03/05/lazy-blog-ep-46

Minimal Models pt. 2 (The Consumption Edition)

stellen wir uns nach dem minimal model pt. 1 nun eine andere welt mit 100 teilnehmern vor, und in dieser welt kann kann man jede woche entweder eine stunde schreiben oder eine stunde lesen; und nehmen wir auch an, dass schreiben etwa 10x so lang dauert wie lesen.

szenario 1: 10 schreiber, 90 leser
90h lesen verteilen sich auf 10 schreiber -> 9h lesen pro schreiber (es wird jeder text von allen lesern gelesen)

szenario 2: 50 schreiber, 50 leser
50h lesen verteilen sich auf 50 schreiber -> 1h lesen pro schreiber (jeder text wird immerhin von 10 lesern gelesen)

szenario 3: 90 schreiber, 10 leser
10h lesen verteilen sich auf 90 schreiber -> 7 min lesen pro schreiber (jeder text wird von immerhin noch einem leser gelesen)

was kann man nun schon aus diesem allereinfachsten modell lernen?

  • produktion braucht konsumption und umgekehrt
  • mehr ‘produktion’ ist nicht unbedingt das wünschenswerte
  • es geht vielmehr um das erzeugen von milieus, auf denen sich die produktionsbedingungen und rezeptionsbedingungen auf einem für alle beteiligten nützlichen gleichgewicht einpendeln kann
  • genau das erzeugen dieser milieus für die produktion und rezeption von spezifischen sozialen objekten ist die aufgabe der verschiedenen dienste. wie das dann jeweils idealerweise ausschaut folgt keiner faustregel, sondern muss man sich von fall zu fall genau anschauen. sowas wie diese unsägliche 90-9-1 regel zeigt vielleicht den median der verteilungen an (i.e. auf vielen foren pendelt es sich da ein), ist ansonsten aber völlig nutzlos.

nur zur sicherheit: das modell ist natürlich nicht realistisch. leute können üblicherweise lesen und schreiben, ob man produziert hängt von einer jeweils individuellen motivationsfunktion ab, ob und was man konsumiert hängt von einer jeweils individuellen interessefunktion ab, daraus leiten sich verteilungskurven mit abnehmendem grenznutzen ab, die wiederum verschiedene triggermilieus bzgl. der motivationsfunktion bilden, die wiederum feedbackloops innerhalb einer allgemeinen ausdifferenzierung erzeugen, usw.

(und nur am rande: wenn man sich die realen verteilungen auf webdiensten anschaut, dann sind die meistens erstaunlich plausibel. die wikipedia pendelt sich auf einem niveau ein, das zur aktualisierung völlig reicht; die 0,1% produzenten (hausnummer) erzeugen immer noch einen massiven inhaltlichen überschuss, der halt in den löschdiskussionen abgefackelt wird, aber der nutzen jeder änderung betrifft natürlich immer gleich millionen; auf twitter ist mit dem produzieren von tweets kaum aufwand verbunden, da entstehen dann wilde mischungen von den verschiedensten subbündeln, aber insgesamt hat twitter, wenn es ein problem hat, sicher nicht wie oft naiv angenommen eines von zu wenig produzenten, sondern von zu wenig lesern, die faven, subscriben, auf die links klicken, auf die ads klicken; usw.)

22.11.2014 # https://hackr.de/2014/11/22/minimal-models-pt-2-the-consumption-edition

Minimal Models pt. 1 (The Media Edition)

stellen wir uns einmal eine welt vor, in der es zur elektronischen publikation/kommunikation nur ein medium gibt: jeder der will kann schreiben was und wie er will. nennen wir es blogs.

alle, die etwas publizieren wollen, benutzen blogs für ihr gesamtes ausdrucksbedürfnis, was sollten sie auch sonst tun. es wird sich ein bestimmter infoökonomischer raum an bloggern und lesern ausbilden und sich auf einem gewissen aktivitätsniveau mit einer gewissen verteilung von ‘jobs’ einpendeln.

stellen wir uns vor, dass dann ein zweites medium hinzukommt, das zwei unterscheidungen einführt: einerseits wird die länge der texte auf 140 zeichen begrenzt, andererseits werden die teilnehmer sozialisiert/vernetzt. nennen wir es twitter.

was wird passieren?

  • leute werden neue kommunikative ‘jobs’ entdecken, die mit dem neuen, kleinen medium plötzlich sinnvoll werden (nicht, weil sie davor grundsätzlich unmöglich waren, aber weil sie davor ‘infoökonomisch’ gwm. zu teuer waren).
  • es wird eine umverteilung/migration der beteiligten geben: leute werden beginnen, twitter statt blogs für die neuen dinge zu verwenden, und für die dinge, für die twitter besser geeignet ist.
  • einige leute werden erstmals an der kommunikation teilnehmen, weil sie erstmals für sich sinnvolle jobs entdecken oder weil es für sie erstmals einfach genug ist oder schnell genug geht.
  • einige andere werden fortan blogs und twitter verwenden, einige weiterhin nur blogs, einige nur oder nur noch twitter.
  • die anzahl der teilnehmer wird insgesamt zunehmen.
  • die anzahl der kommunikationsereignisse wird in diesem fall wohl dramatisch zunehmen, einfach weil es von einfacherem und kleinerem üblicherweise mehr gibt (allerdings könnte das auch anders sein; hätten wir unsere welt mit twitter begonnen, würde sie wohl ebenso dramatisch abnehmen).
  • der marktanteil wird sich verschieben. (die bewertung davon ist jedoch eine schwierige sache, weil der marktanteil an den gesamten kommunikationsereignissen tatsächlich nichts über die nachhaltigkeit oder gesellschaftliche relevanz von medien aussagt.)

als ergebnis entsteht irgendwann jedenfalls ein neues infoökonomisches milieu mit zwei ebenen der ausdifferenzierung: einerseits differenzieren sich die medien ‘gegeneinander’ aus; andererseits differenzieren sich innerhalb der einzelnen medien die kommunikationsereignisse der jeweiligen jobs aus. sowohl die medien selbst als auch die qualität und quantität der kommunikationsereignisse innerhalb der jeweiligen medien pendeln sich auf einem gewissen neuen aktivitätsniveau ein.

these:

mit jedem weiteren medium entstehen – immer der gleichen logik folgend – jeweils immer wieder neue milieus, die sich jeweils immer wieder einerseits bezüglich der medien untereinander und andererseits in jedem medium in sich selbst bezüglich der jobs und ereignisse ausdifferenzieren.

(neue medien entstehen üblicherweise durch einführung von neuen unterscheidungen; neben der unterscheidung lang und asozial (blogs)/kurz und sozial (twitter) wie in unserer welt, gibt es viele andere wie öffentlich/privat, stationär/mobil, billig/teuer, E/U, autonom und selbstbetrieben/abhängig und in der cloud, permanent/peripher, frei flottierend/vernetzt, vom gemeinen volk/von spezialisten, und viele mehr. jede unterscheidung verdoppelt gwm. die anzahl der möglichen medien, wobei es aber auch clusterbildungen und nicht genutzte kombinationen gibt).

was kann man nun schon aus diesem allereinfachsten modell lernen?

  • ein neues medium kann die anzahl der systemweiten ‘kommunikationsereignisse’ erhöhen (etwa weil es schneller oder kleiner oder billiger oder omnipräsent ist) oder aber auch reduzieren (etwa weil es dinge zusammenfasst oder überflüssig macht). in beiden fällen funktioniert die gesamtkommunikation danach idealerweise besser. die anzahl der kommunikationsereignisse selbst ist also eine völlig sinnlose metrik.
  • man kann und sollte mehrere medien gleichzeitig verwenden, idealerweise jeweils für den damit angemessenen job. das alte oder andere medium muss nicht sterben, damit das neue sinnvoll oder wertvoll wird. (das klingt offensichtlich aber viele fühlen sich leider nur wohl, wenn sie irgendwas ausstopfen und an die wand hängen können.)
  • es ist ganz grundsätzlich nicht schlecht oder beklagenswert, wenn ein altes medium ‘marktanteile’ an ein neues medium verliert. das ergebnis der anpassung ist ein kommunikatives gleichgewicht auf höherem niveau. es gibt ganz grundsätzlich nichts zu urteilen, sondern nur was zu beobachten. (don’t ask yourself if this is a good thing or a bad thing. ask yourself what’s going on)
  • der ‘marktanteil’ der verschiedenen medien ist auch nicht sinnvollerweise vergleichbar, weil sie völlig unterschiedliche funktionen mit unterschiedlicher wertigkeit entlang der achsen persönlich, sozial und system (siehe) erfüllen können. (ein beliebiger blogeintrag erzeugt eine woche später mehr diskursive anschlussfähigkeit als alle 50 milliarden whatsapp messages eines tages zusammen.)
  • es bringt nichts, die alten marktanteile im neuen milieu retten zu wollen oder künstlich zu pimpen. (das zu verstehen ist wirklich wichtig, wenn man ein betreiber vom alten medium ist, vor allem, wenn man die produktion – etwa von zeitungen – irgendwie ‘finanzieren’ muss. den eigenen realistischen anteil falsch einzuschätzen kann mitunter auch ein fataler fehler sein, weil der threshold zur erhaltung von aufgeblähten apparaten ja nicht kontinuierlich ist, sondern erst ab einem kritischen punkt einen dann aber plötzlichen sog nach unten erzeugt, der oft aber vermeidbar wäre. wir sehen das leider derzeit bei fast allen altmedien wie print aber auch etwa bei twitter inc.) viel wichtiger als der relative marktanteil sind die absoluten ereignisse.
  • die effekte und möglichkeiten des jeweiligen mediums sind keine ‘leistung’ des mediums oder der macher, sondern effekte, die durch die benutzung entstehen.
  • es gibt strukturell keine zeitlichkeit oder vorrecht des einen mediums über das andere; ist das neue medium einmal da, koexistiert es mit allen anderen medien gleichwertig. (der kleine vorteile vom historisch älteren medium ist, dass die leute erst wechseln/ihr verhalten adaptieren müssen. das endgültige gleichgewicht für eine bestimmte konstellation ist aber zeitlos.) zwar wird es im konkreten historischen verlauf gewisse wellen geben (überschätzung am anfang, hysterie bei beobachteter abnahme, etc.), früher oder später passt sich die kommunikation jedoch an, weil das kämpfen gegen die ineffizienzen zu teuer wird.
  • interessanterweise ist die möglichkeit der entstehung mancher medien selbst ‘historisch’. bestimmte medien sind nur sinnvoll, wenn sie sich etwa asymmetrisch gegen andere medien positionieren können. (sind sie aber erst einmal da, können sie gwm. nicht mehr ungeschehen gemacht werden.)
  • medien können durchaus auch obsolet werden und verschwinden. (allerdings sollten sie überleben können, solange es zumindest einen halbwegs populären ‘job’ gibt, für den sie das medium sind, das dafür am besten geeignet ist.)
  • gelegentlich können die verschiebungen und migrationen ob eines neuen mediums auch sehr schnell gehen und/oder sehr grosse auswirkungen haben.
  • es ist wirklich wichtig, nicht den fehler zu machen, die übergangsphase von einem zustand in den neuen als etwas anderes als eine anpassung ans neue gleichgewicht zu interpretieren. (das ist natürlich der fehler, den alle machen, die sich zahlen von twitter, facebook und whatsapp anschauen und dann aleatorisch extrapolieren um dann wasauchimmer und jedenfalls den tod von irgendwas zu prognostizieren.)
  • auch wenn medien wegen anderen medien üblicherweise ‘marktanteile’ verlieren, so wird doch gleichzeitig auch ihr eigenes profil geschärft. sie werden also besser, weil sie zunehmend für die jobs herangezogen werden, für die sie wirklich geeignet sind.

nur zur sicherheit: das modell ist natürlich nicht realistisch; es basiert auf der sicher nicht erwartbaren annahme, dass alle teilnehmer über alle medien vollständig informiert sind und sich egoistisch rational verhalten; es nimmt auch einen frei fliessenden informationsmarkt an, während die reale situation in vielen fällen ein spieltheoretisches problem egoistischer anbieter ist. auch als medientheorie ist es supernaiv. aber für die entwicklung eines gefühls für die grösse des eigenen ballparks ist es tatsächlich nützlich, zumal sich die menschen in summe üblicherweise erstaunlich rational verhalten, oft viel rationaler, als es zb die macher der einzelnen angebote selbst können. (twitter zb macht entgegen vieler unkenrufe ja noch immer vieles richtig, ihre ganzen probleme haben sie sich eigentlich durch eine deutliche selbstüberschätzung eingehandelt und je länger sie das nicht verstehen, desto fragiler wird der ganze datentyp tweet, weil sie ihn mehr und mehr micromanagen und immer mehr einschränken, aber das ist eine andere geschichte.)

(die gleiche logik kann man grundsätzlich natürlich auch in anderen feldern wie handel oder gadgets vermuten, zumindest als asymptotischer horizont. oft hilft wirklich schon, wenn man sich die lage für die zwei achsen offline/online und statisch/mobil durchdenkt.)

16.11.2014 # https://hackr.de/2014/11/16/minimal-models-pt-1-the-media-edition

Ethische Rocker III Die Rückkehr der Kontrollgesellschaft

4 jahre nach ethische rocker und ethische rocker II gwm. der dritte teil meiner trilogie über die theorie des kontrollverlusts von mspro – zur abrundung in form eines (informellen, nicht kritischen) eindrucks von das neue spiel.

wie soll ich sagen und ich will nicht despektierlich klingen, aber ich war wirklich positiv überrascht. nicht dass ich was anderes erwartet hätte, aber es ist inhaltlich insgesamt sehr rund und durchaus am puls, er hat eine gute und sehr lesbare sprache gefunden und driftet dabei weder in diesen oft unsäglichen babytalk für dummies ab, noch überladet er es bedeutungsschwanger mit irgendeinem jargon. und er definiert einen sinnvollen und konkreten politischen vektor, ohne dabei aber ins assoziative wunschdenken oder ins frei flottierende fordern oder in die netzpolitische selbstgefälligkeit zu verfallen (wie es sich beim thema doch anbieten würde). eher im gegenteil, er bleibt eher pragmatisch und stapelt mit seinen thesen fast schon tief. nicht nur deshalb von mir eine kauf- resp. leseempfehlung.

(seine kernbegriffe (kontrollverlust, query) verwendet er vl. etwas zu grosszügig. nicht dass sie unfruchtbar wären, aber er presst so ziemlich jeden gedanken mit ihnen aus, egal ob er jetzt besonders gut passt oder nicht. und query oder kontrollverlust sind halt so generisch und selbstevident, dass sie natürlich immer irgendwie passen. aber ich könnte sie auch auf jede beliebige folge columbo anwenden und hätte die gleiche schlüssigkeit (ist der täter nicht das paradigmatische (arrogante, selbstverliebte) subjekt des kontrollverlusts, das alles geplant und in der höchsten präzision ausgeführt hat, nur um dann über columbo zu stolpern, der die spuren sammelt und sie mit queries mehr und mehr vernetzt bis der täter selbst die unmöglichkeit seiner offiziellen narration eingestehen muss usw.) aber darauf will ich nicht herumreiten; wer kein freund von social objects ist, muss zb hier einiges ertragen, die mappe ich ja auf alles was nicht bei drei auf den bäumen ist)

mein kleines problem mit dem buch ist aber, dass sein hauptbegriff ‘kontrollverlust’ selbst auf der falschen seite der unterscheidung/des bruchs angesiedelt ist und gwm. den blick aus der vergangenheit kapselt. was wir mit dem internet erleben ist in seinem wesen ja nicht ein verlust der kontrolle, sondern eine intensivierung und eine steigerung der komplexität des gesamtsystems, die halt mitunter eine verringerte kontrollierbarkeit der art und weise hat, wie andere systeme von uns und allem anderen ‘gebrauch machen’ oder eben anschluss suchen (siehe etwa am ende der wurst). der jeweilige grad der kontrollierbarkeit ist kein wesensmerkmal, sondern ein effekt des neuen aggregatzustands. über den kontrollverlust sinniert man nur auf dem schrumpfenden eisberg, im wasser selbst ist er nicht besonders sinnvoll. (er spürt das glaube ich auch selbst. wenn man so will ist das ganze buch der versuch diesen begrifflichen fehler/den umstand sich auf die eisscholle gesetzt zu haben zu korrigieren.)

aber wie gesagt: lesetipp.

10.11.2014 # https://hackr.de/2014/11/10/ethische-rocker-iii-die-rueckkehr-der-kontrollgesellschaft

Der Besserwisser pt. 2 (Apple Watch)

kl. nachtrag zum besserwisser pt. 1 revisited : ich wollte eigentlich zur apple watch nichts mehr sagen, bevor ich sie nicht zumindest einmal an der hand gehabt habe und zumindest die rudimentärsten offenen fragen (wie lang hält der akku wirklich, was geht für entwickler mit diesem watchkit, bis zu welchem grad kann man sie ohne iphone in unmittelbarer nähe verwenden, wieviel kosten die editions, inwieweit lassen sich die innereien updaten, etc.) ansatzweise beantwortet sind, und ich wollte die besserwisserserie eigentlich auch besser früher als später unter den teppich kehren, aber mit zwei kleinen änderungen des bezüglich ellos im speziellen aber sozialer webapps im allgemeinen vorgeschlagenen modells lassen sich auch die meisten einschätzungen zur watch etwas relativieren, wenn ich also schon dabei bin hier also auch noch usw…

zur erinnerung: die unterscheidung in maschine auf der einen seite und historisch soziale kontingenz auf der anderen seite im zusammenspiel mit dem begriff des asymmetrischen wettbewerbs hilft uns zwar nicht beim vorhersagen der auswirkungen von sozialen webapps, aber so trivial sie ist lassen sich damit die meisten getätigten prognosen ‘dekonstruieren’.

änderung 1: auf der anderen seite der ‘maschine’ apple watch steht nicht länger eine gesellschaftliche kontingenz, kein ergebnis eines historischen und sozialen ausdifferenzierungsprozesses usw., sondern ein jeweils einzelnes subjekt mit jeweils konkreten bedürfnissen und begierden. es gibt also nicht eine maschine für alle, sondern die (im rahmen der editions und variierbarkeit mehr oder weniger) gleichartige maschine für jeden einzelnen.

änderung 2: asymmetric competition bleibt zwar auch hier ein nützliches konzept, hier noch nützlicher aber ist: job to be done

und auch das verwende ich frei nach asymco der es frei nach christensen verwendet und das ist die ganz einfache frage: für welchen job heuere ich ein ding an? es geht dabei nicht darum, dass das jeweilige individuum die frage dann auch adäquat beantworten kann (oft wissen wir es selbst nicht, oft ist es was gänzlich anderes als vermutet), sondern um die annahme, dass wir das immer für einen konkreten job in unserem leben tun. diese jobs können übrigens durchaus andere sein, als es die macher der maschine gedacht oder geplant haben.

der fehler, den fast alle machen, die ihre einschätzungen zur apple watch publizieren, ist für die watch den EINEN RICHTIGEN job to be done zu suchen, diesen dann üblicherweise als zu erledigenden job FÜR ALLE selbst festzulegen und dann ihre gesamte kritik auf diese ihre eigene festlegung zu beziehen. aber hier kommt der unterschied zwischen der anderen seite der maschine zum tragen: anders als bei sozialen webapps, wo es (innerhalb vieler freiräume) doch auch stark darauf ankommt, ein spezifisches soziales objekt gemeinsam auszuhandeln, die dichte also mit dem grad der gemeinsamkeit zunimmt, liegt der wert von gadgets im potential für einen einzelnen einen oder auch mehrere jobs zu erledigen, der wert des gadgets also mit der vielzahl an möglichkeiten zunimmt.

im fall soziale webapps ist die geschichte kontingent, im fall gadgets der nutzen. die watch muss also keinen von irgendeiner instanz festgelegten universellen überjob realisieren, sie muss nur für jedes konkrete individuum NUR EINEN EINZIGEN aller möglichen jobs realisieren, um dem leben mehr freude oder sinn zu geben. und mit kosten von 50c pro tag liegt die hürde dafür, die watch auch ökonomisch attraktiv zu machen, wirklich nicht besonders hoch.

wenden wir diese abgewandelte unterscheidung und das neue konzept nur exemplarisch an einem der grössten cluster eines vorfestgelegten überjobs an (wer lust hat kann das leicht auf andere cluster wie ‘mode’, auch hier ‘offenheit’, etc. übertragen):

die naiven evolutionisten

die naiven evolutionisten zeichnen sich dadurch aus, dass sie die watch als technoevolutionäre weiterentwicklung vom iphone sehen und die uhr als neue zentrale (kleinere, permanentere, bessere) kommandozentrale für das vernetzte selbst konzipieren, die das handy ablösen wird. und weil die watch das in der vorgestellten version nicht in der geforderten autonomie und vollständig tut und das iphone noch nicht komplett ersetzt, wird sie gleich bis auf weiteres als im grunde völlig sinnlos verworfen.

ich sympathisiere grundsätzlich mit jedem ansatz, der sich explorativ oder als gedankenspiel mit möglicherweise kommenden technologien auseinandersetzt, und es steht natürlich jedem völlig frei was auch immer als k.o.-kriterium für sich selbst zu definieren – aber wie man nicht sehen kann, dass die watch nicht alles bisherige vollständig ersetzen muss und wie sie auch im zusammenspiel mit dem ohnehin gegebenem setup hunderte andere und mitunter auch gänzlich neue jobs tun kann, geht wirklich über meine vorstellungskraft.

(nur am rande: ich glaube überhaupt, dass erst durch den dialektischen gang durch die watch einige qualitäten und eigenschaften von stinknormalen smartphones sichtbar werden, die wir derzeit gar nicht als solche registrieren oder schätzen; ein screen in der grösse zwischen 4 und 5 inch dürfte doch der sweet spot zwischen nützlichkeit zur darstellung von information und den kosten für portabilität sein; alles was kleiner ist hat (auch wenn es optimierte apps oder alternative interfaces wie voice gäbe) zunehmende kosten bei der informativen universalität, alles was grösser ist kann nicht länger gedankenlos eingesteckt werden. und wir können damit telefonieren; auch wenn wir das üblicherweise nicht mehr tun, viele wollen zumindest die theoretische möglichkeit dazu und nicht jeder will dick tracy sein. aber davon abgesehen hat ein phone etwa auch den vorteil nicht am körper befestigt zu sein, sondern als ding autonom zu sein, und das ist vl. wichtiger als wir es derzeit vermuten. aber das ist ein anderes thema.)

06.10.2014 # https://hackr.de/2014/10/06/der-besserwisser-pt-2-apple-watch

Der Besserwisser pt. 1 Revisited

hmm, das mit dem besserwisser hat ja nicht gerade zu viel falsifikation von aussen geführt (nts: der titel war wohl doch ein bisschen suboptimal gewählt), hier zumindest als nachtrag zwei beispiele von mir selbst…

vorab eine vielleicht nützliche unterscheidung für die ‘bewertung’ von webapps (und im konkreten fall ello) und zwar die unterscheidung in die ‘maschine’ und das was die menschen damit machen also die ‘historisch soziale kontingenz der benutzung’.

unter maschine verstehe ich dabei die der anwendung zugrundeliegende analoge und digitale materialität, also den gesamten stack an hardware und software und den konkreten code der anwendung selbst. während das an sich jeweils unendlich komplex sein mag, diese komplexität braucht den benutzer nicht zu interessieren; was ihn betrifft stellt sich die maschine auf eine ganz konkrete art zur verfügung und den möglichkeitsraum könnte er ganz konkret beobachten. es gibt kein geheimnis, man muss es sich nur anschauen.

und unter der historisch sozialen kontingenz der benutzung verstehe ich die gesamtheit der konkret stattgefundenen und stattfindenden aktivitäten der benutzer, die von der maschine gebrauch machen und dinge tun inklusive der gesamtheit aller dabei angefallenen daten und spuren – das darauf stattgefundene und stattfindende leben, wenn man so will. auch diese prozesse können unendlich komplex sein, aber auch diese komplexitäten brauchen den benutzer nicht zu interessieren; was ihn betrifft stellen sich alle anderen auf eine jeweils ganz konkrete art und dadurch erzeugten möglichkeiten zur anschlusskommunikation zur verfügung und auch das könnte er wieder ganz konkret beobachten.

im zusammenspiel zwischen maschine und der historisch sozialen kontingenz ist es wichtig im hinterkopf zu behalten, dass jede historisch soziale kontingenz zwar eine maschine benötigt, die maschine selbst aber nie ein hinreichender grund für das auf ihr stattfindende ist. ab einem gewissen punkt der gegenseitigen ‘interpenetration’ kommt es idealerweise natürlich zu einer funktionierenden koevolution, aber auch dann bleibt der zusammenhang kontingent und kleinste justierungen an der maschine können ungewollt riesige konsequenzen haben und größte änderungen können wirkungslos bleiben.

und mehr vorab ein nützliches konzept: asymmetric competition

ich verwende es frei nach asymco der es frei nach christensen verwendet und ich verstehe darunter eigentlich nur die zwei ich glaube selbstevidenten aussagen, dass einerseits vorteile der einen mitunter auch vorteile für andere erzeugen können und dass andererseits einfach nicht alle das gleiche spiel spielen, aber alle oft so tun als ob. zum beispiel: sind plattformen einmal dominant, dann stellt es einen wert an sich dar, nicht ebendiese plattform zu sein. wer alles mit google macht, für den ist vl. sogar schon yahoo für die mails interessant, weil dann zumindest die mails und damit der zugang zu allen anderen accounts nicht bei google liegen. wer sein leben auf facebook verbringt, für den ist alles was nicht facebook ist eine möglichkeit für einen frischen wind, für andere kontakte, für eine andere darstellung von sich selbst, usw. nicht-das-eine-sein ist ein riesiger vorteil, den das eine selbst nie haben wird und der umso grösser wird, je dominanter das eine wird.

— (1)

[…] Paul Budnitz […] hat nach den Machern von Diaspora als einer der Ersten die Eier gehabt, einfach mal zu versuchen, einen Facebook-Konkurrenten zu basteln.

spreeblick

denkt man die zwei dinge zusammen, dann erledigen sich schon einige unfruchtbare vergleiche oder annahmen, die über ello gemacht wurden.

ello muss dann nämlich nicht mehr in einer direkten konkurrenzbeziehung zu facebook oder twitter konzipiert werden, sondern kann als asymmetrische und durchaus auch koexistierende alternative verstanden werden, deren wert gerade nicht darin besteht ein anderes facebook oder twitter zu sein um dort mit den gleichen das gleiche halt woanders zu tun, sondern darin, einen anderen raum aufzuspannen, den man auf facebook oder twitter nicht mehr aufspannen kann. und während das wiederum viele neue netzwerke tun hatte ello dabei auch das notwendige quäntchen glück vom richtigen timing, weil facebook gerade eine gruppe von dragqueens und viele andere mit einer verschärften durchsetzung vom juristischen namen quasi vertrieben hat, die dann ello als neues zuhause adoptiert haben, was als story natürlich gut war und ello also in die presse brachte.

gleichzeitig ist jede frage, ob es sich bei irgendwas um das – meistens bzgl. der grösse gefragte – nächste facebook oder twitter handelt, schon auf ganz grundsätzlicher ebene blödsinnig. nicht weil es grundsätzlich nicht möglich ist (statistisch wird halt jede 10.000 anwendung oder 2 bis 3 pro jahrgang gross und wenn man es bei jeder anwendung fragt hat man also auch mal recht), sondern weil die historisch sozialen kontingenzen einfach nicht vorhersehbar sind und milliarden von einzelentscheidungen zusammenkommen müssen und gleichzeitig keine destruktiven ereignisse eintreten dürfen.

(wie seltsam johnnys zitat auch ansonsten ist wird glaub ich klar, wenn man es neun jahre vordatiert als: “ehssan dariani hat mit seinem studivz als einer der ersten die eier, einfach mal zu versuchen, einen facebook-konkurrenten zu basteln”)

der grund, warum ich auf dem vl. mehr als angemessen herumreite, ist auch, weil der vergleich zwar gut gemeint ist aber mehr schadet als nützt. leute plappern das mit dem ‘neuer facebook konkurrent’ nach, schauen sich die seite an, denken sich aha, das soll das neue facebook sein, und gehen wieder. das ganze framing wird den möglichkeiten und eigenen eigenschaften überhaupt nicht gerecht.

— (2)

They don’t have feeds in or out. That means whatever you put in there, starting right now, is theirs. They won’t even share your stuff with you. That’s not a good deal. You shouldn’t accept that.
So Ello isn’t answering any question I can think of.
If they were open, then I would be interested.”

dave winer (interessanterweise ursprünglich auf facebook)

dave winer steht hier synekdochisch für alle vertreter und spielarten der offenheit, die seit vielen jahren reflexartig jedes geschlossene system mit der immer gleichen checklist in der hand kritisieren, sich aber anscheinend noch nie wirklich gefragt haben, warum offenheit in vielen bereichen so offensichtlich unwichtig ist, während sich die user in geschlossenen gärten horten und freiwillig melken lassen.

die einfache antwort ist: kultur. kultur verstanden als spezifische ausbildung eines sozialen objekts (SO) und von gemeinsam ausgehandelten formen zur produktion, rezeption und distribution ebendieses SOs (das ist etwas komprimiert formuliert, aber wer hier ein bisschen sucht findet viel dazu). und in diesem sinne verstandene kultur ist deshalb ein so filigranes und unwahrscheinliches pflänzchen, weil sie nur als ganz spezifische ausdifferenzierung zwischen maschine und der historisch sozialen kontingenz entsteht, wobei das soziale objekt sehr stark durch die maschine aber die gemeinsam ausgehandelten praktiken natürlich primär auf der seite der historisch sozialen kontingenz definiert werden. aber es ist halt die kultur, die einen dienst attraktiv und sinnvoll macht, nicht die tatsache offen oder verschlüsselt zu sein. solange die open crowd nicht versteht, dass ein tweet etwas ganz grundsätzlich anderes ist, als ein string mit maximal 140 zeichen, solange werden sie es nicht schaffen dienste zu entwickeln die kultur haben und offen sind.

der grund, warum ich auch auf dem vl. mehr als angemessen herumreite, ist, weil auch die forderung nach offenheit gut gemeint ist aber auch wieder mehr schadet als nützt. in vielen situationen ist die offenheit selbst nämlich der verunmöglicher der möglichkeit der entwicklung einer kultur. dienste brauchen üblicherweise eine gewisse zeit, bis sie zu sich selbst finden, die meisten bekannten dienste sind reine zufälle. das letzte was sie in dieser inkubationsphase brauchen sind leute, die irgendeine automatisierbare sozialmediale kommandozentrale verwenden, um ihre inhalte dann auf maximal vielen plattformen zu verbreiten oder um ihre netzwerkdichte zu maximieren ohne auf die jeweilige kultur rücksicht zu nehmen und alle andere bots. (der differenzlose gesamtstrom ist gwm. die definition der kulturlosigkeit)

(nur zur sicherheit als faustregel: sei so indie wie möglich!!11 und backe alles up; aber beharre nicht auf dem indie wo es mehr schadet als nützt oder wo es irrelevant ist)

We believe a social network can be a tool for empowerment. Not a tool to deceive, coerce, and manipulate – but a place to connect, create, and celebrate life.
You are not a product.

ello manifest

als kleiner anhang ein bauchgefühl: die art, wie die selbstbeschreibung von ello angenommen wurde, war eig. auch interessant. die einen nahmen es irgendwie wörtlich, haben es einfach mal geglaubt und das hat viele sicher auch motiviert; die anderen haben es mit dem dann ‘aufgedeckten’ funding quasi als grosse lüge entlarvt, weil vc-money und grundsätze oder keine ads ja ein oxymoron sind. ich glaube beide schiessen in die falsche richtung. das manifest kann glaub ich besser als übersteigerte approbation von tautologischen plattituden über soziale netzwerke – also etwa im stile von laibach – verstanden werden. mir kommt überhaupt vor, dass ello die erste app ist, die darauf basiert sich mit ernster miene ironisch von sich selbst zu distanzieren und die jetzt trotzdem einfach mit allem entstehenden und zufallenden einfach läuft, was ello dann wieder irgendwie sympathisch macht.

Der Besserwisser pt. 1 Rivvasited

04.10.2014 # https://hackr.de/2014/10/04/der-besserwisser-pt-1-revisited

My Private Idaho

weil es @_jk mehr oder weniger aufgelöst hat hier auch meine antwort auf quiz pt. 90 :

der grundlegende fehler ist zu glauben, dass es DIE universelle killerapp für die apple watch überhaupt gibt bzw. dass die apple watch eine solche universelle killerapp überhaupt braucht, um sinnvoll und/oder erfolgreich zu sein.

anders als bei anderen einführungen von apple gibt es bei der watch am ersten tag vl. keine langen schlangen vor den geschäften, aber der mittelfristige erfolg und der wert der watch hängt nicht davon ab, dass sie irgendwas universell besonders gut kann und gwm. universell gut löst (aka die vermisste killerapplikation), sondern nur davon, dass jeder einzelne für sich selbst zumindest eine einzige, idiosynkratische ‘killeranwendung’ entdeckt, die ein begehren erzeugt und den kaufreflex triggert.

und das muss noch nicht mal so besonders ‘killer’ sein: es reicht ja schon aus, dass man sich – übers jahr abgeschrieben – einen gegenwert von einem euro pro tag verspricht, um die uhr für einen persönlich attraktiv zu machen. und das wiederum kann jetzt schon das herzchen sein, das man einmal am tag als kleine aufmerksamkeit verschickt, oder ein dezenter farblicher hinweis, dass man noch 4000 schritte bis zum plansoll von 5000 schritten gehen sollte, oder eine schicke visualisierung des eigenen biorhythmus im vergleich zum biorhythmus des aktuellen gegenübers, oder oder oder. unterm strich: wenn man sich einmal am tag kurz darüber freut, hat man den anschaffungspreis gwm. bereits herinnen, alles andere ist ein bonus. der wert der uhr besteht also nicht darin, eine killeranwendung für alle zu sein, sondern darin, einen möglichkeitsraum für selbstbestimmte werte aufzuspannen.

und anders als bei bestehenden kategorien wie phones und tablets und notebooks, deren wert mittlerweile natürlich schon kommodifiziert ist und deren wert also immer gegen alle jeweiligen alternativen und damit verbundenen opportunitätskosten aufgerechnet werden muss – ein iphone 5s ist halt nur das ‘mehr’ (oder weniger) wert, was das aktuelle nexus oder huawei noch nicht so gut kann usw -, ist alles, was die erste watch neu offeriert, quasi ein unmittelbar als wertvoll empfindbarer wert, weil alles eben neu ist und noch mit nichts anderem verglichen werden kann.

16.09.2014 # https://hackr.de/2014/09/16/my-private-idaho

Standardsituationen 2014

apropos Aktualisierung von 140 Prozent Plus : auch kathrin passig hat ihre (auch schon wieder in die jahre gekommenen) standardsituationen der technologiekritik überarbeitet : Neue Technologien, alte Reflexe. der vollständigkeit halber also auch eine art aktualisierung meiner damaligen kritik (siehe Standardsituationen aus 2009; ich empfehle überhaupt zuerst standardsituationen zu lesen, dann kathrins standardsituationen 2014 und dann das hier):

wie schon bei den alten standardsituationen dreht es sich auch bei den neuen standardsituationen um ein erfassen der technologischen gegenwart, nur hat sie diesmal die standardargumente der luddistischen neinsager antithetisch mit standardargumenten technoptimistischer jasager konfrontiert, um das ganze dann dialektisch in einigen pragmatischen handlungsanleitungen für ein dem neuen gegenüber aufgeschlossenes leben und/oder wirtschaften aufzulösen.

und während mir zwar die allegorie des laubhaufens für den igel wie jedem echten freund von katzencontent das herz wärmt, meine kleine kritik an ihrem ansatz ist, dass sie das problem (‘was bedeutet technologie für uns jetzt und in zukunft?’) schon wieder auf der falschen, oder was heisst falsch, aber auf einer für den diskurs unfruchtbaren ebene löst.

das problem mit ihrer parade von nein- und jasagern ist, dass sie sie nur ‘literaturwissenschaftlich’ dokumentiert, aber überhaupt nicht epistemologisch kritisiert (sie überlegt sich nicht, was der tätiger einer aussage über das ausgesagte überhaupt wissen kann, und wenn es um das web geht ist das in den seltensten fällen besonders viel, die leute glauben und sagen halt irgendwas, auch zu dingen von denen sie keine ahnung haben oder die ganz grundsätzlich unwissbar sind). ein rudimentärer nutzen davon ist sicherlich eine art pattern recognition für die eben standardtropen und denkreflexe von menschen, aber das hat alles mit der möglichen wissbarkeit überhaupt nichts zu tun und bringt uns auch nicht weiter.

das problem mit ihrer synthese ist, dass sie den diskursiven anspruch überhaupt über bord wirft und die lösung gwm. in den bereich lifehacks und/oder produktivitätstechnik verschiebt (sie also plateautechnisch lustigerweise wieder bei ihrem ‘dinge geregelt kriegen’ landet). ihre tipps – genauso wie viele andere tipps vieler anderer – sind dann sicherlich nicht falsch und tatsächlich nützlich, besonders auch als starthilfe oder erste hilfe, aber im dispositiv der aussagemöglichkeiten über das web und technologie kommen wir damit natürlich nicht weiter.

25.08.2014 # https://hackr.de/2014/08/25/standardsituationen-2014

Die Talfahrt

kurze (oder besser nicht ganz so kurze) unterbrechung der unterbrechung, aber ich miste gerade mein scrivener aus und wollte diesen text nicht wegschmeissen, würde ihn mit der wm vor der tür in absehbarer zeit aber wohl auch nicht abrunden, also poste ich ihn ein bisschen aktualisiert hier, die beispiele sind sicherlich nicht besonders gut gewichtet. ungewollt ist es jedenfalls eine art nachtrag zu 5 jahre live.hackr, das vor 4 jahren und irgendwie am höhepunkt der konzeptionellen ausdifferenzierung und vielfalt im web geschrieben wurde, sich der scheitelpunkt der entwicklung aber gerade abzuzeichnen begann.

unter talfahrt verstehe ich etwa die symptome und effekte, die dadurch entstanden, dass die gesellschaftlichen subsysteme nach der ersten schockstarre endlich ihre abwehrmechanismen gegen das web voll in gang gebracht haben (oft in form von rechten wie urheberrechten, patentrechten, datenschutzrechten, leistungsschutzrechten, pixelschutzrechten, rechten aufs vergessenwerden, usw.), oder die dadurch entstanden, dass die gleichen oder andere gesellschaftlichen subsysteme begonnen bzw. verstärkt haben, von den techniken selbst maßlos gebrauch zu machen (z.b. überwachung, vollständige privatisierung des immateriellen, beschleunigung der ungleichheiten durch netzwerkeffekte, usw.), oder die dadurch entstanden, dass startups zu konzernen und konglomeraten wurden und damit andere prioritäten ausbildeten (z.b. die verdummung von google oder twitter), oder aber auch das ganz natürliche gemetzel unter den diensten und das aussterben/verlernen/vergessen von technokulturellen techniken bei reterritorialisierung auf wenigeren und immer geschlosseneren plattformen.

in dieser implosion wurden allerdings einige verhältnisse und prinzipien deutlich, die zwar retrospekiv nicht überraschen, die aber in der phase der expansion eben nicht bedeutsam waren – und zwei bereiche davon möchte ich hier zumindest anreissen. und nur zur sicherheit: ich versuche hier nur das nicht-funktionieren, die störungen und filter der ersten welle zurück zu erklären, nicht eine bestandsaufnahme vom aktuell funktionierende zu geben. ich spare euch also das bauchpinseln, wachstumscharts oder einen internetoptimismus, das halte ich für gegeben. es kommt also, das sag ich euch gleich, eher ein downer.

der abbau von dingen und techniken

leicht dramatisiert sind wir in den letzten jahren von einem wilden garten mit erstaunlicher artenvielfalt und wildwüchsiger schönheit zu betreutem wohnen und überwachtem cluburlaub übergegangen. natürlich gibt es enklaven, gallische dörfer und biotope, aber was die gesellschaftlich paradigmatische praxis betrifft. den rückgang der artenvielfalt kann man in drei gruppen unterteilen, wobei jede gruppe unterschiedliche gründe und auswirkungen hat:

1. dinge, die einfach überholt wurden

viele dinge, techniken und gerätschaften wurden einfach von anderen dingen, techniken und gerätschaften überholt, weil sie kleiner, schneller, billiger, nützlicher oder besser waren. (man denke an den trolly mit dem pc, den bruce sterling auf der sxsw herumschiebt. niemand würde sich bücken und ihn aufheben, selbst wenn man dafür geld bekäme.)

über diese gruppe gibt’s glaub ich wenig diskussionsbedarf, auch wenn die effekte davon enorm sein können und ganze technologien fast verschwinden lassen, nur um aber einer viel stärkeren und schnelleren welle der nächsten generation an technologien platz zu machen. (nur als beispiel: 1,7 mrd. smartphones mit mobilem internetzugang ändern natürlich nicht nur die gesamte globale infosphäre und alle damit assoziierten ströme fundamental, sondern erzeugen ein genuin neues ‘infoökonomisches dispositiv’. und darüber wird sich niemand wirklich wundern, ausser vl. journalisten, blogger und analysten). vieles davon lässt sich jedenfalls gut mit halbjährigen trendreports dokumentieren.

2. dinge, die nützlicher klangen, als sie waren

in ihrer funktionslogik (nicht in ihrer wirkung) etwas interessanter sind vl. die dinge, techniken und gerätschaften, die zunächst ausgesprochen nützlich klangen, sich in der folge aber als weniger nützlich oder wichtig als vermutet herausgestellt haben. grundsätzlich wird natürlich immer alles machbare auch gemacht. und durch das web wurde so viel machbar, dass wir in der ersten phase auch wirklich vieles ausprobiert haben – und fast alles klang zumindest für die macher wie eine gute idee. aber nicht alle, genauer gesagt nur die allerwenigsten dinge und techniken haben sich dann als tatsächlich wertvoll herausgestellt, und viele techniken, die besser klangen als sie waren, wurden in der folge wieder eingestellt bzw. haben sich auf niedrigem aktivitätslevel neu eingependelt.

beispiele:

  • social bookmarking (sorry)
  • tagging (sorry)
  • blogging (sorry)
  • abonnieren und lesen von feeds (sorry)
  • startseiten wie netvibes (sorry)
  • lifestream- und andere aggregatoren (sorry)
  • local check-ins (sorry)
  • bürgerjournalismus (sorry not sorry; aber niemand setzt sich hin und verfasst zum spass journalistische beiträge, wenn es ein halbwegs gut funktionierendes mediensystem gibt. was aber zumindest eine zeit lang funktioniert sind halt medienkritische geschichten.)
  • usw.

das grundproblem ist immer das gleiche: als technik entfalten sie zu wenig strukturelle koppelungen, um eine gewisse nachhaltigkeit zu etablieren. im ersten schwung können die kosten durch übermotivation der neuartigkeit bereitgestellt werden, aber mittelfristig wird dann vieles eben finanziell nicht tragbar. auch bei der adaption eines dienstes durch benutzer gibt am anfang eine dynamik der neuheit, die dann verfliegt. der ‘naive’ glaube daran, dass dinge mit neuer technik automagisch besser werden, ist zwar auf gewisse weise nützlich, weil er das experimentieren erst ermöglicht, aber er hilft den je konkreten techniken oder technologien halt mittelfristig auch nix.

und neben diesen ‘schlechten guten ideen’ gab es natürlich auch den abbau vieler ‘schlechter schlechter ideen’, also von ansätzen, bei denen man das ende schon am anfang absehen konnte.

diese liste wäre sehr lang, aber eine sich zombieartig regenerierende fixe idee von ingenieuren ist jedenfalls zu versuchen, die perfekte algorithmische empfehlungsmaschine zu bauen, die dem menschen in jeder situation zu jedem zeitpunkt an jedem ort das perfekte produkt empfiehlt und ganz allgemein immer schon vor dem menschen selbst weiß, was er will. die ergebnisse stehen fast immer mehr im weg als sie nützen, aber mehr noch: sie wollen das falsche problem lösen, ein bisschen mehr dazu hier. die übernahme von beats durch apple zeigt, dass zumindest apple das wirkliche problem erkannt hat. (in einem satz: apple hat verstanden, dass musik kein problem für empfehlungsalgorithmen, sondern eine funktion von geschmack, vertrauen und begehren ist – und das war ihnen 3 mrd. dollar wert, weil sie es in 13 jahren itunes und ipod nicht selbst lösen konnten. nicht dass sie es nicht versucht hätten, man denke nur an ping, genius, itunes radio, usw.) auch fast alles, was primär auf aufwendigen content oder beteiligung der user setzt, braucht ein kleines sinnwunder oder extrem gutes design des sozialen objekts und der ströme.

andererseits: was wirklich nützlich wird und was ein dud bleibt muss sich einfach zeigen, das experimentieren hat also schon auch mit den anscheinend schlechtesten ideen seine berechtigung. die wenigsten fälle an wert entstehen aber durch features oder technik. game of thrones wurde und wird auf dos geschrieben.

3. dinge und techniken, die von höheren zu niedrigeren aggregatszuständen übergegangen sind

das ist die wohl interessanteste kategorie und sie klingt grundsätzlich ähnlich wie die dinge, die einfach nicht so nützlich wie vermutet waren, aber ich möchte sie deshalb unterscheiden, weil die dahintersteckende funktionslogik eine andere ist. dinge und techniken, die von höheren zu niedrigeren aggregatszuständen übergegangen sind, sind nämlich eben potentiell nützlich, nur konnten sie nicht genügend ‘kraft’ aufbringen, um sich gegen die kleineren/schnelleren/leichteren alternativen zu behaupten, von denen es dann sehr viel schneller sehr viel mehr gibt, weil sie eben kleiner, schneller und leichter sind.

neben den ‘guten schlechten ideen’ gibt es also auch eine art entropie, bei der ‘hochwertigere’ techniken durch ‘niederwertigere’ ersetzt werden. grundprinzip ist, dass sich die alternativen zunächst vom ursprünglichen ding deterritorialisieren, sich dann aber auf einer neuen ebene als neue formation reterritorialisieren. im unterschied zu den ‘guten schlechten ideen’ besteht bei diesen ‘schwachen guten ideen’ aber immer die möglichkeit, sie zu revitalisieren, oder besser: kann es mitunter sinnvoll sein, zu versuchen sie zu revitalisieren, wenn man diesmal dann aber auf die voraussetzungen und rahmenbedingungen zu achtet (miniquiz am rande: was dürfte was aussichtsreichste schraube sein, die man bei einem ‘neustart’ einer ‘schwachen guten idee’ festgezogen haben sollte?).

beispiele:

  • von blogs zu tumblr, g-plus oder quora.
  • vom journalismus zu huffington post, buzzfeed oder heftig.
  • von flickr zu instagram und selfie.
  • von subscribern zu followern.
  • von tags zu hashtags.
  • vom meme zum viral. während es heute zwar noch immer gelegentlich als ‘meme’ bezeichnete phänomene gibt, die goldene zeit der meme ist vorbei. das paradigmatische modell für sozialen erfolg ist nun das viral, das sich tautologisch selbst beweist.
  • von rocketboom und lifecastern zu beauty gurus und gamecastern. (man denke nur an justin.tv, das alle bisherigen aufzeichnungen bald löschen wird, dessen spin-off für games twitch aber gerade von google bei einer kolportierten bewertung von 1 mrd. umworben wird.)
  • vom postmodernen pastiche auf myspace zur fanpage auf facebook.
  • von der gleichzeitigkeit von ungleichzeitigkeiten zu einer allgemeinen unzeitlichkeit.
  • von lolcats zu caturday und grumpy cat.
  • usw.

konfliktierende interessen

während die verschiedenen gruppen des abbaus der arten gwm. ein symptom der aktuellen talfahrt sind, sind verschiedene gruppen ‘konfliktierender interessen’ zwar meistens nicht die ursache, aber gwm. die rahmenbedingung für die ausdifferenzierungsmechanismen, die uns dann oft vor spieltheoretische konstellationen wie dem usergefangenendilemma stellen.

vorab: das sind grundsätzlich alles duh’s. und während das natürlich auch keine eigenheit des webs ist, so sehen wir doch erst in den letzten jahren, wie sich latent immer schon vorhandene unterschiedliche interessen als ganz konkreten effekte im web realisieren, indem sie sich in den ‘neuen’ gegebenheiten neu konstituieren bzw. teilweise auch erst mit dem web realisierbar und damit als konflikt sichtbar wurden.

1. die interessen der firmen stimmen nicht mit denen der benutzer überein

am anfang jeden startups müssen die interessen des startups und die interessen der benutzer natürlich synchronisiert sein. zumindest muss es für die benutzer eine art nutzenüberschuss und werterzeugung geben, sonst würde es ganz einfach nicht benutzt und es gäbe kein startup; aber ab einem punkt im lebenszyklus der firma beginnen die interessen oft zu divergieren und spätestens mit dem ipo werden die benutzer meistens nur noch als parameter zur optimierung von verschiedenen kennzahlen konzipiert. was nicht notwendigerweise sofort auch für die benutzer schlecht sein muss, es gibt sicherlich hinreichend gut funktionierende symbiotische modelle. aber öfter als nicht geraten die effekte zum nachteil der benutzer, der communities oder der ‘gesellschaft’.

ich hoffe es ist klar, dass das was anderes impliziert, als das konzipieren von google, amazon, apple, facebook und co als geldgierige, imperialistische und grundsätzlich abzulehnende konzerne, die deshalb auch mit den blödesten mitteln bekämpft werden können und vor denen die gesellschaft und vor allem die verlage beschützt werden müssen. das problem hier ist nicht, dass sie versuchen von ihren benutzern zu profitieren, das problem ist, dass sie selbst verlernen, wert zu erzeugen. (ein grund dafür könnte übrigens sein, dass die ab einer gewissen organisatorischen grösse eingeführten ‘manager’ selbst nur gelernt haben, in neoliberalen/globalisierten mustern zu ‘führen’ und zu ‘denken’ und nicht verstehen, dass web- und technologiestartups nach tatsächlich anderen ökonomischen logiken funktionieren könnten und sollten.) und nur zur sicherheit: das bedeutet natürlich auch nicht, dass man sie nicht für das wirklich kritisierenswerte kritisieren sollte. das problem mit der aktuellen europäischen kritik am komplex us-tech ist, dass das falsche kritisiert und bekämpft wird und dass die effekte die gegenteiligen vom erwünschten sind.

interessanterweise sind es vor allem die tech-blogger, die am allerwenigsten kapieren, dass das, wozu sie die firmen anfeuern, exakt die nachteile für die benutzer erzeugt, deren effekte sie dann bejammern.

unternehmen durchlaufen jedenfalls einen gewissen lebenszyklus und manche unternehmen landen irgendwann in einer lebensphase, in der sie gewissen erwartungen anderer genügen müssen, was viele unternehmen in ganz andere wesen und manchmal in walking dead transformiert. hier muss ich übrigens wirklich facebook loben; aus dem trio google/facebook/twitter sind sie nämlich die einzigen, die sich auch nach ihrem ipo noch immer relativ konsequent am ursprünglichen eigenen sozialen objekt orientieren und klare grenzen ziehen. sowohl google als auch twitter tun sich als von managern optimierte unternehmen mit ihrer eigenen sinn- und wertstiftung viel schwerer, wobei twitter der mit abstand größte dolm ist (d.h. die am leichtesten vermeidbaren kapitalen fehler macht, im grunde müssten sie ja wirklich nur nichts machen) und google der größte unnötige wertvernichter zumindest im web ist und eine lange trophäensammlung kleinerer und größerer böcke angesammelt hat, siehe google studies, nur erzeugen halt beide, vor allem natürlich google, gleichzeitig auch so einen riesigen sozialen und kommunikativen überschuss, dass das auf absehbare zeit ohne echte kosten oder konsequenzen für sie bleiben wird.

ein hauptgrund für diesen interessenskonflikt ist der oben erwähnte übergang von höheren zu niedrigeren aggregatszuständen. wie soll ein unternehmen wie yahoo reagieren, wenn der ‘hochbrauige’ und viele jahre dominierende datentyp flickr mit entwicklungen zu tun bekommt, bei denen die kombination aus handy, mobilem internet und für einen sozialisierten strom optimierte plattformen wie instagram und tumblr oder auch messenger zu einer exponentiellen explosion der zirkulierenden fotos führt, die sie im staub stehen lassen?

im grunde gibt es nur zwei möglichkeiten: sie bleiben entweder dem originalen datentyp treu, auch wenn sie dann marktanteile verlieren (was, nur nebenbei, ja nicht notwendigerweise weniger aktivität oder einnahmen bedeutet). oder sie versuchen sich zu transformieren, was unter umständen gelingen kann, aber in jedem fall den ursprünglichen sinn zerstört. das kann mitunter auch gelingen, wenn man unter gelingen als marke überleben versteht, wenn die eigene schwungmasse gross genug oder wenn für die user die kosten für einen absprung zu gross sind. aber der ursprüngliche datentyp wird natürlich trotzdem zerstört und die wahrscheinlichkeit des nichtgelingens ist hoch, weil ihre organisatorische dna den neuen datentyp oft nicht versteht. und sie öffnen damit natürlich wieder die tür für nachrücker, die dann von unten, von der seite und dann eben auch von oben kommen können (z.b. medium, das sich gwm. über das soziale objekt bemühtheit definiert und sich quasi auf die blogs setzt).

2. die interessen der regierungen stimmen nicht mit denen der bürger überein

das ist ein viel zu großes thema, das ich weder hier noch sonst behandeln kann, aber ich will es nicht unerwähnt lassen, weil man viele probleme damit verstehen kann.

das paradigmatische beispiel ist natürlich überwachung: aus irgendeinem grund lieben regierungen nichts mehr, als ihre bürger und wenn wir schon dabei sind die ganze welt möglichst total und jedenfalls mit allen ihnen zur verfügung stehenden technischen mitteln zu überwachen. ein paar worte dazu etwas weiter unten.

eine variation davon ist eine vermeintliche aber falsche orientierung am bürger. beispiel hier etwa das recht auf vergessen, das als ‘sieg für datenschutz und gegen google’ gefeiert wird, aber die echten probleme nur verschlimmert oder über die hintertür erst konstruiert. siehe das ‘gut gemeint ist schlecht gemacht’ weiter unten.

insgesamt werden regierungen und regierungsorganisationen zunehmend selbst das eigentliche problem, siehe lazy blog ep. 23

3. die interessen der journalisten stimmen nicht mit denen der leser oder der gesellschaft überein

auch das ist ein viel zu großes thema, das ich weder hier noch sonst behandeln will oder kann, aber auch das soll nicht ganz unerwähnt bleiben, weil auch das so einiges erklärt. journalismus ist vor allem in deutschland leider eines der organe geworden, das die gesellschaftlich schädlichsten abwehrstrategien gegen das web ausgebildet hat, was doppelt blöd ist, weil die deutsche seele diskurs tendenziell nur massenmedial sanktioniert akzeptiert.

journalismus ist ingesamt natürlich eine unwahrscheinliche form, die eine zeit lang eine gewisse stabilität gefunden hat, deren bisherige ökonomie aber mit dem internet ganz real zu bröckeln begonnen hat. was sie tun sollten oder könnten ist ein anderes thema, hier aber sei erwähnt, dass was das thema web betrifft von den massenmedien eine absichtliche oder unabsichtliche volksverblödung betrieben wird, die sich natürlich ungünstig auf die entwicklung auswirkt, weil der großteil der bevölkerung einfach falsch informiert wird und deshalb oft auch phänomene nur falsch bewerten kann, was dann wieder als beweis für die richtigkeit der falschen informationen herangezogen wird.

(karma am rande: der journalismus bekommt mit buzzfeed, heftig und co nun endlich die rechnung dafür präsentiert, dass sie die nullerjahre mit dem belächeln und verspotten von zuerst blogs und dann twitter verbracht haben, die mit ihrer zukunft wenig bis nichts zu tun haben bzw. hatten. die irritation und konsternation darüber, dass es da plötzlich was anderes gibt, wo jeder seine meinung publizieren konnte und kann, hat sie blind für alle ihre existenz tatsächlich betreffenden entwicklungen gemacht. mit der aktuellen hysterie – man denke an das schnipsel- und leistungsschutzrecht, den ‘kampf’ gegen google, das am besten zerschlagen werden soll, usw. – wiederholen sie gwm. diesen ersten fehler, nur dieses mal ganz brav nach marx und hegel nicht als tragödie, sondern als farce.)

ursachen und fehler

während die verschiedenen gruppen des abbaus der arten gwm. ein symptom und die verschiedenen gruppen konfliktierender interessen gwm. ein katalysator der aktuellen talfahrt sind, gibt es eine palette an anderen kleineren und grösseren ursachen und fehlern, verstärkern und verhinderern, die die derzeitige situation beeinflussten. hier nur vier signifikante:

1. das fehlen eines ethischen kompasses

das fehlen eines ethischen kompasses ist eine der hauptursachen für einige der angedeuteten missstände.

das web hat auf institutioneller ebene nur ein problem, weil institutionen keinen ethischen kompass haben. daten selbst sind nicht das problem, nur die art, wie sie von unternehmen, organisationen und staaten verwendet werden. wenn sich alle (auch geheimdienste) an dem orientieren würden, was (auch für geheimdienste) gesellschaftlich sinnvoll und nicht an dem, was technisch machbar ist, dann hätten wir kein problem. es geht nicht darum, eine situation herbeizuwünschen, die es nicht geben kann, oder zu verleugnen, dass staaten, organisationen, menschen und sogar katzen mitunter egoistische, territoriale, neidische, irrationale oder gierige impulse haben und denen gelegentlich auch folgen. es geht aber wirklich darum, in der diskussion und bewertung dieser aktivitäten dann zu verstehen, was die ursache und was nur ein mittel oder eine wirkung ist.

das problem an der totalüberwachung der menschheit ist doch nicht, dass mit unserem leben daten anfallen, die geschützt werden müssen, sondern dass eine staatliche institution eines gwm. erleuchteten staates überhaupt auf die idee kommen kann, dass man am besten alle daten aller speichern könnte. und dass das dann auch mit dutzenden milliarden gefördert und realisiert wird, indem das weltweite kommunikationssystem mit einem rhizomatisches geflecht an sensoren infiltriert wird, die wenn möglich bis zum letzten endgerät vordringen und es anzapfen können. aber dass der staat und die staatengemeinschaft keine kontroll- und bewertungsmechanismen ausgebildet haben, die dem von selbst entgegenwirken, einfach weil es ein offensichtlicher wahnsinn und solider grundstein eines präventions- und überwachungsstaats ist, oder weil es am grundvertrauen in kommunikation – und also dem stoff für alles andere – sägt, ist der eigentlich skandal und eine echte schande für die welt und grund für eine eselsmütze für alle beteiligten.

die daten sind zwar das mittel, mit denen das möglich wurde, aber sie sind halt eben auch tatsächlich nur das mittel. das problem ist die nicht mehr vorhandene ethik der organisationen.

nur am rande: die eigene ethik (bzw. die abwesenheit derselben) wird übrigens oft erst sichtbar, wenn es probleme gibt. im fall der massenmedien und des journalismus hat man die ich sag mal löcher und lücken lange nicht gesehen, weil es die längste zeit halt hinreichend gut funktioniert hat. die abwesenheit eines eigenen sinns wurde erst sichtbar, als sie probleme bekamen und nicht mehr weiter machen konnten wie davor. ohne sinn (also etwa: wenn man den leser als nichts anderes als eine page impression wahrnehmen und bewerten kann, die dann hoffentlich auch noch auf einen werbebanner klickt, wenn sie schon da ist) befindet man sich aber schnell in einem race to the bottom um diese dann eben sinnlosen klicks (wobei das race natürlich selbst auch wieder potential für neue formen hat, nur stehen sich die incumbents da immer selbst im weg). blogs andererseits können deshalb extrem ineffizient arbeiten, weil sie ihren eigenen sinnüberschuss selbst erzeugen. es reicht eben schon aus, wenn der blogger für sich selbst ausreichend interessant ist, jeder leser ist da eher ein willkommener gast.

das gilt aber natürlich nicht nur für text, sondern für jedes andere medium auch. wir sehen das wie oben angedeutet auch bei flickr, twitter, google, usw. wer den eigenen sinn verliert, landet dann schnell bei der sinnlosen optimierung, die im idealfall halt ein erträgliches alternatives gleichgewicht auf niedrigerem niveau findet.

2. das fehlen eines schützenden und inkubierenden diskurses

über die theorielosigkeit im web 2.0 hab ich schon vor 4 jahren gejammert, warum da so gar nix kommt ist mir wirklich ein unerklärliches rätsel, so ziemlich jede andere disziplin hat zumindest ein gewisses bündel sozial ausgehandelter begrifflichkeiten generiert, die dann ‘dichtere’ kommunikation erlauben usw., aber das ist natürlich ein moo point. das web selbst hat sich jedenfalls als nicht besonders gut herausgestellt, ‘organische’ intellektuelle hervorzubringen oder die anderer sparten zu integrieren. es gibt zwar einige subdiskurse verschiedener ‘crowds’ (die netzpolitik crowd, die medienkritik crowd, die gründer crowd, die hacker crowd, versprengte reste einer netzkunst crowd, einsprengsel einer soziologie crowd, jenseits von gut und böse sicher auch die crowd der künstler und journalisten), aber die köcheln alle relativ unbeobachtet und unbeeinflusst von den subdiskursen der anderen crowds vor sich hin, es sind ja wirklich nicht nur die journalisten, die sich nur an ihrer eigenen bubble orientieren.

(ich sehe keinen grund für hoffnung, dass da in absehbarer zeit was tolles kommt, aber das ist auch nicht wirklich wichtig. wichtiger ist eher, dass endlich die 10 oder so blödesten grundannahmen widerlegt werden und quasi nicht mehr salonfähig sind, das würde das grundpotential vom web in deutschland sofort verdoppeln. und eine mischung aus praxis und proaktiver falsifikation bei genügend freundlichkeit könnte ein solches plateau erzeugen oder zumindes zu einer art anpassung der blickwinkel führen)

3. gut gemeint ist schlecht gemacht.

auch das zieht sich wie ein faden durch die meisten problemfelder. künstler, intellektuelle, netzpolitische aufrufer, krautreporter, indiewebler und politiker eint, dass sie es immer wirklich gut meinen, aber mit ihren ansätzen und forderungen oft leider genau das gegenteil bewirken und sich so also zu erfüllungsgehilfen der hegemonialen strukturen machen.

besonders in kombination mit (1) einem nichtverstehen der dynamik der sozialen objekte und/oder (2) einem nichtverstehen der logik des werts und/oder (3) einem nichtverstehen der produktions-, rezeptions-, und distributionsbedingungen und der ströme wird ein gut gemeint schnell zu einem schlecht gemacht. der weg zur hölle ist gepflastert mit guten intentionen.

4 follow the money

wenn ein in ein paar tagen entwickeltes flappy bird mehr umsatz generiert als 99% aller webapps, dann wandern die talente früher oder später ins appland, auch wenn dort kein ‘gesellschaftlicher’ wert entsteht. mir fehlt zwar die intuition, zu welchem grad das wirklich ein problem ist (dem web fehlt es nämlich nicht an code sondern an verdichtungen, und die beginnen historisch oft mit zwei, drei leuten; wo es sich anbietet werden die mobil erzeugten inhalte dann ohnehin auch im web veröffentlicht; ob sich private ströme auf mobilen kanälen oder auf facebook realsieren ist – ausser für irgendwelche kennzahlen – völlig egal; usw.) aber ich vermute doch, dass es eine gewisse verschiebung der indifferenzkurven gibt, die das web mittelfristig suboptimal ausdifferenziert. oder anders gesagt: ich vermute, dass das web den monetären offset zum mobilen internet quasi durch sinn ausgleichen muss. die gefahr ansonsten ist nicht so sehr, dass es ‘weniger’ web gibt, sondern dass sich einige möglichkeitsräume, die sich nur im web entfalten könnten, einfach nicht entfalten können.

zauberhut

das allerwichtigste für eine schubumkehr dürfte jedenfalls eine art rudimentäre netzbildung mit netzpraxis oder wenn man so will eine allgemeine netzaufklärung sein. fast jedes problem eskaliert erst dadurch, dass die beteiligten und oft entscheidenden personen einige eigentlich ‘zumutbar wissbare’ dinge übersehen oder noch nicht verstanden haben und in der folge zu ‘falschen’ bewertungen und massnahmen kommen. und ich meine das wirklich nicht hochnäsig oder besserwisserisch oder im glauben eine ultimativ richtige antwort zu haben, aber es gibt halt situationen, wo man sehen kann, dass ein anderer etwas nicht sieht, was dieser naturgegeben nicht selbst sehen kann, weil man eben nur sieht was man sieht, aber nicht sieht was man nicht sieht. internet ist eben nicht segen oder fluch, internet ist ein möglichkeitsraum, der genützt werden kann oder nicht.

netzbildung bedeutet übrigens nicht, dass alle programmieren lernen sollten (diese idee kommt, kommt mir vor, immer von leuten, die selbst nicht programmieren können). bei der netzbildung gibt es sicherlich verschiedendliche ‘tiers’, wobei man aber schon mit wenig aufwand die meisten probleme in luft auflösen könnte (think pareto).

und ich habe kein programm dafür im zauberhut, aber mit sehr wenig wissen um einige techniken und zusammenhänge kann man schon sehr viel abfedern. wenn man etwa weiß, was ein browser ist und was man mit dem browser alles machen kann und wie man ihn erweitern und für sich selbst optimieren kann und dass browser auch einen privacy-modus haben und dass man auch mehrere browser gleichzeitig benutzen kann, dann hat man z.b. geschätzte 80% der nicht-staatlichen privacy-probleme schon im eigenen griff. (nur wird man das z.b. niemals im feuilleton lesen, weil das die leser ja dazu befähigen würde, die tracker zu blockieren, über die sie ihre leser monetarisieren. wir sind also auf uns selbst gestellt.)

12.06.2014 # https://hackr.de/2014/06/12/die-talfahrt

die einträge aus der abteilung analysis.