Der sharegorische Imperativ (im Folgenden kurz SI) lautet in seiner Grundform:

Share so, dass die Maxime deines Sharens Grundlage einer allgemeinen Strombildung werden kann.

Wenn man nun davon ausgeht, dass jeder tun können soll, wo und wie er will, und also niemand beim Senden oder Empfangen von Strömen zur Verwendung eines bestimmten Dienstes genötigt werden darf, dann stellt der SI nur eine einzige Anforderung an den Strömenden:

der jeweilige Strom muss (alternativ) auch als Feed zur Verfügung gestellt werden.

Gibt es (auch) einen Feed, dann werden alle anderen Kontingenzen hinfällig.

(die verantwortung dafür würde ich fast beim strömer sehen und nur sekundär beim verwendeten dienst. dieser unterstützt das im idealfall out of the box (natürlich blogs aber zb. auch app.net), oder er ermöglicht es zumindest via einer api (zb. twitter), oder er versucht es andererseits möglichst zu verhindern (zb. google+), die verwendung bleibt aber in jedem fall eine freie entscheidung des strömers, der deshalb also einen feed für den strom mit workarounds (die es immer gibt) generieren sollte.)

ach google. aber eine frage bleibt beim google reader desaster:

was ist wirklich kaputt gegangen?

die offizielle antwort heisst natürlich ‘das vertrauen, das vertrauen ist kaputt gegangen!’ usw. aber ich glaube, es ist etwas anderes. google hat – wie viele andere auch – bereits viel zu viele andere dienste gekillt, ohne dass wir kollektiv dieses gefühl der irritation mit google hatten. insgesamt haben wir uns mittlerweile wohl an den umstand gewöhnt, dass wir auf jedem webdienst zu jedem zeitpunkt nach reiner willkür rausgeschmissen werden können, unsere sachen packen und weiterziehen müssen, siehe dazu die überlegungen zum favela chic von bruce sterling oder auch auch postpreposterous. und im vergleich zu vielen anderen schliessungen ist das ende vom google reader ja tatsächlich kein datentechnisches problem bei dem wir jahre an arbeit und inhalten verlieren, wir exportieren einfach unser opml-file und importieren es woanders und gut ists.

was, glaub ich, kaputt gegangen ist, ist die möglichkeit an eine ethik von google zu glauben. daran zu glauben, dass google einer der ‘guten’ und keiner der gemeinen (wie facebook, microsoft, apple und twitter) ist. google hat ethisch begonnen und diese ethik war tatsächlich die bedingung der möglichkeit für ihren erfolg (alle megalosaurischen portale wollten nur eines: die eyeballs der besucher auf dem eigenen property behalten und melken; google hat in einem paradigmenwechsel die suchenden zur besten externen seite weggeschickt; noch heute ist es etwa für verlage einfach ein ding der undenkbarkeit, für die leser das beste zu tun, deshalb sind sie ja in einem zustand der dauerirritation durch google). und bei allem was danach kam war es bis zu diesem zeitpunkt immer möglich, die von google gemachten fehler, flops, facepalms und fails einfach auf dummheit oder profane unfähigkeit zurückzuführen. google ist halt ein sozialer doofus, eine geschmackstechnische dumpfbacke, hat halt einen facebook-komplex, der gelegentlich irrationale und erratisch reaktionen triggert, hat kein sensorium für soziale objekte, usw., schwamm drüber (für eine lange kritik aus diesem blickwinkel siehe googleheimer). auch wenn google seit einigen jahren vl. nicht länger als ‘subject supposed to know’ betrachtet werden konnte, es blieb das einzige megaunternehmen, bei dem man nicht vom bösen (im sinne von: spieltheoretisch versierte buchhalter, deren ziel das gewinnen und akkumulieren von wert ist, was natürlich trotzdem tollste produkte und viel wert für alle erzeugen kann, bestes beispiel apple) ausgehen musste.

diese möglichkeit zu glauben hat uns google mit der vernichtung des google readers nun genommen. und zwar deshalb, weil es keine andere mögliche erklärung als vorsätzliche und rücksichtslose bösartigkeit gibt, die die interessen der benutzer unter irgendwelche fünfjahrespläne+ stellt. viele dinge lassen sich durch umstände erklären oder zumindest relativieren, aber in diesem fall ist der einzige umstand, dass sie auf geschätzte 5-10 millionen benutzer schlicht und einfach scheissen, weil das in ihren büchern eine fussnote ist und weil das einer anderen agenda ((a) – wir bauen mit g+ unser eigenes schwarzes loch, (b) – für den rest sind eyeballs für raufpappbare werbung doch nicht schlecht, gelesenes muss wieder page impression werden, da ist noch einiges drin) entgegenläuft, auch wenn es die allerengsten benutzer mit der allergrössten bindung sind, was google natürlich weiss. ein an sich durchaus kleines ereignis hat also eine phantasie zerstört und eine (ich will nicht sagen mütterliche, aber viele user hingen beim reader wie am tropf) bindung einfach so aufgelöst. google hat sich gemein gemacht und sich neben allen anderen eingereiht. google ist nicht länger der imaginierte nordstern, an dem man sich ausrichten kann, sondern nur noch ein (mächtiger aber nicht besonders heller) spielstein in einem relationalen spiel (das sie selbst als nullsummenspiel spielen, obwohl es natürlich keines ist). und wir müssen das zur kenntnis nehmen und können das investment in unseren bisherigen glauben abschreiben, deshalb fühlen wir uns so beleidigt.

(es geht natürlich nur um die möglichkeit zu glauben, innerhalb von google selbst hat sich die ursprüngliche ethik wohl schon eine weile zerfastert und zersetzt, das leitbild g+ und indirekt also facebook hat den verbliebenen rest dann ausgeräuchert)

was die betroffenen user mit dieser säkularisierung machen, liegt jetzt dafür in ihrer hand. aber es muss nicht nur schlecht sein und neben dem zynismus (siehe nochmal postpreposterous) stehen natürlich auch andere serien (webaufklärung, postwebismus, neopragmatismus, etc.) zur verfügung.

aus der serie: Reader—

auch nicht wirklich weitergekommen sind 2012 jedenfalls die deutschen massenmedien/zeitungen mit ihrer disposition gegenüber dem web.

(es wurde zwar in den letzten 2, 3 jahren ein bisschen besser, sprich: die absoluten pflichtübungen (ein twitter account, ein paar hausblogs, kommentare auch am wochenende, eine ipad app, vl. ein bissl datenjournalismus, vl. sogar mal ein hangout auf google+, …) werden mittlerweile von fast allen gemacht, die ganz ganz blöden artikel sind eig. auch schon fast verschwunden, im letzten jahr wurde sogar auf twitter (sic) beschlossen, dass man sich ja auch gegenseitig verlinken könnte, usw. aber man spürt doch deutlich, dass alle zusammen in jeder faser ihres seins das web als einen zu bekämpfenden eindringling empfinden, für den es antikörper auszubilden gilt, und nicht als vor den eigenen augen aufgehenden möglichkeitsraum, in dem man sich auf ganz anderem niveau neu erfinden könnte – was natürlich auch eine option gewesen wäre. konkret etwa: rücksichtsloses leistungsschutzrecht mit unabsehbaren externen kosten statt neugier und erforschung.

das ist natürlich eh klar und nix neues, allein es war zumindest mir nicht klar, warum. und beim warum vor allem die frage, warum gerade die deutschen qualitätszeitungen, denen ja ansonsten durchaus und noch immer ein weltniveau zugeschrieben werden kann, bei ihrer beschreibung des entstehenden webs so daneben war und noch immer ist, während die kollegen bei der nyt, der washington post, des guardians diese macke nicht oder in deutlich kleinerem ausmaß hatten.

beim retro egoing bin ich dann aber über plastilin aus dem jahr 2006 gestolpert und retrospektiv bekommt dieser kleine text eine neue bedeutung, die dann zumindest eine erklärung mit gewisser plausibilität ermöglicht:

Web 2.0 ist ein plastischer Begriff. Die Bedeutung ist nicht festgelegt oder fixiert, sondern muss gewissermassen von jedem für sich selbst erarbeitet werden. Es gibt keine ultimative Referenz oder Definition. Die Aussagekraft des Begriffes hängt deshalb also von der Arbeit ab, die man selbst hineinsteckt. Wer es sich leicht macht (wie etwa ein Grossteil der Massenmedien, wo ein Journalist mal schnell irgendwas zusammengesampelt hat und die anderen die immer gleichen Ressentiments, Vorurteile und 5 Paradebeispiele von Firmen dann abgeschrieben und weitergetragen haben), der agiert dann mit einem einfachen, aber eben auch undifferenzierten Begriff, der dann halt tatsächlich auch wenig bzw. nichts bringt.

Das bedeutet nicht, dass man Web 2.0 beliebig definieren kann – zumindest wenn man mit anderen kommunizieren will. Web 2.0 entsteht sicherlich irgendwo als Beschreibung der Ensembles von neuen Möglichkeiten, die die zunehmende Ausdifferenzierung der beteiligten Systeme (Mensch und Maschine, Soziologie und Ökonomie, …) und deren Zusammenspiel, zunehmende Interpenetration und Koppelungen, etc. ermöglichen. Je nach Interesse machen dabei unterschiedliche Beobachtungspostionen Sinn, man sollte aber im Hinterkopf behalten, dass es immer auch andere gibt. Wer Tomaten auf den Augen hat und glaubt, da sei überhaupt nichts ausser einem Buzzword oder Hype, dem kann man auch nicht helfen.

^ plastilin

(nts: mich öfter selbst zitieren)

in den deutschen medien gab es aber von anfang an nur eine retrospektiv fast schon als debil zu bezeichnende differenziertheit der begrifflichkeiten rund um das web, die sie in der folge bis heute nicht wirklich verfeinert haben. das web war ein einziger container, in den dann einfach alles geworfen wurde bzw. eben in ermangelung genauerer begriffe geworfen werden musste, was nur irgendwie im web stattgefunden hat. nur als beispiel: der begriff internetcommunity oder die differenz internetbefürworter/-kritiker sind beides völlig sinnlose abstraktionen, die nicht nur nichts erklären, sondern die sogar falsches suggerieren. es gibt keine internetcommunity, es gibt nur x-millionen konkrete individuen mit je spezifischen und wiederum konkreten situationen, motivationen und hoffnungen, die einen zugang zum internet haben und damit ihr leben (ihr eigenes, das ihrer freunde, das der gesellschaft) ergänzen und hoffentlich bereichern oder auch nicht.

gepaart mit diesen wenigen, viel zu grossen und oft falsch gewählten containern oder begrifflichen schachteln war eine vorzeitige und durchaus als ignorant zu bezeichnende festlegung auf einen x-beliebigen anwendungsfall mit einem y-beliebigen bewertungskriterium. blogs wurden als internettagebücher abgetan (das ist auch die erklärung 2013) und ausschliesslich in ihrem wert als alternativer journalismus bewertet, dabei sind blogs ganz einfach aber auch nicht weniger als die summe aller realisierten möglichkeiten1 vom format blog. und wasauchimmer das sein mag, es ist zumindest der möglichkeitsraum, der entsteht, wenn jeder mensch, der will, öffentlich publizieren kann, was er will, ohne davor irgendwelche prozesse durchlaufen oder redaktionelle filter passieren zu müssen, wasauchimmer das dann bedeutet (wie immer: alles innerhalb der filigranen prozesse einer vernetzten ökonomie der produktion, rezeption und distribution, die halt auch nicht immer so ablaufen, wie man sich das wünschen würde). twitter wiederum wurde die längste zeit als narzisstisches miniinternettagebuch (was ich gerade esse) abgetan (und wen interessiert das?), während auch twitter natürlich nichts weniger als die summe aller realisierten möglichkeiten vom format ‘vernetzt sozialisierte 140 zeichen’ ist, wasauchimmer das wieder sein mag, mitunter ist es jedenfalls auch ein infoökonomischer durchlauferhitzer für alles, was eine URL hat, weil man die ja (gerne auch annotiert) twittern kann, ein sozialer sechster sinn und vieles mehr.

es bleibt natürlich die frage zu beantworten, wie und warum sie – entgegen allen empirischen offensichtlichkeiten und trotz von anderen kulturkreisen durchgekauten diskursserien, an denen man sich orientieren könnte – in der folge doch erstaunlich undifferenziert und lernunfähig geblieben sind bzw. bleiben konnten. es ist ja nicht so, dass man die wichtigsten aussagen nicht einfach nachlesen könnte. es reicht ja schon kelly und techdirt und vl. noch shirky zu lesen und man hat zumindest pareto-mässig das wichtigste auf dem radar.

eine mögliche und durchaus wahrscheinliche antwort findet sich in einem der lieblingsthemen der zeitungen: der filter bubble. übersehen haben sie bei ihrem abfeiern der bubble jedoch, in welchem noch viel grösserem umfang das auf sie selbst zutrifft. journalisten lesen – zumindest wenn es um das thema web geht, in anderen feldern schaut das hoffentlich anders aus – tatsächlich nur andere journalisten, und dann vl. noch einige wenige andere mögliche quellen, wenn sie sich auf die irgendwie als ‘experten’ beziehen können. aufwandstechnisch ist das sinnvoll: man erspart sich das denken oder ausprobieren (ausprobieren ist überhaupt eine sehr unterschätzte technik, dabei ginge das besonders im web oft recht einfach; nachdenken eigentlich auch), die verifikation der aussagen wird einfach zum experten oder eben anderen journalisten ausgelagert, passt! das problem dabei: man schottet sich von sämtlichen inputs von aussen ab und alle lesen, schreiben und glauben das gleiche und das wie gesagt auf niedrigstem niveau. (man sieht das ja auch am nennen der quellen. wenn überhaupt jemals auf die idee eines blogs zurückgegriffen oder ein thema aus der blogosphäre aufgegriffen wird, dann wird das entweder überhaupt verschwiegen, oder es wird ein ominöser, vl. bekannter ‘blogger’ ansonsten nicht weiter benannt und üblicherweise ohne link referiert. ausgeborgte fotos oder videos werden mit quelle: flickr oder quelle: youtube aber nie namentlich attribuiert geschweige denn konkret verlinkt, usw.)

auch hier versteht man zumindest das motiv: ihre macht besteht in der entscheidung etwas zu benennen oder zu verschweigen, und sie sichern sich selbst primär dadurch ab, eben alles andere zu verschweigen und nicht in die welt zu schreiben (und dadurch gar als wesen auf gleicher augenhöhe zu betrachten). was sie dabei aber übersehen, ist, dass sie sich selbst dadurch über die hintertür ein viel grösseres problem einhandeln, weil sie auch das gute nicht hineinlassen und also nur in ihrem eigenen sud dahinkochen (leider sind sie kein gulasch). das geht in deutschland, weil sie keinen grossen wettbewerbsnachteil haben, weil die anderen auch nichts anderes machen, aber im internationalen vergleich verlieren sie natürlich zunehmend den anschluss – was übrigens auch für den wirtschaftsstandort deutschland ein problem wird, zumal sich die deutschen politiker ausschliesslich an den deutschen medien orientieren und überhaupt nicht ahnen, wie sehr deutschland in sachen internet schon hinterherhinkt und wie lächerlich sich deutschland mit themen wie leistungsschutzrecht, gema, verpixelung, etc. international macht und wie sehr das dem über jahrzehnte durchaus zurecht aufgebauten image als innovativ, fortschrittlich und technologiefreundlich schadet. der schaden ist, nur so dahingesagt, wohl dutzende oder auch hunderte male grösser, als alles, was ein etwaiges lsr jemals von google abzwicken können wird, weil ich mir auch als eric schmidt oder marc zuckerberg oder beliebiger anderer ceo eines techunternehmens denken würde, was sind denn das für hinterwäldler, usw., aber das ist wirklich ein anderes thema.

bleibt die frage, ja gut, gähn, aber warum jetzt diese plattitüde und/oder tirade? eigentlich nur deshalb, weil es doch ein schönes beispiel für den wert einer erbsenzählerisch/analen kritik an (aber eben auch ein plädoyer für die entwicklung von) begrifflichkeiten ist, die uns dann doch mit dem web gesteigert entweder zum nutzen kommen oder eben auch in den arsch beissen werden, weil sich dort fast alles auf der ebene des symbolisch vermittelten imaginären abspielt – die begriffe wirken sich dann auch ganz real aus. und weil es eben auch ein schönes beispiel für eine art ethik der begriffe ist, die die richtung der feedbackloops quasi eingebaut hat, nur ist das noch nicht bei allen angekommen. und weil es aber auch bedeutet, dass man sich nicht nur die ‘bösen’ sondern auch die ‘guten’ begriffe etwas genauer anschaut und dekonstruiert, weil uns gut gemeinte aber ungenaue ‘gute’ begriffe (offenheit, …) ebenso wenig weiterbringen.

1 es gibt bei dingen natürlich immer: (1) einen grundsätzlichen allgemeinen möglichkeitsraum, den tautologischen raum aller möglichen möglichkeiten, (2) als subset davon das zu einem gegebenem zeitpunkt realiserbare latente potential, (3) als subset davon die zu einem gegebenem zeitpunkt konkret stattfindenden und also empirisch wahrnehmbaren realisierungen dieses potantials; nicht alles was möglich wäre wird realisiert, und (4) die geschichte und geschichtliche ausdifferenzierung dieser verläufe aka das dispositiv, das wiederum auf (2) und (3) einwirkt. ich verkürze das hier auf (3).

(abt. supermarket studies)

Die Überwinder ist ein in letzter Zeit häufig gesehener Zeitgenosse, der sich dadurch auszeichnet, dass er sich selbst als Vertreter (oder auch nur ungewollter aber jedenfalls Teil) einer neuen, digitalen Formation sieht, die im Begriff ist, eine alte, analoge Formation abzulösen. Der Ablösungsprozess selbst wird dabei als mitunter durchaus kämpferisches Handeln für die revolutionäre Sache innerhalb einer allerdings natürlich gesehenen Evolution von etwas Einfacherem zu etwas Besserem gesehen, wobei sich die alte Formation aber durchaus auch wehrt, also zu überwinden gilt.

Die dabei produzierten Aussagen sind dabei oft gar nicht falsch, das Problem seh ich eher darin, dass sich die Position für den eigenen Blick von Anfang an in einem weniger fruchtbaren Gegensatz verfängt, was in der Folge dazu führt, von Anfang an weniger fruchtbare Unterscheidungen aufgedrängt zu bekommen, die man dann kaum mehr los wird. Oft sind das eben genau die alten, eigentlich zu überwindenden Differenzen, die sich dadurch quasi in den Blick selbst hineinretten.

(das spektrum der überwinder reicht natürlich von der liebenswerten dumpfbacke bis zum zynisch-pragmatischen vollprofi, der genau weiss, dass er sich damit (und eig. nur damit) am effizientesten sein massenmediales scheinwerferlicht abholen kann)

((ein subtypus ist übrigens der selbstüberwinder, ein überwinder, der aber zumindest ein bisschen mit sich ringt und irgendwie kurz davor steht das überwinden selbst zu überwinden. ein interessantes beispiel dafür ist der auf g+ dokumentierte schreibprozess vom bildungsbuch von yuri m lotman. kein expose – etwa heute – kommt ohne die tropen ‘früher wars mal so (langsam, zeitlich begrenzt, bürokratisch, verkrustet, …), aber jetzt geht das nicht mehr, jetzt läuft das so (schnell, lebenslang, graswurzelig, verflüssigt, …)’ aus, aber man spürt gleichzeitig auch das unbehagen mit sich selbst und gwm. ein dahinter der begriffe))

(abt. supermarket studies)

(was ich immer sinnloser empfinde, ist diese unterscheidung analog/digital; vl. noch für vertriebler und marketingler interessant, semiotisch aber völlig irrelevant)

Der immer leicht Danebene ist ein eher seltener Zeitgenosse, der sich dadurch auszeichnet, dass er mit seinen Aussagen, seinem Verständnis und seinen Schlussfolgerungen immer leicht daneben liegt. Wenn man so will sieht und denkt er nicht unscharf, hat also keine falsche Brille auf der Nase, aber einen leicht verzogenen Diopter.

(für mich ist das paradigmatische beispiel für den immer leicht danebenen alexander kluge’s stimme aus dem off bei den dctp sendungen; er ist eine quelle für – oder eig. ein strom an – assoziationen, verknüpfungen, ableitungen und verdichtungen, aber je ‘rigoroser’ sein jeweiliges gegenüber denkt, desto mehr muss es sich lustigerweise winden, den gedankengang wieder einzufangen, bevor die schlussfolgerungen dann wieder losgaloppieren)

(für systemische ausdifferenzierungen ist der immer leicht danebene wichtig, weil er anschlusskommunikation ermöglicht/erfordert und weil er verbindungen herstellt, die es eigentlich nicht geben dürfte)

(abt. supermarket studies)

Eine weitere besonders nützliche Unterscheidung ist ganz sicherlich die Unterscheidung: auf welcher Ebene befinde ich mich mit meinen Unterscheidungen (meta!) und Beschreibungen und was bedeuten die diagnostizierten Effekte und Gesetze eigentlich eine Ebene darüber oder darunter?

(systemtheoretisch stellt sich diese frage natürlich nicht, weil in den systembeschreibungen davon ausgegangen werden kann, dass die jeweiligen systeme ihre selektionsroutinen usw. selbst generieren, da ist es wenn als strategische kalkulation der möglichen umweltreaktionen relevant, das für sich durchzuspielen; die vorgeschlagenen unterscheidung meint eher die groben vertikalen schichten; und da vermute ich, dass von vielen auf der einen ebene stattfindenden prozessen, beschleunigungen und potentialitäten oft – sicher nicht immer, es gibt natürlich eine ganze palette der möglichen interpenetrationen und nichtlineare relationen wie tipping points – auf der anderen eigentlich wenig übrigbleibt, zb weil die betrachtete ebene das phänomen ganz gut einkapselt; sprich: manche dinge wirken zwar unglaublich interessant, sind aber schon eine ebene höher völlig irrelevant)

(abt: draw the distinction!)

(manchmal komme ich mir vor wie in einer simulation, in der gerade ein irre blöder algorithmus durchgespielt wird)

Paul Graham’s September Sermon geht um schwarze Schwäne und gute schlechte Ideen.

Seine Theorie der guten schlechten Idee orientiert sich dabei an Peter Thiel und geht etwa so:

der sweet spot für Startups sind Ideen, die wie schlechte Ideen klingen (sonst wären sie schon gemacht1) aber gute Ideen sind (sonst wär es witzlos sie zu machen) und nur die Gründer erfolgreicher Startups erkennen das.

Facebook zb. klang für ihn wie eine wirklich blöde Idee – eine Seite auf der Studenten abhängen könnnen, wtf – aber Zuckerberg hat das durchschaut und jetzt sehen wir ja wie nützlich so eine Weitsicht sein kann.

Die falsche Grundannahme – wir kennen das Thema langsam – ist natürlich zu glauben, dass Ideen schon mit einer ihnen eigenen inhärenten Qualität geboren / formuliert werden. Die Qualität / der Wert einer Idee ist ihr aber nicht eingebaut, also kein latentes Potential, sondern ein Virtual für alle möglichen Zukünfte, das nur retrospektiv in seiner Realisierung beschrieben werden kann.

(etwas schwammige analogie: aus jedem spermium oder eizelle könnte der nächste zizek werden und aus einigen wird auch zumindest was respektables, aber man sieht es halt nicht unter dem mikroskop)

((wenn man will ist graham also ein naiv/romantischer modernist, während die samwers schon viel weiter sind und eher als zynische postmodernisten beschrieben werden können; auch bzgl. der phantasie sind die samwers weiter als graham: paul träumt eher davon, dass sich investments vermillionenfachen und sich die startups in ein schlaraffenland verwandeln; die samwers suchen eher die intensitäten an den oberflächen))

1 man fühlt sich auch an den witz erinnert, bei dem ein ökonom auf der strasse 20 dollar sieht, sie aber nicht aufhebt, weil sie schon ein anderer aufgehoben hätte, wenn es echte 20 dollar wären


(nts: mich öfter selbst zitieren)

sorry, eindeutig zu viele quizzes lately. also nur noch schnell meine antwort für quiz pt. 67 die natürlich mit dem gleichen grundgedanken spielt, wie social and nothingness, die antwort auf quiz pt. 64, nämlich dass sascha schon wieder (genauer gesagt auch schon davor) den falschen prozess (bloggen erleichtern) für das falsche problem (texte aus den klauen der plattformen emanzipieren) fordert. ich ersetze mal in social and nothingness sozial mit diskurs:

“die falsche grundannahme (nicht nur von lobo, auch von allen anderen ohnehin reflexartig geforderten ‘befreiungen’ von auf ‘geschlossenen’ plattformen geführten texten, aussagen und diskursen) ist, dass es ein abstraktes mitgeteiltes gibt, das eine öffentlichkeit sucht.

es gibt aber keinen ungebunden diskurs, der an keine konkrete formation gebunden ist. diskurs ist im web immer an eine konkrete formation (und deren je spezifische produktions-, rezeptions- und resonanzbedingungen) gebunden. vielleicht nachvollziehbarer: es gibt auch kein abstraktes bedürfnis sich mitzuteilen, für das man nur einen container sucht, und falls es der eine nicht tut, dann verwendet man halt den anderen. jede erfolgreiche plattform erzeugt ihre diskurse aus dem nichts. (das ist die saure lektion, die blogger noch verstehen müssen.) und es gibt auch keinen abstrakten text, den man halt bei gelegenheit aus facebook oder twitter oder g+ ausräuchern und an einem offenen blog in freiheit reterritorialisieren könnte.

der diskurs ist nicht die ursache für, sondern der effekt von plattformen (und wieder: deren je spezifische produktions-, rezeptions- und resonanzbedingungen). und das verhältnis ist nicht struktur-funktional, sondern – wenn man will – quantenphysikalisch.”

(passt zwar nicht ganz, aber gar nicht so schlecht. wer sich betätigen will: siehe Lazy Blog Ep. 3)

da anscheinend nix mehr kommt: meine antwort für quiz 65 ist:

weil wir die zukunft nicht kennen und wir deshalb damit die soziale zukunft ausdünnen und austrocknen würden.

(für soziale netzwerke zu bezahlen und diese dadurch von anderen monetarisierungsnotwendigkeiten zu befreien, könnte dann funktionieren, wenn wir (1) in der gegenwart aus der zukunft zurückblickend wissen könnten, welche plattformen wir in der zeit zwischen der gegenwart und der zukunft benützen werden, und wir (2) auch wissen, dass alle anderen die gleiche zeitmaschine haben und das also auch für sich wissen, und wir (3) davon ausgehen können, dass sie sich dann auch wie wir denken: ja ok, $x im jahr ist mir das wert, das bezahl ich doch gerne.

aber dieses wissen haben wir natürlich nicht. ‘das soziale’ ist ein bienenstock und niemand KANN im voraus wissen, wie und wo er sich manifestiert. die ausdifferenzierung der sozialen plattformen erfolgt organisch, jeder betreibt andauernd trial und error, probiert die plattform aus, ‘interpenetriert’ sich mit dem jeweiligen system, verwirft den grössten teil, lässt sich auf wenigen nieder. dabei entstehen natürlich stabilere temporäre strukturen und krusten wie facebook oder twitter, aber es gibt immer und jederzeit auch die möglichkeit zu brüchen und paradigmenwechseln, etctrara. aber um das geht es hier nicht, der für die frage relevante gedanke daraus ist:

dass geld, und zwar schon der kleinste symbolische obolus, die ‘freie’ ausdifferenzierung des sozialen verstopft, weil man auch als wohlgenährter mittelschichtler mit kreditkarte (und auch das ist eine durchaus zu problematisierende voraussetzung und aber auch das ist ein anderes thema) sich gerne bei einer, wenn es sein muss sicher auch bei zwei oder drei kostenpflichtigen plattformen anmeldet, aber sicher nicht bei zehn oder zwanzig oder allen 20.000, die es gibt. 15 euro im monat für sozial, na gut, wäre denkbar. 100 dann wohl nur ungern und 100.000 im monat ganz sicher nicht. der gesamte möglichkeitsraum wird künstlich verknappt, aus der losen koppelung ‘wohin es uns trägt’ wird die enge koppelung ‘wofür wir bezahlt haben’.

und da gehen die probleme dann aber erst los. wie gesagt: wir wissen nicht, für was wir uns in einem jahr entscheiden würden. bei einem kostenpflichtigen dienst legen wir uns aber quasi jetzt schon darauf fest. und es gibt ganz pragmatische probleme wie die frage: was passiert mit meinen daten, wenn ich in zwei jahren nicht mehr zahle, weil ich zu einer anderen plattform wechseln möchte? (es könnte eine garantie der konservation geben, aber alle beispiele, dich ich kenne, löschen das einfach aus dem system und man steht schlechter da als bei jeder kostenlosen plattform). und für welche plattform entscheidet man sich, wenn die einen freunde auf der einen und die anderen auf der anderen und die kollegen auf der dritten sind? individuell werden also die möglichkeitsräume eingeschränkt und die auswahl wird künstlich limitiert. die plattformen selbst werden sozial eingeschränkt und also ökosystemisch uninteressant, was mitunter den effekt hat, dass die katalysierende kritische masse überhaupt nicht mehr erreicht werden kann. usw. man kann das noch lange weiter spinnen, es ist einfach eine wirklich nette aber blöde idee.)

passenderweise stellt auch Twitter die neuen Regelungen für die Twitter API vor.

Unterm Strich machen sie eines: sie transformieren sich von der Larve 140 Char in ihre Endform den Tweet, für dessen angemessene Darstellungen nicht mehr Empfehlungen sondern verpflichtende Richtlinien gelten. Systemtheoretisch verabschieden sie sich von den unendlichen Möglichkeiten einer losen Koppelung, bei der es Systemen völlig frei steht, wie sie Twitter interpretieren (alles was mit 140 char möglich ist, was natürlich den gesamten empfehlungsraum an links, aber auch alle formen der selbstorganisation via konventionen, adhoc standards, whatever, und alle formen der reinterpretation beinhaltet), hin zu einem von Twitter kontrollierten Subset der Möglichkeiten mit vorgeschriebener Koppelung, bei der Systeme jederzeit auch ausgeschlossen werden können.

Der zweite Megatrend 2012 sind ganz eindeutig diese überall aus dem Boden schiessenden Boutique-Networks.

(als boutique-netzwerk bezeichne ich all jene webapps und ggf. plattformen, die ihr primäres momentum aus der vernetzung einer kleinen gruppe von gründern/bloggern/angels im valley und in sf beziehen oder den zugang dazu überhaupt auf diese beschränken. das erste mal ist mir das als genre bei quora aufgefallen, dort hat es ja einige zeit fast zum guten ton gehört, als founder auf fragen zum eigenen startup zeitnah und ausführlichst zu antworten. beispiele der jüngeren zeit sind branch (exklusives diskutieren) oder svbtle (exlusives bloggen) usw.)

auf svbtle hat übrigens passenderweise gerade der jüngste Ableger seinen Ausgang genommen: App.net, ein kostenpflichtiges ($50/y für benutzer, $100/y für entwickler) und dafür werbefreies Twitter, das verspricht immer die Interessen der Benutzer zu wahren, was auch immer das bedeutet. Vom Auslöser – dem Rant gegen Facebook und der Anküdigung eines neuen Zeitalters – bis zur abgeschlossenen Finanzierung auf Kickstarter hat es nicht mal 2 Wochen gedauert.

(nur am rande: grundsätzlich finde ich überhaupt nichts schlimmes daran, wenn leute ihr netzwerk mobilisieren, was sollen sie denn sonst machen. aber in dieser konstellation ist auch ein dysfunktionales element enthalten: die keimenden plattformen entwickeln sich nicht ‘organisch’ sondern bekommen von anfang an ein uneigenheitliches weil reziprozitätsbedingt eigeninteressegetriebenes momentum. das muss nicht in die irre führen, aber es kann. dennoch wird die beobachtung von app.net sehr spannend, weil es auf mehreren ebenen ein fast pures symptom der derzeitigen verhältnisse ist. vom timing: der bruch mit twitter und facebook (wtf, was ist mit dem rest von uns?), vom barometer: wie viele leute lassen sich mobilisieren, etc.)

(siehe Googleheimer)

(blogpost über DAS fundamentale dilemma im derzeitigen web: den umstand, dass es einfach nichts kostet, im oder dem web gegenüber ein totaler jackass zu sein. bonuspoints für eine topologie der zonen und des impacts (etwa spammer, die eigentlich nur lästige fliegen sind, oder lobbyisten, die vorsätzlich jede beschneidung von freiheiten und möglichkeitsräumen in kauf nehmen, um etwaige pfründe zu verteidigen oder überhaupt nur aus prinzip). sternchen für eine spieltheoretische begründung, warum das so und nicht anders funktioniert (was man ja vermuten könnte; nicht, weil man das nicht auch aus der welt her kennt; sondern weil eben im web andere formen der ausdifferenzierung möglich wären, zumal ja auf individueller ebene der bullshit der jackasses fast jeder ebene von fast allen als solcher erkannt wird; wobei das fast die zizeksche definition von ideologie aus dem lehrbuch ist, ideologie also nicht als etwas, woran alle warumauchimmer glauben, sondern ideologie als das, was funktioniert, obwohl niemand mehr (bzw. nur noch das huhn) daran glaubt, usw. anyway.)

(blogpost über DAS fundamentale dilemma im derzeitigen web: den umstand, dass ‘news’ bzw. die verkündung einer neuigkeit der einzige dominante synchronisierungsmechanismus zwischen den verschiedenen gleichzeitigen ungleichzeitigkeiten der ‘benutzer’ verblieben ist. dass das dann nicht wirklich überraschend ist, zumal massenmediale ‘news’ ja auch im pre-web milieu gwm. den gesellschaftlichen pulsschlag vorgegeben haben (sei es jetzt tagesschau oder bild oder spiegel oder whatever), nur dass die kosten für die verpassten gelegenheiten alternativer mechanismen im web um mannigfaltigkeiten grösser sind, weil sich die ausdifferenzierung des gesamtsystems so auf einem deutlich verkümmerteren niveau einpendelt, als es schon einmal war usw. bonuspoints für eine ethnographie der der zurückentwicklung, die dokumentiert, welche elemente in jeder iteration abfallen und zurückgelassen werden)

Heute vor zwei Jahren: Social Objects vs. Object Socials

(mit dem übergang von social objects zu object socials – also von objekt-vermittelter intersubjektivität zur subjekt-vermittelten interobjektivität – war ich doch erstaunlich nahe dran, nur war es eher noch aus einer perspektive des humanismus verfasst; die formel stimmt zwar, aber man müsste sie rekursiv ergänzen, sprich den wechsel der perspektive wieder in den jeweiligen perspektivenwechsel einführen; der subjekt-anteil der subjekt-vermittelten interobjektivität ist also selbst nichts anderes als das ergebnis der objekt-vermittelter intersubjektivität usw. und dann landen wir in der effektivsten timeline halt beim kurzschluss, den ich witzigerweise ein paar tage davor eh schon gesehen hab usw.)

(wenns nicht so lustig wär, wärs eigentlich traurig, aber mit dem erfolg der piraten im saarland hat sich nun endgültig eine situation etabliert, bei der sich einige gesellschaftliche paradoxien entladen wollen, an denen davor noch unbekümmert vorbeigeschaut werden konnte, die als lästiger kinderkram abgetan werden konnten, usw. wohin nur mit der plötzlichen kognitiven dissonanz, die ja nach dem aha-erlebnis ja auch retrospektiv gedeutet werden muss? und hier erleben wir derzeit wohl eine art theater, das es nicht so oft gibt: man kann einem kollektiv (besonders natürlich leuten aus politik und medien, aber nur deshalb, weil die halt einerseits bedrohte investments und andererseits exposition haben) förmlich beim nichtverstehen zusehen. in dieser dichte (es muss ja sowohl eine quantitatives momentum als auch eine zeitliche synchronisation geben) gibt es das selten und vor allem: aus irgendeinem grund wird auch die lösung nicht gefunden, alle stehen gemeinsam auf dem schlauch)

((die lösung ist natürlich: reboote deinen blick. man muss wirklich nur hinschauen, ohne die mantras ‘dagegen’ im kopf zu haben und vor allem auch ohne den mantras ‘dafür’, weil die oft noch danebener sind und in die falle der dann doppelt falschen widerlegung locken. aber den notwendigen ersten schritt, die de-essentialisierung vom web als ding, von der internetgemeinde als gruppe, etc., der ist anscheindend schwer zu machen))

Auch nicht (siehe die Filter oder die non sequiturs oder die allgemeine Cluelessness oder die Begrenzung der Wirksamkeit oder die Gleichzeitigkeit der Ungleichzeitigkeiten oder die Differenzen) wirklich weitergekommen sind wir mit dem Töten vom Web.

Das Web ist natürlich schon längst tot. Nicht als Technologie oder System bzw. Umwelt. Aber als Begriff zur Beschreibung und Erklärung von Ereignissen die stattfinden, weil es das Web eben gibt.

Wir sind mit der Ausdifferenzierung an einem Punkt angekommen, an dem das Web eine systemische Autonomie erreicht hat, an der es nicht länger sinnvoll ist, sich über ‘das Web’ als Ursache der durch das Web ausgelösten Ereignisse und Phänomene zu wundern oder das Web selbst deshalb zu bejubeln oder zu kritisieren oder sich insgesamt groß zu wundern. Es ist mittlerweile auch schlicht sinnlos, ‘für’ oder ‘gegen’ das Web zu sein, dem Web kritisch gegenüberzustehen oder nicht, etc.

Das Web verhält sich zur Gesellschaft in einer losen Analogie wie sich unser Gehirn zu unserem Bewußtsein oder die Sprache zu unseren Gedanken oder die Technologie Film zu Filmen verhält.

Damit wir als Biosysteme Bewußtsein haben können, brauchen wir ein Gehirn. Damit wir sprachlich denken können, brauchen wir die Sprache. Aber so faszinierend wohl das Gehirn und die Hirnforschung und alle Varianten der Linguistik sind, die konkreten Gedanken setzen Gehirn und Sprache voraus, emanzipieren sich einmal gedacht aber davon und unser sprachlicher Alltag funktioniert auch (oder weil) wir nicht jeden Gedanken in seinen materialistischen Voraussetzungen kontextualisieren; auch wer viel redet wird nicht als Sprachaktivist angesehen oder als Mitglied irgendeiner Gehirngemeinde.

Damit es Filme geben kann braucht es die (Erfindung der) Technologie Film (die selbst wiederum natürlich in einen historisch gewachsenen technokulturellen komplex eingebettet ist, wie auch das web in einen historisch gewachsenen technokulturellen komplex eingebettet ist). Aber jeder Film ist ein eigenes Ding, das zwar das Medium benötigt, aber in seiner Wesensheit mehr mit der Ausdruckskraft der Beteiligten zu tun hat, dem Bündel aus Regie, Script, Schauspielern, Montage, Sound, usw.

Komplexe Systeme wie Gehirn, Film oder eben das Web spannen neue Möglichkeitsräume auf, fungieren als Katalysatoren, sind Zentren und Knoten, durch die andere Kräfte und Vektoren verstärkt, beschleunigt, verdichtet oder auch erst ermöglicht werden können oder auch nicht, etctrara. Die auf ihnen stattfindenden partikularen Ereignisse und emergenten Phänomene basieren dann zwar auf ihnen, lassen sich aber nicht mehr damit begründen oder zurückführen.

Und das gilt nicht nur für das Web als ganzes, sondern auch für alle webbasierten Plattformen wie Facebook oder Twitter, die technologisch und konzeptionell vl. trivial sind, aber eine komplexe soziale Eigenlogik triggern können. Wir müssen lernen, die Effekte (und deren ‘Sinn’) getrennt vom tragenden Kanal zu behandeln, uns also eher anzuschauen, ‘was’ da genau passiert und uns nicht high fives zu geben, nur weil was im Web oder auf Twitter passiert. Diese Zeit ist vorbei.

(die gute nachricht am rande: auch wenn das derzeit primär ein symptom der denkfaulheit ist, bei dieser art an diskurs handelt sich wohl auch nur um ein übergangsphänomen, das in ein paar jahren einfach verschwunden sein wird)

Auch nicht (siehe die Filter oder die non sequiturs oder die allgemeine Cluelessness oder die Begrenzung der Wirksamkeit oder die Gleichzeitigkeit der Ungleichzeitigkeiten ) wirklich weitergekommen sind wir beim Einführen, Prozessieren und Postprozessieren von (nützlichen) Differenzen.

(die effekte reichen von naja, schade und ärgerlich bis fatal und unerträglich; und natürlich auf allen ebenen, persönlich, peergroupig, sozial, global, universal; oft sind differenzen fast selbstevident fassbar durch das simple verwenden von begriffen, und doch zerfliessen sie uns unter den fingern, wenn wir sie nicht habituell reaktualisieren)

((nicht deshalb aber dazu passend sei hier nochmal auf die model thinking klasse verwiesen; die hilft vl. nicht beim definieren der idealen differenzen für die eigenen idiosynkratischen gegebenheiten, aber sie hilft doch beim reduzieren der komplexitäten und schult das konsequente durcharbeiten von annahmen; und auch bei einfachsten annahmen kommt man schon erstaunlich weit; u.a. lässt sich etwa die gesamte aufregung um gauck mit einer leichten variation des standing ovations modells erklären, ohne auf semiotische, memetische oder demokratiepolitische verwebungsszenarien zurückgreifen zu müssen, die die analyse in eine komplexitätsbedingte unendliche unauflösbarkeit verscheiben))

google

Achtung: Rant below; aber mich nervt Google in letzter Zeit so systematisch, dass das einmal psychohygienisch raus muss.

Der erste Megatrend 2012 ist eindeutig das Dissen von Google. Dieses hat nicht nur quantitativ zugenommen, auch die Qualität der Kritik hat sich genuin verschoben – und das Suchen von Alternativen wurde zu einem beliebten Hobby. Kritik an Google gab es natürlich schon immer, aber sie war üblicherweise eher leichtgewichtig und hat sich an kleineren Fragen (Datenschutz, sind sie vielleicht doch böse, haben sie vielleicht nur ihre eigenen wirtschafltichen Interessen im Sinn, fehlt ihnen die soziale DNA, …) abgearbeitet. Die Fragen sind zwar an der Oberfläche die gleichen geblieben, aber mir scheint, dass sich darunter in letzter Zeit die für Google wesentlich fatalere Frage verbirgt, ob Google nicht in Wirklichkeit eine gewaltige Dumpfbacke ist.

Der Vollständigkeit halber sei dazugesagt, dass Google noch immer die wichtigste Firma im Web ist; sie sind finanziell erfolgreich; sie haben noch immer eine Reihe von unübetroffenen Qualitäten und Kompetenzen; sie offerieren uns noch immer einige geniale lebens- und weltverbessernde Produkte; Google ist auch noch immer das einzige Unternehmen, das sich an gewisse unmögliche Dinge wagt (natürlich auch, weil sie sich das halt leisten können, aber sie müssten ja nicht); Google hat das moderne Web wie wir es kennen mehr oder weniger katalysiert und in dieser Form möglich gemacht; und sie versuchen wohl auch – by and large – das Richtige zu tun.

Having said that verdecken diese ihre Qualitäten und Erfolge aber auch eine Demenz, die sich langsam aber sicher ausbreitet und die Google entdecken sollte, bevor es zu spät ist. Die Menschen beginnen sie nämlich zu spüren, deshalb auch diese neue Qualität der Kritik.

Bei der Beurteilung des Geisteszustands von Google müssen wir uns natürlich auf das Sammeln und Interpretieren von Hinweisen und Symptomen beschränken. Isoliert betrachtet sind viele der Hinweise nicht besonders signifikant. Und auch eindeutige Hinweise auf signifikante Probleme sind nicht immer auf Google als solches verallgemeinbar, weil Google mitunter in Zellen organisiert ist und eine faule Zelle nicht notwendigerweise mit einer Faulheit des gesamten Systems Google korreliert. Gleichzeitig können aber auch genau die kleinen Symptome – die freudschen Vergoogler – den Zustand des gesamten Systems besser beschreiben, als die offiziellen Darstellungen oder die inoffizielle offizielle Selbstwahrnehmung.

Die Liste mit ganz konkreten Fehlern, Flops und Fails ist lang. Einige Fehlergruppen: übernommene oder selbst entwickelte Produkte, die dann gekillt wurden (Jaiku, Knol, Aardvark, Dodgeball, Slide, Google Wave, Google Buzz, Google Bookmarks, Google Notebook, Google Health, Google Video, Google Lively, Google Answers, uswusf.); übernommene oder selbst entwickelte Produkte, die mehr schlecht als recht dahinvegetieren (Orkut, Chromebooks, Google Music, Google TV, Google Books, Chrome Store, usw.); das systematische Verschlechtern von guten Produkten (Beschneiden von Features, die nützlich waren; Aufblähen mit unnötigen Features; Verschlimmbesserungen im Design; Einführen von Beschränkungen; …);

Dazu kommt eine wirklich lange Reihe von gekillten kleineren Produkten aus der Labs-Serie und von gekillten kleineren Features. Bei vielen muss man da sagen: ok, das waren Experimente, die auch als solches deklariert waren, da geht auch manches schief, wird von den Usern nicht angenommen, verursacht zu viel Aufwand, etc. Aber es waren auch coole Dinge dabei, um die es schade ist und wo man sich doch wundern muss. Wer, wenn nicht Google, könnte sich auch Spielereien leisten?

Und es gibt eine Palette von mehr oder weniger indirekten Hinweisen dafür, dass etwas kracht: es gibt eine lange Liste von guten angeheuerten Leuten, die es nicht lange bei Google ausgehalten haben; das immer häufigere Auftreten als Politiker; die Zunahme von Lobbyismus; das Starten von Think Tanks; das Schalten von Werbung (omg), usw.

Aber bis vor kurzem hat das unser Verhältnis zu Google nicht wesentlich beschädigt, weil sie ein Phantasma aufrecht erhalten konnten: unseren Glauben an ihr Wissen. Viele Flops sind leicht zu erklären – hey, wir experimentieren halt viel herum -, aber auch die wirtschaftliche, politische oder charakterliche Kritik, ob im konkreten Fall berechtigt oder nicht, war unterm Strich egal, solange Google das Subjekt blieb, dem unser Wissen unterstellt werden konnte, weil ihr Kern – die Suche – intakt blieb.

Subject supposed to know

Im Gegensatz zu Facebook oder Twitter, besteht der eigentliche Wert von Google im Glauben der Welt an die Genialität von Google. Wir gehen zu Facebook oder Twitter, weil dort unsere Freunde Dinge posten. Aber wir gehen zu Google, weil wir glauben, dass sie wissen. Google war das paradigmatische lacansche subject supposed to know. Es war eine Black Box, die man Beliebiges fragen konnte, und die ohne grössere Umwege die richtigen Antwort lieferte. Auch wenn nicht immer alle Ergebnisse ‘richtig’ waren, sie waren noch immer richtiger als bei allen Anderen, und ein, zwei Verfeinerungen weiter hat man das Gewünschte gefunden.

Facebook oder Twitter andererseits mussten nie als ‘wissend’ angesehen werden, weil allen Usern auf Facebook oder Twitter klar ist, dass sie selbst diejenigen sind, die alles machen; Facebook variiert zwar ein bisschen, was im Hauptstrom zu sehen ist und was nicht, aber im Großen und Ganzen helfen sich die Leute selbst.

Mit Google+ und der Sozialisierung der Suchergebnisse macht sich Google nun nicht nur angreifbar, sie zersetzen die Ordnung des Imaginären selbst. Wenn sie neben dem Suchergebnis anmerken ‘weil der Autor 15.000 Follower auf G+ hat’ oder ‘weil das der und der Kontakt geshared haben’ schreiben, ich aber weiß, dass derjenige vom jeweiligen Thema keine Ahnung hat und besser nicht als Hauptreferenz zitiert werden sollte, und wenn das Ergebnis dann auch noch nicht gut ist, oder wenn Google Vermutungen über das, was ich wohl meine, in die Suchergebnisse hineinfakturiert und mir deshalb falsche Antworten auf Fragen liefert, die ich gar nicht hatte, dann bringen sie das Konzept ihrer eigenen Dummheit selbst auf den Tisch. Indem Google in der Suche das ehemalig Implizite explizit macht, macht es sich selbst kritisierbar, wenn die Interpretation nicht funktioniert. Und dann liegt auch der Schluss nahe, dass Google auch ansonsten nicht so besonders schlau ist.

(die neuen sozialen, lokalen, etc. signale sind ja vl. als signal unter anderen gar nicht schlecht, oder nicht schlechter als altmodische dinge wie pagerank; 20.000 circler sind wohl tatsächlich schwerer zu simulieren als der standard SEO shit, der dann auch kompetenz simulieren will. aber vorgeführt zu bekommen, welche bedeutung ihnen google plötzlich zuschreibt oder welche falsche wertigkeit google plötzlich unterstellt, ist irritierend, und gegen falsche grundannahmen ankämpfen zu müssen ist ärgerlich. es gibt wenig, was mich in letzter zeit mehr frustriert hat, als ihr ungefragtes anzeigen der ergebnisse vom ‘did you mean’ suchbegriff. liebes google: I did not.)

Wenn sie glauben, sie wissen besser was ich will, als ich selbst, aber sie lösen das nicht ein, dann wirken sie dumm.

Es gibt wohl eine Reihe von systemischen Problemfeldern, die für die zunehmende Tollpatschigkeit von Google verantwortlich sind. Hier die Top 7:

Selbstüberschätzung

Ich glaube die Selbstüberschätzung ist der zentrale Grund, warum Google so viel Mist macht. Es ist wohl nicht verwunderlich, dass sie von sich selbst viel halten. Aber Google hatte das notwendige Glück, zur richtigen Zeit am richtigen Ort zu sein und das Richtige zu tun. Die damalige Welt war bevölkert von Sauropoden, die sich primär für das Melken von Eyeballs interessierten. Google hat sie mit einer radikalen Ausrichtung am Kundennutzen ausgerottet, ihr Motto ‘don’t be evil’ war in diesem Kontext disruptiv.

Das bedeutet aber nicht, dass sie zu allen anderen Zeitpunkten und an allen anderen Orten auch das Richtige tun können. Die von ihnen gefundene Lizenz zum Gelddrucken verdeckt in der Tat eher ihre Unfähigkeiten zu späteren Zeitpunkten. Ihr Problem: Ihr gesamtes auf ‘Genialität’ und C-Code debuggende PhDs ausgerichtetes Mitarbeitergebilde und ihre ausschliesslich auf Messbarkeit basierten Entscheidungsprozesse lassen für sie keine andere Denkbarkeit zu.

Mit der Selbstüberschätzung verbunden ist eine partielle Realitätsverleugnung, die es ihnen verunmöglicht, einige Dinge realistisch zu sehen oder zu beurteilen. Die Tatsache, dass es ein soziales Web gibt und dass dieses soziale Web einen anderen König gewählt hat, haben sie jahrelang tatsächlich ausgeblendet, ähnlich wie Steve Ballmer jahrelang Apple ausgeblendet hat.

Aber auch die Möglichkeit, dass sie sich mit einer Einschätzung mal völlig irren können, kommt ihnen nicht so wirklich in den Sinn. Wenn sie aus der langen Geschichte ihrer Flops eines gelernt haben sollten, dann das. Aber nein, klappt was nicht, wird aktuell einfach die Zeitachse verschoben, die neue Trope (bei den Chrome Books, bei Google TV, bei Google+, etc.) lautet: wartet nur 6 Monate, dann seht ihr, wohin wir wollen. Ihr wisst nicht alles, was wir wissen. Wir haben einen Plan.

Die Selbstüberschätzung führt in letzter Zeit auch immer öfter zu einer Geste des our way or the highway – eine Krankheit, die sie u.a. mit Apple teilen. Aber während Apple dann häufig eine wirklich magische Erfahrung abliefert, wartet Google dann meistens mit Prototypen im Stile von Homer Simpson auf.

Lack of Leadership

It’s about caring enough to make an effort. If we define good enough sufficiently low, we’ll probably meet our standards. Caring involves raising that bar to the point where the team has to stretch.

who cares

Der Mangel an Führung äussert sich bei Google zumindest auf zwei Ebenen:

die erste ist projektbezogen. Es scheint viele Projekte zu geben, die einfach niemanden haben, der die Rolle des Gründers ausfüllt und das Projekt gegen widrige Umstände verteidigt. Zumindest nach der ersten Staffelübergabe fehlen alle Prozesse oder Mechanismen, um Projekte in der gebotenen Intensität weiterzuführen.

Und Google hat wohl auch ein Problem an der Spitze. Das ist zwar sehr spekulativ und basiert auf den Videos einiger Auftritte oder Gesprächsrunden mit Larry Page, aber mich dünkt, die Kommunikation geht eher in Richtung eines Titoismus, bei dem nach oben immer nur die gefälschten Erfolgszahlen durchgereicht werden. Man denke an die hochgepimpten Zahlen für Google+, die eher an die Erfüllung eines Fünfjahresplans erinnern.

(ich weiss nicht, ob larry page oder eric schmidt wissen, wie dünn und konzeptionell daneben G+ im vergleich zu facebook wirklich ist, beide haben wohl keinen der dienste wirklich benutzt; vielleicht wissen sie es ja auch und demonstrieren zweckoptimismus. aber so gute schauspieler sind sie glaub ich nicht.)

Mangel an Geschmack

Wenn Google was noch weniger kann als sozial, dann ist es Design. Es ist ihr Glück, dass der auf Speed fokussierte Minimalismus ihnen entgegen gekommen ist, weil man da einfach weniger falsch machen kann, aber das Design ist üblicherweise auf allen Ebenen (vom Layout bis zum sozialen Design) eine Katastrophe. Und schlimmer: es ist ihnen nicht bewusst, dass es eine Katastrophe ist. Bzw. noch schlimmer, die Katastrophe ist rekursiv: es ist ihnen ja bewusst, siehe das aktuelle globale Redesign, nur bleibt es ja auch unter der Bedingung der Katastrophenbewußtheit eine Katastrophe, und diese second order Katastrophe wird als solche wieder nicht erkannt. Geschmack kommt in ihrem Referenzsystem halt einfach nicht vor. Aber Geschmack wird immer wichtiger, weil Apple die Latte höher und höher hängt und das iPad und die iPad-Apps den Rest erledigen.

Trägheit

Wie langsam und träge der ganze Apparat Google mittlerweile geworden ist, sieht man etwa an der Pseudonymdebatte. Sie haben nicht weniger als 7 Monate gebraucht, um Pseudonyme – also doch ein Kampfthema – auf Google+ – also doch ihr aktuelles Kernprodukt – so irgendwie und immer noch unausgegoren zu unterstützen.

(immerhin verstehe ich jetzt die Motivation für ihr Pseudonymitätsverbot; ihr search plus your world SPYW Dings braucht soziale Richtigkeit, sonst funktioniert es nicht, weil man sonst eben diese aleatorischen Ergebnisse bekommt. Nur wirft das natürlich wieder die fundamentalere Frage nach ihrer Urteilskraft auf, weil sie wissen müssten, dass das Web so nicht funktioniert.)

Neid und Gier

Google ist überall dort gut, wo sie ihre ursprüngliche Mission verfolgen – das Wissen aufzubereiten und universell zugänglich zu machen. Die ersten Jahre haben sie sich auch darauf beschränkt.

Irgendwann haben sie aber damit begonnen, sich an anderen Firmen zu orientieren, die andere Wege gefunden haben, im Web Geld zu machen. Und auch wenn das dann mit ihrer Mission nichts zu tun hatte, wollten sie das dann auch haben. Was folgte ist eine lange Liste an Me-Too-Produkten, Flops und Facepalms (Twitter – Jaiku, Wikipedia – Knol, Yahoo Answers – Google Answers, iTunes – Google Music, Amazon – Google Books, Groupon – DailyDeal, Facebook – Google+, etc.).

Ein paar versuchte Klone, Schwamm drüber. Was aber bedenklich ist, ist die offensichtliche prozessuale Lernunfähigkeit von Google. Als hätten sie eine Zwangsstörung machen sie den gleichen Fehler immer wieder.

Damit komplementär verbunden ist auch eine fast schon skurrile Blindheit für das, was die oft offensichtlichen und für sie viel sinnvolleren Optionen oder Möglichkeiten betrifft. Nur ein Beispiel: Google Mini-Me

(übrigens nix gegen ihre diversifikation, aber sie sollte schlauer und weniger fatalistisch betrieben werden, sie sind ja oft bereit ein paar milliarden zu versenken, ab einem grenzwert ist es dann ja auch schon wieder egal usw.)

Infantilität

Gelegentlich blitzt auf, wie infantil Google im Kern eigentlich ist. Man hat das lange nicht gesehen, weil sie davor mit grundsätzlicheren Problemen beschäftigt waren.

Auch hier beginnt es mit der Verwässerung ihrer Mission, aus ‘die Informationen der Welt zugänglich und nützlich zu machen’ wird immer öfter der feuchte Traum eines Nerds: Der Computer soll mir das Denken abnehmen und das Leben vorhersagen. Was in den 60er Jahren die automatisierten Haushaltsroboter waren, ist seit 2010 die infantile KI von Google.

(Was mich hier stört ist nicht die KI / das ML, das ist superinteressant und birgt enormes Potential – vor allem für Google, die könnten ja aus dem vollen schöpfen -, sondern die von Google anvisierten Use Cases.)

Ein anderes Beispiel für die Infantilität sind die Gimmicks, die sich immer wieder einschleichen, etwa der Effekt beim Löschen eines Circles. Bei der Demo ist es cute und beim ersten Mal ist es lustig, dann wünscht man sich aber, dass sie doch mehr Energie ins allgemeine Handling der Circles gelegt hätten (das defacto unbrauchbar ist, was natürlich isoliert betrachtet Wurst, aber wegen der Bedeutung von Google+ für Google ein Irrsinn ist).

Ein weiteres Beispiel ist ihr ‘das kann ich auch’ Reflex; Google, ich glaub dir, dass du wie Bing das Hintergrundbild ändern kannst. Du musst das nicht am nächsten Tag in einer Hauruckaktion beweisen.

Oder auch die Catfights mit Facebook, siehe etwa reciprocity oder city of glass

Degeekification

Für mich persönlich eine der grössten Enttäuschungen ist, dass Google immer mehr auf die Geeks scheißt und Features nach rein buchhalterischen Kriterien bewertet.

Beispiel Offenheit: ja, da sind wir die allergrössten Fans von. Aber selbst sind wir nur dort offen, wo es uns passt. Ich mokiere hier gar nicht, dass sie die Kernalgorithmen nicht offenlegen oder einige Datenbanken nicht zum vollständigen Absaugen öffnen. Aber sie sind bei einer ganzen Reihe von Dingen nicht offen, bei denen sie es ohne Probleme für sich und mit Nutzen für andere sein könnten; sie offerieren fast nirgends RSS Feeds. Sie haben teilweise groteske Limits bei kleineren APIs. usw.

Beispiel Geekheit: mit dem internen und externen Geek Appeal schmücken sie sich ja gerne. Aber dann entfernen sie aus ihren Produkten genau die Features, die für Geeks interessant wären. Das ist doch traurig, weil man gerade von Google wie bei den Labs-Experimenten erhoffen könnte, dass sie sich auch Dinge, die halt nicht jeder verwendet, die aber die Spezialisten sehr schätzen, wertschätzen und kultivieren.

Nur am Rande gesagt: das Kultivieren von Features, die Geeks mögen, macht auch – gerade für Google – geschäftlichen Sinn, weil die dortigen Aktivitäten oft erst durchsickern, nachdem sie eine Zeit lang gegärt haben, die später aber das Salz in der Suppe werden, die Gesamtqualität erhöhen, die ein Indikator für Trends sind, der dann ein paar Jahre später der Mainstream wird, etc., aber das wäre Thema für einen eigenen Rant.

« vorher