(was ich immer sinnloser empfinde, ist diese unterscheidung analog/digital; vl. noch für vertriebler und marketingler interessant, semiotisch aber völlig irrelevant)

Der immer leicht Danebene ist ein eher seltener Zeitgenosse, der sich dadurch auszeichnet, dass er mit seinen Aussagen, seinem Verständnis und seinen Schlussfolgerungen immer leicht daneben liegt. Wenn man so will sieht und denkt er nicht unscharf, hat also keine falsche Brille auf der Nase, aber einen leicht verzogenen Diopter.

(für mich ist das paradigmatische beispiel für den immer leicht danebenen alexander kluge’s stimme aus dem off bei den dctp sendungen; er ist eine quelle für – oder eig. ein strom an – assoziationen, verknüpfungen, ableitungen und verdichtungen, aber je ‘rigoroser’ sein jeweiliges gegenüber denkt, desto mehr muss es sich lustigerweise winden, den gedankengang wieder einzufangen, bevor die schlussfolgerungen dann wieder losgaloppieren)

(für systemische ausdifferenzierungen ist der immer leicht danebene wichtig, weil er anschlusskommunikation ermöglicht/erfordert und weil er verbindungen herstellt, die es eigentlich nicht geben dürfte)

(abt. supermarket studies)

Eine weitere besonders nützliche Unterscheidung ist ganz sicherlich die Unterscheidung: auf welcher Ebene befinde ich mich mit meinen Unterscheidungen (meta!) und Beschreibungen und was bedeuten die diagnostizierten Effekte und Gesetze eigentlich eine Ebene darüber oder darunter?

(systemtheoretisch stellt sich diese frage natürlich nicht, weil in den systembeschreibungen davon ausgegangen werden kann, dass die jeweiligen systeme ihre selektionsroutinen usw. selbst generieren, da ist es wenn als strategische kalkulation der möglichen umweltreaktionen relevant, das für sich durchzuspielen; die vorgeschlagenen unterscheidung meint eher die groben vertikalen schichten; und da vermute ich, dass von vielen auf der einen ebene stattfindenden prozessen, beschleunigungen und potentialitäten oft – sicher nicht immer, es gibt natürlich eine ganze palette der möglichen interpenetrationen und nichtlineare relationen wie tipping points – auf der anderen eigentlich wenig übrigbleibt, zb weil die betrachtete ebene das phänomen ganz gut einkapselt; sprich: manche dinge wirken zwar unglaublich interessant, sind aber schon eine ebene höher völlig irrelevant)

(abt: draw the distinction!)

(manchmal komme ich mir vor wie in einer simulation, in der gerade ein irre blöder algorithmus durchgespielt wird)

Paul Graham’s September Sermon geht um schwarze Schwäne und gute schlechte Ideen.

Seine Theorie der guten schlechten Idee orientiert sich dabei an Peter Thiel und geht etwa so:

der sweet spot für Startups sind Ideen, die wie schlechte Ideen klingen (sonst wären sie schon gemacht1) aber gute Ideen sind (sonst wär es witzlos sie zu machen) und nur die Gründer erfolgreicher Startups erkennen das.

Facebook zb. klang für ihn wie eine wirklich blöde Idee – eine Seite auf der Studenten abhängen könnnen, wtf – aber Zuckerberg hat das durchschaut und jetzt sehen wir ja wie nützlich so eine Weitsicht sein kann.

Die falsche Grundannahme – wir kennen das Thema langsam – ist natürlich zu glauben, dass Ideen schon mit einer ihnen eigenen inhärenten Qualität geboren / formuliert werden. Die Qualität / der Wert einer Idee ist ihr aber nicht eingebaut, also kein latentes Potential, sondern ein Virtual für alle möglichen Zukünfte, das nur retrospektiv in seiner Realisierung beschrieben werden kann.

(etwas schwammige analogie: aus jedem spermium oder eizelle könnte der nächste zizek werden und aus einigen wird auch zumindest was respektables, aber man sieht es halt nicht unter dem mikroskop)

((wenn man will ist graham also ein naiv/romantischer modernist, während die samwers schon viel weiter sind und eher als zynische postmodernisten beschrieben werden können; auch bzgl. der phantasie sind die samwers weiter als graham: paul träumt eher davon, dass sich investments vermillionenfachen und sich die startups in ein schlaraffenland verwandeln; die samwers suchen eher die intensitäten an den oberflächen))

1 man fühlt sich auch an den witz erinnert, bei dem ein ökonom auf der strasse 20 dollar sieht, sie aber nicht aufhebt, weil sie schon ein anderer aufgehoben hätte, wenn es echte 20 dollar wären


(nts: mich öfter selbst zitieren)

sorry, eindeutig zu viele quizzes lately. also nur noch schnell meine antwort für quiz pt. 67 die natürlich mit dem gleichen grundgedanken spielt, wie social and nothingness, die antwort auf quiz pt. 64, nämlich dass sascha schon wieder (genauer gesagt auch schon davor) den falschen prozess (bloggen erleichtern) für das falsche problem (texte aus den klauen der plattformen emanzipieren) fordert. ich ersetze mal in social and nothingness sozial mit diskurs:

“die falsche grundannahme (nicht nur von lobo, auch von allen anderen ohnehin reflexartig geforderten ‘befreiungen’ von auf ‘geschlossenen’ plattformen geführten texten, aussagen und diskursen) ist, dass es ein abstraktes mitgeteiltes gibt, das eine öffentlichkeit sucht.

es gibt aber keinen ungebunden diskurs, der an keine konkrete formation gebunden ist. diskurs ist im web immer an eine konkrete formation (und deren je spezifische produktions-, rezeptions- und resonanzbedingungen) gebunden. vielleicht nachvollziehbarer: es gibt auch kein abstraktes bedürfnis sich mitzuteilen, für das man nur einen container sucht, und falls es der eine nicht tut, dann verwendet man halt den anderen. jede erfolgreiche plattform erzeugt ihre diskurse aus dem nichts. (das ist die saure lektion, die blogger noch verstehen müssen.) und es gibt auch keinen abstrakten text, den man halt bei gelegenheit aus facebook oder twitter oder g+ ausräuchern und an einem offenen blog in freiheit reterritorialisieren könnte.

der diskurs ist nicht die ursache für, sondern der effekt von plattformen (und wieder: deren je spezifische produktions-, rezeptions- und resonanzbedingungen). und das verhältnis ist nicht struktur-funktional, sondern – wenn man will – quantenphysikalisch.”

(passt zwar nicht ganz, aber gar nicht so schlecht. wer sich betätigen will: siehe Lazy Blog Ep. 3)

da anscheinend nix mehr kommt: meine antwort für quiz 65 ist:

weil wir die zukunft nicht kennen und wir deshalb damit die soziale zukunft ausdünnen und austrocknen würden.

(für soziale netzwerke zu bezahlen und diese dadurch von anderen monetarisierungsnotwendigkeiten zu befreien, könnte dann funktionieren, wenn wir (1) in der gegenwart aus der zukunft zurückblickend wissen könnten, welche plattformen wir in der zeit zwischen der gegenwart und der zukunft benützen werden, und wir (2) auch wissen, dass alle anderen die gleiche zeitmaschine haben und das also auch für sich wissen, und wir (3) davon ausgehen können, dass sie sich dann auch wie wir denken: ja ok, $x im jahr ist mir das wert, das bezahl ich doch gerne.

aber dieses wissen haben wir natürlich nicht. ‘das soziale’ ist ein bienenstock und niemand KANN im voraus wissen, wie und wo er sich manifestiert. die ausdifferenzierung der sozialen plattformen erfolgt organisch, jeder betreibt andauernd trial und error, probiert die plattform aus, ‘interpenetriert’ sich mit dem jeweiligen system, verwirft den grössten teil, lässt sich auf wenigen nieder. dabei entstehen natürlich stabilere temporäre strukturen und krusten wie facebook oder twitter, aber es gibt immer und jederzeit auch die möglichkeit zu brüchen und paradigmenwechseln, etctrara. aber um das geht es hier nicht, der für die frage relevante gedanke daraus ist:

dass geld, und zwar schon der kleinste symbolische obolus, die ‘freie’ ausdifferenzierung des sozialen verstopft, weil man auch als wohlgenährter mittelschichtler mit kreditkarte (und auch das ist eine durchaus zu problematisierende voraussetzung und aber auch das ist ein anderes thema) sich gerne bei einer, wenn es sein muss sicher auch bei zwei oder drei kostenpflichtigen plattformen anmeldet, aber sicher nicht bei zehn oder zwanzig oder allen 20.000, die es gibt. 15 euro im monat für sozial, na gut, wäre denkbar. 100 dann wohl nur ungern und 100.000 im monat ganz sicher nicht. der gesamte möglichkeitsraum wird künstlich verknappt, aus der losen koppelung ‘wohin es uns trägt’ wird die enge koppelung ‘wofür wir bezahlt haben’.

und da gehen die probleme dann aber erst los. wie gesagt: wir wissen nicht, für was wir uns in einem jahr entscheiden würden. bei einem kostenpflichtigen dienst legen wir uns aber quasi jetzt schon darauf fest. und es gibt ganz pragmatische probleme wie die frage: was passiert mit meinen daten, wenn ich in zwei jahren nicht mehr zahle, weil ich zu einer anderen plattform wechseln möchte? (es könnte eine garantie der konservation geben, aber alle beispiele, dich ich kenne, löschen das einfach aus dem system und man steht schlechter da als bei jeder kostenlosen plattform). und für welche plattform entscheidet man sich, wenn die einen freunde auf der einen und die anderen auf der anderen und die kollegen auf der dritten sind? individuell werden also die möglichkeitsräume eingeschränkt und die auswahl wird künstlich limitiert. die plattformen selbst werden sozial eingeschränkt und also ökosystemisch uninteressant, was mitunter den effekt hat, dass die katalysierende kritische masse überhaupt nicht mehr erreicht werden kann. usw. man kann das noch lange weiter spinnen, es ist einfach eine wirklich nette aber blöde idee.)

passenderweise stellt auch Twitter die neuen Regelungen für die Twitter API vor.

Unterm Strich machen sie eines: sie transformieren sich von der Larve 140 Char in ihre Endform den Tweet, für dessen angemessene Darstellungen nicht mehr Empfehlungen sondern verpflichtende Richtlinien gelten. Systemtheoretisch verabschieden sie sich von den unendlichen Möglichkeiten einer losen Koppelung, bei der es Systemen völlig frei steht, wie sie Twitter interpretieren (alles was mit 140 char möglich ist, was natürlich den gesamten empfehlungsraum an links, aber auch alle formen der selbstorganisation via konventionen, adhoc standards, whatever, und alle formen der reinterpretation beinhaltet), hin zu einem von Twitter kontrollierten Subset der Möglichkeiten mit vorgeschriebener Koppelung, bei der Systeme jederzeit auch ausgeschlossen werden können.

Der zweite Megatrend 2012 sind ganz eindeutig diese überall aus dem Boden schiessenden Boutique-Networks.

(als boutique-netzwerk bezeichne ich all jene webapps und ggf. plattformen, die ihr primäres momentum aus der vernetzung einer kleinen gruppe von gründern/bloggern/angels im valley und in sf beziehen oder den zugang dazu überhaupt auf diese beschränken. das erste mal ist mir das als genre bei quora aufgefallen, dort hat es ja einige zeit fast zum guten ton gehört, als founder auf fragen zum eigenen startup zeitnah und ausführlichst zu antworten. beispiele der jüngeren zeit sind branch (exklusives diskutieren) oder svbtle (exlusives bloggen) usw.)

auf svbtle hat übrigens passenderweise gerade der jüngste Ableger seinen Ausgang genommen: App.net, ein kostenpflichtiges ($50/y für benutzer, $100/y für entwickler) und dafür werbefreies Twitter, das verspricht immer die Interessen der Benutzer zu wahren, was auch immer das bedeutet. Vom Auslöser – dem Rant gegen Facebook und der Anküdigung eines neuen Zeitalters – bis zur abgeschlossenen Finanzierung auf Kickstarter hat es nicht mal 2 Wochen gedauert.

(nur am rande: grundsätzlich finde ich überhaupt nichts schlimmes daran, wenn leute ihr netzwerk mobilisieren, was sollen sie denn sonst machen. aber in dieser konstellation ist auch ein dysfunktionales element enthalten: die keimenden plattformen entwickeln sich nicht ‘organisch’ sondern bekommen von anfang an ein uneigenheitliches weil reziprozitätsbedingt eigeninteressegetriebenes momentum. das muss nicht in die irre führen, aber es kann. dennoch wird die beobachtung von app.net sehr spannend, weil es auf mehreren ebenen ein fast pures symptom der derzeitigen verhältnisse ist. vom timing: der bruch mit twitter und facebook (wtf, was ist mit dem rest von uns?), vom barometer: wie viele leute lassen sich mobilisieren, etc.)

(siehe Googleheimer)

(blogpost über DAS fundamentale dilemma im derzeitigen web: den umstand, dass es einfach nichts kostet, im oder dem web gegenüber ein totaler jackass zu sein. bonuspoints für eine topologie der zonen und des impacts (etwa spammer, die eigentlich nur lästige fliegen sind, oder lobbyisten, die vorsätzlich jede beschneidung von freiheiten und möglichkeitsräumen in kauf nehmen, um etwaige pfründe zu verteidigen oder überhaupt nur aus prinzip). sternchen für eine spieltheoretische begründung, warum das so und nicht anders funktioniert (was man ja vermuten könnte; nicht, weil man das nicht auch aus der welt her kennt; sondern weil eben im web andere formen der ausdifferenzierung möglich wären, zumal ja auf individueller ebene der bullshit der jackasses fast jeder ebene von fast allen als solcher erkannt wird; wobei das fast die zizeksche definition von ideologie aus dem lehrbuch ist, ideologie also nicht als etwas, woran alle warumauchimmer glauben, sondern ideologie als das, was funktioniert, obwohl niemand mehr (bzw. nur noch das huhn) daran glaubt, usw. anyway.)

(blogpost über DAS fundamentale dilemma im derzeitigen web: den umstand, dass ‘news’ bzw. die verkündung einer neuigkeit der einzige dominante synchronisierungsmechanismus zwischen den verschiedenen gleichzeitigen ungleichzeitigkeiten der ‘benutzer’ verblieben ist. dass das dann nicht wirklich überraschend ist, zumal massenmediale ‘news’ ja auch im pre-web milieu gwm. den gesellschaftlichen pulsschlag vorgegeben haben (sei es jetzt tagesschau oder bild oder spiegel oder whatever), nur dass die kosten für die verpassten gelegenheiten alternativer mechanismen im web um mannigfaltigkeiten grösser sind, weil sich die ausdifferenzierung des gesamtsystems so auf einem deutlich verkümmerteren niveau einpendelt, als es schon einmal war usw. bonuspoints für eine ethnographie der der zurückentwicklung, die dokumentiert, welche elemente in jeder iteration abfallen und zurückgelassen werden)

Heute vor zwei Jahren: Social Objects vs. Object Socials

(mit dem übergang von social objects zu object socials – also von objekt-vermittelter intersubjektivität zur subjekt-vermittelten interobjektivität – war ich doch erstaunlich nahe dran, nur war es eher noch aus einer perspektive des humanismus verfasst; die formel stimmt zwar, aber man müsste sie rekursiv ergänzen, sprich den wechsel der perspektive wieder in den jeweiligen perspektivenwechsel einführen; der subjekt-anteil der subjekt-vermittelten interobjektivität ist also selbst nichts anderes als das ergebnis der objekt-vermittelter intersubjektivität usw. und dann landen wir in der effektivsten timeline halt beim kurzschluss, den ich witzigerweise ein paar tage davor eh schon gesehen hab usw.)

(wenns nicht so lustig wär, wärs eigentlich traurig, aber mit dem erfolg der piraten im saarland hat sich nun endgültig eine situation etabliert, bei der sich einige gesellschaftliche paradoxien entladen wollen, an denen davor noch unbekümmert vorbeigeschaut werden konnte, die als lästiger kinderkram abgetan werden konnten, usw. wohin nur mit der plötzlichen kognitiven dissonanz, die ja nach dem aha-erlebnis ja auch retrospektiv gedeutet werden muss? und hier erleben wir derzeit wohl eine art theater, das es nicht so oft gibt: man kann einem kollektiv (besonders natürlich leuten aus politik und medien, aber nur deshalb, weil die halt einerseits bedrohte investments und andererseits exposition haben) förmlich beim nichtverstehen zusehen. in dieser dichte (es muss ja sowohl eine quantitatives momentum als auch eine zeitliche synchronisation geben) gibt es das selten und vor allem: aus irgendeinem grund wird auch die lösung nicht gefunden, alle stehen gemeinsam auf dem schlauch)

((die lösung ist natürlich: reboote deinen blick. man muss wirklich nur hinschauen, ohne die mantras ‘dagegen’ im kopf zu haben und vor allem auch ohne den mantras ‘dafür’, weil die oft noch danebener sind und in die falle der dann doppelt falschen widerlegung locken. aber den notwendigen ersten schritt, die de-essentialisierung vom web als ding, von der internetgemeinde als gruppe, etc., der ist anscheindend schwer zu machen))

Auch nicht (siehe die Filter oder die non sequiturs oder die allgemeine Cluelessness oder die Begrenzung der Wirksamkeit oder die Gleichzeitigkeit der Ungleichzeitigkeiten oder die Differenzen) wirklich weitergekommen sind wir mit dem Töten vom Web.

Das Web ist natürlich schon längst tot. Nicht als Technologie oder System bzw. Umwelt. Aber als Begriff zur Beschreibung und Erklärung von Ereignissen die stattfinden, weil es das Web eben gibt.

Wir sind mit der Ausdifferenzierung an einem Punkt angekommen, an dem das Web eine systemische Autonomie erreicht hat, an der es nicht länger sinnvoll ist, sich über ‘das Web’ als Ursache der durch das Web ausgelösten Ereignisse und Phänomene zu wundern oder das Web selbst deshalb zu bejubeln oder zu kritisieren oder sich insgesamt groß zu wundern. Es ist mittlerweile auch schlicht sinnlos, ‘für’ oder ‘gegen’ das Web zu sein, dem Web kritisch gegenüberzustehen oder nicht, etc.

Das Web verhält sich zur Gesellschaft in einer losen Analogie wie sich unser Gehirn zu unserem Bewußtsein oder die Sprache zu unseren Gedanken oder die Technologie Film zu Filmen verhält.

Damit wir als Biosysteme Bewußtsein haben können, brauchen wir ein Gehirn. Damit wir sprachlich denken können, brauchen wir die Sprache. Aber so faszinierend wohl das Gehirn und die Hirnforschung und alle Varianten der Linguistik sind, die konkreten Gedanken setzen Gehirn und Sprache voraus, emanzipieren sich einmal gedacht aber davon und unser sprachlicher Alltag funktioniert auch (oder weil) wir nicht jeden Gedanken in seinen materialistischen Voraussetzungen kontextualisieren; auch wer viel redet wird nicht als Sprachaktivist angesehen oder als Mitglied irgendeiner Gehirngemeinde.

Damit es Filme geben kann braucht es die (Erfindung der) Technologie Film (die selbst wiederum natürlich in einen historisch gewachsenen technokulturellen komplex eingebettet ist, wie auch das web in einen historisch gewachsenen technokulturellen komplex eingebettet ist). Aber jeder Film ist ein eigenes Ding, das zwar das Medium benötigt, aber in seiner Wesensheit mehr mit der Ausdruckskraft der Beteiligten zu tun hat, dem Bündel aus Regie, Script, Schauspielern, Montage, Sound, usw.

Komplexe Systeme wie Gehirn, Film oder eben das Web spannen neue Möglichkeitsräume auf, fungieren als Katalysatoren, sind Zentren und Knoten, durch die andere Kräfte und Vektoren verstärkt, beschleunigt, verdichtet oder auch erst ermöglicht werden können oder auch nicht, etctrara. Die auf ihnen stattfindenden partikularen Ereignisse und emergenten Phänomene basieren dann zwar auf ihnen, lassen sich aber nicht mehr damit begründen oder zurückführen.

Und das gilt nicht nur für das Web als ganzes, sondern auch für alle webbasierten Plattformen wie Facebook oder Twitter, die technologisch und konzeptionell vl. trivial sind, aber eine komplexe soziale Eigenlogik triggern können. Wir müssen lernen, die Effekte (und deren ‘Sinn’) getrennt vom tragenden Kanal zu behandeln, uns also eher anzuschauen, ‘was’ da genau passiert und uns nicht high fives zu geben, nur weil was im Web oder auf Twitter passiert. Diese Zeit ist vorbei.

(die gute nachricht am rande: auch wenn das derzeit primär ein symptom der denkfaulheit ist, bei dieser art an diskurs handelt sich wohl auch nur um ein übergangsphänomen, das in ein paar jahren einfach verschwunden sein wird)

Auch nicht (siehe die Filter oder die non sequiturs oder die allgemeine Cluelessness oder die Begrenzung der Wirksamkeit oder die Gleichzeitigkeit der Ungleichzeitigkeiten ) wirklich weitergekommen sind wir beim Einführen, Prozessieren und Postprozessieren von (nützlichen) Differenzen.

(die effekte reichen von naja, schade und ärgerlich bis fatal und unerträglich; und natürlich auf allen ebenen, persönlich, peergroupig, sozial, global, universal; oft sind differenzen fast selbstevident fassbar durch das simple verwenden von begriffen, und doch zerfliessen sie uns unter den fingern, wenn wir sie nicht habituell reaktualisieren)

((nicht deshalb aber dazu passend sei hier nochmal auf die model thinking klasse verwiesen; die hilft vl. nicht beim definieren der idealen differenzen für die eigenen idiosynkratischen gegebenheiten, aber sie hilft doch beim reduzieren der komplexitäten und schult das konsequente durcharbeiten von annahmen; und auch bei einfachsten annahmen kommt man schon erstaunlich weit; u.a. lässt sich etwa die gesamte aufregung um gauck mit einer leichten variation des standing ovations modells erklären, ohne auf semiotische, memetische oder demokratiepolitische verwebungsszenarien zurückgreifen zu müssen, die die analyse in eine komplexitätsbedingte unendliche unauflösbarkeit verscheiben))

google

Achtung: Rant below; aber mich nervt Google in letzter Zeit so systematisch, dass das einmal psychohygienisch raus muss.

Der erste Megatrend 2012 ist eindeutig das Dissen von Google. Dieses hat nicht nur quantitativ zugenommen, auch die Qualität der Kritik hat sich genuin verschoben – und das Suchen von Alternativen wurde zu einem beliebten Hobby. Kritik an Google gab es natürlich schon immer, aber sie war üblicherweise eher leichtgewichtig und hat sich an kleineren Fragen (Datenschutz, sind sie vielleicht doch böse, haben sie vielleicht nur ihre eigenen wirtschaftlichen Interessen im Sinn, fehlt ihnen die soziale DNA, …) abgearbeitet. Die Fragen sind zwar an der Oberfläche die gleichen geblieben, aber mir scheint, dass sich darunter in letzter Zeit die für Google wesentlich fatalere Frage verbirgt, ob Google nicht in Wirklichkeit eine gewaltige Dumpfbacke ist.

Der Vollständigkeit halber sei dazugesagt, dass Google noch immer die wichtigste Firma im Web ist; sie sind finanziell erfolgreich; sie haben noch immer eine Reihe von unübetroffenen Qualitäten und Kompetenzen; sie offerieren uns noch immer einige geniale lebens- und weltverbessernde Produkte; Google ist auch noch immer das einzige Unternehmen, das sich an gewisse unmögliche Dinge wagt (natürlich auch, weil sie sich das halt leisten können, aber sie müssten ja nicht); Google hat das moderne Web wie wir es kennen mehr oder weniger katalysiert und in dieser Form möglich gemacht; und sie versuchen wohl auch – by and large – das Richtige zu tun.

Having said that verdecken diese ihre Qualitäten und Erfolge aber auch eine Demenz, die sich langsam aber sicher ausbreitet und die Google entdecken sollte, bevor es zu spät ist. Die Menschen beginnen sie nämlich zu spüren, deshalb auch diese neue Qualität der Kritik.

Bei der Beurteilung des Geisteszustands von Google müssen wir uns natürlich auf das Sammeln und Interpretieren von Hinweisen und Symptomen beschränken. Isoliert betrachtet sind viele der Hinweise nicht besonders signifikant. Und auch eindeutige Hinweise auf signifikante Probleme sind nicht immer auf Google als solches verallgemeinbar, weil Google mitunter in Zellen organisiert ist und eine faule Zelle nicht notwendigerweise mit einer Faulheit des gesamten Systems Google korreliert. Gleichzeitig können aber auch genau die kleinen Symptome – die freudschen Vergoogler – den Zustand des gesamten Systems besser beschreiben, als die offiziellen Darstellungen oder die inoffizielle offizielle Selbstwahrnehmung.

Die Liste mit ganz konkreten Fehlern, Flops und Fails ist lang. Einige Fehlergruppen: übernommene oder selbst entwickelte Produkte, die dann gekillt wurden (Jaiku, Knol, Aardvark, Dodgeball, Slide, Google Wave, Google Buzz, Google Bookmarks, Google Notebook, Google Health, Google Video, Google Lively, Google Answers, uswusf.); übernommene oder selbst entwickelte Produkte, die mehr schlecht als recht dahinvegetieren (Orkut, Chromebooks, Google Music, Google TV, Google Books, Chrome Store, usw.); das systematische Verschlechtern von guten Produkten (Beschneiden von Features, die nützlich waren; Aufblähen mit unnötigen Features; Verschlimmbesserungen im Design; Einführen von Beschränkungen; …);

Dazu kommt eine wirklich lange Reihe von gekillten kleineren Produkten aus der Labs-Serie und von gekillten kleineren Features. Bei vielen muss man da sagen: ok, das waren Experimente, die auch als solches deklariert waren, da geht auch manches schief, wird von den Usern nicht angenommen, verursacht zu viel Aufwand, etc. Aber es waren auch coole Dinge dabei, um die es schade ist und wo man sich doch wundern muss. Wer, wenn nicht Google, könnte sich auch Spielereien leisten?

Und es gibt eine Palette von mehr oder weniger indirekten Hinweisen dafür, dass etwas kracht: es gibt eine lange Liste von guten angeheuerten Leuten, die es nicht lange bei Google ausgehalten haben; das immer häufigere Auftreten als Politiker; die Zunahme von Lobbyismus; das Starten von Think Tanks; das Schalten von Werbung (omg), usw.

Aber bis vor kurzem hat das unser Verhältnis zu Google nicht wesentlich beschädigt, weil sie ein Phantasma aufrecht erhalten konnten: unseren Glauben an ihr Wissen. Viele Flops sind leicht zu erklären – hey, wir experimentieren halt viel herum -, aber auch die wirtschaftliche, politische oder charakterliche Kritik, ob im konkreten Fall berechtigt oder nicht, war unterm Strich egal, solange Google das Subjekt blieb, dem unser Wissen unterstellt werden konnte, weil ihr Kern – die Suche – intakt blieb.

Subject supposed to know

Im Gegensatz zu Facebook oder Twitter, besteht der eigentliche Wert von Google im Glauben der Welt an die Genialität von Google. Wir gehen zu Facebook oder Twitter, weil dort unsere Freunde Dinge posten. Aber wir gehen zu Google, weil wir glauben, dass sie wissen. Google war das paradigmatische lacansche subject supposed to know. Es war eine Black Box, die man Beliebiges fragen konnte, und die ohne grössere Umwege die richtigen Antwort lieferte. Auch wenn nicht immer alle Ergebnisse ‘richtig’ waren, sie waren noch immer richtiger als bei allen Anderen, und ein, zwei Verfeinerungen weiter hat man das Gewünschte gefunden.

Facebook oder Twitter andererseits mussten nie als ‘wissend’ angesehen werden, weil allen Usern auf Facebook oder Twitter klar ist, dass sie selbst diejenigen sind, die alles machen; Facebook variiert zwar ein bisschen, was im Hauptstrom zu sehen ist und was nicht, aber im Großen und Ganzen helfen sich die Leute selbst.

Mit Google+ und der Sozialisierung der Suchergebnisse macht sich Google nun nicht nur angreifbar, sie zersetzen die Ordnung des Imaginären selbst. Wenn sie neben dem Suchergebnis anmerken ‘weil der Autor 15.000 Follower auf G+ hat’ oder ‘weil das der und der Kontakt geshared haben’ schreiben, ich aber weiß, dass derjenige vom jeweiligen Thema keine Ahnung hat und besser nicht als Hauptreferenz zitiert werden sollte, und wenn das Ergebnis dann auch noch nicht gut ist, oder wenn Google Vermutungen über das, was ich wohl meine, in die Suchergebnisse hineinfakturiert und mir deshalb falsche Antworten auf Fragen liefert, die ich gar nicht hatte, dann bringen sie das Konzept ihrer eigenen Dummheit selbst auf den Tisch. Indem Google in der Suche das ehemalig Implizite explizit macht, macht es sich selbst kritisierbar, wenn die Interpretation nicht funktioniert. Und dann liegt auch der Schluss nahe, dass Google auch ansonsten nicht so besonders schlau ist.

(die neuen sozialen, lokalen, etc. signale sind ja vl. als signal unter anderen gar nicht schlecht, oder nicht schlechter als altmodische dinge wie pagerank; 20.000 circler sind wohl tatsächlich schwerer zu simulieren als der standard SEO shit, der dann auch kompetenz simulieren will. aber vorgeführt zu bekommen, welche bedeutung ihnen google plötzlich zuschreibt oder welche falsche wertigkeit google plötzlich unterstellt, ist irritierend, und gegen falsche grundannahmen ankämpfen zu müssen ist ärgerlich. es gibt wenig, was mich in letzter zeit mehr frustriert hat, als ihr ungefragtes anzeigen der ergebnisse vom ‘did you mean’ suchbegriff. liebes google: I did not.)

Wenn sie glauben, sie wissen besser was ich will, als ich selbst, aber sie lösen das nicht ein, dann wirken sie dumm.

Es gibt wohl eine Reihe von systemischen Problemfeldern, die für die zunehmende Tollpatschigkeit von Google verantwortlich sind. Hier die Top 7:

Selbstüberschätzung

Ich glaube die Selbstüberschätzung ist der zentrale Grund, warum Google so viel Mist macht. Es ist wohl nicht verwunderlich, dass sie von sich selbst viel halten. Aber Google hatte das notwendige Glück, zur richtigen Zeit am richtigen Ort zu sein und das Richtige zu tun. Die damalige Welt war bevölkert von Sauropoden, die sich primär für das Melken von Eyeballs interessierten. Google hat sie mit einer radikalen Ausrichtung am Kundennutzen ausgerottet, ihr Motto ‘don’t be evil’ war in diesem Kontext disruptiv.

Das bedeutet aber nicht, dass sie zu allen anderen Zeitpunkten und an allen anderen Orten auch das Richtige tun können. Die von ihnen gefundene Lizenz zum Gelddrucken verdeckt in der Tat eher ihre Unfähigkeiten zu späteren Zeitpunkten. Ihr Problem: Ihr gesamtes auf ‘Genialität’ und C-Code debuggende PhDs ausgerichtetes Mitarbeitergebilde und ihre ausschliesslich auf Messbarkeit basierten Entscheidungsprozesse lassen für sie keine andere Denkbarkeit zu.

Mit der Selbstüberschätzung verbunden ist eine partielle Realitätsverleugnung, die es ihnen verunmöglicht, einige Dinge realistisch zu sehen oder zu beurteilen. Die Tatsache, dass es ein soziales Web gibt und dass dieses soziale Web einen anderen König gewählt hat, haben sie jahrelang tatsächlich ausgeblendet, ähnlich wie Steve Ballmer jahrelang Apple ausgeblendet hat.

Aber auch die Möglichkeit, dass sie sich mit einer Einschätzung mal völlig irren können, kommt ihnen nicht so wirklich in den Sinn. Wenn sie aus der langen Geschichte ihrer Flops eines gelernt haben sollten, dann das. Aber nein, klappt was nicht, wird aktuell einfach die Zeitachse verschoben, die neue Trope (bei den Chrome Books, bei Google TV, bei Google+, etc.) lautet: wartet nur 6 Monate, dann seht ihr, wohin wir wollen. Ihr wisst nicht alles, was wir wissen. Wir haben einen Plan.

Die Selbstüberschätzung führt in letzter Zeit auch immer öfter zu einer Geste des our way or the highway – eine Krankheit, die sie u.a. mit Apple teilen. Aber während Apple dann häufig eine wirklich magische Erfahrung abliefert, wartet Google dann meistens mit Prototypen im Stile von Homer Simpson auf.

Lack of Leadership

It’s about caring enough to make an effort. If we define good enough sufficiently low, we’ll probably meet our standards. Caring involves raising that bar to the point where the team has to stretch.

who cares

Der Mangel an Führung äussert sich bei Google zumindest auf zwei Ebenen:

die erste ist projektbezogen. Es scheint viele Projekte zu geben, die einfach niemanden haben, der die Rolle des Gründers ausfüllt und das Projekt gegen widrige Umstände verteidigt. Zumindest nach der ersten Staffelübergabe fehlen alle Prozesse oder Mechanismen, um Projekte in der gebotenen Intensität weiterzuführen.

Und Google hat wohl auch ein Problem an der Spitze. Das ist zwar sehr spekulativ und basiert auf den Videos einiger Auftritte oder Gesprächsrunden mit Larry Page, aber mich dünkt, die Kommunikation geht eher in Richtung eines Titoismus, bei dem nach oben immer nur die gefälschten Erfolgszahlen durchgereicht werden. Man denke an die hochgepimpten Zahlen für Google+, die eher an die Erfüllung eines Fünfjahresplans erinnern.

(ich weiss nicht, ob larry page oder eric schmidt wissen, wie dünn und konzeptionell daneben G+ im vergleich zu facebook wirklich ist, beide haben wohl keinen der dienste wirklich benutzt; vielleicht wissen sie es ja auch und demonstrieren zweckoptimismus. aber so gute schauspieler sind sie glaub ich nicht.)

Mangel an Geschmack

Wenn Google was noch weniger kann als sozial, dann ist es Design. Es ist ihr Glück, dass der auf Speed fokussierte Minimalismus ihnen entgegen gekommen ist, weil man da einfach weniger falsch machen kann, aber das Design ist üblicherweise auf allen Ebenen (vom Layout bis zum sozialen Design) eine Katastrophe. Und schlimmer: es ist ihnen nicht bewusst, dass es eine Katastrophe ist. Bzw. noch schlimmer, die Katastrophe ist rekursiv: es ist ihnen ja bewusst, siehe das aktuelle globale Redesign, nur bleibt es ja auch unter der Bedingung der Katastrophenbewußtheit eine Katastrophe, und diese second order Katastrophe wird als solche wieder nicht erkannt. Geschmack kommt in ihrem Referenzsystem halt einfach nicht vor. Aber Geschmack wird immer wichtiger, weil Apple die Latte höher und höher hängt und das iPad und die iPad-Apps den Rest erledigen.

Trägheit

Wie langsam und träge der ganze Apparat Google mittlerweile geworden ist, sieht man etwa an der Pseudonymdebatte. Sie haben nicht weniger als 7 Monate gebraucht, um Pseudonyme – also doch ein Kampfthema – auf Google+ – also doch ihr aktuelles Kernprodukt – so irgendwie und immer noch unausgegoren zu unterstützen.

(immerhin verstehe ich jetzt die Motivation für ihr Pseudonymitätsverbot; ihr search plus your world SPYW Dings braucht soziale Richtigkeit, sonst funktioniert es nicht, weil man sonst eben diese aleatorischen Ergebnisse bekommt. Nur wirft das natürlich wieder die fundamentalere Frage nach ihrer Urteilskraft auf, weil sie wissen müssten, dass das Web so nicht funktioniert.)

Neid und Gier

Google ist überall dort gut, wo sie ihre ursprüngliche Mission verfolgen – das Wissen aufzubereiten und universell zugänglich zu machen. Die ersten Jahre haben sie sich auch darauf beschränkt.

Irgendwann haben sie aber damit begonnen, sich an anderen Firmen zu orientieren, die andere Wege gefunden haben, im Web Geld zu machen. Und auch wenn das dann mit ihrer Mission nichts zu tun hatte, wollten sie das dann auch haben. Was folgte ist eine lange Liste an Me-Too-Produkten, Flops und Facepalms (Twitter – Jaiku, Wikipedia – Knol, Yahoo Answers – Google Answers, iTunes – Google Music, Amazon – Google Books, Groupon – DailyDeal, Facebook – Google+, etc.).

Ein paar versuchte Klone, Schwamm drüber. Was aber bedenklich ist, ist die offensichtliche prozessuale Lernunfähigkeit von Google. Als hätten sie eine Zwangsstörung machen sie den gleichen Fehler immer wieder.

Damit komplementär verbunden ist auch eine fast schon skurrile Blindheit für das, was die oft offensichtlichen und für sie viel sinnvolleren Optionen oder Möglichkeiten betrifft. Nur ein Beispiel: Google Mini-Me

(übrigens nix gegen ihre diversifikation, aber sie sollte schlauer und weniger fatalistisch betrieben werden, sie sind ja oft bereit ein paar milliarden zu versenken, ab einem grenzwert ist es dann ja auch schon wieder egal usw.)

Infantilität

Gelegentlich blitzt auf, wie infantil Google im Kern eigentlich ist. Man hat das lange nicht gesehen, weil sie davor mit grundsätzlicheren Problemen beschäftigt waren.

Auch hier beginnt es mit der Verwässerung ihrer Mission, aus ‘die Informationen der Welt zugänglich und nützlich zu machen’ wird immer öfter der feuchte Traum eines Nerds: Der Computer soll mir das Denken abnehmen und das Leben vorhersagen. Was in den 60er Jahren die automatisierten Haushaltsroboter waren, ist seit 2010 die infantile KI von Google.

(Was mich hier stört ist nicht die KI / das ML, das ist superinteressant und birgt enormes Potential – vor allem für Google, die könnten ja aus dem vollen schöpfen -, sondern die von Google anvisierten Use Cases.)

Ein anderes Beispiel für die Infantilität sind die Gimmicks, die sich immer wieder einschleichen, etwa der Effekt beim Löschen eines Circles. Bei der Demo ist es cute und beim ersten Mal ist es lustig, dann wünscht man sich aber, dass sie doch mehr Energie ins allgemeine Handling der Circles gelegt hätten (das defacto unbrauchbar ist, was natürlich isoliert betrachtet Wurst, aber wegen der Bedeutung von Google+ für Google ein Irrsinn ist).

Ein weiteres Beispiel ist ihr ‘das kann ich auch’ Reflex; Google, ich glaub dir, dass du wie Bing das Hintergrundbild ändern kannst. Du musst das nicht am nächsten Tag in einer Hauruckaktion beweisen.

Oder auch die Catfights mit Facebook, siehe etwa reciprocity oder city of glass

Degeekification

Für mich persönlich eine der grössten Enttäuschungen ist, dass Google immer mehr auf die Geeks scheißt und Features nach rein buchhalterischen Kriterien bewertet.

Beispiel Offenheit: ja, da sind wir die allergrössten Fans von. Aber selbst sind wir nur dort offen, wo es uns passt. Ich mokiere hier gar nicht, dass sie die Kernalgorithmen nicht offenlegen oder einige Datenbanken nicht zum vollständigen Absaugen öffnen. Aber sie sind bei einer ganzen Reihe von Dingen nicht offen, bei denen sie es ohne Probleme für sich und mit Nutzen für andere sein könnten; sie offerieren fast nirgends RSS Feeds. Sie haben teilweise groteske Limits bei kleineren APIs. usw.

Beispiel Geekheit: mit dem internen und externen Geek Appeal schmücken sie sich ja gerne. Aber dann entfernen sie aus ihren Produkten genau die Features, die für Geeks interessant wären. Das ist doch traurig, weil man gerade von Google wie bei den Labs-Experimenten erhoffen könnte, dass sie sich auch Dinge, die halt nicht jeder verwendet, die aber die Spezialisten sehr schätzen, wertschätzen und kultivieren.

Nur am Rande gesagt: das Kultivieren von Features, die Geeks mögen, macht auch – gerade für Google – geschäftlichen Sinn, weil die dortigen Aktivitäten oft erst durchsickern, nachdem sie eine Zeit lang gegärt haben, die später aber das Salz in der Suppe werden, die Gesamtqualität erhöhen, die ein Indikator für Trends sind, der dann ein paar Jahre später der Mainstream wird, etc., aber das wäre Thema für einen eigenen Rant.

Eher devoha aber auch, um meine eigene Beurteilskraft zu testen: Die 6Wunderkinder haben jetzt ihr Wunderkit lanciert. Bin ich der einzige, der sich denkt hmm, kratz ? Über den Launch wurde auf breiter Front und durchgängig wohlwollend berichtet, die Zutaten stimmten natürlich (Seed-Finanzierung und $4.2M Runde noch vor dem Start, Auskoppelung Wunderlist ein Hit mit mehr als einer Million Usern, aus Berlin!, usw.) und die Seite ist (design-) technisch für deutsche Verhältnisse herausragend – aber die Idee von sozialer Produktivität ist ein klassisches Oxymoron, das kann eigentlich nicht gut gehen.

(ich finds ja grundsätzlich nicht schlecht, den komplex produktivität neu zu überdenken; aber bei wunderkit seh ich deutlich mehr probleme als durch das wunderkit offerierte neue möglichkeiten; dinge zu tun / widgets zu cranken ((c) david allen) ist per definitionem einsam; und auch der bereich kollaboration ist nicht eigentlich sozial, auch wenn mehrere daran beteiligt sind, sondern eher ein mechanismus der produktivitätssteigerung durch komplexitätsreduktion, wobei der jeweilige prozess die organisationstechnischen transaktionskosten zu minimieren versucht. und je nach vorgabe und komplexitätsgrad haben sich da tools und methoden mit gewisser effizienz etabliert (lose flottierende aber strukturierte koordinationskommunikation via yammer oder campfire oder auch skype, systematische taskskoordination via basecamp, etctrara); und es gibt probleme, die eine art verteilte und sich mehr oder weniger organisch formierende workforce erfordern (etwa open source projekte), aber auch die sind nicht eigentlich sozial und haben andererseits eine reihe von kommunikativen und technischen strukturen entwickelt, die wesentlich effizienter und effektiver sind (IRC, Bugtracker, Versionskontrollsysteme, etc.). ich fürchte auch, dass das wunderkit auf den ersten blick ganz nett ausschaut, aber nicht wirklich gut skaliert und schnell eine fürchterliche mess wird. was wiederum benutzungstechnische selbstdisziplin erfordert, die natürlich niemand hat. ich vermute also stark, dass die wunderlist ihr grosser hit bleiben wird.)

tl;dr: Wunderkit ist ein wunderhübsches Produktivitäts- und Prokrastinationstool für die Generation ADHD.

Auch nicht (siehe die Filter) wirklich weitergekommen sind wir bei der logischen Konsistenz von Aussagen (bzw. aussageverkettungen).

(das tangiert jetzt natürlich nicht nur aussagen über das web, aber hier ist und bleibt es doch besonders schlimm; es gibt ja kaum einen text, der länger als 3 absätze ist, in dem kein non sequitur, keine willkürliche vermischung der ebenen oder logischen klassen oder ähnliches steckt etc.)

And again, the internet is not something you just dump something on. It’s not a truck. It’s a series of tubes. And if you don’t understand those tubes can be filled and if they are filled, when you put your message in, it gets in line and its going to be delayed by anyone that puts into that tube enormous amounts of material, enormous amounts of material.

Senator Ted Stevens zitiert nach Wired .

Was mir beim jahresausgänglichen infoökonomischen Anticluttern das erste Mal in dieser Klarheit aufgefallen ist und bevor ich es vergesse:

Der ganze Komplex Streaming – der ja doch einen nicht unbeträchtlichen Anteil am gesamten Webaktivitätskuchen hat, zumal ja das ganze Sharing ein Subset vom Streaming ist – basiert auf einer sehr einfachen Struktur:

  • es gibt eine URL
  • die mit einer Annotation versehen wird
  • und durch einen Bewegungsimpuls in einem Kanal/einer Series of Tubes reaktualisiert wird.

Es gibt zwar ein paar Grenzfälle – die Annotation kann z.B. leer sein (etwa bei allen phatischen Gesten wie Likes), der Bewegungsimpuls kann z.B. ein chronisches Einfrieren sein (etwa beim klassischen antisozialen Bookmarking, bei dem man die URL quasi aus dem Strom reißt, wobei das wiederum Ausgangspunkt eines abgeleiteten Stroms werden kann), die URL kann nichtexistent sein (und wird etwa erst im Stromereignis erzeugt; ein Tweet ist z.B. eine Annotation zu seiner eigenen URL), usw. – aber unterm Strich sind die meisten Tools die wir so kennen und lieben nichts anderes als Maschinen zur Produktion, Rezeption und Distribution von solchen Stream-Ereignissen. Sie unterscheiden sich lediglich in der Art, wie die möglichen Unterscheidungen ausdifferenziert werden.

Fast alle Tools sind dabei Mischformen und bedienen unterschiedliche Ebenen und Aspekte der Produktion, Rezeption und Distribution gleichzeitig.

(zb: der google reader ist primär ein tool zur anzeige von feeds im volltext für einen selbst. feeds sind dabei die universellste normalform, auf die sich URLs dem strom zur verfügung stellen können. gleichzeitig offeriert der GR aber funktionen zur organisation der informationen für einen selbst – starring, tagging, search – und funktionen zum weiterströmen – send to und eben nicht mehr sharing, welches selbst einerseits im GR für das eigene netzwerk und falls public selbst als feed für alle offen war -.)

Die Tools können oder besser sollten sich nun einige Dinge überlegen (wie lange kann die Annotation sein, wie zeige ich den Inhalt der ursprünglichen URL an, welche Quellen lassen ich als Inputs zu, führe ich den Komplex privacy ein oder nicht, welche Formen lasse ich als Outputs zu, welche Features zur persönlichen Organisation der Informationen offeriere ich und wie, welche Features zur Redistribution offeriere ich und wie, welche Features zur sozialen Vernetzung offeriere ich und wie, welche Formen der Diskussion erögliche ich und wie, etc; man kann hier noch ein bisschen schürfen) aber unterm Strich tun sie nichts anderes, als mögliche Entscheidungen zum Handling von Strom-Ereignissen auszudifferenzieren und ihnen einen – thematischen, sozialen, haptischen – Kontext zu geben.


(nts: mich öfter selbst zitieren)

(weil ich damit angefangen habe… bin jetzt mit mashup durch und irgendwie hat sich an meinem ersten eindruck nichts geändert, ein bissl war für mich das lesen wie das anschauen einer episode von magnum, bei der die tonspur aber um eine sekunde verschoben ist. man merkt, dass alles wichtige dabei ist und dass das herz am rechten fleck sitzt, aber es fügt sich nicht ganz zusammen. nur ein paar punkte (rein konstatierend und ottomh): alles beweist für ihn alles (oder genauer: jede positive erwähnung irgendeiner art von kopie stärkt die positive konnotation jeder anderen art von kopie; wenn die tatsache, dass die kassiererin im supermarkt meine unterschrift als authentische kopie ihrer selbst erkennt, nicht beweis genug für die legitimiät des akts des zitatkopierens bei bands wie den gorillaz ist, dann weiss ich nicht was, usw). manchmal wirken die aussagen deshalb – obwohl nicht falsch – auch etwas willkürlich aneinandergereiht; über weite strecken bleibt er begrifflich unscharf (wobei zumindest eine klare und definierte eigene heuristik für die untschiedlichen begriffe (kopie, plagiat, mashup, remix, etc.) nützlich gewesen wäre, weil sich dann – und eigentlich auch nur dann – die konkret damit verbundenen kulturellen milieus, sozialen konstellationen, politisch-legalen kräfteverhältnisse etc. beschreiben und bewerten lassen*); formal versucht er ein bisschen zu emsig, auch wirklich jeden gedanken zu attribuieren, was einerseits natürlich lobenswert ist, andererseits aber in der zuordnung aleatorisch wirkt. teilweise führt das dann auch zu eigenwilligen erstzuschreibungen für aussagen (leseschreibweb, wie es lessig 2006 entdeckte, usw.); gleichzeit versucht er die autoren zu variieren, und auch das ist lobenswert, aber ein close-reading von masnick, doctorow oder auch weiss wäre teilweise ergiebiger gewesen; trotzdem liest es sich insgesamt gut und ist durchaus ein tipp)

* gerade das titelwort mashup hat ja - zumindest im musikalischen feld - eine sehr konkrete bedeutung und eine sehr spezifische form der künstlerischen wertschöpfung, die man beschreiben könnte (durch assoziation, historische kenntnis, timing der rekombination, etc.) und mit anderen kopie-basierten formen der kulturellen praxis vergleichen könnte, um vl. zu einer art vergleichenden kopierwissenschaft zu kommen oder so.

« vorher    nachher »