Leftovers 2011 (Dead Man Edition)
Auch nicht (siehe die Filter oder die non sequiturs oder die allgemeine Cluelessness oder die Begrenzung der Wirksamkeit oder die Gleichzeitigkeit der Ungleichzeitigkeiten oder die Differenzen) wirklich weitergekommen sind wir mit dem Töten vom Web.
Das Web ist natürlich schon längst tot. Nicht als Technologie oder System bzw. Umwelt. Aber als Begriff zur Beschreibung und Erklärung von Ereignissen die stattfinden, weil es das Web eben gibt.
Wir sind mit der Ausdifferenzierung an einem Punkt angekommen, an dem das Web eine systemische Autonomie erreicht hat, an der es nicht länger sinnvoll ist, sich über ‘das Web’ als Ursache der durch das Web ausgelösten Ereignisse und Phänomene zu wundern oder das Web selbst deshalb zu bejubeln oder zu kritisieren oder sich insgesamt groß zu wundern. Es ist mittlerweile auch schlicht sinnlos, ‘für’ oder ‘gegen’ das Web zu sein, dem Web kritisch gegenüberzustehen oder nicht, etc.
Das Web verhält sich zur Gesellschaft in einer losen Analogie wie sich unser Gehirn zu unserem Bewußtsein oder die Sprache zu unseren Gedanken oder die Technologie Film zu Filmen verhält.
Damit wir als Biosysteme Bewußtsein haben können, brauchen wir ein Gehirn. Damit wir sprachlich denken können, brauchen wir die Sprache. Aber so faszinierend wohl das Gehirn und die Hirnforschung und alle Varianten der Linguistik sind, die konkreten Gedanken setzen Gehirn und Sprache voraus, emanzipieren sich einmal gedacht aber davon und unser sprachlicher Alltag funktioniert auch (oder weil) wir nicht jeden Gedanken in seinen materialistischen Voraussetzungen kontextualisieren; auch wer viel redet wird nicht als Sprachaktivist angesehen oder als Mitglied irgendeiner Gehirngemeinde.
Damit es Filme geben kann braucht es die (Erfindung der) Technologie Film (die selbst wiederum natürlich in einen historisch gewachsenen technokulturellen komplex eingebettet ist, wie auch das web in einen historisch gewachsenen technokulturellen komplex eingebettet ist). Aber jeder Film ist ein eigenes Ding, das zwar das Medium benötigt, aber in seiner Wesensheit mehr mit der Ausdruckskraft der Beteiligten zu tun hat, dem Bündel aus Regie, Script, Schauspielern, Montage, Sound, usw.
Komplexe Systeme wie Gehirn, Film oder eben das Web spannen neue Möglichkeitsräume auf, fungieren als Katalysatoren, sind Zentren und Knoten, durch die andere Kräfte und Vektoren verstärkt, beschleunigt, verdichtet oder auch erst ermöglicht werden können oder auch nicht, etctrara. Die auf ihnen stattfindenden partikularen Ereignisse und emergenten Phänomene basieren dann zwar auf ihnen, lassen sich aber nicht mehr damit begründen oder zurückführen.
Und das gilt nicht nur für das Web als ganzes, sondern auch für alle webbasierten Plattformen wie Facebook oder Twitter, die technologisch und konzeptionell vl. trivial sind, aber eine komplexe soziale Eigenlogik triggern können. Wir müssen lernen, die Effekte (und deren ‘Sinn’) getrennt vom tragenden Kanal zu behandeln, uns also eher anzuschauen, ‘was’ da genau passiert und uns nicht high fives zu geben, nur weil was im Web oder auf Twitter passiert. Diese Zeit ist vorbei.
(die gute nachricht am rande: auch wenn das derzeit primär ein symptom der denkfaulheit ist, bei dieser art an diskurs handelt sich wohl auch nur um ein übergangsphänomen, das in ein paar jahren einfach verschwunden sein wird)
Leftovers 2011 (Difference Edition)
Auch nicht (siehe die Filter oder die non sequiturs oder die allgemeine Cluelessness oder die Begrenzung der Wirksamkeit oder die Gleichzeitigkeit der Ungleichzeitigkeiten ) wirklich weitergekommen sind wir beim Einführen, Prozessieren und Postprozessieren von (nützlichen) Differenzen.
(die effekte reichen von naja, schade und ärgerlich bis fatal und unerträglich; und natürlich auf allen ebenen, persönlich, peergroupig, sozial, global, universal; oft sind differenzen fast selbstevident fassbar durch das simple verwenden von begriffen, und doch zerfliessen sie uns unter den fingern, wenn wir sie nicht habituell reaktualisieren)
((nicht deshalb aber dazu passend sei hier nochmal auf die model thinking klasse verwiesen; die hilft vl. nicht beim definieren der idealen differenzen für die eigenen idiosynkratischen gegebenheiten, aber sie hilft doch beim reduzieren der komplexitäten und schult das konsequente durcharbeiten von annahmen; und auch bei einfachsten annahmen kommt man schon erstaunlich weit; u.a. lässt sich etwa die gesamte aufregung um gauck mit einer leichten variation des standing ovations modells erklären, ohne auf semiotische, memetische oder demokratiepolitische verwebungsszenarien zurückgreifen zu müssen, die die analyse in eine komplexitätsbedingte unendliche unauflösbarkeit verscheiben))
Googleheimer
Achtung: Rant below; aber mich nervt Google in letzter Zeit so systematisch, dass das einmal psychohygienisch raus muss.
Der erste Megatrend 2012 ist eindeutig das Dissen von Google. Dieses hat nicht nur quantitativ zugenommen, auch die Qualität der Kritik hat sich genuin verschoben – und das Suchen von Alternativen wurde zu einem beliebten Hobby. Kritik an Google gab es natürlich schon immer, aber sie war üblicherweise eher leichtgewichtig und hat sich an kleineren Fragen (Datenschutz, sind sie vielleicht doch böse, haben sie vielleicht nur ihre eigenen wirtschaftlichen Interessen im Sinn, fehlt ihnen die soziale DNA, …) abgearbeitet. Die Fragen sind zwar an der Oberfläche die gleichen geblieben, aber mir scheint, dass sich darunter in letzter Zeit die für Google wesentlich fatalere Frage verbirgt, ob Google nicht in Wirklichkeit eine gewaltige Dumpfbacke ist.
Der Vollständigkeit halber sei dazugesagt, dass Google noch immer die wichtigste Firma im Web ist; sie sind finanziell erfolgreich; sie haben noch immer eine Reihe von unübetroffenen Qualitäten und Kompetenzen; sie offerieren uns noch immer einige geniale lebens- und weltverbessernde Produkte; Google ist auch noch immer das einzige Unternehmen, das sich an gewisse unmögliche Dinge wagt (natürlich auch, weil sie sich das halt leisten können, aber sie müssten ja nicht); Google hat das moderne Web wie wir es kennen mehr oder weniger katalysiert und in dieser Form möglich gemacht; und sie versuchen wohl auch – by and large – das Richtige zu tun.
Having said that verdecken diese ihre Qualitäten und Erfolge aber auch eine Demenz, die sich langsam aber sicher ausbreitet und die Google entdecken sollte, bevor es zu spät ist. Die Menschen beginnen sie nämlich zu spüren, deshalb auch diese neue Qualität der Kritik.
Bei der Beurteilung des Geisteszustands von Google müssen wir uns natürlich auf das Sammeln und Interpretieren von Hinweisen und Symptomen beschränken. Isoliert betrachtet sind viele der Hinweise nicht besonders signifikant. Und auch eindeutige Hinweise auf signifikante Probleme sind nicht immer auf Google als solches verallgemeinbar, weil Google mitunter in Zellen organisiert ist und eine faule Zelle nicht notwendigerweise mit einer Faulheit des gesamten Systems Google korreliert. Gleichzeitig können aber auch genau die kleinen Symptome – die freudschen Vergoogler – den Zustand des gesamten Systems besser beschreiben, als die offiziellen Darstellungen oder die inoffizielle offizielle Selbstwahrnehmung.
Die Liste mit ganz konkreten Fehlern, Flops und Fails ist lang. Einige Fehlergruppen: übernommene oder selbst entwickelte Produkte, die dann gekillt wurden (Jaiku, Knol, Aardvark, Dodgeball, Slide, Google Wave, Google Buzz, Google Bookmarks, Google Notebook, Google Health, Google Video, Google Lively, Google Answers, uswusf.); übernommene oder selbst entwickelte Produkte, die mehr schlecht als recht dahinvegetieren (Orkut, Chromebooks, Google Music, Google TV, Google Books, Chrome Store, usw.); das systematische Verschlechtern von guten Produkten (Beschneiden von Features, die nützlich waren; Aufblähen mit unnötigen Features; Verschlimmbesserungen im Design; Einführen von Beschränkungen; …);
Dazu kommt eine wirklich lange Reihe von gekillten kleineren Produkten aus der Labs-Serie und von gekillten kleineren Features. Bei vielen muss man da sagen: ok, das waren Experimente, die auch als solches deklariert waren, da geht auch manches schief, wird von den Usern nicht angenommen, verursacht zu viel Aufwand, etc. Aber es waren auch coole Dinge dabei, um die es schade ist und wo man sich doch wundern muss. Wer, wenn nicht Google, könnte sich auch Spielereien leisten?
Und es gibt eine Palette von mehr oder weniger indirekten Hinweisen dafür, dass etwas kracht: es gibt eine lange Liste von guten angeheuerten Leuten, die es nicht lange bei Google ausgehalten haben; das immer häufigere Auftreten als Politiker; die Zunahme von Lobbyismus; das Starten von Think Tanks; das Schalten von Werbung (omg), usw.
Aber bis vor kurzem hat das unser Verhältnis zu Google nicht wesentlich beschädigt, weil sie ein Phantasma aufrecht erhalten konnten: unseren Glauben an ihr Wissen. Viele Flops sind leicht zu erklären – hey, wir experimentieren halt viel herum -, aber auch die wirtschaftliche, politische oder charakterliche Kritik, ob im konkreten Fall berechtigt oder nicht, war unterm Strich egal, solange Google das Subjekt blieb, dem unser Wissen unterstellt werden konnte, weil ihr Kern – die Suche – intakt blieb.
Subject supposed to know
Im Gegensatz zu Facebook oder Twitter, besteht der eigentliche Wert von Google im Glauben der Welt an die Genialität von Google. Wir gehen zu Facebook oder Twitter, weil dort unsere Freunde Dinge posten. Aber wir gehen zu Google, weil wir glauben, dass sie wissen. Google war das paradigmatische lacansche subject supposed to know. Es war eine Black Box, die man Beliebiges fragen konnte, und die ohne grössere Umwege die richtigen Antwort lieferte. Auch wenn nicht immer alle Ergebnisse ‘richtig’ waren, sie waren noch immer richtiger als bei allen Anderen, und ein, zwei Verfeinerungen weiter hat man das Gewünschte gefunden.
Facebook oder Twitter andererseits mussten nie als ‘wissend’ angesehen werden, weil allen Usern auf Facebook oder Twitter klar ist, dass sie selbst diejenigen sind, die alles machen; Facebook variiert zwar ein bisschen, was im Hauptstrom zu sehen ist und was nicht, aber im Großen und Ganzen helfen sich die Leute selbst.
Mit Google+ und der Sozialisierung der Suchergebnisse macht sich Google nun nicht nur angreifbar, sie zersetzen die Ordnung des Imaginären selbst. Wenn sie neben dem Suchergebnis anmerken ‘weil der Autor 15.000 Follower auf G+ hat’ oder ‘weil das der und der Kontakt geshared haben’ schreiben, ich aber weiß, dass derjenige vom jeweiligen Thema keine Ahnung hat und besser nicht als Hauptreferenz zitiert werden sollte, und wenn das Ergebnis dann auch noch nicht gut ist, oder wenn Google Vermutungen über das, was ich wohl meine, in die Suchergebnisse hineinfakturiert und mir deshalb falsche Antworten auf Fragen liefert, die ich gar nicht hatte, dann bringen sie das Konzept ihrer eigenen Dummheit selbst auf den Tisch. Indem Google in der Suche das ehemalig Implizite explizit macht, macht es sich selbst kritisierbar, wenn die Interpretation nicht funktioniert. Und dann liegt auch der Schluss nahe, dass Google auch ansonsten nicht so besonders schlau ist.
(die neuen sozialen, lokalen, etc. signale sind ja vl. als signal unter anderen gar nicht schlecht, oder nicht schlechter als altmodische dinge wie pagerank; 20.000 circler sind wohl tatsächlich schwerer zu simulieren als der standard SEO shit, der dann auch kompetenz simulieren will. aber vorgeführt zu bekommen, welche bedeutung ihnen google plötzlich zuschreibt oder welche falsche wertigkeit google plötzlich unterstellt, ist irritierend, und gegen falsche grundannahmen ankämpfen zu müssen ist ärgerlich. es gibt wenig, was mich in letzter zeit mehr frustriert hat, als ihr ungefragtes anzeigen der ergebnisse vom ‘did you mean’ suchbegriff. liebes google: I did not.)
Wenn sie glauben, sie wissen besser was ich will, als ich selbst, aber sie lösen das nicht ein, dann wirken sie dumm.
Es gibt wohl eine Reihe von systemischen Problemfeldern, die für die zunehmende Tollpatschigkeit von Google verantwortlich sind. Hier die Top 7:
Selbstüberschätzung
Ich glaube die Selbstüberschätzung ist der zentrale Grund, warum Google so viel Mist macht. Es ist wohl nicht verwunderlich, dass sie von sich selbst viel halten. Aber Google hatte das notwendige Glück, zur richtigen Zeit am richtigen Ort zu sein und das Richtige zu tun. Die damalige Welt war bevölkert von Sauropoden, die sich primär für das Melken von Eyeballs interessierten. Google hat sie mit einer radikalen Ausrichtung am Kundennutzen ausgerottet, ihr Motto ‘don’t be evil’ war in diesem Kontext disruptiv.
Das bedeutet aber nicht, dass sie zu allen anderen Zeitpunkten und an allen anderen Orten auch das Richtige tun können. Die von ihnen gefundene Lizenz zum Gelddrucken verdeckt in der Tat eher ihre Unfähigkeiten zu späteren Zeitpunkten. Ihr Problem: Ihr gesamtes auf ‘Genialität’ und C-Code debuggende PhDs ausgerichtetes Mitarbeitergebilde und ihre ausschliesslich auf Messbarkeit basierten Entscheidungsprozesse lassen für sie keine andere Denkbarkeit zu.
Mit der Selbstüberschätzung verbunden ist eine partielle Realitätsverleugnung, die es ihnen verunmöglicht, einige Dinge realistisch zu sehen oder zu beurteilen. Die Tatsache, dass es ein soziales Web gibt und dass dieses soziale Web einen anderen König gewählt hat, haben sie jahrelang tatsächlich ausgeblendet, ähnlich wie Steve Ballmer jahrelang Apple ausgeblendet hat.
Aber auch die Möglichkeit, dass sie sich mit einer Einschätzung mal völlig irren können, kommt ihnen nicht so wirklich in den Sinn. Wenn sie aus der langen Geschichte ihrer Flops eines gelernt haben sollten, dann das. Aber nein, klappt was nicht, wird aktuell einfach die Zeitachse verschoben, die neue Trope (bei den Chrome Books, bei Google TV, bei Google+, etc.) lautet: wartet nur 6 Monate, dann seht ihr, wohin wir wollen. Ihr wisst nicht alles, was wir wissen. Wir haben einen Plan.
Die Selbstüberschätzung führt in letzter Zeit auch immer öfter zu einer Geste des our way or the highway – eine Krankheit, die sie u.a. mit Apple teilen. Aber während Apple dann häufig eine wirklich magische Erfahrung abliefert, wartet Google dann meistens mit Prototypen im Stile von Homer Simpson auf.
Lack of Leadership
It’s about caring enough to make an effort. If we define good enough sufficiently low, we’ll probably meet our standards. Caring involves raising that bar to the point where the team has to stretch.
Der Mangel an Führung äussert sich bei Google zumindest auf zwei Ebenen:
die erste ist projektbezogen. Es scheint viele Projekte zu geben, die einfach niemanden haben, der die Rolle des Gründers ausfüllt und das Projekt gegen widrige Umstände verteidigt. Zumindest nach der ersten Staffelübergabe fehlen alle Prozesse oder Mechanismen, um Projekte in der gebotenen Intensität weiterzuführen.
Und Google hat wohl auch ein Problem an der Spitze. Das ist zwar sehr spekulativ und basiert auf den Videos einiger Auftritte oder Gesprächsrunden mit Larry Page, aber mich dünkt, die Kommunikation geht eher in Richtung eines Titoismus, bei dem nach oben immer nur die gefälschten Erfolgszahlen durchgereicht werden. Man denke an die hochgepimpten Zahlen für Google+, die eher an die Erfüllung eines Fünfjahresplans erinnern.
(ich weiss nicht, ob larry page oder eric schmidt wissen, wie dünn und konzeptionell daneben G+ im vergleich zu facebook wirklich ist, beide haben wohl keinen der dienste wirklich benutzt; vielleicht wissen sie es ja auch und demonstrieren zweckoptimismus. aber so gute schauspieler sind sie glaub ich nicht.)
Mangel an Geschmack
Wenn Google was noch weniger kann als sozial, dann ist es Design. Es ist ihr Glück, dass der auf Speed fokussierte Minimalismus ihnen entgegen gekommen ist, weil man da einfach weniger falsch machen kann, aber das Design ist üblicherweise auf allen Ebenen (vom Layout bis zum sozialen Design) eine Katastrophe. Und schlimmer: es ist ihnen nicht bewusst, dass es eine Katastrophe ist. Bzw. noch schlimmer, die Katastrophe ist rekursiv: es ist ihnen ja bewusst, siehe das aktuelle globale Redesign, nur bleibt es ja auch unter der Bedingung der Katastrophenbewußtheit eine Katastrophe, und diese second order Katastrophe wird als solche wieder nicht erkannt. Geschmack kommt in ihrem Referenzsystem halt einfach nicht vor. Aber Geschmack wird immer wichtiger, weil Apple die Latte höher und höher hängt und das iPad und die iPad-Apps den Rest erledigen.
Trägheit
Wie langsam und träge der ganze Apparat Google mittlerweile geworden ist, sieht man etwa an der Pseudonymdebatte. Sie haben nicht weniger als 7 Monate gebraucht, um Pseudonyme – also doch ein Kampfthema – auf Google+ – also doch ihr aktuelles Kernprodukt – so irgendwie und immer noch unausgegoren zu unterstützen.
(immerhin verstehe ich jetzt die Motivation für ihr Pseudonymitätsverbot; ihr search plus your world SPYW Dings braucht soziale Richtigkeit, sonst funktioniert es nicht, weil man sonst eben diese aleatorischen Ergebnisse bekommt. Nur wirft das natürlich wieder die fundamentalere Frage nach ihrer Urteilskraft auf, weil sie wissen müssten, dass das Web so nicht funktioniert.)
Neid und Gier
Google ist überall dort gut, wo sie ihre ursprüngliche Mission verfolgen – das Wissen aufzubereiten und universell zugänglich zu machen. Die ersten Jahre haben sie sich auch darauf beschränkt.
Irgendwann haben sie aber damit begonnen, sich an anderen Firmen zu orientieren, die andere Wege gefunden haben, im Web Geld zu machen. Und auch wenn das dann mit ihrer Mission nichts zu tun hatte, wollten sie das dann auch haben. Was folgte ist eine lange Liste an Me-Too-Produkten, Flops und Facepalms (Twitter – Jaiku, Wikipedia – Knol, Yahoo Answers – Google Answers, iTunes – Google Music, Amazon – Google Books, Groupon – DailyDeal, Facebook – Google+, etc.).
Ein paar versuchte Klone, Schwamm drüber. Was aber bedenklich ist, ist die offensichtliche prozessuale Lernunfähigkeit von Google. Als hätten sie eine Zwangsstörung machen sie den gleichen Fehler immer wieder.
Damit komplementär verbunden ist auch eine fast schon skurrile Blindheit für das, was die oft offensichtlichen und für sie viel sinnvolleren Optionen oder Möglichkeiten betrifft. Nur ein Beispiel: Google Mini-Me
(übrigens nix gegen ihre diversifikation, aber sie sollte schlauer und weniger fatalistisch betrieben werden, sie sind ja oft bereit ein paar milliarden zu versenken, ab einem grenzwert ist es dann ja auch schon wieder egal usw.)
Infantilität
Gelegentlich blitzt auf, wie infantil Google im Kern eigentlich ist. Man hat das lange nicht gesehen, weil sie davor mit grundsätzlicheren Problemen beschäftigt waren.
Auch hier beginnt es mit der Verwässerung ihrer Mission, aus ‘die Informationen der Welt zugänglich und nützlich zu machen’ wird immer öfter der feuchte Traum eines Nerds: Der Computer soll mir das Denken abnehmen und das Leben vorhersagen. Was in den 60er Jahren die automatisierten Haushaltsroboter waren, ist seit 2010 die infantile KI von Google.
(Was mich hier stört ist nicht die KI / das ML, das ist superinteressant und birgt enormes Potential – vor allem für Google, die könnten ja aus dem vollen schöpfen -, sondern die von Google anvisierten Use Cases.)
Ein anderes Beispiel für die Infantilität sind die Gimmicks, die sich immer wieder einschleichen, etwa der Effekt beim Löschen eines Circles. Bei der Demo ist es cute und beim ersten Mal ist es lustig, dann wünscht man sich aber, dass sie doch mehr Energie ins allgemeine Handling der Circles gelegt hätten (das defacto unbrauchbar ist, was natürlich isoliert betrachtet Wurst, aber wegen der Bedeutung von Google+ für Google ein Irrsinn ist).
Ein weiteres Beispiel ist ihr ‘das kann ich auch’ Reflex; Google, ich glaub dir, dass du wie Bing das Hintergrundbild ändern kannst. Du musst das nicht am nächsten Tag in einer Hauruckaktion beweisen.
Oder auch die Catfights mit Facebook, siehe etwa reciprocity oder city of glass
Degeekification
Für mich persönlich eine der grössten Enttäuschungen ist, dass Google immer mehr auf die Geeks scheißt und Features nach rein buchhalterischen Kriterien bewertet.
Beispiel Offenheit: ja, da sind wir die allergrössten Fans von. Aber selbst sind wir nur dort offen, wo es uns passt. Ich mokiere hier gar nicht, dass sie die Kernalgorithmen nicht offenlegen oder einige Datenbanken nicht zum vollständigen Absaugen öffnen. Aber sie sind bei einer ganzen Reihe von Dingen nicht offen, bei denen sie es ohne Probleme für sich und mit Nutzen für andere sein könnten; sie offerieren fast nirgends RSS Feeds. Sie haben teilweise groteske Limits bei kleineren APIs. usw.
Beispiel Geekheit: mit dem internen und externen Geek Appeal schmücken sie sich ja gerne. Aber dann entfernen sie aus ihren Produkten genau die Features, die für Geeks interessant wären. Das ist doch traurig, weil man gerade von Google wie bei den Labs-Experimenten erhoffen könnte, dass sie sich auch Dinge, die halt nicht jeder verwendet, die aber die Spezialisten sehr schätzen, wertschätzen und kultivieren.
Nur am Rande gesagt: das Kultivieren von Features, die Geeks mögen, macht auch – gerade für Google – geschäftlichen Sinn, weil die dortigen Aktivitäten oft erst durchsickern, nachdem sie eine Zeit lang gegärt haben, die später aber das Salz in der Suppe werden, die Gesamtqualität erhöhen, die ein Indikator für Trends sind, der dann ein paar Jahre später der Mainstream wird, etc., aber das wäre Thema für einen eigenen Rant.
Wundermichkit
Eher devoha aber auch, um meine eigene Beurteilskraft zu testen: Die 6Wunderkinder haben jetzt ihr Wunderkit lanciert. Bin ich der einzige, der sich denkt hmm, kratz ? Über den Launch wurde auf breiter Front und durchgängig wohlwollend berichtet, die Zutaten stimmten natürlich (Seed-Finanzierung und $4.2M Runde noch vor dem Start, Auskoppelung Wunderlist ein Hit mit mehr als einer Million Usern, aus Berlin!, usw.) und die Seite ist (design-) technisch für deutsche Verhältnisse herausragend – aber die Idee von sozialer Produktivität ist ein klassisches Oxymoron, das kann eigentlich nicht gut gehen.
(ich finds ja grundsätzlich nicht schlecht, den komplex produktivität neu zu überdenken; aber bei wunderkit seh ich deutlich mehr probleme als durch das wunderkit offerierte neue möglichkeiten; dinge zu tun / widgets zu cranken ((c) david allen) ist per definitionem einsam; und auch der bereich kollaboration ist nicht eigentlich sozial, auch wenn mehrere daran beteiligt sind, sondern eher ein mechanismus der produktivitätssteigerung durch komplexitätsreduktion, wobei der jeweilige prozess die organisationstechnischen transaktionskosten zu minimieren versucht. und je nach vorgabe und komplexitätsgrad haben sich da tools und methoden mit gewisser effizienz etabliert (lose flottierende aber strukturierte koordinationskommunikation via yammer oder campfire oder auch skype, systematische taskskoordination via basecamp, etctrara); und es gibt probleme, die eine art verteilte und sich mehr oder weniger organisch formierende workforce erfordern (etwa open source projekte), aber auch die sind nicht eigentlich sozial und haben andererseits eine reihe von kommunikativen und technischen strukturen entwickelt, die wesentlich effizienter und effektiver sind (IRC, Bugtracker, Versionskontrollsysteme, etc.). ich fürchte auch, dass das wunderkit auf den ersten blick ganz nett ausschaut, aber nicht wirklich gut skaliert und schnell eine fürchterliche mess wird. was wiederum benutzungstechnische selbstdisziplin erfordert, die natürlich niemand hat. ich vermute also stark, dass die wunderlist ihr grosser hit bleiben wird.)
tl;dr: Wunderkit ist ein wunderhübsches Produktivitäts- und Prokrastinationstool für die Generation ADHD.
Leftovers 2011 (Logical Fallacy Edition)
Auch nicht (siehe die Filter) wirklich weitergekommen sind wir bei der logischen Konsistenz von Aussagen (bzw. aussageverkettungen).
(das tangiert jetzt natürlich nicht nur aussagen über das web, aber hier ist und bleibt es doch besonders schlimm; es gibt ja kaum einen text, der länger als 3 absätze ist, in dem kein non sequitur, keine willkürliche vermischung der ebenen oder logischen klassen oder ähnliches steckt etc.)
Leftovers 2011 (Stream Edition)
And again, the internet is not something you just dump something on. It’s not a truck. It’s a series of tubes. And if you don’t understand those tubes can be filled and if they are filled, when you put your message in, it gets in line and its going to be delayed by anyone that puts into that tube enormous amounts of material, enormous amounts of material.
Senator Ted Stevens zitiert nach Wired .
Was mir beim jahresausgänglichen infoökonomischen Anticluttern das erste Mal in dieser Klarheit aufgefallen ist und bevor ich es vergesse:
Der ganze Komplex Streaming – der ja doch einen nicht unbeträchtlichen Anteil am gesamten Webaktivitätskuchen hat, zumal ja das ganze Sharing ein Subset vom Streaming ist – basiert auf einer sehr einfachen Struktur:
- es gibt eine URL
- die mit einer Annotation versehen wird
- und durch einen Bewegungsimpuls in einem Kanal/einer Series of Tubes reaktualisiert wird.
Es gibt zwar ein paar Grenzfälle – die Annotation kann z.B. leer sein (etwa bei allen phatischen Gesten wie Likes), der Bewegungsimpuls kann z.B. ein chronisches Einfrieren sein (etwa beim klassischen antisozialen Bookmarking, bei dem man die URL quasi aus dem Strom reißt, wobei das wiederum Ausgangspunkt eines abgeleiteten Stroms werden kann), die URL kann nichtexistent sein (und wird etwa erst im Stromereignis erzeugt; ein Tweet ist z.B. eine Annotation zu seiner eigenen URL), usw. – aber unterm Strich sind die meisten Tools die wir so kennen und lieben nichts anderes als Maschinen zur Produktion, Rezeption und Distribution von solchen Stream-Ereignissen. Sie unterscheiden sich lediglich in der Art, wie die möglichen Unterscheidungen ausdifferenziert werden.
Fast alle Tools sind dabei Mischformen und bedienen unterschiedliche Ebenen und Aspekte der Produktion, Rezeption und Distribution gleichzeitig.
(zb: der google reader ist primär ein tool zur anzeige von feeds im volltext für einen selbst. feeds sind dabei die universellste normalform, auf die sich URLs dem strom zur verfügung stellen können. gleichzeitig offeriert der GR aber funktionen zur organisation der informationen für einen selbst – starring, tagging, search – und funktionen zum weiterströmen – send to und eben nicht mehr sharing, welches selbst einerseits im GR für das eigene netzwerk und falls public selbst als feed für alle offen war -.)
Die Tools können oder besser sollten sich nun einige Dinge überlegen (wie lange kann die Annotation sein, wie zeige ich den Inhalt der ursprünglichen URL an, welche Quellen lassen ich als Inputs zu, führe ich den Komplex privacy ein oder nicht, welche Formen lasse ich als Outputs zu, welche Features zur persönlichen Organisation der Informationen offeriere ich und wie, welche Features zur Redistribution offeriere ich und wie, welche Features zur sozialen Vernetzung offeriere ich und wie, welche Formen der Diskussion erögliche ich und wie, etc; man kann hier noch ein bisschen schürfen) aber unterm Strich tun sie nichts anderes, als mögliche Entscheidungen zum Handling von Strom-Ereignissen auszudifferenzieren und ihnen einen – thematischen, sozialen, haptischen – Kontext zu geben.
Mashup (DVG)
lese 'mashup' (und irgendwie hat mich schon lange kein buch mehr so frustriert; viele richtige aussagen und alles trotzdem leicht daneben)
— Markus Spath (@hackr) November 15, 2011
(nts: mich öfter selbst zitieren)
(weil ich damit angefangen habe… bin jetzt mit mashup durch und irgendwie hat sich an meinem ersten eindruck nichts geändert, ein bissl war für mich das lesen wie das anschauen einer episode von magnum, bei der die tonspur aber um eine sekunde verschoben ist. man merkt, dass alles wichtige dabei ist und dass das herz am rechten fleck sitzt, aber es fügt sich nicht ganz zusammen. nur ein paar punkte (rein konstatierend und ottomh): alles beweist für ihn alles (oder genauer: jede positive erwähnung irgendeiner art von kopie stärkt die positive konnotation jeder anderen art von kopie; wenn die tatsache, dass die kassiererin im supermarkt meine unterschrift als authentische kopie ihrer selbst erkennt, nicht beweis genug für die legitimiät des akts des zitatkopierens bei bands wie den gorillaz ist, dann weiss ich nicht was, usw). manchmal wirken die aussagen deshalb – obwohl nicht falsch – auch etwas willkürlich aneinandergereiht; über weite strecken bleibt er begrifflich unscharf (wobei zumindest eine klare und definierte eigene heuristik für die untschiedlichen begriffe (kopie, plagiat, mashup, remix, etc.) nützlich gewesen wäre, weil sich dann – und eigentlich auch nur dann – die konkret damit verbundenen kulturellen milieus, sozialen konstellationen, politisch-legalen kräfteverhältnisse etc. beschreiben und bewerten lassen*); formal versucht er ein bisschen zu emsig, auch wirklich jeden gedanken zu attribuieren, was einerseits natürlich lobenswert ist, andererseits aber in der zuordnung aleatorisch wirkt. teilweise führt das dann auch zu eigenwilligen erstzuschreibungen für aussagen (leseschreibweb, wie es lessig 2006 entdeckte, usw.); gleichzeit versucht er die autoren zu variieren, und auch das ist lobenswert, aber ein close-reading von masnick, doctorow oder auch weiss wäre teilweise ergiebiger gewesen; trotzdem liest es sich insgesamt gut und ist durchaus ein tipp)
* gerade das titelwort mashup hat ja - zumindest im musikalischen feld - eine sehr konkrete bedeutung und eine sehr spezifische form der künstlerischen wertschöpfung, die man beschreiben könnte (durch assoziation, historische kenntnis, timing der rekombination, etc.) und mit anderen kopie-basierten formen der kulturellen praxis vergleichen könnte, um vl. zu einer art vergleichenden kopierwissenschaft zu kommen oder so.
Reader- Pt. 3 The Golden Girls Edition
nur eine kleine #nts/beobachtung am rande, aber mit delicious und dem google reader wurden nicht nur zwei der drei tools kastriert, die in den letzten jahren meine internen infoflows am allermeisten bestimmt haben (das dritte wäre gmail), sondern mir auch bewusst, wie in die jahre gekommen nicht nur die tools (delicious und gmail verwende ich seit 2004, den reader seit 2005) sondern also eben auch meine daran gekoppelten infoflows eigentlich sind. es handelt sich bei allen dreien natürlich gwm. um vollkommene tools, die den benutzer jeweils einen primitiven datentypen (bookmarks, emails, feeds) mit tags organisieren und ansonsten auf die effizienteste weise prozessieren lassen, aber der grad meiner resistenz gegenüber allen moderneren formen wie facebook, tumblr, g+, den iphone-basierten dingen, sämtlichen varianten von im/chat etc. ist doch bedenklich (ausnahmen sind vl. teilweise twitter und friendfeed, beide aber auch schon aus 2007).
im grunde wird’s also ohnehin zeit, das ganze mal zu modernisieren, zumindest mal zu überdenken, aber das ist leichter gesagt als getan, weil ja nicht mal offensichtlich ist, was überhaupt das ziel / erwünschte ergebnis sein könnte; es knüpft natürlich teilweise an der nullpunkt reihe aus 2010 an, siehe besonders dem data clean aus pt. 2, nur sind die ströme selbst wieder ein ganz anderes biest, weil sie auf mehreren ebenen topographischen, zeitlichen und sozialen de- und reterritorialisierungen unterliegen usw.
Phänomen und Logik der Kreise
weitere minianmerkung zu google+, genauer gesagt ein viertes (siehe im namen des kreises und der kreis der gesellschaft und archäologie des kreises) bauchgefühl:
k) wenn ich mir so anschaue, wer mir folgt, dann hat google+ im grunde schon verschissen, weil der soziale graph nicht irgendwie organisch wächst, sondern jenseits von gut und böse wuchert. (mir kann ja gerne jeder folgen, und auch leute, die ich nicht kenne, aber in den meisten fällen kann ich dann doch so gar keine schnittmenge zu meinen interessen erkennen, was ich dann doch eher darauf zurückführe, dass denen selbst nicht so recht klar ist, warum sie mir folgen, i.g.s. verhalten sie sich wie refollow-spambots, allerdings ohne das zu sein, auf alle fälle sehr merkwürdig und auf keinen fall besonders gedeihlich für das zarte pflänzchen der sozialen beziehungen und das hat sich google mit der klarnamenspflicht dann wohl nicht gedacht etc.)
aber immerhin ist es ganz lustig, den quadranten des amerikanischen philosophen donald rumsfeld sozial zu paraphrasieren; there are known knowns, there are things we know we know (aka facebook, freunde die sich kennen); and there are known unknowns (aka twitter, unbekannte leute die wir aber kennen); but there are also unknown unknowns (aka google+). wenn man will ergänzt subjot den quadranten, als unknown knowns (unbekannte, deren output jedoch sofort vertraut wirkt.)
Archäologie des Kreises
weitere minianmerkung zu google+, genauer gesagt ein drittes (siehe im namen des kreises und der kreis der gesellschaft) bauchgefühl:
h) man spürt an allen ecken, dass eines fehlt, nämlich eine reifungsphase, während derer sich der dienst ausdifferenziert (funktionen durch die benutzer abgeklopft, besetzt und reinterpretiert werden, entwicklung einer grundkultur mit geteilten werten was gutes verhalten ist, vor allem natürlich etablierung des sozialen objektes). effekt ist ein viel zu schnell aufgeblasenes gebilde, das auf kulturell viel zu dünnen beinchen steht.
i) unter anderem kommt es deshalb viel zu früh zu einer goldgräberstimmung (verteilung der pfründe) und zu autoreferentiellen praktiken der popularitätssteigerung. am besten sieht man das an der art der tools, die sich rund um google+ entwickelt haben:
follower charts und directories (socialstatistics, plusalyzer, gpluscharts, circlecount, group.as, findpeopleonplus, recommendedusers)
get more followers und andere follower management tools (plusmeads, googleminus)
profileurl shortener, teilweise mit analytics (plusya, iplus.im, gplusid, goplus, plus.ly, topl.us, gplus.to, usw.)
crossposting tools (googleplustotwitter, gplussync, tweetmyplus, syyn.cc, plusto)
add me widgets (widgetsplus, google+ wordpress widget)
- nette/experimentelle/verspielte tools, wie es sie in der anfangszeit von den meisten anderen später dann populären plattformen gab, sucht man vergeblich (es sei dazugesagt, dass das teilweise am fehlen der API liegen kann; kennt man die ID kann man anscheinend ohne API am leichtesten die anzahl der followers scrapen).
j) gleichzeitig haben sie es geschafft, mit google+ nach google wave die zweite wirklich postmoderne webanwendung zu entwickeln. aber während google wave die logik des postmodernismus auf der technologischen ebene verankerte (siehe dazu wave runner), so bringt google+ die logik des postmodernismus quasi an die oberfläche des sozialen selbst (das verhalten basiert nicht auf einer auflösung eines modernistisch/traumatischen kerns, sondern ist ein selbstzitat von einem anderen dienst – twitter, facebook, tumblr, heise kommentarthread – und die aggregierte summe ein patchwork ohne dahinter usw.)
Der Kreis der Gesellschaft
weitere minianmerkung zu google+, genauer gesagt ein zweites (siehe) bauchgefühl:
d) das soziale design der kreise ist zwar patschert, hat aber den funken einer nicht uninteressanten phantastischen qualität (im sinne von todorov/polanski als riss in der realität / unsicherheit, ob man selbst oder die welt verrückt ist, man denke an repulsion, rosemary’s baby, usw.). was man sieht ist zwar für einen selbst selbstevident, korrespondiert aber mit keiner intersubjektiv teilbaren realität.
e) die facebooksche symmetrie der beziehungen ist sinnvoller, als ich vermutet hätte; ein kreis ‘freunde’ funktioniert nur dann, wenn mir die inkludierten zumindest auch folgen und idealerweise die zuordnung teilen. gerade bei den kreisarten, bei denen google gegenüber facebook punkten will, ist die reziprozität fast notwendig (und die nichtverifizierbarkeit von solchen i/o-circles fast ein dealbreaker).
f) für funktionale kreise hingegen ist die asymmetrie ein vorteil, allerdings muss man selbst die kreise mindestens in input-circles und output-circles trennen und also doppelt gemoppelt organisieren; was dann aber noch immer fehlt, wäre die möglichkeit beliebige o-c’s von anderen mit beliebigen eigenen i-c’s zu pipen.
g) überhaupt natürlich filter, und was ich mir hier wünschen würde (und was die sache wirklich gut machen würde) wäre die möglichkeit, sich selbst nach einem regelwerk die eigenen filter ‘programmieren’ zu können. das braucht nicht mehr als ein editor zu sein, mit dem man zu erfüllende kriterien UND verknüpfen und daran eine aktion binden kann. (aber absolut notwendig jedenfalls ist die möglichkeit bestimmte circles aus dem hauptstrom zu verbannen.) hier könnte sich google wirklich mal ausgeeken ohne es für die dummies zu komplizieren, wenn es allgemeintaugliche presets gibt.
Im Namen des Kreises
facebooker verhalten sich auf google+ sofort facebookesk (abt. google-)
— Markus Spath (@hackr) July 1, 2011
(nts: mich öfter selbst zitieren)
minianmerkung zu google+, genauer gesagt ein erstes bauchgefühl, weil ich mich damit noch nicht besonders lange herumgespielt habe, aber ich bin glaub ich nicht ganz so begeistert, wie einige andere, und here is why:
a) das soziale design ist ein bisschen patschert. auch wenn das verfolgen i.g.z. facebook asymmetrisch und also sehr webby ist (siehe asymmetric core), man also anderen folgen kann ohne dass sie zurückfolgen müssen etc., so ist diese asymmetrie i.g.z. twitter nicht nur asymmetrisch auf dieser ebene des verfolgens/empfangens, sondern auch asymmetrisch auf der ebene des sendens. und damit ist es vl. ein bisschen zu viel des guten, weil der raum ‘unvertraut’ definiert wird. der sender bläst die nachricht in einen trichter, den er für ein bündel von adressierten eingerichtet hat, und die empfänger bekommen die nachricht durch einen u.u. ganz anderen trichter, den sie für ein bündel von adressierern eingerichtet haben, aber zwischen sender und empfänger kommt es zu keiner kommunikativen verständigung über die art dieser trichter, zu keinem abgleich der erwartungshaltungen an diesen trichter usw. missverständnisse scheinen mir da vorprogrammiert.
(im grossen und ganzen haben sie sich an paul adams’ real life orientiert, ohne das aber im design abzubilden; der name des kreises ist geblieben, aber nicht die reziprozität des kreises im echten leben)
b) es fehlt mir (zumindest derzeit noch) die carlness, also der grund, warum es das eigentlich gibt (ausser dass google auch was mit social machen will), die wesenheit von google+, die das sharen auf eine spezifische und eigene art strukturiert (und die man auf allen populären plattformen spüren kann; der fehler von google war schon immer zu glauben, dass es ein sharen an sich gibt, während sich das sharen immer in dialektik mit dem jeweiligen ökosystem ausdifferenziert, man denke an facebook, twitter, tumblr, dem alten myspace usw.). mein strom kommt mir eher schizoid vor, in dem sinne, dass die meisten eine von einem anderen dienst bekannte praktik wiederholen, sich jeder dabei aber einen anderen dienst ausgesucht hat, viele facebook.
c) das ist zwar nicht besonders sozial, aber ich hasse das geschnatter von leuten, die ich nicht kenne, das aber in meinen strom gespült wird und das teilweise die idiosynkratischen nettigkeiten zum unangenehmen hin verstärkt. ich liebe den katzencontent von leuten, denen ich folge, aber ich kann auf die adhoc chats darüber verzichten. und es gibt keinen weg, das zu filtern.
ansonsten gibt es viele kleinigkeiten, siehe das piratepad [piratenpad.de/rhy6jRQBEf] von @chl, aber unterm strich ist es doch sehr super.
Apple Catch Up
wenn man sich so eine keynote von apple anschaut – die aufzeichnung ist jetzt übrigens online, die mitschrift hat engadget – dann hat man immer irgendwie so das gefühl, dass man gerade bei was ganz grossem dabei ist. aber einmal drüber geschlafen ist für mich von diesem gefühl weniger übrig geblieben, als ich vermutet hätte. (was ich gar nicht enttäuschend finde, nur halt nicht so spannend/disruptiv wie die iphone, ipad, ios, istores kombo, die tatsächlich ein neues zeitalter aufgespannt hat; diesmal hat sich apple eher auf das integrieren von an anderer stelle schon teilweise lange vorhandenen features beschränkt und an der einen oder anderen stelle etwas herumpoliert und die hausaufgaben mit einem sternchen gemacht; icloud – ja, ok, aber auch nur die eingezäuntere ausgabe von google apps plus dropbox; itunes match – oh, gar nicht teuer; ipads und iphones autonom – na endlich; safari reader und reading lists – nett aber dreiste kopie von instapaper und read it later; kontextsensitive reminders – nett aber dreiste kopie von rtm oder task ave; neues mail – duh, gmail anno 2004; notification center – nett aber kopie von android; versionskontrolle – eher eine zwangsbeglückung; auch die anderen features von lion eher verschlimmbesserungen für dummies als optimierungen für den minimalistischen poweruser, dafür mit 25 euro mehr als günstig; usw. die integration von twitter war vl. die grösste überraschung, wobei das eher ein coup für twitter war)
Jenseits von Gutt und Böse
(vis4)
noch eine minianmerkung zum guttenbergschen doktorarbeitsmashup (siehe) : ich hab mich lange gefragt, warum die causa guttenberg sooo einen nerv getroffen hat. ich mein, es ist ja nicht so, dass dabei ein grundsätzlich neues sentiment gegenüber der gattung politiker entdeckt wurde. die ganzen (zuerst rein charakterlichen, dann auch fachlichen) bewertungen seiner person waren ja weniger skandal über etwas undenkbares, sondern eher das anforderungsprofil eines postmodernen profipolitikers. (in diesem sinne verhalten sich die 80% der bild-leser deutlich kontemporärer als die restlichen 20%, die noch deuten wollen, werte suchen, sanktionen fordern, usw. die wertediskussion etwa musste an den bild-lesern abprallen, weil sie intuitiv wissen, dass es sich ohnehin nur um wertesimulationen handelt, dass es unter der oberfläche keinen aufzudeckenden dreck gibt, sondern eben rein gar nichts.) ich glaube das entscheidende an der geschichte war die unfassbarkeit der doktorarbeit selbst. ich hab mir gestern wieder einmal die vögel angeschaut, und das doktorarbeitsmashup steht den vögeln wenig nach und komprimiert die sache noch zu einem einzigen ding. beide reflektieren (pseudolacanisch gesagt) das eindringen des ausgeschlossenen realen in die symbolische ordnung, im fall vögel als eindringen eines exzessiven sexuellen begehrens in form eines schwarms, im fall mashup als eindringen eines exzessiven postpolitischen begehrens in form einer verdichtung. mit dem doktorarbeitsmashup bekamen wir gwm. die materialisierung einer gesamten politikgeschichtlichen epoche in die hand gelegt.
Q: Warum ist live.hackr so langweilig?
A: Weiss nicht genau, aber Marcel hat mit seinem Kommentar nicht ganz unrecht, ich sempere in letzter Zeit ganz schön herum, und während das Jammern natürlich ein Grundbedürfnis ist, so ist es doch bedenkenswert, wenn einen nicht nur das Gejammere der anderen nervt, das nervt natürlich immer und man erträgt es ja nur, weil man sonst auch den moralischen Anspruch auf sein eigenes Gejammer verliert, sondern wenn einen auch das eigene Herumjammern nervt, weil man sich dann nicht nur über das eigene Gejammere ärgert, sondern sich auch noch darüber, dass man sich darüber ärgern muss, metaärgert, usw. Ein guter Hinweis zum was da falsch läuft kommt von echovar mit seinem Übergang vom Schlaraffenland zur Unendlichkeit, den das Web gegangen ist, den ich mit meinen Rezeptions-, Denk-, Emphase-, etc.- Routinen nicht mitgegangen bin, was zunehmend zu diversen kognitiven Overheads führt etc.
Magischer Realismus
hmm, diese Radiergummidiskussion ist an mir irgendwie vorbeigerauscht, ich bin immer noch am Postprozessieren von 2 Wochen offline, was dann selbst zwei Wochen dauert also eigentlich ein wash ist, aber zum Glück bin ich doch noch drüber gestolpert, zum Glück deshalb, weil die Sache so seltsam/schräg ist, dass der Versuch der Emphase, wie man grundsätzlich jemals überhaupt auf so etwas (zaubertinte, die nach zwei jahren unsichtbar wird, das wird der exportschlager, ich schwöre) kommen kann, doch spannend ist.
Auf sachlicher Ebene gibt’s natürlich keine Nachvollziehbarkeit; wer weiss, wie man einen Screenshot macht oder wie man Textstellen kopiert, oder wer auch nur weiss, dass es grundsätzlich jedem möglich ist, Screenshots zu machen oder Textstellen zu kopieren, und das weiss wohl wirklich jeder, der weiss gleichzeitig, dass der Radiergummi eine reine Augenauswischerei ist und kein ernstgemeinter Vorschlag sein kann.
Aber wenn man sich anschaut, welche strukturfunktionalen Aufgaben Verbraucherschutz und Datenschutz – die zwei primären Protagonisten in den ganzen Diskussionen – haben, dann wird der Radiergummi plötzlich plausibel, und mit dem Radiergummi auch die ganzen anderen Debatten wie Street View, Stopschilder, Jugendmedienschutz, sehe-ich-mich-gezwungen, etc.
VS/DS sind politische Entitäten, die nach politischen Regeln spielen. Es ist nicht ihre Aufgabe Probleme pragmatisch zu lösen, sondern (im vorgeschobenen Auftrag der ‘Verbraucher’ oder ‘Benutzer’) Forderungen zu stellen, die in anschliessenden Verhandlungen mit den Forderungen anderer Parteien (üblicherweise diverser wirtschaftlicher Interessensgruppen) so lange aufgeweicht werden, bis man bei einem Kompromiss und/oder einer Regelung landet.
Man muss jetzt nicht besonders zynisch sein, um zu diagnostizieren, dass VS/DS kleine Würstchen sind, sobald ihre Anliegen mit konkreten wirtschaftlichen oder politischen Interessen kollidieren. Beispiel Verbraucherschutz: Die Machenschaften der Lebensmittelkonzerne werden (wenn es nicht gerade einen Giftskandal gibt) weitestgehend toleriert, bei allem, was man machen könnte, um die Gesundheit der Bevölkerung zu verbessern, beschränken sich die Forderungen auf die Font-Grösse, mit der der Grundpreis von Lebensmitteln pro 100g ausgezeichnet werden muss und ähnlichem. Beispiele Datenschutz: Der ist natürlich sakrosankt, ausser Verlage wollen mit Adressen handeln, dann bekommen sie ein Listenprivileg; ausser es geht um die Terrorbekämpfung, da braucht die US-Regierung natürlich Zugriff auf die Bankdaten; etc.
Die (vor allem: Selbst-) Bewertung der Protagonisten (Aigner beim Verbraucherschutz, Schaar beim Datenschutz) kann deshalb nicht durch Bewertung ihrer Aktionen in Relation zum tatsächlichen Erreichen gesellschaftlich wünschenswerter Ergebnisse erfolgen, sondern kann nur am Anteil / dem Batting Average der Durchsetzung der gestellten Forderungen (egal wie sinnvoll oder sinnlos sie sind) gemessen werden. Es ist also durchaus rational, möglichst viele möglichst sinnlose Forderungen zu stellen, besonders in Bereichen, in denen kaum organisierter Widerstand zu erwarten ist (gut für den Durchschnitt), oder wenn es sich um einen bekannten Gegner wie Google handelt (gut für den Ruhm).
Wir dürfen also mit mehr und mehr solcher Ideen rechnen, was die zweite gesellschaftliche Funktion von VS/DS erklärt: Die Forderungen entsprechen den automagisch getriggerten Zwangshandlungen von Neurotikern, mit denen sich die Gesellschaft quasi selbst versichern will, dass alles so bleibt, wie es nicht mehr ist.
Auf der anderen Seite sind so ziemlich alle (webbezogenen) Forderungen von VS/DS auch völlig egal; bzgl. der Selbstverantwortung kann (und sollte) man auf sich selbst viel besser schauen (und das meine ich nicht als ‘jeder soll selbst schauen wo er bleibt’); andererseits sind auch die tatsächlichen Auswirkungen von grösseren Dingen wie Street View ein Monat später abgehakt und unspürbar, die verpixelten Bilder selbst haben gerade mal noch eine anthropologische/touristische Qualität; und auch an die immer wieder vorgetragene Erzählung ‘das alles macht deutsche / europäische Startups wettbewerbsunfähig’ glaub ich nicht, deutsche Startups verhalten sich zu US-Startups wie Welke mit der heute-show zu Stewart mit der Daily Show, wie DSDS zu American Idol, etc; es kann durchaus die eine oder andere Leuchte geben, aber das Grundniveau ist um einige Klassen niedriger und es entstehen also ganz grundsätzlich nicht die Szenen und Wettbewerbsbedingungen, die systematisch Weltniveau erzeugen. Die Gefahr von VS/DS besteht also nicht so sehr in besonders schlimmen persönlichen Nachteilen, die Gefahr besteht eher in der schleichenden digitalen Emigration der einen – die es sich leisten können, denen das Internet wichtig ist – und der Provinzialisierung des Rests.
Flavor of the Day
RSS is quiet and fast and professional and largely hype-free. Perhaps that’s why it’s not the flavor of the day.
Seth Godin … zum gerade wieder keimenden rss ist tot, nein doch nicht kammerspiel.
(kl. datenpunkt am rande: techcrunch hat vor kurzem das momb verlinkt und der ausgelöste traffic hat sich mehr oder weniger paritätisch zwischen tc.com und google.com/reader verteilt, und das sagt zwar nichts über die gesamte leserschaft von tc aus und wie sie es liest (ich vermute doch stark, dass tc wesentlich mehr besucher und streunende leser auf der webseite als im gr hat), aber es sagt etwas über die sich auch aus tc raus- und weiterklickende leserschaft von tc aus, und zwar, dass diese tc zur hälfte im google reader liest; nochmal: jeder 2te proaktiv klickbegierdige leser von tc liest es im google reader. tc sieht das nicht in ihren stats, weil die nur das reinkommende messen, aber die hälfte ihrer strahlkraft nach aussen entsteht selbst aussen und zwar via rss.)
((bonuszitat meiner mutter:
für die einfach gestrickten ist immer nur das allerneueste fortschrittlich.
damit erklärt sich nicht nur die unsägliche rss-ist-tot trope, sondern auch das wer-bookmarked-denn-heute-noch? gedöns und vieles andere; feeds abonnieren und lesen bzw. (auch anti-) soziales bookmarking sind auf ihre art perfekte technologien, die aber ihren wert nur durch jeweils konkrete individuelle aktualisierungen erzeugen und erfahrbar machen; dieser dem jeweiligen individuum unmittelbar zugängliche weil eben selbsterzeugte wert ist halt im sensorium der socmed-crowd nicht wahrnehmbar, und irgendwie scheint es auch unter den (immer noch) aktiven selbst zu periodischen sinnkrisen und selbstzweifeln zu kommen, ist der strom nicht am ende doch viel besser/intensiver/weiter/etc.? aber zumindest den längenvergleichsbasierten krisen könnte man mit einer milchmädchenrechnung zum grundsätzlichen marktanteils begegnen, etwa (quantitativ): es gibt halt 100x mehr leute, die kurze nachrichten für freunde schreiben (twitter/fb), als leute, die längere texte für fremde schreiben (blogs); oder (qualitativ): ein link, das man nach dem durchprozessieren von 500 anderen links als speicherungswert für die eigene ewigkeit und also primär für sich selbst auserkiest (delicious), hat eine andere qualität und haltbarkeit (vor allem für einen selbst) als ein link, das im vorbeifahren und/oder während dem vorprozessieren mal schnell und aus den verschiedensten motivationen getwittert wird; bzw. das quantitiv umgeschrieben: es gibt halt viel mehr zeugs, in dem man suchen kann, als was man finden kann, uswusf.))
Der Knacks
delicious ist/war der letzte intelligenztest im web.
— Markus Spath (@hackr) December 17, 2010
(nts: mich öfter selbst zitieren)
also twittern die spatzen, dass yahoo zumindest in erwägung zieht, delicious zu killen. ich kann’s mir zwar wirklich nicht vorstellen, bzw. kann ich mir schon vorstellen, dass delicious intern mal auf einer von buchhaltern erstellten schwarzen liste landet, aber nicht, dass yahoo so dumm ist, nicht die dagegen aufzurechnenden (1) kosten für die sich damit vermasselnden gelegenheiten und (2) kosten des sich damit verbindenden sozialen unmuts zu sehen, wobei, ich kann es mir leider doch vorstellen, aber ich tu mal für mich selbst aus psychohygienischen gründen so, als ob nicht, und ich tu aber für diesen eintrag hier als doppelblöff so, als ob doch.
den tweet meine ich ernst, aber ich muss erklären warum:
delicious ermöglicht den knacks im kopf, der uns zu sozialen bürgern macht. wer delicious kapiert, der kapiert den radikalen shift des sozialen webs; der transformiert sich selbst, weil man sich selbst danach nicht mehr gleich denken und wahrnehmen kann, wie zuvor.
leider fehlt uns ein bisschen die terminologie, sozial/social kommt leider mit den verschiedensten bedeutungen und konnotationshöfen; die social media weichspülvariante – alles mit irgendeiner art von userbeteiligung – ist derzeit natürlich dominant, aber eben auch völlig wertlos; die orthodoxe web 2.0 variante – plattformen werden mit den benutzern zunehmend smarter und bekommen eine veränderte/sich beschleunigende funktionslogik etc. – ist zwar ein bisschen ergiebiger, aber eben auch rein technokratisch. wie so oft ist der (pseudo-) systemtheoretische ansatz am fruchtbarsten: sozial proper entsteht im sich verändernden gefüge, das dadurch entsteht, dass sich systeme gegenseitig beobachten und sich auch beim gegenseitigen beobachten gegenseitig beobachten. wer also etwas (wie ein link) publiziert, der weiss nicht nur, dass er dabei von anderen beobachtet wird (i.e. weil sie ihm folgen, weil sie dem tag folgen, etc.) und dass er dabei von der plattform ‘beobachtet’ wird (i.e. indem er die intensitäten und ströme mitgestaltet), sondern er weiss auch, dass die anderen (benutzer und plattform) wissen, dass er das weiss, und auch wissen, dass er weiss, dass sie das wissen. das soziale bewusstsein entsteht also in diesem wissen um die verflochtenen beobachtungen und den damit verbundenen möglichkeitsräumen. was natürlich vor allem bedeutet, dass man überhaupt nix weiss.
delicious ist deshalb so wichtig, weil es der einfachst mögliche und also paradigmatische dienst zur triggerung dieses knackses ist. natürlich kann man den knacks auch woanders haben, aber delicious ist dafür prädestiniert, weil es eine genuin egoistische motivation (ich speichere bookmarks für mich, mich, mich) in eine soziale Aktion verwandelt. und es ist auch deshalb dafür prädestiniert, weil die motivation für diesen übergang von egoistisch zu sozial selbst ‘rein’ ist, also keinen rattenschwanz an eigeninteressen mit sich bringt. (das stimmt so nicht ganz, aber mehr oder weniger).
(das in diesem sinne verstandene ‘sozial’ ist also grundsätzlich zu unterscheiden vom im social media sinne verstandene ‘sharing’.)
((ob und ggf. wie man dann delicious verwendet oder nicht ist eine gänzlich andere geschichte; der bereich social bookmarking hat sich weitestgehend ausdifferenziert und verschiedenste dienste bedienen verschiedenste bedürnisse und dispositionen, triggern verschiedenste dynamiken und eignen sich für verschiedenste situationen und/oder communities. aber wer delicious nur an den funktionen und features festmacht, oder nach einem open source klon schreit, oder glaubt, gezwitscherte links sind die nächste evolutionsstufe, etctrara, der hat nichts kapiert))
Am Ende der Wurst
Wenn man die Bedeutung vom Web wirklich verstehen will, muss man eigentlich nur einen Gedanken im Hinterkopf behalten:
Das Web ist ein System, das es anderen Systemen ermöglicht, füreinander Umwelt zu sein.
Mehr ist es nicht und das ist natürlich auch eine banale Beobachtung, aber in dieser Form hat es das noch nie gegeben. Natürlich war die ganze Welt auch vor dem Web nichts anderes als die Ausdifferenzierung von Systemen, die teilweise füreinander Umwelten waren. Aber die grundsätzliche Möglichkeit füreinander Umwelt zu sein war vor dem Web begrenzt. Mit dem Web ändert sich das, viel mehr Systeme können sich anderen Systemen viel leichter als Umwelt zur Verfügung stellen. Der Effekt ist eine zunehmende Komplexität der Ausdifferenzierung der Subsysteme und eine potenzierte Komplexität des Gesamtsystems.
Wenn man sich beim Beurteilen von Phänomenen kurz überlegt, was plötzlich mit wem kann, dann erklären sich oft sowohl die Auswirkungen als auch die Widerstände fast von selbst.
Eine einfache Unterscheidung, die man zur Beobachtung treffen kann, ist die Unterscheidung in menschliche und maschinelle Systeme und wie die sich durch das Web gegenseitig als Umwelt zur Verfügung stellen können und dann was Neues triggern. Trifft man diese Unterscheidung, dann gibt es drei Beziehungstypen (und ich beziehe mich dabei auf die Intention; natürlich ist auch die über das Web vermittelte Mensch zu Mensch Beziehung eben über das Web und also ein Bündel von Maschinen, über maschinelle Interfaces vermittelt. Das stört zunächst aber nicht. In genaueren Beschreibungen müsste man sich natürlich anschauen, inwieweit diese Vermittlung selbst wiederum Einfluss auf die Beziehung nimmt; und man könnte bzw. müsste natürlich auch die Systemtypen viel feiner differenzieren): Menschen für Menschen; Menschen für Maschinen und umgekehrt; und Maschinen für Maschinen.
(1) Menschen für Menschen
Dass potentiell jeder Mensch plötzlich Umwelt für jeden anderen Menschen sein kann, ist vielleicht die grösste Revolution. Waren davor die möglichen Beziehungformen beschränkt und durch verschiedene gesellschaftliche Formationen und Konstellationen vermittelt, reicht jetzt im Grunde ein Blog oder ein Twitter-Account, um etwa jeden interessierten Anderen an der eigenen Gedankenwelt teilhaben zu lassen.
Ich spare mir eine längere Ausführung und eine Auflistung der Formen (neben Text gibt’s Fotos und Videos und Musik, neben expliziten Signalen wie likes oder shares oder faves gibt’s implizite Signale, etctrara) – das was man unter social web zusammenfassen könnte ist hinreichend beschrieben und bekannt -, aber eine Anmerkung:
Facebook ist in diesem Sinne zwar verständlicherweise die meistbenutzte Plattform, weil es die Kommunikation unter Freunden vereinfacht und verbessert und wir natürlich mit unseren Freunden am meisten zu schnacken haben, aber Facebook ist genau wegen dieser Limitation auf die Freunde gleichzeitig auch die am wenigsten disruptive Plattform, weil es keine neuen Beziehungen fördert, die davor nicht möglich waren. Facebook ist eine inkrementelle Verbesserung der Kommunikation zwischen bestehenden Beziehungen, die zwar im Web stattfindet, die sich selbst aber nicht als Umwelt zur Verfügung stellt und also keine Anschlüsse ermöglicht – beobachtbar ist nur die stumpfe Tatsache der Quantität der Aktivitäten in der Blase Facebook via Referrer.
(2) Menschen für Maschinen
Aber Menschen koppeln sich nicht nur an andere Menschen, sie koppeln sich auch an Maschinen und die Maschinen koppeln sich an uns. (Maschinen verwende ich hier ganz lose und unpräzise – siehe oben – als Superset von Programmen, Diensten, Plattformen, Sensoren, Daten und Datenbanken, usw., die ans Internet angeschlossen sind.)
In dem Moment, in dem wir irgendwas publizieren, einen Dienst benutzen oder auch nur unschuldig herumsurfen oder irgendwas shoppen, in dem Moment also, indem wir uns implizit oder explizit als mögliche Umwelt zur Verfügung stellen, kommt eine Schar an Bots und indizieren es in Suchmaschinen, loggen die Daten zur weiteren Auswertung, registrieren Signale für irgendwelche Rankings, usw., und prozessieren das entsprechend ihrer Möglichkeiten. Gleichzeitig können wir die Möglichkeiten benutzen und weiterprozessieren, die uns Maschinen zur Verfügung stellen, und bei den zehntausenden Diensten hätten wir viel zu tun.
(3) Maschinen für Maschinen
Und natürlich koppeln sich auch Maschinen an Maschinen. Das paradigmatische Phänomen sind natürlich die Mashups – ein Computer schnappt sich verschiedene Daten von verschiedenen anderen Computern und Datenbanken und macht daraus was Neues.
Das Zauberwort dafür heisst API. APIs sind gwm. die Möglichkeit von Maschinen füreinander Umwelt zu sein.
Diese drei grundsätzlichen Beziehungstypen können dabei natürlich miteinander verschaltet und verkettet werden, der Output einer Beziehung kann immer als Input einer anderen Beziehung herangezogen werden, und dabei kann es auch zu Rückkoppelungen, Netzwerkeffekten, Beschleunigungen, etc. kommen.
Rivva z.B. macht die Outputs von Menschen (Blogs) zu seiner Umwelt, schnappt sich also Feeds und generiert nach einem Regelwerk einige Seiten, die sich Menschen wiederum zu ihrer Umwelt machen können, um sich zu informieren oder sonstiges. Rivva vermittelt also Beziehungen zwischen Menschen.
(An irgendeinem Ende der Wurst steckt natürlich immer ein Mensch, aber es ist sinnvoll, die Maschinensysteme getrennt zu behandeln, zumal Beziehungen mit menschlicher Beteiligung begrenzt sind und nicht skalieren und an den säugetierischen Körper gekoppelt bleiben, während Beziehungen unter Maschinen wunderbarst skalieren.)
Dabei wichtig ist: Es ist grundsätzlich offen wer was wie damit macht; mit einigen Dingen werden wir rechnen, mit anderen nicht. Und das bringt natürlich Menschen und Institutionen zum Auszucken, das muss geregelt werden.
Privacy kann etwa als der Versuch eines Systems, das was von ihm selbst von anderen Systemen wahrgenommen werden kann zu begrenzen und zu kontrollieren, beschrieben werden; Datenschutz als der Versuch der Regelmentierung, was andere Systeme mit Daten, die sie von einem System schon haben, machen dürfen (z.b. nicht verkaufen oder inkl. Namensnennung veröffentlichen); Copyright als der Versuch der Regelmentierung, welches andere System geschützte Inhalte (re)publizieren darf; etc.
Gleichzeitig bedeutet die Tatsache, dass es grundsätzlich möglich ist, füreinander Umwelt zu sein, nicht, dass sich Systeme auch tatsächlich als Umwelt verschalten und verketten. Jedes System bleibt letztendlich an die eigenen Unterscheidungen und die internen Ausdifferenzierungsmechanismen gebunden, jedes System muss mit der Komplexität und explodierenden Quantität der möglichen Umwelten auf eigene Weise klarkommen. Die Beschleunigung und Komplexität ist an die Grenzen der Wahrnehmbarkeit und den Grenzen der jewiligen Systemkomplexität gebunden.
Systemen steht es im Übrigen auch völlig frei, sich nicht an das Web zu koppeln oder sich dem Web nicht zur Verfügung zu stellen. Allerdings müssen sie damit rechnen, dass sich ihre eigene Umwelt ändert, weil die als Umwelt wahrgenommenen Systeme sich mit dem Web verbinden könnten und ggf. im Laufe der Zeit deshalb verändern könnten und wahrscheinlich auch verändern werden oder ohnehin schon verändert haben. (zeitungen z.b. täten nicht schlecht daran, das gedanklich durchzuspielen, bevor sie mit irgendeinem paywall blödsinn aufwarten – die umwelt hat sich nämlich schon verändert. waren zeitungen in der alten formation das ideale medium dafür, die öffentlichkeit zu informieren, und deshalb gesellschaftlich wertvoll und anerkannt, so degradieren sie sich selbst mit einer paywall zum newsletter, der nicht mehr die öffentlichkeit sondern nur noch eine bezahlende clientel informiert).
Ganz grundsätzlich muss sich jedenfalls jedes System zwei Fragen stellen:
(1) wie stelle ich mich anderen Systemen zur Verfügung? und
(2) welche anderen Systeme nehme ich selbst auf welche Art als Umwelt war?
Warum ich das eher unmotiviert lang und breit erwähne? Weil die aktuelle Aufregung, die WikiLeaks verursacht hat, damit nicht wirklich beschrieben werden kann, was wohl die Irritation rund um WikiLeaks erklärt:
WikiLeaks macht was Interessantes: Es macht System-Interna öffentlich und stellt sie als Umwelt zur Verfügung. WikiLeaks durchbricht die grundsätzliche Grenze, dass sich Systeme nur über eine – mehr oder weniger kontrolliert definierte – Oberfläche oder Haut und auf – mehr oder weniger – kontrollierte Weise zur Verfügung stellen.
Die Überschreitung von WikiLeaks besteht nicht im Aufdecken von Informationen. Einerseits gibt es ja wenig, was man Politikern nicht zutrauen und worüber man sich noch wundern würde, und kritischer Enthüllungsjournalismus, also die kritische Beobachtung von politischen, institutionellen, staatlichen, wirtschaftlichen, etc. Systemen, hat andererseits auch vor WikiLeaks auf geleakte Dokumente (und also Interna) zurückgegriffen, auf die Aussagen von Informanten vertraut.
Die Überschreitung besteht im Veröffentlichen eines unvermittelten Blicks auf die systeminternen Beschreibungen und Mechanismen, die Innereien, auf das obszöne Genießen einer Institution selbst.
Die Inhalte haben insgesamt wenig irritiert, aber die Obszönität des Blicks umso mehr, und dagegen greifen die üblichen Reaktionsmechanismen nicht (die im allgemeinen ja in einem sich-selbst-auf-die-eigene-schulter-klopfen bestehen; was sind wir für ein tolles land, bei uns könne leute protestieren und die presse kann im nachhinein auch über die lügengebilde und desinformationen berichten), in Ermangelung besserer Alternativen hilft nur sofortiges Abschalten und Hinschauverbot (Domain sperren, Amazon hostet nicht mehr, Spenden können nicht mehr via PayPal eingezahlt werden, die Library of Congress blockt, Studenten werden schon vor der Verwendung des Wortes WikiLeaks gewarnt, wenn sie einen staatlichen Job wollen, etc.)
Gleichzeitig ist die Frage ob das gut ist (Transparenz, Demokratie, yay!) oder schlecht (emisch: gesellschaftliche Ausdifferenzierungen brauchen abstrahierte Subsysteme, die Komplexitäten vorprozessieren und auch mal die dreckigen Jobs erledigen; etisch: erzwungene Offenlegung führt zu irrationalen Abwehrreaktionen und psychotischen Restrukturierungen) weniger einfach zu beantworten, als das im ersten Impuls vl. scheint. Bzw. stellt sich die Frage gut/böse so gar nicht, aber welche Frage stellt sich?
ReciprociCity
duh, Google besteht beim Zugriff auf die Kontaktdaten via der Contacts API fortan auf Reziprozität :
5.8. Google supports data portability. By accessing Content through the Contacts Data API or Portable Contacts API for use in your service or application, you are agreeing to enable your users to export their contacts data to other services or applications of their choice in a way that’s substantially as fast and easy as exporting such data from Google Contacts, subject to applicable laws.
Der Grund ist natürlich, dass sie sich denken: es kann doch nicht sein, dass Facebook sich unseren social graph einverleiben kann, aber wir nicht den von Facebook. Aber die Methode hat zwei Probleme:
(1) es geht sie nichts an. Es sind die Daten der User und wenn einer seine Kontakte in einen anderen Dienst importieren will, dann kann es nicht an Google liegen nein zu sagen, weil der andere Dienst nicht die gleiche Möglichkeit offeriert.
(2) und beunruhigender: Google erweist sich als erratisch. Bis dato konnte man Google mit etwas gutem Willen immer unterstellen, nach bestimmten Prinzipien und mit einer bestimmten Moral ausgestattet zu handeln. Dass ihnen dieses Handeln in der Folge auch immer selbst zugute kam, konnte als positiver Nebeneffekt beschrieben werden. Wenn sie aber beginnen diese Prinzipien dort zu verklausulieren, wo sie ihren unmittelbaren Vorteil plötzlich nicht mehr sehen oder um Druck auf einen Konkurrenten auszuüben (auch wenn das motiv nachvollziehbar ist), dann bedeutet das, dass man ihnen alles zutrauen kann. Das Problem also ist, dass ihnen das überhaupt in den Sinn kommt (bzw. dass sie in der Folge keine Mechanismen haben, dieses in den Sinn Gekommene (klar kann das einem Engineer, der am Google Me sitzt und sozialgraphische Allmachtsphantasien entwickelt, auch mal durch den Kopf gehen) zu verwerfen.)