Get Out
In writing his rebuttal, Dixon neatly encapsulates two pervasive attitudes amongst bloggers and advocates of social media.
The first of these is the knee-jerk impulse to defend social media against any attack, especially when it comes from someone who, as Dixon says of Gladwell “doesn’t seem to really use Twitter”.
…
Which leads to the second, and more dangerous, attitude those same fanatics share: a confusion between Means and End; the idea that saying something is the same as doing something.
Paul Carr über Chris Dixon über Malcolm Gladwell
(die ganze debatte leidet – wie so viele andere debatten auch – unter der vermischung von verschiedenen diskursebenen; etwaige kritik an aussagen über dinge wird gleichgesetzt mit einem ultimativen urteil über das jeweilige ding selbst; wer wie gladwell den kardinalfehler begeht, twitter und shirky im gleichen artikel zu unterstellen, dass twitter/social media einige eigenschaften vermissen lässt, die sich (nicht nur) im politischen aktivismus der 60er finden lassen, dann kann das nur bedeuten, dass der twitter nicht verstanden hat und wie sich damit (per definitionem irre starke) geschäftsbeziehungen entwickeln können; gladwell macht zwar den gleichen fehler, er zieht twitter in etwas hinein, womit es nichts zu tun hat, nur weil andere irgendwelche schwachmatigen heilsversprechungen daran knüpfen, aber unterm strich ist seine analyse zutreffend und dicht.)
((die zugrunde liegende trope ist natürlich das 1:1 mapping von den funktionssystemen bzw. deren beschreibung, die sich in ‘alten’ milieus herausgebildet haben, auf das sich gerade formierende ‘neue’ milieu, wobei die derzeitigen erzählungen auf beiden seiten der disposition (wtf?/yay!) von einem minderwertigkeitskomplex durchzogen scheinen; interessanterweise ist dieser das symptom vom umstand, dass alle genau das gegenteil von dem glauben, was sie sagen bzw. zu glauben glauben; im falle wtf?, weil sie selbst wirklich an die neue macht glauben, es aber nicht wahrhaben wollen und die alte bewahren wollen; im falle yay!, weil sie selbst in wirklichkeit noch nicht daran glauben und es deshalb mit einem neuer, besser, weiter übermalen müssen))
Ethische Rocker II Das Skandalon schlägt zurück
dunno, nicht nur mspro verrennt sich irgendwie, auch kusanowsky – und zwar in mspro…
(ich kann zwar sein problem mit mspro nachvollziehen, oder genauer: sein problem mit der diagnostizierten (mir ist nichts aufgefallen, aber das heisst nix) anschlussstattgefundenhabenheit, aber nicht, warum er sich darüber wundert. zwei lose anmerkungen: “Das Internet bricht diese Struktur nun horizontal herunter und mehr noch: die Prozesse zur Herstellung von Unterscheidungsroutinen, die Grade des Informiertseins beobachtbar machen, werden invisibilisiert” (davor waren sie in den selbstlegitimationsprozessen der massenmedien konstruiert) – ich würde eher sagen, dass sie radikal personalisiert werden. die sichtbarkeit bleibt also durchaus erhalten, nur verschiebt sie sich hin zur statistischen beobachtung der emergenten referenzstellen. “Für Peter Kruse sind solche Phänomene nur Erregungsmuster, aber den entscheidenden Ordnungsunterschied kann er nicht erklären. Dieser Unterschied ist im chaotischen Verfahren eben nur simulierbar, nicht dokumentierbar” – gerade andersrum: er ist nur noch dokumentierbar, und zwar als effekt der komplementären vervollständigung der simulation, bei der alle so tun als ob. interessanterweise kommt auch auf der ebene der simulation das skandalon manipulation der dokumentform zurück, allerdings als sein literaler geist, indem es sich in die performate selbst einschreibt. anschlussfähig ist vor allem das skandalon selbst. vor allem das deutsche web kann man mehr oder weniger vollständig als gigantische disseminationsmaschine für skandale/aufregungen beschreiben (man braucht sich ja nur die liste an bloggern anzuschauen, die lobo in seinem rant für erwähnenswert erachtet (wobei lobo und sixtus interessanterweise noch am ehesten dieser dynamik widerstehen, deren funktionslogik entspricht eher dem pop, indem sie den skandal selbst zumindest ironisieren (bzw. irokesieren))))
Meme Central
kleiner Nachtrag zu Negativer Dialekt … an dieser Konstellation lässt sich übrigens auch schön das Wesen der Meme beschreiben.
Auch Meme sind ja irgendwie in diesem Bereich des Imitierens verortet, aber Meme sind ein genuin anderes Biest.
Auch bei Memen gibt es dieses Element des Nachmachens, aber bei Memen geht es nicht darum, in der Nachahmung irgendein Ursprüngliches zu imitieren bzw. zu irgendeinem Ursprünglichen zurückzukommen, sondern darum, Serien von Verkettungen von Variationen einer Form zu etablieren.
Ein Meme bezieht sich dabei in seiner Variation nie auf das Original selbst, sondern immer schon auf die Möglichkeit der Verdoppelung als Variation. Insofern hat ein Meme auch keinen ‘Autor’. Es braucht natürlich ein Original (ein erstes photo einer katze mit text in lolcat drauf) und es braucht eine erste Variation als Variationsoriginal, aber erst die Variationen unter Bezug auf die Variierbarkeit innerhalb einer Serie anderer Variationen selbst machen die Angelegenheit zum Meme.
(gut funktionierende meme sind also sehr spezifisch in der form/dem format, aber völlig offen im inhalt)
Negativer Dialekt
When he does an accent I am not familiar with it sounds excellent because he’s doing it the way we’d do it ourselves.
But when when he does an accent I am familiar with the problems jump out.. and yet they are things I can’t quantify: it’s one of those ingrained things deep in the back of your mind where you just hear that something, somewhere, just isn’t quite right.
Kommentar zu dem kid does 24 accents Video und diese Beobachtung trifft auf sehr vieles zu – nachgemacht wird nicht das eigentliche Ding, sondern die anderen Nachmacher des Dings, und steckt man nicht drinnen, dann klingt das nachgemachte Nachgemachte richtiger als das nachgemachte Eigentliche und eigentlich sogar richtiger als das Eigentliche selbst.
(es gibt natürlich ausnahmen, etwa franz beckenbauer, der klingt beckenbauerischer als die besten beckenbauer-imitatoren, für den gilt der witz: er schaut aus wie franz beckenbauer und er klingt wie franz beckenbauer, aber lassen sie sich nicht täuschen, es ist franz beckenbauer)
Das gleiche Prinzip kennt man aber auch von Zeitungen, Zeitschriften, Personen, etc. Da hat man auch über weiteste Strecken das Gefühl eine gute Einschätzung zu bekommen (sag ich mal), bis sie über ein Thema schreiben über das man selbst mehr Ahnung hat, dann wirken die Ergüsse plötzlich völlig daneben, sie werden aber üblicherweise in der gleichen autoritativen Selbstverständlichkeit wie alles andere auch vorgetragen.
Die Schlussfolgerung ist natürlich, dass alles immer im Grunde falsch ist, es aber auch gut genug ist, um für die meisten Leute für die meisten Felder zu funktionieren.
Aber warum ich das hier erwähne: Mit einem Schlag wird plötzlich verständlich, warum der Großteil des (nicht nur massenmedialen) Beschreibungsdiskurses des Webs so gut funktioniert, obwohl er so dermaßen doof ist. Aber für die Schreiber ist das nicht doof, weil sie sich selbst nur auf der Ebene des nachgesagten Nachsagens bewegen und dort halt die üblichen Versatzstücke rekombinieren. Und für die Leser ist es auch nicht doof, weil eben die Ebene des nachgemachten Nachgemachten sogar richtiger klingt, als jeder Versuch das Eigentliche zu erklären oder Aussagen aus dem Eigentlichen selbst.
Und auch der ganze Komplex social media wird plötzlich verständlich, nämlich als kollektiver Übergang vom eigenen Dialekt (aka web 2.0) zum kollektiven Nachmachen der Nachmachung eines sich als kleinsten gemeinsamen Nenners herausgebildeten Basisdialekts, der gleichzeitig eine Art negative beckenbauerische Schließung (also die funktionslogik eines beckenbauers ohne dass es einen eigentlichen beckenbauer gibt) bewirkte.
(die teilnehmer selbst und die externen beobachter kommen auf der ebene des nachgemachten nachgemachten plötzlich zusammen; es schaut aus wie social media und es klingt wie social media, aber lassen sie sich nicht täuschen, es ist social media. die kosten der richtigen externen/etischen beschreibung waren also, dass die internen/emischen selbstbeschreibungen auf eine dünnere selbstsimulation reduziert wurden)
Angry Bees
hm, dieses hadopi ist jetzt also in frankreich seit dieser woche live, und wenn man torrent freak glauben kann, dann werden jetzt 10.000 und bald 150.000 IP-adressen täglich angefragt und dann nach dem three strikes motto weiter prozessiert.
eigentlich ist das ein interessantes sozio-politisches experiment: was passiert wenn
- man millionen jugendliche anpisst und diese also wütend auf die musikindustrie bzw. kulturindustrie macht;
- und man diese angepissten millionen von jugendlichen dann also auch wütend auf die verantwortlichen politiker bzw. den staat macht;
- und diese angepissten und wütenden jugendlichen dann gleichzeitig viel mehr zeit (die sie davor mit dem hören von geklauter musik, dem sehen von geklauten filmen, dem spielen von geklauten games oder im internet verbracht haben) und also viel weniger ablenkungen zur verfügung haben?
etwas allegorischer gefragt: was passiert, wenn man einen wilden bienenstock nimmt (die bienen haben nicht immer für ihren nektar bezahlt, aber sie haben fleissig bestäubt und auch honig abgeworfen) und am boden zerschmettert?
Hackröllchen
Apropos The Last Thing und Dezentralismus, Diaspora hat gestern die erste öffentliche Version vorgestellt, und während zwar noch nicht wirklich ersichtlich ist, was es dann in der ersten Vollausbaustufe konkret tun können wird, so gibt es wohl eine Art umgedrehtes Verhältnis zum dezentralisierten Ausgangspunkt aka Facebook. (während ein dezentrales twitter automatisch mit einer schwer zu stopfenden kulturellen lücke startet, spielt das bei einem dezentralen privaten sozialen netzwerk überhaupt keine rolle und die verbindungen sind automatisch dicht genug; andererseits hat ein dezentrales twitter ein evolutionspotential, es kann zu eigenen kulturellen ausdifferenzierungen kommen usw., diaspora hingegen bekommt wohl mittelfristig eher ein privacy-technisches komplexitätsproblem, weil die kette nur so stark ist, wie das schwächste glied etc.)
The Night of the Living Feeds
Schöner Satz zum RSS ist wieder einmal tot hubbub von Dave Winer:
I keep saying the same thing over and over, the Google Reader approach is wrong, it isn’t giving you what’s new — and that’s all that matters in news.
Succinctly put — news is about what’s new — and that’s it.
Die eigene Antwort auf die Frage, ob sich mit Twitter und Memetrackern die Technik des Abonnierens und Lesens von Feeds erübrigt hat oder nicht, hängt davon ab, für was man sich wie sehr interessiert (bzw. ob man sich überhaupt für etwas interessiert).
Interessiert man sich für die die Neuigkeit der Neuigkeit an sich, dann haben Feedreader tatsächlich ausgedient. Twitter ist da einfach der wesentlich effektivere Kanal, und die vollständige Anschlusskommunikation findet auf Twitter selbst (durch wiederholung der nachricht mit eigenem senf, durch retweets) statt. Was dabei neuigkeitswertig ist, ist systemeigenrichtig (um bolz zu paraphrasieren) – ist eine Nachricht neuwertig, dann findet sie mich automagisch indem ich den Strom einschalte; was mich nicht findet, kann es per definitionem nicht sein, sonst würde es ja im neuigkeitsrelevanten Zeitfenster von [die letzten 10 min, in de die letzten 10h] auftauchen. Zur Lückenfüllung am Abend noch Techmeme und passt.
Interessiert man sich aber für etwas (ein thema, eine person, etc.) selbst, dann sind und bleiben Feedreader die beste Technik, um dieses Interesse zu vertiefen.
Die erste Disposition führt als Organisationsstruktur zu einem (hypereffektiven, postmodernen) Schwarm, die zweite zu mehr oder weniger einsamen (existentialistischen, modernen) Individuen, die im Levy Flight herumkrebsen.
Ich mag beide Formen, was mich aber zunehmend nervt ist der latente Nihilismus des Schwarms. Es reicht ihm nicht der Wille zur Macht (unter den kollektiv geführten aber singulär repräsentierten regimen von facebook, twitter, 4chan, etc.), öfter als nicht ist damit auch eine Lust am Zerstören aller anderen Formen verbunden (können wir bitte RSS und das damit verbundene schuldgefühl der unread items endlich beerdigen und uns alle auf twitter einigen? nochmal winer: You don’t have to hunt around to find the newest stuff. And it doesn’t waste your time by telling you how many unread items you have. Who cares.
; können wir bitte endlich einen schlussstrich unter gedruckte bücher und zeitungen ziehen und uns auf das (strahlende) ipad und wenn’s sein muss den (hässlichen) kindle konzentrieren? etc.)
Check-in Your Head
was ich derzeit am komplex location am interessantesten finde ist, dass sich an der entwicklung die logik von social media in reinkultur beobachten lässt.
location ist natürlich ein thema, das sicherlich wichtig werden wird. einfach deshalb, weil der ort in vielen situationen ein wichtiger kontext ist und man also unter berücksichtigung dieses kontexts was sehr nützliches damit anstellen könnte.
schaut man sich aber die neueren dienste rund um location – foursquare, gowalla, brightkite, facebook places, usw. – an, dann ist deren entwicklung nicht davon getrieben, dieses eventuell sehr nützliche zu entdecken, sondern ausschliesslich davon, so schnell wie möglich soviele user wie möglich heranzukarren (die chance zum fundierenden viral loop gibts nur einmal, die zweiten fressen die hunde). sie bieten keinen wieauchimmergearteten nutzen an, sondern verwenden jeden möglichen trick aus dem game mechanics handbuch, um check-ins als leere signifikanten in einem sozialen raum zirkulieren zu lassen. virale virealität sozusagen, das soziale objekt check-in wird zum bedeutungslosen sozialen macguffin, das aber das system am laufen hält.1
der einzige konkrete nutzen liegt in der vermarktbarkeit. check dich ein monat lang jeden tag bei starbucks ein und bekomme einen cookie gratis, etc. aber während nichts gegen eine selbstgewählte satie’sche regelmässigkeit der lebensgestaltung spricht, ist eine anpassung, nur um an irgendwelche freebies oder badges zu kommen, natürlich völlig schwachsinnig. (die relation der massenmedien (wir produzieren zeug und verkaufen die aufmerksamkeit/eyeballs an die werbetreibenden) wird zur relation der sozialen medien (user machen was auf unserer plattform und wir verkaufen die möglichkeit zur aufgedrängten ‘konversation’ mit ihnen an die werbetreibenden)).
auch die berichterstattung über die services beschränkt sich im grunde darauf, das wachstum zu beobachten/zu feiern. die leere stört nicht weiter, die bewertung der dienste erfolgt auf basis der geschwindigkeit, mit der sich neue user anmelden, oder auf basis der anzahl an check-ins. die frage nach der nützlichkeit eines dienstes stellt sich nicht, die frage ist, welcher dienst wohl der gewinner wird und alle anderen killed. interessanterweise wird die abstrakte logik von social media durchaus gerne mitgedacht, entweder als begründung für den erfolg des gerade führenden dienstes oder als gute tipps für schwächelnde dienste, bevor man sie dann endlich abschreiben kann.
(das paradoxe am bejubeln des wachstums ist ja, dass je mehr es wächst, desto grösser die frustration zu werden scheint, dass es nicht noch viel schneller wächst. omg, twitter schickt nur 1/4 der referrals von facebook zu den gawker properties; hier ist der plan, den sie befolgen müssen, damit sie endlich auch den mainstream erreichen, etc. und dass es zu einer art verachtung von allem anderen kommt, idealerweise begleitet von einem grabgesang (etwa vom bloggen, man denke nur an vox, man braucht sich ja nur die stats anschauen, alles ausser tumblr ist im freien fall, bloggen ist überhaupt eigentlich nicht besonders sozial , etc.))
((firmen sehen diese entwicklung sicher nicht ungern. hatte man davor mit einer amorphen masse zu tun, gibts jetzt einige stellen, auf die man sich konzentrieren kann. ein bisschen sentiment analysis auf facebook und twitter und man bekommt hinreichend differenzierte kennzahlen und kann seine interventionen planen; aber das ist natürlich auch ein pyrrhussieg, weil man sich einerseits die möglichkeiten aller alternativen verbaut, und weil man andererseits keinen wettbewerbsvorteil hat, weil alle anderen ja das gleiche tun können, bis es zu einer übersättigung kommt und dann gar nichts mehr funktioniert))
das wäre natürlich alles völlig wurscht, wenn es parallel dazu eine ‘gesunde’ ausdifferenzierung in diesem bereich (also den social media kernfeldern; in anderen bereichen funktioniert die ausdiffernzierung zumindest hinreichend gut genug) gäbe. aber die gibt es nicht, bzw. immer seltener. die gründer selbst haben die funktionslogik verinnerlicht, spätestens nach der ersten finanzierungsrunde wird der letzte funke ‘idee’ ausgetrieben und die ‘dummen’ kriterien in das eigene angebot injiziert und der eigene dienst in bezug auf den möglichen marktanteil hin restrukturiert. man denke etwa an die autodekonstruktion von digg, auch bei twitter werden erste symptome ersichtlich.
(mir fällt kein anderer bereich ein, der sich selbst so stark subordiniert. pop von der stange hin oder her, kein musikjournalist würde auch nur auf die idee kommen, innerhalb eines genres den weniger erfolgreichen acts nahezulegen, wie die erfolgreicheren zu klingen; und kein fan hat ein problem mit seinem eigenen geschmack, der ist per definitionem eigenrichtig, die distinktionsgewinne entstehen ja gerade durch die abweichung vom mainstream und dann innerhalb des eigenen clusters; der vergleich hinkt natürlich, aber man kann sich leicht als gedankenspiel durchdenken, was der social media diskurs zu spielen, sport, essen, etctrara sagen würde, bzw. welche effekte das hätte, wenn sich diese bereiche dann daran hielten.)
aber ich schweife ab. die sozial mediale autopoiesis von location ist jedenfalls faszinierend.
1 natürlich ist der datentyp check-in offen, hackbar und also nicht völlig sinnlos, es spricht ja nichts dagegen, es etwa als dokumentation des eigenen situationistischen streunens zu verwenden, etc. nur wird das halt nicht von den tools nahegelegt oder gefördert.
Das Konversumistische Manifest
eine Art Standortbestimmung zur postinformationellen Gesellschaft, die sich aus sozialen Daten speist, von Andreas ‘AAL Prinzip’ Weigend.
(bin mir nicht sicher, warum das bei mir so einen nachgeschmack hinterlässt, es ist glaub ich die kompakteste (business-lastige) zusammenfassung von social data, über die ich bisher gestolpert bin, die ‘die macht liegt jetzt beim konsumenten’ plattitüden stören kaum; ich glaub es ist das gleiche, was mich auch bei kruse stört, dass nämlich der subtext das gegenteil von dem ist, was er eigentlich sagt (kruse ist ja weniger ein sympathisant der entwicklungen, sondern eher ein seher im asterixschen sinn, der also den menschen im web zwar eine gewaltige macht zuspricht, aber nur als partikel eines sich in kreisenden erregungen aufschachtelnden unwetters, das sich dann in unvorhersehbaren donnern und blitzen auf die alten strukturen entlädt usw.))
Die große Enttäuschung
#nts: hab während der sichtung meines buchbestandes einige bücher in eine wiedermaldurchblättern queue gestellt und hab gestern und heute snow crash (92), data trash (94) und netzkritik, materialien zur internet-debatte (97) gescannt, und während das schon ein paar monde her ist, der blick zurück ist nicht unwitzig, weil es tatsächlich so was wie einen politisierten diskurs gegeben hat, der mit dem heutigen gebabbel nicht vergleichbar ist, der einzig darunter leidet, dass sich keine der metaphern (cyberspace als virtueller raum für dematerialisierte körper, information superhighway, virtual worlds/classes, ..) dann als relevant beweisen konnten und es im grunde einfach anders gekommen ist (dabei ganz witzig, dass der linke und autonome diskurs von anfang an die entwicklungen eher mit skepsis beobachtet hat, weil ausgerechnet der rechte diskurs sich einige traditionelle linke konzepte auf das internet zurechtgemappt und umkodiert hat (postmoderner lingo wird zur kalifornischen ideologie, technischer fortschritt dient automagisch dem staat (überwachungstechnologien, ..) und/oder dem freien markt (biotech, …) und/oder den telcos und medienkonzernen (we will like totally rock the cyberspace), ..), was den linken diskurs auf eine seltsame position des befürchtens festnagelte. gleichzeitig haben sie den gegner und seine kommende macht so hoch phantasiert, dass nur aktivismus, sabotage der netze, symbolische interventionen, usw. als handlungsspielraum blieb (teilweise auch retrospektiv nett, hakim bey etwa befürchtete eine klassengesellschaft, weil sich die wenigsten die teuren vr-ausrüstungen und datenhandschuhe leisten werden können; teilweise auch ein bisschen zu gut gemeint: was soll daran gut sein, wenn informationen frei zugänglich sind? wir wissen alle, dass informationen und wissen nichts anderes als mittel eines herrschaftsapparates sind, den gilt es also an der wurzel zu bekämpfen; unterm strich wurde das baby jedenfalls mit dem grundsätzlichen antikapitalismus ausgeschüttet).
Follownomics
nach twitter bekommt jetzt auch buzz verfolgungsempfehlungen.
bei beiden ist offensichtlich warum (erhöhung der netzwerkdichte etc.), aber beide lösen damit nicht das eigentliche problem, nämlich einen effizienten verfolgungsmarkt zu ermöglichen. das paradox der ansätze ist, dass die effizienz umso mehr abnimmt, je besser die empfehlungsalgorithmen werden.
wer rational infoökonomisch folgt, der wird so lange neuen leuten folgen, solange deren nutzen (gute links oder gedanken etc.) grösser als deren kosten (zeit, die man mit dem durchklicken oder lesen oder überlesen verbringt) ist.
empfehlungsalgorithmen haben nun zwei offensichtliche möglichkeiten: sie empfehlen entweder auf basis des social graphs (viele deiner freunde folgen auch xy, die populärsten von deinen freunden verfolgten sind yz, etc.) oder auf basis von einem vermeintlichen interesse (dich interessieren ja lolcats, beliebte lolcats buzzer sind xyz).
folgt man aber allen, denen auch die freunde folgen, dann folgen irgendwann alle den gleichen in verfolgungsclustern und das system verliert die filter- und aggregierungsleistung auf kosten des mehraufwands für alle – ich muss aber eben gerade nicht allen folgen, weil andere ihnen folgen und für mich die rosinen retweeten o.ä.; und folgt man leuten mit gleichen interessen, dann nimmt die redundanz der geposteten infos zunehmend zu – auf sozialer ebene ist die dysfunktionalität ja quasi eingebaut: je mehr man sich für ein thema interessiert, desto weniger interessant werden alle anderen, die sich für das gleiche interessieren.
informativer sind nach dem in jedem fall nützlichen grundrauschen also eher die, die komplementäre und kompatible interessen haben, die also einen bereich abdecken, für den man sich peripher interessiert. und genau die kann ein empfehlungssystem nicht vorschlagen, die muss man für sich selbst entdecken.
das ist natürlich alles sehr simplifiziert dargestellt, auch redundanz ist informativ (beobachtung welche themen aufgegriffen werden, wie sie aufgegriffen werden, usw.) und infoökonomische effizienz ist auf twitter oder buzz auch nicht unbedingt das anzustrebende ziel, etc., aber der effekt von gepushten aber ineffizienten empfehlungssystemen mit dem hauptziel verbindungen zu vermehren ist eine inflation der beziehungen.
Die Grenzen deiner Fassade bedeuten die Grenzen deiner Welt
kleine anmerkung zur sommerlochserregung google street view: irgendwie ist die ganze diskussion ein wunderbares symptom der gesellschaft, das tiefer geht, als es die üblichen hinweise auf politischen populismus, mangelnde internetkompetenz der bevölkerung oder allgemeine technologische rückständigkeit andeuten. das stimmt zwar natürlich alles, aber im grunde stellt google street view eine grundsätzlichere frage:
was passiert, wenn die kosten der informationsbeschaffung, wie es an jedem beliebigen ort ausschaut, gegen null gehen?
wie man diese frage beantwortet, ist weniger ausdruck eines technologieverständnisses (bei wenig verständnis: um himmels willen, nicht mit mir! was denn noch?; bei fortgeschrittenem verständnis: awesome, lovin’ it) sondern viel mehr ausdruck eines genuinen systemvertrauens.
wie bei vielen anderen bereichen auch verändert das internet das ökonomische gefüge von märkten, indem es die transaktionskosten eliminiert. es entstehen neue formen des verhaltens und neue geschäftsmodelle, die davor wirtschaftlich nicht sinnvoll waren. was man von google street view hält, ist also weitestgehend geframed von der eigenen vorstellungskraft, welche auswirkungen das mögliche neue verhalten anderer auf das system und einen selbst haben könnte.
nun gibt es natürlich ein breites spektrum an möglichen neuen verhaltensformen. das beginnt beim browsen in der eigenen geschichte (wie schaut’s jetzt aus in meinem geburtsort, gibt’s das zuckerlgeschäft noch, …), geht über hunderte denkbare fälle einer pragmatischen informationsbeschaffung, die einem dabei helfen kann, eine fundiertere (kauf-, ausgeh-, reise-, miet-, …) entscheidung zu treffen, und endet bei panzerknackerbanden, die sich auf die suche nach geeigneten tatorten machen.
welche der neuen möglichkeiten man als bewertungsrelevant selektiert, ist ein ausdruck der eigenen disposition und hängt vom vertrauen in alle anderen und in das system ab. anders als etwa beim datenschutz, wo es – auch wenn die diskussion hysterisch und uninformiert geführt wird – dennoch um das echte problem geht, was passiert, wenn einzelne private unternehmen sehr sehr viele mitunter auch personen konkret zuordenbare daten sammeln, geht es bei der street view ja primär darum, was andere menschen damit machen könnten. und hier liegt der eigentliche knackpunkt: ganz offensichtlich haben grösste teile der medien und politik ein sehr geringes vertrauen in die bevölkerung und das system. die ängstlichkeit zieht sich als grundhaltung durch die abgegebenen statements, wer weiss, was die leute nicht alles damit anstellen könnten, aber sicher nichts gutes.
Schwarzfahren in der Aufmerksamkeitsökonomie
kathrin passig über schwarzfahren in der aufmerksamkeitsökonomie [waren 2 artikel auf buzz, beide tot]
dunno. grundsätzlich bin ich bei ihr (problem: es gibt leute, die verbringen jeden tag stunden damit, hunderte blogs zu scannen und die rosinen herauszupicken und im google reader und also meistens auch auf buzz zu sharen, und dann kommen andere daher und resharen das ohne attribution; das ist aber nicht nur unhöflich, sondern verschweigt die leistung des ursprünglichen jäger und sammlers und hat negative auswirkungen auf das gesamte system der aufmerksamkeitsökonomie. ihre lösung: auch im google reader und oder auf buzz in der notiz die fundstelle vermerken, auf twitter funktioniert das ja auch).
aber es gibt auf mehreren ebenen kosten und probleme.
was tut man, wenn man über ein shared item aus einen feed stolpert, den man selbst abonniert hat?
ab wann greift die sharungshöhe? verdient man attribution, wenn man artikel aus blogs wie techcrunch, boing boing, kottke, etc. shared, die jeder ohnehin kennt? oder wenn man ökonomischerweise die top-news bei techmeme oder rivva wiederholt?
wie weit soll die quellenforschung gehen, wenn man sich aus einem aggregator wie hacker news bedient, die sich selbst wiederum aus den sammelleistungen der dortigen user befüllen? greift ein via hacker news dann nicht zu kurz und müsste man da dann nicht auch dem ursprünglichen poster bei hacker news tribut zollen?
was tut man, wenn einen artikel mehrere leute geshared haben? der erste, wo man darüber stolpert, ist zwar der, auf dem man es halt selbst gefunden hat, alle anderen sieht man aber erst danach, sie haben es aber vor dem dann attributierten geshared. noch komplizierter wird das, wenn der, bei dem man es selbst gefunden hat und bei dem man sich bedankt, es selbst nur von einem anderen gereshared hat, also gwm. die attributions-früchte völlig unverdient erntet.
es ist ein bruch im flow. die aussage ‘Auch bei Twitter und in Blogs spart es Zeit und Arbeit, Quellenangaben wegzulassen. Und doch machen sich die meisten die Mühe.’ stimmt zwar, aber auf twitter oder im blog ist man beim verfassen schon im schreib-modus, hängt die attribution also nur an; im google reader müsste man den texteingabemodus erst starten.
es stimmt das gesamtbild des outputs nicht, die attribution bekommt bei shared items mit note den prominentesten platz.
ich sehe auch die gefahr der belohnung des falschen verhaltens. in dem moment, wo man irgendwas ernten kann (in dem fall also vias und thanks und gefunden beis) sharen die leute nicht mehr nur aus der intention des sharens heraus, sondern wollen auch vias und thanks und gefunden beis zählen und sammeln; es könnte/dürfte/würde wohl also das über-sharen fördern, ‘je mehr ich share, desto grösser die wahrscheinlichkeit, dass ein anderer sich dann bei mir bedankt, right?’ genau das aber widerspricht der ursprünglichen intention, die aufwändige filterleistung zu belohnen, die ja vor allem im auslassen besteht.
ein paar der ableitbaren argumente/konsequenzen sind stärker als andere (das mit der optik: so what…), aber unterm strich sehe ich keine verallgemeinbare handlungsanweisung für sharepolitisch korrektes verhalten im google reader, das nicht gegen die dynamik der von der plattform nahegelegten benutzungsformen schwimmen muss (kathrins form ist sehr spezifisch, da sie ohnehin annotiert geht das via auch schneller und stört gleichzeitig weniger) und den kognitiven overhead in überschaubaren grenzen hält.
my take:
geshared wird vieles und auf vielen plattformen. einige der plattformen eignen sich besser für eine vertikale integration der angabe der quellen und zur quellenforschung als andere. auf einigen plattformen geht es zb. ausschliesslich um das anhäufen von attributionen vom geshareten (etwa digg, man kennt die dysfunktionalen konsequenzen). auf anderen geht es überhaupt nicht darum (etwa delicious) – aber auch auf diesen entwickeln die netten spieler gelegentlich praktiken der attribution (auf delicious etwa via:xxx tags). playing nicely mit den anderen ist im allgemeinen nicht nur gut für das infoökonomische gesamtsystem, sondern üblicherweise auch vorteilhaft für einen selbst (alle beobachten alle und die muster, wie man sich verhält, werden einem nicht nur zugeschrieben, sondern wirken lange nach). wie sich das playing nicely aber am besten manifestiert, muss sich auf den jeweiligen plattformen jeweils konkret ausdifferenzieren – und das tut es üblicherweise auch. es wird sich aber nichts durchsetzen, was gegen den vibe der plattform läuft oder was zuviel overhead erzeugt. was nicht heisst, dass man sich da nichts überlegen sollte und dann mit gutem beispiel voranschreitet. auf geht’s, der goaß nach. was aber auch nicht heisst, dass das dann so ausschauen muss, wie es auf anderen seiten funktioniert (per item attribution funktioniert im GR imho nicht, was aber andere formen nicht ausschliesst usw.)
Cows Revisited
(abt. tag der kurzkritik der langkritik…) miriam meckel hingegen ist in ihrem text über die tragik der digitalen allmende auf einem sehr eigentümlichen trip: sie skizziert ein schirrmacher-kompatibles infoökonomisches desaster (wobei sie in ihrer apokalyptik nicht unwitzig ist: “Milliarden von Papieren mit Nachrichten flögen durch die Luft und verdunkelten den Himmel, ein ohrenbetäubender Krach aus Musikfiles und Youtube Videos dröhnte über den Platz, vom Rasen wäre ob der unzähligen in den Boden gestampften Werbeplakate längst nichts mehr zu sehen” usw.), nennt gleichzeitig aber auch alle gegenmittel, führt beide stränge aber nicht zusammen und bleibt beim pessimistischen bild. (das internet ist für sie eine weide, deren endlosigkeit zu einer masslosigkeit der produzenten führen wird, die uns mit ihren inhalten und werbebotschaften zuscheissen, was die sicherungen unserer aufmerksamkeiten zum durchbrennen bringen wird, weswegen wir uns dann in ein disneyland zurückziehen werden und damit die chance zum guten verpassen.)
ihr fehler ist, die aufmerksamkeit der konsumenten als das gefährdete und zerstörbare gut zu betrachten (“Für den Tausch der Informationen in der virtuellen Welt gibt es eine zentrale Währung, die durch diesen Prozess inflationiert und damit entwertet wird: Aufmerksamkeit” usw.). aber unsere aufmerksamkeit ist zwar ein knappes – aber eben nicht zu zerstörendes gut (im schlimmsten fall kann uns unnötiges zeug für jeweils fünf sekunden belästigen, und auch das kann mit entsprechenden tools und techniken weitestgehend minimiert werden), ihr wert nimmt also mehr und mehr zu, je mehr und mehr zeug um sie buhlt, und wir können selbstbestimmt mit ihr umgehen und uns für uns massgeschneiderte info-pakete schnüren. nicht die weiden werden zerstört, sondern die kühe sind nichts mehr wert. wenn es also eine tragik der virtuellen commons gibt, dann besteht sie nicht darin, dass wir im datenmüll ersticken, sondern darin, dass wir einige perlen nicht entdecken (aber auch das hängt noch am bild der vollständigkeit und/oder maximierung; in den meisten fällen reicht etwas selbstsystemirritation völlig aus). die kosten tragen jedenfalls die produzenten, nicht – wie bei den analogen commons – die allgemeinheit.
Wave Runner
doch noch ein kleiner nachtrag zu R.I.P. Wave … es war doch ganz lustig die kollektive sinnstiftung zu verfolgen, die die frage ‘warum musste es sterben?’ beantworten und also symbolisch verdaulich machen wollte. wirklich überzeugend fand ich dabei keine, deshalb noch mein senf:
der fast immer genannte grund: people didn’t get it. war sicher ein faktor, aber kein ausschlaggebender. natürlich gibt es immer leute, die irgendwas einfach nicht getten, man denke nur an twitter, das ding bei wave aber ist eher, dass die leute schon verstanden haben, was bei wave zu getten ist, dass das aber für sie einfach nicht nützlich war. wave war ein tool zur zusammenarbeit in echtzeit, und das braucht man halt nur dann, wenn man gerade mit anderen an irgendwas zusammenarbeiten muss und besonders eine echtzeit-komponente dabei wirklich unheimlich nützlich wäre (was schätzomativ auf 0,03% aller aktivitäten im web zutrifft; ein google wave for farmville würde diesen prozentsatz wohl deutlich erhöhen).
zum grundsätzlichen verstehen von wave braucht man nicht drei tage, man braucht 30 – 60 minuten, aber wenn man es grundsätzlich nicht braucht, dann wird wave durch das verständnis auch nicht verstandener. (viele scheinen das verstehen, dass es für sie nichts zu verstehen gibt, als nichtverstehen zu interpretieren).
aber das war ja auch nicht das eigentliche problem von google wave. 0,03% aller aktivitäten wären auch noch ein riesiger markt, wenn auch nicht für techblogger und die social media crowd, die user und follower zählen und möglichen einfluss abschätzen wollen. das problem von wave war, dass es auch für die, die es verstanden haben UND die dafür einen bedarf an so etwas hätten, einfach keine gute lösung war. nicht weil es nichts konnte, sondern weil es zuviel zugleich wollte und nichts wirklich gut löste.
(wer die folge ‘oh brother, where art thou?’ der simpsons kennt (die, bei der homer seinen bruder, den autofabrikanten, kennenlernt): wave war das äquivalent zu ‘the homer’ – dem von homer in freier featuritis entworfenen auto, das den bruder dann in den ruin trieb)
—
etwas abstrahiert war der fehler von wave, dass es zu viele grenzen vermischte. (ich bin da derzeit durch meine aufräumaktion vl. ein bisschen übersensibel, aber klare grenzen sind in einigen bereichen extrem nützlich). unter anderen:
- funktionelle grenzen
wave war gleichzeitig chat, kollaboratives schreiben, sharing von dokumenten und über plugins was-nicht-alles. aber jede dieser funktionen wird einzeln schon von anderen diensten gut gelöst. wenn man chatten will, dann gibt es skype und IM und campfire; wenn man kollaborativ schreiben will, dann gibt es google docs und etherpad und writeboard; wenn man abstimmen will, dann gibt es dutzende vote widgets; etc. alle tools sind einzeln schärfer, mitunter weil sie ihre grenze haben und darin bleiben.
- soziale grenzen
eine der doofsten entscheidungen dürfte gewesen sein, dass sie wave einerseits nach dem gestreuten einladungsprinzip (first come, first serve) vergeben haben, dass sie andererseits (wie bei google buzz) das adressbuch laut gmail als primäre kontaktliste herangezogen haben. ersteres hat dazu geführt, dass leute im erstkontakt kaum kollegen vorfanden, mit denen sie wave projektbezogen auschecken konnten (retrospektiv offensichtlich: sie hätten es für blöcke von google apps usern freischalten sollen); zweiteres hat mitunter zu einem völlig unnötigen rauschen geführt (andere konnten einen ja nach freiem gutdünken zu beliebigen waves hinzufügen; das war besonders nervend, weil:)
- leben/tod grenze
bis vor wenigen wochen gab es in wave keine möglichkeit, eine wave zu löschen oder auch nur endgültig aus der sichtbarkeit zu verbannen. diese unfähigkeit zu sterben war vl. die massivste überschreitung (auch wenn es vom prinzip ja nicht uninteressant ist, total recall, night of the living dead, usw.). die vorstellung etwas in den mülleimer zu ziehen, und dann ist es aus dem blick, und den mülleimer zu entleeren, und dann ist es endgültig weg, ist für viele dinge essentiell. schneller chat und alles andere, was man nicht mit dem gefühl ‘das mach ist jetzt für die ewigkeit’ angeht, und eigentlich auch das nicht, weil man einmal drüber geschlafen die sache wieder ganz anders sieht, etc., wird dadurch fast ausgeschlossen.
- zeit grenze
neben der ausdehnung der zeitlichkeit in die ewigkeit hat wave gleichzeitig die zeitlichkeit zur gleichzeitigkeit komprimiert. aber abgesehen vom wow effekt (oh, da ändert einer, der in australien sitzt, das dokument oben und ich sehe es und ändere es unten und dann machen wir kleine klickspielchen und übersetzt wird es auch noch) stellt sich das schnell als extrem irritierendes feature heraus, weil man sich nicht auf das schreiben konzentriert, sondern auf das, was der andere treibt.
- intelligibilitäts grenze
waves laufen schnell aus dem limit. waves mit 20+ chatfreudigen members sind in kürzester zeit völlig sinnlos. das portionieren von informationseinheiten ist natürlich bei vielen formen so eine sache, aber der mix aus den verschiedenen datentypen macht aus waves schnell einen eintopf.
—
das tragikomische an wave ist ja, dass sie ein problem des verhaltens (zusammenarbeit im webzeitalter ist primär ein verhaltensproblem) mit technischen mitteln lösen wollten, dass sie dabei aber ein tool erschaffen haben, dass nur bei extremster verhaltensdisziplin in einem idealtypischen umfeld wirklich nützlich ist. das komiktragische ist, dass wave jetzt in die organe zerlegt und als lebender toter in anderen projekten weiterleben wird.
trotz der genannten fehler war wave ja wirklich ein faszinierendes stück software, das neben den grundeigenschaften ja noch eine ganze welt an technischem subtext angedacht hat (robots rejoice, über die wave bots wären ja die erstaunlichsten integrationen mit anderen systemen möglich gewesen). wave war also, wenn man so will, die erste wirklich postmoderne webanwendung. es gab nichts zu verstehen, keinen modernistisch/traumatischen kern, der durch interpretation eingeordnet und zugänglich gemacht werden konnte (beispiel wieder twitter). wave war ein sich selbst zitierendes, bladerunnereskes patchwork aus funktionszitaten (chat, editor, messaging, …) und technikzitaten (federation protokol over xmpp, open social, robot http protocol, …). im grunde wurden wir in wave zu deckards, die in dieser welt dann herumtappen mussten, und wenn wir genauer hinschauten feststellen konnten, dass sich das gesamte gewebe des realen unter unseren füssen auflöst und als artifizielles konstrukt entpuppt.
(abt. postmodernism, the cultural logic of late googlicism)
Huh?
Beim Lesen des Feuilletons und beim Betrachten der Diskussionen mit Feuilletonisten im Fernsehen stellt sich (wenn es um das Thema Web geht) unweigerlich die Frage: Warum tun sich Intellektuelle mit dem Web so schwer?
Man möchte glauben, dass zumindest grosse Teile ob des offensichtlichen Potentials frohlocken (die Möglichkeiten! für einen selbst!! für die Zusammenarbeit!!! für die Gesellschaft!!!!), aber nein, ohne Übertreibung sind fast alle Ergüsse pseudokritischer gequirrlter Bockmist oder Themenverfehlungen, diplomatischer formuliert. Aber warum nur?
These: Intellektuelle tun sich mit dem Web deshalb so schwer, weil sie intuitiv spüren, dass sie dem Web egal sind.
—
Exkurs: Was tun Intellektuelle?
Hobby-soziologisch betrachtet produzieren und engagieren sie sich in Diskursen, mit denen sie auf dem Sprachmarkt Distinktionsgewinne erzielen, die sie in der Folge an verschiedenen institutionellen oder wirtschaftlichen Positionen einlösen können (siehe dazu das Gesamtwerk von Pierre Bourdieu).
Damit das funktioniert, müssen sie natürlich einen gewissen Systemnutzen (oder zumindest eine vom System angenommene Systemnutzensimulation) stiften, z.b. in Form von Irritation oder Vermittlung (Professoren, Journalisten, Kritiker, ..). Ihre Aktivitäten müssen also einerseits differenzierter (zumindest komplizierter) als der durchschnittliche Hausverstand sein (sonst wären sie überflüssig), gleichzeitig müssen sie aber anschlusskommunikabel sein (sonst würden sie nicht angenommen).
—
Vor und in das Web gestellt befinden sich Intellektuelle nun vor einem Dilemma: Es ist so gut wie unmöglich, (von außen) Aussagen über das Web zu formulieren, die (innen) beide Kriterien erfüllen (weltweit gibt es vl. eine Handvoll Leuten, denen das gelingt; die Wahrscheinlichkeit, dass der Hausundhofintellektuelle der lokalen Tageszeitung da dabei ist, geht gegen null).
Ein Grund dafür ist, dass das Web eher – ja was eigentlich? – ist. Die Analogie stimmt zwar nicht ganz, aber auf gewisse Weise entspricht das Web der Funktionslogik der Sprache. Um (mit anderen) sprechen zu können, muss man sich der symbolischen Ordnung der Sprache ‘unterwerfen’. Die Sprache definiert in der Folge den grundsätzlichen Möglichkeitsraum des Sagbaren, aber nicht, was gesagt wird. Und auch das Web spannt einen neuen Möglichkeitsraum auf, definiert aber auch wiederum nicht, was daraus gemacht wird. (systemtheoretisch ist das web kein system, sondern eine art umwelt-öl, das es anderen systemen ermöglicht, sich als umwelten wahrzunehmen und sich also auf neue art zu interpenetrieren; unterm strich: alles interpenetriert alles). Das Web ist zwar an sich trivial, aber das durch Praxis realisierbare Potential ist natürlich gewaltig.
Ich glaube zwar nicht, dass es grundsätzlich unmöglich ist, einen adäquaten Diskurs über das Web zu führen ohne daran teilzunehmen, aber ein halbwegs entwickeltes Gespür kann man wohl nur durch Partizipation bekommen. (adäquat bedeutet natürlich nicht, möglichst viele positive aussagen zu sammeln, die sind fast immer noch blöder als die negativen; adäquat bedeutet auch nicht ‘richtig’). Aber teilnehmende Beobachtung meiden – zumindest die deutschen Intellektuellen – aus irgendeinem Grund wie den Beelzebub.
Wenn die meisten Intellektuellen vom Web blabbern, führen sie also keinen Diskurs über das Web, sondern einen Diskurs über ihre eigenen Aussagen (und gelegentlich über genauso irrelevante zitate von ‘protagonisten’) über das Web. Keiner versucht zu verstehen ‘what’s going on?’ und schon gar keiner versucht seinen Denkraum durch Teilnahme zu erweitern, stattdessen werden einige etablierte Erzählungen in einer Auslaufrille wiederholt und notdürftig auf das eigene Thema gemappt.
Das ist zwar ein durchaus rationales Verhalten, siehe oben, Distinktionsgewinne sind damit aber nur ausserhalb des Webs möglich (einfach deshalb, weil der großteil ihrer aussagen von jedem im web als ganz offensichtlicher blödsinn wahrgenommen werden). Was bleibt ist also die Rolle des konfirmativen Beschützers von Feldern, die im Web (oft nicht zu unrecht) eine Verunsicherung/Erschütterung vermuten. Damit erweisen sie ihrer Klientel zwar einen Bärendienst, reproduzieren aber natürlich ihre Existenzgrundlage.
Wie vglw. einfach es wäre, ihre Distinktionsgewinne auch in das Web zu übertragen, zeigt uns der Fall Peter Kruse. Auch Kruse ist eher ein Zaungast im Web, aber er erfüllt die zwei oben erwähnten Kriterien (background hirnforschung als vertrauensbildende einleitung, ein bisschen jargon aus der netzwerktheorie (grundrauschen, kopplungsdichte, kreisende erregungen, …) also differenzierter als der hausverstand; anschlusskommunikabel, weil er das web positiv besetzt (angriff auf die etablierten machtstrukturen, das ist / ihre alle seid realität und das wird nur noch mehr, …)).
Flat und Flattr
die frage warum flattr und (ein bissl weniger aber auch) kachingle vor allem in deutschland einen so fruchtbaren boden findet ist irgendwie nicht uninteressant. ich tippe fast auf einen einfluss der protestantischen ethik (rastloses bloggen soll nicht unbelohnt bleiben) die in flattr blogmonetarisierungstechnisch die erste form gefunden hat, die durch alle anderen ablehnungs- und kritikfilter durchgerutscht ist und den latenten wunsch nach ent- aber auch nach belohnung zumindest als geste befriedigt.
im grunde kann man auch sagen why not, aber was glaub ich übersehen wird sind die symbolischen kosten.
mspro hat das in der gebotenen länge thematisiert (nach mauss – geschenke sind ein trickreiches soziales konstrukt, weil sie den beschenkten in eine art schuld setzt, die aber nicht durch ein gegengeschenk zum tausch neutralsiert werden kann), aber er kommt bzgl. flattr imo exakt zum falschen schluss:
Flattr berücksichtigt sowohl die Asynchronität der Gabe und die Unmöglichkeit ihrer Rückerstattung, als auch die Freiwilligkeit und Freizügigkeit des Schenkens. Flattrn ist anonym, der Geflattrte weiß nicht, von wem er beschenkt wird, was das Flattern widerum zum echten Geschenk macht. … Flattrn ist kein Zurückgeben, aber auch keine Spende. Es ist wie Bloggen ein freies Schenken. Es bietet eine Gabeninfrastruktur die einer Spiegelung der Gabeninfrastruktur von Blogs nahe kommt.
genau das gegenteil ist der fall. flattr etabliert – wenn man die ohnehin eher problematische grundannahme von blogs als geschenke schluckt – eine infrastruktur, mit der leser ihre ‘schuld’ auf die leichtest mögliche art neutralisieren können (klick auf einen button, abbuchung von 2 oder 5 cent). die anonymität ist in dieser konstellation irrelevant, weil der leser das psychohygienisch für sich selbst tut. es ist aber kein freies schenken, der blogger nämlich bietet durch das einbinden des flattr-buttons das tauschgeschäft an und der leser nimmt es an.
die tatsache des einbindens des buttons selbst ändert also die beziehung, ein davor offener bzw. unbestimmterer raum (in dem sich die anschlusskommunikation ans gebloggte quasi frei ausdifferenzieren muss) wird strukturiert und etabliert ein verhältnis zwischen (content-)produzenten und (content-)konsumenten und unter den konsumenten die flattrnden und alle anderen, die durch diese unterscheidung zu ‘free ridern’ werden. (und wem mein letzter erguss keine 5c wert ist, auf den kann ich auch verzichten usw.)
(pragmatisch betrachtet ist das alles natürlich egal, vl. bringt es auch eine art spielerisches moment in die sache; für formen die eher dienstleistungen sind ist es vl. sogar eine funktionierende möglichkeit)
No Thanks
Der Google Reader bekommt html5-Support und einen not interested Button bei recommended items.
(leichter wird dadurch die sache nicht, weil man natürlich nicht unschuldig dahinliken oder disliken kann, sondern immer auch den algorithmus irgendwie miteinkalkulieren muss (zeigt er mir mehr und mehr lolcats, nur weil ich fast nur lolcats like, wobei mein lolcat inputstrom die ideale quantität hat und ich sicher nicht mehr will? zeigt er mir am ende weniger lolcats, nur weil ich einige mit einem dislike versehe? usw.) im grunde brauchen wir nicht personaliserte items, sondern personalisierte (oder besser: personalisierbare) personalisierungs-algorithmen)
Social Objects vs. Object Socials
eigentlich spannend… wir befinden uns derzeit vl. gerade im übergang von social objects zu object socials.
there is always an object
die theorie der social objects – in a nutshell – besagt, dass es zwischen subjekten keine ‘natürlichen’ beziehungen gibt, sondern dass eine beziehung immer via eines objekts vermittelt wird. es gibt keinen (meister-) social graph, sondern fluktuierende ensembles an partial-graphen, die sich durch den austausch von objekten ausdifferenzieren.
facebook stellt diese logik aber auf den kopf. um engeström zu paraphrasieren:
there is always a subject
die objekte sind nicht länger nur die mittel, um subjekte miteinander zu verbinden, das ganze system wird objekt-zentrisch. auch im entstehenden open graph (der objekte) gibt es zwischen den objekten keine ‘natürlichen’ beziehungen (wie es zb. noch die semantic web crowd via ontologien, rdf, microformats, etc. glauben konnte), sondern die beziehungen zwischen objekten werden immer via eines subjekts vermittelt. anders als beim social graph wird aus den zunächst fluktuierenden ensembles an partial-graphen aber wohl tatsächlich so was wie ein (meister-) object graph. die subjekte selbst werden jedenfalls nur zum mittel, das objekte verbindet.
(dabei ganz witzig: die ‘asoziale’ grundannahme der social objects führt zu einem sozialen system; die ‘soziale’ grundannahme der object socials führt zu einem postsozialen system)
Das unsichtbare Dritte
photo credit: wikimedia
Facebook ist, das wissen wir alle, das Böse unter der Sonne.
Frage: na und‽
Der Touch of Evil von Facebook liegt, kommt mir vor, nicht in einer radikalen Bösheit – was machen die Leute? sie tauschen sich aus, sharen, spielen Farmville -, sondern in der Fähigkeit, alle anderen von dieser Bösheit besessen (im sinne von um diese bösheit herumzuobsessieren) zu machen.
Das Problem mit Facebook ist also nicht Facebook, sondern die Dummheit des Restwebs im Zumsichselbstfinden unter den Bedingungen von Facebook. Facebook hat einerseits die Messlatte für die meisten Beobachter (Blogger, Gründer, VCs) so verschoben, dass nichts anderes mehr sichtbar ist (ein dienst mit 50.000 usern, roflmao, facebook hat 10.000 mal soviel). Und andererseits treibt es das ‘offene’ Web in diesen vor kurzem beschriebenen antisynthetischen Reaktionsstrudel. Offen bedeutet immer seltener intensivierend/molekular und immer öfter verdoppelnd/molar aber halt offen.