Stream Studies

  • Sharegorischer Imperativ
    Share so, dass die Maxime deines Sharens Grundlage einer allgemeinen Strombildung werden kann.
  • 299,999
    Since October 7, 2005 you have read a total of 299,999 items
  • Leftovers 2012 (Mist Edition)
    auch nicht wirklich weitergekommen bin ich 2012 jedenfalls mit der Eindämmung der Ausdehnung der (vor allem digitalen) Klein- und Kleinstspuren, die ich (wie jeder andere auch) so hinterlasse.
  • Lazy Startup Ep. 10
    Plattform zur Vermittlung von infoökonomischen Vorkostern.
  • Lazy Startup Ep. 5
    Plattform, die es ermöglicht, Ströme (Tweets, RSS-Feeds, Geplusstes, etc.) mit low- und high-pass Altersfiltern der Verfasser zu versehen.
  • Postinventory
    Anmerkung nachdem ich auch die Daten gesichtet habe.
  • Leftovers 2011 (Filter Edition)
    Ein Ding wo wir heuer leider kein Jota weitergekommen sind, sind die Filter.
  • Leftovers 2011 (Stream Edition)
    Eine Universaltheorie vom Stream.
  • Reader- Pt. 3 - The Golden Girls Edition
    The Golden Girls Gmail, delicious und Google Reader.
  • The subjot supposed to know
    Subjot - die konsequenteste Granularisierung vom Microstreaming, seit es Twitter gibt (oder so).
  • In and out
    Seth Godin mit der infoökonomischen Grundfrage.
  • Event Horizon
    echovar über den übergang von endlicher zu unendlicher information usw.
  • Der Knacks
    delicious ist/war der letzte intelligenztest im web.
  • ReQuoting pt. 51 (The Centralized Edition)
    Ev Williams über dezentralisierte Alternativen von Twitter.
  • The Night of the Living Feeds
    Über Feeds und Infoökonomie usw.
  • Google Mini-Me
    was ich mir von google me wünschen würde.
  • Follownomics
    Über die Ökonomie vom Verfolgen.
  • The Feedhead
    Eine persönliche Miniökonomie des Feedlesens.
  • DRYF
    Unlink Your Feeds – eine Art Manifest der Entkoppelung von Feeds und Streams (schadet den freunden, schadet einem selbst, schadet dem web, drafte und crafte) mit begleitendem tumblr.
  • PubSubHubbuzz
    Eine erste Einschätzung zu Google Buzz.
  • Short Cuts Pt. 5 (Early Adopter Edition)
    Eine der traurigsten Tropen im Diskurs im und um das Web ist die des Early Adopters. Der Begriff Early Adopter bringt nichts, stört nur und verhindert die Entwicklung von Positionen.
  • Other People
    Alex Payne über das infoökonimische Hauptdilemma.
  • Mother Twitter
    Grossartiger Text über die soziologische und informationsökonomische Grundstruktur (Twitter vs. FriendFeed vs. Friendfeed vs. Jaiku vs. Laconi.ca vs. Gnip) von Steve Gillmor.
  • Aggregation Wars
    next up im sich beschleunigenden Output (jaiku auf seine Art schon länger, intuuch, Noserub/Identoo, ...) an second order (also post-twitter, post-facebook, trans-app) Aggregatoren: FriendFeed
  • WinWinWin
    Ein paar Gedanken zu Facebooks Developer Platform f8.
  • Irgendwie
    Irgendwie tut sie mir doch leid, die Musikindustrie mit ihrem aussichtslosen Kampf gegen das Internet.

  • Sharegorischer Imperativ

    12.07.2013

    Der sharegorische Imperativ (im Folgenden kurz SI) lautet in seiner Grundform:

    Share so, dass die Maxime deines Sharens Grundlage einer allgemeinen Strombildung werden kann.

    Wenn man nun davon ausgeht, dass jeder tun können soll, wo und wie er will, und also niemand beim Senden oder Empfangen von Strömen zur Verwendung eines bestimmten Dienstes genötigt werden darf, dann stellt der SI nur eine einzige Anforderung an den Strömenden:

    der jeweilige Strom muss (alternativ) auch als Feed zur Verfügung gestellt werden.

    Gibt es (auch) einen Feed, dann werden alle anderen Kontingenzen hinfällig.

    (die verantwortung dafür würde ich fast beim strömer sehen und nur sekundär beim verwendeten dienst. dieser unterstützt das im idealfall out of the box (natürlich blogs aber zb. auch app.net), oder er ermöglicht es zumindest via einer api (zb. twitter), oder er versucht es andererseits möglichst zu verhindern (zb. google+), die verwendung bleibt aber in jedem fall eine freie entscheidung des strömers, der deshalb also einen feed für den strom mit workarounds (die es immer gibt) generieren sollte.)


    299,999

    15.03.2013

    Since October 7, 2005 you have read a total of 299,999 items

    (was wir eig. bräuchten, wär eine art infonationalprodukt, das eine halbwegs verbindliche kennzahl für das infoökoomische leistungsvermögen einer gesellschaft darstellt, wobei das natürlich anders als etwa das bruttoinlandsprodukt den fokus nicht auf die produktion von gütern (was weiss ich, summe aller blogposts, tweets, kommentare, bookmarks, videos, etctrara) legen dürfte, sondern auch die distribution (eben subscriptions, aber auch shares, likes und alles andere geströme) und vor allem auch die rezeption legen müsste, also die aggregierte gesamtheit der erzeugten lust, des übertragenen wissens, der dialektisch upgemashten und rekombinierten ideen und lolcats, etctrara)

    ((abt. the man of the crowd))

    (((subabt. the quantenfied self)))


    Leftovers 2012 (Mist Edition)

    08.02.2013

    auch nicht wirklich weitergekommen bin ich 2012 jedenfalls mit der Eindämmung der Ausdehnung nicht nur der (analogen und digitalen) Dinge – siehe Leftovers 2012 Collectors Edition – sondern auch der (vor allem digitalen) Klein- und Kleinstspuren, die ich (wie jeder andere auch) so hinterlasse.

    (nur am rande: das ist natürlich kein grundsätzliches problem, das allermeiste davon ist natürlich ohnehin abschreibbare wegwerfkommunikation, die nur für sekunden oder minuten relevant ist, usw., aber die schiere anzahl ist schon ein wahnsinn, was alles in einem jahr (schrägstrich einem leben) so zusammenkommt, wenn man ein bisschen drüber nachdenkt, was natürlich auch davon abhängt, was man noch zählt, aber wenn man etwa sagt ‘alles intentional generierte oder archivierte, was einen persistenten unterschied macht’, was also bei grösseren und ‘aufwendigeren’ dingen wie selbstgemachten videos oder in google docs verfassten büchern oder inszenierten fotos oder blogposts oder emails etc. beginnt und dann über kleinere formen wie kommentare oder verfolgen oder tweets oder instagrams oder facebooks bis zu expliziten kommunikativen gesten wie plusse oder likes oder bookmarks oder checkins etctrara führt, was aber alles üblicherweise auf irgendeiner plattform über einen permalink referenzierbar bleibt und selbst ob gross oder klein wiederum wieder ein ausgangspunkt fürs duplizieren, aggregieren, rereferenzieren, weiterströmen, etc. von anderen sein kann, das geht jedenfalls schnell in die hunderttausende, die impliziten spuren, was weiss ich, der von google analytics und komplementär facebook und twitter ohnehin vollständig erfasste klickstrom, der von der jeweiligen plattform ohnehin vollständig erfasste aufmerksamkeits- und intensitätsstrom, der vom jeweiligen mobilfunkbetreiber und apple oder google ohnehin vollständig erfasste geodatenstrom, die von fitbit oder allen anderen trackern ohnehin mehr oder weniger vollständig erfasste lebensdatenstrom uswusf, das geht dann wohl in die millionen datenpunkte, der übersicht halber besser mal ausgenommen. die frage, die sich stellt, ist, was das (für einen selbst, für das infoökonomische gesamtsystem) bedeutet, welche praktiken noch ziehen und welche nicht, usw., wobei wir hier kollektiv sicherlich luft nach oben haben, weil sich die praktiken in ermangelung besserer techniken fast zwangsweise in richtung reduktion, simplifikation oder resignativem nebel bewegen)


    Lazy Startup Ep. 10

    02.02.2013

    Plattform zur Einschulung und Vermittlung von infoökonomischen Vorkostern.

    (also eine art butler, die den eigenen strom vor-lesen und auf parametrisierbare art filtern/sortieren/priorisieren usw. second layer artificial artificial intelligence, wenn man so will)


    Lazy Startup Ep. 5

    17.09.2012

    Plattform, die es ermöglicht, Ströme (Tweets, RSS-Feeds, Geplusstes, etc.) mit low- und high-pass Altersfiltern der Verfasser zu versehen.


    Postinventory

    29.01.2012

    kleiner Nachtrag zu Inventory Requirements Specification : das Inventarisieren der Daten war dann weniger Aufwand als vermutet, da hat die Nullpunktserie (siehe) dann doch noch nachgewirkt; wie beim Zeugs wird zwar die drinsteckende Arbeit teilweise erst beim Hineinzommen sichtbar, aber wie beim Clutter erhöht sich die Qualität der Projekte (lernprojekte, leseprojekte, hörprojekte, schauprojekte, vervollständigungsprojekte, tagisierungsprojekte, data improvement projekte, programmierprojekte, usw.) spürbar und auch hier ist dieses Gefühl ok, das ist es doch angenehm.

    (ein wahnsinn war diese selbstfragmentierung und -auflösung auf webdiensten; ich hab mich über die jahre bei mehr als 2000 seiten angemeldet und zumindest 200 dann auch zumindest eine zeit lang mit zumindest ein bisschen regelmässigkeit befüllt, und ich liebe sie wirklich alle, aber irgendwie muss ich da wirklich mal nen schlussstrich ziehen. das bedeutet nicht die abstinenz, aber das ziehen einer deutlichen grenze zwischen diensten die ich in die persönliche narration einbaue [workflow tbd] und dem explorativen rest)

    Man könnte natürlich eine ganze Palette von wichtigen Differenzen zum Handling von Daten einführen (ist es für die persönliche narration relevant oder nicht; steckt ein actionable item drin oder nicht; hat es referenzwert oder nicht; ist es sozial oder nicht; etc.), mit zweien deckt man aber schon viel ab:

    • ist es privat oder nicht
    • muss es archiviert werden oder nicht

    Beide kann man für ein- und ausgehende Daten durchdenken, und man erspart sich schon mal viel (Nachdenken oder Aufwand), wenn es nicht privat ist oder wenn es nicht archiviert werden muss – also Verbrauchskommunikation ist, oder weil es öffentlich ist ohnehin jederzeit nachgeladen werden kann, etc. (für alle, die facebook benutzen, ist es genau andersrum, dann erspart man sich das nachdenken, wenn es privat ist).

    (insgesamt ist bei allem, was mit daten und infoströmen zu tun hat, das ziehen von grenzen viel wichtiger als eine etwaige reduktion oder minimalismus; wenn konzeptionell klar ist, was was wo und wie ist (was ja nur ein technisches subset von gtd ist), dann ist schon das meiste gewonnen.)


    Leftovers 2011 (Filter Edition)

    06.12.2011

    Ein Ding wo wir heuer leider kein Jota weitergekommen sind, sind die Filter. Ich verstehe nicht, warum es nicht zumindest für die ganzen Standard-Inputströme – also Twitter, Google+, RSS usw. – dedizierte Clients gibt, die die offensichtlichsten Filter – und ich meine jetzt explizite, in ihrer Funktion transparente, von mir nach bestimmten Kriterien programmierbare Filter und nicht dieses ominöse wir-zeigen-dir-nur-das-beste Voodoo – implementieren.

    thema: filter


    Leftovers 2011 (Stream Edition)

    05.12.2011

    And again, the internet is not something you just dump something on. It’s not a truck. It’s a series of tubes. And if you don’t understand those tubes can be filled and if they are filled, when you put your message in, it gets in line and its going to be delayed by anyone that puts into that tube enormous amounts of material, enormous amounts of material.

    Senator Ted Stevens zitiert nach Wired .

    Was mir beim jahresausgänglichen infoökonomischen Anticluttern das erste Mal in dieser Klarheit aufgefallen ist und bevor ich es vergesse:

    Der ganze Komplex Streaming – der ja doch einen nicht unbeträchtlichen Anteil am gesamten Webaktivitätskuchen hat, zumal ja das ganze Sharing ein Subset vom Streaming ist – basiert auf einer sehr einfachen Struktur:

    • es gibt eine URL
    • die mit einer Annotation versehen wird
    • und durch einen Bewegungsimpuls in einem Kanal/einer Series of Tubes reaktualisiert wird.

    Es gibt zwar ein paar Grenzfälle – die Annotation kann z.B. leer sein (etwa bei allen phatischen Gesten wie Likes), der Bewegungsimpuls kann z.B. ein chronisches Einfrieren sein (etwa beim klassischen antisozialen Bookmarking, bei dem man die URL quasi aus dem Strom reißt, wobei das wiederum Ausgangspunkt eines abgeleiteten Stroms werden kann), die URL kann nichtexistent sein (und wird etwa erst im Stromereignis erzeugt; ein Tweet ist z.B. eine Annotation zu seiner eigenen URL), usw. – aber unterm Strich sind die meisten Tools die wir so kennen und lieben nichts anderes als Maschinen zur Produktion, Rezeption und Distribution von solchen Stream-Ereignissen. Sie unterscheiden sich lediglich in der Art, wie die möglichen Unterscheidungen ausdifferenziert werden.

    Fast alle Tools sind dabei Mischformen und bedienen unterschiedliche Ebenen und Aspekte der Produktion, Rezeption und Distribution gleichzeitig.

    (zb: der google reader ist primär ein tool zur anzeige von feeds im volltext für einen selbst. feeds sind dabei die universellste normalform, auf die sich URLs dem strom zur verfügung stellen können. gleichzeitig offeriert der GR aber funktionen zur organisation der informationen für einen selbst – starring, tagging, search – und funktionen zum weiterströmen – send to und eben nicht mehr sharing, welches selbst einerseits im GR für das eigene netzwerk und falls public selbst als feed für alle offen war -.)

    Die Tools können oder besser sollten sich nun einige Dinge überlegen (wie lange kann die Annotation sein, wie zeige ich den Inhalt der ursprünglichen URL an, welche Quellen lassen ich als Inputs zu, führe ich den Komplex privacy ein oder nicht, welche Formen lasse ich als Outputs zu, welche Features zur persönlichen Organisation der Informationen offeriere ich und wie, welche Features zur Redistribution offeriere ich und wie, welche Features zur sozialen Vernetzung offeriere ich und wie, welche Formen der Diskussion erögliche ich und wie, etc; man kann hier noch ein bisschen schürfen) aber unterm Strich tun sie nichts anderes, als mögliche Entscheidungen zum Handling von Strom-Ereignissen auszudifferenzieren und ihnen einen – thematischen, sozialen, haptischen – Kontext zu geben.

    (auch 2012 gelesen noch immer eine gute analyse)


    Reader- Pt. 3 - The Golden Girls Edition

    03.11.2011

    nur eine kleine #nts/beobachtung am rande, aber mit delicious und dem google reader wurden nicht nur zwei der drei tools kastriert, die in den letzten jahren meine internen infoflows am allermeisten bestimmt haben (das dritte wäre gmail), sondern mir auch bewusst, wie in die jahre gekommen nicht nur die tools (delicious und gmail verwende ich seit 2004, den reader seit 2005) sondern also eben auch meine daran gekoppelten infoflows eigentlich sind. es handelt sich bei allen dreien natürlich gwm. um vollkommene tools, die den benutzer jeweils einen primitiven datentypen (bookmarks, emails, feeds) mit tags organisieren und ansonsten auf die effizienteste weise prozessieren lassen, aber der grad meiner resistenz gegenüber allen moderneren formen wie facebook, tumblr, g+, den iphone-basierten dingen, sämtlichen varianten von im/chat etc. ist doch bedenklich (ausnahmen sind vl. teilweise twitter und friendfeed, beide aber auch schon aus 2007).

    im grunde wird’s also ohnehin zeit, das ganze mal zu modernisieren, zumindest mal zu überdenken, aber das ist leichter gesagt als getan, weil ja nicht mal offensichtlich ist, was überhaupt das ziel / erwünschte ergebnis sein könnte; es knüpft natürlich teilweise an der nullpunkt reihe aus 2010 an, siehe besonders dem data clean aus pt. 2, nur sind die ströme selbst wieder ein ganz anderes biest, weil sie auf mehreren ebenen topographischen, zeitlichen und sozialen de- und reterritorialisierungen unterliegen usw.

    thema: workflows


    The subjot supposed to know

    12.08.2011

    subjot

    Subjot – die konsequenteste Granularisierung vom Microstreaming, seit es Twitter gibt (oder so). Die Idee ist super: Man kann seinen Output in beliebig definierbare Subjects kanalisieren und als geneigter Leser beliebige Subjects anderer abonnieren.

    Ganz nett auch: Natürlich gibt es Themenseiten für einzelne Subjects (etwa), aber man kann die Subjects auch kombinieren (etwa).

    (wird es gross werden? eher nicht, dafür sind die opportunitätskosten zu hoch, seinen senf kann man wesentlich effektiver auf twitter abgeben usw. was mittelfristig sicher auch ein problem würde, ist das management der subjects. es gibt aber durchaus szenarien für gangs und kleinere horden, wo es seinen platz finden könnte)

    update: ist nicht mehr, war aber nett


    In and out

    31.01.2011

    That’s one of the most important decisions you’ll make today.

    s. godin


    Event Horizon

    20.01.2011

    Infinity takes the form of too much stuff. The web seems to have so much stuff, that finding your stuff amongst all the stuff is becoming a problem. The dilution of the web with stuff that’s not your stuff decreases the web’s value. Any random sample of the web will likely contain less and less of your stuff.

    When considering human scales, the farthest point we can apprehend is the horizon. The line that separates earth from sky provides a limit within which a sense of human finitude is defined. […] Once the curvature of a spherical earth entered our thinking, we understood there was something — more earth — beyond the horizon.

    echovar über den übergang von endlicher zu unendlicher information usw.


    Der Knacks

    17.12.2010

    delicious ist/war der letzte intelligenztest im web.Fri Dec 17 10:24:52 via web

    (nts: mich öfter selbst zitieren)

    also twittern die spatzen, dass yahoo zumindest in erwägung zieht, delicious zu killen. ich kann’s mir zwar wirklich nicht vorstellen, bzw. kann ich mir schon vorstellen, dass delicious intern mal auf einer von buchhaltern erstellten schwarzen liste landet, aber nicht, dass yahoo so dumm ist, nicht die dagegen aufzurechnenden (1) kosten für die sich damit vermasselnden gelegenheiten und (2) kosten des sich damit verbindenden sozialen unmuts zu sehen, wobei, ich kann es mir leider doch vorstellen, aber ich tu mal für mich selbst aus psychohygienischen gründen so, als ob nicht, und ich tu aber für diesen eintrag hier als doppelblöff so, als ob doch.

    den tweet meine ich ernst, aber ich muss erklären warum:

    delicious ermöglicht den knacks im kopf, der uns zu sozialen bürgern macht. wer delicious kapiert, der kapiert den radikalen shift des sozialen webs; der transformiert sich selbst, weil man sich selbst danach nicht mehr gleich denken und wahrnehmen kann, wie zuvor.

    leider fehlt uns ein bisschen die terminologie, sozial/social kommt leider mit den verschiedensten bedeutungen und konnotationshöfen; die social media weichspülvariante – alles mit irgendeiner art von userbeteiligung – ist derzeit natürlich dominant, aber eben auch völlig wertlos; die orthodoxe web 2.0 variante – plattformen werden mit den benutzern zunehmend smarter und bekommen eine veränderte/sich beschleunigende funktionslogik etc. – ist zwar ein bisschen ergiebiger, aber eben auch rein technokratisch. wie so oft ist der (pseudo-) systemtheoretische ansatz am fruchtbarsten: sozial proper entsteht im sich verändernden gefüge, das dadurch entsteht, dass sich systeme gegenseitig beobachten und sich auch beim gegenseitigen beobachten gegenseitig beobachten. wer also etwas (wie ein link) publiziert, der weiss nicht nur, dass er dabei von anderen beobachtet wird (i.e. weil sie ihm folgen, weil sie dem tag folgen, etc.) und dass er dabei von der plattform ‘beobachtet’ wird (i.e. indem er die intensitäten und ströme mitgestaltet), sondern er weiss auch, dass die anderen (benutzer und plattform) wissen, dass er das weiss, und auch wissen, dass er weiss, dass sie das wissen. das soziale bewusstsein entsteht also in diesem wissen um die verflochtenen beobachtungen und den damit verbundenen möglichkeitsräumen. was natürlich vor allem bedeutet, dass man überhaupt nix weiss.

    delicious ist deshalb so wichtig, weil es der einfachst mögliche und also paradigmatische dienst zur triggerung dieses knackses ist. natürlich kann man den knacks auch woanders haben, aber delicious ist dafür prädestiniert, weil es eine genuin egoistische motivation (ich speichere bookmarks für mich, mich, mich) in eine soziale Aktion verwandelt. und es ist auch deshalb dafür prädestiniert, weil die motivation für diesen übergang von egoistisch zu sozial selbst ‘rein’ ist, also keinen rattenschwanz an eigeninteressen mit sich bringt. (das stimmt so nicht ganz, aber mehr oder weniger).

    (das in diesem sinne verstandene ‘sozial’ ist also grundsätzlich zu unterscheiden vom im social media sinne verstandene ‘sharing’.)

    ((ob und ggf. wie man dann delicious verwendet oder nicht ist eine gänzlich andere geschichte; der bereich social bookmarking hat sich weitestgehend ausdifferenziert und verschiedenste dienste bedienen verschiedenste bedürnisse und dispositionen, triggern verschiedenste dynamiken und eignen sich für verschiedenste situationen und/oder communities. aber wer delicious nur an den funktionen und features festmacht, oder nach einem open source klon schreit, oder glaubt, gezwitscherte links sind die nächste evolutionsstufe, etctrara, der hat nichts kapiert))

    delicious ist/war der letzte intelligenztest im web


    ReQuoting pt. 51 (The Centralized Edition)

    07.10.2010

    People have been talking about recreating Twitter as a set of standards and protocols pretty much since we launched and started getting popular. In fact these standards and protocols exist and Twitter is so open that people can just make Twitter work with a more open and federated network.
    So far that hasn’t taken off, I believe because it hasn’t provided as good a user experience. I think there are advantages to a decentralized system and there are also many disadvantages. The disadvantage is that it’s very hard to innovate and do some of the things you can do with a centralized service with a decentralized service, that’s just part of the trade-off and so far it doesn’t seem like a worthwhile trade-off.

    Ev Williams via RWW

    (sehe ich pretty much auch so; twitter ist zwar ein zentralisiertes system, aber es ist funktional offen (genug). das mit dem innovieren und der ux stimmt sicher auch, aber der entscheidende nachteil von dezentralen gegenentwürfen ist, dass die ströme reterritorialisierungen brauchen, um ‘kultur’ zu ermöglichen, ein tweet ist eben mehr als ein 140 zeichen blurb sondern eingebettet in ein spezifisches gefüge, etctrara. die falsche grundannahme so ziemlich aller offenen gegenentwürfe (von twitter, von facebook, …) ist der glaube, dass es das soziale anundfürsich gibt)


    The Night of the Living Feeds

    14.09.2010

    Schöner Satz zum RSS ist wieder einmal tot hubbub von Dave Winer:

    I keep saying the same thing over and over, the Google Reader approach is wrong, it isn’t giving you what’s new — and that’s all that matters in news.
    Succinctly put — news is about what’s new — and that’s it.

    Die eigene Antwort auf die Frage, ob sich mit Twitter und Memetrackern die Technik des Abonnierens und Lesens von Feeds erübrigt hat oder nicht, hängt davon ab, für was man sich wie sehr interessiert (bzw. ob man sich überhaupt für etwas interessiert).

    Interessiert man sich für die die Neuigkeit der Neuigkeit an sich, dann haben Feedreader tatsächlich ausgedient. Twitter ist da einfach der wesentlich effektivere Kanal, und die vollständige Anschlusskommunikation findet auf Twitter selbst (durch wiederholung der nachricht mit eigenem senf, durch retweets) statt. Was dabei neuigkeitswertig ist, ist systemeigenrichtig (um bolz zu paraphrasieren) – ist eine Nachricht neuwertig, dann findet sie mich automagisch indem ich den Strom einschalte; was mich nicht findet, kann es per definitionem nicht sein, sonst würde es ja im neuigkeitsrelevanten Zeitfenster von [die letzten 10 min, in de die letzten 10h] auftauchen. Zur Lückenfüllung am Abend noch Techmeme und passt.

    Interessiert man sich aber für etwas (ein thema, eine person, etc.) selbst, dann sind und bleiben Feedreader die beste Technik, um dieses Interesse zu vertiefen.

    Die erste Disposition führt als Organisationsstruktur zu einem (hypereffektiven, postmodernen) Schwarm, die zweite zu mehr oder weniger einsamen (existentialistischen, modernen) Individuen, die im Levy Flight herumkrebsen.

    Ich mag beide Formen, was mich aber zunehmend nervt ist der latente Nihilismus des Schwarms. Es reicht ihm nicht der Wille zur Macht (unter den kollektiv geführten aber singulär repräsentierten regimen von facebook, twitter, 4chan, etc.), öfter als nicht ist damit auch eine Lust am Zerstören aller anderen Formen verbunden (können wir bitte RSS und das damit verbundene schuldgefühl der unread items endlich beerdigen und uns alle auf twitter einigen? nochmal winer: You don’t have to hunt around to find the newest stuff. And it doesn’t waste your time by telling you how many unread items you have. Who cares.; können wir bitte endlich einen schlussstrich unter gedruckte bücher und zeitungen ziehen und uns auf das (strahlende) ipad und wenn’s sein muss den (hässlichen) kindle konzentrieren? etc.)

    thema: feeds und der nihilismus des scharms


    Google Mini-Me

    07.09.2010

    gerüchte um ein kommendes google me kursieren ja schon eine weile, was ich mir wünschen würde, pretty please:

    google sollte sich auf das konzentrieren, was sie ursprünglich wollten und auch wirklich gut können – “die auf der Welt vorhandenen Informationen zu organisieren und allgemein zugänglich und nutzbar zu machen” – und nicht versuchen, selbst ein player im social zu werden. ersteres ist im bereich social web noch nicht gelöst und schreit fast nach einer lösung, zweiteres ist gelöst und sie haben dafür einfach kein händchen, wie sie immer wieder demonstrieren.

    wenn man ihr mission statement auf das soziale web überträgt, dann wäre die aufgabe für google – ‘die auf der welt von menschen auf sozialen plattformen erzeugten informationen zu organisieren und allen daran interessierten zugänglich und damit interagierbar zu machen’.

    mit fünf kleinen komponenten könnte ein google me diesen anspruch leicht und mit bestehenden mitteln, protokollen, apis und gegebenheiten erfüllen und sich selbst in eine soziale metawollmilchsau verwandeln:

    • social search
    • social reader
    • social writer
    • social contacts
    • profile

    social search

    die social search sucht und findet: (1) alles, was ich selbst auf den verschiedensten diensten gepostet habe, auch im privaten also nicht für alle sichtbaren. (2) alles, was meine freunde auf den verschiedensten diensten geposten haben, auch im privaten, wenn ich es auf dem jeweiligen dienst sehen dürfte. (3) alles, was alle anderen auf den verschiedensten diensten geposten haben, wenn es public ist.

    mit buzz sind sie teilweise schon dort, friendfeed ist es schon fast ganz, auch mit den sinnvollen such-operatoren, nur suchen buzz und ff derzeit halt nur im von auf buzz resp. friendfeed publizierten anteil, google me müsste nur noch in die tiefen der tools hineingehen (wie es etwa greplin tut). und sie sollten zumindest nicht ausschliesslich auf den googleschen relevanz-saft setzen (wie bei buzz), sondern ergebnisse auch chronologisch anzeigen. eine google-gute suche im gesamten selbstoutput wär jedenfalls auch die beste motivation, leute zum anmelden und verknüpfen von services zu bewegen.

    social reader

    der social reader ist ein reader für alles soziale: (1) als reader für alles, was meine freunde auf den verschiedensten diensten geposten haben, auch im privaten, wenn ich es auf dem jeweiligen dienst sehen dürfte, auch wenn sie nicht bei google me angemeldet sind (think brizzly nicht nur für facebook und twitter sondern jeden beliebigen dienst). (2) als reader für alles, was alle anderen auf den verschiedensten diensten geposten haben, wenn es public ist.

    unterm strich also wie der google reader, nur dass man damit alle existierenden sozialen outputs konsumieren und darauf reagieren kann. der reader sollte vollständig und nahtlos mit den anderen diensten integriert sein, reaktionen auf die beiträge anderer sollten nativ auf dem jeweiligen dienst erfolgen (ein like auf irgendwas auf facebook sollte ein facebook like sein, eine antwort auf einen tweet ein tweet mit gesetztem in_reply_too, ein kommentar auf einen blogeintrag sollte dort als echter kommentar erscheinen, ggf. mit assoziierung des eigenen disqus handles, etc.) google sollte aber keine weitere ebene der privacy einführen, könnte aber die google contacts in den mix werfen und dort dann mit irgendwelchen gruppen differenzieren, und sollte die auf den jeweiligen diensten gewählten settings respektieren und auch ströme von leuten integrieren, die nicht auf google me sind.

    der knackpunkt aber auch das potential beim social reader sind die filter und views. im grunde reicht es aber schon aus, wenn man sich beliebig viele views selbst erstellen könnte. eine view ist der output einer liste von usern mit beliebig vielen include und exclude filtern (etwa: aus der liste meiner kontaktgruppe webmonkeys (skopus der user) zeige mir alle status updates von twitter, laconica und buzz (include filter), verstecke aber alle, die dort jeweils nur syndiziert wurden (also via twitterfeed, foursquare, …; exclude filter)).

    die filter könnten durchaus dumm sein, durch die verknüpfung ließen sich aber supernützliche konstrukte bauen (unix prinzip der pipes).

    social writer

    mit dem social writer kann man von google me aus auf allen anderen diensten publizieren. bonuspunkte, wenn man selbst dafür regelwerke definieren könnte (wie etwa bei tarpipe). der writer ist eig. nur eine standalone ergänzung zu den reaktionsmöglichkeiten vom reader, man müsste dann aber google me nie mehr verlassen, wenn man nicht will.

    der vorteil eines writers wäre auch, dass alle anwendungen mit einem schlag inputdevice-agnostisch würden, solange google me das gerät unterstützt (web, email, android, sms, …). think posterous ohne die posterous-einträge.

    social contacts

    das ist ein bisschen trickreich, man könnte hier auch sehr coole g’schichten machen, aber wichtig würde ich finden, dass google hier zwar den existierenden social graph (also die summe alle existierenden partialgraphen auf twitter, facebook, gmail contacts, etc.) aufsaugt und ggf. aufwertet, es aber bei en bestehenden beziehungen auf den jeweiligen diensten belässt und selbst keine zusätzliche komplexitäten einführt, ausser vl. listen.

    in der minimalversion ist es ein sich selbst aktualisierendes adressbuch, das sich automagisch aus den bestehenden beziehungen befüllt, egal ob wer auf google me ist oder nicht. think friendfeed mit den virtual contacts.

    profile

    ums profil kommt man wohl nicht herum, hier kann man selbst jene dienste hinzufügen und verwalten, die man claimen möchte (auch mehrere twitter accounts, etc.). alle anderen sehen die kerndaten, die assoziierten dienste und einen lifestream mit den letzten outputs, für die sie sichtbarkeitsberechtigung haben (freunde bei facebook sehen meine facebook updates, die anderen nicht, usw.). man kennt das prinzip von den lifestream-aggregatoren und auch von google profiles, zu ergänzen wäre diese aber um eine vollständige und nahtlose integration mit autorisierungspflichtigen diensten (im grunde ein etwas aufgemotztes friendfeed). auch ums folgen/verfolgt werden kommt man wohl nicht herum, eigentlich sollten sie aber die finger davon lassen und das nur auf reader-basis verwenden.

    (hmm, friendfeed habe ich ja mehrmals erwähnt, friendfeed hat wirklich einen schönen sprung – zumindest auf der social-reader seite und bzgl. der filter – vorgelegt. friendfeed hat aber (neben dem verkauf an facebook) einen grossen fehler gemacht: sie haben den reader selbst an einen eigenen social graph gekoppelt und in der folge einerseits weniger den nutzen als reader vom sozialen der freunde sondern als distributionsplattform für das eigene soziale (inkl. dem anhäufen von followern, cross postings auf gruppen, etc.) promotet, andererseits die gesamten ströme auf sich gwm. reterritorialisiert und die diskussion damit vom ursprünglichen auslöser dissoziiert (man muss an die ebene des limbo bei inception denken: plötzlich befindet man sich in einem kommentarstrang, weil ein kontakt bei einem friendfeed kommentar-thread mitdiskutiert, der selbst nur der like des retweets eines tweets über einen artikel auf digg ist, usw.). diese vertikale vernestelung hat natürlich auch was an sich und auch die dissoziation ist an sich nicht tragisch, aber es ist vielen nicht sehr leicht gefallen, für sich einen i/o-modus zu finden.)

    anyway, in einem satz sollte google me ein dashboard für das social web sein, ein meta-read/writer für alles soziale. google hätte damit zwar nichts eigenes, würde aber das gesamte soziale weitestgehend durchdringen (alles was öffentlich ist und zusätzlich alles private, was mit dem eigenen account verbunden wurde), hätte damit also eigentlich ohnehin alles.

    und das alles ließe sich, wie gesagt, mit existierenden standards und technologien realisieren (inputs via apis, pubsubhubbub oder als fallback rss, autorisierung via oauth, etwaigen anderen mechanismen oder un/pw, posts via api, likes, comments via api oder salmon, etc.).

    (wären eigentlich noch immer sinnvolle wünsche)


    Follownomics

    18.08.2010

    people you might want to follow

    nach twitter bekommt jetzt auch buzz verfolgungsempfehlungen.

    bei beiden ist offensichtlich warum (erhöhung der netzwerkdichte etc.), aber beide lösen damit nicht das eigentliche problem, nämlich einen effizienten verfolgungsmarkt zu ermöglichen. das paradox der ansätze ist, dass die effizienz umso mehr abnimmt, je besser die empfehlungsalgorithmen werden.

    wer rational infoökonomisch folgt, der wird so lange neuen leuten folgen, solange deren nutzen (gute links oder gedanken etc.) grösser als deren kosten (zeit, die man mit dem durchklicken oder lesen oder überlesen verbringt) ist.

    empfehlungsalgorithmen haben nun zwei offensichtliche möglichkeiten: sie empfehlen entweder auf basis des social graphs (viele deiner freunde folgen auch xy, die populärsten von deinen freunden verfolgten sind yz, etc.) oder auf basis von einem vermeintlichen interesse (dich interessieren ja lolcats, beliebte lolcats buzzer sind xyz).

    folgt man aber allen, denen auch die freunde folgen, dann folgen irgendwann alle den gleichen in verfolgungsclustern und das system verliert die filter- und aggregierungsleistung auf kosten des mehraufwands für alle – ich muss aber eben gerade nicht allen folgen, weil andere ihnen folgen und für mich die rosinen retweeten o.ä.; und folgt man leuten mit gleichen interessen, dann nimmt die redundanz der geposteten infos zunehmend zu – auf sozialer ebene ist die dysfunktionalität ja quasi eingebaut: je mehr man sich für ein thema interessiert, desto weniger interessant werden alle anderen, die sich für das gleiche interessieren.

    informativer sind nach dem in jedem fall nützlichen grundrauschen also eher die, die komplementäre und kompatible interessen haben, die also einen bereich abdecken, für den man sich peripher interessiert. und genau die kann ein empfehlungssystem nicht vorschlagen, die muss man für sich selbst entdecken.

    das ist natürlich alles sehr simplifiziert dargestellt, auch redundanz ist informativ (beobachtung welche themen aufgegriffen werden, wie sie aufgegriffen werden, usw.) und infoökonomische effizienz ist auf twitter oder buzz auch nicht unbedingt das anzustrebende ziel, etc., aber der effekt von gepushten aber ineffizienten empfehlungssystemen mit dem hauptziel verbindungen zu vermehren ist eine inflation der beziehungen.

    thema: follownomics


    The Feedhead

    06.03.2010

    the feedtail

    (anlässlich dieser basicthinking kürzt feed debatte (etwa, oder, oder) eine persönliche miniökonomie der feeds, wobei ich den ganzen komplex monetarisierung und die damit meistens verbundene moralisierung ausklammere, der ist auf mehreren ebenen unfruchtbar)

    • die y-achse indiziert mein interesse an einer quelle
    • die x-achse die anzahl an mit der jeweiligen interessantheit assoziierten quellen
    • die rote l-kurve zeigt meine verteilung an

    es gibt also nur sehr sehr wenige quellen, an denen ich sehr sehr grosses interesse habe, es gibt hunderte quellen, an denen ich eigentlich doch schon interessiert bin, und es gibt millionen quellen, die sicher auch gelegentlich irgendwas irgendwie interessantes beinhalten.

    (welche quelle für einen interessant ist oder nicht ist übrigens nicht nur naturgemäss für jeden verschieden, das hängt auch davon ab, welche anderen quellen man kennt und liest. je mehr andere quellen man liest, desto mehr verschiebt sich das attribut interessant ins kompatibel komplementierende)

    nun ist es so, dass es natürlich toll wäre, alles auch nur irgendwie interessante zu lesen, nur geht sich das zeitlich nicht aus. man muss also für sich selbst infoökonomische verfahren entwickeln, was man wie in sich reinlässt und was nicht.

    je nach disposition gibt es eine ganze reihe möglicher verfahren. man kann zb. einzelne quellen und/oder redaktionell vorselektierende portale und/oder algorithmisch vorselektierende memetracker bookmarken und täglich ansteuern und alles andere ignorieren (oder mit anderen praktiken kombinieren). oder man kann (wichtige nachrichten finden mich blabla) in div. sozialen empfehlungsströmen treiben und alles aufsaugen und alles andere ignorieren (oder mit anderen praktiken kombinieren). oder man kann – und das ist die mit abstand bequemste und effizienteste methode, um viele heterogene inputströme zu konsumieren – sich sein eigenes bündel an quellen via RSS zusammenstellen und diese in einem feedreader lesen (und das mit anderen praktiken kombinieren).

    (welche praktiken für einen passend sind oder nicht ist übrigens wiederum nicht nur naturgemäss für jeden verschieden, es ist auch völlig unwertend. allerdings trifft man idealerweise seine entscheidung, nachdem man sich etwas mit allen möglichkeiten herumgespielt hat)

    aber wie gesagt: wer viele quellen effizient lesen möchte, der kommt um einen feedreader nicht herum. das ist nix für alle, es erfordert zeit, aber es hat auch einige von anderen methoden nicht emulierbare vorteile. vor allem bei echtem interesse an einem thema. auch die besten portale, thematisch fokusiertesten memetracker und smartesten aggregatoren tendieren zum hochspülen des kleinsten gemeinsamen nenners, die echten goodies findet man nur im feedreader.

    doch zurück zum diagramm:

    jedes der oben erwähnten (und aller anderer) verfahren verursacht neben dem sich ergebenden informationsnutzen auch rezeptionskosten (zeit, anzahl an klicks, anzahl an medienbrüchen, usw.). der wert einer quelle unterm strich ergibt sich also nicht alleine aus der interessantheit, sondern auch aus dem damit verbundenen aufwand. (man könnte die rote kurve also auch als indifferenzkurve lesen: je interessanter, desto mehr aufwand nehm ich in kauf, je weniger (aber natürlich immer noch) interessant, desto weniger.)

    in meinem setup gibt es zwei grenzwerte:

    • blauer punkt: quellen, die ich immer lese, egal ob fullfeed oder excerptfeed oder nofeed. rein theoretisch übrigens, in meinem feedreader hab ich glaub ich zwei excerptfeeds, alle anderen haben ohnehin fullfeeds.
    • grüner punkt: quellen, die ich nur lese, wenn es sie im fullfeed gibt.

    anders als noch vor zwei, drei jahren ist es mir als kleine randbemerkung mittlerweile übrigens völlig wurscht, ob wer einen fullfeed hat oder nicht; twitter und friendfeed und alle memetracker haben meine klickbereitschaft doch deutlich verändert und im dortigen kontext stört mich auch das herumklicken nicht. aber im feedreader empfinde ich excerptfeeds als extrem störend, weil sie den leseflow doch stark unterbrechen, und also subscribe ich sie nur seltenst. nicht weil ich mich als klickvieh verraten fühle etc., sondern einfach weil es für mich bessere alternativen gibt.

    als publisher muss man sich über eines jedenfalls im klaren sein: das umstellen von fullfeeds auf excerptfeeds bringt vl. einige klicks, birgt aber auch mitunter signifikante opportunitätskosten. man verliert nicht nur leser (alle, bei denen man auf deren eigenen indifferenzkurve zwischen dem grünen und blauen punkt liegt), man verliert gerade die, denen das wichtig ist, weil sie mehr als nur eine quelle lesen und ihren output dann sharen und faven und streuen usw, man verliert die katalysatoren und damit alle von diesen getriggerten indirekten klicks. do the math, wobei das natürlich von der verteilung der dispositionen der leserschaft abhängt.

    (im falle basicthinking (oder auch heise etc.) ist das, glaub ich, eher egal, weil die vorwiegend, glaub ich wiederum – das müsste mal jemand statistisch auswerten -, vor allem leute ansprechen, die wenige andere quellen kennen, die wenige feeds lesen, und für die basicthinking also ohnehin sehr interessant ist, also im blauen bereich liegt.)

    thema: fullfeeds


    DRYF

    27.02.2010

    unlink your feeds

    Unlink Your Feeds – eine Art Manifest der Entkoppelung von Feeds und Streams (schadet den freunden, schadet einem selbst, schadet dem web, drafte und crafte) mit begleitendem tumblr

    (weekend mini project: das einmal für sich selbst durchdenken)

    (extra points für eine umfassende typologie der dienste und usergruppen; die ist wohl gar nicht so einfach, weil es so einige faktoren und parameter und dispositionen gibt, und weil es natürlich nirgends ein richtiges oder falsches verhalten gibt (die wenigsten (sozialen) dienste erfinden sich selbst, werden vielmehr durch die mitunter verschiedenarten benutzungen erfunden), sondern nur ökosystemische mischungen die sich auf dem jeweiligen milieu eines dienstes ausdifferenzieren, innerhalb derer ein jeweiliges verhalten funktioniert oder nicht, (rezeptions-) kosten und (informations-) nutzen verursachen oder nicht usw. usf.)


    PubSubHubbuzz

    11.02.2010

    you don't have to be drunk to see double

    Buzz ist weder ein Facebook- noch ein Twitter-Killer. Wenn überhaupt von irgendwas ein Killer, dann von Yammer und Konsorten, wenn sie ihre Enterprise Version gestartet haben. Aber der ganze Vergleich hinkt. Leider kann man nicht in Google reinschauen, was sie sich bzgl. ihrer social strategy davon versprechen, aber ich vermute fast, dass ihre primäre Idee eher so in Richtung die Menschen lieben es ganz offensichtlich, im Web Zeug zu sharen, warum sollten sie das nicht bei uns tun? geht, und das dann auf ihre Art weiterdenken (siehe unten).

    Was Google aber wie so oft nicht versteht, bzw. versteht, aber nicht besonders gut umsetzt, ist, dass das Sharen von Stuff kein abstraktes Bedürfnis ist, sondern in Dialektik mit der Dynamik eines Dienstes entsteht.

    Bei Facebook und Twitter und allen anderen erfolgreichen Diensten ist diese Dynamik klar geregelt. Facebook ist Kommunikation unter Freunden, Twitter ist öffentliche Kommunikation unter Interessierten. Der eigene social graph auf Facebook hat sich, zumindest im Kern, in einer Vorzeit entwickelt (aka Freunde). Der eigene social graph auf Twitter entwickelt sich organisch und adjustiert sich permanent. Buzz macht aus den Versatzstücken social graph und sharing einen Eintopf und rührt ohne Fokus kräftig darin rum. Email-Kontakte z.b. sind weder (notwendigerweise) Freunde, noch Leute, die sich (notwendigerweise) für die eigenen Ergüsse interessieren, noch sind deren shared items (notwendigerweise) für einen interessant. Angezeigt wird, anderes Beispiel, nur, was Google nach Filterung durch eine black box als relevant erachtet. Vertraut uns, das können wir, wir haben das erfunden.

    buzz tabs
    (wobei die versteckenden tabs recht schick sind)

    Und es gibt natürlich noch eine Reihe von ans frühe FriendFeed erinnernde rookie mistakes, bei denen man aber davon ausgehen kann, dass sie in kommenden Iterationen ausgemerzt werden, das betonen sie auch selbst.

    Und es gibt eine weitere Reihe von falschen (oder besser: kontingenten, aber in ihren konsequenzen nicht bedachten) konzeptionellen Grundannahmen der Google-Hirne, wie man sie bei so ziemlich jedem Google-Dings, das irgendwas mit social zu tun hat, kennt.

    Davon abgesehen hat Buzz aber mehr Potential, als alles andere, was bisher von Google im Bereich social gekommen ist. Wenn man von Buzz, dem Produkt in der derzeitigen Form, abstrahiert, schlummert darunter Buzz, die Plattform, die doch eine Art universelle Pumpe für all things social werden könnte, weil Google damit zum ersten Mal zwei Dinge zusammenführt:

    • ein Superset von offenen Standards, mit denen sich so ziemlich alles abbilden lässt, was an sozialen Inhalten produziert wird, inklusive Reaktionen und Beziehungen (Atom/RSS, MediaRSS, Activity Streams, Social Graph API, webfinger).
    • und die Technologie, das alles und kostenlos an jeden interessierten Endpunkt in Echtzeit zu pumpen (PubSubHubbub, OAuth, AtomPub, Salmon).

    Wenn man so will, ist Buzz, das Produkt, eine suboptimale Demoversion für Buzz, die Plattform, und anders als etwa bei Google Wave kann man davon ausgehen, dass es auf Basis der Plattform relativ zeitnah diverseste Services und Integrationen geben wird.

    Das heisst nicht, dass damit alle Silos aufgebrochen werden, was wohl auch nicht wünschenswert wäre, Silos haben auch ihren Sinn. Aber auf Basis von Buzz könnte sich ein webweites soziales Nervensystem entwickeln, das dann angezapft und auf tatsächlich neuartige Weise reinterpretiert werden kann.

    miniproductivity tipp am rande: wenn man zur alten version von gmail wechselt, dann gibts den ganzen buzz nicht. man muss also buzz nicht gleich ganz deaktivieren, wenn einem das phasenweise nicht in die inbox passt.

    (achtung beim link: ich hab es ohne https geschrieben, weil https bei mir irgendwie nicht richtig durchkommt, duh, ich empfehle aber wo möglich – und besonders bei gmail – immer https statt http zu verwenden, also einfach immer in der adresszeile probieren, obs auch mit dem s klappt)

    (auch 2012 gelesen noch immer eine gute analyse)


    Short Cuts Pt. 5 (Early Adopter Edition)

    20.01.2010

    Eine der traurigsten Tropen im Diskurs im und um das Web ist die des Early Adopters. Der Begriff Early Adopter bringt nichts, stört nur und verhindert die Entwicklung von Positionen.

    Die Beschreibung von Personen als Early Adopters basiert auf der im Web sinnlosen Notion einer fortschrittlichen Zeitlichkeit. Die Entwicklungsgeschichte wird als linearer, zeitlicher, teleologischer Strahl konzipiert. Wer vor den anderen auf neue Entwicklungen aufspringt, gilt als schneller und besser. Das erworbene kulturelle Kapital ist allerdings kurzlebig, weil es keinen Stillstand geben darf. Es ist schnell wieder verspielt, wenn man nicht immer auf den nächste neue Entwicklung umsteigt.

    Aber im Web gibt es keine Zeitlichkeit, weil alles für alle immer schon gleichzeitig ist. Jede neue Anwendung ist sofort für alle verfügbar, jeder neue Inhalt ist sofort für alle zugänglich. Das Web ist keine Serie von disparaten Linearitäten, sondern ein Gewebe, das alles in sich aufnimmt und synchron miteinander verbindet; eine Gleichzeitigkeit von Ungleichzeitigkeiten; ein Potential, dessen Möglichkeiten angezapft werden können, oder nicht. Das Web ist postkontemporär.

    Ganz allgemein gesagt sind Webdienste Möglichkeitsräume. Möglichkeitsräume, die zwei Serien triggern können:

    Eine Serie der individuellen Intensität, also dem Grad mit dem man den Dienst für sich selbst (aktiv oder passiv) nutzt und sein Leben dadurch besser, interessanter, spannender macht. (Auch wenn man etwas nicht benutzt, ist es gewissermassen doch als Umwelt da. Allerdings ist die persönliche Intenitätsstufe dann halt null.)

    Und eine Serie der kollektiven Resonanz, also dem Grad mit dem der Dienst zum Schwingen gerät, Koppelungen und Rückkoppelungen mit anderen Diensten, Systemen, Feldern eingeht und dabei das Leben für die Freunde und die Welt besser, interessanter, spannender macht.

    Für jeden Einzelnen geht es also, um zum Early Adopter zurückzukommen, weniger darum, ob man früher oder später damit beginnt, einen Dienst zu nutzen, sondern um die Intensität, mit der man ihn zu einem je gegebenem Zeitpunkt nutzt, und um die Resonanzkörper, die dadurch um ihn herum entstehen. Wenn man etwas nicht verwendet, weil man keinen persönlichen Anknüpfungspunkt darin sieht, dann ist man nicht hinten, sondern handelt rational. Wenn man auf jeden Zug aufspringt, der gerade losdüst, ohne sein Leben dadurch besser zu machen, ist man zwar Early Adopter, aber auch ein Dummkopf.

    Das bedeutet jetzt nicht, dass es nicht sinnvoll ist, zu versuchen am Laufenden zu bleiben. Wer kein Sensorium für die ja stetig wachsenden Möglichkeiten entwickelt und kultiviert, wer nicht weiss, was es alles gibt, der hat natürlich die Opportunitätskosten der Nichtbenutzung.

    Aber die fast schon penetrante Ungeduld der Neuheit und des jeweils Nächsten hilft dabei selten weiter. Und die Erzählfigur des Early Adopters ist besonders traurig, weil sie gleich zwei Positionen in ihrem Blickwinkel einschränkt:

    Die Fremdzuschreibung spart sich durch die Diagnose ‘das ist halt was für Early Adopters’ die Auseinandersetzung mit den Phänomenen. Early Adopters wird gerne mit anderen Begriffen wie ‘selbsternannte Internetelite’ oder (nie konkret benannten) ‘Propheten’ oder ‘Vordenkern’ kombiniert, um eine künstliche Differenz zwischen ‘denen’ und dem ‘normalen uns’ zu konstruieren. Sollen die halt machen, mit ihren Zauberwörtern Blog und Wiki und Flickr und Twitter, wir sind normal und wir wissen, dass das alles ein Blödsinn ist.

    Die Selbstzuschreibung ‘ich bin ein Early Adopter, weil ich tool yxr benutze’ ist allerdings fast noch blöder, weil mitunter ein Selbstbild und Gruppengefühl konstruiert wird, das auf nichts begründet ist, und weil ein Tunnelblick entwickelt wird, der blind für die Eigentlichkeiten ist. Es ist keine Leistung früher als andere einen Dienst zu verwenden. Wer ein, zwei Blogs liest und sich überall anmeldet ist der Earliest Adopter schlechthin und erzeugt dadurch alleine noch überhaupt keinen Wert, weder für sich, noch für andere. Was aber getrübt wird, ist der Blick auf das, was funktioniert und warum.

    Wer sich selbst als Early Adopter konzipiert, tappt nur allzuleicht in die Falle, eine individuell wertvollere Verwendung von Webdiensten gegen eine wertlosere aber neue Verwendung einzutauschen.

    Der Begriff Early Adopter bringt nichts, stört nur und verhindert die Entwicklung von Positionen.


    Other People

    19.07.2009

    The problem with abdicating your content consumption to other people, though, is other people.

    Alex Paynes sehr treffende Beschreibung eines infoökonimischen Hauptdilemmas in einem auch ansonsten sehr treffenden Text über Feedreader.

    (ich glaube aktuell straucheln ja so einige mit ihrem inputstrom-setup, meines zumindest ist derzeit ziemlich verzettelt und paradoxerweise weit weniger weder effizient noch effektiv als vor 3, 4 jahren. grund dürfte sein, dass beim übergang vom prinzip subscribe zum prinzip stream die ausdifferenzierungsparameter geschmack und urteilskraft zerbröselten; die mit dem an den strom gekoppelten praktiken und technologien streben vor allem nach einem schlaraffenland (wichtige nachrichten finden mich, social analytics, auf geht’s, der geiß nach, blabla), effekt ist aber eher eine – halt soziale – reader’s digest version vom web)


    Mother Twitter

    02.09.2008

    No service has stepped up to offer even the semblance of an alternative to Twitter’s value proposition, that being a digital soapbox on which to debate the ideas, events, and emotions that course through the place formerly known as the blogosphere. In an oddly ironic way, FriendFeed and Identi.ca have siphoned off the most vocal critics of Twitter’s failures and kept them occupied long enough for Twitter to recover.

    For their part, Identi.ca and FriendFeed proponents have gone from anger to despair to revolutionary fervor to silence as users offer muted reassurance while at the same time wandering “aimlessly” back to Mother Twitter. FriendFeed’s strategy of cultivating a new A-List has largely succeeded, but micro-blogging depends more on a personalized A-List then a generalized one. Ultimately, a unified inbox is more valuable than an elite one.

    Grossartiger Text über die soziologische und informationsökonomische Grundstruktur (Twitter vs. FriendFeed vs. Friendfeed vs. Jaiku vs. Laconi.ca vs. Gnip) von Steve Gillmor bei TCIT

    (via)


    Aggregation Wars

    18.10.2007

    screenshot friend feed

    next up im sich beschleunigenden Output (jaiku auf seine Art schon länger, intuuch, Noserub/Identoo, …) an second order (also post-twitter, post-facebook, trans-app) Aggregatoren: FriendFeed und wie bei allen kann man seine eigenen Aktivitäten bei allen Standardseiten bündeln und bekommt die gebündelten Aktivitäten von den Bekannten und Verwandten vorserviert aka die Minifeed-Normalisation, aber eben ausserhalb von Facebook und mit dem netten Zusatzfeature, dass man sich virtuelle Freunde anlegen kann, also die Aktivitäten auch von Leuten die sich nicht bei FriendFeed angemeldet haben zu integrieren, und mit dem Doppelgag dass das Ganze primär dazu gedacht ist wieder nach Facebook zurückgespiegelt zu werden.

    bonuszitat:

    this was made as a joke right? cuz if it was serious then ure a dumbass. if it was a joke then it was funny.

    (aus einem kommentar hierzu was wiederum ein kommentar dazu ist)


    WinWinWin

    26.05.2007

    Ich hab am Nachmittag mal ein bisschen die Facebook Platform Developer Docs gescannt und mich mit ein paar Anwendungen herumgespielt, und das ist huge. Nicht super alles auf den Kopf stellend und die Industrie völlig verändernd huge, aber doch ziemlich huge.

    Hat wohl jeder mitbekommen, aber falls nicht: seit gestern ermöglicht Facebook, dass beliebige andere Anwendungen direkt in Facebook integriert werden können. Und sie müssen kein monadisches (und oft nur parasitär geduldetes) Widget-dasein fristen, sondern sie werden Bürger erster Klasse, die gleichberechtigt neben den eingebauten Facebook Apps stehen, die diese sogar ersetzen können und die den gleichen Zugang zur DNA von Facebook – den Beziehungen der User untereinander, den Lifestreams der User in Form ihrer Timeline – bekommen.

    Und da haben alle was davon:

    • Die Anwendungsentwickler haben was davon, weil sie ihre bestehenden Anwendungen (in mehr oder weniger abgespeckten Versionen) der gesamten Userbasis von Facebook (24 Mio, jede Woche 100.000+) schmackhaft machen können. Und nicht nur schmackhaft. Werden sie einmal adaptiert, dann verbreiten sie sich im jeweiligen Netzwerk eines Users quasi von selbst (iLike etwa mit einem Verbreitungsgrad von 100 neuen Usern/Minute), weil die Freunde dessen Output der jeweiligen Aktivitäten in seiner timeline sehen. (sogar der Spiegel hat das (was den Bereich webtech angeht völlig überraschenderweise) gut kapiert und schön beschrieben )
      Irgendwie löst Facebook u.a. auch das chicken or egg Problem vieler Seiten, die an-und-für-sich nützlich wären, wenn nur schon alle Bekannten und Verwandten mitmachen würden. Nur tun sie es nicht, also hat man keinen Anreiz das Tool zu verwenden, also entsteht nie eine Situation, in der es für die Bekannten und Verwandten interessant erscheint…
      Gleichzeitig eröffnen sich natürlich auch für einen Schwarm von speziell für die Facebook Platform entwickelte Anwendungen tatsächlich ganz neue Möglichkeiten, einfach weil sie eben direkt an die bestehenden Netzwerke andocken können.
    • Die User haben was davon, weil sie nach Lust und Laune das geliebte Facebook erweitern, Funktionalitäten per Klick hinzufügen können, ohne es jemals zu verlassen. Schon jetzt gibt es an die 100 Anwendungen, bald sind es tausend, bald werden diese immer besser für Facebook optimiert. Facebook wird für sie attraktiver.
    • und Facebook hat davon am allermeisten, weil mit jeder Anwendung der Wert von Facebook steigt, sowohl weil eben mehr Funktionalität angeboten wird, als auch und besonders weil jede Anwendung weitere und andere Vernetzungs-, Interaktions-, und Aufmerksamkeitsdaten generiert, von denen Facebook letztlich lebt (und die in ihrer vernetzten Aggregiertheit / aggregierten Vernetztheit viel wertvoller sind als der Verzicht auf eine Gewinnbeteiligung). Dadurch wird Facebook nicht nur attraktiver als andere social networks, auch die Kosten für’s etwaige Switchen werden für den bestehenden User immer grösser, je mehr und auf je vielfältigere Weise er seine Zeit investiert und je leichter er die auch wieder immer vielfältigeren Ströme seiner Freunde rezipieren kann.

    Geschickter Zug. Und wer in den nächsten 3 Monaten seine Anwendung nicht auf Facebook portiert hat (wär eigentlich witzig: StudiVZ in Facebook), ist selbst schuld. Bald wird es wesentlich schwieriger sein, eine Initialverbreitung anzustossen.

    (auch 2012 gelesen noch ganz gut, ist hier aber nur wegen der bedeutung des aktes selbst)


    Irgendwie

    24.03.2006

    … tut sie mir doch leid, die Musikindustrie mit ihrem aussichtslosen Kampf, nicht um ihre Kunden, sondern gegen sie (und gegen alles was diese wollen), nicht um das Internet und alle damit verbundenen Möglichkeiten und Ströme, sondern frontal dagegen. [Produzieren kann heute jeder, distribuieren auch, die Stars werden künftig an den Rändern gemacht und nicht von Werbefritzen, man muss kein Ökonom sein, um sich auszurechnen was mit ihr passiert.] Es nervt.

    (siehe netzpolitik oder plus nine oder sofa)