hackr.de

die romantische komödie


Selection 2010 Pt. 1

eine kleine Auswahl an Posts aus dem Jahr 2010, teil 1


Rutsche

einen guten Rutsch ins neue Jahr!

31.12.2010 # https://hackr.de/2010/12/31/rutsche

Der Knacks


(nts: mich öfter selbst zitieren)

also twittern die spatzen, dass yahoo zumindest in erwägung zieht, delicious zu killen. ich kann’s mir zwar wirklich nicht vorstellen, bzw. kann ich mir schon vorstellen, dass delicious intern mal auf einer von buchhaltern erstellten schwarzen liste landet, aber nicht, dass yahoo so dumm ist, nicht die dagegen aufzurechnenden (1) kosten für die sich damit vermasselnden gelegenheiten und (2) kosten des sich damit verbindenden sozialen unmuts zu sehen, wobei, ich kann es mir leider doch vorstellen, aber ich tu mal für mich selbst aus psychohygienischen gründen so, als ob nicht, und ich tu aber für diesen eintrag hier als doppelblöff so, als ob doch.

den tweet meine ich ernst, aber ich muss erklären warum:

delicious ermöglicht den knacks im kopf, der uns zu sozialen bürgern macht. wer delicious kapiert, der kapiert den radikalen shift des sozialen webs; der transformiert sich selbst, weil man sich selbst danach nicht mehr gleich denken und wahrnehmen kann, wie zuvor.

leider fehlt uns ein bisschen die terminologie, sozial/social kommt leider mit den verschiedensten bedeutungen und konnotationshöfen; die social media weichspülvariante – alles mit irgendeiner art von userbeteiligung – ist derzeit natürlich dominant, aber eben auch völlig wertlos; die orthodoxe web 2.0 variante – plattformen werden mit den benutzern zunehmend smarter und bekommen eine veränderte/sich beschleunigende funktionslogik etc. – ist zwar ein bisschen ergiebiger, aber eben auch rein technokratisch. wie so oft ist der (pseudo-) systemtheoretische ansatz am fruchtbarsten: sozial proper entsteht im sich verändernden gefüge, das dadurch entsteht, dass sich systeme gegenseitig beobachten und sich auch beim gegenseitigen beobachten gegenseitig beobachten. wer also etwas (wie ein link) publiziert, der weiss nicht nur, dass er dabei von anderen beobachtet wird (i.e. weil sie ihm folgen, weil sie dem tag folgen, etc.) und dass er dabei von der plattform ‘beobachtet’ wird (i.e. indem er die intensitäten und ströme mitgestaltet), sondern er weiss auch, dass die anderen (benutzer und plattform) wissen, dass er das weiss, und auch wissen, dass er weiss, dass sie das wissen. das soziale bewusstsein entsteht also in diesem wissen um die verflochtenen beobachtungen und den damit verbundenen möglichkeitsräumen. was natürlich vor allem bedeutet, dass man überhaupt nix weiss.

delicious ist deshalb so wichtig, weil es der einfachst mögliche und also paradigmatische dienst zur triggerung dieses knackses ist. natürlich kann man den knacks auch woanders haben, aber delicious ist dafür prädestiniert, weil es eine genuin egoistische motivation (ich speichere bookmarks für mich, mich, mich) in eine soziale Aktion verwandelt. und es ist auch deshalb dafür prädestiniert, weil die motivation für diesen übergang von egoistisch zu sozial selbst ‘rein’ ist, also keinen rattenschwanz an eigeninteressen mit sich bringt. (das stimmt so nicht ganz, aber mehr oder weniger).

(das in diesem sinne verstandene ‘sozial’ ist also grundsätzlich zu unterscheiden vom im social media sinne verstandene ‘sharing’.)

((ob und ggf. wie man dann delicious verwendet oder nicht ist eine gänzlich andere geschichte; der bereich social bookmarking hat sich weitestgehend ausdifferenziert und verschiedenste dienste bedienen verschiedenste bedürnisse und dispositionen, triggern verschiedenste dynamiken und eignen sich für verschiedenste situationen und/oder communities. aber wer delicious nur an den funktionen und features festmacht, oder nach einem open source klon schreit, oder glaubt, gezwitscherte links sind die nächste evolutionsstufe, etctrara, der hat nichts kapiert))

17.12.2010 # https://hackr.de/2010/12/17/der-knacks

Am Ende der Wurst

Wenn man die Bedeutung vom Web wirklich verstehen will, muss man eigentlich nur einen Gedanken im Hinterkopf behalten:

Das Web ist ein System, das es anderen Systemen ermöglicht, füreinander Umwelt zu sein.

Mehr ist es nicht und das ist natürlich auch eine banale Beobachtung, aber in dieser Form hat es das noch nie gegeben. Natürlich war die ganze Welt auch vor dem Web nichts anderes als die Ausdifferenzierung von Systemen, die teilweise füreinander Umwelten waren. Aber die grundsätzliche Möglichkeit füreinander Umwelt zu sein war vor dem Web begrenzt. Mit dem Web ändert sich das, viel mehr Systeme können sich anderen Systemen viel leichter als Umwelt zur Verfügung stellen. Der Effekt ist eine zunehmende Komplexität der Ausdifferenzierung der Subsysteme und eine potenzierte Komplexität des Gesamtsystems.

Wenn man sich beim Beurteilen von Phänomenen kurz überlegt, was plötzlich mit wem kann, dann erklären sich oft sowohl die Auswirkungen als auch die Widerstände fast von selbst.

Eine einfache Unterscheidung, die man zur Beobachtung treffen kann, ist die Unterscheidung in menschliche und maschinelle Systeme und wie die sich durch das Web gegenseitig als Umwelt zur Verfügung stellen können und dann was Neues triggern. Trifft man diese Unterscheidung, dann gibt es drei Beziehungstypen (und ich beziehe mich dabei auf die Intention; natürlich ist auch die über das Web vermittelte Mensch zu Mensch Beziehung eben über das Web und also ein Bündel von Maschinen, über maschinelle Interfaces vermittelt. Das stört zunächst aber nicht. In genaueren Beschreibungen müsste man sich natürlich anschauen, inwieweit diese Vermittlung selbst wiederum Einfluss auf die Beziehung nimmt; und man könnte bzw. müsste natürlich auch die Systemtypen viel feiner differenzieren): Menschen für Menschen; Menschen für Maschinen und umgekehrt; und Maschinen für Maschinen.

(1) Menschen für Menschen

Dass potentiell jeder Mensch plötzlich Umwelt für jeden anderen Menschen sein kann, ist vielleicht die grösste Revolution. Waren davor die möglichen Beziehungformen beschränkt und durch verschiedene gesellschaftliche Formationen und Konstellationen vermittelt, reicht jetzt im Grunde ein Blog oder ein Twitter-Account, um etwa jeden interessierten Anderen an der eigenen Gedankenwelt teilhaben zu lassen.

Ich spare mir eine längere Ausführung und eine Auflistung der Formen (neben Text gibt’s Fotos und Videos und Musik, neben expliziten Signalen wie likes oder shares oder faves gibt’s implizite Signale, etctrara) – das was man unter social web zusammenfassen könnte ist hinreichend beschrieben und bekannt -, aber eine Anmerkung:

Facebook ist in diesem Sinne zwar verständlicherweise die meistbenutzte Plattform, weil es die Kommunikation unter Freunden vereinfacht und verbessert und wir natürlich mit unseren Freunden am meisten zu schnacken haben, aber Facebook ist genau wegen dieser Limitation auf die Freunde gleichzeitig auch die am wenigsten disruptive Plattform, weil es keine neuen Beziehungen fördert, die davor nicht möglich waren. Facebook ist eine inkrementelle Verbesserung der Kommunikation zwischen bestehenden Beziehungen, die zwar im Web stattfindet, die sich selbst aber nicht als Umwelt zur Verfügung stellt und also keine Anschlüsse ermöglicht – beobachtbar ist nur die stumpfe Tatsache der Quantität der Aktivitäten in der Blase Facebook via Referrer.

(2) Menschen für Maschinen

Aber Menschen koppeln sich nicht nur an andere Menschen, sie koppeln sich auch an Maschinen und die Maschinen koppeln sich an uns. (Maschinen verwende ich hier ganz lose und unpräzise – siehe oben – als Superset von Programmen, Diensten, Plattformen, Sensoren, Daten und Datenbanken, usw., die ans Internet angeschlossen sind.)

In dem Moment, in dem wir irgendwas publizieren, einen Dienst benutzen oder auch nur unschuldig herumsurfen oder irgendwas shoppen, in dem Moment also, indem wir uns implizit oder explizit als mögliche Umwelt zur Verfügung stellen, kommt eine Schar an Bots und indizieren es in Suchmaschinen, loggen die Daten zur weiteren Auswertung, registrieren Signale für irgendwelche Rankings, usw., und prozessieren das entsprechend ihrer Möglichkeiten. Gleichzeitig können wir die Möglichkeiten benutzen und weiterprozessieren, die uns Maschinen zur Verfügung stellen, und bei den zehntausenden Diensten hätten wir viel zu tun.

(3) Maschinen für Maschinen

Und natürlich koppeln sich auch Maschinen an Maschinen. Das paradigmatische Phänomen sind natürlich die Mashups – ein Computer schnappt sich verschiedene Daten von verschiedenen anderen Computern und Datenbanken und macht daraus was Neues.

Das Zauberwort dafür heisst API. APIs sind gwm. die Möglichkeit von Maschinen füreinander Umwelt zu sein.

Diese drei grundsätzlichen Beziehungstypen können dabei natürlich miteinander verschaltet und verkettet werden, der Output einer Beziehung kann immer als Input einer anderen Beziehung herangezogen werden, und dabei kann es auch zu Rückkoppelungen, Netzwerkeffekten, Beschleunigungen, etc. kommen.

Rivva z.B. macht die Outputs von Menschen (Blogs) zu seiner Umwelt, schnappt sich also Feeds und generiert nach einem Regelwerk einige Seiten, die sich Menschen wiederum zu ihrer Umwelt machen können, um sich zu informieren oder sonstiges. Rivva vermittelt also Beziehungen zwischen Menschen.

(An irgendeinem Ende der Wurst steckt natürlich immer ein Mensch, aber es ist sinnvoll, die Maschinensysteme getrennt zu behandeln, zumal Beziehungen mit menschlicher Beteiligung begrenzt sind und nicht skalieren und an den säugetierischen Körper gekoppelt bleiben, während Beziehungen unter Maschinen wunderbarst skalieren.)

Dabei wichtig ist: Es ist grundsätzlich offen wer was wie damit macht; mit einigen Dingen werden wir rechnen, mit anderen nicht. Und das bringt natürlich Menschen und Institutionen zum Auszucken, das muss geregelt werden.

Privacy kann etwa als der Versuch eines Systems, das was von ihm selbst von anderen Systemen wahrgenommen werden kann zu begrenzen und zu kontrollieren, beschrieben werden; Datenschutz als der Versuch der Regelmentierung, was andere Systeme mit Daten, die sie von einem System schon haben, machen dürfen (z.b. nicht verkaufen oder inkl. Namensnennung veröffentlichen); Copyright als der Versuch der Regelmentierung, welches andere System geschützte Inhalte (re)publizieren darf; etc.

Gleichzeitig bedeutet die Tatsache, dass es grundsätzlich möglich ist, füreinander Umwelt zu sein, nicht, dass sich Systeme auch tatsächlich als Umwelt verschalten und verketten. Jedes System bleibt letztendlich an die eigenen Unterscheidungen und die internen Ausdifferenzierungsmechanismen gebunden, jedes System muss mit der Komplexität und explodierenden Quantität der möglichen Umwelten auf eigene Weise klarkommen. Die Beschleunigung und Komplexität ist an die Grenzen der Wahrnehmbarkeit und den Grenzen der jewiligen Systemkomplexität gebunden.

Systemen steht es im Übrigen auch völlig frei, sich nicht an das Web zu koppeln oder sich dem Web nicht zur Verfügung zu stellen. Allerdings müssen sie damit rechnen, dass sich ihre eigene Umwelt ändert, weil die als Umwelt wahrgenommenen Systeme sich mit dem Web verbinden könnten und ggf. im Laufe der Zeit deshalb verändern könnten und wahrscheinlich auch verändern werden oder ohnehin schon verändert haben. (zeitungen z.b. täten nicht schlecht daran, das gedanklich durchzuspielen, bevor sie mit irgendeinem paywall blödsinn aufwarten – die umwelt hat sich nämlich schon verändert. waren zeitungen in der alten formation das ideale medium dafür, die öffentlichkeit zu informieren, und deshalb gesellschaftlich wertvoll und anerkannt, so degradieren sie sich selbst mit einer paywall zum newsletter, der nicht mehr die öffentlichkeit sondern nur noch eine bezahlende clientel informiert).

Ganz grundsätzlich muss sich jedenfalls jedes System zwei Fragen stellen:

(1) wie stelle ich mich anderen Systemen zur Verfügung? und
(2) welche anderen Systeme nehme ich selbst auf welche Art als Umwelt war?

Warum ich das eher unmotiviert lang und breit erwähne? Weil die aktuelle Aufregung, die WikiLeaks verursacht hat, damit nicht wirklich beschrieben werden kann, was wohl die Irritation rund um WikiLeaks erklärt:

WikiLeaks macht was Interessantes: Es macht System-Interna öffentlich und stellt sie als Umwelt zur Verfügung. WikiLeaks durchbricht die grundsätzliche Grenze, dass sich Systeme nur über eine – mehr oder weniger kontrolliert definierte – Oberfläche oder Haut und auf – mehr oder weniger – kontrollierte Weise zur Verfügung stellen.

Die Überschreitung von WikiLeaks besteht nicht im Aufdecken von Informationen. Einerseits gibt es ja wenig, was man Politikern nicht zutrauen und worüber man sich noch wundern würde, und kritischer Enthüllungsjournalismus, also die kritische Beobachtung von politischen, institutionellen, staatlichen, wirtschaftlichen, etc. Systemen, hat andererseits auch vor WikiLeaks auf geleakte Dokumente (und also Interna) zurückgegriffen, auf die Aussagen von Informanten vertraut.

Die Überschreitung besteht im Veröffentlichen eines unvermittelten Blicks auf die systeminternen Beschreibungen und Mechanismen, die Innereien, auf das obszöne Genießen einer Institution selbst.

Die Inhalte haben insgesamt wenig irritiert, aber die Obszönität des Blicks umso mehr, und dagegen greifen die üblichen Reaktionsmechanismen nicht (die im allgemeinen ja in einem sich-selbst-auf-die-eigene-schulter-klopfen bestehen; was sind wir für ein tolles land, bei uns könne leute protestieren und die presse kann im nachhinein auch über die lügengebilde und desinformationen berichten), in Ermangelung besserer Alternativen hilft nur sofortiges Abschalten und Hinschauverbot (Domain sperren, Amazon hostet nicht mehr, Spenden können nicht mehr via PayPal eingezahlt werden, die Library of Congress blockt, Studenten werden schon vor der Verwendung des Wortes WikiLeaks gewarnt, wenn sie einen staatlichen Job wollen, etc.)

Gleichzeitig ist die Frage ob das gut ist (Transparenz, Demokratie, yay!) oder schlecht (emisch: gesellschaftliche Ausdifferenzierungen brauchen abstrahierte Subsysteme, die Komplexitäten vorprozessieren und auch mal die dreckigen Jobs erledigen; etisch: erzwungene Offenlegung führt zu irrationalen Abwehrreaktionen und psychotischen Restrukturierungen) weniger einfach zu beantworten, als das im ersten Impuls vl. scheint. Bzw. stellt sich die Frage gut/böse so gar nicht, aber welche Frage stellt sich?

04.12.2010 # https://hackr.de/2010/12/04/am-ende-der-wurst

Angry Birds

(hab mich nach nicht mal 10 monatiger abwartezeit jetzt doch mit einem ipad ausgestattet; was soll ich sagen… es ist nicht magical, aber es ist bzgl. der haptik absolutely fabulous. im grunde ist dazu natürlich ohnehin schon alles gesagt, aber kurz ein paar gefühlte beobachtungen, die von meinen erwartungen, die ansonsten ohne mir auf die schulter zu klopfen überraschend zutreffend waren, ein bisschen abwichen:

closed shop / selling machine: aus reiner konsumentensicht ist das für eine alltägliche benutzung irrelephant. man kann nicht immer alles genau so machen, wie man will/es gewohnt ist, aber man kann das meiste dann doch irgendwie machen (e.g. dropbox als ersatz für ein filesystem). diese synchronisierung via itunes ist etwas eigenwillig, aber auch nicht soo ein problem, und jenseits dieser synchronisierung kann man itunes auch völlig ignorieren, wenn man will.

consumption device: im grunde stimmt das, es ist die ultimative komsumptionsmaschine, meine couch hatte nach der ersten nacht einen ähnlichen abdruck wie die couch der simpsons nachdem sie kabelfernsehen bekommen haben, aber: das meiste webbasierte und vieles appbasierte zeugs hat eine anschlusskomponente (twitter, instapaper, etc.) und vor allem: teilweise werden völlig neue formen möglich und sinnvoll, das rezeptionsverhalten für texte dürfte wich wirklich neu ausdifferenzieren, aber durchaus auf einem höheren niveau. inhalte, die für das ipad aufbereitet wurden, sind tatsächlich ein genuss wie er beim desktop/laptop nicht möglich ist, und über diesen genuss lassen sich glaub ich dinge reinschleusen, die sich in einem anderen kontext nicht reinschleusen liessen; hab noch zu wenig gesehen, aber gefühlsmässig könnte es zu einer renaissance der nicht ganz kurzen, also mittellangen texte kommen, wenn sie entsprechend kuratiert sind (zeitungen haben hier sogar eine echte chance, die sie sich tatsächlich nur durch hirschigkeit selbst verbauen können; flipboard geht in die richtige richtung, bräuchte aber mehr controls jenseits von twitter/fb/ihren channels); aber toll z.b. ist die npr-app. superunaufdringlich, man flippt durch die beiträge und addet das gut klingende on the fly zur playlist, rebundled sich also seine radiostation auf basis des auf bis zur beitragsebene ungebundleten radios; das konnte man zwar auch schon auf der webseite machen, aber in der app fühlt es sich anders an). und consumption device stimmt auch überhaupt nicht, weil alles produziertechnische möglich ist, was im browser im web halt möglich ist, also sehr vieles. wer sich noch eine tastatur dazu kauft, der kann auch seinen roman schreiben. und es gibt eine tonne von apps zum direkten produzieren.

mein derzeitiges setup:

die vorinstallierten ignoriere ich bis auf den app store (give me), ipod, videos, maps und safari.

dropbox, evernote, simplenote reicht als basic bundle für text und productivity, ibooks und stanza für bücher und pdfs, google earth ist auf dem ipad der hammer, twitter (find ich ok, aber nicht so super wie viele tun), today’s tech, flipboard, pulse, npr so als input streams, adobe ideas, eyewitness, epicurious und angry birds für zwischendurch.)

29.11.2010 # https://hackr.de/2010/11/29/angry-birds

ReciprociCity

duh, Google besteht beim Zugriff auf die Kontaktdaten via der Contacts API fortan auf Reziprozität :

5.8. Google supports data portability. By accessing Content through the Contacts Data API or Portable Contacts API for use in your service or application, you are agreeing to enable your users to export their contacts data to other services or applications of their choice in a way that’s substantially as fast and easy as exporting such data from Google Contacts, subject to applicable laws.

Der Grund ist natürlich, dass sie sich denken: es kann doch nicht sein, dass Facebook sich unseren social graph einverleiben kann, aber wir nicht den von Facebook. Aber die Methode hat zwei Probleme:

(1) es geht sie nichts an. Es sind die Daten der User und wenn einer seine Kontakte in einen anderen Dienst importieren will, dann kann es nicht an Google liegen nein zu sagen, weil der andere Dienst nicht die gleiche Möglichkeit offeriert.

(2) und beunruhigender: Google erweist sich als erratisch. Bis dato konnte man Google mit etwas gutem Willen immer unterstellen, nach bestimmten Prinzipien und mit einer bestimmten Moral ausgestattet zu handeln. Dass ihnen dieses Handeln in der Folge auch immer selbst zugute kam, konnte als positiver Nebeneffekt beschrieben werden. Wenn sie aber beginnen diese Prinzipien dort zu verklausulieren, wo sie ihren unmittelbaren Vorteil plötzlich nicht mehr sehen oder um Druck auf einen Konkurrenten auszuüben (auch wenn das motiv nachvollziehbar ist), dann bedeutet das, dass man ihnen alles zutrauen kann. Das Problem also ist, dass ihnen das überhaupt in den Sinn kommt (bzw. dass sie in der Folge keine Mechanismen haben, dieses in den Sinn Gekommene (klar kann das einem Engineer, der am Google Me sitzt und sozialgraphische Allmachtsphantasien entwickelt, auch mal durch den Kopf gehen) zu verwerfen.)

05.11.2010 # https://hackr.de/2010/11/05/reciprocicity

Get Out

In writing his rebuttal, Dixon neatly encapsulates two pervasive attitudes amongst bloggers and advocates of social media.

The first of these is the knee-jerk impulse to defend social media against any attack, especially when it comes from someone who, as Dixon says of Gladwell “doesn’t seem to really use Twitter”.

Which leads to the second, and more dangerous, attitude those same fanatics share: a confusion between Means and End; the idea that saying something is the same as doing something.

Paul Carr über Chris Dixon über Malcolm Gladwell

(die ganze debatte leidet – wie so viele andere debatten auch – unter der vermischung von verschiedenen diskursebenen; etwaige kritik an aussagen über dinge wird gleichgesetzt mit einem ultimativen urteil über das jeweilige ding selbst; wer wie gladwell den kardinalfehler begeht, twitter und shirky im gleichen artikel zu unterstellen, dass twitter/social media einige eigenschaften vermissen lässt, die sich (nicht nur) im politischen aktivismus der 60er finden lassen, dann kann das nur bedeuten, dass der twitter nicht verstanden hat und wie sich damit (per definitionem irre starke) geschäftsbeziehungen entwickeln können; gladwell macht zwar den gleichen fehler, er zieht twitter in etwas hinein, womit es nichts zu tun hat, nur weil andere irgendwelche schwachmatigen heilsversprechungen daran knüpfen, aber unterm strich ist seine analyse zutreffend und dicht.)

((die zugrunde liegende trope ist natürlich das 1:1 mapping von den funktionssystemen bzw. deren beschreibung, die sich in ‘alten’ milieus herausgebildet haben, auf das sich gerade formierende ‘neue’ milieu, wobei die derzeitigen erzählungen auf beiden seiten der disposition (wtf?/yay!) von einem minderwertigkeitskomplex durchzogen scheinen; interessanterweise ist dieser das symptom vom umstand, dass alle genau das gegenteil von dem glauben, was sie sagen bzw. zu glauben glauben; im falle wtf?, weil sie selbst wirklich an die neue macht glauben, es aber nicht wahrhaben wollen und die alte bewahren wollen; im falle yay!, weil sie selbst in wirklichkeit noch nicht daran glauben und es deshalb mit einem neuer, besser, weiter übermalen müssen))

25.10.2010 # https://hackr.de/2010/10/25/get-out

Ethische Rocker II Das Skandalon schlägt zurück

dunno, nicht nur mspro verrennt sich irgendwie, auch kusanowsky – und zwar in mspro…

(ich kann zwar sein problem mit mspro nachvollziehen, oder genauer: sein problem mit der diagnostizierten (mir ist nichts aufgefallen, aber das heisst nix) anschlussstattgefundenhabenheit, aber nicht, warum er sich darüber wundert. zwei lose anmerkungen: “Das Internet bricht diese Struktur nun horizontal herunter und mehr noch: die Prozesse zur Herstellung von Unterscheidungsroutinen, die Grade des Informiertseins beobachtbar machen, werden invisibilisiert” (davor waren sie in den selbstlegitimationsprozessen der massenmedien konstruiert) – ich würde eher sagen, dass sie radikal personalisiert werden. die sichtbarkeit bleibt also durchaus erhalten, nur verschiebt sie sich hin zur statistischen beobachtung der emergenten referenzstellen. “Für Peter Kruse sind solche Phänomene nur Erregungsmuster, aber den entscheidenden Ordnungsunterschied kann er nicht erklären. Dieser Unterschied ist im chaotischen Verfahren eben nur simulierbar, nicht dokumentierbar” – gerade andersrum: er ist nur noch dokumentierbar, und zwar als effekt der komplementären vervollständigung der simulation, bei der alle so tun als ob. interessanterweise kommt auch auf der ebene der simulation das skandalon manipulation der dokumentform zurück, allerdings als sein literaler geist, indem es sich in die performate selbst einschreibt. anschlussfähig ist vor allem das skandalon selbst. vor allem das deutsche web kann man mehr oder weniger vollständig als gigantische disseminationsmaschine für skandale/aufregungen beschreiben (man braucht sich ja nur die liste an bloggern anzuschauen, die lobo in seinem rant für erwähnenswert erachtet (wobei lobo und sixtus interessanterweise noch am ehesten dieser dynamik widerstehen, deren funktionslogik entspricht eher dem pop, indem sie den skandal selbst zumindest ironisieren (bzw. irokesieren))))

17.10.2010 # https://hackr.de/2010/10/17/ethische-rocker-ii-das-skandalon-schlaegt-zurueck

Meme Central

kleiner Nachtrag zu Negativer Dialekt … an dieser Konstellation lässt sich übrigens auch schön das Wesen der Meme beschreiben.

Auch Meme sind ja irgendwie in diesem Bereich des Imitierens verortet, aber Meme sind ein genuin anderes Biest.

Auch bei Memen gibt es dieses Element des Nachmachens, aber bei Memen geht es nicht darum, in der Nachahmung irgendein Ursprüngliches zu imitieren bzw. zu irgendeinem Ursprünglichen zurückzukommen, sondern darum, Serien von Verkettungen von Variationen einer Form zu etablieren.

Ein Meme bezieht sich dabei in seiner Variation nie auf das Original selbst, sondern immer schon auf die Möglichkeit der Verdoppelung als Variation. Insofern hat ein Meme auch keinen ‘Autor’. Es braucht natürlich ein Original (ein erstes photo einer katze mit text in lolcat drauf) und es braucht eine erste Variation als Variationsoriginal, aber erst die Variationen unter Bezug auf die Variierbarkeit innerhalb einer Serie anderer Variationen selbst machen die Angelegenheit zum Meme.

(gut funktionierende meme sind also sehr spezifisch in der form/dem format, aber völlig offen im inhalt)

03.10.2010 # https://hackr.de/2010/10/03/meme-central

Negativer Dialekt

When he does an accent I am not familiar with it sounds excellent because he’s doing it the way we’d do it ourselves.
But when when he does an accent I am familiar with the problems jump out.. and yet they are things I can’t quantify: it’s one of those ingrained things deep in the back of your mind where you just hear that something, somewhere, just isn’t quite right.

Kommentar zu dem kid does 24 accents Video und diese Beobachtung trifft auf sehr vieles zu – nachgemacht wird nicht das eigentliche Ding, sondern die anderen Nachmacher des Dings, und steckt man nicht drinnen, dann klingt das nachgemachte Nachgemachte richtiger als das nachgemachte Eigentliche und eigentlich sogar richtiger als das Eigentliche selbst.

(es gibt natürlich ausnahmen, etwa franz beckenbauer, der klingt beckenbauerischer als die besten beckenbauer-imitatoren, für den gilt der witz: er schaut aus wie franz beckenbauer und er klingt wie franz beckenbauer, aber lassen sie sich nicht täuschen, es ist franz beckenbauer)

Das gleiche Prinzip kennt man aber auch von Zeitungen, Zeitschriften, Personen, etc. Da hat man auch über weiteste Strecken das Gefühl eine gute Einschätzung zu bekommen (sag ich mal), bis sie über ein Thema schreiben über das man selbst mehr Ahnung hat, dann wirken die Ergüsse plötzlich völlig daneben, sie werden aber üblicherweise in der gleichen autoritativen Selbstverständlichkeit wie alles andere auch vorgetragen.

Die Schlussfolgerung ist natürlich, dass alles immer im Grunde falsch ist, es aber auch gut genug ist, um für die meisten Leute für die meisten Felder zu funktionieren.

Aber warum ich das hier erwähne: Mit einem Schlag wird plötzlich verständlich, warum der Großteil des (nicht nur massenmedialen) Beschreibungsdiskurses des Webs so gut funktioniert, obwohl er so dermaßen doof ist. Aber für die Schreiber ist das nicht doof, weil sie sich selbst nur auf der Ebene des nachgesagten Nachsagens bewegen und dort halt die üblichen Versatzstücke rekombinieren. Und für die Leser ist es auch nicht doof, weil eben die Ebene des nachgemachten Nachgemachten sogar richtiger klingt, als jeder Versuch das Eigentliche zu erklären oder Aussagen aus dem Eigentlichen selbst.

Und auch der ganze Komplex social media wird plötzlich verständlich, nämlich als kollektiver Übergang vom eigenen Dialekt (aka web 2.0) zum kollektiven Nachmachen der Nachmachung eines sich als kleinsten gemeinsamen Nenners herausgebildeten Basisdialekts, der gleichzeitig eine Art negative beckenbauerische Schließung (also die funktionslogik eines beckenbauers ohne dass es einen eigentlichen beckenbauer gibt) bewirkte.

(die teilnehmer selbst und die externen beobachter kommen auf der ebene des nachgemachten nachgemachten plötzlich zusammen; es schaut aus wie social media und es klingt wie social media, aber lassen sie sich nicht täuschen, es ist social media. die kosten der richtigen externen/etischen beschreibung waren also, dass die internen/emischen selbstbeschreibungen auf eine dünnere selbstsimulation reduziert wurden)

02.10.2010 # https://hackr.de/2010/10/02/negativer-dialekt

Hello, I Must Be Going

But I think the kind of open I was working on is mostly gone. This is not a bad thing, just the result of the changing industry, people’s careers, and economic conditions. For the most part, the movement that started with OpenID and OAuth is largely over.
..
There is still interesting work done by Blaine Cook, Status.net, and the federated social web folks, but it’s all too experimental, and I don’t see it anywhere near mass market anytime soon.

In seiner Symptomatik ganz interessanter Eintrag von hueniverse zum Stand/Ende von ‘open’, social und corporate culture (via). Er zeichnet zwar eher ein ernüchtertes Bild, nicht ohne Hoffnung, aber der Shift geht vom talking (open) zum doing (product).

(ein aspekt wird indirekt wieder einmal klar: teile des potentials von offenen technologien werden deshalb verspielt, weil die entwicklungen selbst im valleyschen geist des gewinnen wollens betrieben werden. wenn etwas den massenmarkt nicht erreicht, wird es ultimativ als versager abgeschrieben. es wär vielleicht mal nicht uninteressant, wenn sich die entwicklung nicht an der möglichen kompatibilität mit allen orientieren würde, sondern an den bedürfnissen von leuten, die tech-savvy sind und denen offenheit und selbstbestimmbarkeit wichtig ist. man kann da sicher zwischen standards und protokollen unterscheiden, die basistechnologie oder webinfrastruktur sind, und jenen, die kulturelle serien triggern können. bei ersteren muss man sich halt einmal drauf einigen und dann funktioniert die maschine halt besser.)

17.09.2010 # https://hackr.de/2010/09/17/hello-i-must-be-going

The Last Thing

In a way, the Twitter platform has come full circle. Twitter’s API grew out of its website as a means to enable outside developers to accomplish what the company, with its then-tiny and overburdened team, could not. Now that Twitter has ample resources, the matured platform is enabling the company to build the best applications in the ecosystem in-house. Going forward, it may be that the Twitter Platform primarily serves Twitter’s interests, in stark contrast to the era of API growth I was around for, in which platform development was driven almost exclusively by the needs of the developer community.

The call for a decentralized Twitter speaks to deeper motives than profit: good engineering and social justice. Done right, a decentralized one-to-many communications mechanism could boast a resilience and efficiency that the current centralized Twitter does not. Decentralization isn’t just a better architecture, it’s an architecture that resists censorship and the corrupting influences of capital and marketing. At the very least, decentralization would make tweeting as fundamental and irrevocable a part of the Internet as email. Now that would be a triumph of humanity.

Alex Payne mit einer Art Vermächtnis anlässlich der jüngsten Entwicklungen bei Twitter.

(mit seinem vorschlag, dass sich twitter dezentralisieren möge – mit dem triumph der menschlichkeit als ergebnis -, ist er nicht durchgekommen, jetzt befürchtet er bei twitter den triumph der corporate weasel, die nur noch vermarkten und in ihren eigenen interessen entscheiden werden. dunno, irgendwie kauf ich das nicht ganz. an der plattformhaftigkeit von twitter hat sich zunächst einmal nichts verändert, im gegenteil, mit der streaming api ist eine neue facette dazugekommen, und die rate limits wurden mit oauth deutlich erhöht. was sich verändert hat, ist der prozentuale anteil der energie, den twitter darauf verwendet, twitter, die webseite, zu utilisieren und zu vermarkten. während also davor die erzählbare geschichte war: wir lieben die entwickler, wir tun alles für sie, ist jetzt die geschichte: wir lieben unsere user, die entwickler lieben wir auch, aber schaut euch bitte nach was anderem als den low hanging fruits um. als ehemaliger mastermind der api sieht er da natürlich die damit assoziierbaren qualitäten (mit der trope api und plattform, die die pawlowsche la ola triggert, omg) schwinden, aber der schwund ist ja nur ein relativer. das problem ist eher, dass die api auch zum zeitpunkt der totalen aufmerksamkeit darauf nie so wirklich tolle war (sie haben sich sicher jahrelang den arsch aufgerissen, um mit gegebenen mitteln mit dem wachstum klarzukommen, aber die besondere liebe zu den entwicklern / die extra meile sehe ich trotzdem nicht; die api ist völlig ok, aber im grunde ein CRUD ohne U auf die vorhandenen funktionalitäten von twitter, die über die rate limits und die anzahl an abrufbaren historischen tweets ausbalanciert wurde), nur waren das damals halt 95% der aufmerksamkeit, jetzt sind es 30. interessanterweise erwähnt er den potentiell massivsten eingriff in die neutralität der plattformhaftigkeit nicht, mit t.co koppelt twitter nämlich möglicherweise bald alle geposteten links an sich selbst)

((im übrigen bin ich durchaus sympathetisch mit seiner hoffnung auf einen dezentralen nachrichtenstrom, nur sehe ich die dafür verantwortliche kraft nicht bei twitter. nicht weil twitter keine soziale/kulturelle/webökosystemische/etc. verantwortung hätte (die haben sie und es bleibt zu beobachten, ob sie beginnen zu zensieren, links zu blocken, accounts zu sperren, usw.), sondern weil twitter eine spezifische formation – eine kultur, wenn man will – etabliert, die die micronachrichten zu tweets und also eben zu dem macht, was sie sind.))

16.09.2010 # https://hackr.de/2010/09/16/the-last-thing

Seeking to Understand

If you are seeking to understand what is happening and how to respond to it, calling it “theft” immediately shuts the door on a variety of important points. It closes off a path to understanding both what’s happening and how one might best deal with it. I find that incredibly dangerous from the perspective of a content creator. Calling infringement theft or not isn’t just a semantic argument from people who like to argue.

Mike Masnick über den Kampf um die korrekte Terminologie.

(masnick ist übrigens einer der wenigen, die die verschiedenen ebenen von positionen (in diesem fall also die rechtliche, die betriebswirtschaftliche, die netzökonomische, die kulturelle, die moralische, etc.) auch in den ebendiese ebenen völlig vermischenden diskursgemengen auseinanderhalten können; wobei das (eigentlich interessante) szenario bleibt: wie reagiert das system auf einen kämpferischen platzhirsch, dem ganz grundsätzlich an keiner lösung gelegen ist usw.)

15.09.2010 # https://hackr.de/2010/09/15/seeking-to-understand

The Night of the Living Feeds

Schöner Satz zum RSS ist wieder einmal tot hubbub von Dave Winer:

I keep saying the same thing over and over, the Google Reader approach is wrong, it isn’t giving you what’s new — and that’s all that matters in news.
Succinctly put — news is about what’s new — and that’s it.

Die eigene Antwort auf die Frage, ob sich mit Twitter und Memetrackern die Technik des Abonnierens und Lesens von Feeds erübrigt hat oder nicht, hängt davon ab, für was man sich wie sehr interessiert (bzw. ob man sich überhaupt für etwas interessiert).

Interessiert man sich für die die Neuigkeit der Neuigkeit an sich, dann haben Feedreader tatsächlich ausgedient. Twitter ist da einfach der wesentlich effektivere Kanal, und die vollständige Anschlusskommunikation findet auf Twitter selbst (durch wiederholung der nachricht mit eigenem senf, durch retweets) statt. Was dabei neuigkeitswertig ist, ist systemeigenrichtig (um bolz zu paraphrasieren) – ist eine Nachricht neuwertig, dann findet sie mich automagisch indem ich den Strom einschalte; was mich nicht findet, kann es per definitionem nicht sein, sonst würde es ja im neuigkeitsrelevanten Zeitfenster von [die letzten 10 min, in de die letzten 10h] auftauchen. Zur Lückenfüllung am Abend noch Techmeme und passt.

Interessiert man sich aber für etwas (ein thema, eine person, etc.) selbst, dann sind und bleiben Feedreader die beste Technik, um dieses Interesse zu vertiefen.

Die erste Disposition führt als Organisationsstruktur zu einem (hypereffektiven, postmodernen) Schwarm, die zweite zu mehr oder weniger einsamen (existentialistischen, modernen) Individuen, die im Levy Flight herumkrebsen.

Ich mag beide Formen, was mich aber zunehmend nervt ist der latente Nihilismus des Schwarms. Es reicht ihm nicht der Wille zur Macht (unter den kollektiv geführten aber singulär repräsentierten regimen von facebook, twitter, 4chan, etc.), öfter als nicht ist damit auch eine Lust am Zerstören aller anderen Formen verbunden (können wir bitte RSS und das damit verbundene schuldgefühl der unread items endlich beerdigen und uns alle auf twitter einigen? nochmal winer: You don’t have to hunt around to find the newest stuff. And it doesn’t waste your time by telling you how many unread items you have. Who cares.; können wir bitte endlich einen schlussstrich unter gedruckte bücher und zeitungen ziehen und uns auf das (strahlende) ipad und wenn’s sein muss den (hässlichen) kindle konzentrieren? etc.)

14.09.2010 # https://hackr.de/2010/09/14/the-night-of-the-living-feeds

Google Mini-Me

gerüchte um ein kommendes ‘google me’ kursieren ja schon eine weile, was ich mir wünschen würde, pretty please:

google sollte sich auf das konzentrieren, was sie ursprünglich wollten und auch wirklich gut können – “die auf der Welt vorhandenen Informationen zu organisieren und allgemein zugänglich und nutzbar zu machen” – und nicht versuchen, selbst ein player im social zu werden. ersteres ist im bereich social web noch nicht gelöst und schreit fast nach einer lösung, zweiteres ist gelöst und sie haben dafür einfach kein händchen, wie sie immer wieder demonstrieren.

wenn man ihr mission statement auf das soziale web überträgt, dann wäre die aufgabe für google – ‘die auf der welt von menschen auf sozialen plattformen erzeugten informationen zu organisieren und allen daran interessierten zugänglich und damit interagierbar zu machen’.

mit fünf kleinen komponenten könnte ein google me diesen anspruch leicht und mit bestehenden mitteln, protokollen, apis und gegebenheiten erfüllen und sich selbst in eine soziale metawollmilchsau verwandeln:

  • social search
  • social reader
  • social writer
  • social contacts
  • profile

social search

die social search sucht und findet: (1) alles, was ich selbst auf den verschiedensten diensten gepostet habe, auch im privaten also nicht für alle sichtbaren. (2) alles, was meine freunde auf den verschiedensten diensten geposten haben, auch im privaten, wenn ich es auf dem jeweiligen dienst sehen dürfte. (3) alles, was alle anderen auf den verschiedensten diensten geposten haben, wenn es public ist.

mit buzz sind sie teilweise schon dort, friendfeed ist es schon fast ganz, auch mit den sinnvollen such-operatoren, nur suchen buzz und ff derzeit halt nur im von auf buzz resp. friendfeed publizierten anteil, google me müsste nur noch in die tiefen der tools hineingehen (wie es etwa greplin tut). und sie sollten zumindest nicht ausschliesslich auf den googleschen relevanz-saft setzen (wie bei buzz), sondern ergebnisse auch chronologisch anzeigen. eine google-gute suche im gesamten selbstoutput wär jedenfalls auch die beste motivation, leute zum anmelden und verknüpfen von services zu bewegen.

social reader

der social reader ist ein reader für alles soziale: (1) als reader für alles, was meine freunde auf den verschiedensten diensten geposten haben, auch im privaten, wenn ich es auf dem jeweiligen dienst sehen dürfte, auch wenn sie nicht bei google me angemeldet sind (think brizzly nicht nur für facebook und twitter sondern jeden beliebigen dienst). (2) als reader für alles, was alle anderen auf den verschiedensten diensten geposten haben, wenn es public ist.

unterm strich also wie der google reader, nur dass man damit alle existierenden sozialen outputs konsumieren und darauf reagieren kann. der reader sollte vollständig und nahtlos mit den anderen diensten integriert sein, reaktionen auf die beiträge anderer sollten nativ auf dem jeweiligen dienst erfolgen (ein like auf irgendwas auf facebook sollte ein facebook like sein, eine antwort auf einen tweet ein tweet mit gesetztem in_reply_too, ein kommentar auf einen blogeintrag sollte dort als echter kommentar erscheinen, ggf. mit assoziierung des eigenen disqus handles, etc.) google sollte aber keine weitere ebene der privacy einführen, könnte aber die google contacts in den mix werfen und dort dann mit irgendwelchen gruppen differenzieren, und sollte die auf den jeweiligen diensten gewählten settings respektieren und auch ströme von leuten integrieren, die nicht auf google me sind.

der knackpunkt aber auch das potential beim social reader sind die filter und views. im grunde reicht es aber schon aus, wenn man sich beliebig viele views selbst erstellen könnte. eine view ist der output einer liste von usern mit beliebig vielen include und exclude filtern (etwa: aus der liste meiner kontaktgruppe webmonkeys (skopus der user) zeige mir alle status updates von twitter, laconica und buzz (include filter), verstecke aber alle, die dort jeweils nur syndiziert wurden (also via twitterfeed, foursquare, …; exclude filter)).

die filter könnten durchaus dumm sein, durch die verknüpfung ließen sich aber supernützliche konstrukte bauen (unix prinzip der pipes).

social writer

mit dem social writer kann man von google me aus auf allen anderen diensten publizieren. bonuspunkte, wenn man selbst dafür regelwerke definieren könnte (wie etwa bei tarpipe). der writer ist eig. nur eine standalone ergänzung zu den reaktionsmöglichkeiten vom reader, man müsste dann aber google me nie mehr verlassen, wenn man nicht will.

der vorteil eines writers wäre auch, dass alle anwendungen mit einem schlag inputdevice-agnostisch würden, solange google me das gerät unterstützt (web, email, android, sms, …). think posterous ohne die posterous-einträge.

social contacts

das ist ein bisschen trickreich, man könnte hier auch sehr coole g’schichten machen, aber wichtig würde ich finden, dass google hier zwar den existierenden social graph (also die summe alle existierenden partialgraphen auf twitter, facebook, gmail contacts, etc.) aufsaugt und ggf. aufwertet, es aber bei en bestehenden beziehungen auf den jeweiligen diensten belässt und selbst keine zusätzliche komplexitäten einführt, ausser vl. listen.

in der minimalversion ist es ein sich selbst aktualisierendes adressbuch, das sich automagisch aus den bestehenden beziehungen befüllt, egal ob wer auf google me ist oder nicht. think friendfeed mit den virtual contacts.

profile

ums profil kommt man wohl nicht herum, hier kann man selbst jene dienste hinzufügen und verwalten, die man claimen möchte (auch mehrere twitter accounts, etc.). alle anderen sehen die kerndaten, die assoziierten dienste und einen lifestream mit den letzten outputs, für die sie sichtbarkeitsberechtigung haben (freunde bei facebook sehen meine facebook updates, die anderen nicht, usw.). man kennt das prinzip von den lifestream-aggregatoren und auch von google profiles, zu ergänzen wäre diese aber um eine vollständige und nahtlose integration mit autorisierungspflichtigen diensten (im grunde ein etwas aufgemotztes friendfeed). auch ums folgen/verfolgt werden kommt man wohl nicht herum, eigentlich sollten sie aber die finger davon lassen und das nur auf reader-basis verwenden.

(hmm, friendfeed habe ich ja mehrmals erwähnt, friendfeed hat wirklich einen schönen sprung – zumindest auf der social-reader seite und bzgl. der filter – vorgelegt. friendfeed hat aber (neben dem verkauf an facebook) einen grossen fehler gemacht: sie haben den reader selbst an einen eigenen social graph gekoppelt und in der folge einerseits weniger den nutzen als reader vom sozialen der freunde sondern als distributionsplattform für das eigene soziale (inkl. dem anhäufen von followern, cross postings auf gruppen, etc.) promotet, andererseits die gesamten ströme auf sich gwm. reterritorialisiert und die diskussion damit vom ursprünglichen auslöser dissoziiert (man muss an die ebene des limbo bei inception denken: plötzlich befindet man sich in einem kommentarstrang, weil ein kontakt bei einem friendfeed kommentar-thread mitdiskutiert, der selbst nur der like des retweets eines tweets über einen artikel auf digg ist, usw.). diese vertikale vernestelung hat natürlich auch was an sich und auch die dissoziation ist an sich nicht tragisch, aber es ist vielen nicht sehr leicht gefallen, für sich einen i/o-modus zu finden.)

anyway, in einem satz sollte google me ein dashboard für das social web sein, ein meta-read/writer für alles soziale. google hätte damit zwar nichts eigenes, würde aber das gesamte soziale weitestgehend durchdringen (alles was öffentlich ist und zusätzlich alles private, was mit dem eigenen account verbunden wurde), hätte damit also eigentlich ohnehin alles.

und das alles ließe sich, wie gesagt, mit existierenden standards und technologien realisieren (inputs via apis, pubsubhubbub oder als fallback rss, autorisierung via oauth, etwaigen anderen mechanismen oder un/pw, posts via api, likes, comments via api oder salmon, etc.).

07.09.2010 # https://hackr.de/2010/09/07/google-mini-me

Check-in Your Head

was ich derzeit am komplex location am interessantesten finde ist, dass sich an der entwicklung die logik von social media in reinkultur beobachten lässt.

location ist natürlich ein thema, das sicherlich wichtig werden wird. einfach deshalb, weil der ort in vielen situationen ein wichtiger kontext ist und man also unter berücksichtigung dieses kontexts was sehr nützliches damit anstellen könnte.

schaut man sich aber die neueren dienste rund um location – foursquare, gowalla, brightkite, facebook places, usw. – an, dann ist deren entwicklung nicht davon getrieben, dieses eventuell sehr nützliche zu entdecken, sondern ausschliesslich davon, so schnell wie möglich soviele user wie möglich heranzukarren (die chance zum fundierenden viral loop gibts nur einmal, die zweiten fressen die hunde). sie bieten keinen wieauchimmergearteten nutzen an, sondern verwenden jeden möglichen trick aus dem game mechanics handbuch, um check-ins als leere signifikanten in einem sozialen raum zirkulieren zu lassen. virale virealität sozusagen, das soziale objekt check-in wird zum bedeutungslosen sozialen macguffin, das aber das system am laufen hält.1

der einzige konkrete nutzen liegt in der vermarktbarkeit. check dich ein monat lang jeden tag bei starbucks ein und bekomme einen cookie gratis, etc. aber während nichts gegen eine selbstgewählte satie’sche regelmässigkeit der lebensgestaltung spricht, ist eine anpassung, nur um an irgendwelche freebies oder badges zu kommen, natürlich völlig schwachsinnig. (die relation der massenmedien (wir produzieren zeug und verkaufen die aufmerksamkeit/eyeballs an die werbetreibenden) wird zur relation der sozialen medien (user machen was auf unserer plattform und wir verkaufen die möglichkeit zur aufgedrängten ‘konversation’ mit ihnen an die werbetreibenden)).

auch die berichterstattung über die services beschränkt sich im grunde darauf, das wachstum zu beobachten/zu feiern. die leere stört nicht weiter, die bewertung der dienste erfolgt auf basis der geschwindigkeit, mit der sich neue user anmelden, oder auf basis der anzahl an check-ins. die frage nach der nützlichkeit eines dienstes stellt sich nicht, die frage ist, welcher dienst wohl der gewinner wird und alle anderen killed. interessanterweise wird die abstrakte logik von social media durchaus gerne mitgedacht, entweder als begründung für den erfolg des gerade führenden dienstes oder als gute tipps für schwächelnde dienste, bevor man sie dann endlich abschreiben kann.

(das paradoxe am bejubeln des wachstums ist ja, dass je mehr es wächst, desto grösser die frustration zu werden scheint, dass es nicht noch viel schneller wächst. omg, twitter schickt nur 1/4 der referrals von facebook zu den gawker properties; hier ist der plan, den sie befolgen müssen, damit sie endlich auch den mainstream erreichen, etc. und dass es zu einer art verachtung von allem anderen kommt, idealerweise begleitet von einem grabgesang (etwa vom bloggen, man denke nur an vox, man braucht sich ja nur die stats anschauen, alles ausser tumblr ist im freien fall, bloggen ist überhaupt eigentlich nicht besonders sozial , etc.))

((firmen sehen diese entwicklung sicher nicht ungern. hatte man davor mit einer amorphen masse zu tun, gibts jetzt einige stellen, auf die man sich konzentrieren kann. ein bisschen sentiment analysis auf facebook und twitter und man bekommt hinreichend differenzierte kennzahlen und kann seine interventionen planen; aber das ist natürlich auch ein pyrrhussieg, weil man sich einerseits die möglichkeiten aller alternativen verbaut, und weil man andererseits keinen wettbewerbsvorteil hat, weil alle anderen ja das gleiche tun können, bis es zu einer übersättigung kommt und dann gar nichts mehr funktioniert))

das wäre natürlich alles völlig wurscht, wenn es parallel dazu eine ‘gesunde’ ausdifferenzierung in diesem bereich (also den social media kernfeldern; in anderen bereichen funktioniert die ausdiffernzierung zumindest hinreichend gut genug) gäbe. aber die gibt es nicht, bzw. immer seltener. die gründer selbst haben die funktionslogik verinnerlicht, spätestens nach der ersten finanzierungsrunde wird der letzte funke ‘idee’ ausgetrieben und die ‘dummen’ kriterien in das eigene angebot injiziert und der eigene dienst in bezug auf den möglichen marktanteil hin restrukturiert. man denke etwa an die autodekonstruktion von digg, auch bei twitter werden erste symptome ersichtlich.

(mir fällt kein anderer bereich ein, der sich selbst so stark subordiniert. pop von der stange hin oder her, kein musikjournalist würde auch nur auf die idee kommen, innerhalb eines genres den weniger erfolgreichen acts nahezulegen, wie die erfolgreicheren zu klingen; und kein fan hat ein problem mit seinem eigenen geschmack, der ist per definitionem eigenrichtig, die distinktionsgewinne entstehen ja gerade durch die abweichung vom mainstream und dann innerhalb des eigenen clusters; der vergleich hinkt natürlich, aber man kann sich leicht als gedankenspiel durchdenken, was der social media diskurs zu spielen, sport, essen, etctrara sagen würde, bzw. welche effekte das hätte, wenn sich diese bereiche dann daran hielten.)

aber ich schweife ab. die sozial mediale autopoiesis von location ist jedenfalls faszinierend.

1 natürlich ist der datentyp check-in offen, hackbar und also nicht völlig sinnlos, es spricht ja nichts dagegen, es etwa als dokumentation des eigenen situationistischen streunens zu verwenden, etc. nur wird das halt nicht von den tools nahegelegt oder gefördert.

06.09.2010 # https://hackr.de/2010/09/06/check-in-your-head

Das Konversumistische Manifest

eine Art Standortbestimmung zur postinformationellen Gesellschaft, die sich aus sozialen Daten speist, von Andreas ‘AAL Prinzip’ Weigend.

(bin mir nicht sicher, warum das bei mir so einen nachgeschmack hinterlässt, es ist glaub ich die kompakteste (business-lastige) zusammenfassung von social data, über die ich bisher gestolpert bin, die ‘die macht liegt jetzt beim konsumenten’ plattitüden stören kaum; ich glaub es ist das gleiche, was mich auch bei kruse stört, dass nämlich der subtext das gegenteil von dem ist, was er eigentlich sagt (kruse ist ja weniger ein sympathisant der entwicklungen, sondern eher ein seher im asterixschen sinn, der also den menschen im web zwar eine gewaltige macht zuspricht, aber nur als partikel eines sich in kreisenden erregungen aufschachtelnden unwetters, das sich dann in unvorhersehbaren donnern und blitzen auf die alten strukturen entlädt usw.))

02.09.2010 # https://hackr.de/2010/09/02/das-konversumistische-manifest

Programmierer und Programmierte

Jeder bemerkenswerte Mensch arbeitet gegen sein eigenes Profil

einige haben ein kleines problem mit diesem bolz-artikel, ich weiss nicht, ich finde den nicht so schlecht. es gibt sicher ein paar irrelevante grundannahmen, non sequiturs und selbstwidersprüche, der bezug (krypto-emigration) auf walter benjamin, der vor den nazis fliehen musste und sich vor der auslieferung das leben nahm, ist vl. auch etwas unglücklich, aber es gibt auch einige gute verdichtungen (privatheit 2.0 ist eigenrichtig, aus bürokratie wird software, ..). interessant ist jedenfalls seine konzeption vom neuen bürgertum, das er vollständig entpolitisiert und in einer keine spuren hinterlassenden monade der selbstbestimmten privatheit positioniert, schweigend aber bemerkenswert.

31.08.2010 # https://hackr.de/2010/08/31/programmierer-und-programmierte

Die große Enttäuschung

#nts: hab während der sichtung meines buchbestandes einige bücher in eine wiedermaldurchblättern queue gestellt und hab gestern und heute snow crash (92), data trash (94) und netzkritik, materialien zur internet-debatte (97) gescannt, und während das schon ein paar monde her ist, der blick zurück ist nicht unwitzig, weil es tatsächlich so was wie einen politisierten diskurs gegeben hat, der mit dem heutigen gebabbel nicht vergleichbar ist, der einzig darunter leidet, dass sich keine der metaphern (cyberspace als virtueller raum für dematerialisierte körper, information superhighway, virtual worlds/classes, ..) dann als relevant beweisen konnten und es im grunde einfach anders gekommen ist (dabei ganz witzig, dass der linke und autonome diskurs von anfang an die entwicklungen eher mit skepsis beobachtet hat, weil ausgerechnet der rechte diskurs sich einige traditionelle linke konzepte auf das internet zurechtgemappt und umkodiert hat (postmoderner lingo wird zur kalifornischen ideologie, technischer fortschritt dient automagisch dem staat (überwachungstechnologien, ..) und/oder dem freien markt (biotech, …) und/oder den telcos und medienkonzernen (we will like totally rock the cyberspace), ..), was den linken diskurs auf eine seltsame position des befürchtens festnagelte. gleichzeitig haben sie den gegner und seine kommende macht so hoch phantasiert, dass nur aktivismus, sabotage der netze, symbolische interventionen, usw. als handlungsspielraum blieb (teilweise auch retrospektiv nett, hakim bey etwa befürchtete eine klassengesellschaft, weil sich die wenigsten die teuren vr-ausrüstungen und datenhandschuhe leisten werden können; teilweise auch ein bisschen zu gut gemeint: was soll daran gut sein, wenn informationen frei zugänglich sind? wir wissen alle, dass informationen und wissen nichts anderes als mittel eines herrschaftsapparates sind, den gilt es also an der wurzel zu bekämpfen; unterm strich wurde das baby jedenfalls mit dem grundsätzlichen antikapitalismus ausgeschüttet).

29.08.2010 # https://hackr.de/2010/08/29/die-grosse-enttaeuschung

Follownomics

people you might want to follow

nach twitter bekommt jetzt auch buzz verfolgungsempfehlungen.

bei beiden ist offensichtlich warum (erhöhung der netzwerkdichte etc.), aber beide lösen damit nicht das eigentliche problem, nämlich einen effizienten verfolgungsmarkt zu ermöglichen. das paradox der ansätze ist, dass die effizienz umso mehr abnimmt, je besser die empfehlungsalgorithmen werden.

wer rational infoökonomisch folgt, der wird so lange neuen leuten folgen, solange deren nutzen (gute links oder gedanken etc.) grösser als deren kosten (zeit, die man mit dem durchklicken oder lesen oder überlesen verbringt) ist.

empfehlungsalgorithmen haben nun zwei offensichtliche möglichkeiten: sie empfehlen entweder auf basis des social graphs (viele deiner freunde folgen auch xy, die populärsten von deinen freunden verfolgten sind yz, etc.) oder auf basis von einem vermeintlichen interesse (dich interessieren ja lolcats, beliebte lolcats buzzer sind xyz).

folgt man aber allen, denen auch die freunde folgen, dann folgen irgendwann alle den gleichen in verfolgungsclustern und das system verliert die filter- und aggregierungsleistung auf kosten des mehraufwands für alle – ich muss aber eben gerade nicht allen folgen, weil andere ihnen folgen und für mich die rosinen retweeten o.ä.; und folgt man leuten mit gleichen interessen, dann nimmt die redundanz der geposteten infos zunehmend zu – auf sozialer ebene ist die dysfunktionalität ja quasi eingebaut: je mehr man sich für ein thema interessiert, desto weniger interessant werden alle anderen, die sich für das gleiche interessieren.

informativer sind nach dem in jedem fall nützlichen grundrauschen also eher die, die komplementäre und kompatible interessen haben, die also einen bereich abdecken, für den man sich peripher interessiert. und genau die kann ein empfehlungssystem nicht vorschlagen, die muss man für sich selbst entdecken.

das ist natürlich alles sehr simplifiziert dargestellt, auch redundanz ist informativ (beobachtung welche themen aufgegriffen werden, wie sie aufgegriffen werden, usw.) und infoökonomische effizienz ist auf twitter oder buzz auch nicht unbedingt das anzustrebende ziel, etc., aber der effekt von gepushten aber ineffizienten empfehlungssystemen mit dem hauptziel verbindungen zu vermehren ist eine inflation der beziehungen.

18.08.2010 # https://hackr.de/2010/08/18/follownomics

Die Grenzen deiner Fassade bedeuten die Grenzen deiner Welt

kleine anmerkung zur sommerlochserregung google street view: irgendwie ist die ganze diskussion ein wunderbares symptom der gesellschaft, das tiefer geht, als es die üblichen hinweise auf politischen populismus, mangelnde internetkompetenz der bevölkerung oder allgemeine technologische rückständigkeit andeuten. das stimmt zwar natürlich alles, aber im grunde stellt google street view eine grundsätzlichere frage:

was passiert, wenn die kosten der informationsbeschaffung, wie es an jedem beliebigen ort ausschaut, gegen null gehen?

wie man diese frage beantwortet, ist weniger ausdruck eines technologieverständnisses (bei wenig verständnis: um himmels willen, nicht mit mir! was denn noch?; bei fortgeschrittenem verständnis: awesome, lovin’ it) sondern viel mehr ausdruck eines genuinen systemvertrauens.

wie bei vielen anderen bereichen auch verändert das internet das ökonomische gefüge von märkten, indem es die transaktionskosten eliminiert. es entstehen neue formen des verhaltens und neue geschäftsmodelle, die davor wirtschaftlich nicht sinnvoll waren. was man von google street view hält, ist also weitestgehend geframed von der eigenen vorstellungskraft, welche auswirkungen das mögliche neue verhalten anderer auf das system und einen selbst haben könnte.

nun gibt es natürlich ein breites spektrum an möglichen neuen verhaltensformen. das beginnt beim browsen in der eigenen geschichte (wie schaut’s jetzt aus in meinem geburtsort, gibt’s das zuckerlgeschäft noch, …), geht über hunderte denkbare fälle einer pragmatischen informationsbeschaffung, die einem dabei helfen kann, eine fundiertere (kauf-, ausgeh-, reise-, miet-, …) entscheidung zu treffen, und endet bei panzerknackerbanden, die sich auf die suche nach geeigneten tatorten machen.

welche der neuen möglichkeiten man als bewertungsrelevant selektiert, ist ein ausdruck der eigenen disposition und hängt vom vertrauen in alle anderen und in das system ab. anders als etwa beim datenschutz, wo es – auch wenn die diskussion hysterisch und uninformiert geführt wird – dennoch um das echte problem geht, was passiert, wenn einzelne private unternehmen sehr sehr viele mitunter auch personen konkret zuordenbare daten sammeln, geht es bei der street view ja primär darum, was andere menschen damit machen könnten. und hier liegt der eigentliche knackpunkt: ganz offensichtlich haben grösste teile der medien und politik ein sehr geringes vertrauen in die bevölkerung und das system. die ängstlichkeit zieht sich als grundhaltung durch die abgegebenen statements, wer weiss, was die leute nicht alles damit anstellen könnten, aber sicher nichts gutes.

16.08.2010 # https://hackr.de/2010/08/16/die-grenzen-deiner-fassade-bedeuten-die-grenzen-deiner-welt

Schwarzfahren in der Aufmerksamkeitsökonomie

bryzc hd ultra pro xl

kathrin passig über schwarzfahren in der aufmerksamkeitsökonomie [waren 2 artikel auf buzz, beide tot]

dunno. grundsätzlich bin ich bei ihr (problem: es gibt leute, die verbringen jeden tag stunden damit, hunderte blogs zu scannen und die rosinen herauszupicken und im google reader und also meistens auch auf buzz zu sharen, und dann kommen andere daher und resharen das ohne attribution; das ist aber nicht nur unhöflich, sondern verschweigt die leistung des ursprünglichen jäger und sammlers und hat negative auswirkungen auf das gesamte system der aufmerksamkeitsökonomie. ihre lösung: auch im google reader und oder auf buzz in der notiz die fundstelle vermerken, auf twitter funktioniert das ja auch).

aber es gibt auf mehreren ebenen kosten und probleme.

was tut man, wenn man über ein shared item aus einen feed stolpert, den man selbst abonniert hat?

ab wann greift die sharungshöhe? verdient man attribution, wenn man artikel aus blogs wie techcrunch, boing boing, kottke, etc. shared, die jeder ohnehin kennt? oder wenn man ökonomischerweise die top-news bei techmeme oder rivva wiederholt?

wie weit soll die quellenforschung gehen, wenn man sich aus einem aggregator wie hacker news bedient, die sich selbst wiederum aus den sammelleistungen der dortigen user befüllen? greift ein via hacker news dann nicht zu kurz und müsste man da dann nicht auch dem ursprünglichen poster bei hacker news tribut zollen?

was tut man, wenn einen artikel mehrere leute geshared haben? der erste, wo man darüber stolpert, ist zwar der, auf dem man es halt selbst gefunden hat, alle anderen sieht man aber erst danach, sie haben es aber vor dem dann attributierten geshared. noch komplizierter wird das, wenn der, bei dem man es selbst gefunden hat und bei dem man sich bedankt, es selbst nur von einem anderen gereshared hat, also gwm. die attributions-früchte völlig unverdient erntet.

es ist ein bruch im flow. die aussage ‘Auch bei Twitter und in Blogs spart es Zeit und Arbeit, Quellenangaben wegzulassen. Und doch machen sich die meisten die Mühe.’ stimmt zwar, aber auf twitter oder im blog ist man beim verfassen schon im schreib-modus, hängt die attribution also nur an; im google reader müsste man den texteingabemodus erst starten.

es stimmt das gesamtbild des outputs nicht, die attribution bekommt bei shared items mit note den prominentesten platz.

ich sehe auch die gefahr der belohnung des falschen verhaltens. in dem moment, wo man irgendwas ernten kann (in dem fall also vias und thanks und gefunden beis) sharen die leute nicht mehr nur aus der intention des sharens heraus, sondern wollen auch vias und thanks und gefunden beis zählen und sammeln; es könnte/dürfte/würde wohl also das über-sharen fördern, ‘je mehr ich share, desto grösser die wahrscheinlichkeit, dass ein anderer sich dann bei mir bedankt, right?’ genau das aber widerspricht der ursprünglichen intention, die aufwändige filterleistung zu belohnen, die ja vor allem im auslassen besteht.

ein paar der ableitbaren argumente/konsequenzen sind stärker als andere (das mit der optik: so what…), aber unterm strich sehe ich keine verallgemeinbare handlungsanweisung für sharepolitisch korrektes verhalten im google reader, das nicht gegen die dynamik der von der plattform nahegelegten benutzungsformen schwimmen muss (kathrins form ist sehr spezifisch, da sie ohnehin annotiert geht das via auch schneller und stört gleichzeitig weniger) und den kognitiven overhead in überschaubaren grenzen hält.

my take:

geshared wird vieles und auf vielen plattformen. einige der plattformen eignen sich besser für eine vertikale integration der angabe der quellen und zur quellenforschung als andere. auf einigen plattformen geht es zb. ausschliesslich um das anhäufen von attributionen vom geshareten (etwa digg, man kennt die dysfunktionalen konsequenzen). auf anderen geht es überhaupt nicht darum (etwa delicious) – aber auch auf diesen entwickeln die netten spieler gelegentlich praktiken der attribution (auf delicious etwa via:xxx tags). playing nicely mit den anderen ist im allgemeinen nicht nur gut für das infoökonomische gesamtsystem, sondern üblicherweise auch vorteilhaft für einen selbst (alle beobachten alle und die muster, wie man sich verhält, werden einem nicht nur zugeschrieben, sondern wirken lange nach). wie sich das playing nicely aber am besten manifestiert, muss sich auf den jeweiligen plattformen jeweils konkret ausdifferenzieren – und das tut es üblicherweise auch. es wird sich aber nichts durchsetzen, was gegen den vibe der plattform läuft oder was zuviel overhead erzeugt. was nicht heisst, dass man sich da nichts überlegen sollte und dann mit gutem beispiel voranschreitet. auf geht’s, der goaß nach. was aber auch nicht heisst, dass das dann so ausschauen muss, wie es auf anderen seiten funktioniert (per item attribution funktioniert im GR imho nicht, was aber andere formen nicht ausschliesst usw.)

11.08.2010 # https://hackr.de/2010/08/11/schwarzfahren-in-der-aufmerksamkeitsoekonomie

Cows Revisited

(abt. tag der kurzkritik der langkritik…) miriam meckel hingegen ist in ihrem text über die tragik der digitalen allmende auf einem sehr eigentümlichen trip: sie skizziert ein schirrmacher-kompatibles infoökonomisches desaster (wobei sie in ihrer apokalyptik nicht unwitzig ist: “Milliarden von Papieren mit Nachrichten flögen durch die Luft und verdunkelten den Himmel, ein ohrenbetäubender Krach aus Musikfiles und Youtube Videos dröhnte über den Platz, vom Rasen wäre ob der unzähligen in den Boden gestampften Werbeplakate längst nichts mehr zu sehen” usw.), nennt gleichzeitig aber auch alle gegenmittel, führt beide stränge aber nicht zusammen und bleibt beim pessimistischen bild. (das internet ist für sie eine weide, deren endlosigkeit zu einer masslosigkeit der produzenten führen wird, die uns mit ihren inhalten und werbebotschaften zuscheissen, was die sicherungen unserer aufmerksamkeiten zum durchbrennen bringen wird, weswegen wir uns dann in ein disneyland zurückziehen werden und damit die chance zum guten verpassen.)

ihr fehler ist, die aufmerksamkeit der konsumenten als das gefährdete und zerstörbare gut zu betrachten (“Für den Tausch der Informationen in der virtuellen Welt gibt es eine zentrale Währung, die durch diesen Prozess inflationiert und damit entwertet wird: Aufmerksamkeit” usw.). aber unsere aufmerksamkeit ist zwar ein knappes – aber eben nicht zu zerstörendes gut (im schlimmsten fall kann uns unnötiges zeug für jeweils fünf sekunden belästigen, und auch das kann mit entsprechenden tools und techniken weitestgehend minimiert werden), ihr wert nimmt also mehr und mehr zu, je mehr und mehr zeug um sie buhlt, und wir können selbstbestimmt mit ihr umgehen und uns für uns massgeschneiderte info-pakete schnüren. nicht die weiden werden zerstört, sondern die kühe sind nichts mehr wert. wenn es also eine tragik der virtuellen commons gibt, dann besteht sie nicht darin, dass wir im datenmüll ersticken, sondern darin, dass wir einige perlen nicht entdecken (aber auch das hängt noch am bild der vollständigkeit und/oder maximierung; in den meisten fällen reicht etwas selbstsystemirritation völlig aus). die kosten tragen jedenfalls die produzenten, nicht – wie bei den analogen commons – die allgemeinheit.

09.08.2010 # https://hackr.de/2010/08/09/cows-revisited

Wave Runner

doch noch ein kleiner nachtrag zu R.I.P. Wave … es war doch ganz lustig die kollektive sinnstiftung zu verfolgen, die die frage ‘warum musste es sterben?’ beantworten und also symbolisch verdaulich machen wollte. wirklich überzeugend fand ich dabei keine, deshalb noch mein senf:

der fast immer genannte grund: people didn’t get it. war sicher ein faktor, aber kein ausschlaggebender. natürlich gibt es immer leute, die irgendwas einfach nicht getten, man denke nur an twitter, das ding bei wave aber ist eher, dass die leute schon verstanden haben, was bei wave zu getten ist, dass das aber für sie einfach nicht nützlich war. wave war ein tool zur zusammenarbeit in echtzeit, und das braucht man halt nur dann, wenn man gerade mit anderen an irgendwas zusammenarbeiten muss und besonders eine echtzeit-komponente dabei wirklich unheimlich nützlich wäre (was schätzomativ auf 0,03% aller aktivitäten im web zutrifft; ein google wave for farmville würde diesen prozentsatz wohl deutlich erhöhen).

zum grundsätzlichen verstehen von wave braucht man nicht drei tage, man braucht 30 – 60 minuten, aber wenn man es grundsätzlich nicht braucht, dann wird wave durch das verständnis auch nicht verstandener. (viele scheinen das verstehen, dass es für sie nichts zu verstehen gibt, als nichtverstehen zu interpretieren).

aber das war ja auch nicht das eigentliche problem von google wave. 0,03% aller aktivitäten wären auch noch ein riesiger markt, wenn auch nicht für techblogger und die social media crowd, die user und follower zählen und möglichen einfluss abschätzen wollen. das problem von wave war, dass es auch für die, die es verstanden haben UND die dafür einen bedarf an so etwas hätten, einfach keine gute lösung war. nicht weil es nichts konnte, sondern weil es zuviel zugleich wollte und nichts wirklich gut löste.

(wer die folge ‘oh brother, where art thou?’ der simpsons kennt (die, bei der homer seinen bruder, den autofabrikanten, kennenlernt): wave war das äquivalent zu ‘the homer’ – dem von homer in freier featuritis entworfenen auto, das den bruder dann in den ruin trieb)

etwas abstrahiert war der fehler von wave, dass es zu viele grenzen vermischte. (ich bin da derzeit durch meine aufräumaktion vl. ein bisschen übersensibel, aber klare grenzen sind in einigen bereichen extrem nützlich). unter anderen:

  • funktionelle grenzen

wave war gleichzeitig chat, kollaboratives schreiben, sharing von dokumenten und über plugins was-nicht-alles. aber jede dieser funktionen wird einzeln schon von anderen diensten gut gelöst. wenn man chatten will, dann gibt es skype und IM und campfire; wenn man kollaborativ schreiben will, dann gibt es google docs und etherpad und writeboard; wenn man abstimmen will, dann gibt es dutzende vote widgets; etc. alle tools sind einzeln schärfer, mitunter weil sie ihre grenze haben und darin bleiben.

  • soziale grenzen

eine der doofsten entscheidungen dürfte gewesen sein, dass sie wave einerseits nach dem gestreuten einladungsprinzip (first come, first serve) vergeben haben, dass sie andererseits (wie bei google buzz) das adressbuch laut gmail als primäre kontaktliste herangezogen haben. ersteres hat dazu geführt, dass leute im erstkontakt kaum kollegen vorfanden, mit denen sie wave projektbezogen auschecken konnten (retrospektiv offensichtlich: sie hätten es für blöcke von google apps usern freischalten sollen); zweiteres hat mitunter zu einem völlig unnötigen rauschen geführt (andere konnten einen ja nach freiem gutdünken zu beliebigen waves hinzufügen; das war besonders nervend, weil:)

  • leben/tod grenze

bis vor wenigen wochen gab es in wave keine möglichkeit, eine wave zu löschen oder auch nur endgültig aus der sichtbarkeit zu verbannen. diese unfähigkeit zu sterben war vl. die massivste überschreitung (auch wenn es vom prinzip ja nicht uninteressant ist, total recall, night of the living dead, usw.). die vorstellung etwas in den mülleimer zu ziehen, und dann ist es aus dem blick, und den mülleimer zu entleeren, und dann ist es endgültig weg, ist für viele dinge essentiell. schneller chat und alles andere, was man nicht mit dem gefühl ‘das mach ist jetzt für die ewigkeit’ angeht, und eigentlich auch das nicht, weil man einmal drüber geschlafen die sache wieder ganz anders sieht, etc., wird dadurch fast ausgeschlossen.

  • zeit grenze

neben der ausdehnung der zeitlichkeit in die ewigkeit hat wave gleichzeitig die zeitlichkeit zur gleichzeitigkeit komprimiert. aber abgesehen vom wow effekt (oh, da ändert einer, der in australien sitzt, das dokument oben und ich sehe es und ändere es unten und dann machen wir kleine klickspielchen und übersetzt wird es auch noch) stellt sich das schnell als extrem irritierendes feature heraus, weil man sich nicht auf das schreiben konzentriert, sondern auf das, was der andere treibt.

  • intelligibilitäts grenze

waves laufen schnell aus dem limit. waves mit 20+ chatfreudigen members sind in kürzester zeit völlig sinnlos. das portionieren von informationseinheiten ist natürlich bei vielen formen so eine sache, aber der mix aus den verschiedenen datentypen macht aus waves schnell einen eintopf.

das tragikomische an wave ist ja, dass sie ein problem des verhaltens (zusammenarbeit im webzeitalter ist primär ein verhaltensproblem) mit technischen mitteln lösen wollten, dass sie dabei aber ein tool erschaffen haben, dass nur bei extremster verhaltensdisziplin in einem idealtypischen umfeld wirklich nützlich ist. das komiktragische ist, dass wave jetzt in die organe zerlegt und als lebender toter in anderen projekten weiterleben wird.

trotz der genannten fehler war wave ja wirklich ein faszinierendes stück software, das neben den grundeigenschaften ja noch eine ganze welt an technischem subtext angedacht hat (robots rejoice, über die wave bots wären ja die erstaunlichsten integrationen mit anderen systemen möglich gewesen). wave war also, wenn man so will, die erste wirklich postmoderne webanwendung. es gab nichts zu verstehen, keinen modernistisch/traumatischen kern, der durch interpretation eingeordnet und zugänglich gemacht werden konnte (beispiel wieder twitter). wave war ein sich selbst zitierendes, bladerunnereskes patchwork aus funktionszitaten (chat, editor, messaging, …) und technikzitaten (federation protokol over xmpp, open social, robot http protocol, …). im grunde wurden wir in wave zu deckards, die in dieser welt dann herumtappen mussten, und wenn wir genauer hinschauten feststellen konnten, dass sich das gesamte gewebe des realen unter unseren füssen auflöst und als artifizielles konstrukt entpuppt.

(abt. postmodernism, the cultural logic of late googlicism)

07.08.2010 # https://hackr.de/2010/08/07/wave-runner

Without a Name

minianmerkung zur anonyme kommentierer debatte (aufgeworfen von martin w. hier / these: anonyme sind mir suspekt, erreichen mich nicht voll; umgedreht von martin l. [auf google buzz und also verschwunden] / these: anonymität ist ein feature, man kommentiert sich in die welt; politisiert von heinz w. hier / these: wir brauchen furchtlose rede, ‘wer sich selbst versteckt, kann nicht von anderen transparenz verlangen’):

was ich an anonymen kommentaren spannend finde: sie sind wohl ehrlicher als die zivilisierte version, die man mit seinem real name (oder stabilen pseudonym) abgeben würde; gibt man sich zu erkennen, dann läuft im hintergrund automatisch der strategische apparat des sozialen miteinanders ab (man trifft sich immer zweimal und vl. ist es keine so gute idee, wenn ich ihm jetzt klar und deutlich sage, wohin er sich seine schwachsinnigen thesen am besten stecken sollte, vl. sollte ich ihm eher etwas honig ums maul schmieren, etc.); ist man aber anonym, dann fallen nicht nur die sozialen restriktionen, sondern es setzt für einen kurzen moment auch das über-ich aus (das einem normalerweise ja auch sagen würde ‘schäm dich, dass du so was auch nur denken kannst’) – man ist also für diesen kurzen moment wirklich man selbst.

14.07.2010 # https://hackr.de/2010/07/14/without-a-name