hackr.de

die romantische komödie


Selection 2008

eine kleine Auswahl an Posts aus dem Jahr 2008


Frohe!!

o tannenbaum

Frohe Weihnachten!

24.12.2008 # https://hackr.de/2008/12/24/frohe-2008

Die Socialmediologie der Werbung

Lesenswerte Seminararbeit zum Thema Das Komplexitätsproblem von Social-Media-Marketing von Andreas Göldi.

(kleine anmerkung: das problem, das vom hierarchischen modell geprägte unternehmen/agenturen haben, ist weniger ein komplexitätsproblem, als ein dispositionsproblem. und das ist ihr eigentliches problem. komplexität ist in den griff zu bekommen, aber die eigene einstellung … nicht so sehr. die einstellung ist natürlich: wie krieg ich meine message möglichst effizient, zielgruppenoptimiert, etc. an möglichst viele raus? es ist schon fast skurril zu beobachten, mit welcher geilheit auf alles aufgesprungen wird, was im sozialen kontext streukraft verspricht, ohne auch nur im ansatz zu versuchen, die ökosystemischen konsequenzen auch nur anzudenken. bestes beispiel facebook connect, phantastisch, da werden unsere ergüsse auch noch in den social graph zurückgespiegelt, yay. die einstellung sollte aber ganz einfach sein: wie erzeuge ich wert? nur ist das eine undenkbarkeit.)

18.12.2008 # https://hackr.de/2008/12/18/die-socialmediologie-der-werbung

Asymmetric Core

James Governor über asymmetrisches Followen als core Web 2.0 Pattern.

But Twitter wasn’t designed for whales. It was designed for small shoals of fish. Which brings us to one of the big issues with Asymmetrical Follow – it introduces unexpected scaling problems. … The technical approach that is most appropriate to support Asymmetrical Follow is well known in the world of high scale enterprise messaging- its called Publish And Subscribe.

(dann so anschlussüberlegungen wie, wenn leute 20.000 follower haben, ist twitter dann nicht eher broadcasting und weniger konversation, und ist das dann nicht ungerecht? oh nicht doch, das ist eben das asymmetrische core pattern, wo halt ein paar knoten mehr verbindungen haben als andere, aber über replies etc. kommt der dialog auch nicht zu kurz, zwanghaft reziproke liebe ist doch doof etc.)

((das problem mit der persönlichen und/oder sozialen skalierbarkeit von twitter scheint mir aber eher die mehrdimensionale matrix an asymmetrischen motivationen und verhaltensweisen zu sein (die gang, die traube, die cloud), die sich schlecht bis gar nicht auf verallgemeinbare follow/-ing patterns abbilden lässt, wobei es natürlich bündel gibt, die problemlos funktionieren. aber es gibt auch bündel, die weniger gut funktionieren. die einfache antwort auf bündel, die in keinem infoökonomisch ausgewogenen gleichgewicht sind (die schmerzgrenze dafür variiert natürlich, hängt übrigens auch nicht mit irgendwelchen followers/-ings counts zusammen, weil 500 oder 10.000 leuten zu folgen ja nicht bedingt, dass man die auch liest etc.) heisst natürlich: nur denen folgen, die einen wirklich interessieren, die interessante, wertvolle tweets posten, blablabla, die noise maker unfollowen, usw. aber die schwierigeren (nicht im sinne von schwieriger zu denken oder auszudenken, sondern im sinne von aufwendiger im trial und error prozess des herumjustierens an schrauben, die mehr oder weniger info-dampf zulassen) antworten sind doch etwas spannender.))

10.12.2008 # https://hackr.de/2008/12/10/asymmetric-core

Die Pownce Lektion: data exportability

Pownce zieht den Stecker, das hat mittlerweile die Runde gemacht und einige Deutungsversuche getriggert.

Im Nachhinein ist man immer schlauer, mein best take für den Hauptfehler ist, dass sich Pownce zu sehr als besseres Twitter verkleidet hat, während es etwas ganz anderes sein wollte. Die Selbstbeschreibung ging ja immer in Richtung Tool zum Austausch von Dateien unter Freunden. Durch die optische Anlehnung an Twitter haben sie aufs falsche Pferd gesetzt. Sie hätten nichts dagegen gehabt, wenn die Micro-Blogging Community zu ihnen migriert wäre, eigentlich haben sie es darauf angelegt, aber Twitter ist davon gallopiert. Der eigene Wertvorschlag wurde dadurch aber zu wenig herausgearbeitet und niemandem deutlich, das Ende ist also eher konsequent.

Die Lektion die man aber als User aus diesem Exit ziehen kann (natürlich nicht nur aus diesem, auch aus vielen anderen, siehe etwa den Aufkauf von Rael Dornfest von Twitter, der auch mit dem im Grunde unnötigen Ende von stikkit und iwantsandy einherging) ist, dass man verdammt aufpassen muss, in welche Körbe man seine Eier legt. Mit jedem Dienst der verschwindet, verschwinden oft auch alle dort geposteten Daten, das aufgebaute Beziehungsnetzwerk, das mühsam erworbene symbolische bzw. soziale Kapital.

Das ist nix neues, aber die Radikalität mit der eigentlich auch funktionierende Dienste einfach zugemacht werden, scheint zuzunehmen.

Problem fürs Ökosystem Webanwendungen dabei: Die etablierten Dienste werden begünstigt, kleinere Dienste haben es noch schwerer. Ich mag z.B. Mento [war http://www.mento.info/], aber es ist riskant, es als primären Bookmarking-Dienst zu verwenden. Hat der Entwickler eine schlechte Woche und verliert die Motivation, kann es sehr schnell auch wieder weg sein. Mit dem grossartigen Stikipad ist mir das etwa so ergangen, das war auch ohne Vorankündigung plötzlich weg.

Ansätze wie data portability zielen darauf ab, helfen aber auf absehbare Zeit noch nicht weiter. Worauf man schon jetzt als User zumindest achten kann (und sollte) ist data exportability. Tools, in die man ein signifikantes Mass an Energie investiert, sollten zumindest die Möglichkeit bieten, die Daten auch wieder rauszulassen. Idealerweise automatisierbar via einer API.

02.12.2008 # https://hackr.de/2008/12/02/die-pownce-lektion-data-exportability

Ungebloggt soll man nicht schlafen gehen

Kleine Notiz am Rande: Mir fällt schon seit einiger Zeit auf, dass die blogosphärische Resonanz auf neue Tools am Abnehmen ist.

Ich hab jetzt gestern einmal an die hundert Links zu Betas fürs MoMB, die sich in den letzten Wochen angesammelt haben, weil ich sie nicht sofort gepostet hab, en block prozessiert und interessehalber auf Technorati die Reaktionen gegengecheckt.

Breit diskutiert wurden die wenigsten, und da kann man jetzt sicher sagen, na gut, wer soll denn über die zehntausendste Permutation von einem durchgekauten Prinzip noch gross was schreiben, aber auffallend war dabei besonders, dass auch Tools, die auf allen Grossblogs (TechCrunch, RWW, Mashable, VentureBeat, Webware) und bekannteren Listblogs (KillerStartus, eHub, …) die Runde gemacht haben, dann auf 40, manchmal 100 Gesamtreaktionen gekommen sind, wobei man da dann oft die Zahl von eigentlichen Reaktionen auch gleich wieder halbieren kann, weil die Einträge dann oft von irgendwelchen Reblogs noch 10x wiederholt werden.

Jedenfalls geht die Anschlusskommunikation in 9 von 10 Fällen wirklich gegen Null, und zwar nicht nur bei überflüssigen Tools, sondern auch bei nicht so schlechten und teilweise auch bei völlig netten. Es gibt keine Blogger mehr, die jenseits einer Verkündung neue Tools ausprobieren, mit ihnen herumspielen, und dann darüber schreiben.

Ein Faktor ist sicher, dass sich die Kommunikation / die Berichterstattung von gerade entdeckt’s in Richtung Twitter oder FriendFeed verschoben hat, und das ist auch völlig ok so. Ob man 10x liest blabla ist gestartet, oder 200x ist tatsächlich wurschtegal. Ich glaub nicht, dass Twitter & Co. deshalb und dadurch eine Verdünnung des Diskures fördern. (ein kleines problem, bzw. kein problem, aber eine verschiebung der milieus, hier ist, dass microblogging / lifestreaming keinen diachronen wert hat; was nicht sofort aufgegriffen wird ist eine stunde später in die unauffindbarkeit weitergespült.)

Doch die völlige Nichtvorhandenheit von Blogs, die spielerisch, kreativ, wenn man will auch kritisch neue Tools beschreiben (und die nicht nur den launch, alle fundings und ggf. den deadpool vermelden), wie es sie 2005 / 2006 doch noch in stattlicher Anzahl gegeben hat, ist ein echtes Problem, weil sich der diskursive Wert in einer Spirale nach unten bewegt.

Meine Hypothese ist, dass Blogs ursprünglich einen grossen Teil ihrer Kraft als Gegenentwurf zu den MSM bezogen haben, der sich dann tatsächlich auch in einer Ausdruckskraft wiedergespiegelt hat, dass Blogs aber (noch) kein Mittel gegen die daran anschliessende Ausdifferenzierung und die einsetzenden Power Laws der Blogosphäre gefunden haben, die in einer negativen Auslese mehr und mehr die Blogs mit dem kleinsten gemeinsamen Nenner begünstigt hat, was die zugrundeliegenden Ökonomien destabilisierte. Was auch egal wäre, wenn nicht dadurch die kollektiven Selektionsmechanismen verdummen würden, was den verblödenden Trend nochmal verstärkt.

(abt. offene loops)

22.11.2008 # https://hackr.de/2008/11/22/ungebloggt-soll-man-nicht-schlafen-gehen

Entwurf einer Theorie der Kopier-Praxis

kleine Nebenbemerkung: in den ganzen Debatten zum deutschen Kopierwesen bzw. Copycat-tum wird immer eines übersehen, nämlich dass sich in diesem Zuge paradoxerweise auch zunehmend die erste tatsächlich eigenständige deutsche Web-Theorie etabliert. Ich nenne sie in Anlehnung an Bourdieu einmal Entwurf einer Theorie der Kopier-Praxis.

Wann immer das Thema die Deutschen und ihre Klone von einem grösseren US-Blog aufgegriffen wird, dann poppen auch die Reaktionen auf, die sagen: stimmt ja nicht, das ist eigentlich ziemlich innovativ und gut, was wir hier machen.

Unlängst etwa Matt Marshall mit The German start-up scene: Copycats, but getting smarter (via) und als Reaktion Peter Schüpbach (übrigens ansonsten keiner der aggressiv/pragmatischen Kloner) mit Copycat – oder ‘act local’, aber es gibt eine ganze Reihe solcher Threads, deutsche startups oder gründerszene hatten einmal sogar eine ganze Serie mit Anleitungen zum richtigen Kopieren.

Das interessante an dieser sich abzeichnenden Theorie ist, dass sie mehr oder weniger vollständig ist, nur dass einige Begrifflichkeiten wie Ideen, Innovation, Kreativität, etc. aufgehoben aber dennoch in einer Art euphemistischer second order Reinterpretation wieder zurückgeschleust werden. Die eigene Idee zu einem Microblogging-Dienst, bei dem man max. 140 zeichige Nachrichten schreiben kann, kann einem durchaus während der Verwendung von Twitter kommen, mit einem Mechanical Turk Klon kann man durchaus auch staatliche Innovationspreise einheimsen, usw.

(dieser ansatz ist natürlich nur einer unter vielen. was wohl stimmt ist, dass es in deutschland tatsächlich keine grossen entwürfe zur zukunft des web gibt, nichts, was das gesamte milieu verändert, aber zu behaupten es gebe keine innovationen ist natürlich ein blödsinn. und auch bei den pragmatischen kopierkatzen gibt es viele, die ohne wahrnehmungsverschiebung auskommen und einfach die deutschen tugenden betonen bzw. den wert auf die ausführung und in der folge das community-building usw. legen. aber systemtheoretisch ist die copycat-theorie interessanter, weil sie die systemische komplexität reduzieren, indem sie ihre umweltsensoren minimieren, etc.)

26.10.2008 # https://hackr.de/2008/10/26/entwurf-einer-theorie-der-kopier-praxis

Recht Recht Recht

Mir persönlich ist das Thema zwar eher egal, ich kaufe mir auch gerne die Bücher und Platten und DVDs, die ich wirklich haben will, die ganzen Filesharing-Dienste und Darknets kenn ich nur vom Hörensagen, auch die ganzen Pros und Cons krieg ich nur peripher mit, aber ein paar Punkte als Reaktion auf wiederkehrende Themen als Milchmädchenrechnung:

Die aktuelle Gesetzgebung bewirkt die grösste Verhinderung der Erzeugung von kulturellem Wert und den grössten Wohlfahrtsverlust, den es jemals gegeben hat.

Als Menschheit sind wir das erste Mal in der – vor 10 Jahren noch völlig undenkbaren – Situation, dass einerseits jeder – digital divide aside – potentiell Zugang zu jedem bis dato erzeugten Kulturprodukt haben könnte. Jeder Gedanke, jeder Groove, jeder Take aus jedem Film der jemals gedacht, gespielt, gedreht wurde, und alles andere könnte potentiell jedem, der Zugang zum Internet hat, zugänglich sein. (Leicht zugänglich gemacht wird im übrigen nur, was verblödet.)

Und nicht nur zugänglich, es könnte auch Ausgangspunkt für Weiterverarbeitung in Form von Mashups, Remixes, Samples, whatever sein, weil wir auch das erste Mal mit jedem PC/Mac/und Linux sowieso gleich mitgelieferte oder webbasierte Tools haben, mit denen wir diesen digitalen Content weiterverarbeiten können. Egal jetzt, ob wir einen Track als Hintergrundmusik für Fotos verwenden, die wir der Oma zeigen, oder die Rede eines Politikers arselectronicatauglich dekonstruieren, oder Samples verschiedener Quellen zu einem Mashup rekombinieren. Wir könnten mit allem spielen, und wir könnten die Ergebnisse davon wiederum in den kollektiven Gesamtoutput zurückführen.

Betonung liegt auf könnte, weil es eben die Einschränkungen gibt, die zuvor vorwiegend distributionstechnisch bedingt waren, jetzt aber rein verwertungsrechtlich sind. Die gesellschaftlichen, sozialen, kulturellen Opportunitätskosten, die dadurch entstehen, sind jenseits jeglicher Vorstellungskraft.

Diebstahl

Was man auch oft hört, ist, dass wir Diebstahl von geistigem Eigentum sehen, der die Produzenten um ihren verdienten Lohn bringen – und mittelfristig dazu führen wird, dass die kulturellen Güter schlicht nicht mehr erzeugt werden.

Aber zumindest in meinem naiven Verständnis hat Diebstahl eher mit einem Wegnehmen zu tun. Ich nehm es mir und ein anderer hat es dann nicht mehr. Ich hab dann einen Vorteil, der andere einen Nachteil.

Der Zugang zu einer digitalen Kopie nimmt niemandem etwas weg. Ich hab zwar auch plötzlich Zugang zu den gleichen Daten, aber ich habe dem Besitzer nichts weggenommen. Er hat es immer noch.

Andere Rechte regeln natürlich, dass ich das trotzdem nicht darf, aber die Konnotationen von Diebstahl greifen bei digitalen Gütern nicht.

Das andere was gegen das Gefühl eines Diebstahls spricht ist die Omnipräsenz von den zwei Problemkindern Musik und Film. Sie sind ohnehin überall. Wenn man den Fernseher anschaltet oder das Radiio anmacht strömen sie auf dutzenden frei wählbaren Kanälen auf uns ein, und auch im Web gibt es unzählige legale Dienste.

16.10.2008 # https://hackr.de/2008/10/16/recht-recht-recht

Public Apphack Nr. 1

screenshot Twitterblog Header

Kleiner Tipp, wie man die eigene Produktivität dramatisch verbessern (und insgesamt ein glücklicheres und ausgefüllteres Leben führen) kann:

die produktbegleitenden Blogs von Tools, die man regelmässig verwendet, lesen.

Das ist ein bisschen ein statement of the obvious, aber ich hab so das Gefühl, dass das die wenigsten machen. Dabei ist das die einfachste Art, bzgl. der Entwicklungen und Neuigkeiten am Laufenden zu bleiben und noch wichtiger: über Features informiert zu werden, die die Nützlichkeit vom jeweiligen Tool oft sehr verbessert.

Wenn ich mir meinen Zwitscherstrom anschaue, dann gibt’s immer wieder Tweets, wo sich auch versierte Twitterianer irgendwas wünschen, was seit Monaten ein Standardfeature ist. Oder Gejammer auf Friendfeed, dass die vielen Tweets so rauschen und dass es deshalb unbenutzbar ist, dabei kann man alle mit einem Klick verstecken. Oder die Diskussion um openID, bei der ca. 80% vermeidbar gewesen wäre, wenn die Beteiligten das Grundprinzip verstanden hätten, dass es openID Provider und Consumer gibt und dass es einen Unterschied macht, ob man das eine oder das andere ist. Usw.

Aber das ist alles egal. Wichtig ist, dass man die eigene Benutzung eines Tools oft mit sehr wenig Aufwand wirklich stark verbessern kann. Die Feeds von den 5, 6 Tools, die man am intensivsten benutzt reichen völlig aus. Etwas Auseinandersetzung mit einem Tool macht oft auch Spass.

(voraussetzung dafür ist natürlich, dass das companyblog dahingehend auch hilfreich ist, us-blogs sind das üblicherweise; ggf. bietet sich auch an, das blog einmal bis zum anfang zurück zu lesen; kurz die hilfe zu überfliegen schadet sicher auch nicht)

08.07.2008 # https://hackr.de/2008/07/08/public-apphack-nr-1

Dolce and Gabbana

systemtheoretisch ist FriendFeed nicht uninteressant, weil es tatsächlich das autopoietische Reproduktionsorgan der us-tech-Blogosphäre wurde und also ebendiese das erste Mal in ein System proper transformiert. Nebeneffekt ist aber eine veränderte Form der Ausdifferenzierung, die sich zunehmend überhaupt nur mehr rekursiv auf sich selbst bezieht (ff als ort wo man sich zu sich selbst gratuliert) etc. (wenn man will könnte man frei nach d/g twitter als molekulare kraft beschreiben, die den diskurs deterritorialisiert, und friendfeed als molare, die reterritorialisiert)

((müsste man mal durchdenken, sind leider schon alle tot))

25.06.2008 # https://hackr.de/2008/06/25/dolce-and-gabbana

ReQuoting pt. 22

… when I am deep in search for knowledge on the web, jumping from link to link, reading deeply in one moment, skimming hundreds of links the next, when I am pulling back to formulate and reformulate queries and devouring new connections as quickly as Google and the Web can serve them up, when I am performing bricolage in real time over the course of hours, I am “feeling” my brain light up, I and “feeling” like I’m getting smarter. A lot smarter, and in a way that only a human can be smarter

john battelle via jurij m lotman zum neuen nick carr rant ob uns google dumm macht

(die frage an sich ist ein blödsinn, aber schief von oben betrachtet ist ganz witzig, dass carr in seinem text genau das macht, was battelle als gegenargument für sich beansprucht. gerade carr macht so eine art echtzeit-bricolage von statements, die miteinander nichts zu tun haben und die über non sequiturs miteinander verbunden sind, die aber den carr-geneigten lesern das gefühl des schlauerwerdens geben usw. trotzdem hat carr (google macht uns dumm weil wir uns selbst zur artificial intelligence degradieren) gwm. mehr recht als battelle (google macht uns schlau, frag nur die 80er jahre poststrukturalisten), nur geht er nicht weit genug. die eigentliche google-lesson müsste sein, dass wir erst via google sehen, dass unsere intelligenz nie authentisch sondern immer schon eine artificial artificial intelligence (mechanical turk) war usw.)

11.06.2008 # https://hackr.de/2008/06/11/web-20-anwendungen

Überall Probleme

Das Problem mit Web 2.0 war, dass es keine Web 2.0 Group gegeben hat. (im grunde hätte schon eine puppe mit einem o’reilly kopf drauf, die den kopf schüttelt und mit dem finger auf die kompakt-definition zeigt, gereicht, ggf. noch mit einem formular zum beitreten)

Das Problem mit data portability ist, dass es eine Data Portability Group gibt. (man muss zwar fairerweise dazusagen, dass sie einen wirklich guten job dabei machen, die beteiligten konzepte zu sichten und zu erklären, aber der ganze komplex politik, pr und hegemonie über die begrifflichkeit beginnt zunehmend kontraproduktiv zu werden und etwas zwietracht unter den weniger oder nicht beteiligten parteien zu stiften. data portability (der intuitiv verständliche begriff, der wunsch nach, die praxis der, …) ist etwas, dessen zeit einfach gekommen ist. aber nicht wegen der oder durch die data portability group, die war nur sehr geschickt dabei, den begriff rechtzeitig zu besetzen, pro-forma allianzen mit allen grossen spielern zu schliessen, die werbetrommel zu rühren und erfolge für sich zu verbuchen, wobei ich da nicht wirklich einschätzen kann, inwieweit sie das selbst forciert haben, oder halt die berichterstattung nur nicht aktiv verhindert bzw. richtiggestellt haben. wie auch immer, an der dpg ist gut, dass koordiniert über die ganzen themen nachgedacht wird, aber die namenskollision mit einem generischen begriff ist etwas unglücklich und dafür prädestiniert, verwirrung zu stiften)

15.05.2008 # https://hackr.de/2008/05/15/ueberall-probleme

ReQuoting pt. 20

The idea of building competitors to Twitter on the same platform, or redistributing Twitter to multiple players reminds me of the idea that New York City should be rebuilt in Ohio because it would be cheaper. Or perhaps we could distribute a little of New York City in every state of the Union. New York City is what it is because of the people who live and visit there. Building another New York City in Las Vegas doesn’t result in the phenomenon that is New York City. In a very important sense, Twitter is decentralized at its core, it is rhizomatic rather than arborescent.

echovar via winer über die Gilmor Gang Idee Twitter zu föderalisieren.

(die architekturmetapher scheint insgesamt sehr nützlich als reality check für alle reflexartig angedachten verbesserungen in form von open-(source|id|social|portability|…), die es zu so ziemlich jeder populäreren seite bzw. phänomen zur genüge gibt, die aber meist floppen, einfach weil sie kein echtes problem lösen, das die anwohner haben, wenn die stadt funktional offen und attraktiv genug ist (del.icio.us vs. alle bookmarking clones, digg vs. alle pligg basierten digg clones, facebook vs. open social, etctrara). rein ideologisch getriebene offenheit, die sich nicht aufgrund einer eingebauter dna als (attraktive) stadt reterritorialisiert führt im besten fall zu einer bladerunnerschen dystopie und viel wahrscheinlicher zu endlosen vorstadtsiedlungen. google friend connect [war http://www.google.com/friendconnect/] etwa fördert eher wild durcheinanderwachsende soziale schräbergärten.)

13.05.2008 # https://hackr.de/2008/05/13/requoting-pt-20

Katzencontent

screenshot friendfeed

Über die Startseite von FriendFeed freu ich mich jedes mal. Ich bin natürlich von einfachem Gemüt und Photos von Küken erheitern mich allemal, aber spannender finde ich fast die semiotische Souveränität die dabei zu spüren ist.

(einerseits das prinzip signifying wie wir es etwa aus dem hiphop / dem black english kennen, also der innerhalb einer gruppe stattfinden umbedeutung von ausserhalb der gruppe negativ konnotierten bezeichnungen für eben diese gruppe (nigga, bitch, usw.), im falle friendfeed also, dass sie genau das als selbstbeschreibung verwenden, was dem user generated web von den mainstreammedien als mangel angedichtet wird (wo steckt der qualitätsjournalismus wenn jemand ausdrückt was er denkt oder mit katzenphotos dokumentiert wie er lebt usw.) und andererseits die gwm. doppelte verdichtung des ausdifferenzierteren phänomens im einfacheren begriff (katzenkontent als superset eben jeglicher art von content bzw. als latentes ausdruckspotential) ohne noch viel dazusagen zu müssen)

((das dazusagenmüssen des sinns bzw. das glauben den sinn dazusagenzumüssen ist übrigens der beste indikator dafür, dass irgendwas nicht oder noch nicht funktioniert und verunmöglicht oft aber leider eben auch genau, dass es jemals funktionieren wird, weil dann oft die mischung nicht mehr stimmt, sich unfruchtbarere praktiken etablieren, usw.))

16.04.2008 # https://hackr.de/2008/04/16/katzencontent

Querfinanz

Sowohl medienkonvergenz als auch zweinull klagen gerade ein bisschen darüber, dass Querfinanzierungen von Google und gieriges Kapital von VCs dem Web schaden, weil sie die Mentalität des Bezahlinix fördern. User haben sich angewöhnt im Web alles für lau zu erwarten, und das sei für das System ungesund und spiele nur den Grossen in die Hände. Ermöglicht werde diese Unart aber einerseits, weil dummes Venture Kapital Dienste subventioniert in der Hoffnung möglichst schnell möglichst viele User anzuhäufen, um es dann in letzter Sekunde bevor die Blase platzt noch schnell abstossen zu können, und andererseits durch Google et al., die die Geiz ist geil Mentalität fördern, indem sie alles kostenlos anbieten (“Quersubventionierungsmonster”), einfach weil sie es sich leisten können. Der monokulturalisierende Effekt sei aber, dass sie den Mittelstand und die Kleinen aus dem Rennen werfen, weil es schwer ist gegen dieses gratis zu konkurrieren.

Ay.

Im Grunde sind die ökonomischen Prinzipien im Web sehr einfach: ein Angebot muss – will es mittelfristig und autonom bestehen – zwei Dinge tun: Wert erzeugen und Teile des Werts irgendwie monetarisieren. Wert entsteht an unterschiedlichen Stellen. Als Individualwert (der Wert den ein Nutzer für sich selbst aus der Benutzung zieht), als Sozialwert (der Wert der für Benutzer dadurch entsteht, dass auch andere – Bekannte oder interessante Unbekannte – mitmachen), als Systemwert (der Wert für den Anbieter der dadurch entsteht, dass alle zusammen mitmachen) oder auch als Gesellschaftswert (was hat die Welt wie sie ist davon, dass es das Angebot gibt).

Eine mögliche Form der Monetarisierung ist natürlich, die Nutzer für die Benutzung bezahlen zu lassen. Sie ziehen ja einen Nutzen, warum sollen sie nicht auch dafür bezahlen? Andreas und Martin sind sich einig, dass das der erstrebenswerte (und der einzige nachhaltige) Mechanismus ist, um ein gesundes Ökosystem an Webanwendungen und Inhalten und Webanwendungsmachern und Inhalteproduzenten zu gewährleisten.

Für Anwendungen die hohen Individualwert aber wenig Sozial- und Systemwert erzeugen macht das ev. auch Sinn. Paradigmatisches Beispiel ist das Produktportfolio von 37signals. Man kann seine Kontakte auf vielerlei Arten verwalten, aber Highrise macht das einfacher und effektiver, man spart Zeit und also Geld, dafür bezahlt man gerne. (Solche Anwendungen sind oft zwar webbasiert, aber nicht webnativ; es könnte sie etwa auch als Desktop Anwendung geben, aber es ist halt nützlich auf sie von überall aus zugreifen zu können, etc.)

Für Anwendungen die aber primär Sozial- und Systemwert erzeugen (dass sie Individualwert erzeugen ist eine Voraussetzung, sonst würden sie einfach nicht benutzt) ergeben sich aber interessantere – und dem Web eigene – Möglichkeiten. Natürlich könnte man auch hier versuchen Geld zu verlangen, aber wäre es nicht schlauer die Anstrengungen darauf auszurichten, eher die Eintrittskosten gering zu halten um den Sozialwert und den Systemwert zu maximieren und dann ein Modell zu finden, diese zu vergolden?

Wert ist im Web kein Nullsummenspiel und die Kosten, die ein neuer User verursacht, gehen gegen null.

Den Systemwert zu maximieren bedeutet nicht möglichst schnell möglichst viele User heranzukarren und Monetarisieren nicht notwendigerweise diese dann auf möglichst viele Ads klicken zu lassen. Aber Kosten schrecken nun mal User ab (und das hat nicht notwendigerweise nur mit Pfennigfuchserei zu tun, oft sieht man etwa Modelle, bei denen man sich in eine (doch eher zu vermeidende) langfristige Abhängigkeit zum jeweiligen Dienst begibt, weil die eigenen Daten nur solange zugänglich sind, solange man auch bezahlt, man denke an flickr) aber der Systemwert wächst (bei Anwendungen die die Dynamik richtig nutzen) mit jedem User exponentiell (egal jetzt ob im strengen Sinn exponentiell oder nicht, jedenfalls um ein vielfaches stärker als der Individualwert) – also ist gratis in den allermeisten Fällen Voraussetzung dafür Wertkreation an anderer Stelle stattfinden zu lassen.

Wenn Andreas und Martin argumentieren Google querfinanziere irgendwas übersehen sie, dass für Google alles Systemwert erzeugt und dass Google eben Möglichkeiten gefunden hat, Aktivitäten, die an einem auch noch so entlegenen Dienst stattfinden, an anderer Stelle zu Monetarisieren.

Um mich selbst zu zitieren

(der konzeptionelle Fehler der bei der Frage nach (und der impliziten Erwartung einer Antwort an) einem Geschäftsmodell wohl begangen wird ist, den Begriff auf dem Niveau einer buchhalterischen Monetarisierung zu beschränken und dabei zu übersehen, welche ökonomischen Strukturveränderungen mit gleichzeitiger Wertschöpfungsexplosion jenseits einer an Firmen gekoppelten Input/Output-Maschinerie stattfinden, welche Kanäle entstehen, die diese distribuieren, usw. – Strategien dazu etwa im Gesamtwerk von Bubblegeneration, oder praxistauglicher etwa bei Exciting Commerce)

Es ist lobenswert für die Kleinen und die Mittelständischen in den Ring zu springen, aber man hilft ihnen glaub ich nicht, indem man sich eine höhere Bezahlmentalität herbeiwünscht, wenn die Probleme die sie lösen von anderen schon besser gelöst sind oder leicht besser gelöst werden können oder wenn es überhaupt nur Scheinprobleme sind. (“Und ernsthaft, Protektionismus braucht keine Sau.” – neunetz)

Wird es ein Gemetzel unter den 20.000 aktuell aktiven (keine Hausnummer, es gibt wirklich mindestens so viele, alleine in Deutschland schon um die 1.500) Webanwendungen geben? Sicher. Noch viele mehr werden – weil die operativen Kosten oft aus dem Taschengeld bezahlt werden können – in Nieschen mehr oder weniger dahindümpeln, ja und? Und die Zukunft ist nicht düster (wie es Andreas und Martin skizzieren). Zwar gibt es für Startups kein Recht auf Erfolg, aber Startups haben mehr Chancen als je zuvor. Auch egal wenn nicht mehr als je zuvor, jedenfalls haben sie viele schon angedachte aber auf eine bessere Implementierung wartende und/oder noch unangedachte Chancen im Grossen wie im Kleinen, nur ändern sich diese und die Startups müssen ihr Skillsset an die Gegebenheiten anpassen (auch wenn es vielleicht gemein ist, dass Google und Co einige bisherige Möglichkeiten verunmöglichen.)

Gut für die, denen es gelingt dafür auch direkt bezahlt zu werden, aber viel besser für andere, die andere Wege der Monetarisierung erfinden bzw. diese systemisch einbauen – und noch viel besser für jene, die einen genuin neuen Wertvorschlag machen bzw. mit ineffektiven Wertschöpfungsketten brechen (paradigmatisch Etsy).

09.04.2008 # https://hackr.de/2008/04/09/querfinanz

google sparklines donnerstag

sparklines neue betas im momb

(betas pro woche im momb)
(grau: 0, 50, 100; gelb: durchschnitt)

27.03.2008 # https://hackr.de/2008/03/27/google-sparklines-donnerstag

Eine Minitheorie der Benutzung von Webapps

Gehen wir von einem rationalen Menschen aus. Wann wird er das Web im allgemeinen / eine konkrete Webanwendung im speziellen benutzen? Wenn die Benutzung ihm das Leben erleichtert, verbessert, irgendwas vereinfacht, beschleunigt, verbilligt, etc. Und er wird die Finger davon lassen, wenn es ihn nicht besser oder sogar schlechter stellt.

So trivial diese Annahme ist, mit ihr können einige Kritikpunkte entschärft und Verhaltensmuster bewertet werden.

apps apps apps

Die zwei grundsätzlichen Fehlverhalten:

(a) das Web in einer Situation nicht zu verwenden, in der es geeignet wäre.
(b) das Web in einer Situation zu verwenden, in der man besser etwas anderes machen sollte.

Was sind die Voraussetzungen (man könnte das natürlich noch weiter differenzieren) dafür, das Web vernünftig einzusetzen?

(1) Kenntnis – man muss den geeigneten Webdienst kennen. Wer eine der Möglichkeiten des Webs nicht kennt, kann sie offensichtlicherweise auch nicht benutzen. Ein vernünftiger Benutzer sollte also die Augen offen halten, um am Laufenden zu bleiben, was es alles gibt.
(2) Urteilskraft – man muss die im Webdienst inhärenten Möglichkeiten sehen und verstehen können. Wer das Potential eines Dienstes nicht adäquat einschätzen kann, kann keine fundierte Entscheidung treffen, ob er die investierte Zeit Wert ist oder nicht.
(3) Kompetenz – man muss den jeweiligen Webdienst benutzen können. Mit der Kompetenz ist es so eine Sache. Es vergeht keine Woche, in der nicht mit Verve gefordert wird, die Dinge mögen einfacher werden, sonst wird das nix. So einfach, dass sie auch der dümmste versteht, etctrara.

Ich bin ein riesiger Fan der Einfachheit – aber: Ich weiss nicht woran es liegt, dass die an die Person stellbaren Anforderungen gegen Null gehen, sobald es ums Web geht. Menschen, die sich als durchaus überlebensfähig zeigen, wenn es ums Kochen, Autofahren, Gamen, oder Handwerken geht, werden ifantilisiert und sollen davor beschützt werden, einige fundamentale Techniken der Webbenutzung zu lernen. Wie in vielen anderen Situationen auch: ein paar Basics muss man können.

12.03.2008 # https://hackr.de/2008/03/12/eine-minitheorie-der-benutzung-von-webapps

1000 True Fans

A creator, such as an artist, musician, photographer, craftsperson, performer, animator, designer, videomaker, or author – in other words, anyone producing works of art – needs to acquire only 1,000 True Fans to make a living.

kk

(abt. ausdifferenzierungspotential)

07.03.2008 # https://hackr.de/2008/03/07/1000-true-fans

Premium Pizza

Das Premium-Modell von Xing ist tatsächlich völlig verrückt. Es verunmöglicht 14,4 Billionen Beziehungen (400.000 premiumuser könnten alle 4 mio user kontaktieren vs. die restlichen 3,6 mio simpleuser können das nicht, auch nicht nach facetten suchen, nicht einsehen wer auf ihrem profil war, etc.).

Xing überlegt sich nicht, wie es den grösstmöglichen Netzwerkwert und/oder Nutzen für seine User erzeugen kann, sondern welche Features es beschneiden kann, um die grösstmögliche Zahl zum kostenpflichtigen Premiumstatus zu treiben. Dass sie dabei Features amputieren die unmittelbar den Systemgesamtwert tangieren ist absurd.

(es geht nicht darum, dass ihnen der erfolg recht gibt. sie nützen halt den quasimonopolstatus in dem segment in deutschland aus. auch nicht darum, dass es unanständig wäre nach features zu diskriminieren und für einige davon dann geld zu verlangen. auch nicht darum, dass die premiummitgliedschaft den spreu vom weizen der userbasis trennt. sondern darum, dass xing den hebel dafür an der netzökonomisch dümmsten stelle ansetzt. als zahlender user würde ich mich nicht darüber freuen, dass ich strukturiert suchen kann, sondern mich eher darüber ärgern, dass ich von 90% nicht gefunden werden kann)

Statement of the obvious für alle startups und grownups:

  • verschenkt, erleichtert und fördert alles was den Wert des Netzwerks steigert, was sinnvolle Verbindingen zwischen Usern herstellt, was Impulse/Aufmerksamkeiten strömen lässt.
  • macht das Geld mit Features mit hohem individuellen Nutzen, der aber den Netzwerknutzen und die Systemdynamik nicht betrifft.

(etwas fingerspitzengefühl ist auch hier gefragt, besser ist’s wenn man nicht zahlt, um knüppeln zu entgehen die einem sonst vor die beine geworfen werden, sondern wenn man weiß und schätzt wofür man bezahlt. man will passionate users und kein bauernfänger sein. es gibt viele viele möglichkeiten, auch wenn man ev. ein bisschen mehr nachdenken muss. think zeitersparnis, integration und sync mit standard tools, offline benützbarkeit, ad-free, etc.)

(bei Services ohne oder ohne starke soziale Komponente liegt die Sache etwas anders, 37signals etwa sind da als Orientierung wie man’s machen kann sicher zu empfehlen, mindmeister macht es imho auch sehr smart)

25.02.2008 # https://hackr.de/2008/02/25/premium-pizza

Good Enough

They didn’t understand that you only need enough technology to make the product work.

Again, they have enough design (or the right design) to work for their users.

Pay attention … it’s important to understand that “accidental” isn’t the same as “random”. There are clues all around us, we just need to watch more closely.

Buchheit über was für neue Services wichtig ist (teilweise märchenstunde aber overall a good read) via langreiter

(aufmerksam zu sein ist übrigens was anderes als auf die user zu hören, das zu verwechseln ist einer der kardinalfehler von deutschen startups.)

19.02.2008 # https://hackr.de/2008/02/19/good-enough

Was Nahrungs-Nutzer wirklich wollen

wienerschnitzel, based on a photo cc'ed by-sa by angermann: http://flickr.com/photos/angermann/2197143396/

off topic aber dieser Koch-Hype und die Blase rund um das ganze Essen nervt. Wann immer man den Fernseher einschaltet kocht einem irgendein Koch oder irgendein Prominenter den man nicht kennt irgendwas vor, in den Buchhandlungen stapeln sich die Kochbücher, in den Supermärkten stapeln sich die Lebensmittel und an jeder Ecke klebt irgendein Restaurant und erwartet, dass man drin irgendwas isst.

Eine neue Studie hat nun 46 Köche und 172 Nahrungs-Nutzer ausführlich befragt und 14 Restaurants analysiert und kommt zu einem überraschenden Ergebnis: was Restaurants für wichtig halten ist den Nahrungs-Nutzern oft egal. 70% gaben an zu Mittag am liebsten ein Wienerschnitzel zu essen.

“Salopp ausgedrückt: 50 Prozent unserer [Koch]-Aktivitäten sind für die Tonne”

sagt der Geschäftsführer eines Restaurants (zitiert nach dem Spiegel)

Liebe Köche: verschwendet eure Zeit nicht damit gut zu kochen, euch was neues einfallen zu lassen oder einen stimmigen Gesamteindruck etwa für eine kleinere Gruppe zu hinterlassen. Kocht nur was alle Leute kennen und was die meisten gerne essen. Die grösste gemeinsame Geschmacksdurchschnittlichkeit ist das ultimative Ziel. Dann schreit am lautesten.

14.02.2008 # https://hackr.de/2008/02/14/was-nahrungs-nutzer-wirklich-wollen

openedID

<pathos>

openID wird gerne mit den Vorzügen einer Kreditkarte verglichen. Man holt sich wo eine, und dann kann man sie überall verwenden wo man mit Kreditkarte bezahlen kann. An und für sich ist das nützlich.

Leider ist openID aber wie eine Kreditkarte bei der man dann auch nicht mehr mit Bargeld bezahlen kann, wenn man in einem Geschäft einmal mit ihr bezahlt hat, und leider kann man den Kreditkartenbetreiber dann auch nicht mehr wechseln.

openid

(das stimmt so nicht ganz, die möglichkeit des anbieterwechsels ist bei openid sogar sehr schön mittels eines konstrukts namens delegation eingebaut; nur stimmt das de facto, weil diese möglichkeit von 95% – hausnummer, aber es ist wohl die überwiegende mehrheit – nicht wahrgenommen wird; man kann sich natürlich jederzeit eine zweite, dritte oder vierte kreditkarte bei einem anderen anbieter holen, aber gerade diese vermischung will damit ja beendet werden)

Für die Anbieter ist das sehr interessant. Sie binden alle die ihre Kreditkarte verwenden für den Rest ihres digitalen Lebens an sich und bekommen als kleinen Bonus sämtliche Aufmerksamkeitsdaten (wer kauft wo wann was ein) frei Haus. Insofern ist es nicht verwunderlich, dass Yahoo, AOL, andere greedy corporations diese Kreditkarten anbieten. Mit Kreditkarte bezahlen kann man bei den meisten Anbietern übrigens nicht.

Für Geschäfte in denen man mit Kreditkarte bezahlen kann ist das auch nicht schlecht. Was bequem für den User ist ist letztendlich auch gut fürs Geschäft und Gebühren fallen auch keine an.

Für die Kunden ist das zunächst einmal sehr praktisch. Sie müssen kein Bargeld mit sich herumschleppen und brauchen sich nur einen einzigen Code zu merken. Als Neukunde in einem Geschäft brauchen sie auch keine elendslangen Formulare mehr auszufüllen, steht alles auf der Kreditkarte drauf.

Solange es kein Problem gibt ist alles gut.

Wenn es aber ein Problem gibt sitzt man zumindest knietief in der Scheisse.

Kreditkartenbetreiber könnten (und werden) verschwinden. Die Kreditkarte ist dann natürlich wertlos – aber noch blöder: alles was man zuvor mit der Kreditkarte gekauft hat verschwindet gleich mit (bzw. ist zwar noch da, aber man kommt nicht mehr ran, bzw. man kommt zwar noch ran, aber nur wenn das Geschäft in dem man das jeweilige Ding gekauft hat zulässt, dass man es aufbricht.)

Oder man verliert das Vertrauen in den Kreditkartenbetreiber oder will ihn aus sonstigen Gründen wechseln. Pech gehabt.

Oder eine trickreiche Person kommt irgendwie an die Geheimzahl oder den Pin-Code der Kreditkarte. Diese kann dann auf Shopping-Tour in allen Geschäften in denen man damit bezahlt hat gehen, oder auch nur ungestört in allem stöbern was man damit gekauft hat. Oder sie ist wirklich bösartig, ändert kurzerhand den Code und sperrt einen aus allen Geschäften und allen Dingen die man jemals damit gekauft hat aus.

Oder oder oder oder.

Das Problem mit openID ist nicht, dass es zu Problemen kommen kann, sondern dass die Konsequenzen der Probleme unangenehmer sind als man sie sonst so antrifft. Und ich bin mir nach wie vor nicht sicher ob die Idee eines einzigen Schlüssels (Wechsel der Metapher) der vom Toaster bis zum Safe alles aufsperrt eine besonders gute ist. Bedenken bzgl. der Privacy scheinen mir da eher sekundär zu sein.

That having said… mag ich openID, das ist emerging tech und spätestens wenn Robert Scoble einmal ein Problem hat werden auch Mechanismen der Entkoppelung angedacht und sich mittelfristig auch durchsetzen (bei einigen Seiten kann man etwa jetzt schon zwischen openID und normalem Login hin- und herschalten oder die openID wechseln), aber derzeit ist noch etwas Risikomanagement und Abwägung für was man es verwendet und für was besser nicht gefragt.

Mit oben erwähnter delegation kann man übrigens den Großteil der Risiken abfangen und ist also wärmstens empfohlen (Prinzip: man verwendet eine URI über die man langfristig Kontrolle hat (etwa sein Blog) als seine openID, dort gibt man – in zwei Zeilen – an welcher Anbieter die technische Abwicklung übernimmt; der Anbieter kann jederzeit gewechselt werden, die openID bleibt immer gleich.)

Allerdings muss man das tun bevor man beginnt openID zu verwenden (deshalb sind mir die evangelisten und recruiter die openid auf teufel komm raus promoten etwas suspekt, gee sogar der spiegel greift es schon auf. es ist ein bisschen verantwortungslos im eifer der freude darüber dass auch die platzhirsche des web mitmachen ganz normale user ein bisschen zu früh und bevor sie die implikationen adäquat einschätzen können an yahoo/aol/andere greedy corporations zu binden.)

</pathos>

update: mehr dazu im agenturblog bei neunetz und bei nsr

09.02.2008 # https://hackr.de/2008/02/09/openedid

Trollflings

Psychohygienisch ist es doch beruhigend, dass es solche Diskussionen hin und wieder auch noch woanders gibt (gegenseitiges hochschaukeln, suche nach dem ausbeutungsmodell, überlegungen ob einer kollektiven verfahrenseinleitung, …) (via viavia auch jeweils mit einschätzungen)

Ist halt alles nicht so einfach, das Web ist wahrscheinlich die gekoppeltste Vergleichzeitigung von Ungleichzeitigkeiten ever, aber hinter jedem Rant steckt immer auch noch ein Schicksal, etwa Trollflings’ :

I know it is very strange to me. My item was listed as a TOY. (not a toy)
..
I am a fantasy artist. These trolls, are my life, they are my heart. They are not a sticker, they are not a toy, they are not an accessory.

01.02.2008 # https://hackr.de/2008/02/01/trollflings