Lahm und Lahmer
Was ist eigentlich lahmer – auf Teufel komm raus zu verhindern, dass die eigenen Inhalte beginnen zu zirkulieren und eine nicht mehr kontrollierbare Dynamik annehmen, oder ein paar Häppchen vom eigenen Content zusammenzustellen (wie Sony via Grouper mit ScreenBites) und kontrollierte Viralität selbst pushen zu wollen?
Food
Neue Sektion bei Yahoo!: Yahoo! Food – auch recht geschmackvoll gemacht.
(irre ich mich, oder macht Yahoo! in letzter Zeit vieles richtig und Google vieles falsch? Zumindest bzgl. der Kohärenz des Designs über die verscheidenen Services hinweg wird Yahoo! immer geschlossener, konsistenter und hübscher; Google hingegen patcht immer mehr vglw. willkürlich im immergleichen (aber nicht immer schlüssigen) Gmail-Style zusammen, aus dem wirklich netten Writely etwa wird ein unansehnliches Docs & Spreadsheets und wahrscheinlich bald Docs, Spreadsheet, Wiki-Calc & Calendar Matsch…)
Plastilin
Web 2.0 ist ein plastischer Begriff. Die Bedeutung ist nicht festgelegt oder fixiert, sondern muss gewissermassen von jedem für sich selbst erarbeitet werden. Es gibt keine ultimative Referenz oder Definition. Die Aussagekraft des Begriffes hängt deshalb also von der Arbeit ab, die man selbst hineinsteckt. Wer es sich leicht macht (wie etwa ein Großteil der Massenmedien, wo ein Journalist mal schnell irgendwas zusammengesampelt hat und die anderen die immer gleichen Ressentiments, Vorurteile und 5 Paradebeispiele von Firmen dann abgeschrieben und weitergetragen haben), der agiert dann mit einem einfachen, aber eben auch undifferenzierten Begriff, der dann halt tatsächlich auch wenig bzw. nichts bringt.
Das bedeutet nicht, dass man Web 2.0 beliebig definieren kann – zumindest wenn man mit anderen kommunizieren will. Web 2.0 entsteht sicherlich irgendwo als Beschreibung der Ensembles von neuen Möglichkeiten, die die zunehmende Ausdifferenzierung der beteiligten Systeme (Mensch und Maschine, Soziologie und Ökonomie, …) und deren Zusammenspiel, zunehmende Interpenetration und Koppelungen, etc. ermöglichen. Je nach Interesse machen dabei unterschiedliche Beobachtungspostionen Sinn, man sollte aber im Hinterkopf behalten, dass es immer auch andere gibt. Wer Tomaten auf den Augen hat und glaubt, da sei überhaupt nichts ausser einem Buzzword oder Hype, dem kann man auch nicht helfen.
(abt. nur mal so)
Sharing
Zwei Schwergewichte zur Ethik im Web 2.0, bzw. zur Unterscheidung in true sharing sites und fake sharing sites
Lawrence Lessig definiert das am Beispiel YouTube:
A “true sharing” site doesn’t try to exercise ultimate control over the content it serves. It permits, in other words, content to move as users choose.
A “fake sharing” site, by contrast, gives you tools to make seem as if there’s sharing, but in fact, all the tools drive traffic and control back to a single site.
und Joi Ito greift das auf:
I personally think that people are trying to build Bubble 2.0 on top of Web 2.0. Instead of becoming a platform for the future of the Web, it’s possible that Web 2.0 is becoming the platform for the short-term future of greedy people. However, I do think that it is important to understand that the recent success and surge in innovation on the Web is due to a semi-new set of principles. Part of the principles are a return to fundamental principles.
… One of the central themes of Web 2.0 is the ability for users to control their own data and the ability for people to share and remix. In this context, many, if not most good Web 2.0 services allow users to download, link and reuse all if not a substantial part of the content they work on.
I dunno.
Die Unterscheidung in frei / nicht so frei macht natürlich durchaus Sinn, wenn man sich als User überlegt, ob man oder ob man nicht irgendein Tool verwenden soll, oder welches Tool man verwenden soll, usw, aber diese ethische Achse (mit der Grundbewertung sharebar ist automatisch gut, nicht sharebar böse) hat mit Web 2.0 nichts zu tun und suggeriert eine falsche Beschaulichkeit.
(die Unterscheidung macht natürlich auch aus gesellschaftlicher Perspektive Sinn und ist auch wichtig, aber auch das hat mit Web 2.0 nichts zu tun)
YouTube offeriert einen klar definierten Wertvorschlag für die (nicht institutionellen) User (ihr könnt Videos raufladen, ihr könnt euch rund um die Videos organisieren und austauschen und sozialisieren, ihr könnt die Videos einbetten, wir kümmern uns um unsere Einnahmen), und den kann man annehmen oder nicht.
update:
But Larry’s on to something. I’ve been seeing the distinction that he makes coming more and more into focus as a defining issue for Web 2.0. Google has been a key enabler of the decentralized nature of the net – they make other sites more visible, distributing attention, rather than concentrating it. But some of the newer sites, and the newer applications from Google and the other big guys, are increasingly aimed at centralizing user activity and user data.
Trouble with Qype
Konstruktive Kritik an Qype, dem deutschen Vorzeigeunternehmen in Sachen Web 2.0 (alles da: user created content, Reviews, Tags und Tagcloud, Lokalität, Ruby on Rails, Venture Capital, Maps, …) bei Buzzingo
(das grundsätzlichste Problem von Qype sehe ich darin, dass man als Benutzer nicht nur keinen direkten Nutzen für sich selbst generiert, wenn man irgendwelche Plätze eingibt und bewertet – im Grunde schadet man sich sogar (es ist jetzt schon schwierig in meinem Lieblingscafe am Sonntag einen Platz zu ergattern, es wäre blöd das auch noch Leuten zu empfehlen, die ich nicht kenne, dann wird es noch überfüllter…). Qype muss also alternative Anreize/Mehrwert/Netzwert/Sinn/Spass anbieten, damit man über den Testbeitrag hinaus motiviert bleibt, und da ist ihnen noch nicht allzuviel eingefallen)
Facebook Floodgates
Facebook is now officially open for gaming. Advertisers, spam-bloggers and scam artists can now pile in, not to mention the voyeurs and stalkers. There goes the neighbourhood, probably…..
(gewissermassen Microglobalisierung (Zerstörung des Lokalen) als Symptom für an dreistellige Wachstumsraten gekoppelte Hoffnungen)
Ajaxlytics
Aha. Mit Google Analytics kann man auch nichtpagereloadende aka via Ajax vermittelte Aufrufe tracken (siehe) – einfach
urchinTracker("/wasauchimmer" );
in die jeweilige JavaScript-Funktion stecken. Geschickt eingesetzt kann man dadurch die Pageviews locker verzehn- oder verhundertfachen.
(ich persönlich bin nicht so der wahnsinnig grosse Fan von allen Statistikpaketen und Zählern. In Verbindung mit AdSense entsteht dadurch ein annähernd flächendeckender Wahrnehmungsteppich für Google, auf dem sich mehr oder weniger das gesamte Surfverhalten abbilden lässt – man hüpft ja mit seiner IP von einer Analytics/AdSense-bestückten Seite zur nächsten, wenn man auch noch Gmail oder so verwendet wird das auch noch schön personalisiert…; Erdnüsse für die Einzelseitenbetreiber (viel mehr als eine Packung NicNac’s machen 99% aller Seiten mit AdSense am Tag wohl nicht) summieren sich also auf zu massiven Kosten für alle, was die Beobachtbarkeit, Segmentierbarkeit, privacy, etc. betrifft)
Crowdsounding
Paradigmenshift aus 46395 Bocholt: SellaBand
Das Prinzip ist, dass
- Musiker/Bands ein Profil erzeugen (Photos, 3 Songs, …)
- Fans $50.000 in $10-er Blöcken investieren
- eine CD produziert wird, die die 5000 Fans bekommen
- das ganze vermarktet wird
Die Idee ist nicht uncharmant, weil alle dadurch profitieren aber nichts verlieren (die Bands bekommen Sichtbarkeit und können unter professionellen Bedingungen aufnehmen oder halt nicht; die Fans bekommen die exklusiv-CD und das Gefühl believer gewesen zu sein oder ihr Geld zurück; die Produzenten können produzieren oder halt nicht).
Was mir dabei irgendwie nicht gefällt ist die Risikoverteilung. Im Grunde liegt dieses allein bei den Fans (sie investieren vorab, bekommen u.U. eine miese CD, müssen ev. lange warten bis etwas produziert wird, vergessen ev. das Geld zurückzuholen wenn die 50.000 nicht erreicht werden und nicht produziert wird) während die affilierten Produzenten und Studios überhaupt nichts riskieren und zu Aufträgen kommen, zu denen sie sonst nie gekommen wären.
Und der Produktionsprozess wird zwar elastischer als bei Plattenfirmen, bleibt aber im Grunde unelastisch und an einen Mittelsmann gebunden. 10$ als kleinste Sponsoreinheit macht ev. Sinn, weil das dem gefühlsmässigen Preis einer CD oder eines Albumdownloads entspricht – und man die produzierte CD auch nicht zerstückelt verschicken kann, aber die $30.000 Kostenpauschale für die Produktion (die dann auch an die Hausproduzenten gebunden ist) ist eine Hausnummer, die vielleicht den Durchschnittskosten einer Tanzband entspricht, aber nicht die konkreten Produktionsbedürfnisse der Bands reflektiert.
Interessanter wäre, wenn die Bands selbst definieren könnten, wieviel sie brauchen, selbst bestimmen könnten, wie sie das dann ausgeben, in welchen Formaten sie das dann distribuieren, etc.
(via)update:
metronom hat auf einen Artikel in Spreeblick hingewiesen, der dann auch die (etwa verwertungsrechtlichen) Opportunitätskosten für die Bands analysiert (und den man gelesen haben sollte, bevor man dort mitmacht).
Und wie macht das sellaband?
Auch hier wird ein Bandübernahme-Vertrag abgeschlossen, jede bei sellaband teilnehmende Band verpflichtet sich dazu im Voraus. Zustande kommt der Deal natürlich nur, wenn die Band auch wirklich 5.000 Leute auftreibt, die blind für jeweils 10 Dollar die kommende CD kaufen und somit dem Label sellaband sämtliche Produktionskosten abnehmen. Das Risiko für sellaband hält sich mit einer Website in überschaubaren Grenzen, am teuersten dürften die Anwälte gewesen sein, die für Konditionen verantwortlich sind. Denn zu weiteren, eigenen Investitionen für den Künstler verpflichtet sich sellaband wenn überhaupt nur sehr vage.
Eine Band unter Vertrag nehmen, die 5.000 Fans und 50.000 Dollar mitbringt und ansonsten kaum Ansprüche an das Label stellt? Würde ich auch machen. Als Label.
Doch damit nicht genug. Schließlich geht es ja auch noch um die Verlagsrechte an den aufgenommenen (und zwingend selbstkomponierten) Songs. Diese gehen ebenfalls automatisch an sellaband und auch hier: Kein Cent Vorschüsse (bei „normalen“ Verlagen sind Vorschüsse üblich), nichts über Pflichten oder Leistungen, die der Verlag zu erbringen hat. Achja, und wer nach erfolgreicher sellaband-Aktion gerne weiter selbst im Netz aktiv werden möchte, hat sich geschnitten: Die sellaband-Deals untersagen eigene Aktivitäten hinsichtlich der betreffenden Songs außerhalb von sellaband.
Zeitungen
Auf Basis einer Studie der Bivings Group, die die wichtigsten US-amerikanischen Zeitungen auf ihre Internettauglichkeit ausgewertet hat
The Use of the Internet by America’s Newspapers, we researched the websites of America’s top 100 newspapers by circulation, and evaluated them based on their use of 14 different Web 2.0 features. These criteria were comprehensive, and included a wide variety of Web tools, such as reporter blogs, video and podcasts, message boards, and RSS feeds. We pursued this study in order to determine whether newspapers are trying to compete with the Internet or use it to expand readership over a different medium. The results of our research clearly showed that America’s newspapers … are generally embracing the Internet and are using new and improving Web tools to their advantage.
(meine Hervorhebung) organisiert Wortfeld das für die deutschen Zeitungen auf einem Wiki
Die Kriterien sind:
- RSS-Feed: Bietet die Zeitung einen RSS-Feed an? Wenn ja, mit vollständigen Inhalten oder nur Teilen?
- RSS-Feed für unterschiedliche Bereiche: Wenn die Zeitung RSS-Feeds anbietet, gibt es Feeds für unterschiedliche Teilbereiche?
- Werbung in RSS-Feeds: Wenn die Zeitung RSS-Feeds anbietet, enthalten diese Werbung?
- Häufig gelesen: Bietet die Zeitung eine Liste der am häufigsten gelesenen, beliebtesten oder am meisten per Mail verschickten Meldungen an?
- Videos: Bietet die Zeitung Video-Inhalte an?
- Podcasts: Bietet die Zeitung Podcasts an?
- Chats: Bietet die Zeitung Live-Chats oder Chatrooms an?
- Journalisten-Blogs: Bietet die Zeitung Weblogs von Journalisten an?
- Journalisten-Blogs mit Kommentaren: Falls die Zeitung Weblogs von Journalisten anbietet, können Leser auf diesen Weblogs kommentieren?
- Blogroll: Falls die Zeitung Weblogs von Journalisten anbietet, enthalten diese Links zu externen Weblogs?
- Leser-Kommentare: Können Leser Artikel auf der Website kommentieren?
- Registrierung: Ist eine Registrierung notwendig, um die Artikel zu sehen?
- Bookmarking: Bietet die Zeitung eine Bookmarking-Funktion an, also Artikeln mit Lesezeichen zu versehen? Ist es ein internes (also eigenes) System oder ein externes (wie del.icio.us)?
- Foren: Bietet die Zeitung Foren?
(aggregiert gibt dieser Fragekatalog sicher eine gute allgemeine Zustandsbeschreibung. Aber es wird dabei impliziert, dass eine Zeitung dann gut im Internet agiert, wenn sie viele Häkchen abhakt. Mit den meisten sozialen Features wird allerdings bestenfalls das falsche Problem gelöst (wie kann ich die Leser durch Einbindung ev. noch retten, auf meinem Angebot halten, verhindern, dass sie womöglich auch noch woanders hin gehen); das eigentliche Problem (was bin ich? unter der Bedingung, dass Inhalte (zumindest die der Konkurrenz, der Blogger, usw.) plastisch geworden sind (siehe Bubblegen.), zerstückelt werden, herumschwirren, disseminiert und rekombiniert werden, diskutiert, gelinkt, getaggt, gevotet, gerankt und sortiert werden, blablabla) wird irgendwie noch verschoben.)
(interessant wie diese in der checkliste beschriebene ‘pflicht’ 2012 gelesen quasi von jedem onlineangebot von verlagen grösstenteils abgehakt wurde, aber die kür – und eigentliche pflicht – der neuerfindung unter den bedingungen web noch immer vollständig verdrängt blieb)
Modellgeschäft
Die Frage nach dem Geschäftsmodell des Web 2.0 scheint in gewissen Rhythmen zu kommen. Gerade wo bei den Bloggern das Fragen etwas nachgelassen hat (der Höhepunkt war so im Dezember letzten Jahres erreicht, als Flock released wurde) scheint sie sich jetzt bei Unternehmen vermittelt/verstärkt durch die Massenmedien vermehrt aufzustauen.
Martin Röll sagt jetzt jedenfalls
Als ob es [das Web 2.0] eins haben müsste.
Er relativiert das zwar damit, dass man schon schauen sollte was denn “das Internet für das bestehende Geschäft und innerhalb der existierenden Geschäftsmodelle tun kann” – und das ist als catch-all Phrase irgendwie nicht falsch (naja liebe Buchhändler, hätten sie halt geschaut, was das Internet für ihr existierendes Geschäftsmodell tun hätte können) aber es ist doch erstaunlich wie naiv seine Einschätzungen bzgl. der Auswirkungen, die Geschäftsmodelle die unter den Bedingungen des Web 2.0 entstehen auf die unterschiedlichsten Bereiche haben werden, sind.
(der konzeptionelle Fehler der bei der Frage nach (und der impliziten Erwartung einer Antwort an) einem Geschäftsmodell wohl begangen wird ist, den Begriff auf dem Niveau einer buchhalterischen Monetarisierung zu beschränken und dabei zu übersehen, welche ökonomischen Strukturveränderungen mit gleichzeitiger Wertschöpfungsexplosion jenseits einer an Firmen gekoppelten Input/Output-Maschinerie stattfinden, welche Kanäle entstehen, die diese distribuieren, usw. – Strategien dazu etwa im Gesamtwerk von Bubblegeneration, oder praxistauglicher etwa bei Exciting Commerce)
Money equals Spam
… im social software Kontext (Nachtrag zu dem hier)
- in dem Moment in dem es bei Services Top 10/100 Listen gibt wird bei einigen Usern ein kompetitiver Reflex getriggert und sie wollen da rein; noch schlimmer wird’s natürlich, wenn auch noch eine monetäre Vergünstigung auf dem Spiel steht
Bzw. – um dieses Theorem leicht abzuwandeln – Netzwerke sind dann qualitiativ wenig hochwertig, wenn es möglich und lukrativ ist, durch Systembeobachtung und darauf aufbauende Verhaltensanpassung zum Star zu werden.
(abt. der weisheit letzter schluss)
diggscape
Nur ein Satz zum unmoralischen Angebot von Jason Calacanis (gebe den top-Bookmarkern $1000 wenn sie zu Netscape wechseln): fast jeder Beitrag den ich dazu gelesen habe war irgendwie moralisierend (ja darf man das? wieviel ist die Seele wert? ist es gerecht die User nicht zu bezahlen und die Gründer auscashen zu lassen? community kann man nicht kaufen, etc.) – aber ich bin über keine einzige Analyse gestolpert, die aus der entsprechenden Systemhaftigkeit dieser Communities die Schnapshaftigkeit dieses Ansatzes (jenseits davon, dass es wahscheinlich trotzdem ein verglw. günstiger PR Stunt war) geschlussfolgert hätte.
digg, delicious, flickr, youtube, usw. sind seltsame Pflanzen die wunderbar blühen, aber warum gerade die und nicht andere, die schöner, technisch raffinierter, etc. sind, das weiss kein Mensch, das lässt sich auch nicht vorhersagen oder reproduzieren, jedenfalls liegt’s nicht an der Software, sondern an irgendeiner Dynamik des zur rechten Zeit am rechten Platz Seiendem und dabei die richtigen Leute anzuziehen, deren Microbeiträge sich über die Powerlaweffekte dann zu hypereffizienten Megaeffekten aufsummieren (Videos die millionenfach gesehen, Links die hundertausendfach geklickt, … werden) bei denen aber der Wert eben nicht im jeweiligen Beitrag liegt (das Superlink, -video) sondern in den Netzwerkeffekten, die aber ab einer gewissen Dynamik immer irgendwas populär machen (irgendwelche 20 Links sind immer auf der Frontpage von digg und bekommen dann 10.000 visits in einer Stunde und die Betreiber freuen sich über die wisdom der crowd); den Kopf des langen Schwanzes kann man also abschlagen sooft man will, der wächst sofort wieder nach, man schwächt also digg nicht durch das Abwerben der derzeitigen Top-User, das Link ist dann halt 3 min. später gediggt, oder halt eine anderes; und Netscape gewinnt nichts durch die 3000 zusätzlich im Monat eingereichten Stories, weil die an der dortigen Demographie völlig vorbeigehen (also wieder most popular auf YouTube als Tagsschau) bzw. keinen Sinn machen und dementsprechenden keine votes kriegen und also nicht populär werden und eben überhaupt keinen Effekt mehr auslösen.
Fluxus
MTV bringing social networking to TV channel (via)
MTV Networks is launching a TV channel that features user-generated video clips and messages, becoming the latest media giant to embrace the social networking craze and the first to adapt it to traditional broadcasting.
Consumers will be able to choose which music videos are played on the channel, upload their own clips, send on-screen messages using mobile phones and communicate with each other with self-created avatars – graphical representations of participants – resembling Japanese animation.
(stranges Modell, weil es die Nachteile des Massenmediums mit den Nachteilen der sozialen Medien kombiniert)
Diggsploitation
Submit to digg jetzt offiziell: Integrating Digg Within Your Website
(das Buhlen um diggs oder um social bookmarks ist ein Trend, der mir nicht besonders gut gefällt; einerseits kann man schon jetzt die kreative Energie beobachten, mit der die Systeme gespamt werden sollen, was bei geringer Dichte nervt, aber auch zur Unbenutzbarkeit führen kann; andererseits optimieren immer mehr Blogs ihre Einträge (Titel, Topic, ..) nicht mehr nur auf Suchmaschinen, sondern nun auch auf die social-machines, und interessanter werden dabei die wenigsten) ((diesbezüglich ist derzeit das Wringen von Richard MacManus ganz nett zu beobachten, der sich ein bisschen in einer double bind Situation befindet))
Readers Edition II
und die Readers Edition [war http://www.readers-edition.de/] ging gestern live (und wurde ziemlich einhellig gut aufgenommen [war http://technorati.com/search/readers-edition.de])
Ich hoffe, dass ich mich sehr irre, aber ich befürchte, dass der dahinterstehende Gedanke interessanter sein wird als das Ergebnis.
Die traditionellen Massenmedien leiden ja vorwiegend deshalb unter einem psychologischen Knacks, weil sie merken, dass ihr Modell (Content generieren bzw. einkaufen, verpacken, Zugang kontrollieren bzw. verkaufen) unter den Bedingungen bei denen überall und von allen generiert wird, nicht auf eine, sondern auf hunderte Arten verpackt und umverpackt wird, der Datenfluss letztendlich völlig unregelmentiert ist aber sich via menschlicher Filter (Linkblogger), maschineller Filter (smart aggregators) und allen hybriden Filtern (etwa digg), usw. einfach nicht mehr bzw. immer weniger greift. Das spricht nicht gegen die Medien (eine gute Zeitung ist und bleibt was sehr schönes), sondern für die Hypereffizienzen der Ränder
Die Readers Edition ist nun von der Struktur her eher noch zentralistisch (es wird für die RE geschrieben, es wird moderiert und redigiert, …) und outsourced lediglich die Erstellung der Inhalte.
Mal so dahingesagt erbt die Readers Edition dadurch die Nachteile des einen Modells ohne die Vorteile des anderen Modells (rezeptionstechnisch: ein auf die eigenen Interessen und Lesegewohnheiten optimierter Inputstrom extrahiert aus hunderten Quellen, blabla; produktionstechnisch: ein positives Aufwand/Nutzen-Verhältnis wie etwa bei flickr (weil man die Photos halt hat) oder bei del.icio.us (weil man sich die Links merken und für sich selbst organisieren will) oder irgendwie auch bei der Wikipedia (weil man irgendwie für die Ewigkeit schriebt)) zu nutzen.
Irgendwie
… tut sie mir doch leid, die Musikindustrie mit ihrem aussichtslosen Kampf, nicht um ihre Kunden, sondern gegen sie (und gegen alles was diese wollen), nicht um das Internet und alle damit verbundenen Möglichkeiten und Ströme, sondern frontal dagegen. [Produzieren kann heute jeder, distribuieren auch, die Stars werden künftig an den Rändern gemacht und nicht von Werbefritzen, man muss kein Ökonom sein, um sich auszurechnen was mit ihr passiert.] Es nervt.
Bloggen
Ein guter Grund dafür so zu bloggen wie andere, ist der, dass die anderen so bloggen. Der Bloggebrauch ist stark konventionell und nicht bloß kongruent. Man stimmt nicht einfach darin überein, wie man Blogs zu gebrauchen hat, sondern führt die Übereinstimmung als einen Grund dafür an, dass man sie so zu gebrauchen hat. Eine Folge davon ist, dass Blogkonventionen dazu neigen, sich selbst zu stabilisieren. Wenn ihr ‘so sein’ ein guter Grund dafür ist, sie zu beachten und zu befürworten, dann widersetzen sie sich durch einen reflexiven Prozess von innen heraus dem Wandel. Abweichungsversuche werden aufgehalten und der konvergente Gebrauch wird der nächsten Generation als Standard der Korrektheit übermittelt. Dieser Prozess dient der Selbststabilisierung. Alle konventionellen Normen sind auf die gleiche Weise selbststabilisierend. Nachdem sie einmal da sind, ist ihre Existenz sowohl Grund, als auch Ursache ihrer Fortdauer.