hackr.de

die romantische komödie


Selection 2006

eine kleine Auswahl an Posts aus dem Jahr 2006


Kollektivismus

Stranges Interview mit Jaron Lanier im Spiegel.

(der Wikipedia wird kein Gefallen getan, wenn ihr eine (erschwarmte) Weisheit oder (kollektive) Intelligenz angedichtet wird, die ihr dann auch gleich wieder abgesprochen oder ironisch kritisiert wird – Prinzip Wiki: Ist es dumm, an die Klugheit der Masse zu glauben? fragt etwa der Spiegel und meint natürlich ja. Dumm ist jedoch nur, die Frage so zu stellen. Die Wikipedia ist die organisierte und teilweise selbstorganisierende Summe von Einzeleinträgen, und in keinem Eintrag manifestiert sich irgendeine Intelligenz einer Masse (an die man glauben könnte). Im besten Fall sind sie das dialogisch ausgehandelte Ergebnis eines oder mehrerer aber nicht zu vieler intelligenter und informierter oder recherchierender Individuen, die sich ergänzen und/oder auf die Finger schauen. Für sehr sehr viele Themen funktioniert das jedenfalls für die meisten Informationsbedürnisse gut genug.)

18.11.2006 # https://hackr.de/2006/11/18/kollektivismus

Plastilin

plastic

Web 2.0 ist ein plastischer Begriff. Die Bedeutung ist nicht festgelegt oder fixiert, sondern muss gewissermassen von jedem für sich selbst erarbeitet werden. Es gibt keine ultimative Referenz oder Definition. Die Aussagekraft des Begriffes hängt deshalb also von der Arbeit ab, die man selbst hineinsteckt. Wer es sich leicht macht (wie etwa ein Großteil der Massenmedien, wo ein Journalist mal schnell irgendwas zusammengesampelt hat und die anderen die immer gleichen Ressentiments, Vorurteile und 5 Paradebeispiele von Firmen dann abgeschrieben und weitergetragen haben), der agiert dann mit einem einfachen, aber eben auch undifferenzierten Begriff, der dann halt tatsächlich auch wenig bzw. nichts bringt.

Das bedeutet nicht, dass man Web 2.0 beliebig definieren kann – zumindest wenn man mit anderen kommunizieren will. Web 2.0 entsteht sicherlich irgendwo als Beschreibung der Ensembles von neuen Möglichkeiten, die die zunehmende Ausdifferenzierung der beteiligten Systeme (Mensch und Maschine, Soziologie und Ökonomie, …) und deren Zusammenspiel, zunehmende Interpenetration und Koppelungen, etc. ermöglichen. Je nach Interesse machen dabei unterschiedliche Beobachtungspostionen Sinn, man sollte aber im Hinterkopf behalten, dass es immer auch andere gibt. Wer Tomaten auf den Augen hat und glaubt, da sei überhaupt nichts ausser einem Buzzword oder Hype, dem kann man auch nicht helfen.

(abt. nur mal so)

29.10.2006 # https://hackr.de/2006/10/29/plastilin

Zeitungen

Auf Basis einer Studie der Bivings Group, die die wichtigsten US-amerikanischen Zeitungen auf ihre Internettauglichkeit ausgewertet hat

The Use of the Internet by America’s Newspapers, we researched the websites of America’s top 100 newspapers by circulation, and evaluated them based on their use of 14 different Web 2.0 features. These criteria were comprehensive, and included a wide variety of Web tools, such as reporter blogs, video and podcasts, message boards, and RSS feeds. We pursued this study in order to determine whether newspapers are trying to compete with the Internet or use it to expand readership over a different medium. The results of our research clearly showed that America’s newspapers … are generally embracing the Internet and are using new and improving Web tools to their advantage.

(meine Hervorhebung) organisiert Wortfeld das für die deutschen Zeitungen auf einem Wiki

Die Kriterien sind:

  • RSS-Feed: Bietet die Zeitung einen RSS-Feed an? Wenn ja, mit vollständigen Inhalten oder nur Teilen?
  • RSS-Feed für unterschiedliche Bereiche: Wenn die Zeitung RSS-Feeds anbietet, gibt es Feeds für unterschiedliche Teilbereiche?
  • Werbung in RSS-Feeds: Wenn die Zeitung RSS-Feeds anbietet, enthalten diese Werbung?
  • Häufig gelesen: Bietet die Zeitung eine Liste der am häufigsten gelesenen, beliebtesten oder am meisten per Mail verschickten Meldungen an?
  • Videos: Bietet die Zeitung Video-Inhalte an?
  • Podcasts: Bietet die Zeitung Podcasts an?
  • Chats: Bietet die Zeitung Live-Chats oder Chatrooms an?
  • Journalisten-Blogs: Bietet die Zeitung Weblogs von Journalisten an?
  • Journalisten-Blogs mit Kommentaren: Falls die Zeitung Weblogs von Journalisten anbietet, können Leser auf diesen Weblogs kommentieren?
  • Blogroll: Falls die Zeitung Weblogs von Journalisten anbietet, enthalten diese Links zu externen Weblogs?
  • Leser-Kommentare: Können Leser Artikel auf der Website kommentieren?
  • Registrierung: Ist eine Registrierung notwendig, um die Artikel zu sehen?
  • Bookmarking: Bietet die Zeitung eine Bookmarking-Funktion an, also Artikeln mit Lesezeichen zu versehen? Ist es ein internes (also eigenes) System oder ein externes (wie del.icio.us)?
  • Foren: Bietet die Zeitung Foren?

(aggregiert gibt dieser Fragekatalog sicher eine gute allgemeine Zustandsbeschreibung. Aber es wird dabei impliziert, dass eine Zeitung dann gut im Internet agiert, wenn sie viele Häkchen abhakt. Mit den meisten sozialen Features wird allerdings bestenfalls das falsche Problem gelöst (wie kann ich die Leser durch Einbindung ev. noch retten, auf meinem Angebot halten, verhindern, dass sie womöglich auch noch woanders hin gehen); das eigentliche Problem (was bin ich? unter der Bedingung, dass Inhalte (zumindest die der Konkurrenz, der Blogger, usw.) plastisch geworden sind (siehe Bubblegen.), zerstückelt werden, herumschwirren, disseminiert und rekombiniert werden, diskutiert, gelinkt, getaggt, gevotet, gerankt und sortiert werden, blablabla) wird irgendwie noch verschoben.)

(interessant wie diese in der checkliste beschriebene ‘pflicht’ 2012 gelesen quasi von jedem onlineangebot von verlagen grösstenteils abgehakt wurde, aber die kür – und eigentliche pflicht – der neuerfindung unter den bedingungen web noch immer vollständig verdrängt blieb)

18.08.2006 # https://hackr.de/2006/08/18/zeitungen

Modellgeschäft

Die Frage nach dem Geschäftsmodell des Web 2.0 scheint in gewissen Rhythmen zu kommen. Gerade wo bei den Bloggern das Fragen etwas nachgelassen hat (der Höhepunkt war so im Dezember letzten Jahres erreicht, als Flock released wurde) scheint sie sich jetzt bei Unternehmen vermittelt/verstärkt durch die Massenmedien vermehrt aufzustauen.

Martin Röll sagt jetzt jedenfalls

Als ob es [das Web 2.0] eins haben müsste.

Er relativiert das zwar damit, dass man schon schauen sollte was denn “das Internet für das bestehende Geschäft und innerhalb der existierenden Geschäftsmodelle tun kann” – und das ist als catch-all Phrase irgendwie nicht falsch (naja liebe Buchhändler, hätten sie halt geschaut, was das Internet für ihr existierendes Geschäftsmodell tun hätte können) aber es ist doch erstaunlich wie naiv seine Einschätzungen bzgl. der Auswirkungen, die Geschäftsmodelle die unter den Bedingungen des Web 2.0 entstehen auf die unterschiedlichsten Bereiche haben werden, sind.

(der konzeptionelle Fehler der bei der Frage nach (und der impliziten Erwartung einer Antwort an) einem Geschäftsmodell wohl begangen wird ist, den Begriff auf dem Niveau einer buchhalterischen Monetarisierung zu beschränken und dabei zu übersehen, welche ökonomischen Strukturveränderungen mit gleichzeitiger Wertschöpfungsexplosion jenseits einer an Firmen gekoppelten Input/Output-Maschinerie stattfinden, welche Kanäle entstehen, die diese distribuieren, usw. – Strategien dazu etwa im Gesamtwerk von Bubblegeneration, oder praxistauglicher etwa bei Exciting Commerce)

04.08.2006 # https://hackr.de/2006/08/04/modellgeschaeft

Money equals Spam

… im social software Kontext (Nachtrag zu dem hier)

- in dem Moment in dem es bei Services Top 10/100 Listen gibt wird bei einigen Usern ein kompetitiver Reflex getriggert und sie wollen da rein; noch schlimmer wird’s natürlich, wenn auch noch eine monetäre Vergünstigung auf dem Spiel steht

Bzw. – um dieses Theorem leicht abzuwandeln – Netzwerke sind dann qualitiativ wenig hochwertig, wenn es möglich und lukrativ ist, durch Systembeobachtung und darauf aufbauende Verhaltensanpassung zum Star zu werden.

(abt. der weisheit letzter schluss)

29.07.2006 # https://hackr.de/2006/07/29/money-equals-spam

diggscape

Nur ein Satz zum unmoralischen Angebot von Jason Calacanis (gebe den top-Bookmarkern $1000 wenn sie zu Netscape wechseln): fast jeder Beitrag den ich dazu gelesen habe war irgendwie moralisierend (ja darf man das? wieviel ist die Seele wert? ist es gerecht die User nicht zu bezahlen und die Gründer auscashen zu lassen? community kann man nicht kaufen, etc.) – aber ich bin über keine einzige Analyse gestolpert, die aus der entsprechenden Systemhaftigkeit dieser Communities die Schnapshaftigkeit dieses Ansatzes (jenseits davon, dass es wahscheinlich trotzdem ein verglw. günstiger PR Stunt war) geschlussfolgert hätte.

digg, delicious, flickr, youtube, usw. sind seltsame Pflanzen die wunderbar blühen, aber warum gerade die und nicht andere, die schöner, technisch raffinierter, etc. sind, das weiss kein Mensch, das lässt sich auch nicht vorhersagen oder reproduzieren, jedenfalls liegt’s nicht an der Software, sondern an irgendeiner Dynamik des zur rechten Zeit am rechten Platz Seiendem und dabei die richtigen Leute anzuziehen, deren Microbeiträge sich über die Powerlaweffekte dann zu hypereffizienten Megaeffekten aufsummieren (Videos die millionenfach gesehen, Links die hundertausendfach geklickt, … werden) bei denen aber der Wert eben nicht im jeweiligen Beitrag liegt (das Superlink, -video) sondern in den Netzwerkeffekten, die aber ab einer gewissen Dynamik immer irgendwas populär machen (irgendwelche 20 Links sind immer auf der Frontpage von digg und bekommen dann 10.000 visits in einer Stunde und die Betreiber freuen sich über die wisdom der crowd); den Kopf des langen Schwanzes kann man also abschlagen sooft man will, der wächst sofort wieder nach, man schwächt also digg nicht durch das Abwerben der derzeitigen Top-User, das Link ist dann halt 3 min. später gediggt, oder halt eine anderes; und Netscape gewinnt nichts durch die 3000 zusätzlich im Monat eingereichten Stories, weil die an der dortigen Demographie völlig vorbeigehen (also wieder most popular auf YouTube als Tagsschau) bzw. keinen Sinn machen und dementsprechenden keine votes kriegen und also nicht populär werden und eben überhaupt keinen Effekt mehr auslösen.

27.07.2006 # https://hackr.de/2006/07/27/diggscape

Readers Edition II

und die Readers Edition [war http://www.readers-edition.de/] ging gestern live (und wurde ziemlich einhellig gut aufgenommen [war http://technorati.com/search/readers-edition.de])

Ich hoffe, dass ich mich sehr irre, aber ich befürchte, dass der dahinterstehende Gedanke interessanter sein wird als das Ergebnis.

Die traditionellen Massenmedien leiden ja vorwiegend deshalb unter einem psychologischen Knacks, weil sie merken, dass ihr Modell (Content generieren bzw. einkaufen, verpacken, Zugang kontrollieren bzw. verkaufen) unter den Bedingungen bei denen überall und von allen generiert wird, nicht auf eine, sondern auf hunderte Arten verpackt und umverpackt wird, der Datenfluss letztendlich völlig unregelmentiert ist aber sich via menschlicher Filter (Linkblogger), maschineller Filter (smart aggregators) und allen hybriden Filtern (etwa digg), usw. einfach nicht mehr bzw. immer weniger greift. Das spricht nicht gegen die Medien (eine gute Zeitung ist und bleibt was sehr schönes), sondern für die Hypereffizienzen der Ränder

Die Readers Edition ist nun von der Struktur her eher noch zentralistisch (es wird für die RE geschrieben, es wird moderiert und redigiert, …) und outsourced lediglich die Erstellung der Inhalte.

Mal so dahingesagt erbt die Readers Edition dadurch die Nachteile des einen Modells ohne die Vorteile des anderen Modells (rezeptionstechnisch: ein auf die eigenen Interessen und Lesegewohnheiten optimierter Inputstrom extrahiert aus hunderten Quellen, blabla; produktionstechnisch: ein positives Aufwand/Nutzen-Verhältnis wie etwa bei flickr (weil man die Photos halt hat) oder bei del.icio.us (weil man sich die Links merken und für sich selbst organisieren will) oder irgendwie auch bei der Wikipedia (weil man irgendwie für die Ewigkeit schriebt)) zu nutzen.

06.06.2006 # https://hackr.de/2006/06/06/readers-edition-ii

Handelsblatt

Das Handelsblatt – ich schätze mal Thomas Knüwer, kaum sonst jemand liegt mit seinen Einschätzungen zum Web 2.0 so konsistent daneben – zum Label beta:

Wer würde in ein Flugzeug steigen, über dessen Bordtüren ein Schriftzug warnt: “Dieses Flugzeug haben wir noch nicht zu Ende entwickelt und seine Absturzsicherheit ist noch nicht getestet.”? Wer würde Medikamente schlucken, deren Packungsbeilage informiert: “Über Risiken und Nebenwirkungen wissen wir noch nichts. Sollten Sie welche verspüren, füllen Sie bitte beiliegendes Formular aus.”? Was in der Alltagswelt absurd erscheint, hat bei modernen Web-Diensten Hochsaison.

Der Vergleich mit der Luftfahrt / den Medikamenten hinkt natürlich, das Schlimmste, was einem bei irgendeinem Web 2.0 Dienst üblicherweise passieren kann, ist, dass man ein paar Daten verliert – und das kommt so gut wie nie vor. Aber interessant ist dann doch, dass eigentlich gerade das Gegenteil vom Vermeinten der Fall ist: im Web 2.0 ist beta weniger ein Indikator für Mangelware, sondern eher das Pendant zum ISO 9001 Gütesiegel für Qualität. Das Durchschnittsbeta ist bei weitem ausgereifter, hübscher, hipper, … als das Durchschnittsnichtbeta. Grottenschlechte Releases gibts en masse, wirklich schlechte Betas eigentlich kaum.

(als Grund dafür vermute ich mal die kognitive Dissonanz, die üblicherweise auftritt, wenn man seine eigenen Fähigkeiten in Relation zu den Fähigkeiten aller anderen einschätzen soll. Je schlechter die eigenen Kompetenzen, desto eher die Selbsteinschätzung als besonders gut, weil natürlich jeder Maßstab fehlt; je grösser die Kompetenzen, desto grösser die Fähigkeit zur Selbstkritik. Der berechtigte Grössenwahn von 37signals ist da eher die Ausnahme.)

08.05.2006 # https://hackr.de/2006/05/08/handelsblatt