und die Readers Edition [war http://www.readers-edition.de/] ging gestern live (und wurde ziemlich einhellig gut aufgenommen [war http://technorati.com/search/readers-edition.de])

Ich hoffe, dass ich mich sehr irre, aber ich befürchte, dass der dahinterstehende Gedanke interessanter sein wird als das Ergebnis.

Die traditionellen Massenmedien leiden ja vorwiegend deshalb unter einem psychologischen Knacks, weil sie merken, dass ihr Modell (Content generieren bzw. einkaufen, verpacken, Zugang kontrollieren bzw. verkaufen) unter den Bedingungen bei denen überall und von allen generiert wird, nicht auf eine, sondern auf hunderte Arten verpackt und umverpackt wird, der Datenfluss letztendlich völlig unregelmentiert ist aber sich via menschlicher Filter (Linkblogger), maschineller Filter (smart aggregators) und allen hybriden Filtern (etwa digg), usw. einfach nicht mehr bzw. immer weniger greift. Das spricht nicht gegen die Medien (eine gute Zeitung ist und bleibt was sehr schönes), sondern für die Hypereffizienzen der Ränder

Die Readers Edition ist nun von der Struktur her eher noch zentralistisch (es wird für die RE geschrieben, es wird moderiert und redigiert, …) und outsourced lediglich die Erstellung der Inhalte.

Mal so dahingesagt erbt die Readers Edition dadurch die Nachteile des einen Modells ohne die Vorteile des anderen Modells (rezeptionstechnisch: ein auf die eigenen Interessen und Lesegewohnheiten optimierter Inputstrom extrahiert aus hunderten Quellen, blabla; produktionstechnisch: ein positives Aufwand/Nutzen-Verhältnis wie etwa bei flickr (weil man die Photos halt hat) oder bei del.icio.us (weil man sich die Links merken und für sich selbst organisieren will) oder irgendwie auch bei der Wikipedia (weil man irgendwie für die Ewigkeit schriebt)) zu nutzen.