live.hackr

die romantische komödie


Minimal Models pt. 2 (The Consumption Edition)

stellen wir uns nach dem minimal model pt. 1 nun eine andere welt mit 100 teilnehmern vor, und in dieser welt kann kann man jede woche entweder eine stunde schreiben oder eine stunde lesen; und nehmen wir auch an, dass schreiben etwa 10x so lang dauert wie lesen.

szenario 1: 10 schreiber, 90 leser
90h lesen verteilen sich auf 10 schreiber -> 9h lesen pro schreiber (es wird jeder text von allen lesern gelesen)

szenario 2: 50 schreiber, 50 leser
50h lesen verteilen sich auf 50 schreiber -> 1h lesen pro schreiber (jeder text wird immerhin von 10 lesern gelesen)

szenario 3: 90 schreiber, 10 leser
10h lesen verteilen sich auf 90 schreiber -> 7 min lesen pro schreiber (jeder text wird von immerhin noch einem leser gelesen)

was kann man nun schon aus diesem allereinfachsten modell lernen?

  • produktion braucht konsumption und umgekehrt
  • mehr ‘produktion’ ist nicht unbedingt das wünschenswerte
  • es geht vielmehr um das erzeugen von milieus, auf denen sich die produktionsbedingungen und rezeptionsbedingungen auf einem für alle beteiligten nützlichen gleichgewicht einpendeln kann
  • genau das erzeugen dieser milieus für die produktion und rezeption von spezifischen sozialen objekten ist die aufgabe der verschiedenen dienste. wie das dann jeweils idealerweise ausschaut folgt keiner faustregel, sondern muss man sich von fall zu fall genau anschauen. sowas wie diese unsägliche 90-9-1 regel zeigt vielleicht den median der verteilungen an (i.e. auf vielen foren pendelt es sich da ein), ist ansonsten aber völlig nutzlos.

nur zur sicherheit: das modell ist natürlich nicht realistisch. leute können üblicherweise lesen und schreiben, ob man produziert hängt von einer jeweils individuellen motivationsfunktion ab, ob und was man konsumiert hängt von einer jeweils individuellen interessefunktion ab, daraus leiten sich verteilungskurven mit abnehmendem grenznutzen ab, die wiederum verschiedene triggermilieus bzgl. der motivationsfunktion bilden, die wiederum feedbackloops innerhalb einer allgemeinen ausdifferenzierung erzeugen, usw.

(und nur am rande: wenn man sich die realen verteilungen auf webdiensten anschaut, dann sind die meistens erstaunlich plausibel. die wikipedia pendelt sich auf einem niveau ein, das zur aktualisierung völlig reicht; die 0,1% produzenten (hausnummer) erzeugen immer noch einen massiven inhaltlichen überschuss, der halt in den löschdiskussionen abgefackelt wird, aber der nutzen jeder änderung betrifft natürlich immer gleich millionen; auf twitter ist mit dem produzieren von tweets kaum aufwand verbunden, da entstehen dann wilde mischungen von den verschiedensten subbündeln, aber insgesamt hat twitter, wenn es ein problem hat, sicher nicht wie oft naiv angenommen eines von zu wenig produzenten, sondern von zu wenig lesern, die faven, subscriben, auf die links klicken, auf die ads klicken; usw.)

meta 22.11.2014 #