scott page

kl. Nachtrag zu Community College : die Model Thinking Klasse hat gerade ihr Midterm und deshalb nochmal ein kleiner Anstups; die Videos sind auch ohne Anmeldung einsehbar, ein langes Wochenende reicht wohl auch zum Catchup aus und zumindest ich hatte in den letzten Jahren selten mehr Bang für den Buck (Time).

Der Kurs ist (wenn man allem folgen will, was auch nicht notwendig ist, weil er sehr modular ist) nicht ganz einfach, aber Hausverstand und ein bisschen Lust an logischem Denken reicht (im Gegensatz zu den anderen Stanford-Kursen, in die ich hineingeschnuppert habe) locker aus, also keineswegs schwer, aber sehr gut (mich dünkt man müsste viel viel mehr Zeit investieren, um dann einen signifikant höheren Nutzen zu haben); Scott Page hat spürbar Lust am Thema und ist extrem gut darin, die Modelle auf einem Abstraktionsniveau zu erklären, das gleichzeit verständlich und non-trivial ist, und sie dann auch in ihrer Relevanz für unser Dasein zu positionieren.

(fast bei jedem modell hat es bei mir irgendwie kling kling kling gemacht und plötzlich hatte ich ein instrumentarium dafür, irgendein phänomen zu fassen, das davor irgendwie meistens in der konzeptionellen suppe der überkompliziertheit geschwommen ist. und eines der ersten dinge die man lernt, ist, die bedingungen zu klären, unter denen die jeweils getroffenen grundannahmen gültig sind (was mir, so blöd es klingt, schon alleine dabei geholfen hat, meinen gereiztheitszustand gegenüber einigen feldern zu senken, weil ich mich z.b. bei aussagen nicht mehr über die inkonsistenzen und willkürlichen grundannahmen ärgere, sondern eher den gültigkeitsbereich skizziere, den es ja trotzdem meistens auch gibt). ein anderes ist, dass man plötzlich ein auge für modelle bekommt und sie erkennt, wenn sie etwa von anderen menschen angewandt werden (ob sie es jetzt wissen oder nicht). auch das führt mitunter zu einer defrustrierung mit den mitmenschen, weil man ihren irr- und unsinn oft als rationales verhalten (halt unter suboptimalen grundannahmen) zumindest nachvollziehen kann; viele der aktuellen konfikte sind halt einfach ein clash zwischen optimierung eines big coefficient der sich leider einer new reality gegenüber (nicht) sieht. oder sie helfen beim etablieren eines ‘feelings’ für die dynamik von equilibrien von szenarien, die übrigens oft contraintuitiv sind)