traditionell ein paar worte zur google i/o, die uns die letzten drei tage über den geisteszustand von google informierte: die spätestens seit 2012 beobachtbare ‘neue bescheidenheit’ von google (siehe I/O 2012 Neue Bescheidenheit Edition oder I/O 2015 Anhaltende Bescheidenheit Edition oder I/O 2016 Permanente Bescheidenheit Edition) hat sich auch in diesem jahr nicht nur fort- und festgesetzt, man kann wohl fast schon sagen nun auch zum grundzustand von google verwandelt. die großen blöden würfe blieben auch heuer wieder aus, irgendwie kann man sich schon fast nicht mehr daran erinnern, dass google das potential für große blöde würfe überhaupt jemals hatte. von den kernkompetenzen von facebook und apple lassen sie meilenweit die finger, da haben sie sich wohl einfach einmal zu oft die finger verbrannt, und selbst gegenüber amazon und microsoft versuchen sie die schnittmenge so klein wie möglich zu halten. man gratuliert sich eher zu den vorhandenen billion-user projekten und nimmt als interne irritation ansonsten nur das war, was einen growth-faktor von 10x, mindestens von 4x hat (das haben sie skurril oft betont).

(gleichzeitig kann man gar nicht jammern; als infrastrukturprovider im zeitalter der cloud haben sie ihren eigentlichen sinn gefunden, das hat man während der cloud next gesehen, siehe google cloudbag, und bei ihrem symbolischen mantra AI – from mobile first to ai first – haben sie mittlerweile sogar selbst die vermutung, dass das eher erst im mittelfristigen zeithorizont die interessanteren früchte gedeihen lassen wird, weshalb sie bis dahin AI halt einfach in alles einbauen, was nicht bei drei auf den bäumen ist (gmail bekommt smart replies, die fotos für photobücher werden von einer KI ausgewählt, das war ja immer die zumutung, machine learning nimmt einem die mühe des sharens von fotos ab, sogar die text selection in android wird smart mit ai und bekommt dafür sogar einen eigenen chip), ansonsten wird an den projekten halt gearbeitet, aber seit den ankündigungen des letzten jahres gibt es kein vorzeigbares projekt das selbst dem geneigten zuschauer ein ah oder oh entlocken würde, am ehesten noch google lens, falls es dann halbwegs gut funktionieren sollte)