[Récap']Google I / O 2019 : la conférence d'ouverture dès 19 heures (heure Française) !

22 : 44 - "Passez un bon moment"... Fin de ces keynotes introductives à la Google I / O 2019 !

22 : 43 - "Merci pour faire parti de cette communauté"

22 : 41 - disponible dès à présent.

22 : 40 - Après la musique et les "inspirations", Flutter est finalement évoqué... "pour le Web" !

22 : 38 - Amélioration, ajout d'outils de veille pour Firebase (monitoring) (iOS, Android)

22 : 32 - Firebase est évoqué avec ML Edge, toujours pour parfaire la reconnaissance faciale et créer des tables (bases) avec des données (images) qui viendront en tant que référence (modèle).

22 : 31 - Calibrage en live... sans commentaires :-D

22 : 30 - un exemple de tensorFlow lite avec "Dance Like", l'application Google (comme un Just Dance !...)

22 : 24 - TPUs de Google exploitable depuis le Cloud de Google. TensorFlow passera "bientôt" en version 2.0 avec plus d'API "intuitives" pour un gain en code et une compatibilité accrue, côté développement (productivité !). Une version "light" de TensorFlow est déjà éprouvée pour les architectures mobiles du genre (IoT, par exemple).

22 : 24 - Amélioration de la détection des objets en RA en concordance avec le Cloud (notamment via l'application Ikéa)

22 : 20 - nouveautés ML kit : traduction "on-device"

22 : 18 - "Web.dev" pour aider le développeur en détresse !

22 : 15 - "Google Search utilise la dernière version de Chromium pour indexer le Web"

22 : 14 - une nouvelle commande "lazy" permettra aussi d’atténuer les problèmes relatifs à la transition-image (chargement lent, poussif...) : en un mot dans le code !

22 : 12 - Chrome est évoqué : il a évolué en "plus rapide" (chargement-page et résultats)

22 : 08 - Un autre exemple avec un tuto' pour installer "une porte pour chien" (...) via des "app actions" qui peuvent se gérer via des templates (tableur type Excel) et être retranscrit, au final, sous forme de tuto' (résultat final ci-dessous). De quoi faciliter le labeur des développeurs... ?

22 : 04 - Démo' rapide des améliorations (code Kotlin - Jetpack) qui permet de voir l'update (commande effective : écran de smartphone) tout en permettant de scroller écran. Google parle d'API "flexible".

22 : 02 - Évocation des nouveautés Android Studio (v3.5)

21 : 57 - Camera X annoncé (librairie)

21 : 56 - Améliorations dans la programmation et JetPack couvre plus d'applications / modules liés

 

21 : 55 - petit pique pour Java avec un petit comparatif assez facile...

21 : 54 - "nous nous soucions de la productivité des développeurs"

21 : 51 - Chet Haase vient à son tour évoquer Android, "un produit" (utilisateurs), une "plate-forme" (développeurs)

21 : 48 - "avec l'opportunité vient la responsabilité".

21 : 46 - "pour certains c'est votre première I / O et c'est aussi ma première" (Thomas Kurian - responsable Google Cloud)... OoOwh (c'trop mignon) lol

21 : 46 - Décompte "rétro"


Keynote d'ouverture Google I / O 2019 (19 heures, heure Française)

 

20 : 46 - Et fin de cette première keynote (la prochaine, axée pour les développeurs, à partir de 21 h 45 : F5ez-moi !

20 : 45 - "développer un Google utile pour chacun(e)"

20 : 43 - La liste des "20" à qui Google prodigue un appui technologique et / ou financier ; entre-autre : Médecins sans frontières, Université NY, Université Makerere

20 : 41 - L'IA permet aussi de prédire les inondations et autres catastrophes naturelles "avec le concours des Gouvernements".

20 : 34 - L'IA au service du domaine médical : l'exemple des scanners et de la détection des cancers ou tumeurs est évoqué par le géant.

20 : 28 - Le Pixel 3a et disponible dès à présent via le Google Store pour de nombreux pays dont la France.

20 : 27 - "30 heures" d'autonomie (en "une seule charge") ou "7 heures" en "15 minutes de charge"... avec une touche IA bien sûr via Google Maps.

20 : 26 - Une petite pique à la concurrence (Apple)

20 : 24 - Le Pixel 3a est annoncé à partir de 399 dollars.

20 : 20 - Nest Hub Max sera vendu à 229 dollars ("cet été" aux Etats-Unis, Angleterre et Australie) contre 129 dollars pour le nest Hub

20 : 16 - "Nest Hub Max" permet de centraliser divers outils domotiques pour contrôler la maison pour les adeptes du genre, depuis la caméra du terminal : la musique, Google Duo, Google Photo, Youtube TV, Youtube Music... avec possibilité de reconnaissance visuelle via "face match",  qui est une sorte de login' visuel qui débloquera votre profil sur le Hub Max et affichera votre contenu.

20 : 14 - On parle domotique avec, entre-autre, Nest (qui gère, les appareils de chauffage, par exemple).

20 : 12 - Android Q est encore en phase de développement la bêta 3 est déjà disponible via de nombreuses marques de smartphones (21) :

20 : 09 - Nouveauté du framework d'Android OS (Store) et nouveau mode : "focus mode" qui permet de voir quelle application peut être trop "consommée" (contrôle parental : utilité pour les enfants, par exemple)

20 : 06 - Revue des principales nouveautés d'Android Q dont la sauvegarde (mémoire) des positions avec possibilité d'avoir un multi-profil par applications ce qui implique, ici aussi, un large historique de positions gardé (data), côté Google...

20 : 03 - Android Q est doucement évoqué avec son dark mode ou encore l'intégration de smart reply, bientôt, dont la fonction sera opérationnelle avec pratiquement toutes les applications (réponse prédictive, donc).

20 : 02 "aucun besoin d'être connecté à Internet", en fait !

20 : 01 - Autre sujet brûlant : la 5G. Il est évoqué les ressources nécessaires pour des applications aussi poussées que Live Caption ou Live Transcribe (données en exemple).

19 : 59 - "Foldables" : on parle des smartphones pliables, souples qui viendront "cette année", sous Android.

19 : 57 - Bien évidemment, le géant Américain "invite" les gens à contribuer à l'application, au concept en soumettant des démos vocales via le projet Euphoria.

19 : 53 - "Live Caption" permet de communiquer sans sons (pour des personnes malentendantes ou qui n'entendent pas bien voire pas du tout, par exemple) et se déclenche rapidement (en latéral, depuis un bouton-commande, comme la barre sonore). L'outil va très loin car quand on a un trouble qui empêche de bien parler (de manière irréversible) retranscrire des propos dit sans qu'on les entende (personnes sourdes, par exemple) et très dur... Live Caption réussit cela !!... Une fonction effectivement très utile !

19 : 47 - "Live Transcribe" : disponible avec "plus de 70 langues et dialectes" qui permet de parler en laissant le smartphone devant et de permettre à une ou plusieurs personnes de lire ce qui a été dit dans leur langue ou dialecte.

 

19 : 46 - Déploiement de clés sécuritaires sous Android 7 et supérieures

19 : 45 - ajout d'un mode "incognito" qui sera disponible "plus tard cette année".

19 : 43 - Google revient sur la dernière annonce en matière de vie privée avec sa configuration qui permet d'automatiser l'effacement de historique Web / data.

19 : 41 - un affinage pour identifier précisément un élément, un objet ou encore, ici, un être vivant.

19 : 40 - "nouvelle méthodologie nommée TCAV" pour simplifier le machine learning

19 : 39 - on parle vie privée et sécurité, un sujet sensible dont Apple ou encore Facebook ont maints fois épinglé Google à ce sujet.

19 : 38 - Sundar Pichain revient sur scène pour parler d'applications, de développement d'applications, "plus utiles".

19 : 36 - "maintenant vous pouvez arrêter votre alarme et votre timer juste en disant STOP !"... applaudissements (car la sonnerie est souvent, par défaut, assez agaçante, surtout le matin ce qui, au final, décourage certain(e)s de mettre une quelconque sonnerie pour se réveiller).

19 : 35 - Cela fonctionne via Google Car (mais avec, semble t-il, le "hey google" devant...). Un mode "conduite" qui arrivera "cet été" pour les smartphones de la marque.

19 : 32 - Un exemple ou la mère d'un des membres de l'équipe est "en fait il y a tout un tas d'endroits où ma mère peut se trouver" (recherche d'une personne selon ses centres d’intérêts et son planning ou son "profil" google... renseigné, du moins, depuis l'assistant Google).

19 : 30 - "zéro latence" de cette amélioration qui s'intégrera dans la gamme des Pixel de Google "plus tard cette année".

19 : 29 - Envoi et réception d'e-mails via l'assistant Google (toujours sans dire "hey google")... Et, cette fois, sans commencer la requête orale par un verbe (dictée des mots d'un mail à un contact)... Bluffant !

19 : 27 - on parle du "hey google" qui amorce la requête orale : cette dernière peut se faire sans ce "hey google" (avec un verbe en premier mot, à la place) ; et toujours assez rapidement.

19 : 25 - Cette année sera très orientée IA : on reste dans le sujet de l'intelligence artificielle avec le cœur de la technologie, l'affinage extrême du résultat de requête, via l'assistant Google qui enchaîne les résultats de requêtes à un rythme et une réactivité digne d'un marathon.

19 : 21 - Évocation de Duplex : "aucune action de votre part", avec une mise à jour qui permet de gérer des réservations en ligne ("Google Duplex on the Web") ou encore acheter des places de cinéma, sous la coupe du fameux deep learning.

19 : 20 - "plus tard ce mois" Google Lens (qui utilise Google Search) sera accessible à tous dans une "douzaine" de langues

19 : 19 - Vidéo illustrant l'utilité de la dernière fonctionnalité (traduction instantanée du texte) avec des personnes ayant un besoin au quotidien d'une telle fonctionnalité.

19 : 16 - La traduction peut être faites oralement - toujours depuis Google Lens - et, ici, en direct, avec le texte qui change littéralement !

19 : 15 - La caméra peut même pousser le vice jusqu'à calculer pour vous une addition via Google Lens de restaurant ce qui achèvera votre cerveau qui ne fera plus d'effort pour faire des calculs, pourtant simples...

19 : 14 - Indexation des éléments, des objets pour affiner l'IA : Google fait de la Terre un big data center...

19 : 12 - On peut même visualiser le résultat-requête du moteur en "live" (ici, sur le plateau de la keynote)

19 : 10 - Amélioration de la caméra qui permet d'utiliser le moteur de recherche pour une requête, par exemple, sur un muscle humain

19 : 06 - Après la technologie permettant de servir l'humain, on évoque l'IA comme un outil essentiel notamment dans la recherche des news (exemple), qui permettra de trier le résultat de requête ou encore des types de podcasts, l'ensemble permettant d'affiner la pertinence...

19 : 05 - Volonté de développer des "produits pratiques et utiles".

19 : 04 - Sundar Pichai (PDG actuel de Google) évoque très vite la partie IA et ses limites.

19 : 00 - Début de la conférence d'ouverture de cette session 2019 avec une introduction-vidéo "rétro" avec les ordinateurs, tout en dérivant vers l'ère moderne avec les scientifiques, l'IA, les vidéos "spirituelles" (Youtube est détenu par Google)... "keep making magic" (faites perdurer la magie).


Actualité d'origine

 

Comme chaque année, la Google I / O sera l'occasion de lever le voile - ou non - sur les rumeurs ou projets en devenir de la firme de Mountain View !

 

 

Pour suivre l'évènement, il suffit d'aller sur les chaînes Youtube du géant Californien :

 

 

La keynote d'ouverture commencera à 19 heures... A suivre !