Pourquoi Google pense que l'apprentissage automatique est son avenir

L'une des démonstrations les plus intéressantes du discours-programme Google I / O de cette semaine comportait une nouvelle version de l'assistant vocal de Google qui devrait paraître plus tard cette année. Un employé de Google a demandé à l'assistant Google de lui montrer ses photos, puis de lui montrer des photos d'animaux. Elle en tapa un et dit: "Envoyez-le à Justin." La photo a été déposée dans l'application de messagerie.

À partir de là, les choses sont devenues plus impressionnantes.

"Hé Google, envoyez un email à Jessica", dit-elle. "Bonjour Jessica, je viens de rentrer de Yellowstone et j'en suis complètement tombé amoureux." Le téléphone transcrivit ses mots, mettant "Hi Jessica" sur sa propre ligne.

"Soumis à des aventures à Yellowstone", dit-elle. L’assistant a compris qu’il devrait mettre «les aventures de Yellowstone» dans l’objet, pas dans le corps du message.

Puis, sans aucun ordre explicite, la femme reprit la dictée du corps du message. Finalement, elle a dit "envoyez-le", et l'assistant de Google l'a fait.

Google travaille également à élargir la compréhension de l'assistant sur les références personnelles, a indiqué la société. Si un utilisateur dit «Hé Google, quel temps fait-il chez sa mère?», Google pourra déterminer que «la maison de sa mère» fait référence à la maison de sa mère, consulte son adresse et fournit des prévisions météorologiques pour sa ville.

Google affirme que son assistant de nouvelle génération se tourne vers les "nouveaux téléphones Pixel", c'est-à-dire les téléphones qui viendront après l'actuelle ligne Pixel 3, plus tard cette année.

De toute évidence, il y a une grande différence entre une démo en conserve et un produit expédié. Nous devrons attendre et voir si les interactions typiques avec le nouvel assistant fonctionnent aussi bien. Mais Google semble progresser régulièrement dans la réalisation de son rêve: créer un assistant virtuel capable de gérer avec compétence les tâches même les plus complexes.

Voici ce que beaucoup d’annonces d’I / O ont annoncé: pas l’annonce de nouveaux produits majeurs, mais l’utilisation de techniques d’apprentissage automatique pour rendre progressivement une gamme de produits Google plus sophistiquée et plus utile. Google a également mis en avant un certain nombre d'améliorations de son logiciel d'apprentissage automatique, qui permettront au logiciel créé par Google et à un tiers d'utiliser des techniques d'apprentissage automatique plus sophistiquées.

Google s’efforce en particulier de transférer les opérations d’apprentissage automatique du nuage sur les appareils mobiles des utilisateurs. Cela devrait permettre aux applications utilisant ML d'être plus rapides, plus privées et capables de fonctionner en mode déconnecté.

Google a mené la charge sur l'apprentissage automatique

Si vous demandez à des experts en apprentissage automatique quand le boom actuel de l'apprentissage en profondeur a commencé, beaucoup feront référence à un article de 2012 intitulé "AlexNet" d'après l'auteur principal Alex Krizhevsky. Les auteurs, un trio de chercheurs de l'Université de Toronto, ont participé au concours ImageNet afin de classer les images dans l'une des mille catégories.

Les organisateurs d'ImageNet ont fourni plus d'un million d'exemples d'images étiquetées pour former les réseaux. AlexNet a atteint une précision sans précédent en utilisant un réseau de neurones profonds, avec huit couches pouvant être entraînées et 650 000 neurones. Ils ont pu former un réseau aussi important sur autant de données, car ils ont découvert comment exploiter les GPU grand public, conçus pour le traitement parallèle à grande échelle.

AlexNet a démontré l'importance de ce que l'on pourrait appeler le tabouret à trois pieds de l'apprentissage en profondeur: de meilleurs algorithmes, plus de données d'apprentissage et plus de puissance de calcul. Au cours des sept dernières années, les entreprises se sont efforcées de renforcer leurs capacités sur ces trois fronts, améliorant ainsi leurs performances.

Google mène cette accusation presque depuis le début. Deux ans après qu'AlexNet ait remporté un concours de reconnaissance d'image appelé ImageNet en 2012, Google s'est inscrit au concours avec un réseau de neurones encore plus profond et a remporté le premier prix. La société a engagé des dizaines d'experts en apprentissage automatique de premier plan, notamment l'acquisition en 2014 de DeepMind, une start-up d'apprentissage en profondeur, ce qui lui permet de rester à la pointe de la conception de réseaux de neurones.

La société dispose également d’un accès sans égal aux grands ensembles de données. Un article de 2013 décrivait comment Google utilisait des réseaux de neurones profonds pour reconnaître les numéros d'adresses dans des dizaines de millions d'images capturées par Google Street View.

Google a également travaillé dur sur le front du matériel. En 2016, Google a annoncé la création d'une puce personnalisée appelée Tensor Processing Unit spécialement conçue pour accélérer les opérations utilisées par les réseaux de neurones.

"Bien que Google envisageait de construire un circuit intégré à application spécifique (ASIC) pour les réseaux de neurones dès 2006, la situation est devenue urgente en 2013", a écrit Google en 2017. "C'est à ce moment-là que nous avons réalisé que les exigences croissantes en calcul des réseaux de neurones pourrait nous obliger à doubler le nombre de centres de données que nous exploitons. "

C’est la raison pour laquelle Google I / O s’intéresse autant à l’apprentissage automatique depuis trois ans. La société estime que ces atouts - une petite armée d’experts en apprentissage automatique, de grandes quantités de données et son propre système personnalisé en silicium - en font un outil idéal pour exploiter les opportunités offertes par l’apprentissage automatique.

Google I / O de cette année n'a pas réellement annoncé beaucoup de nouveaux produits liés à ML, car la société a déjà intégré l'apprentissage automatique à la plupart de ses principaux produits. Android a eu la reconnaissance vocale et l'assistant de Google pendant des années. Google Photos possède depuis longtemps une fonction de recherche impressionnante basée sur ML. L'année dernière, Google a présenté Google Duplex, qui effectue une réservation pour le compte d'un utilisateur disposant d'une voix humaine étrangement réaliste, créée par un logiciel.

Au lieu de cela, les présentations E / S sur l’apprentissage automatique se concentraient sur deux domaines: transférer plus d’activité d’apprentissage automatique sur les smartphones et utiliser l’apprentissage automatique pour aider les personnes défavorisées, y compris les sourds, les analphabètes et les personnes atteintes de cancer.

Squeezing Machine Learning sur les smartphones

Les efforts passés pour rendre les réseaux de neurones plus précis ont impliqué de les rendre plus profonds et plus compliqués. Cette approche a produit des résultats impressionnants, mais elle a de gros inconvénients: les réseaux sont souvent trop complexes pour être exploités sur les smartphones.

La plupart du temps, les gens ont réglé le problème en déchargeant les calculs sur le cloud. Les premières versions de Google et des assistants vocaux d’Apple enregistraient les données audio et les téléchargeaient sur les serveurs de la société pour traitement. Cela a bien fonctionné, mais il présente trois inconvénients importants: une latence plus élevée, une protection de la vie privée plus faible et la fonctionnalité ne fonctionne que sur Internet.

Donc, Google a travaillé pour déplacer de plus en plus de calcul sur appareil. Les appareils Android actuels disposent déjà de fonctionnalités de base de reconnaissance vocale sur l'appareil, mais l'assistant virtuel de Google nécessite une connexion Internet. Google indique que la situation va changer plus tard cette année avec un nouveau mode hors connexion pour Google Assistant.

Cette nouvelle fonctionnalité explique en grande partie les temps de réponse extrêmement rapides démontrés par la démo de cette semaine. Google indique que l'assistant sera "jusqu'à 10 fois plus rapide" pour certaines tâches.