Inventaire personnel de Jeff Dean sur Google AI 2019 : 2 articles par jour, 16 directions majeures

Qian Ming Bian Ce Treize Guo Yipu Du Temple Aofei Rapport Qubit | Compte officiel QbitAI

Une autre année, Jeff Dean, au nom de Google AI, a résumé les grandes tendances de l'IA au cours de la dernière année.

C'est la routine de mon beau-frère en tant que directeur général de Google AI Rapport annuel , est également l'étalage musculaire de l'IA mondiale - et même le plus grand fabricant de technologies de pointe.

Il a dit que la dernière année 2019 a été une année très excitante.

Il est toujours à la fois académique et applicatif en plein essor, et l'open source et les nouvelles technologies progressent simultanément.

De la recherche fondamentale à l'application de la technologie dans les domaines émergents, en passant par les perspectives jusqu'en 2020.

Bien que le format de rapport n'ait pas changé, la technologie de l'intelligence artificielle a fait un grand pas en avant.

Jeff Dean conclut 16 aspects majeurs réalisations de l'IA, et a révélé que le nombre d'articles sur l'IA publiés au cours de l'année entière a atteint 754 articles , en moyenne 2 articles sont publiés chaque jour.

Couvrant AutoML, les algorithmes d'apprentissage automatique, l'informatique quantique, la technologie de la perception, la robotique, l'IA médicale, l'IA pour le bien

Les piles de pièces non seulement promeuvent le rôle de l'IA dans tous les aspects de la société actuelle, mais servent également de petite démonstration des tendances futures.

Il n'est pas exagéré de dire que si vous voulez connaître les progrès de la technologie de l'IA en 2019, il est plus approprié de lire ce résumé de Jeff ; si vous voulez savoir où ira l'IA en 2020, vous pouvez aussi beaucoup profiter de cet article de Jeff.

Afin de faciliter la lecture, nous avons d'abord organisé pour vous un petit répertoire :

Algorithmes d'apprentissage automatique : Comprendre les propriétés de formation dynamique dans les réseaux de neurones

AutoML : Accent continu sur l'automatisation de l'apprentissage automatique

compréhension du langage naturel : Combiner une variété de méthodes et de tâches pour améliorer le niveau technique

perception de la machine : Compréhension et perception plus profondes des images, des vidéos et des environnements

technologie robotique : Formation auto-supervisée, diffusion de benchmarks de tests robots

l'informatique quantique : Supériorité quantique atteinte pour la première fois

Applications de l'IA dans d'autres disciplines : Du cerveau d'une mouche aux mathématiques, en passant par la recherche chimique moléculaire et la création artistique

Application d'IA mobile : Modèles de reconnaissance vocale et d'image déployés localement, ainsi que traduction, navigation et photographie améliorées

Santé et médecine : Il a été utilisé pour le diagnostic clinique du cancer du sein et des maladies de la peau

L'IA assiste les handicapés : Utilisation de la technologie de reconnaissance d'images et de transcription vocale au profit des groupes défavorisés

L'IA pour le bien social : Prévision des inondations, protection des animaux et des plantes, enseignement de l'alphabétisation et des mathématiques aux enfants et dépense de plus de 100 millions de yuans pour 20 projets de bien-être public

Les outils de développement créent et profitent à la communauté des chercheurs  : TensorFlow a inauguré une mise à niveau complète

11 jeux de données ouverts : De l'apprentissage par renforcement au traitement du langage naturel en passant par la segmentation d'images

Expansion mondiale de Top Club Research et de Google Research : publie un grand nombre d'articles et investit beaucoup de ressources pour financer la recherche d'enseignants, d'étudiants et de chercheurs dans divers domaines

éthique de l'intelligence artificielle : Promouvoir les progrès de la recherche sur l'IA en matière d'équité, de protection de la vie privée et d'interprétabilité

Vers 2020 et au-delà  : La révolution de l'apprentissage en profondeur continuera de remodeler notre façon de penser l'informatique et les ordinateurs.

Algorithmes d'apprentissage automatique

En 2019, Google a mené des recherches dans de nombreux domaines différents des algorithmes et des méthodes d'apprentissage automatique.

L'un des principaux objectifs est de comprendre comment les réseaux de neurones Entraînement dynamique nature.

Dans l'étude suivante, les résultats expérimentaux des chercheurs montrent que la mise à l'échelle de la quantité de parallélisme des données peut conduire à une convergence de modèle plus rapide et plus efficace.

Adresse papier :

https://arxiv.org/pdf/1811.03600.pdf

Comparé au parallélisme des données, le parallélisme des modèles peut être un moyen efficace de dimensionner les modèles.

GPipe est une bibliothèque qui rend la parallélisation des modèles plus efficace :

Alors qu'une partie du modèle entier travaille sur certaines données, d'autres parties peuvent faire d'autres travaux, en calculant des données différentes.

Cette approche pipeline peut être combinée pour simuler des tailles de lots plus efficaces.

Adresse de la bibliothèque GPipe :

https://ai.googleblog.com/2019/03/introducing-gpipe-open-source-library.html

Les modèles d'apprentissage automatique sont très efficaces lorsqu'ils peuvent prendre des données d'entrée brutes et apprendre des représentations de haut niveau « démêlées ».

Ces représentations distinguent les différents types d'exemples par des propriétés que les utilisateurs souhaitent que le modèle puisse distinguer.

Les progrès des algorithmes d'apprentissage automatique sont principalement conçus pour encourager l'apprentissage de meilleures représentations qui se généralisent à de nouveaux exemples, problèmes et domaines.

En 2019, Google a examiné cela dans différents contextes :

Par exemple, ils examinent quelles propriétés influencent les représentations apprises à partir de données non supervisées pour mieux comprendre quels facteurs contribuent à de bonnes représentations et à un apprentissage efficace.

adresse du blog : https://ai.googleblog.com/2019/04/evaluating-unsupervised-learning-of.html

Google montre que l'écart de généralisation peut être prédit à l'aide de la statistique de distribution des marges, ce qui aide à comprendre quel modèle généralise le plus efficacement.

En plus de cela, la classification hors politique est également étudiée dans le contexte de l'apprentissage par renforcement pour mieux comprendre quels modèles sont susceptibles de se généraliser le mieux.

adresse du blog :

Nous étudions les moyens de spécifier les fonctions de récompense pour l'apprentissage par renforcement, permettant aux systèmes d'apprentissage d'apprendre plus directement à partir de cibles réelles.

adresse du blog :

AutoML

Google a continué à se concentrer sur AutoML en 2019.

Cette approche automatise de nombreux aspects de l'apprentissage automatique et donne souvent de meilleurs résultats pour certains types de méta-décisions d'apprentissage automatique, telles que :

Google a montré comment les techniques de recherche d'architecture neuronale peuvent être utilisées pour obtenir de meilleurs résultats sur les problèmes de vision par ordinateur, atteignant une précision de 84,4 % sur ImageNet avec 8 fois moins de paramètres que le meilleur modèle précédent.

adresse du blog :

Google présente une méthode de recherche d'architecture neuronale qui montre comment trouver des modèles efficaces adaptés à des accélérateurs matériels spécifiques. Ainsi, un modèle de fonctionnement à haute précision et à faible calcul est fourni pour les appareils mobiles.

adresse du blog :

Google a montré comment étendre le travail d'AutoML dans le domaine des modèles vidéo, en trouvant des architectures qui permettent d'obtenir des résultats de pointe et des architectures légères qui peuvent correspondre aux performances des modèles fabriqués à la main.

Le résultat est une réduction de 50 fois du calcul.

adresse du blog :

Google a développé la technologie AutoML pour les données tabulaires et a collaboré pour lancer la technologie en tant que nouveau produit pour Google Cloud AutoML Tables.

adresse du blog :

Montre comment trouver des architectures de réseau neuronal intéressantes sans utiliser aucune étape de formation pour mettre à jour les poids du modèle en cours d'évaluation, ce qui rend la recherche de structure plus efficace sur le plan informatique.

adresse du blog :

L'architecture de la tâche NLP de découverte est explorée. Les performances de ces tâches sont nettement meilleures que celles du modèle Transformer ordinaire et le coût de calcul est considérablement réduit.

adresse du blog :

La recherche démontre que les méthodes d'augmentation de données apprises automatiquement peuvent être étendues aux modèles de reconnaissance vocale.

Par rapport aux méthodes existantes d'augmentation des données pilotées par des experts humains en ML, une précision nettement supérieure peut être obtenue avec moins de données.

adresse du blog :

Lancement de la première application vocale à utiliser AutoML pour la reconnaissance des mots clés et de la langue parlée.

Dans les expériences, de meilleurs modèles que les conceptions humaines ont été trouvés : plus efficaces et performants.

adresse du blog : https://www.isca-speech.org/archive/Interspeech_2019/abstracts/1916.html

compréhension du langage naturel

Les modèles de compréhension du langage naturel, de traduction, de dialogue naturel, de reconnaissance vocale et de tâches connexes ont fait des progrès significatifs au cours des dernières années.

L'un des thèmes du travail de Google en 2019 est :

Améliorez l'état de l'art en combinant diverses modalités ou tâches pour former des modèles plus puissants.

Par exemple, former des traductions entre 100 langues avec un seul modèle (au lieu d'utiliser 100 modèles différents) améliore considérablement la qualité de la traduction.

adresse du blog :

Montre comment la combinaison de modèles de reconnaissance vocale et de langage, et la formation du système sur plusieurs langues, peuvent améliorer considérablement la précision de la reconnaissance vocale.

adresse du blog :

La recherche a démontré qu'il est possible de former un modèle conjoint pour les tâches de reconnaissance vocale, de traduction et de génération de synthèse vocale.

Et présente également certains avantages, tels que la préservation de la voix de l'orateur dans l'audio traduit généré, et un système d'apprentissage global plus simple.

adresse du blog :

La recherche montre comment combiner de nombreux objectifs différents pour produire des modèles nettement meilleurs en matière de récupération sémantique.

Par exemple, demandez dans GoogleTalk à Livres : "Quels parfums évoquent des souvenirs ?"

Le résultat est "Pour moi, le parfum du jasmin et le parfum de la plaque à pâtisserie me rappellent mon enfance insouciante."

adresse du blog :

Montrer comment les procédures de formation contradictoires peuvent être utilisées pour améliorer considérablement la qualité et la robustesse de la traduction linguistique.

adresse du blog :

Avec le développement de modèles basés sur seq2seq, Transformer, BERT, Transformer-XL et ALBERT, les capacités technologiques de compréhension du langage de Google continuent de s'améliorer. Et a été appliqué à de nombreux produits et fonctions de base.

En 2019, l'utilisation de BERT dans l'algorithme de recherche et de classement de base a apporté la plus grande amélioration de la qualité de la recherche au cours des cinq dernières années (et l'une des plus grandes améliorations jamais réalisées).

perception de la machine

Les modèles pour une meilleure compréhension des images fixes ont considérablement progressé au cours de la dernière décennie.

Ce qui suit est la principale recherche de Google dans ce domaine au cours de l'année écoulée.

Comprend une compréhension plus approfondie des images et des vidéos, ainsi que de la perception de la vie et de l'environnement, en particulier :

Une compréhension visuelle plus fine des prises de vue est étudiée, permettant une recherche visuelle plus puissante.

adresse du blog : https://www.blog.google/products/search/helpful-new-visual-features-search-lens-io/

Présentant les fonctionnalités de la caméra intelligente du Nest Hub Max, telles que les gestes rapides, la correspondance des visages et le cadrage intelligent des appels vidéo.

adresse du blog : https://blog.google/products/google-nest/hub-max-io/

De meilleurs modèles de prédiction de profondeur vidéo sont étudiés.

adresse du blog : https://ai.googleblog.com/2019/05/moving-camera-moving-people-deep.html

La recherche utilise la cohérence du cycle temporel pour apprendre de meilleures représentations pour une compréhension temporelle fine des vidéos.

adresse du blog : https://ai.googleblog.com/2019/08/video-understanding-using-temporal.html

Apprenez des représentations dans le texte, la parole et la vidéo qui sont temporellement cohérentes avec la vidéo sans étiquette.

adresse du blog : https://ai.googleblog.com/2019/09/learning-cross-modal-temporal.html

Il est également possible de prédire l'apport visuel futur à partir d'observations du passé.

adresse du blog : https://ai.googleblog.com/2019/03/simulated-policy-learning-in-video.html

Et démontrer que le modèle peut mieux comprendre les séquences d'action dans les vidéos.

adresse du blog : https://ai.googleblog.com/2019/04/capturer-des-moments-vidéo-spéciaux-avec.html

technologie robotique

L'application de l'apprentissage automatique au contrôle des robots est un domaine de recherche important chez Google. Google pense qu'il s'agit d'un outil important pour permettre aux robots de fonctionner efficacement dans des environnements réels complexes tels que les maisons de tous les jours, les entreprises.

Les travaux de Google en robotique en 2019 comprennent :

1. Dans Remote Robot Navigation with Automated Reinforcement Learning, Google montre comment la combinaison de l'apprentissage par renforcement avec des projets à distance permet aux robots de naviguer plus efficacement dans des environnements complexes tels que les immeubles de bureaux de Google.

Liens connexes:

2. Dans Planète Dans , Google montre comment apprendre efficacement un modèle mondial à partir d'images uniquement et comment utiliser ce modèle pour effectuer des tâches avec moins de temps d'apprentissage.

Liens connexes:

3. Dans LancerBot Sur Internet, Google unifie les lois de la physique et de l'apprentissage en profondeur, permettant aux robots d'apprendre des principes physiques intuitifs par le biais d'expériences, puis de jeter des objets dans des boîtes selon les lois apprises.

Liens connexes:

4. Dans l'étude Soft Actor-Critic, Google a démontré que la formation des algorithmes d'apprentissage par renforcement peut être obtenue soit en maximisant la récompense attendue, soit en maximisant l'entropie de la politique.

Cela peut aider le robot à apprendre plus rapidement et à être plus robuste face aux changements de l'environnement.

Liens connexes:

5. Google a également développé un algorithme d'apprentissage auto-supervisé pour les robots, permettant aux robots d'apprendre à assembler des objets de manière auto-supervisée en décomposant des objets. Cela suggère que les robots peuvent apprendre du démontage de la même manière que les enfants.

Liens connexes:

6. Enfin, Google a également lancé un benchmark des robots low-cost ROBEL , une plate-forme open source pour les robots à faible coût, aidant d'autres développeurs à développer plus rapidement et plus facilement du matériel robotique.

Liens connexes:

l'informatique quantique

En 2019, Google a fait un gros plan sur l'informatique quantique, montrant pour la première fois au monde la supériorité de ses capacités : dans une tâche de calcul, les ordinateurs quantiques sont bien plus rapides que les ordinateurs classiques.

A l'origine, un ordinateur classique doit calculer la tâche de 10000 ans, et un ordinateur quantique peut l'accomplir en seulement 200 secondes. L'étude a été présentée sur la couverture du numéro du 24 octobre du magazine Nature de cette année.

Le processeur Sycamore de Google pour l'informatique quantique

Le PDG de Google, Pichai, a déclaré : " Son importance est comme la première fusée à réussir à échapper à la gravité terrestre et à voler jusqu'aux confins de l'espace. " Les ordinateurs quantiques joueront un rôle important dans des domaines tels que la science des matériaux, la chimie quantique et l'optimisation à grande échelle.

Google s'efforce également de rendre les algorithmes quantiques plus faciles à exprimer et à contrôler plus facilement le matériel, et Google a trouvé des moyens d'utiliser les techniques classiques d'apprentissage automatique dans l'informatique quantique.

Applications de l'IA dans d'autres disciplines

Dans l'application de l'intelligence artificielle et de l'apprentissage automatique dans d'autres domaines scientifiques, Google a publié de nombreux articles, principalement dans le domaine de la collaboration multi-organisationnelle.

Procédure: https://research.google/pubs/?area=general-science

Les temps forts de cette année sont :

Reconstruction 3D automatique de l'interactivité du cerveau de la mouche, à l'aide de modèles d'apprentissage automatique pour cartographier soigneusement chaque neurone du cerveau de la mouche, ce que Jeff Dean appelle une étape importante dans la cartographie de la structure du cerveau de la mouche.

Blogues associés : https://ai.googleblog.com/2019/08/an-interactive-automated-3d.html

En apprenant de meilleures méthodes de simulation pour les équations aux dérivées partielles, Google utilise l'apprentissage automatique pour accélérer les calculs d'équations aux dérivées partielles qui sont au cur de problèmes de calcul fondamentaux tels que le changement climatique, la dynamique des fluides, l'électromagnétisme, le transfert de chaleur et la relativité générale.

Simulation de deux solutions à l'équation de Burgers

Google utilise également des modèles d'apprentissage automatique pour déterminer les odeurs et les GNN pour déterminer la structure moléculaire afin de prédire à quoi ça ressemble.

Rapports associés : Google crée l'IA parfumeur : il suffit de regarder la structure moléculaire pour savoir ce que ça sent

Toujours en chimie, Google a créé un cadre d'apprentissage par renforcement pour optimiser les molécules.

Documents associés : https://www.nature.com/articles/s41598-019-47148-x

En termes de création artistique, GoogleAI a fait plus d'efforts, comme la performance artistique d'AI+AR

https://www.blog.google/outreach-initiatives/arts-culture/how-artists-use-ai-and-ar-collaborations-google-arts-culture/

Réorganisez la danse avec la machine :

https://www.blog.google/technology/ai/bill-t-jones-dance-art/

Nouvelle exploration de la composition de l'IA :

https://www.blog.google/technology/ai/behind-magenta-tech-rocked-io/

Il étend également une composition d'IA amusante Doodle :

https://www.blog.google/technology/ai/honoring-js-bach-our-first-ai-powered-doodle/

Application d'IA mobile

Une grande partie de ce que fait Google consiste à utiliser l'apprentissage automatique pour donner de nouvelles fonctionnalités aux téléphones mobiles.Ces modèles peuvent fonctionner sur le téléphone mobile, et ces fonctions peuvent toujours être utilisées même si le mode avion est activé.

Désormais, le modèle de reconnaissance vocale du téléphone mobile, le modèle visuel et le modèle de reconnaissance de l'écriture manuscrite ont tous été mis en uvre.

Blogues associés :

Reconnaissance de la parole https://ai.googleblog.com/2019/03/an-all-neural-on-device-speech.html modèle visuel https://ai.googleblog.com/2019/11/introducing-next-generation-on-device.html modèle de reconnaissance de l'écriture manuscrite https://ai.googleblog.com/2019/03/rnn-based-handwriting-recognition-in.html

Selon Dean, cela ouvre la voie à de nouvelles fonctionnalités plus puissantes.

De plus, les points forts de Google sur les téléphones mobiles cette année sont :

La fonction Live Caption, qui peut ajouter automatiquement des sous-titres aux vidéos lues par n'importe quelle application sur le téléphone.

Blogues associés : https://ai.googleblog.com/2019/10/on-device-captioning-with-live-caption.html

L'application Enregistreur vous permet de rechercher du contenu audio enregistré par votre téléphone.

Blogues associés : https://ai.googleblog.com/2019/12/the-on-device-machine-learning-behind.html

La fonction de traduction de photos de Google Translate a également été mise à niveau, ajoutant la prise en charge de plusieurs langues telles que l'arabe, l'hindi, le malais, le thaï et le vietnamien, et non seulement les traductions en anglais et dans d'autres langues, mais également d'autres langues autres que l'anglais. La traduction de la langue est également possible et elle peut automatiquement trouver où se trouve le texte dans le cadre de la caméra.

Blogues associés : https://www.blog.google/products/translate/google-translates-instant-camera-translation-gets-upgrade/

Il a également publié une API d'amélioration faciale dans ARCore pour vous aider à réaliser un gameplay AR en temps réel.

API d'amélioration du visage : https://developers.google.com/ar/develop/java/augmented-faces/

Il existe également une reconnaissance gestuelle mobile, qui peut être utilisée pour l'interaction gestuelle une fois que cela est fait.

Rapports associés : Le système de reconnaissance de gestes open source de Google fonctionne sur les téléphones mobiles, fonctionne sans problème et propose des applications prêtes à l'emploi, mais nous l'avons cassé

Amélioration également de la reconnaissance de l'écriture manuscrite sur les écrans de téléphone avec RNN.

Blogues associés : https://ai.googleblog.com/2019/03/rnn-based-handwriting-recognition-in.html

En matière de navigation et de positionnement, le GPS n'est souvent qu'approximatif, mais l'IA peut jouer un rôle clé.

Combiné avec les données de Google Street View, tenez le téléphone portable et tournez-le, et le téléphone portable deviendra un ami qui reconnaîtra le chemin.Selon la vue de la rue et la carte, il vous indiquera : de quel bâtiment il s'agit , quelle rue est-ce, c'est le sud C'est le nord, tu devrais y aller.

Blogues associés : https://ai.googleblog.com/2019/02/using-global-localization-to-improve.html

De plus, afin de garantir la confidentialité des utilisateurs, Google a également fait des recherches sur l'apprentissage fédéré. Le document suivant est un article sur les progrès de l'apprentissage fédéré transcrit par l'équipe Google en 2019 :

https://arxiv.org/abs/1912.04977

Il y a aussi le cliché de prendre des photos avec des téléphones portables. Google a amélioré la capacité des selfies sur téléphone portable en 2019.

Blogues associés : https://ai.googleblog.com/2019/04/prenez-votre-meilleur-selfie-automatiquement.html

Les modes Bokeh et Portrait ont également été améliorés en 2019.

Blogues associés : https://ai.googleblog.com/2019/12/improvements-to-portrait-mode-on-google.html

Le défi des étoiles filantes de la scène nocturne a également été considérablement amélioré et un article de SIGGRAPH Asia a également été publié.

Blogues associés : https://ai.googleblog.com/2019/11/astrophotography-with-night-sight-on.html

Documents associés : https://arxiv.org/abs/1905.03277 https://arxiv.org/abs/1910.11336

Santé et médecine

2019 a été la première année complète vécue par l'équipe Google Health.

Fin 2018, Google a réorganisé l'équipe de santé de Google Research, Deepmind Health et les divisions de matériel liées à la santé pour créer une nouvelle équipe Google Health.

1. Dans le diagnostic et la détection précoce des maladies, Google a réalisé un certain nombre de réalisations :

Détecter le cancer du sein avec un modèle d'apprentissage en profondeur avec une précision supérieure à celle des experts humains, réduisant les cas de faux positifs et de faux négatifs dans le diagnostic. L'étude vient de paraître dans la revue Nature il n'y a pas si longtemps.

Liens connexes:

La détection du cancer du sein par Google AI surpasse les humains, a interrogé LeCun et provoqué une discussion, mais les filles à la poitrine plate peuvent ne pas postuler

En outre, Google a également réalisé de nouvelles réalisations dans le diagnostic des maladies de la peau, la prédiction des lésions rénales aiguës et la détection précoce du cancer du poumon.

2. Google utilise l'apprentissage automatique en combinaison avec d'autres technologies dans d'autres technologies médicales, telles que l'ajout d'une technologie d'affichage améliorée aux microscopes pour aider les médecins à localiser rapidement les lésions.

Liens connexes:

Dépistage en temps réel des cellules cancéreuses par IA, les microscopes ordinaires peuvent être utilisés simplement par modification, la nouvelle percée de Google est apparue dans la sous-revue Nature

Google a également créé un outil de recherche d'images similaires centré sur l'humain pour les pathologistes, permettant l'examen de cas similaires pour aider les médecins à établir des diagnostics plus efficaces.

L'IA assiste les handicapés

L'IA se rapproche de plus en plus de nos vies. Au cours de la dernière année, Google a utilisé l'IA pour nous aider dans notre vie quotidienne.

Nous pouvons facilement voir de belles images, entendre nos chansons préférées ou parler à nos proches, mais plus d'un milliard de personnes dans le monde n'ont pas accès à ces moyens d'apprendre sur le monde.

La technologie d'apprentissage automatique peut servir les personnes handicapées en convertissant ces signaux audiovisuels en d'autres signaux. Les technologies d'assistant IA fournies par Google incluent :

Lookout aide les personnes aveugles ou malvoyantes à identifier les informations sur leur environnement.

technologie de transcription en temps réel Transcription en direct Aide les personnes sourdes ou malentendantes à convertir rapidement la parole en texte.

Liens connexes:

Réveillon du Nouvel An de Google AI : Apporter des avantages technologiques aux sourds, et les graffitis de la page d'accueil réservent des surprises

Project Euphonia permet une conversion parole-texte personnalisée. L'étude améliore la précision de la reconnaissance automatique de la parole pour les personnes souffrant de troubles de l'élocution dus à des conditions telles que la SLA.

Il existe également un projet Parrotron, qui utilise également des réseaux de neurones de bout en bout pour aider à améliorer la communication, mais se concentre sur la conversion de la parole en parole.

Pour les personnes aveugles et malvoyantes, Google utilise la technologie de l'IA pour générer des descriptions d'images. Chrome peut désormais créer automatiquement du contenu de description lorsque les lecteurs d'écran rencontrent des images ou des graphiques non décrits.

Lens for Google Go, un outil de lecture de texte sous forme audio, aide grandement les analphabètes à obtenir des informations dans le monde des mots.

L'IA pour le bien social

Jeff Dean a déclaré que l'apprentissage automatique a d'énormes implications pour résoudre de nombreux problèmes sociaux majeurs, et Google a fait des efforts dans certains domaines de problèmes sociaux, et s'est engagé à permettre aux autres de résoudre ces problèmes avec créativité et compétences.

Prenez les inondations, par exemple, qui affectent des centaines de millions de personnes chaque année. Google utilise l'apprentissage automatique, l'informatique et de meilleures bases de données pour faire des prévisions d'inondation et envoyer des alertes à des millions de personnes dans les zones touchées.

Ils ont même organisé un atelier et trouvé de nombreux chercheurs pour résoudre ce problème.

Blogues associés : https://www.blog.google/technology/ai/tracking-our-progress-on-flood-forecasting/ https://ai.googleblog.com/2019/09/an-inside-look-at-flood-forecasting.html https://ai.googleblog.com/2019/03/a-summary-of-google-flood-forecasting.html

En outre, Google a également effectué des travaux liés à l'apprentissage automatique et à la recherche sur les animaux et les plantes.

En collaboration avec sept groupes de conservation de la faune, ils ont utilisé l'apprentissage automatique pour aider à analyser les données photographiques de la faune afin de trouver où se trouvent ces communautés fauniques.

Blogues associés : https://www.blog.google/products/earth/ai-finds-where-the-wild-things-are/

Google travaille également avec l'US Oceanic and Atmospheric Administration pour utiliser les données sonores sous-marines afin de déterminer l'emplacement des populations de baleines.

Blogues associés : https://www.blog.google/technology/ai/pattern-radio-whale-songs/

Google a publié un ensemble d'outils pour étudier la biodiversité avec l'apprentissage automatique.

Blogues associés : Un nouveau flux de travail pour la recherche collaborative sur l'apprentissage automatique dans le domaine de la biodiversité https://ai.googleblog.com/2019/10/a-new-workflow-for-collaborative.html

Ils ont également organisé un concours Kaggle en utilisant la vision par ordinateur pour classer diverses maladies sur les feuilles de manioc. Le manioc est la deuxième plus grande source de glucides en Afrique, et les maladies du manioc affectent les problèmes de sécurité vidéo des gens.

https://www.kaggle.com/c/cassava-disease

La fonctionnalité Timelapse de Google Earth a également été mise à jour, et vous pouvez même voir des données sur les mouvements de population et les migrations à partir d'ici.

Blogues associés : https://ai.googleblog.com/2019/06/an-inside-look-at-google-earth-timelapse.html https://ai.googleblog.com/2019/11/new-insights-into-human-mobility-with.html

Pour l'éducation, Google a réalisé une application Bolo avec une technologie de reconnaissance vocale pour guider les enfants dans l'apprentissage de l'anglais. L'application est déployée localement et peut être exécutée hors ligne. Elle a aidé 800 000 enfants indiens à lire et à écrire, et les enfants ont lu un total de 1 milliard de mots. Dans le cadre du programme pilote mené dans 200 villages en Inde, 64 % des enfants ont amélioré leur capacité de lecture.

Il semble être une version Google de l'anglais couramment.

Blogues associés : https://www.blog.google/technology/ai/bolo-literacy/

En plus de l'alphabétisation, il existe des matières d'étude plus complexes telles que les mathématiques et la physique. Google a créé l'application Socratic pour aider les élèves du secondaire à apprendre les mathématiques.

De plus, afin de faire jouer à l'IA un plus grand rôle dans le bien-être public, Google a organisé le AI Impact Challenge, qui a recueilli plus de 2600 propositions de 119 pays.

Au final, 20 propositions susceptibles de résoudre des problèmes sociaux et environnementaux majeurs se sont démarquées. Google a investi 25 millions de dollars américains (plus de 170 millions de RMB) dans ces propositions et a réalisé quelques réalisations, notamment :

Médecins Sans Frontières (MSF) a créé une application mobile gratuite qui utilise un outil de reconnaissance d'images pour aider les médecins des cliniques pauvres à analyser les images antibactériennes afin de conseiller les patients sur les médicaments à utiliser, et le projet est déjà en phase pilote en Jordanie.

Couverture du projet par Médecins Sans Frontières : https://www.doctorswithoutborders.org/what-we-do/news-stories/news/msf-receives-google-grant-develop-new-free-smartphone-app-help

Il y a un milliard de personnes dans le monde qui vivent dans de petites fermes, mais lorsque les ravageurs et les maladies frappent, ils sont coupés.

Ainsi, un OBNL appelé Wadhwani AI utilise un modèle de classification d'images pour identifier les ravageurs dans les fermes et suggère quels pesticides doivent être pulvérisés et quand, améliorant les rendements des cultures.

L'exploitation forestière illégale des forêts tropicales humides est un contributeur majeur au changement climatique. Une organisation appelée Rainforest Connection utilise l'apprentissage en profondeur pour la détection bioacoustique. Avec certains vieux téléphones portables, vous pouvez suivre la santé des forêts tropicales et détecter les menaces. .

20 projets d'aide sociale financés par Google

Les outils de développement créent et profitent à la communauté des chercheurs

En tant que plus grande entreprise d'intelligence artificielle au monde, Google est également un pionnier de l'open source, qui ne cesse de briller pour la communauté. D'une part, il se concentre sur TensorFlow.

Jeff Dean a déclaré que l'année écoulée avait été passionnante pour la communauté open source en raison de la sortie de TensorFlow 2.0.

Il s'agit de la première mise à jour majeure de TensorFlow depuis sa sortie, ce qui facilite plus que jamais la création de systèmes et d'applications ML.

Les rapports liés à Quantum sont les suivants :

GoogleTF2.0 sorti au petit matin ! "Changez tout, poussez PyTorch"

Dans TensorFlow Lite, ils ont ajouté la prise en charge de l'inférence GPU rapide ; et ont publié Teachable Machine 2.0, qui peut former un modèle d'apprentissage automatique en appuyant simplement sur un bouton sans écrire de code.

Les rapports liés à Quantum sont les suivants :

TensorFlow Lite publie une mise à jour majeure ! Prise en charge du GPU mobile, vitesse d'inférence augmentée de 4 à 6 fois

Il existe également MLIR, un outil de base de compilateur d'apprentissage automatique open source qui répond à la complexité de la fragmentation croissante des logiciels et du matériel, ce qui facilite la création d'applications d'IA.

Lors de NeurIPS 2019, ils ont montré comment utiliser JAX, un système de recherche en apprentissage automatique haute performance open source :

https://nips.cc/Conferences/2019

En outre, ils disposent de MediaPipe open source, un cadre pour la création de pipelines de perception et de ML d'applications multimodales :

https://github.com/google/mediapipe

Et la bibliothèque d'opérateurs d'inférence de réseau neuronal à virgule flottante efficace XNNPACK :

https://github.com/google/XNNPACK

Bien sûr, Google a également publié de la laine pour tout le monde.

Selon Jeff Dean, fin 2019, ils avaient donné à plus de 1500 chercheurs du monde entier un accès gratuit à Cloud TPU via TensorFlow Research Cloud, et leurs cours d'introduction sur Coursera comptaient plus de 100000 étudiants, etc.

Dans le même temps, il a également présenté des cas "réchauffants". Par exemple, avec l'aide de TensorFlow, un étudiant a découvert deux nouvelles planètes et a mis en place une méthode pour aider les autres à découvrir plus de planètes.

Il y a aussi des étudiants qui utilisent TensorFlow pour identifier les nids-de-poule et les fissures dangereuses sur les routes à Los Angeles, entre autres.

Un autre aspect concerne les ensembles de données ouverts.

11 jeux de données ouverts

Après avoir publié le moteur de recherche de jeux de données en 2018, Google travaille encore dur dans ce domaine cette année et fait de son mieux pour contribuer à ce moteur de recherche.

Au cours de la dernière année, Google a ouvert 11 ensembles de données dans divers domaines, et les ressources seront publiées ci-dessous, veuillez les conserver ~

Ouvrez Images V5, en ajoutant des masques de segmentation à l'ensemble d'annotations, la taille de l'échantillon atteint 2,8 millions, couvrant 350 catégories, les rapports qubit :

2,8 millions d'échantillons ! Google ouvre le plus grand ensemble de données de masque de segmentation de l'histoire, entamant une nouvelle série de défis

L'ensemble de données "Natural Questions", le premier ensemble de données à utiliser des requêtes naturelles et à trouver des réponses en lisant des pages entières, plutôt qu'en extrayant des réponses à partir d'un petit extrait, 300000 paires de questions-réponses, BERT tous en dessous de 70 points, rapports Quantum Bit :

Google a publié l'ensemble de données de réponse aux questions super difficiles "Questions naturelles": 300000 paires de questions et réponses, BERT n'a pas atteint 70 points

Ensemble de données pour détecter les deepfakes :

https://ai.googleblog.com/2019/09/contributing-data-to-deepfake-detection.html

Dans l'environnement de simulation de football Google Research Football, l'agent peut jouer librement dans ce monde de type FIFA et acquérir davantage de compétences de jeu. Rapports de Qubit :

Google a construit un terrain de football virtuel pour permettre à l'IA de faire une formation d'apprentissage par renforcement comme la FIFA L'open source a une API

Jeu de données Landmark Google-Landmarks-v2 : comprenant 5 millions d'images, le nombre de points de repère atteint 200 000, rapports qubit :

5 millions d'images, 200000 paysages emblématiques, Google a publié un grand ensemble de données

Ensemble de données YouTube-8M Segments, un ensemble de données de classification et de localisation temporelle à grande échelle comprenant des étiquettes vérifiées par l'homme au niveau du segment de 5 secondes des vidéos YouTube-8M :

https://ai.googleblog.com/2019/06/announcing-youtube-8m-segments-dataset.html

Jeu de données AVA Spoken Activity, un jeu de données de dialogue perceptif audio + vidéo multimodal :

https://research.google.com/ava/

PAWS et PAWS-X : pour la traduction automatique, les deux ensembles de données sont constitués de paires de phrases hautement structurées avec un chevauchement lexical élevé, et environ la moitié des phrases ont des interprétations multilingues correspondantes :

https://ai.googleblog.com/2019/10/releasing-paws-and-paws-x-two-new.html

Laissez deux personnes avoir une conversation et simulez des conversations humaines grâce à un assistant numérique. Un ensemble de données de conversations en langage naturel :

https://ai.googleblog.com/2019/09/announcing-two-new-natural-language.html

Visual Task Adaptation Benchmark : Il s'agit d'un benchmark d'adaptation de tâches visuelles lancé par Google contre GLUE, ImageNet et Google.

Aide les utilisateurs à mieux comprendre quelles représentations visuelles peuvent être généralisées à d'autres nouvelles tâches, réduisant ainsi les besoins en données sur toutes les tâches de vision :

La plus grande base de données publique de dialogues orientés tâche, le Pattern-Guided Dialogue Dataset, avec plus de 18 000 dialogues dans 17 domaines :

Expansion mondiale de Top Club Research et de Google Research

Selon les statistiques officielles de Google, Googler a publié 754 articles au cours de l'année écoulée.

Jeff Dean a également répertorié certains des meilleurs jeux :

CVPR a plus de 40 articles, ICML a plus de 100 articles, ICLR a plus de 60 articles, ACL a plus de 40 articles, ICCV a plus de 40 articles, NeurIPS a plus de 120 articles et ainsi de suite.

Ils ont également organisé 15 ateliers distincts chez Google sur des sujets allant de l'amélioration des alertes mondiales aux inondations, à la manière d'utiliser l'apprentissage automatique pour créer des systèmes qui servent mieux les personnes handicapées, à l'accélération du développement d'algorithmes pour les processeurs quantiques (NISQ), d'applications et d'outils, et plus.

Elle a financé plus de 50 doctorants à travers le monde via le programme annuel de bourses doctorales, et a également apporté son soutien à des startups, etc.

De même, en 2019, les sites de recherche de Google ont continué à se développer à l'échelle mondiale, ouvrant un bureau de recherche à Bangalore. Dans le même temps, Jeff Dean a également lancé une demande de recrutement : si vous êtes intéressé, venez vite au bowl~

éthique de l'intelligence artificielle

Comme les années précédentes, ce rapport s'ouvre sur le fait que Jeff a parlé pour la première fois du travail de Google sur l'éthique de l'IA.

Il s'agit également d'une déclaration claire de la pratique, de l'éthique et de la technologie de l'IA de Google pour de bon.

En 2018, Google a publié les sept principes de l'IA et mis en uvre des pratiques d'application autour de ces principes. En juin 2019, Google a remis une transcription montrant comment ces principes peuvent être mis en pratique dans la recherche et le développement de produits.

Lien du rapport : https://www.blog.google/technology/ai/responsible-ai-principles/

Jeff Dean a déclaré cela parce que ces principes couvrent essentiellement les domaines les plus actifs de la recherche sur l'intelligence artificielle et l'apprentissage automatique, tels que les biais dans les systèmes d'apprentissage automatique, la sécurité, l'équité, la fiabilité, la transparence et la confidentialité, etc.

Par conséquent, l'objectif de Google est d'appliquer les technologies dans ces domaines pour travailler et continuer à mener des recherches pour continuer à faire progresser les technologies connexes.

D'une part, Google a également publié plusieurs articles lors de conférences universitaires telles que KDD'19 et AIES 19 pour explorer l'équité et l'interprétabilité des modèles d'apprentissage automatique.

Par exemple, étudiez comment les atlas d'activation peuvent aider à explorer le comportement des réseaux de neurones et comment ils peuvent contribuer à l'explicabilité des modèles d'apprentissage automatique.

Liens connexes: Explorer les réseaux de neurones avec des atlas d'activation https://ai.googleblog.com/2019/03/exploring-neural-networks.html

D'un autre côté, les efforts de Google ont également porté leurs fruits et les produits sont effectivement sortis.

Par exemple, TensorFlow Privacy a été publié pour aider à former des modèles d'apprentissage automatique garantissant la confidentialité.

Liens connexes: Présentation de la confidentialité de TensorFlow : apprendre avec la confidentialité différentielle pour les données d'entraînement https://blog.tensorflow.org/2019/03/introducing-tensorflow-privacy-learning.html

De plus, Google a publié un nouvel ensemble de données pour aider la recherche à identifier les deepfakes.

Liens connexes: Contribuer aux données pour la recherche sur la détection de Deepfake https://ai.googleblog.com/2019/09/contributing-data-to-deepfake-detection.html

Vers 2020 et au-delà

Enfin, Jeff s'est également tenu au courant du développement des 10 dernières années et a fait un aperçu des tendances de la recherche en 2020 et au-delà.

Il a déclaré qu'au cours de la dernière décennie, les domaines de l'apprentissage automatique et de l'informatique ont fait des progrès remarquables et que nous disposons désormais d'ordinateurs plus capables que jamais de voir, d'entendre et de comprendre le langage.

Avec des appareils informatiques sophistiqués dans nos poches, ces capacités peuvent être exploitées pour mieux nous aider dans de nombreuses tâches de notre vie quotidienne.

Nous avons repensé notre plate-forme informatique autour de ces méthodes d'apprentissage automatique en développant du matériel spécialisé qui nous permet de résoudre des problèmes plus importants.

Celles-ci ont changé notre façon de penser les appareils informatiques dans les centres de données, et la révolution de l'apprentissage en profondeur continuera de remodeler notre façon de penser à l'informatique et aux ordinateurs.

Dans le même temps, il a également souligné qu'il y avait encore beaucoup de problèmes non résolus. C'est également l'orientation des recherches de Google en 2020 et au-delà :

Premièrement, comment créer un système d'apprentissage automatique capable de gérer des millions de tâches et d'effectuer automatiquement de nouvelles tâches avec succès ?

Deuxièmement, comment réaliser des progrès de pointe dans des domaines importants de la recherche sur l'IA, comme éviter les préjugés, améliorer l'explicabilité et la compréhensibilité, améliorer la confidentialité et assurer la sécurité ?

Troisièmement, comment l'informatique et l'apprentissage automatique peuvent-ils être appliqués pour progresser dans de nouveaux domaines scientifiques importants ? Tels que la science du climat, la santé, la bioinformatique et de nombreux autres domaines pour n'en nommer que quelques-uns.

Quatrièmement, en ce qui concerne les idées et les orientations poursuivies par la communauté de recherche en apprentissage automatique et en informatique, comment s'assurer que des chercheurs plus diversifiés proposent et explorent ? Comment pouvons-nous soutenir au mieux les nouveaux chercheurs d'horizons divers qui entrent dans le domaine ?

Enfin, que pensez-vous des percées et des progrès de Google AI au cours de l'année écoulée ?

Bienvenue à interagir dans la zone de message ~

Portail de rapport : https://ai.googleblog.com/2020/01/google-research-looking-back-at-2019.html

Portail papier Google 2019 : https://research.google/pubs/?year=2019

- Finir -

Qubit QbitAI · Toutiaohao a signé un contrat

Suivez-nous et soyez le premier à connaître les dernières évolutions technologiques

SharkNinja mondial de la marque de l'appareil a annoncé des acquisitions stratégiques de sens Robotique chinoise des sciences et de la technologie de la vitesse
Précédent
Le département d'électronique de Tsinghua a accueilli le premier chef de département des années 80: Wang Yu, 38 ans, sous Xie Yuan, a participé à la création de Shenjian
Prochain
Deux mutations pour que les insectes ont continué la vie cinq fois, les scientifiques du Sud et des États-Unis à trouver de nouvelles façons de prolonger la vie
Préoccupation: Zhongguancun No. une main dans les entreprises AI CES débuts
Article CES voyage pour voir l'horizon: des solutions à puce et écoterritoire
AI micro-canal libéralisation complète de tous les niveaux de capacité PNL! Ouvert début de la classe sur le forum principal
exposition outre-mer de la vulnérabilité que vibrato: un lien sera en mesure d'ouvrir votre vidéo privée
CES a une sculpture de sable produit: AI trouver les moustiques, en regardant juste tirer peu importe le prix jusqu'à 1200
Pourquoi faut-il remercier la Chine Musk
système de mise à niveau du schéma AI, 600 millions d'investissement Yuxin Technologies, Baidu AI à B volonté stratégique de spectacle
L'écriture la plus forte AI doit apprendre les échecs et compositeur, modèle de langage des opérations transfrontalières citées à chaud, Qiuzhan en ligne
Mo Yan, poème co-livre Wang "Whale Song quitte la mer"
« Sakura » ouvert pour vous afin que vous revenez
Commission municipale de Beijing éducation sur l'aide scientifique et technologique construire l'école numérique « classe de l'air »