« Le premier anniversaire de la formation Google cerveau » 50 thèses apprentissage machine, vision par ordinateur et les tendances du langage naturel

1 Ji-won nouveau rapport

Octobre 2015, Google a annoncé le lancement du cerveau « Google cerveau Programme de stages » (Google cerveau programme de résidence), pour une période d'un an, de se concentrer sur l'apprentissage de la machine et l'apprentissage en profondeur des gens ont commencé à se préparer à une carrière. Les stagiaires peuvent utiliser l'infrastructure unique Google, en collaboration avec les meilleurs chercheurs du terrain.

Juin 2016, la première session du programme de stage du cerveau Google a commencé. De la science informatique à la physique, les mathématiques, la biologie et les neurosciences, les membres de différents milieux. Dr Certaines personnes graduées, certaines personnes ont des années d'expérience de travail. Ils ont également étudié le sujet de la compréhension du langage naturel, la robotique, les neurosciences et de la génétique, couvrant un large éventail.

Il est rapporté que jusqu'à présent, le premier lot de stagiaires Google du cerveau ont été IPSC (15), ICML (11), CVPR (3), EMNLP (2), RSS, GECCO, ISMIR, ISMB et Cosyne et d'autres grands apprentissage de la machine et réunion journaux publiés plus de 30 articles (les chiffres entre parenthèses indiquent le nombre d'articles publiés dans des réunions pertinentes). De plus, 18 articles dans NIPS, ICCV, BMVC et "Nature - méthode" à l'étude.

programme de stage Google cerveau premier anniversaire de l'extrait final

Donc, nous allons jeter un oeil à ces résultats (par ordre alphabétique).

Regardez d'abord deux travaux publiés dans le Distiller « Interactive Journal » de:

1. « voir » comment générer réseau de neurones caractères manuscrits

Explorer le réseau de neurones en utilisant un procédé interactif comment générer des caractères manuscrits. documents connexes: « caractères écrits à la main générés par le réseau de neurones quatre expériences » (quatre expériences dans l'écriture manuscrite avec un réseau de neurones). Auteur :. Carter et al, "Expériences en écriture manuscrite avec un réseau de neurones", Distiller 2016.

2. Explorer comment les robots apprennent des systèmes d'observation mimétique du mouvement humain

Thèse "Temps réseau de contraste: voir des observations de l'apprentissage supervisé" (Time-contrastive Réseaux: apprentissage auto-surveillées de Multi-View Observation). Auteur: Pierre Sermanet, Corey Lynch, Jasmine Hsu, Sergey Levine, Atelier CVPR (2017)

3. formation approfondie de l'apprentissage par renforcement étude à grande échelle des systèmes distribués

Pour le matériel informatique en optimisant la distribution, ce modèle peut être utilisé pour renforcer l'étude de grande échelle la formation en profondeur du réseau d'apprentissage distribué. Thèse: « réalisée par des équipements d'apprentissage de renforcement optimisation de la mise en page » (Device avec optimisation de la position Apprentissage par renforcement). Auteur: Azalia Mirhoseini, Hieu Pham, Le Quôc, Mohammad Norouzi, Samy Bengio, Benoit Steiner, Yuefeng Zhou, Naveen Kumar, Rasmus Larsen, Jeff Dean, ICML (2017)

4. Optimisation de découverte automatique

Nous proposons une méthode pour les méthodes d'optimisation des méthodes automatisées, en particulier l'optimisation automatique du cadre de l'apprentissage en profondeur. Thèse: « Recherche avec l'apprentissage par renforcement optimiseur réseau de neurones » (Neural Optimizer Recherche avec l'apprentissage par renforcement). Auteur: Irwan Bello, Barret Zoph, Vijay Vasudevan, Le Quôc, ICML (2017)

5. Utilisation réseau de neurones pour générer une nouvelle architecture de RNN, au-delà de l'architecture LSTM nombreuses tâches

la conception de réseau de neurones est très fastidieux difficile. Avec cette nouvelle technologie, il est possible de générer automatiquement des performances supérieures l'architecture RNN. La figure de la gauche est une architecture de LSTM, le droit d'utiliser des réseaux de neurones pour générer une nouvelle architecture de RNN. Ce dernier est supérieur à LSTM largement utilisé dans une variété de tâches différentes. Thèse: « Recherche avec l'apprentissage par renforcement de l'architecture réseau de neurones » (Neural architecture Recherche avec l'apprentissage par renforcement). Auteur: Barret Zoph, V. Le Quôc, IPSC (2017)

6. calculs théoriques peuvent remplacer les paramètres de recherche à l'échelle ultra-large?

La précision de la représentation des couleurs formation réseau de neurones, afin d'augmenter le noir (aléatoire) au rouge (haute précision). La ligne blanche en pointillé représente une limite théorique entre la formation et le réseau non-formation. Dans ce qui précède. La figure 4 (A) indique l'absence de réseau de décrochage, représenté par les trois taux d'abandon restant a été successivement 0,01, 0,02, 0,06 réseau. Thèse: "diffusion de l'information profonde" (Deep information de propagation). Auteur: Samuel S. Schoenholz, Justin Gilmer, Surya Ganguli, Jascha Sohl-Dickstein, IPSC (2017)

7. renforcer l'effet de formation d'image composite GAN

La figure montre une comparaison de l'AC-GAN GAN commun avec plusieurs autres auteurs ont mis en avant, de gauche à droite est la condition GAN, GAN semi-supervisé, InfoGAN. Thèse: « Conditions faire avec la composition d'image GAN avec classificateur auxiliaire » (image de synthèse conditionnelle avec auxiliaires classificateur GAN). Auteur: Auguste Odena, Christopher Olah et Jonathon Shlens, ICML (2017)

8. Le réseau de neurones pour générer les hyper-paramètres à un autre réseau

HyperNetwork généré réseau de poids lourd à un autre réseau. Les auteurs ont utilisé HyperNetwork générer des poids RNN trouvés pour générer des poids non partagés, et pour obtenir des résultats sur le caractère niveau langage de modélisation les plus avancées, la génération de caractères manuscrits et des séries nerveuses de traduction automatique des tâches de modélisation LSTM. La figure montre généré un modèle de texte de HyperLSTM. Bloc de gamme à quatre couleurs est générée en dessous de chaque caractère, représentant les quatre principaux matrice de poids de RNN (respectivement rouge, vert, bleu, jaune indique). Plus la densité, le poids de la plus grande représente la principale variation de poids RNN. Thèse: "super réseau" (HyperNetworks). Auteur: David Ha, Andrew Dai, V. Le Quôc, IPSC (2017)

9. sons de génération de différents instruments de réseau neural

WaveNet a proposé un modèle similaire de l'encodeur, faire ce modèle une gamme d'apprentissage intégré, en insérant des éléments, pour que cela sonne comme le bruit généré émis par différents instruments. La figure montre la structure d'un tel modèle, à partir du code temporel d'apprentissage de la forme d'onde audio d'origine, ajusté le décodeur de l'autorégression. Les auteurs ont également introduit un jeu de données à grande échelle de haute qualité des notes NSynth. Thèse: « WaveNet de la synthèse du codeur de la musique » (Synthèse audio Neural des notes de musique avec WaveNet Autoencoders). Auteur: Jesse Engel, Cinjon Resnick, Adam Roberts, Sander Dieleman, Douglas Eck, Karen Simonyan, Mohammad Norouzi, ICML (2017)

10. L'utilisation de l'étiquette de bruit efficace d'améliorer la précision de la classification

Étude présente une approche à l'utilisation de l'étiquette de bruit. étiquette de bruit sont ceux qui ont beaucoup d'experts donnent une image marque différente de l'étiquette. Les auteurs ont utilisé un réseau de neurones pour étiqueter chaque expert fournira un ensemble de la production, les poids moyens et apprendre à combiner leurs prédictions. De cette façon, qui sait ce que disent les experts, a une meilleure note les données pour améliorer la précision de la classification. expérience la figure est la gravité de l'étiquette de la rétinopathie diabétique. Thèse: « qui a dit quoi: un seul journalistes standards de modélisation pour améliorer la qualité de la classification » (qui a dit quoi: Modélisation individuelle étiqueteuses Améliore la classification). Auteur: Melody Y. Guan, Varun Gulshan, Andrew M. Dai, Geoffrey Hinton, CVPR Atelier (2017)

Programme Google Brain Stage: Diplômé destination et les nouvelles admissions

Il est rapporté que ce cerveau Google diplômés stage programme, nombreux sont ceux qui quittent le cerveau Google pour travailler à temps plein. D'autres sont entrés Stanford, Berkeley, Cornell, Toronto et d'autres machines haut CMU apprentissage des études de doctorat programme.

Maintenant, la deuxième session du programme de stage est sur le point de commencer. Pendant ce temps, le troisième plan d'inscription ouvert en Septembre. Pour en savoir plus peuvent visiter: g.co/brainresidency

Renseignez-vous sur d'autres travaux, visitez le site: https: //research.google.com/pubs/BrainResidency.html

Cliquez ici pour lire l'original pour voir de nouveaux emplois Ji-won

Le yuan à la hausse, les prix du pétrole plongent, la dette des États-Unis continue à se déplacer lentement, les encours d'actifs de RMB plus attrayant
Précédent
excuses Hypocrite a été exposé! Wei Shihao déjà à l'aéroport, mais il a été retourné à présenter des excuses commande Xu Jiayin!
Prochain
la neige du Sud après groupe incendie de personnes, et vous pouvez vraiment SKR talent ~
Fête du Printemps Grande Migration, file d'attente mis en scène embouteillage haute vitesse, vous pouvez choisir de conduire à la maison?
Oolong main beurre presque chavirer! U23 nationale de football Malaisie tirage au sort, le premier groupe rond!
200 « de la prostitution vierge anneau » arrêté! « Emballage vierge » pour découvrir toute la chaîne de l'industrie
Mode Fête du Printemps est activé, conduisant à la maison des propriétaires conscients que ces types de « illégaux » non coupable!
Oolong U23 football en quelque sorte perdre la balle! Heureusement, il est Zhang Yuning lier le jeu!
Q & A | exclusif chien unique SUV est quoi? Quelle est la différence entre les importations et les modèles nationaux?
CVPR Tsinghua Université cadre de détection d'objet visuel recherche et efficace RON
Yuan chinois libellés en hausse des exportations, le Vietnam et l'Inde pour accélérer le yuan près de façon inattendue
2019, le travail chinois dur!
2018 la Chine la plus heureuse petite ville était en fait eux? Demandez à votre maison
Inquiet! C Luo droite la fatigue musculaire de la jambe peut se reposer pendant deux semaines, ramener la Ligue des Champions Juventus ne peut le faire sans lui!