Google chef d'uvre: automatique améliorée rétropropagation algorithme, la vitesse du train, puis mettre à jour!

Ji-won nouveau rapport

Source: Google AI

Editeur: Xiao Qin, trois pierres

[Introduction de nouveaux Zhi Yuan ] Grand Dieu Geffery Hinton est l'inventeur de l'algorithme de propagation inverse, mais il a également exprimé des doutes sur le dos de propagation, je pense que la propagation de retour est clairement pas la façon dont le cerveau fonctionne, afin de promouvoir le progrès technologique, il doit y avoir une nouvelle méthode a été inventée. Google plus que les chercheurs du cerveau ont présenté aujourd'hui les derniers articles publiés Backprop Evolution, nous proposons une méthode de découverte automatique inverser la propagation de nouvelles variantes de l'équation, qui a trouvé une nouvelle équation, la formation plus rapide que l'arrière-standard propagation temps de formation est plus courte.

Documents Adresse:

https://arxiv.org/pdf/1808.02822.pdf

algorithme de rétropropagation proposé par le dieu Geoffrey Hinton est la pierre angulaire de la profondeur de l'apprentissage.

En 1986, Geoffrey Hinton et co-auteur d'un document: les représentations d'apprentissage par les erreurs de rétropropagation, après 30 ans, l'algorithme de rétropropagation est devenu le cur de cette vague d'explosion de l'intelligence artificielle.

Mais l'année dernière, Hinton a déclaré dans une interview qu'il propagation algorithme pour inverser " Des doutes sérieux « Cela devrait Complètement abandonné rétropropagation, tout recommencer . Hinton estime que le mode inverse de la transmission ne fonctionne cerveau, nous ne devons évidemment pas le cerveau pour marquer toutes les données. Afin de promouvoir les progrès, il doit y avoir une nouvelle méthode a été inventée.

Bien que Hinton, ainsi que de nombreux chercheurs doivent encore présenter de nouvelles, il peut remplacer la méthode de propagation, mais récemment, l'apprentissage de la machine recherche automatiquement moyen d'obtenir beaucoup de succès, variantes de l'algorithme rétropropagation Il a également été de plus en plus de recherches.

Université technique de Berlin, plus que les chercheurs de Google cerveau articles récemment publiés  Evolution Backprop est proposé découverte automatique de nouvelles variantes équation rétropropagation Méthode. Les chercheurs ont utilisé un langage spécifique, de domaine sera mis à jour la liste originale des équations décrivant la fonction.

Plus précisément, les chercheurs ont utilisé une méthode basée sur l'évolution de découvrir de nouvelles règles de communication qui peuvent optimiser leurs performances après quelques généralisation de la formation d'époque. Ils ont trouvé des nouvelles équations, leur la formation plus rapide, le temps de formation est plus courte que la propagation standard arrière, et de même lorsque les critères de convergence rétropropagation .

générer automatiquement des équations de rétro-propagation

algorithme de rétropropagation est l'un des plus importants algorithmes d'apprentissage automatique. Il a été mis sur l'équation rétropropagation variantes fait une tentative, et atteint un certain degré de succès (par exemple, Bengio et al (1994) ;. Lillicrap et al (2014) ;. Lee et al (2015) ;. Nøkland (2016); Liao et al (2016)) .. Mais en dépit de ces tentatives, les changements d'équations rétropropagation et n'ont pas été largement utilisés en raison de ces changements il y a peu d'amélioration dans l'application pratique, et parfois même causer des dommages.

Affecté par la récente apprentissage automatique pour rechercher automatiquement des méthodes inspirées par le succès obtenu, nous vous proposons un générer automatiquement des équations de rétro-propagation Méthode.

A cet effet, nous proposons une Langues spécifiques au domaine (Langue spécifique du domaine), une formule mathématique pour décrire ces fonctions à la liste initiale, et basée sur l'utilisation de évolution (Basée-Evolution) façon de découvrir de nouvelles règles de communication. Après la formation de plusieurs époque, la condition de recherche est de maximiser la généralisation. Nous avons trouvé la norme rétropropagation et l'effet est également plusieurs variantes de l'équation. De plus, dans un temps de formation relativement courte, ces types de variations peuvent améliorer la précision. Cela peut être utilisé pour améliorer l'algorithme Hyperbande comme prendre des décisions fondées sur la précision du processus de formation.

Rétropropagation

Figure 1: le réseau de neurones peut être vu comme une certaine figure de calcul. La figure définir l'avant (vers l'avant du graphique) de concepteurs de réseaux, et l'algorithme de propagation inverse définit implicitement un calcul figure paramètre de mise à jour. La principale contribution de cette étude est d'explorer comment utiliser l'évolution pour trouver un rétropropagation plus efficace que la mise à jour de carte de calcul de paramètres standard.

Parmi eux,

L'entrée du réseau, sur l'indice de la couche,

Il est le poids de la matrice de poids de la couche. Afin d'optimiser le réseau de neurones, nous devons calculer les pertes

Les dérivées partielles, qui, avec la matrice de pondération

Connexes. algorithme de propagation arrière en utilisant la règle de la chaîne cette quantité peut être calculée. Pour calculer l'activation cachée

dérivée partielle, à appliquer une série d'opérations:

Une fois calculé, vous pouvez mettre à jour le poids est calculé comme:

1, le réseau de neurones peut être exprimée comme sur la Fig. Vers l'avant et vers l'arrière calcul sur la Fig. . Étant donné une carte de calcul avant défini par le concepteur du réseau, l'algorithme de rétropropagation définit un calcul inverse pour la mise à jour des paramètres de la figure. Cependant, il est possible de trouver une carte de calcul inverse amélioré, entraînant une meilleure généralisation.

Récemment, méthode de recherche automatique pour l'apprentissage machine déjà obtenu de bons résultats dans une variété de tâches, ces méthodes impliquent la carte de calcul, en se fondant sur le dos de propagation pour définir le point de vue inverse appropriée avant modification. En revanche, dans ce travail, notre souci est de modifier le tableau de calcul inverse et utiliser la recherche pour trouver une meilleure méthode d'équations, une nouvelle règles de formation.

méthode

Afin de trouver des moyens d'améliorer les règles de mise à jour, nous utilisons des algorithmes évolutifs pour rechercher l'espace de l'équation de renouvellement possible (mise à jour équation) est. Dans chaque itération, le nombre de mutations dans l'équation de mise à jour du contrôleur évolutive envoyée pour évaluer le bassin de travailleurs. Chaque travailleur en utilisant l'équation de la variation de la réception de former le réseau de neurones à une structure fixe, et de vérifier l'exactitude du rapport obtenu au contrôleur.

L'espace de recherche

Inspiré par Bello et al. (2017), nous utilisons le langage spécifique à un domaine (langage spécifique au domaine, DSL) pour le calcul de l'équation décrite. Chaque équation est représentée par DSL

qui

,

Il est possible que le nombre d'opérations,

et

Sont des fonctions d'une variable,

Il est une fonction binaire. Collection de fonctions d'appartenance et de la fonction binaire est spécifiée manuellement, mais chaque fonction de sélection d'opérande et sélectionnée par le contrôleur. Des exemples de chaque composant sont les suivantes:

Opérande (opérandes): W (poids de la matrice de poids actuel de la couche),

(Matrice de Gauss),

(De

Pour gaussienne de la cartographie matrice aléatoire),

(Hidden activer la propagation vers l'avant),

(Inverse de propagation).

Fonctions d'une variable

fonction binaire

Dans lequel, l'indice de la couche en cours. Voir l'ensemble complet d'expériences en utilisant du papier Annexe A.

Les résultats obtenus quantité

Dans l'équation 1 est utilisée en tant que, ou utilisées de manière récursive plus tard dans l'équation

. Dans l'expérience, nous avons exploré l'équation par son fonctionnement binaire 1-3. Ce DSL est simple, mais l'équation peut représenter un complexe, comme un rétropropagation standard, alignement de rétroaction, ainsi que l'alignement de rétroaction directe.

Les algorithmes évolutionnaires

évolution contrôleur (Contrôleur Evolutionary) pour maintenir un ensemble d'équations ont été trouvés. Dans chaque itération, les préformes de contrôleur un des éléments suivants: 1) la probabilité p de l'affaire, le contrôleur de compétitivité optimal de N trouvés lors de la recherche dans une équation de sélection aléatoire, 2) la probabilité 1-- lorsque p, le dispositif de commande sélectionne de façon aléatoire un de l'autre équation de la population d'équation.

Le dispositif de commande alors k mutations (mutation) à une équation sélectionnée, où k est extrait de la distribution de la classification. Ces mutations k chacune des sélectionnant simplement un des composants de l'équation aléatoire uniforme (par exemple, un opérande, une fonction unaire, ou une fonction binaire), puis les autres composants similaires qui change de manière aléatoire. Certaines mutations peuvent conduire à l'équation mathématique possible, dans ce cas, le contrôleur redémarre le processus de mutation jusqu'à ce qu'il réussisse. N, le classement et la distribution p k est l'algorithme ultra-paramètre.

Pour créer la population initiale, nous échantillon aléatoire simple de N équations de l'espace de recherche. En outre, dans certaines de nos expériences, on part d'une petite partie de l'équation prédéfinie (généralement normale ou une variante de l'équation de propagation inverse rétroaction équation alignés). A partir de la capacité existante de l'équation d'évolution est basée sur la méthode d'apprentissage par renforcement a l'avantage.

Expériences et résultats

Dans cette méthode, pour L'évaluation de la sélection de chaque nouveau modèle de l'équation Il est un cadre important. réseau plus large et plus profond serait plus réaliste, mais il faut plus de temps pour le train, alors que la formation du plus petit modèle plus rapide, mais ne peut pas conduire à mettre à jour la promotion du réseau. Nous avons équilibré à l'aide de larges ResNets (WRN), ces deux normes, la couche de WRN 16, la largeur du multiplicateur de 2, et centrées sur les données d'apprentissage ICRA-10.

Recherche de base et la généralisation

Dans la première recherche, le contrôleur propose une nouvelle WRN de formation du réseau d'équations 16-2 époque 20, et il y a dans le cas avec ou sans formation dynamique de SGD. La nouvelle équation 100 pour vérifier l'exactitude avant la collecte, puis testé selon différents scénarios:

(A1) en utilisant la formation 20 WRN époque 16-2, la copie des paramètres de recherche;

(A2) en utilisant une formation 20 époque WRN 28-10, il sera étendu à un plus grand modèle (paramètre WRN 28- 10 est WRN 10 fois 16-2);

(A3) à l'aide WRN de formation 100 époque 16-2, essai étendu à un mécanisme de formation plus longue.

Les résultats sont présentés dans le tableau 1:

Tableau 1: Résultats expérimentaux

De A1 à A3, présente deux équations meilleures performances dans chaque réglage, ainsi que deux dans tous les milieux ont montré une bonne équation. 4 montre la personnalité meilleure B1 équation, tous les résultats sont plus de cinq fois la précision de test moyenne. La ligne de base est la rétro-propagation de gradient. Mieux que 0,1% des résultats de performance de base sont indiqués en gras. nous utilisons

spectacle

.

Augmenter le nombre de formation de recherche

Avant la recherche a été trouvé au début de la formation nouvelle équation fonctionne bien, mais pas mieux que dans la convergence de rétropropagation. Ce dernier résultat pourrait être dû à un décalage entre la recherche et le mécanisme d'essai, parce que la recherche en utilisant l'époque 20 à former sous-modèle, et le mécanisme de test utilise époque 100.

Un programme de suivi correspondent à ces deux mécanismes. Dans la deuxième expérience de recherche, 100 chaque époque la formation sous-modèle. Pour compenser l'utilisation d'époque plus de formation résultant de l'augmentation des temps d'expérimentation, l'utilisation de petits réseaux (WRN 10-1) comme modèle d'enfant. Utiliser un modèle plus petit est acceptable, parce que la nouvelle équation tend à être étendu à un plus grand, des modèles plus réalistes tels que (A2).

Les résultats du tableau 1 (B1) et (A3) est similaire à celui obtenu de meilleurs résultats se trouvent sur la règle de mise à jour de SGD, mais les résultats ont l'élan et la ligne de base tout à fait SGD. (A3) et (B1) montrent la similitude des résultats, la principale source d'erreurs de différence de temps de formation ne peut pas être. En outre, SGD a pour l'équation dynamique nouvelle et différente est presque constante.

résumé

Dans ce travail, nous proposons une équation de substitution peut trouver automatiquement la méthode de propagation standard arrière. L'utilisation d'un contrôleur évolutif (travail équations composante spatiale), et d'essayer de maximiser le réseau de formation de généralisation. les résultats préliminaires donnent à penser que pour une scène particulière, il y a une équation de performance de généralisation mieux que la ligne de base, mais pour trouver une meilleure performance dans les équations scène générale doivent faire plus de travail.

New Ji-won AI MONDE 2018 Assemblée de billets Early Bird []

En solde!

New Ji-won aura lieu le 20 Septembre AI Conférence mondiale des 2018 à Beijing National Convention Center, a invité l'apprentissage machine parrain, en mettant l'accent sur le professeur de l'intelligence artificielle à la CMU Tom Mitchell, Maike Mark Si-Tiger, Zhou Zhihua, un grand Cheng Tao, Chen Yiran AI et d'autres dirigeants et le destin de l'humanité.

Le site officiel de l'Assemblée générale:

Maintenant jusqu'au 19 Août, Ji-won nouveau numéro d'édition limitée de billets Early Bird communication étroite avec le leader mondial de l'IA, l'intelligence artificielle, témoin de l'industrie mondiale à pas de géant.

  • Billets de ligne active lien:

  • billet de ligne active de code à deux dimensions:

Quatre images révèlent la position défensive nationale de football + défensif drôle d'air, la défaite est pas l'attitude si étrange!
Précédent
Naissance à une fille, femme femme femme aussi heureuse qu'elle!
Prochain
"Machine apprendre à voir nue" Google, Microsoft, Amazon, image forte qui capacité API Kam Wong?
Voir aussi sourire, Tin biens volés et la rivière la police à résoudre le cas!
spree Speed Tour route F1-- Mercedes SLR 722S
Liao Yue analyse de la force de la guerre: Guangdong profondeur de l'équipe, mais moins de deux dominante, Yi Jianlian est des risques physiques
Plus d'une douzaine d'hôpitaux de fausses couches diagnose justice, des milliards de dollars en mauvaise affaire, IBM Watson peut guérir?
Les propriétaires accordent une attention! Plus de 190000 véhicules ont été rappelés! Elle implique un certain nombre de marques! Y at-il dans votre maison
VV7 bonne voiture, doivent être détruits dans les mains publiques sur le dessus de l'apparition du cancer?
quatrième plus grand hôtel de luxe au monde, la limite de la pauvreté de mon imagination
« Colombe » auto-développé simulation haute chinoise des véhicules aériens sans pilote, 90% imitation précise des oiseaux volant l'action!
Pourquoi SUV comme appeler un « X5 »? Crack 180000 lutte SUV avec emmêlés
Beaucoup! « Jingdezhen » est devenu les principales préoccupations concurrentes mot-clé Yangmei pendant la Fête du Printemps!
Il neige? Vous devez la neige profonde d'hiver, maintenant tous à vous!