OpenAI dernières recherches: par apprentissage non supervisé pour améliorer la compréhension du langage

New Ji-won aujourd'hui

 Ji-won nouvelle compilation

Source: Open AI

Compile: Pen, Craig

[New Ji-won EXAMEN Sur la base d'un système évolutif, tâche indépendante, OpenAI contient des tâches linguistiques différentes pour obtenir des résultats optimaux dans un groupe, la méthode est une combinaison de deux concepts existants: La formation pré-migration et apprentissage non supervisé . Ces résultats démontrent qu'il existe des méthodes d'apprentissage supervisé peuvent être combinés avec la pré-formation parfaite sans supervision. L'idée de beaucoup de gens dans le passé exploré, OpenAI l'espoir de stimuler plus de résultats de recherche, et ensuite appliquer cette idée à une plus grande, plus diversifiée sur l'ensemble de données.

Notre système est divisé en deux étapes: Tout d'abord, nous avons formé une migration par manière non supervisée sur un grand modèle d'apprentissage des ensembles de données, le processus de formation en utilisant un des résultats de formation de modèle de langage comme un signal, notre jeu de données supervisé plus petit sur ce modèle est peaufiné pour l'aider à résoudre une tâche spécifique. Ceci est une méthode développée dans notre ancienne neurone sentiment Effectué (neurones émotionnels) après avoir travaillé dans le sentiment tâche des neurones, nous notons que, pour former le modèle grâce à l'utilisation de données suffisantes, l'apprentissage non supervisé peut être assez discriminant caractéristiques surprenantes. Ici, nous voudrions explorer davantage cette idée: Pouvons-nous développer un modèle à un modèle de mode non supervisé est formé pour utiliser beaucoup de données, puis affiner le modèle, afin d'obtenir de bonnes performances dans diverses tâches? Nos résultats indiquent que l'effet de cette approche est étonnamment bonne. Le même modèle de base peut être peaufiné pour des tâches différentes en fonction de la tâche.

Cette étude est une méthode introduite dans la séquence d'approche fondée sur l'apprentissage semi-supervisé montre comment LSTM de pré-formation non supervisée Et puis supervisé peaufinage pour améliorer la capacité de classification de textes. Elle étend également la recherche ULMFiT, le montre l'étude comment affiner un modèle de données unique agnostique langage LSTM pour obtenir des performances optimales dans une variété de jeu de données de classification texte. Nos spectacles de travail comment migrer modèle d'apprentissage de cette façon, de sorte qu'un plus large éventail de tâches en plus de la classification de texte réussir, telles que le raisonnement de bon sens, la similarité sémantique et la compréhension en lecture et ainsi de suite. Il Elmo similaire, mais appartiennent à des questions de travail indépendant, qui comprend un pré-formation, vous souhaitez utiliser pour la tâche particulière de l'architecture de modèle pour obtenir des résultats optimaux.

Nous accordage paramètre de quelques-uns pour atteindre notre objectif. Tous les jeux de données en utilisant une seule langue à l'ancien modèle, il n'y a pas de combinaison, et la plupart des résultats sont exactement les mêmes réglages ultra-paramètres.

Notre approche COPA, RACE, et trois ensembles de données ROCStories Performance sur ont particulièrement bien performé, ces ensembles de données sont utilisés pour tester le raisonnement de bon sens et à la lecture. Notre modèle sur ces ensembles de données pour obtenir des résultats optimaux. Ces ensembles de données d'identification sont considérées comme plus besoin des phrases raisonnement et la connaissance critique du monde, ce qui indique que notre modèle pour améliorer ces capacités, notamment par l'apprentissage non supervisé. Au-dessus indiquent que la technologie sans supervision promettant de développer la compréhension du langage complexe.

La plupart des neuf villes sulfureuse, ratent une autre année.
Précédent
Lorsque les consommateurs ont besoin plus que juste une voiture, la qualité après-vente Mercedes-Benz à la fin la force?
Prochain
Il y a des photos enfant morceau! Cinq minutes pour comprendre les Etats-Unis et la France éclatent ~
A quatre tué! Les plus jeunes seulement 100 jours! Peu importe comment occupé il dépend aussi du Nouvel An chinois
Ne pas mettre l'eau minérale de voiture à boire! Assurez-vous de laisser le savoir de la famille!
Ce nouveau cresson fichier variété 9.5 avec notre compréhension d'une route de pèlerinage, l'observation a voulu commencer immédiatement
« pauvreté de précision » activités de service public d'amour dans le Han Hao Jixiang Village
Propre plagiat de châssis de la marque et la copie apparence, qui est plus noble que quelqu'un d'autre?
Les jeunes, ne viennent pas facilement à Chengdu, va prendre du poids!
médailles olympiques d'hiver viennent de derrière la Norvège, l'Allemagne occupe le deuxième rang 9 médailles d'or, 5 d'argent derrière la Chine 19
Main Event! la pluie à grande échelle et la neige seront bientôt « Happy New Year » la
« Sont très bons » aliments avéré être un drame! Je vous demande Ming Shi Yu Tian pressé la maison d'hiver de se marier!
Ke Leijia premier, Foday seulement 3 étoiles, C-NCAP indiquent ensemble du système est livré en standard deviendra la tendance?
Le New York Times: « errant la Terre » une nouvelle ère du cinéma chinois