34 derniers articles que vous prenez à la technologie accélérée (avec téléchargement) champ PNL

Source: New Ji-won

article Ressources multiples , Collection recommandée.

Cet article a compilé une liste des derniers articles et des listes de ressources de la PNL, à suivre avec la recherche de pointe, collection essentielle.

PNL se développe rapidement, entrant dans la fosse communications ont été présentées pour suivre les dernières tendances de la PNL moderne et rapide? équipe HuggingFace a récemment publié une liste des articles et des ressources à cette liste, suivi de la recherche de pointe, collection essentielle.

Contexte réponse lettre privée « NLP34 » get 34 articles lien de téléchargement

Au cours des deux dernières années, les progrès de la PNL sur une variété de tâches et d'applications différentes très rapidement. Ces progrès sont dus à la construction du paradigme classique a changé les systèmes de PNL à apporter: Pendant longtemps, les chercheurs ont été formés pour utiliser le mot pré-intégré (comme word2vec ou Glove) pour initialiser le réseau de neurones, puis utiliser une tâche spécifique l'architecture qui utilise un ensemble de données unique pour superviser la méthode de formation.

Récemment, certaines études ont montré que nous pouvons utiliser le signal non supervisé (ou d'auto-surveillance), tels que la modélisation du langage, la représentation de contexte d'apprentissage hiérarchique sur des ensembles de données à l'échelle du Web, et transféré aux tâches en aval, avant la formation (apprentissage de transfert) . Excitant est que ce changement a apporté des progrès significatifs dans le domaine des applications en aval, des questions en langage naturel pour répondre à un raisonnement par l'analyse syntaxique ......

« Que puis-je lire le journal pour suivre les dernières tendances de la PNL moderne? »

Il y a quelques semaines, un de mes amis a décidé d'entrer dans la PNL fosse. Il a un apprentissage machine arrière-plan et l'apprentissage en profondeur, alors il m'a demandé sincèrement: « Que puis-je lire le journal pour suivre les dernières tendances de la PNL moderne »

Ceci est une très bonne question, en particulier lors de la prise en compte de la conférence de la PNL (ainsi que l'assemblée générale ML) a reçu la soumission des documents est en croissance exponentielle: NAACL 2019 a reçu plus de 2018 contributions ont augmenté de 80%, l'affichage ACL 2019 reçu soit une augmentation de 90% par rapport à 2018 ......

Donc, je compilé une liste des documents pour lui, et cette liste de ressources et de partager avec vous.

Avertissement: Cette liste est non exhaustive, ne peut couvrir tous les sujets en PNL (par exemple, ne couvre pas l'analyseur sémantique, l'apprentissage conflictuel, l'apprentissage de renforcement de la PNL, etc.). Les documents sélectionnés principalement au cours des dernières années / mois de travail le plus influent.

En général, le début d'un nouveau champ de bonne méthode consiste à lire l'introduction ou un résumé du blog (par exemple), vous permet de prendre le temps de lire un aperçu rapide des documents d'information avant.

Un nouveau paradigme: l'étude de la migration

Les références suivantes couvre l'idée de base de l'étude de la migration PNL:

représentations de mots profonds contextualisées (NAACL 2018)

Matthew E. Peters, Mark Neumann, Mohit Iyyer, Matt Gardner, Christopher Clark, Kenton Lee, Luke Zettlemoyer

Langue universelle Modèle Affinage de classification de texte (ACL 2018)

Jeremy Howard, Sebastian Ruder

Amélioration de la compréhension par langue générative pré-formation

Alec Radford, Karthik Narasimhan, Tim Salimans, Ilya Sutskever

Les modèles de langue Incontrôlables Multitâche apprenants

Alec Radford, Jeffrey Wu, Rewon Enfant, David Luan, Dario Amodei, Ilya Sutskever

BERT: pré-formation des transformateurs pour la compréhension profonde Bidirectionnel Langue (NAACL 2019)

Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanova

Préformation conduit closure-des réseaux d'auto-attention (arXiv 2019)

Alexei Baevski, Sergey Edunov, Yinhan Liu, Luc Zettlemoyer, Michael Auli

Modèle Langue unifiée pré-formation pour la compréhension et la génération du langage naturel (arXiv 2019)

Li Dong, Nan Yang, Wang Wenhui, Furu Wei, Liu Xiaodong, Yu Wang, Gao Jianfeng, Ming Zhou, Hsiao-Wuen Hon

MASS: Masked Séquence de séquence pré-formation pour la génération de langage (ICML 2019)

Kaitao Song, Xu Tan, Tao Qin, Lu Jianfeng, Tie-Yan Liu

structure Transformer est devenue une série populaire de modélisation structure de tâche. Source: L'attention est tout ce que vous avez besoin
Learns (Représentation d'apprentissage)

Ce que vous pouvez fourrer dans un seul vecteur: phrase incorporations pour les propriétés PALPEU R linguistiques (ACL 2018)

Alexis Conneau, allemand Kruszewski, Guillaume Lample, Loïc Barrault, Marco Baroni

Aucune formation requise: Explorer les encodeurs au hasard pour la classification de la peine (ICLR 2019)

John Wieting, Douwe Kiela

COLLE: Une référence multi-tâches et la plate-forme pour l'analyse du langage naturel Comprendre (ICLR 2019)

Alex Wang, Amanpreet Singh, Julian Michael, Felix Hill, Omer Levy, Samuel R. Bowman

Superglue: Un Indice de référence général Plus collant à usages linguistiques Comprendre les systèmes (arXiv 2019)

Alex Wang, Yada Pruksachatkun, Nikita Nangia, Amanpreet Singh, Julian Michael, Felix Hill, Omer Levy, Samuel R. Bowman

Connaissances linguistiques et cessibilité des représentations contextuelles (NAACL 2019)

Nelson F. Liu, Matt Gardner, Yonatan Belinkov, Matthew E. Peters, Noah A. Smith

Pour écouter ou ne pas écouter? Adaptation à des tâches Représentations pré-entraîné diverses (arXiv 2019)

Matthew Peters, Sebastian Ruder, Noah A. Smith

dialogue Nerve (Dialogue Neural)

Un Neural modèle conversationnel (ICML Atelier profond d'apprentissage 2015)

Oriol Vinyals, Le Quôc

Une conversation Neural Persona Model-Based (ACL 2016)

Li Jiwei, Michel Galley, Chris Brockett, Georgios P. Spithourakis, Gao Jianfeng, Bill Dolan

Un simple, rapide Divers Décodage algorithme de génération Neural (arXiv 2017)

Li Jiwei, Will Monroe, Dan Jurafsky

Neural Approaches to AI Conversational (arXiv 2018)

Gao Jianfeng, Michel Galley, Lihong Li

TransferTransfo: Un transfert d'apprentissage approche pour Neural Network à base d'agents conversationnels (NeurIPS 2018 Atelier CAI)

Thomas Wolf, Victor Sanh, Julien Chaumond, Clément Delangue

Assistant de Wikipédia: agents conversationnels savoir propulsée (IPSC) 2019

Emily Dinan, Stephen Rouleau, Kurt Shuster, Angela Fan, Michael Auli, Jason Weston

Apprendre à parler et agir dans un jeu d'aventure texte Fantaisie (arXiv 2019)

Jack Urbanek, Angela Fan, Siddharth Karamcheti, Saachi Jain, Samuel Humeau, Emily Dinan, Tim Rocktäschel, Douwe Kiela, Arthur Szlam, Jason Weston

autres

Pointer Networks (NIPS 2015)

Oriol Vinyals, Meire Fortunato, Navdeep Jaitly

End-to-End Réseaux mémoire (NIPS 2015)

Sainbayar Sukhbaatar, Arthur Szlam, Jason Weston, Rob Fergus

Arriver au point: Summarization avec les réseaux Pointer-générateur (ACL 2017)

Abigail Voir, Peter J. Liu, Christopher D. Manning

Apprentissage Supervisé des représentations de phrases universelles de langage naturel Inference données (EMNLP 2017)

Alexis Conneau, Douwe Kiela, Holger Schwenk, Loic Barrault, Antoine Bordes

Neural Coréférence Résolution de bout en bout (EMNLP 2017)

Kenton Lee, Luheng Il, Mike Lewis, Luke Zettlemoyer

StarSpace: Intégrer toutes les choses (AAAI 2018)!

Ledell Wu, Adam Fisch, Sumit Chopra, Keith Adams, Antoine Bordes, Jason Weston

Le langage naturel Décathlon: Multitâche d'apprentissage en question Answering (arXiv 2018)

Bryan McCann, Nitish Shirish Keskar, Caiming Xiong, Richard Socher

Caractère niveau du langage de modélisation avec auto-attention Deeper (arXiv 2018)

Rami Al-Rfou, Dokook Choe, Noah Constant, Mandy Guo, Llion Jones

Auto-attention pour l'étiquetage de rôle sémantique linguistiquement-Informed (EMNLP 2018)

Emma Strubell, Patrick Verga, Daniel Andor, David Weiss, Andrew McCallum

Phrase-Based & Neural Unsupervised Machine Translation (EMNLP 2018)

Guillaume Lample, Myle Ott, Alexis Conneau, Ludovic Denoyer, Marc'Aurelio Ranzato

L'apprentissage But général distribué Représentations Sentence via grande échelle multi-tâches d'apprentissage (ICLR 2018)

Sandeep Subramanian, Adam Trischler, Yoshua Bengio, Christopher J Pal

Transformateur-XL: Attentif Langue modèles Au-delà d'un contexte de longueur fixe (arXiv 2019)

Zihang Dai, Zhilin Yang, Yang Yiming, Jaime Carbonell, V. Le Quôc, Ruslan Salakhutdinov

Transformateurs universels (IPSC) 2019

Mostafa Dehghani, Stephan Gouws, Oriol Vinyals, Jakob Uszkoreit, ukasz Kaiser

Une approche simple Embarrassant pour l'apprentissage de transfert de modèles linguistiques pré-entraîné (NAACL 2019)

Alexandra Chronopoulou, Christos Baziotis, Alexandros Potamianos

D'autres papiers ans à distance, dans le choix de lecture de contenu, peuvent généralement être cités comme indicateur du nombre de choix.

Mon expérience est que vous devriez lire que vous trouvez intéressant, et vous rend heureux article!

Contexte réponse lettre privée « NLP34 » get 34 articles lien de téléchargement
autres ressources

Il y a beaucoup de ressources que vous pouvez l'utiliser comme ça, pas nécessairement les papiers. Voici quelques-unes:

  • Livres:

Parole et langage traitement (3e éd. Projet)

Dan Jurafsky et James H. Martin

Neural Network Méthodes de traitement du langage naturel

Yoav Goldberg

  • Support:

Langage naturel Sémantique Comprendre et Computational avec Katharina Kann et Sam Bowman à NYU

CS224n: Traitement du langage naturel avec apprentissage en profondeur avec Chris Manning et Abigail Voir à Standford

Mots contextuels Représentations: Une introduction contextuelle de Noah A. matériel pédagogique de Smith à l'UW

  • Blog / podcast:

Le blog de Sebastian Ruder

Blog illustré Jay Alammar

PNL Faits saillants hébergé par Matt Gardner et Waleed Ammar

https://podcasts.apple.com/us/podcast/nlp-highlights/id1235937471

  • autres:

Documents avec le code

https://paperswithcode.com/

gazouillement

arXiv bulletin quotidien

papiers enquête

...

recommandations finales

Ce sont nos ressources recommandées! Lisez la part de ces ressources, nous avons pu vous laisser sur les dernières tendances en PNL contemporaine ont une bonne compréhension, et peut vous aider à construire votre propre système de PNL!

La dernière suggestion que je trouve très important (et parfois négligés) est une bonne lecture, la pratique mieux! Grâce en profondeur la lecture (parfois) est livré avec son propre code ou essayer de mettre en uvre certains de ces codes, vous pouvez en savoir plus.

Lien original:

https://medium.com/huggingface/the-best-and-most-current-of-modern-natural-language-processing-5055f409a1d1 Editeur: Huang Jiyan Relecture: la force Gong
- FIN -

attention Tsinghua - données Académie des sciences de Qingdao plate-forme publique micro-canal officiel " données d'envoi THU « Sisters et n ° » Les données envoyées THU « Pour plus de conférences et de bien-être contenu de qualité.

Lynx 618 Quotidien du Peuple à la veille d'un nouveau modèle pour aider les agriculteurs Ali les pouces up
Précédent
hydrogène voiture du moteur de l'eau du secrétaire du Parti à courir sur l'eau? Percée technologique ou un canular?
Prochain
Photo Story | Jintao est arrivé dans tout ce temps pourquoi
Pendant la récolte de blé, le séchage du grain côté de la route équivaut à cause de la vie en danger! Cela devrait porter une attention
Dernières! 70 avril données de logement Ville a publié aujourd'hui, 67 villes ont augmenté! Il est conduit!
AI Stanford cours CS 221 notes! modèles d'apprentissage automatique, les réseaux bayésiens (lien ci-joint)
Enshi: US mitoyenne campagne terrain
Nénuphars fleurissent
La puissance de l'exemple! pouces Xi Jinping grâce à des modèles avancés
top ten U20 de la FIFA Coupe du Monde de la Pologne inventaire Star of Hope
3 minutes Glance « Nouvelles du Réseau »: un quart des produits agricoles de la Chine contrôle de la qualité du taux de 97,6% qualifiée
femme britannique aux États-Unis, a rencontré son petit ami, c'est un voyage romantique, mais a été fouillée prison d'entrée?
Dialogue grand café Yao: la réponse de la Chine à la résolution de l'intelligence artificielle de
Swords est comme la vie: Longquan épée forgée par Zheng Guorong