Ji-won nouvelle recommandation
Source: expertise
Editeur: Craig
[New Ji-won EXAMEN ICML 2018 conférence la semaine dernière communications acceptées, divers organismes de recherche et le gros bétail qui ont les bonnes nouvelles sur Twitter, papiers antiadhésifs acceptés, félicitations! Il y a Google cerveau, DeepMind, Facebook, Microsoft et collèges et des universités et ainsi de suite. Nous avons compilé des préoccupations papiers est chaud sur Twitter, pour tout le monde à comprendre, certaines des recherches les plus récentes populaire sur l'apprentissage de la machine!
Différentiables dynamique de programmation pour la prévision et structuré Attention
Ceci est le plus chaud auteur Arthur Mensch, un aussi scikit-learn auteurs de la France pariétal Inria, des documents sur programmation dynamique différentielle peut prédire la structure et l'attention des .
Auteur souligné: Parcimonie et backprop en couches inférence type CRF utilisant max-lissage, l'application dans le texte + séries chronologiques (NER, NMT, DTW).
Jusqu'à présent 600 éloges sur Twitter.
URL de l'article:
L'évaluation est très élevé! un de la plus novateur profond apprentissage papiers!
Bienvenue à tous à lire!
2. WaveRNN, PARALLÈLES WaveNet
À propos de deux documents de DeepMind Synthèse vocale !
WaveRNN : Http://arxiv.org/abs/1802.08435
parallèle WaveNet : Http://arxiv.org/abs/1711.10433
WaveNet avait la réputation d'exceptionnelle, des milliers de fois plus rapide que l'original, la voix plus naturelle, a été utilisé dans les produits propres de Google dans l'assistant Google -
3. GAN analyse des performances
De l'équipe Goodfellow Google cerveau, Est-ce générateur de conditionnement liés à GAN Causalement Performance trouver 1. Spectre de :? G in / out jacobienne prédit Inception Note 2. Intervenir au spectre du changement affecte marque beaucoup.
Documents lien: https: //t.co/cXQDEE2Uee
4. Analyse d'optimisation Méthode Adam
Adam disséquant: Le Signe, Magnitude et la variance de Stochastic Dégradés
Adresse Papers: https: //arxiv.org/abs/1705.07774
Le convertisseur d'image
Adresse Papers: https: //arxiv.org/abs/1802.05751
Autres documents Liste:
Documents Adresse:
Quadrature bayésienne pour plusieurs Intégrales connexes
https://arxiv.org/abs/1801.04153
Points Stein
https://arxiv.org/abs/1803.10161
Apprentissage actif avec des données enregistrées
https://arxiv.org/abs/1802.09069
L'analyse de la Robustesse des voisins les plus proches accusatoires Exemples
https://arxiv.org/abs/1706.03922
Hiérarchique imitation et l'apprentissage par renforcement
https://arxiv.org/abs/1803.00590
Analyse des Minimax Taux d'erreur pour Crowdsourcing et son application à des travailleurs Clustering Modèle
https://arxiv.org/abs/1802.04551
Détection et correction des étiquettes décalage avec Black Box Prédicteurs
https://arxiv.org/abs/1802.03916
Oui, mais at-il fonctionné: L'évaluation Variational Inference
https://arxiv.org/abs/1802.02538
MAGAN: Harmoniser biologique Collecteurs
https://arxiv.org/abs/1803.00385
Est-ce que l'apprentissage distributionnellement robuste classificateurs robuste Donne supervisé?
https://arxiv.org/abs/1611.02041
Transfert des connaissances avec jacobienne Matching
https://arxiv.org/abs/1803.00443
Kronecker récurrente Unités
https://arxiv.org/abs/1705.10142
Entropy-SGD optimise l'avant d'un PAC-Bayes lié: Propriétés Généralisation des Entropy-SGD et a priori les données dépendantes
https://arxiv.org/abs/1712.09376
Le collecteur Assomption et Défenses contre accusatoires Perturbations
https://arxiv.org/abs/1711.08001
Surmonter l'oubli catastrophique avec une attention difficile à la tâche
https://arxiv.org/abs/1801.01423
Sur les chances et risques de Nesting Monte Carlo Estimateurs
https://arxiv.org/abs/1709.06181
Variational sont Bounds plus serré pas nécessairement meilleur
https://arxiv.org/abs/1802.04537
Lavan: accusatoire Localisée et Visible Noise
https://arxiv.org/abs/1801.02608
De Automata récurrentes Extraction Neural Networks utilisation de requêtes et contre-
https://arxiv.org/abs/1711.09576
Géométrie Score: Méthode de comparaison générative accusatoire Networks
https://arxiv.org/abs/1802.02664
(Cet article est reproduit avec la permission de l'expertise, ID: Quan_Zhuanzhi)
[] Joignez-vous à la communauté
Ji-won nouvelles technologies AI + industrie du recrutement communautaire, a accueilli les étudiants + industrie de la technologie AI a atterri intérêt, plus Little Helper Micro Signal: aiera2015_3 Dans le groupe, si elle est approuvée seront invités dans le groupe, assurez-vous de modifier les commentaires après avoir rejoint un groupe communautaire (Nom - Société - emploi, groupe professionnel d'examen plus rigoureux, s'il vous plaît comprendre).