Temple Yun dans le fond de la non concave
Qubit produit | Numéro public QbitAI
Ce matin, NIPS 2017 a commencé Jiebang.
Comme le domaine de la rencontre de premier plan d'apprentissage machine, NIPS 2017 a reçu un total de 3240 Soumission du papier, sans surprise, ce chiffre a atteint un nouveau sommet. 678 documents ont été choisis comme les documents de la conférence, la proportion de 20,9%.
Dont 40 ont été sélectionnées pour un rapport oral (oral), 112 projecteurs sur Pian élu affichage.
NIPS 2017 reçoit la notification par courrier électronique sélectionné de chercheurs, doivent commencer avec le monde extérieur ne peut pas attendre pour partager cette joie. Ou vous pouvez dire: " Providence NIPS aussi, il y a des délicieux, la haine kai oublier, le vin Lin Feng, qui portent sur leur rayonnement. "
Bien sûr il y a des regrets rejetaient, comme qubits cette scène sur le microblogging voir: former un contraste de deux mondes différents.
Un grand nombre des finalistes dans la célébration, il est également livré avec lien arXiv.
Quoi? Il a été publié dans arXiv? Vraiment?
Oui, il n'a pas d'importance. NIPS 2017 nécessite du papier soumis n'est pas déjà publique / accepté pour publication, ou faire livrer à d'autres réunions / revues. Mais publié à l'avance pour permettre arXiv.org.
Bien entendu, il y a beaucoup de gens ne l'aimaient pas, donc ils ont choisi les documents seront rendus publics plus tard.
Maintenant, à la fin ce qui a été des documents présélectionnés peuvent être vus? Qubit statistiques manuelles sur la situation actuelle, les données de la micro-blog, Twitter, reddit et d'autres sources publiques.
oral
Sûr et Nested La résolution de Imperfect sous-jeu-information Jeux
Dans un rapport oral pour montrer les papiers acceptés NIPS 2017, nous avons trouvé un papiers « étoiles ». Noam Brown et doctorants du professeur Tuomas Sandholm Carnegie Mellon University.
Rappelez-vous le début AI secouait Poker Texas il? Qubit Mars CMU est encore une interview exclusive avec les deux chercheurs. Ce document est le résumé de leurs derniers résultats de recherche.
INTRODUCTION: problème de jeu d'information imparfaite, bien qu'il ne soit pas résolu par le démantèlement d'un sous-jeu, mais le jeu peut être des solutions approximée par disjoints ou améliorer les solutions existantes.
Documents Adresse:
https://arxiv.org/pdf/1705.02955
Vers l'objectif piloté par les modèles de réseau de neurones pour le Rongeur Moustaches-trijumeau système
Ceci est un autre aspect des documents amusants. Le premier auteur de Stanford doctorat Chengxu Zhuang (Zhuangcheng Xu), d'autres auteurs du MIT, de la Northwestern University et Stanford.
INTRODUCTION: dans une large mesure, les rongeurs (souris ou quelque chose) par la barbe « voir » le monde. Dans cette étude, nous avons utilisé la profondeur du réseau de neurones du lecteur de destination pour la barbe - la modélisation du système nerveux trijumeau.
Tout d'abord, nous avons construit un modèle de mise en uvre de Biophysique de tableau de moustaches de souris. Ensuite, une barbe générer divers objets 3D balayé de grands ensembles de données, y compris une variété de postures, l'angle et la vitesse. Ensuite, nous avons formé DNN plusieurs architectures différentes pour résoudre ce jeu de données des tâches de reconnaissance de forme.
Enfin, nous avons démontré que la barbe - modèle DNN du système nerveux trijumeau digne d'une étude plus approfondie.
Documents Adresse:
https://arxiv.org/abs/1706.07555
TernGrad: ternaires Dégradés pour réduire la communication dans l'apprentissage en profondeur Distributed
Auteur du document sont des étudiants de doctorat Wei Wen, soutiennent l'Université Duke Professeur Chen et coll.
INTRODUCTION: Coûts élevés pour les paramètres de gradient de communication et de synchronisation de réseau, sont bien connus goulot d'étranglement de formation distribuée. Dans cette étude, nous proposons TernGrad: gradient ternaire distribué à accélérer l'apprentissage des données de profondeur en parallèle.
Documents Adresse:
https://arxiv.org/pdf/1705.07878
NIPS 2017 e-mail envoyé au professeur Chen
Apprentissage de transfert robuste et efficace avec la décision de Markov cachés-Paramètre Processus
Auteur du papier à trois de Harvard, l'un de l'Université Brown.
INTRODUCTION: C'est un nouveau programme, d'élévation du modèle gaussien processus de décision de Markov cachés (HIP-MDP) avant d'utiliser le remplacement basé sur un réseau de neurones bayésien. HIP-MDP nouveau cadre permettra d'élargir la gamme d'applications à champ plus complexe et dynamique de dimensions supérieures.
Documents Adresse:
https://arxiv.org/abs/1706.06544
De bout en bout Différentiable Proving
Les auteurs sont d'Oxford et University College London.
INTRODUCTION: Ceci est un théorème de bout en prouvant différentiel des symboles neuronal de calcul de vecteur à forte intensité basée sur le réseau représentent. , On utilise spécifiquement un symbole de noyau fonction de base radiale vecteur basé sur un calcul différentiel indique construit pour remplacer le symbole unifié (unification symbolique).
Documents Adresse:
Un temps linéaire du noyau Bonté-de-Fit Test
Les auteurs de l'University College London, Ecole Polytechnique de l'Université, Institut japonais des mathématiques statistiques.
INTRODUCTION: Nous présentons un nouveau test d'adaptation d'une qualité de l'ajustement. Nous avons démontré que le nouveau test a une plus grande efficacité relative que les tests du noyau précédent temps linéaire.
Documents Adresse:
https://arxiv.org/abs/1705.07673
Sur la théorie de prévision structuré avec des pertes Calibré Convex Surrogate
Les auteurs de l'Institut national français de l'information et de l'automatisation, l'Université de Montréal.
INTRODUCTION: Cet article présente de nouvelles perspectives sur une structure prévisible. Pour la mission est perdue, nous pouvons construire une optimisation convexe descente de gradient stochastique alternatif, et a prouvé que la soi-disant « fonction d'étalonnage » cercles serrés, remplacera l'excès de risque associé au risque réel.
Documents Adresse:
https://arxiv.org/abs/1703.02403
lumière
Vaincre Catastrophique Oublier par moment incrémental Matching
Auteur de l'Université nationale de Séoul et d'autres institutions de recherche.
INTRODUCTION: Afin de remédier à ce problème catastrophique oublier, nous proposons un cadre de réseau de neurones bayésien construit incrémental d'un moment (IMM).
Documents Adresse:
https://arxiv.org/abs/1703.08475
Quelques aspects oraux et de montrer Spotlight de papier, qubits trouver d'abord. Plus de contenu, nous réjouissons de l'unité d'annonce officielle. Ce qui suit Certains NIPS 2017 articles acceptés.
D'autres documents sélectionnés
Dynamic Safe Interruptibilité Décentralisé Multi-Agent apprentissage par renforcement
Distribué interruption de sécurité dynamique d'apprentissage de renforcement multi-agents
Documents Adresse:
https://arxiv.org/abs/1704.02882
Byzantin-Tolerant Apprentissage
apprentissage machine byzantine tolérant aux pannes
Documents Adresse:
https://arxiv.org/abs/1703.02757
Effet Deep causales Inference modèles Latent-variables
raisonnement effet causales et la profondeur des modèles variables latentes
Documents Adresse:
https://arxiv.org/abs/1705.08821
L'apprentissage de l'information hiérarchique flux récidivante Modules Neural
cycle d'apprentissage blocage nerveux flux d'informations hiérarchiques
Documents Adresse:
https://arxiv.org/pdf/1706.05744
SVCCA: Canonique vecteur Singulier corrélation analyse pour la compréhension et l'amélioration profonde
SVCCA: une meilleure compréhension de la profondeur et l'analyse des normes pertinentes des vecteurs singuliers
Documents Adresse:
https://arxiv.org/abs/1706.05806
Structuré bayésienne Élagage via Log-normale multiplicatif bruit
Par lognormal configuré couper le bruit multiplicatif bayésienne
Documents Adresse:
https://arxiv.org/abs/1705.07283
SafetyNets: Exécution des réseaux Vérifiable profonds Neural sur un nuage Untrusted
SafetyNets: dans le nuage ne peut pas faire confiance pour exécuter une profondeur fiable réseau de neurones
Documents Adresse:
https://arxiv.org/pdf/1706.10268
Travailler dur pour connaître les marges de votre voisin: perte d'apprentissage du descripteur local
Etudiez bien près du bord: perte d'apprentissage Local Descriptor
Documents Adresse:
https://arxiv.org/abs/1705.10872
Emergence de la langue avec les jeux multi-agents: Apprendre à communiquer avec des séquences de symboles
L'émergence du langage de jeu multi-agents: apprendre à communiquer avec la séquence de symboles
Documents Adresse:
https://arxiv.org/abs/1705.11192
Optimisation bayésienne pratique pour ajuster le modèle avec Adaptive Bayes Recherche directe
Bayésienne modèle adaptatif de recherche directe adapter l'optimisation bayésienne réelle
Documents Adresse:
https://arxiv.org/abs/1705.04405
GitHub Adresse:
https://github.com/lacerbi/bads
Sur Tensor train Rang Minimisation: Efficacité statistique et évolutive algorithme
Évaluation Tensor train minimisés: l'efficacité de l'algorithme statistique et évolutivité
Documents Adresse:
https://arxiv.org/abs/1708.00132
PixelGAN Autoencoders
PixelGAN Autocoder
Documents Adresse:
Eh bien, tout d'abord ici. Enfin, encore Félicitations.
Et, s'il y a plus de choses à dire sur ce NIPS 2017, que ce soit pour parler du papier, envoyer des pensées, faire le résumé, sont invités à contacter qubit ~
- FIN -
recrutement sincère
Qubits recrutent éditeur / journaliste, basé à Zhongguancun de Beijing. Nous attendons de talent, des étudiants enthousiastes de nous rejoindre! Détails, s'il vous plaît interface de dialogue qubit numéro public (QbitAI), réponse mot "recrutement".
qubit QbitAI
' « suivre les nouvelles technologies AI dynamiques et de produits