Livre d'aujourd'hui | médicale étude approfondie d'image, l'apprentissage de yuans de renforcement, la profondeur de compression sans perte des réseaux de neurones, etc.

Pour vous aider à apprendre mieux jeune recherche universitaire et la technologie de pointe, AI Technology Review Document conjoint Yanxishe (paper.yanxishe .com ), Aujourd'hui le lancement lourd [papier] partie, à la fois pour la référence académique pour vous tous les jours, vous apprendrez au sujet de la sélection de pointe intelligence artificielle. Ce qui suit est une sélection d'aujourd'hui contenu -

annuaire

  • Une perte-fonction pour la machine-causales Learnin

  • Apprentissage Meta Renforcement avec Inference autonome de Subtask Dependencie

  • Les réseaux de neurones large avec goulots sont profondes processe gaussienne

  • DAWSON: Un domaine Adaptive Peu Prise de vue en génération Framewor

  • Segmentation multi-organes sur partiellement Labellisé datasets avec fonction multi-échelle abstractio

  • Apprentissage en profondeur dans l'enregistrement des images médicales: Un Revie

  • Rapide et profond apprentissage neuromorphic avec le temps à la première pointe Codin

  • Mettre fin à la fin de l'entité nommée reconnaissance et relation Extraction en utilisant la langue pré-formation Modèle

  • Debiased Apprentissage Localisée: Estimation efficace des effets quantile traitement, conditionnelle Valeur à risque, et au-delà

Fonction perte de cause à effet Apprentissage

Titre de la thèse: Une perte-fonction pour l'apprentissage machine causales

Auteur: Yang I-Sheng

Publié: 02/01/2020

Documents lien: https: //paper.yanxishe .com / Revue / 8168

Raison recommandée: l'apprentissage machine et causales prédire l'effet net du traitement (réel ascenseur) liés. Compte tenu des données au groupe de traitement et le groupe témoin, qui est similaire aux problèmes d'apprentissage standards supervisés. Malheureusement, en raison du manque de données, point par point la valeur réelle, et donc il n'y a pas de définition claire d'une perte similaire de la fonction. En raison de ce manque de perte de fonction, de nombreuses avancées modernes dans l'apprentissage de la machine ne peuvent pas être appliquées directement.

Les auteurs proposent un nouveau procédé fonction de perte définie dans ce cas, qui est égale à la régression standard erreur quadratique moyenne (MSE). La fonction de perte est universellement applicable, fournissant ainsi une norme commune pour évaluer la qualité d'un modèle / stratégie ascenseur réelle prévisible. Nous démontrons que, en dépit de la nouvelle définition, mais peut encore réaliser une perte directe de cette descente de gradient de fonction pour trouver le meilleur ajustement. Cela a conduit à une nouvelle approche de formation pour répondre à tous les paramètres du modèle d'apprentissage machine de cause à effet (tels que les réseaux de neurones de profondeur) sans passer par une des stratégies basées sur le dollar apprenant.

A conclu que les sous-tâches indépendantes dépendances apprentissage de renforcement de yuans

Titre de la thèse: Apprentissage Meta Renforcement avec Inference autonome de dépendances Subtask

Auteur: Sohn Sungryull / Woo Hyunjae / Choi Jongwook / Lee Honglak

Publié: 01/01/2020

Documents lien: https: //paper.yanxishe .com / Revue / 8167

Raison recommandée: l'auteur propose un roman et résoudre les problèmes style instantané RL, les tâches à sous-tâches caractéristiques photographiées, ce graphe de tâches sous-agence représente un groupe d'inconnus et sous-tâches de leur relation. Agissant nécessité d'adapter rapidement à la tâche dans plusieurs épisodes de la phase d'adaptation, afin de maximiser les avantages de la phase de test. Les auteurs n'ont pas étudié directement méta-politique, mais a développé un apprenant méta avec les sous-tâches Figure raisonnement (MSGI), qui interagissent avec l'environnement par les paramètres potentiels pour déduire la tâche, et maximiser le potentiel de rendement dans le cas d'un paramètre donné.

Afin de promouvoir l'apprentissage, les auteurs ont utilisé la récompense inhérente, la récompense a été inspirée d'encourager l'exploration efficace de la limite supérieure de la confiance (UCB) de. Les résultats expérimentaux sur deux des domaines de la grille et mondiale de l'environnement StarCraft II montrent que par rapport à l'élément en couches classique RL et RL, la méthode peut déduire avec précision les paramètres de travail potentiels, peuvent être plus efficacement et adaptativement .

Broad goulot d'étranglement de réseau neuronal est un processus gaussien

Titre de la thèse: Large Neural Networks sont des processus avec goulots profonde gaussiennes

Auteur: Agrawal Devanshu / Papamarkou Theodore / Hinkle Jacob

Publié: 03/01/2020

lien Documents:

https: //paper.yanxishe .com / Revue / 8169

Raison recommandée: Récemment, beaucoup de travail dans la « grâce » des réseaux de neurones sur lesquels le réseau de neurones bayésien (BNN) est affiché à converger vers un processus gaussien (GP), à cause de toutes les couches cachées sont envoyées à l'infiniment grand. Cependant, ces résultats ne sont pas applicables à une ou plusieurs couches cachées nécessaires pour maintenir l'architecture étroite.

Dans cet article, les auteurs considèrent que les limitations de bande passante BNN, dans laquelle une partie de la couche cachée (appelée « goulot d'étranglement ») à une largeur finie maintenue. Le résultat est une combinaison de GP, les auteurs appellent « goulot d'étranglement du réseau de neurones processus gaussien » (goulot d'étranglement NNGP). Bien intuitive, mais la preuve de subtilité qui montrent que vaste réseau de restrictions est en fait composé de GP restrictive. Les auteurs ont également analysé théoriquement simple NNGP de goulot d'étranglement, a constaté que le goulot d'étranglement causée par la dépendance entre la sortie du réseau multi-sorties, la profondeur de sortie persiste après les goulots d'étranglement sans fin et empêche la perte de discrimination de réseau central dans le goulot d'étranglement infini profondeur.

DAWSON: Adaptive générer une petite quantité de la monture de lentille

Titre de la thèse: DAWSON: Un cadre de domaine Adaptive Peu Prise de vue en génération

Auteur: Liang Wei xi n / Liu Zixuan / Liu Can

Publié: 02/01/2020

lien Documents:

https: //paper.yanxishe .com / Revue / 8 170

Raison recommandée: pour générer à partir de zéro contre le réseau pour la nouvelle formation de domaine (GAN) nécessite beaucoup de données de formation et quelques jours de temps de formation. A cette fin, l'auteur propose DAWSON, qui est un cadre de génération FewShot adaptatif basé sur l'apprentissage de yuans champ GAN. Application Metalearning défi majeur GAN, en raison de la nature de GAN est pas possible d'obtenir le générateur de gradient par son évaluation sur l'ensemble du développement.

Pour relever ce défi, les auteurs ont proposé un programme de formation GAN alternative qui combine programme de formation naturelle en deux étapes GAN programme de formation en deux étapes et de l'algorithme méta-apprentissage. DAWSON est un cadre de plug and play qui prend en charge un large éventail de séries et de l'algorithme de méta-apprentissage a une variété de variables d'architecture GAN. Sur la base de DAWSON, l'auteur est également proposé ce MUSIC MATINÉE, le premier coup un peu de modèle de génération de musique.

Les expériences de l'auteur montrent, MUSIC MATINEE peut être utilisé que des dizaines de chansons dans le domaine cible s'adapter rapidement au nouveau domaine. Il montre que, DAWSON peut apprendre à générer de nouvelles ensemble de données numériques par MNIST quatre échantillons. Auteur et publié en PyTorch DAWSON tensorflow dans le code source pour obtenir, générer un échantillon de deux écoles de musique et de la foudre vidéo.

Multiple échelle d'organe comporte ayant une pluralité d'ensemble de données abstrait parties divisées sont désignées

Titre de la thèse: Segmentation multi-organes datasets sur partiellement étiquetée avec multi-échelle Feature Abstraction

Auteur: Fang Xi  / Yan Pingkun

Publié: 01/01/2020

lien Documents:

https: //paper.yanxishe .com / Revue / 8 171

Raison recommandée: Ce document présente une stratégie de formation unifiée que le nouveau multi-échelle en profondeur du réseau de neurones peut être formé sur plusieurs parties des ensembles de données multiples à la segmentation marque d'organes. Multiscale informations contextuelles divisé est valable pour les balises de niveau de pixel à savoir l'image de prédiction. Cependant, les informations critiques seulement en partie par un procédé classique.

Dans cet article, les auteurs proposent une nouvelle architecture de réseau pour une des caractéristiques multi-échelle abstraite, l'architecture sera intégrée dans l'analyse des caractéristiques du modèle de segmentation d'image de la pyramide. Pour combler l'écart sémantique incorporé directement provoquée par les caractéristiques des échelles différentes, la profondeur de convolution du mécanisme proposé égales. En outre, les auteurs ont mis en place un mécanisme de suivi en profondeur pour affiner la sortie d'échelle différente. Pour tirer pleinement parti des proportions différentes des segments fonctionnels, la conception d'une couche d'adaptation pondérée, dans une sortie de fusion de manière automatisée. Toutes ces fonctionnalités ensemble pour intégrer le réseau pyramidal de sortie de la pyramide entrée, pour l'extraction de caractéristiques efficace. Last but not least est que la formation afin de réduire la profondeur du modèle de segmentation de la faim complètement les données d'annotation, nous proposons une stratégie de formation unifiée pour former sur des parties des marques de jeu de données, un modèle de segmentation, multiple nouvelle cible d'organes pour la perte de segmentation adaptative. On a évalué les méthodes de l'auteur, mentionnons les suivants BTCV, LITS, KITS et Spleen, dont quatre ensembles de données accessibles au public, qui ont fait une performance très impressionnante. Le travail du partage de code open source sur l'URL ci-dessous pour les autres facilement copier le travail et construire leur propre modèle à utiliser les mécanismes mis en place.

Microsoft l'Université de Pékin conjointement greffe de visage AI et détecteur de faux visage, l'interprétation de la version de la réalité de la « lance et le bouclier »?
Précédent
la taille du modèle, « cut » de quoi?
Prochain
Inscription | Université Tsinghua - Académie des connaissances d'ingénierie en Chine Centre commun de recherche intelligente conférence annuelle 2000 AI et AI TIME10
Livre d'aujourd'hui | BERT la rationalisation, l'échange du visage, nuage de points en trois dimensions, DeepFakes et 5G, etc.
Reproduction vidéo difficile à comprendre? champion détaillé FAIR algorithmes PySlowFast open source
AAAI 2020 | Université de Nanjing: l'utilisation du mécanisme à long d'attention pour générer la traduction de la diversité
La présence de cent mille mislabeling IMAGEnet, vous savez?
Figure Dieu souvent des équations différentielles, comment jouer un rôle actif dans le domaine de la profondeur continue GNN?
Comment les plantes ont survécu à l'extinction massive de la période des organismes?
AAAI 2020 | indications fiducial multimodal formule multimodale automatique Abstracting
Top Papers, une condition sine qua non pour savoir comment devenir Shenbo?
Le plus avancé détecteur d'objets réellement éléphant « cécité »
"Haze"? Attendez, disons pense
2019 Quel environnement spatial événement de l'espace? Espace Shu appel