annuaire
Prévision multipiste
Pour couches VI-REID la reconnaissance croisée modalité piéton
3DMM modèle de visage: du passé au présent à l'avenir
Sur la base générative U-Net contre discriminateur réseau
L'exploration et de l'image en coupe en mode distillation des informations de description pour
Prévision multipiste
Titre: Le Jardin des sentiers qui bifurquent: vers l'avenir multi-Trajectoire Predictio
Auteur: Junwei Liang
Publié: 01/02/2020
Documents lien: https //Paper.yanxishe.com/review/13151 de = :? leiphonecolumn_paperreview0309
raison recommandée
Les implications pour la recherche:
prévision Trajectoire est un sujet brûlant dans le numéro actuel de la direction de la recherche en IA. Sur cette base, nous utilisons une variété de différents types de trajectoires a examiné comment prédire efficacement et avec précision la trajectoire probable de la distribution, contribuant ainsi à la recherche future et de l'application dans la prévision multi-objectifs.
innovations:
1, créer un monde réel basé sur nos données de piste ensembles de données de simulation 3D;
2, les auteurs proposent un nouveau modèle, appelé Multiverse, le modèle peut prédire avec précision pour multipiste.
Pour couches VI-REID la reconnaissance croisée modalité piéton
Nom de papier: Salut-CMD: HierarchicalCross-ModalityDisentanglementforVisible-infrarouge PersonRe-Identi fi cation
Auteur: Seokeon Choi
Publié: 01/02/2020
Documents lien: https //Paper.yanxishe.com/review/13150 de = :? leiphonecolumn_paperreview0309
raison recommandée
Les implications pour la recherche: par vidéo de nuit suivi de la reconnaissance des piétons intermodale est un moment difficile REID une direction, il a été inquiétude généralisée dans les milieux universitaires. Dans ce contexte, l'auteur propose une méthode de détection de piétons inter-modalité en couches (Salut-CMD). Pour mettre en oeuvre ce procédé, la mise en place du réseau et pour générer une gradation module d'apprentissage caractéristique d'image en préservant ID, une telle structure de réseau peut résoudre efficacement les piétons REID tâches à des positions différentes et les conditions d'éclairage.
L'innovation de l'article
1, présente une nouvelle espèce de VI-REID procédé d'identification intermodale piéton: Salut-CMD, par rapport au modèle classique de la méthode, le modèle ID-discriminative par la distinction entre l'image exclus ID visible et infrarouge de deux facteurs , ce qui réduit efficacement la différence entre modalités et modal.
2, en utilisant le réseau ID-PIG, les problèmes Évitez en raison de données insuffisantes de formation apporté.
3DMM modèle de visage: du passé au présent à l'avenir
Titre du papier: modèles 3D Face morphable - Passé, présent et futur
Auteur: Bernhard Egger / William A. P. Smith / Ayush Tewari / Stefanie Wuhrer / Michael Zollhoefer / Thabo Beeler / Florian Bernard / Timo Bolkart / Adam Kortylewski / Sami Romdhani / Christian Theobalt / Volker Blanz / Thomas Vetter
Publié: 03/09/2019
Documents lien: https: //paper.yanxishe.com/review/12956 de = leiphonecolumn_paperreview0309?
raison recommandée
L'article détaille 3DMM modèle de visage depuis 20 ans, depuis le développement jusqu'à présent proposé, est un très très bon article d'examen complet, les auteurs sont des universitaires de la pointe du champ.
Bien que vingt années ont été proposées, mais la construction et modèles 3DMM application, tels que la capture, la modélisation, la synthèse et analyse d'images et ainsi de suite, il y a encore de nombreux défis, est un sujet de recherche très actif, les critiques de l'article les dernières technologies dans ces domaines plus loin dans la perspective finale, nous avons fait un certain nombre de défis, une certaine orientation pour la recherche future, et mis en évidence quelques-unes des applications actuelles et futures.
Il est fortement recommandé aux étudiants soigneusement professionnels et les enseignants liés à l'étude est un article de revue les rares 3DMM modèle de visage.
Sur la base générative U-Net contre discriminateur réseau
Titre de la thèse: A base U-Net discriminateur pour génératives accusatoires Networks
Auteur: Edgar Schönfeld / Schiele Bernt / Khoreva Anna
Publié: 28/02/2020
Documents lien: https //Paper.yanxishe.com/review/12959 de = :? leiphonecolumn_paperreview0309
raison recommandée
Ce document est reçu CVPR 2020, propose une architecture basée sur la détermination de U-Net, tout en maintenant la cohérence globale de l'image composite, chaque pixel fournissant des commentaires détaillés au générateur. Dans chaque discriminateur de support de réponse des pixels, ce document propose un autre pixel de données CutMix à base d'amélioration par des techniques de régularisation de la cohérence des pixels afin d'encourager une plus grande attention discriminateur U-Net et la structure sémantique entre l'image réelle et la pseudo image changements, non seulement pour améliorer la formation des discriminateur U-net, mais aussi d'améliorer la qualité des échantillons obtenus. amélioration nouvelle discriminateur sur l'art antérieur dans la distribution normale et des indicateurs de qualité d'image, de sorte que le générateur peut être synthétisé avec une image, l'apparence et les changements structurels du niveau de détail et de garder le réalisme global et local. BigGAN par rapport au modèle de base, la méthode proposée sur FFHQ, CelebA COCO-ensemble de données pour les animaux et une moyenne de 2,7 points FID.
L'exploration et de l'image en coupe en mode distillation des informations de description pour
Titre de la thèse: L'exploration et Distillation transmodales Information pour l'image Sous-titrage
Auteur: Liu Fenglin / Ren Xuancheng / Liu Yuanxin / Lei Kai / Sun Xu
Publié: 28/02/2020
Documents lien: https //Paper.yanxishe.com/review/12958 de = :? leiphonecolumn_paperreview0309
raison recommandée
Pour résoudre cet article est de décrire l'image de la tâche.
Cet article soutient que l'image a besoin de comprendre la sémantique des informations de l'attention visuelle de l'attention et des informations d'intérêt pour une propriété de la région concernée. Attention, pour la capture efficace, ce document décrit la tâche d'explorer l'image du point de vue du mode interactif, les informations locales et de faire l'exploration mondiale et le processus de distillation, alors que la langue et le mode visuel d'explorer et d'extraire les informations d'origine. image de sous-titres à base de contexte de référence spatiale et la relation représentée par la région saillante dans le groupe global et la partie d'information d'attribut, une nouvelle méthode d'extraction, la zone d'extraction et de fines propriétés de grains de sélection de mot local. modèle d'attention proposé dans le présent document obtenu score de 129,3 Cidre évaluation des COCO hors ligne, en termes de précision, les paramètres vitesse et la quantité respecte un avantage.
Les auteurs équipe recrutée
Afin de mieux servir notre section jeunesse AI, AI Yanxishe officiellement lancé un nouveau « papiers » dans l'espoir que « point d'intérêt », comme une jeunesse étudiante papier de polymérisation AI, recommandé par des documents de tri, critiques interprètent le code à reproduire. Pour devenir l'apprentissage de pointe à la maison et à l'étranger pour discuter des résultats de recherche et a publié un lieu de rassemblement, mais aussi à l'excellente recherche plus largement répandue et reconnue.
Nous espérons que vous aimez les milieux universitaires, les auteurs peuvent se joindre à notre équipe.
Adhérez auteurs équipe, vous pouvez obtenir
1. Département de l'article avec votre nom, vous combattrez la plus brillante étoile académique
2. Les droits lucratifs
Interpoler 3.ai entreprises célèbres, le bien-être des billets Assemblée, souvenirs, etc., etc. exclusivité dans.
Joignez-vous à l'équipe des auteurs dont vous avez besoin:
1. Est-ce que vous aimez le papier recommandé à la majorité des Rotariens Yanxishe
2. Compose documents de lecture
Si vous êtes prêt à rejoindre AI Yanxishe équipe à temps partiel des auteurs du papier, vous pouvez ajouter la petite soeur de fonctionnement micro-canal (ID: julylihuaijiang), notes « partie de la thèse »
Lei Feng Lei Feng Lei réseau de réseau de réseau Feng