Aujourd'hui Papier | association figure 4D; étude de caractérisation générale, élément de transfert d'apprentissage, génération de scène impartiale figure, etc.

annuaire

L'utilisation de plusieurs caméras à un mouvement de capture en mode multijoueur en temps réel Figure association 4D

amplification d'apprentissage: la profondeur du réseau d'adaptation de scène stéréoscopique généralisée à une nouvelle

visage général étude approfondie de la reconnaissance pour la caractérisation

Zéro dollars pour le transfert de la résolution super d'apprentissage

La figure, partial généré sur la base une formation de scènes impartiales

L'utilisation de plusieurs caméras à un mouvement de capture en mode multijoueur en temps réel Figure association 4D

Titre de la thèse: Association 4D Graph pour en temps réel multi-personne Motion Capture Utilisation de plusieurs caméras vidéo

Auteur: Zhang Yuxiang / An Liang / Yu Tao / Li Xiu / Li Kun / Liu Yebin

Publié: 28/02/2020

Documents lien: https //Paper.yanxishe.com/review/12957 de = :? leiphonecolumn_paperreview0306

raison recommandée

Ce document est reçu CVPR 2020, a proposé un nouvel algorithme mouvement multijoueur capture temps réel entrée vidéo multi-vue, pour la première fois à la résolution de vue, match de cross-vue et le suivi du temps intégré dans un cadre d'optimisation qui s'associé à un 4D la carte qui peuvent être traitées simultanément dans chaque dimension (espace image, l'heure et point de vue) de manière égale. 4D est efficace pour résoudre le graphe d'association, ce nouveau document proposé à résoudre sur la recherche heuristique faisceau membre 4D d'idées, puis ensemble combiné de membres en proposant l'algorithme de faisceau Kruskal. Ce nouvel algorithme peut utiliser cinq caméras sur cinq dans la scène, en cours d'exécution à 30fps en temps réel système de capture de mouvement. Le nouvel algorithme est non seulement robuste pour la détection de bruit, a également reçu un résultat de reconstruction d'attitude en ligne de haute qualité. Sans l'utilisation de l'apparence de l'information de pointe, le nouvel algorithme est mieux que les meilleures pratiques actuelles.

amplification d'apprentissage: la profondeur du réseau d'adaptation de scène stéréoscopique généralisée à une nouvelle

Titre de la thèse: Zoom and Learn: Généralisation de Deep Stereo Matching à de nouveaux domaines

Auteur: Pang Jiahao / Sun Wenxiu / Yang Chengxi / Ren Jimmy / Xiao Ruichao / Zeng Jin / Lin Liang

Publié: 18/03/2018

Documents lien: https //Paper.yanxishe.com/review/12831 de = :? leiphonecolumn_paperreview0306

raison recommandée

Cet article est le cur de la profondeur en trois dimensions d'avant-match de modèle de résolution des problèmes de formation sur des données synthétiques généralisation faible sur des données réelles. Les auteurs ont observé que les données synthétisées à partir du modèle d'entrée pré-formés après des données réelles d'amplification, le résultat sera plus raffiné que la taille originale de l'entrée. Ainsi, une telle carte de disparité élargie a obtenu des données réelles peuvent être surveillés comme parallaxe « true ». En outre, la référence de la technique de régularisation, carte de disparité obtenue retenue, permet d'éliminer efficacement le bruit et la distorsion sur le modèle composite des données de pré-formés générée carte de disparité et une plus lisse, des bords plus détaillées. Le document montre également les deux éléments clés de adaptatif de domaine: (1) les données réelles devraient avoir une supervision « tag factice » plus fiable; (2) nécessite une surface lisse et les contraintes de carte de parallaxe garder bord. Les documents inclus dans CVPR 2018.

visage général étude approfondie de la reconnaissance pour la caractérisation

Titre: Vers l'apprentissage Représentation universelle pour la reconnaissance profonde du visage

Auteur: Shi Yichun / Yu Xiang / Sohn Kihyuk / Chandraker Manmohan / Anil K. Jain

Publié: 26/02/2020

Documents lien: https //Paper.yanxishe.com/review/12830 de = :? leiphonecolumn_paperreview0306

raison recommandée

Ce document est reçu CVPR 2020, une caractérisation générale de la profondeur du cadre axé sur l'apprentissage pour la reconnaissance faciale qui peut gérer un grand changement dans l'ensemble de données de formation ne se trouve pas, sans utiliser la cible connaissance du domaine. Les nouvelles données de formation avec la première image significative changement sémantique (par exemple, une faible résolution, et la pose tête occlusion) synthétisés ensemble. Dans lequel le processus de formation sera divisée en une pluralité de sous enrobage enrobage et noyés dans différentes valeur de confiance associée à chaque enfant, afin de simplifier le processus de formation. La perte en changeant les pertes de classification et de régularisation antagonistes peuvent encore être incorporées dans le sous décorrélation. Les expériences montrent que le nouveau cadre sont les meilleures performances et Megaface LFW autres ensembles de données classiques de reconnaissance faciale, et à l'extrême, et le courant de référence TinyFace IJB-S, etc. sont nettement supérieurs à la méthode comparative.

Zéro dollars pour le transfert de la résolution super d'apprentissage

Titre de la thèse: l'apprentissage méta-transfert pour Super-Resolution-Shot Zéro

Auteur: Soh Jae Woong / Cho Sunwoo / Cho Nam Ik

Publié: 27/02/2020

Documents lien: https //Paper.yanxishe.com/review/12829 de = :? leiphonecolumn_paperreview0306

raison recommandée

Ce document est reçu CVPR 2020, il est considéré comme une super résolution zéro du problème.

Précédente méthode de résolution super zéro nécessite des milliers mise à jour gradient, le raisonnement de temps. Ce document présente un apprentissage de transfert d'élément de résolution super zéro. Sur la base des paramètres initiaux de Trouvées générale dans l'apprentissage, la méthode proposée peut utiliser des informations internes et externes, une mise à jour de gradient peut produire des résultats considérables, il est possible d'adapter rapidement aux conditions image donnée, et appliquée à un large éventail d'images.

La figure, partial généré sur la base une formation de scènes impartiales

Titre de la thèse: Impartiale Scene Graph Génération de formation Biased

Auteur: Tang Kaihua / Niu Yulei / Huang Jianqiang / Shi Jiaxin / Zhang Hanwang

Publié: 27/02/2020

Documents lien: https //Paper.yanxishe.com/review/12828 de = :? leiphonecolumn_paperreview0306

raison recommandée

Ce document est reçu CVPR 2020, pour résoudre le problème est une génération de graphe de scène.

la formation actuelle génération de scène graphique vulnérable à un problème de biais, comme la marche humaine sur la plage, assis, couché et d'autres divers types de comportement généralement divisé l'humanité sur la plage. Cet article propose un nouveau cadre basé sur la génération de graphe causal scène de raisonnement. Tout d'abord, d'établir un diagramme de cause à effet, puis utiliser les schémas de formation classique biaisé, puis viennent la causalité contrefactuel de la carte de formation, afin d'en déduire l'impact des pauvres et éliminer les préjugés. Des expériences sur l'ensemble de génération de scénario de référence du spectacle visuel du génome que la méthode proposée dans le présent document et la meilleure façon avant qu'il y ait une amélioration significative par rapport.

Les auteurs équipe recrutée

Afin de mieux servir notre section jeunesse AI, AI Yanxishe officiellement lancé un nouveau « papiers » dans l'espoir que « point d'intérêt », comme une jeunesse étudiante papier de polymérisation AI, recommandé par des documents de tri, critiques interprètent le code à reproduire. Pour devenir l'apprentissage de pointe à la maison et à l'étranger pour discuter des résultats de recherche et a publié un lieu de rassemblement, mais aussi à l'excellente recherche plus largement répandue et reconnue.

Nous espérons que vous aimez les milieux universitaires, les auteurs peuvent se joindre à notre équipe.

Adhérez auteurs équipe, vous pouvez obtenir

1. Département de l'article avec votre nom, vous combattrez la plus brillante étoile académique

2. Les droits lucratifs

Interpoler 3.ai entreprises célèbres, le bien-être des billets Assemblée, souvenirs, etc., etc. exclusivité dans.

Joignez-vous à l'équipe des auteurs dont vous avez besoin:

1. Est-ce que vous aimez le papier recommandé à la majorité des Rotariens Yanxishe

2. Compose documents de lecture

Si vous êtes prêt à rejoindre AI Yanxishe équipe à temps partiel des auteurs du papier, vous pouvez ajouter la petite soeur de fonctionnement micro-canal (ID: julylihuaijiang), notes « partie de la thèse »

Lei Feng Lei Feng Lei réseau de réseau de réseau Feng

Jinan sur la langue
Précédent
120000 bonus et former les célèbres entreprises, la Chine intelligence artificielle entrée du concours du compte à rebours de la PNL
Prochain
le plus grand ensemble de données d'image annotée de Google, ajouter narrative localisée
Transformation et « auto-assistance »: L'éducation des brigadiers et des institutions de formation à 60 millions de lignes
Ambarella dialogue semi-directeur général Italie, IEEE Fellow Alberto Professeur Broggi: ligne jumelles de vision stéréo avec pilote automatique avenir plus large
Central a donné le ton, « nouvelle infrastructure » feu complet! Les sept sciences et de la technologie à l'épidémie
communication quantique optique nouveau record du monde! Pan Jianwei, Wang équipe Xiangbin distribution de clé quantique base 509 km
Les prix des voitures a déclenché une technologie « boom sain », SAIC avec « UV profond » anti-virus se mouche?
Livre d'aujourd'hui | social-STGCNN, parlez visage génération vidéo, ingrédients de synthèse d'image, de super-résolution angle de champ optique, etc.
examen Accueil parents! proctor Jining Taibai Lac Campus Lycée huitième semaine test en ligne
Là yeux maculaires comment? Les plaques séniles poussent à faire face aux yeux encore?
sollicitation Cerf-volant se sentir au printemps - Weifang amateurs cerf-volant activité Glimpse
4 secondes, 80 kwh, 600 kilomètres, la voiture concept BMW libéré
Le nouveau virus a muté Département de la couronne de lecture erronée, S est en fait un sous-type de sous-type L « ancêtre »?