Le pire GAN est au-delà de Google! données d'annotation avec 90% de moins, mais la fraude d'effet plus réaliste

Réservez bouillie de châtaignes sèches à partir du bas de la non-Temple en retrait

rapports Qubit | Numéro public QbitAI

L'image de la génération actuelle est la plus réaliste au-delà BigGAN!

Tourné, est le cerveau Google et l'EPF de Zurich. Ils mettent en avant une nouvelle génération de GAN: S³GAN .

Ils ont produit des images étaient réelles à l'ennemi.

En dessous de ces deux papillons, qui ne vive plus?

Deux photographies de paysage, qui Zhang est plus réel?

Dilemme est normal, de toute façon, sont fausses. Selon mensonge ci-dessus, sont laissés de S³GAN, BigGAN par la main droite.

Ils ont aussi plus d'articles:

Quant à ce qui est S³GAN, a annoncé la fin de la réponse.

Difficile de rivaliser avec l'oeil nu, ils parlent avec des données. Exécuter un FID (Frechet Inception Distance) score, plus le score, cela signifie que ces photos se trouvent plus près de la connaissance humaine dans la vraie photo -

S³GAN est de 8,0 et 8,4 minutes BigGAN. Les nouveaux joueurs pour gagner un peu.

Vous vous souvenez peut BigGAN création, la fidélité d'image générée directement au niveau suivant, a tiré sur Twitter astuces appréciation?

Aujourd'hui, il est non seulement au-delà, et détendu Au-delà.

« Easy » Où est-il?

S³GAN obtenir ces bons résultats, seulement 10% des données étiquetées manuellement. Et BigGAN vétéran, les données de formation utilisés 100% par rapport à l'annotation manuelle.

Si vous passez 20% des données d'annotation, l'effet sera S³GAN un niveau plus élevé.

Marqué manque de données, GAN déjà contribué à accroître la capacité de production et d'élargir un des scénarios d'utilisation de goulot d'étranglement majeur. Aujourd'hui, le goulot d'étranglement a presque été brisée.

Maintenant S³GAN, après seulement la IMAGEnet d'expérience, est moins marqué la première étape dans les données de formation pour produire des images de haute fidélité avec la mise en uvre.

Ensuite, les auteurs veulent appliquer cette technologie à un « plus » et « plus diversifiée, » l'ensemble de données.

Pas tellement marque

Pourquoi l'image générée GAN de formation, il faut marquer une grande quantité de données?

Il générateur de GAN, l'assemblage de deux discriminateur.

Classificateurs de garder laquelle identifié fausse image, le générateur d'excitation sur l'image plus réaliste.

L'image de l'étiquette, est de donner au discriminateur de faire un jugement fondé. Par exemple, ce qui est vraiment un chat, un chien qui est vrai, il est vrai ...... Ceci est une vue fausse de Hambourg.

Cependant, pas marqué la quantité de données ne?

les chercheurs de Google et de l'EPF de Zurich, a décidé de former leur propre annotation d'image AI, à la consommation de discriminateur.

Vs auto-surveillance semi-supervisé

Laissez discriminateur propre image de l'étiquette, il y a deux façons.

premier Étant donné que la méthode de surveillance est d'ajouter un discriminateur extracteur de caractéristiques  (Feature Extractor), la véritable formation à partir des données non marquées à l'intérieur de leur caractérisation (représentation de fonction) a appris.

Faire le regroupement (clustering) pour la caractérisation et affecter le résultat du regroupement, à utiliser comme une étiquette.

La formation ici, utiliser la fonction de perte d'auto-surveillance.

deuxième méthodes semi-supervisé, un extracteur de caractéristique à faire, mais plus compliqué que sur un chemin un peu.

Dans un ensemble de formation Sous-ensemble de L'affaire a été marquée au large, sur la base des informations connues à l'apprentissage de caractériser, alors que la formation d'un classificateur linéaire  (Linear classificateur).

De cette façon, la croix-entropie de la fonction de perte sur la base de l'auto-surveillance, en plus d'une semi-supervisé (perte Entropie-Croisée).

extracteur fonction de pré-formation, vous pouvez prendre le train GAN. Cela a marqué une fraction du connu développer le GAN, appelé S²GAN .

Cependant, avant la formation n'est pas la seule façon.

Voulez-vous approche à deux volets, vous pouvez utiliser Co-formation  (Co-formation):

Discriminateur directement la caractérisation ci-dessus, la formation semi-supervisé un classificateur linéaire pour prédire l'image non annotée. Ce processus, GAN et de formation menées ensemble.

Donc, il y a une version S²GAN de synergie, appelé S²GAN-CO .

vague de mise à niveau

Ensuite, l'équipe veut aussi S²GAN devenir plus puissant, juste au-dessus de la stabilité formation GAN a pris la pensée.

Les chercheurs ont dit discriminateur il est un classificateur Eh bien, si ce classificateur amplification (augmentation), il peut être bon sur l'efficacité.

Donc, ils ont donné un classificateur supplémentaire des tâches de surveillance, il est de Amplification de rotation Grâce à l'ensemble de la formation (y compris vrai et faux Figure Figure), faire une prédiction.

Ensuite, cette étape, et en face du modèle semi-supervisé se combinent, la formation GAN devient plus stable, il y aura une version améliorée S³GAN :

Architecture née de BigGAN

Que ce soit S²GAN ou S³GAN, ont emprunté l'architecture réseau BigGAN supérieurs, les paramètres d'optimisation sont aussi super et prédécesseurs.

La différence est que cette étude n'a pas utilisé la régularisation orthogonale (Orthogonal Régularisation), ne pas utiliser les compétences tronquées (troncature).

Générateur BigGAN et un diagramme schématique d'un discriminateur

les données de formation établies IMAGEnet, dont 1,3 millions d'images de formation et 50000 images de test, images au total de 1.000 catégories.

Devenir l'ajustement de la taille de l'image est de 128 × 128 × 3, k% des échantillons choisis au hasard dans chaque catégorie, pour définir la section d'acquisition de données marqué méthode semi-supervisée utilisé.

Enfin, la formation dans Google TPU v3 base Pod 128.

Au-delà BigGAN

La comparaison des études de base est DeepMind de BigGAN, le détenteur actuel du record, le score FID 7.4 .

Cependant, ils sont eux-mêmes dans IMAGEnet BigGAN mis en uvre, est de 8,4 FID, 75 IS, et en tant que norme.

Dans ce tableau, S²GAN est une des méthodes pré-formation semi-supervisé. méthodes de formation semi-supervisée S²GAN-CO.

S³GAN, est couplé avec un S²GAN auto-supervisée linéaire classificateurs (l'ensemble de données d'amplification de crier après la rotation de ce classement).

En quoi, le meilleur est S³GAN, seulement 10% des données étiquetées manuellement, la marque 8.0 FID, IS score de 78,7, la performance a été meilleure que BigGAN.

. Si vous êtes intéressé par cette étude S'il vous plaît garder un bon portail:

papier:

Image haute fidélité génération Avec moins d'étiquettes

https://arxiv.org/abs/1903.02271

Le début de l'article pour montrer ces photos pour tricher, à venir parmi les papiers:

La première ligne est fonctionne BigGAN, la deuxième ligne est S³GAN nouvelle, vous l'avez deviné encore?

De plus, ils code source également ouvert pour tous les documents utilisés dans les expériences sur GitHub:

https://github.com/google/compare_gan

- complet  -

recrutement sincère

Qubits recrutent éditeur / journaliste, basé à Zhongguancun de Beijing. Nous attendons de talent, des étudiants enthousiastes de nous rejoindre! Détails, s'il vous plaît interface de dialogue qubit numéro public (QbitAI), réponse mot "recrutement".

qubit QbitAI · manchettes sur la signature de

' « suivre les nouvelles technologies AI dynamiques et de produits
Jeux Asiatiques deux sauvages ventre 10 jet de balles est un objectif de joie, mais aussi la première équipe de football nationale une constante
Précédent
Earth Rangers natation a tiré dessus? Le démenti officiel: false, jeu cottage frotter à la chaleur!
Prochain
Du Feng entretien a révélé des informations importantes, Weems ou bien fixé, mais la concurrence Bies Lima
Guy U23 a enregistré trois tranches froid lob pour La Revanche, la victoire asiatique avec deux têtes de balle dans la faille sortie 9, non 0
Disgrace jeté à l'étranger! plagiat publicité jeu intérieur même la ponctuation ne change pas, et être malheureux joueurs japonais
U23 nationale de football deux joueurs étoiles ont été méritantes, Toudingjiaoti pris note de deux lob de classe mondiale
Shenzhen, Guangdong et Liaoning guerre de vacances similaires, pourquoi plus controversée? Xinjiang toucher tôt ou mieux
Visitez le plus beau centre superordinateur du monde est une sorte d'expérience?
LOL: avion emballé! À la suite de la Mercedes, puis une grande coopération LPL! la publicité MLXG trop direct!
Une petite équipe pour jouer une grande équipe pour remporter la première Yayunnanzu du groupe
Xinjiang besoin de regarder les autres, le visage du Guangdong Derby beaucoup d'aspect, Du Feng, Shenzhen Marshal ou les gagnants de choc
Le jeu le plus gardes! BOGUE jouent également le jeu trop près appel, l'hôte d'expliquer quoi que ce soit d'autre à parler
puce AI AIIA a annoncé la première série de résultats d'analyse comparative
Le dernier classement de la FIFA publié: sommet français, Belgique 2, l'Allemagne a plongé 14