Goodfellow dernier échantillon de confrontation, les humains ne peuvent pas même dire un chien est un chat

Lei Feng réseau par AI Technology Review: des modèles d'apprentissage machine sensibles contre l'échantillon, c'est rien de nouveau. Ici, je crois que nous ne sommes pas peu familiers au portrait, le tableau suivant (Goodfellow et al, 2014):

Goodfellow Avec cette image laissez-nous savoir que même de petits changements dans l'échantillon peuvent être trompeuses modèle d'apprentissage, de sorte que le modèle jugement diamétralement opposé. Ce travail parle de la vulnérabilité actuelle du système AI.

Lei Feng réseau a noté que la récente Goodfellow, qui dans la construction de tour sur la « tromperie », non seulement pour tromper la machine, l'homme même ont été trompés.

Comme indiqué ci-dessus, sera laissé le modèle de la machine et le jugement humain est le chat, tandis que le côté droit est un chien, même si vous regardez attentivement, vous pouvez aussi venir à la même conclusion. En fait, juste l'image de droite à gauche l'image d'une simple perturbation de la confrontation. travaux connexes publiés dans « Exemples accusatoire qui Fool humaines et vision par ordinateur ».

sens

L'importance de cet article est de soi. Tels que les résumés, il a dit: « les modèles d'apprentissage machine vulnérable à l'échantillon contre lequel nous avons été très clairs, si les humains ont la même faiblesse est une question ouverte; L'article présente le premier échantillon de confrontation peut tromper l'homme. "

Le document a également dit d'affecter son étude de sécurité de l'apprentissage de la machine. Considérée du point de vue de la sécurité de l'apprentissage machine, si nous savons que le cerveau humain peut lutter contre certains types d'échantillons, Cela montre qu'un mécanisme similaire existe dans l'apprentissage de la machine, la sécurité, la confiance et cela fournit des indices pour nous de les trouver , À l'inverse, si l'on sait qu'il peut nous tromper sur un échantillon du cerveau, alors il nous dit que le centre de gravité de la machine ne doit pas être un apprentissage sûr comment concevoir le modèle de recherche d'une robustesse très élevée, L'étude devrait être comment faire en sorte que même si le système contient des composants ML non robustes, est toujours en sécurité.

D'autre part, si vous avez également un impact sur les échantillons du cerveau humain pour la lutte contre le développement de la vision par ordinateur, ce qui nous donnera comprendre le mécanisme de travail du cerveau humain fournit quelques indices.

La meilleure façon

Après Goodfellow et al. (2014) l'article, de nombreux algorithmes de vision par ordinateur populaires ont été construits contre l'émergence d'un échantillon, nous dépendons d'une architecture commune et les paramètres du modèle afin d'optimiser le gradient de l'entrée de ces algorithmes. Cependant, nous ne pouvons pas sembler obtenir ce modèle de cerveau « architecture » et « paramètres. » Alors, comment pouvons-nous construire pour l'échantillon contre l'humanité ne?

Cette nécessité d'envisager un phénomène plus intéressant - généralement contre l'échantillon peut migrer entre les modèles, c'est, nous ne pouvons pas savoir quel modèle d'attaquer son « architecture » et « paramètres » par le processus de migration. Cela permet à la construction de l'échantillon contre l'humanité.

Bien sûr, les choses ne sont pas si simples. En tant qu'êtres humains, nous avons beaucoup de biais cognitif ou illusion visuelle, mais l'illusion est pas la même chose ces écarts ou étude avant que les petites perturbations à l'image. De plus, nous pouvons optimiser contre les modèles d'apprentissage machine échantillon à travers la perte de la fonction, mais pour l'homme, cette approche est clairement inefficace (ou demande beaucoup de main-d'uvre). Jusqu'à présent, nous ne voyons pas une migration de la recherche dans le domaine des échantillons de confrontation utilisés dans la perception visuelle humaine.

L'auteur de cet article est de répondre à ces questions, en prenant trois idées clés pour résoudre:

  • L'un des auteurs de l'utilisation récente de la technologie de boîte noire pour construire l'échantillon par rapport à un modèle cible (ne pas besoin de connaître la structure et les paramètres du modèle) pour créer un échantillon de confrontation;

  • Bis, auteur de modèles d'apprentissage de la machine a fait quelques ajustements mimétique processus de pré-visualisation humaine, qui est de rendre le modèle plus humain, pour le rendre plus facile de passer du modèle d'apprentissage modèle de confrontation à l'homme;

  • Ter, en raison de la précision humaine dans la tâche de classification est trop élevée, de petits changements dans la performance expérimentale peut atteindre l'effet peut être observé. Ainsi, lors de l'évaluation de la décision de classification d'un observateur humain, les restrictions qu'ils doivent prendre une décision dans un certain laps de temps, de sorte que l'impact de l'échantillon par rapport à une personne à détecter plus probable.

Prenez trois, Goodfellow, qui peuvent en même temps construire un modèle d'apprentissage de la machine et spoof confrontation des échantillons humains.

modèle

La construction du k (k = 10) e modèle formé sur la CNN IMAGEnet, chaque modèle est l'un des exemples suivants de ces architectures (Szegedy et al, 2015, 2016, He et al, 2016 ..):

Inception V3, V4 création, création ResNet V2

ResNet V250, ResNet V2101, ResNet V2152

Des idées telles que les deux ci-dessus, pour chaque modèle d'une couche d'avant-rétinienne entrée, laquelle couche contient la transformation visuelle de la rétine humaine, même, également de l'excentrique ajouté flou en fonction de la couche rétinienne , plus en ligne avec la rétine humaine par une grille (note: la rétine humaine est emballé à forte densité) à l'entrée du mécanisme.

résultats

Revenons au début de cette image. Je dois dire, c'est un exemple très représentatif, même si nous pensons alors Duokanjibian encore cette image à droite est un chien.

En dessous de ce qui est plus le résultat de:

Un haut de gauche à droite, le nombre de différent attaque (1,5,10) contre une génération de modèle de l'échantillon, suivi par classification en utilisant le modèle d'essai deux (où un modèle d'un être humain). Le modèle le plus objectif peut être vu dans le nombre d'attaques, l'image de l'homme est plus comme un chien.

Ce qui suit est un exemple de l'attaque contre le modèle généré 10 pour les différents niveaux d'attaque de gauche à droite. Dans cet article, il a dit dans un 8 = EPS, des sujets humains ont pensé qu'il était un chien.

P.S. Mais pourquoi sensation réseau Lei Feng comme uvre d'art est le chien? & # 128514;

« Asura » Xinhua a publié la première vague de tests d'effets visuels imagination subversive réputation invincible
Précédent
"Command & Conquer 3" "Red Alert 3" pour rejoindre Xbox rétrocompatibles
Prochain
Leader Place de la Révolution des arts visuels, appareil photo Fuji Instax nouvelle apparence Mordor
Le nouveau YEEZY venir bientôt? grand sous-vêtements « secret Victoria » spectacle aura lieu à Shanghai! | Chao Wen fast food
Interview | Qui, « Je ne suis pas un dieu de la médecine » dans le « cheveux jaunes » Oui? Il est un acteur Zhang Yu
Amnesty International et le Maroc grâce à la cérémonie de clôture de forte vélo Jeux olympiques d'hiver de Pyeongchang partagé Beijing insert huit minutes
Dong Mingzhu: Je suis un entrepreneur chinois, j'étais « entrepreneurs Chi-fait gagner » approbation
IDC: 2018 la croissance du marché Année magasin essentiellement une conclusion d'avance, comme le plus grand pilote de tous les flash
8K a annoncé une nouvelle ère frappé VESA DisplayPort affichage standard
piscine mur | Je manque déjà la piscine d'été bleu ......
scandale Wells Fargo se répète en Chine?
Dialogue Velodyne LIDAR Président: haute résolution, la détection à longue distance et radar laser caché est le produit clé atterrissage
Grande ville animée, Rongchang Nouvel An Temple Fair « fête » d'épaisseur!
Qin Shuo: Out of Time "la vérité", ce que la Chine a besoin de penser? | Grand champ de vision