Wang Yi Sen Université de Tsinghua: techniques offensives et défensives contre l'Apprentissage

Moins de la scène, voir encore un rapport académique produits les plus secs!

Salut, Bonjour, tout le monde. Voici une colonne de rapport académique, Xiao Bian opération de lecture de base et temps d'exécution personnellement du temps qui sera, comme nous dédions le meilleur de la science et de documents de recherche sur la technologie, les rapports produits records de sécheresse pour les étudiants, et trouver des moyens d'obtenir de première main le PPT et la vidéo en direct - assez produits secs, assez frais! Homme de peu de mots dit, rapidement ici, l'espoir de la jeunesse exceptionnelle de ces jeunes chercheurs exceptionnels, des experts et des rapports académiques, vous permettant de lire les connaissances plus précieux dans son temps libre.

Intelligence artificielle Forum Aujourd'hui volumineux, produits durs, bien sûr, mais il y a la crème sèche de la culture. « AI a déclaré que le futur · Jeunesse Forum académique » Les séries de conférences parrainées par l'Université de l'Académie chinoise des sciences, Baidu technique de lecture complète de base de soutien que la coopération des médias. Les organisateurs pour les étudiants, co-organisé par l'Institut d'études supérieures Computing, le centre de réseau diplôme, les étudiants de l'intelligence artificielle, École des étudiants de génie chimique, École des étudiants des politiques et de la gestion publique, la microélectronique, l'Académie chinoise des sciences Institut de l'Université Union des étudiants. « AI a déclaré que le futur · Jeunesse Forum académique » sixième concert « machine learning » a eu lieu à l'Académie des Sciences de Chine 23 Juin, 2019 l'après-midi. Wang Yi Sen Université de Tsinghua pour vous apporter le rapport « accusatoire apprentissage automatique: Attaque et défense ».

Wang Yi Sen a obtenu son Ph.D.degree du Département des sciences informatiques et de la technologie à Qinghua. Il est alsoa chercheur invité à Georgia Tech (Etats-Unis) et l'Université de Melbourne (Australie) .Dr. Les recherches de Wang se concentrent principalement sur base d'arbres modèles (arbre de décision, RandomForests et GBDT), l'apprentissage en profondeur robuste avec des étiquettes bruyantes et l'apprentissage adversarialmachine. Il a publié plus de 20 meilleurs projets académiques dans ledomaine, y compris CCF a conférences (quasi a) ICML, CVPR, IJCAI, AAAI, IPSC, AUI, etc et revues IEEE transactions sur le réseau et les systèmes d'apprentissage Neural (TNNLS), etc. Il est aussi le gagnant de la bourse Baidu, Microsoft FellowshipNomination, bourse nationale, Meilleur doctorat Prix de thèse de l'Université Tsinghua.

Rapport de contenu: les réseaux de neurones profonds haveachieved grand succès dans un certain nombre de domaines, y compris la vision par ordinateur, la parole et le langage naturel traitement Cependant, des études récentes montrent que ces modelsare profondément vulnérables à des exemples contradictoires conçu en ajoutant de petites perturbations imperceptibleadversarial humaines à des exemples normaux .. ces raisessecurity de vulnérabilité des préoccupations au sujet de leur praticabilité dans applicationssuch sensibles à la sécurité comme la reconnaissance faciale et la conduite autonome dans ce discours, je vais donner anintroduction d'apprentissage d'usinage contradictoire de deux aspects :. attaque anddefense la première se concentre sur la façon de générer des exemples contradictoires aux modèles de attackdeep. et celui-ci se concentre sur la façon d'améliorer la robustesse des deepmodels à des exemples contradictoires.

Accusatoire apprentissage automatique: Attaque et défense

Le contenu principal Dr Wang Yi Sen a indiqué notamment: contre l'importance de l'apprentissage de la machine, contre l'étude de l'attaque (Attack) et de la défense (défense) l'introduction, la formation des combats dans l'évaluation des indicateurs de performance de convergence FOSC (première OrderStationary Condition) et la formation de combat dynamique algorithme, et un résumé des quatre parties.

recherche connexe, le Dr Wang Yi Sen première apprendre à se battre au cours des dernières années, l'apprentissage de la machine a été nommé haut bestpaper phénomène sera introduit dans les travaux connexes publiés dans ICML 2018, ICML2017 et KDD 2018 conférence, etc., se préoccuper de la question de la communauté universitaire .

Ensuite, présente les échantillons de confrontation à une image, par exemple, il est d'ajouter un petit échantillon de confrontation contre le bruit dans l'image originale à atteindre. Pour l'échantillon contre les systèmes de classification existants, systèmes de vision, et les questions et les réponses système pilote automatique d'un grand impact. S'il y a système d'échantillonnage de confrontation, elle est sujette à l'erreur, et de surveiller automatiquement la vidéo comme un exemple des échantillons de confrontation étaient vives explication. système d'apprentissage de la machine a été déployée à tous les aspects de la vie quotidienne, contre échantillon s'il y a, il est très dangereux, parce que certaines zones ne sont pas autorisés à aller mal, comme champ de conduite automatique et le champ de brosse de visage biométrique paiements quotidiens.

Puis, le Dr Wang Yi Sen a parlé de l'attaque (attaque) et de la défense (Défense), est de savoir comment générer une attaque contre l'échantillon, tandis que la défense est d'améliorer la robustesse contre l'échantillon. Il est comme un jeu, une meilleure attaque nécessite une meilleure défense, à son tour, peut inspirer une meilleure défense et une meilleure attaque. attaque commune, il y a deux, on est l'attaque boîte blanche (White-boxAttacks), l'autre est une boîte noire attaque (Attaques boîte noire). Où les paramètres de boîte blanche attaque et modèle de structure peuvent être obtenus, y compris les attaques communes boîte blanche attaques ciblées (TargetedAttack) et les attaques non ciblées (non ciblées d'attaque). attaque ciblée est classificateur trompeur de prévoir une catégorie particulière, et aucune cible fait référence à induire en erreur le classificateur de prédire quoi que ce soit qui n'est pas vraie catégorie de classe. algorithme commun d'attaque boîte blanche y compris les algorithmes FGM, BIM et PGD. attaque boîte noire ne peut pas obtenir les paramètres et les modèles structurels d'enquête d'attaque de boîte noire commune zéro attaque (Zero-queryattack) et basés sur une requête d'attaques (attaques à base de requêtes). D'une manière générale, la difficulté d'attaquer la boîte noire est supérieure à la difficulté d'attaque boîte blanche.

La méthode de défense de la confrontation peut être divisée en deux catégories, à savoir la détection (détection) et la prévention (prévention). Sur la base du procédé de détection comprend une combinaison de (Ensemble), normalisée (normalisation), la détection distribuée (Distributionaldetection), la détection PCA (PCA détection) et une classification secondaire (classification secondaire). Il prophylaxie à base contenant principalement aléatoire (stochastique), génération (générative), le processus de formation (TrainingProcess), Structure (Architecture), de recyclage (Retrain) et l'entrée prétraité (entrée de pré-traitement). Alors que l'approche défensive existante peut facilement être compromise puissants moyens d'attaque, mais il y a un algorithme de défense, il n'a pas été complètement cassé, qui est, la formation de combat (adversarialtraining).

la mise en valeur des données est une méthode de formation de combat de la nature, que l'utilisation de l'échantillon de formation de combat à une profondeur de réseau de neurones robuste. La résolution de ce procédé peut se résumer comme la procédure min-max, à savoir InnerMaximization et externe Minimisation deux étapes. maximisation intérieure pour générer l'échantillon contre la perte en maximisant une fonction de la classification, le processus est un problème d'optimisation sous contrainte, la première méthode de commande PGD (ProjectedGradient descente) donnera généralement une bonne méthode de solution. Minimisation externe pour une utilisation avec des échantillons étape interne Maximisation pour générer un modèle de formation solide, mais aussi par étape InnerMaximization est très grande.

Pour mesurer la performance de la convergence InnerMaximization, mais aussi d'introduire un premier ordre des conditions stationnaires FOSC, la condition d'une solution fermée, intérieur Maximisation représentant plus petite valeur d'une meilleure solution, ce qui équivaut à une meilleure performance de convergence contre l'échantillon. FOSC fournit une consistance comparable contre la méthode de mesure de l'intensité, en général, plus la valeur FOSC, plus la valeur de la précision du modèle, la valeur des pertes est élevée, plus l'intensité de l'attaque correspondante. De plus, peut refléter certaines FOSC propriétés contre le processus de formation. Norme de formation de combat dans les premières étapes de facile pour moi d'adapter contre la méthode de PGD pour générer échantillon fort, utiliser une faible attaque FGSM dans les premières étapes de la méthode peut améliorer la robustesse du modèle, et d'améliorer la robustesse de la distribution peut se refléter dans la FOSC sur.

Après l'introduction à FOSC, le Dr Wang Yi Sen a parlé des méthodes de formation de combat dynamique de sa propre équipe Recueilli. Par rapport à la méthode standard de formation de combat, la méthode présente de nombreux avantages: Vous pouvez contrôler la convergence dynamique InnerMaximization, et augmenter progressivement le modèle de convergence qui permettent de réduire progressivement la valeur de FOSC. Ensuite, expliquer le processus de prouver la convergence des méthodes et des résultats expérimentaux sur la base de données MNIST et CIFAR10. Les résultats sont visibles, la méthode de formation de combat dynamique en plus d'obtenir une meilleure performance défensive, mais aussi à la performance de la convergence reflète un contrôle FOSC plus précise, qui est plus ciblée dans toutes les phases de formation la distribution FOSC, il y a plus dispersés dans différentes FOSC étapes de la formation.

Enfin, le Dr Wang Yi Sen sur le contenu du rapport sont résumés dans trois domaines: Tout d'abord, contre l'apprentissage de la machine comme un domaine émergent causé par toute l'attention, il peut être reçu par la conférence de niveau haut sur l'apprentissage de ces dernières années ArXiv et machines le nombre d'articles sur le terrain pour voir, la seconde est la présence d'un grand nombre d'apprentissage de la machine contre les défis ouvertes, en attaque et la défense peut faire beaucoup de travail, tels que de nouvelles méthodes d'attaque et nouvelle méthode défensive qui est solide , les questions Troisièmement, la robustesse et la généralisation en plus des problèmes de sécurité. Plus de contenu passionnant s'il vous plaît faites attention au partage vidéo.

pouces Message attention

Ensemble, nous partageons l'apprentissage et le développement de l'IA sec

Amnesty International salue l'attention de la pendaison toute la plate-forme de la classe médiatique « lecture technique de base »

« Couronné » « Partager » GAGNANT 190623 Song Min-ho: Je suis dans les rues est de montrer
Précédent
Alipay nouvelles espèces de fourmis de la forêt de la ligne: plus beau que scoparium
Prochain
2019 Survey Software: champion Python, R a suivi avec RapidMiner
190,623 fleurs et les garçons de la version Chen Linong ntjj prêt pour une vague d'attentats à la bombe amis les photos
« Pseudo-occupé » « Ikon « 190623 de coexiste mignon et sexy » Nouvelles de, dégage un charme tout en dansant Ikon Jin Zhenhuan
codes détaillés: Principes et utilisation de l'environnement virtuel Python
190623 Chen Linong pour voir le look show garçon fraîchement vert sportif tempérament métamorphose
Ministère de la Division des opérations du marché et la promotion de la consommation de
OPPO série Reno ajout de nouveaux membres Barcelone personnalisés version du 26 Juillet officiellement en vente
La compréhension de surajustement et moins en forme, ces trois théories ne doivent pas être contournées
Ancienne Université sur la Chine Association site officiel en ligne remanié « badge »
« Apink « de maquillage » Nouvelles de 190623 aussi si beau bruit, comme si seulement 18 ans
Quoi? Les réseaux de neurones peuvent créer de nouvelles connaissances?
190623 petite note des internautes Zhang Yixing récente INS Partager les pouces dossier