modèle linéaire peut expliquer une partie supérieure à DNN? scientifiques UCSD: faux!

Ji-won nouvelle compilation

Source: akshayagrawal.com, queue.acm.org

Auteur: Zachary C. Lipton, Akshey Agrawal

Compile: Daming

[New Ji-won EXAMEN Les gens ont vraiment fonctionner modèle de mécanisme d'apprentissage en profondeur est loin d'être complètement compris, comment améliorer les modèles prédictifs de « interprétabilité » est devenu un sujet de plus en plus importante. Un article récent a discuté du concept de modèle d'apprentissage de la machine « interprétabilité » et sa signification.

17 juillet Université de Californie, San Diego (UCSD) Ph.D., professeur adjoint (CMU) en informatique à l'Université Carnegie Mellon Zachary C. Lipton publié dans la file d'attente ACM intitulé « Les Mythos de modèle Interprétabilité » l'article traite un modèle de prévision des problèmes d'apprentissage machine surveillées. interprétabilité Lipton tente de définition claire dans le texte « interprétabilité » de et classification « interprétabilité », et fait un point important modèle linéaire ne peut pas nécessairement plus que le réseau de neurones explicatif de profondeur (le DNN) Modèle .

Ce qui suit est un recueil de nouveaux contenus papier Zhi Yuan.

modèles supervisés d'apprentissage de la machine ont une capacité supérieure prédictive. Cependant, les modèles d'apprentissage de la machine ne doivent pas seulement être disponibles et devraient être interprétable , Mais les « modèles d'apprentissage machine pour expliquer » la définition de la tâche semble assez claire. La littérature académique a fait un certain nombre de motifs pour le modèle cherché à trouver d'explication et offre une myriade de technologies pour fournir le modèle interprétable. En dépit de cette ambiguïté existe, mais de nombreux auteurs affirment que leur modèle sur l'axiome est explicable, mais cela est le manque de démonstration supplémentaire. Le problème est qu'il ne sait pas quelles sont les caractéristiques communes de ces technologies Oui.

Cet article vise à déclarations complètes concernant interprétabilité . Tout d'abord, l'article a rappelé les objectifs traités dans des documents antérieurs interprétabilité, a constaté que ces objectifs variés, et parfois contradictoires. Ensuite, nous discutons des idées et des propriétés modèle de recherche sur les technologies interprétabilité et identifier le modèle de transparence pour l'homme, et introduit le concept de « post-interprétabilité » à titre de comparaison. Cet article traite de la place de faisabilité et raisonnable sur les différentes perspectives de modèle de conception interprétabilité « modèle linéaire peut expliquer la profondeur du réseau de neurones est interprète pas » l'opinion commune a été remise en question.

Au cours des 20 dernières années, le développement rapide de l'apprentissage de la machine pour générer une décision automatique. Dans la pratique, la plupart des décisions fondées sur le mode de fonctionnement de l'apprentissage de la machine est la suivante: algorithme d'apprentissage en utilisant la machine de formation de données d'entrée, la sortie correspondante prédite par l'algorithme. Par exemple, étant donné un ensemble d'informations d'attribut sur les transactions financières, les algorithmes d'apprentissage automatique peuvent prédire le retour sur investissement à long terme. Une image donnée, la probabilité de l'algorithme à partir de l'image TDM de l'objet balayé peut souffrir d'une tumeur cancéreuse.

algorithmes d'apprentissage de la machine appariés reçoivent une grande quantité de données (entrée et sortie), et délivre alors un modèle peut prédire invisible entrée précédemment. Les chercheurs de ce mode est appelé « apprentissage supervisé ». Ensuite, pour rendre le processus décisionnel est entièrement automatisé, vous pouvez exporter le modèle pour fournir une certaine règles de décision. Par exemple, le filtre anti-spam peut être mis au rebut comme prédiction de spam (niveau de confiance dépasse une certaine valeur de seuil) par le programme de messagerie.

Quelle est l'intelligibilité, pourquoi est-il si important?

Actuellement, l'application de la machine d'apprentissage dans des domaines clés de la médecine, le système de justice pénale et plus largement les marchés financiers, Mais les humains ne peuvent pas vraiment comprendre ces modèles, telle est la question. Certains suggèrent que le modèle de « l'intelligibilité » comme un remède, mais dans la littérature académique, il y a peu d'auteurs clarifier avec précision le sens de « l'intelligibilité », ni expliquer exactement pourquoi leurs solutions proposées sont utile.

Malgré l'absence d'une définition, mais un nombre croissant de littérature propose algorithme prétendument interprétable. Ce point de vue, il semble que l'on peut tirer les conclusions suivantes: (1) soit les gens de définition interprétabilité est généralement acceptée, mais personne ne veut la peine de l'exprimer par écrit, ou est (2) sur la « interprétabilité » de la définition n'est pas claire, donc le modèle d'apprentissage automatique des vues scientifiques interprétabilité sont évidemment insuffisantes. L'étude des spectacles de la littérature que celle-ci correspond à la situation réelle. Objectifs et méthodes sur les modèles explicatifs proposés dans la littérature peuvent varier, ce qui suggère que l'intelligibilité est pas un concept unique, mais certains des très différents les uns des autres point de vue, il est nécessaire de séparer ces idées pour la discussion.

Cet article porte sur la discussion apprentissage supervisé, plutôt que de paradigmes d'apprentissage renforcent d'autres l'apprentissage de la machine et l'apprentissage interactif. En effet, le courant dans l'application pratique, la primauté d'apprentissage supervisé. En même temps, il donne un « modèle linéaire peut expliquer, mais DNN inexpliqués » analyser ce point de vue commun. Tout d'abord, il est clair ce qui est explicable? Explicables pourquoi il est si important?

Beaucoup affirment que, Interprétabilité du modèle est la façon de générer la confiance. Ce conduit à son tour à une autre question sur l'épistémologie: Quelle est la confiance? Fait référence au modèle est capable de montrer sa bonne foi? Ou « interprétabilité » signifie simplement que la compréhension à faible niveau du mécanisme du modèle? Avez-vous confiance est une définition subjective?

D'autres pensent que, modèle interprétable est souhaitable Parce qu'il peut aider à révéler la structure causale des données observées. En ce qui concerne l'interprétation juridique du concept fournit une autre perspective sur le terme interprétabilité. Dans certains cas, le but de chercher interprétabilité, probablement juste pour obtenir plus d'informations utiles à partir du modèle.

Cet article décrit les propriétés du modèle qui peut les rendre interprétable. Certains documents seront explicites et l'intelligibilité intelligibilité ou un équivalent, dans ces documents, il est entendu des modèles parfois appelés « transparents », et le modèle inintelligible est appelé boîte noire. Mais quelle transparence? Algorithme lui-même convergera il? Il a une solution unique? Est-ce que les gens comprennent ce que chaque paramètre représente? Ou considérer la complexité du modèle: si assez simple?

Autre contenu comprend le concept de « post-interprété » dans. Cette interprétation peut expliquer les prédictions, mais n'a pas précisé le fonctionnement du mécanisme des modèles prédictifs. Par exemple explique oralement par généré par l'homme, ou pour l'analyse de la signification du réseau de neurones profondeur. Par conséquent, la décision prise par les humains pourrait rencontrer « après le fait peut être interprété, » mais le mécanisme de fonctionnement du cerveau humain est toujours une boîte noire, ce qui indique que le conflit entre les deux concept interprétabilité commun.

Les auteurs de cet article Zachary C. Lipton

Choix du modèle linéaire et la profondeur du modèle de réseau

Mai concept explicatif est très important et très difficile. Cet article analyse quelques tentatives interprétabilité de motivation et de la recherche a soulevé. Considérons maintenant les implications de cette analyse et de fournir un contenu.

Le modèle linéaire peut ne pas avoir une profondeur supérieure à celle des motifs réseau de neurones. Bien que cet argument est très populaire, mais son La valeur réelle dépend de l'idée d'utiliser l'intelligibilité . Si vous pouvez vous référer à l'algorithme de transparence explicative, donc cet argument semble pas contesté, mais la caractéristique dimensionnelle ou par la fonction de forte correction, le modèle linéaire ne sont pas disponibles séparément et peut être simulé décomposabilité.

Lors du choix entre le modèle linéaire et le modèle de profondeur, nous avons toujours compromis entre la transparence et les algorithmes décomposabilité. En effet, la profondeur des navires de modèle de réseau de neurones pour la fonction d'origine ou d'un traitement doux. Donc, si rien d'autre, ces caractéristiques ont un sens intuitif, et donc l'utilisation du concept de « post-interprétabilité » est acceptable. Le modèle linéaire est différent, afin d'obtenir une performance adéquate, il doit généralement être conçu pour un grand nombre de caractéristique artificielle. Zachary Lipton a travaillé avec d'autres écrits qui Pour être proche d'un modèle linéaire de réseaux de neurones récurrents (RNN) la performance, il est nécessaire de renoncer à décomposer au prix.

Si certains types d'enquête « après » (interprétabilité interprétable post-hoc), la profondeur du réseau de neurones a des avantages évidents. La profondeur du réseau de neurones peut apprendre une foule de représentation, ces représentations peuvent être visualisées par langue ou pour le regroupement. Si l'on considère les besoins de l'intelligibilité, il semble que la performance du modèle linéaire dans l'étude du monde naturel mieux, mais il ne semble pas la raison théorique.

A propos de la déclaration de l'intelligibilité doit être qualifié. Le terme peut être explicatif et non pas un concept. Tous les avis sur interprétabilité devrait tout d'abord est « explicable » pour déterminer une définition spécifique. Si le modèle satisfait de la transparence de la forme, peut se refléter dans l'explication directement. Pour « après interprétabilité », il devrait fixer un objectif clair, d'expliquer et de démontrer le formulaire fourni pour atteindre cet objectif.

explication ultérieure peut être trompeur. Pas aveuglément accepter le concept de « post-interprété », et surtout dans le modèle cible en fonction des optimisations spécifiques do subjectives. Parce que dans ce cas, les gens peuvent algorithmes intentionnellement ou non l'optimisation afin de fournir induire en erreur, mais explication plausible. Comme dans les admissions universitaires et les activités de recrutement de certains des actes. Nous essayons de promouvoir l'utilisation du modèle d'apprentissage machine imitant l'intelligence humaine dans le processus, mais doit veiller à ne pas reproduire l'échelle n'est pas un comportement normal.

Directions futures

Il y a plusieurs directions dans l'avenir prometteur. Tout d'abord, pour certains problèmes, vous pouvez développer la perte de la fonction et des performances plus riches, pour réduire la différence entre la réalité et les objectifs d'apprentissage de la machine. Comprenant l'induction facteur de régularisation rares (les régularisations de parcimonie induisant) et étude des coûts de recherche sensibles (apprentissage sensible aux coûts) a. En second lieu, cette analyse peut être étendue à d'autres paradigmes d'apprentissage de la machine, comme l'apprentissage de renforcement. modèle d'apprentissage par renforcement en interagissant directement avec le modèle d'environnement modèle, de sorte que le modèle peut résoudre des problèmes de recherche d'explication.

Il est à noter que, le modèle d'apprentissage de renforcement peut apprendre une relation de cause à effet entre les effets de leur propre comportement et le monde réel. Cependant, comme l'apprentissage supervisé, apprentissage par renforcement dépend aussi objectif scalaire bien défini. Pour les questions d'équité (d'équité), que nous essayons de définir des indicateurs précis, d'améliorer paradigme de l'apprentissage de la machine est peu susceptible d'expliquer le degré de détermination.

polémique

Cependant, sur cette question, il a également soulevé des objections, le cerveau Google ingénieur logiciel, Master of Computer Science à l'Université de Stanford Akshay Agrawal sur le papier droit Lipton a résumé les principaux points, et a fait beaucoup d'opinions différentes.

Pour ce rapport a présenté différents points de vue de Akshay Agrawal

Agrawal croit papiers Lipton interprétabilité de la définition du modèle est divisé en trois zones:

La première est la transparence de ses manifestations est la « simulation », que les êtres humains devraient être en mesure de modèles d'apprentissage de la machine simulent manuellement. Le second est « décomposabilité », à savoir, chaque partie du modèle présente explication intuitive. Le troisième est l'algorithme, l'algorithme doit avoir une solution unique.

Agrawal croit: premier point de certains des problèmes, parce que le but de l'ordinateur humain se fait automatiquement, dans un délai raisonnable ne peut pas terminer la tâche. Le deuxième point très bien. Le troisième point est également un problème, parce que même sur la surface convexe ne peut même pas garantir une solution unique. L'algorithme déterministe problème ne fait pas partie du champ de l'apprentissage de la machine.

Agrawal a dit que dans les questions de interprétabilité, il y a deux questions importantes:

1. Est-ce modèle peut être étendu pour une utilisation dans les données ci-dessus ne sont pas remplies? Si, après avoir essayé une promotion hypothèse falsifiable, l'hypothèse est toujours valide, le modèle est interprétable. Je pense que ce qui est presque le Lipton a déclaré dans ce contexte, le concept de « portabilité » des.

2. Le modèle est une sécurité adéquate, comme si pour prévenir la tromperie? Pour déterminer la sécurité du modèle est une question ouverte. Peut-être que ce problème peut être étudié en utilisant certains des outils Lipton enquête dans son journal. Mais je sais comment vérifier la sécurité du modèle de réseau de neurones que le modèle linéaire est beaucoup plus difficile à vérifier.

Les liens de référence:

https://www.akshayagrawal.com/papers/html/lipton2017.html

Documents Adresse:

https://queue.acm.org/detail.cfm?id=3241340

Nouveau Ji-won AI MONDE 2018 Assemblée générale] [Début des billets d'oiseaux en vente!

New Ji-won aura lieu le 20 Septembre AI Conférence mondiale des 2018 à Beijing National Convention Center, invité Maike Si-Tiger Mark, Zhou Zhihua, un grand Cheng Tao, Chen Yiran AI et d'autres dirigeants concernés par l'intelligence de la machine et la destinée humaine.

Le site officiel de l'Assemblée générale:

Maintenant jusqu'au 19 Août, Ji-won nouveau numéro d'édition limitée de billets Early Bird, cliquez sur Lire l'original Les billets, une communication étroite avec le leader mondial de l'IA, l'intelligence artificielle, témoins de l'industrie mondiale à pas de géant.

  • Billets de ligne active lien:

  • billet de ligne active de code à deux dimensions:

La proportion des acteurs locaux a marqué 40 pour cent l'innovation plus élevé, U23 met en évidence trois objectifs que le Brésil pour aider le plus accrocheur
Précédent
Vacances Nouvel An chinois vérifiés 27! chef adjoint de la police dans la colonne
Prochain
Le Tibet est pas, bien mieux que le Tibet. Ce morceau de terre pure, se compare favorablement avec le Tibet
Il y a quelques poèmes, mettant fin à une masterstroke, assommant Millennium!
Google risque également avec des feux de circulation AI, la puissance de la machine à renverser les décisions humaines
North Bali Shu beauté cachée de l'écosystème d'origine
Super deux impressions: Luneng plus grand « cheval noir » sur la force de Hong Kong, le droit à la santé ou de la saison de reproduction Suning
Commentaire Bao Wo BX7 phare de quatre roues motrices: d'où à la fin, ne compte pas vraiment
« Choc chronologique AI » au sujet de GM AI est apparu en 2040, en 2200 la Terre atteindra la civilisation de type I
Qui est le plus chinois | briser cinq, bienvenue le Dieu de la richesse
Après avoir lu les Français trois repas par jour, vous comprendrez pourquoi la France est la moins grasse du monde
Guido se retourna pour partir, Python aller d'ici?
C'est un simple questions à choix multiples, mauvais coût est très élevé! Utilisateur: J'écoute persuader
les dirigeants de GM: les modèles Buick n'affectera pas la vente d'Opel