La compréhension de surajustement et moins en forme, ces trois théories ne doivent pas être contournées

thèse 2306 Les mots, lorsque l'apprentissage tout au long attendu 5 minute

Pour les modèles d'apprentissage de la machine, le pire dans les deux cas, rien de plus que de construire des connaissances inutiles, de l'ensemble des données de formation ou rien. Dans la théorie de l'apprentissage machine, ces deux phénomènes sont appelés surajustement et moins en forme, est des solutions d'apprentissage en profondeur modernes dans deux grands défis.

Etude approfondie de surajustement que les gens ont créé l'illusion doit commencer algorithme d'inférence n'existe pas dans les ensembles de données en mode générés; underfitting est plus comme des difficultés d'apprentissage, empêcher les gens d'acquérir des connaissances pour accomplir une tâche donnée.

Bien que surajustement est très important, mais il est difficile de résoudre ce problème, la profondeur de la technologie des applications d'apprentissage est souvent utilisé pour un algorithme pour éviter surajustement. Si vous aussi prendre en compte les personnes sujettes à surajustement, puis dans une évaluation subjective du modèle d'apprentissage de la machine, ce problème deviendra plus grave. Pensez à combien de fois par semaine, vous devez évaluer les choses des stéréotypes? Il est beaucoup.

Aujourd'hui, nous présenterons trois théories différentes qui aident à comprendre le modèle d'apprentissage machine en forme et sur problème de sous-montage.

Il ne fait aucun doute l'efficacité de notre illusion ou de la fantaisie existe dans l'ensemble de la profondeur des données de formation de l'algorithme d'apprentissage utilisé, ce qui entraîne une situation plus chaotique. Dans l'étude des algorithmes d'apprentissage en profondeur instinctivement tenir compte des données, mais souvent oublier les autres éléments tout aussi importants: la connaissance.

Dans l'algorithme d'apprentissage en profondeur, les données sont généralement exprimées comme un enregistrement durable de l'une ou plusieurs bases de données et connaissances généralement indiqué à la règle logique peut être vérifiée dans les données. modèle d'apprentissage en profondeur utilisé pour en déduire le même domaine peut être appliqué à de nouvelles règles de collecte de données. Malheureusement, pour la profondeur des apprenants, une puissante capacité de calcul et les connaissances ne peuvent pas être construits directement produire surapprentissage.

Overfitting pauvres et les problèmes de montage liés à la capacité des modèles d'apprentissage de la machine à des exemples de formation initiale sur la base des connaissances de construction. Conceptuellement, underfitting et algorithmes d'apprentissage machine ne peut pas être déduite à partir des données de formation initiale efficace des connaissances. En revanche, plus ajustées et les hypothèses créer des hypothèses trop générales ou abstraites mais irréalistes sur le modèle. En termes simples, le modèle moins en forme est trop simple et trop souvent un modèle d'ajustement de l'illusion (imaginez ce qui n'existe pas).

Modèle Capacité: modèles d'apprentissage de la machine pour quantifier plus - en forme et moins en forme des principaux facteurs

Essayez de développer une façon simple de comprendre l'algorithme d'apprentissage de la machine est trop en forme et moins en forme.

Une scène d'apprentissage machine typique commence par une première série de données utilisées pour former et tester les performances de l'algorithme. Les statistiques indiquent que 80% de l'ensemble des données utilisées pour former le modèle, les 20% restants ont été utilisés comme test. Dans la phase de formation, les données de formation de sortie de modèle aura une certaine variation, communément appelée erreur de formation. De même, la déviation produite au cours de la phase de test est appelé erreur de test. Ainsi, la capacité de performance des modèles d'apprentissage de la machine peut être réalisée selon deux choses fondamentales qui détermine:

1. Réduire l'erreur de formation

2. réduire l'écart entre les erreurs de formation et erreur de test

Ces deux règles simples vous aideront à comprendre le plus ajusté et moins en forme. En gros, si un modèle ne peut pas suivre les règles, pas l'erreur de l'ensemble de la formation à un niveau inférieur, underfitting se produit.

2 Si le modèle ne peut pas suivre les règles, de sorte que l'écart entre la formation et l'erreur d'essai et d'erreur est trop grande, surajustement se produit. Got it? Ces deux règles simples peuvent nous aider à quantifier les algorithmes d'apprentissage machine surajustement et le niveau underfitting.

Un autre praticiens de l'apprentissage de la machine d'aide concept important de traiter sous ajusté et surajustement est la capacité. Conceptuellement, la capacité est exprimée des modèles d'apprentissage de la machine peuvent être sélectionnés ensemble de fonctions pour la solution. Par exemple, la peut être un modèle de régression linéaire de la forme y = w * x + b 1 polynôme de degré que l'ensemble des capacités (ce qui signifie toutes les solutions possibles).

Ce concept est fortement corrélée à la capacité des modèles d'apprentissage de la machine. Techniquement, l'algorithme d'apprentissage machine a le mieux performé lorsque l'entrée est proportionnelle à la complexité de l'ensemble des données de formation et sa capacité à son mandat. des modèles d'apprentissage machine à faible capacité à résoudre des tâches complexes est peu pratique, tend underfitting. Pendant ce temps, un modèle de grande capacité a tendance à surajustement. À cet égard, la capacité du modèle représente une mesure de la tendance des mauvais montage ou d'une mesure surajustement.

Aide à comprendre les trois modèles d'apprentissage de la machine théorique sur - forme et moins en forme

Le rasoir d'Occam

Le rasoir d'Occam est l'application de la pensée philosophique dans l'apprentissage de la machine. Cette philosophie ancienne remonte aux années entre 1287 et 1347, et philosophe Ptolémée et d'autres pertinents. La théorie du rasoir d'Occam suggère que, en substance, si une hypothèse concurrente pour expliquer les observations connues, devraient choisir l'hypothèse la plus simple. De Sherlock Holmes à Monk, un détective de classe mondiale utilisent tous le principe du rasoir d'Occam, suivez la plus simple, hypothèse la plus logique pour découvrir les mystères complexes.

Le rasoir d'Occam est un des principes philosophiques sages à suivre dans la vie quotidienne, mais son application dans l'apprentissage machine au mieux que conduire à la controverse. D'un point de vue informatique, en raison de ressources algorithme mondial coûteux et notoire, l'hypothèse est simple cours préféré. De plus, la simple hypothèse est plus facile de promouvoir dans les calculs.

Cependant, le défi hypothétique super simple, est qu'ils sont souvent trop abstraite, pas de modéliser des scénarios complexes. Ainsi, un ensemble de formation de modèle de dimension suffisamment grande et une taille appropriées doivent être choisies hypothèses suffisamment complexes, afin de réduire l'erreur de formation. Cela peut entraîner une sous-raccord.

dimension VC

Le rasoir d'Occam est un bon principe simplifié, mais ceux idéal abstrait est pas directement converti en modèles d'apprentissage machine vivant dans le monde numérique. algorithmes statistiques pour quantifier la théorie statistique capacité proposée du modèle et fondateur Vapnik Chervonekis (VC) a soulevé ce défi. dimension VC est la valeur maximale possible de m, il existe un ensemble de points de formation x m hypothèses différentes, la machine d'apprentissage fonction objective peut marquer arbitrairement le point x m différent.

dimension VC est l'une des pierres angulaires de l'apprentissage statistique, mais aussi de nombreux bases théoriques intéressantes. Par exemple, la dimension VC permet d'expliquer l'ensemble de la formation augmente à mesure que la taille de l'écart entre l'erreur de généralisation du modèle d'apprentissage de la machine et erreur de formation diminue, mais avec le modèle de capacité de croissance, de même que l'augmentation de l'écart. En d'autres termes, le modèle a beaucoup plus susceptibles de choisir un ensemble de formation d'hypothèse à peu près correcte, mais si les hypothèses sous-jacentes trop, et peut éventuellement obtenir les hypothèses erronées.

Pas libre Théorème déjeuner

Il n'y a pas théorème de repas gratuit, en moyenne généré après chaque algorithmes de classification sur un point non observé précédemment ont le même taux d'erreur dans la distribution de toutes les données possibles. Beaucoup de gens sera pas théorèmes de repas gratuit considérés comme théorie mathématique des inverseurs de poussée, les algorithmes d'apprentissage machine à la limite, nous obligeant à utiliser un ensemble de formation limitée pour générer la moitié du savoir absolu.

Par exemple, dans la logique, les règles générales inférée d'un nombre limité d'exemples est « illogique ». praticiens de l'apprentissage machine, il n'y a pas de repas gratuit théorèmes assez prouvé aussi longtemps que observé dans l'autre sens, il ne serait pas mieux que l'algorithme. En d'autres termes, le rôle du modèle d'apprentissage de la machine n'est pas rare de trouver une fonction d'apprentissage, mais de trouver mieux adapter à assumer une scène cible.

Surajustement et underfitting reste l'une des applications d'apprentissage de la machine, le plus sérieux défi. dimension VC, et le principe de la théorie du rasoir d'Occam est pas théorèmes de repas gratuit pour l'analyse des solutions d'apprentissage de la machine grâce à la mise en place et la racine du problème de mauvais montage fournit une solide base théorique. Capacité à comprendre et modèle Quantifier d'apprentissage de la machine est encore les étapes de base pour comprendre ses tendances surajustement et underfitting.

pouces Message attention

Ensemble, nous partageons l'apprentissage et le développement de l'IA sec

Amnesty International salue l'attention de la pendaison toute la plate-forme de la classe médiatique « lecture technique de base »

OPPO série Reno ajout de nouveaux membres Barcelone personnalisés version du 26 Juillet officiellement en vente
Précédent
Ancienne Université sur la Chine Association site officiel en ligne remanié « badge »
Prochain
« Apink « de maquillage » Nouvelles de 190623 aussi si beau bruit, comme si seulement 18 ans
Quoi? Les réseaux de neurones peuvent créer de nouvelles connaissances?
190623 petite note des internautes Zhang Yixing récente INS Partager les pouces dossier
Aujourd'hui, le son de base | vidéo après greffe du visage, Amnesty International a également utilisé l'algorithme « off » des vêtements féminins?
IT Home Bracelet mil version 4 NFC du test public a annoncé! Fin du texte, il y a des avantages
l'actrice sud-coréenne longtemps gentile? Rekognition guérir votre prosopagnosie
Great West « vérité »: la recherche en sciences informatique de la route près de Pa publié 15 SCI / EI de
« Rapatriés » panda géant de la vie de style Sichuan: les soins bilingues bénéficient d'un « traitement spécial »
Frotter sur « artémisinine » concept de parts Rundu flambée 51% 5
Portraits | Cheval Aoxue: route blanche de l'Internet à la transformation du chef de produit Tencent
1906232019 est bleu Huangzai Tao concert terminé avec succès Aspect plein Blue Ocean Fun Carnival
Gloire Xiongjun Min: trois histoires, dit Kirin 810 par la gloire et 9X