KNN (k-plus proche voisin) est un apprentissage commun méthode apprentissage supervisé, en utilisant « près du Zhu rouge, à proximité de l'encre noire, » l'idée, étant donné l'échantillon d'essai, basée sur une mesure de distance pour identifier l'ensemble d'entraînement à celui-ci de près k échantillons de formation, puis en fonction des informations de k « voisins » de prédire, généralement avec la « loi référendaire » pour prédire l'issue.
l'apprentissage KNN est « l'apprentissage paresseux » au nom de sa phase de formation vient d'économiser des échantillons, le coût de la formation est 0, puis des échantillons de test à traiter est reçu.
Cet article décrit un algorithme simple de reconnaissance numérique manuscrite Knn, première écriture numérique claire est sur la planche à dessin 128x128.
Figure 1: échantillons d'écriture manuscrite
étapes Algorithme:
1. Dessiner 0-9 chaque échantillon de formation 100 sous 128x128 Plans de travail;
2. normalisée à l'image de taille 32x32.
Figure 2: des échantillons d'écriture
Figure 3: Normalisé exemple
3. L'extraction de caractéristiques, la fonction de conversation ici est simple, et la valeur cible de l'image extraite, et l'image, l'image de la partie de moitié inférieure de la cible cibles demi-somme, dans lequel le premier v1 et divisé par la moitié supérieure et la seconde dans lequel v2 et la moitié inférieure et divisé par le total.
Figure 4: Total
Figure 5: une moitié supérieure et
Figure 6: moitié inférieure et
4. Les échantillons de formation ont été caractéristiques extraites, faites 1000x3 matrice. En tant que premier long métrage v1, comme une deuxième caractéristique V2, en tant que troisième catégorie, 0-9.
5. Exemple de test 3 par extraction comporte v1, v2, et les deux premiers Matrice de la distance caractéristique d'échantillons de formation, et la sélection d'une distance euclidienne la plus petite de 10 groupe, leurs classes de statistiques, la plupart des catégories telles que supérieur à 5, il est déterminé que catégorie.
Figure 7: Reconnaissance