Fin téléphone phare, « Tencent excellente carte pour la première fois framework open source ncnn étude approfondie, » cadre similaire cpu le plus rapide

[Nouveau] Chi Yuan recrutement été AI, voile Starship. « La nouvelle génération de plan de développement de l'intelligence artificielle » publié à l'occasion, le nouveau Chi Yuan officiellement installé Raycom Information Center, Bloc B, prêt à partir. Au bon endroit, étoiles de mer, nous vous appelons - à se joindre à la nouvelle équipe! COO, éditeur, écrivain, opérations de contenu, Account Director, Account Manager, Visual Director (à temps partiel) sept nouvelles carrières de démarrage . Cliquez pour mettre fin à la Lire l'original Voir les détails.

Selon les dernières nouvelles de la sagesse de yuans nouvellement acquise, groupe d'entreprises de réseau social Tencent a annoncé le premier projet IA open source, qui est aussi le premier apprentissage en profondeur Tencent projet open source --ncnn excellents laboratoires de carte. ( github Adresse:

https://github.com/Tencent/ncnn)

Selon les rapports, ncnn terminal mobile avant l'optimisation ultime d'un calcul de réseau neuronal à haute performance sur le cadre. ncnn des considérations de conception initiales subordonnés profondes et utiliser le côté du téléphone. Aucune dépendance tiers, multi-plateforme, cpu terminal mobile plus rapide que tous les framework open source actuellement connue. Sur la base ncnn, les développeurs peuvent facilement migrer vers algorithme d'apprentissage en profondeur pour réaliser efficacement le côté du téléphone mobile, le développement de l'intelligence artificielle APP. Tencent application interne, par exemple, a été appliqué dans ncnn QQ, Qzone, micro-lettres, chaque image P et similaires.

Tencent excellente carte Computer Vision Laboratory est connu pour de nombreuses applications dans le sens de ncnn sont également des aspects de l'image, comme la beauté portrait automatique, photo stylisée, super-résolution, la reconnaissance d'objets.

New Ji-won précédemment rapporté, Tencent excellente carte Tencent est l'un des trois piliers fondamentaux de l'IA, avec l'équipe AI micro-canal et le nouvellement formé AI Lab Tencent Tencent promouvoir conjointement le développement de l'intelligence artificielle. 15 mai 2017, l'Université chinoise de Hong Kong titularisé professeur Dr Jia Jiaya rejoint Tencent excellent laboratoire de la carte, comme un scientifique exceptionnel. Dans la reconnaissance internationale de cette année sur le jeu emblématique --LFW et Megaface, Tencent ont obtenu d'excellents résultats du championnat de la carte. laboratoire de carte excellente a été fondée en 2012, axé sur la recherche et le développement et les services techniques d'atterrissage dans le traitement d'image, reconnaissance des formes, l'apprentissage automatique, l'exploration de données et d'autres domaines, il a été près de 5 ans.

algorithme d'apprentissage profondeur sur le téléphone au sol, prêt-projet caffe-android-lib repose trop sur le téléphone de base ne prend pas en charge CUDA, les besoins du réseau pour obtenir un accès rapide et petit avant. Un simple cadre simplifié, comme caffe toujours incapable de répondre aux exigences de téléphone mobile taille du package d'installation APP, vitesse de fonctionnement. auteur ncnn estime que seulement tout conçu à partir de zéro pour faire un mouvement pour l'extrémité avant de la réalisation du réseau, de la conception initiale de l'architecture au téléphone fin en cours d'exécution comme principe principal, tenez compte des différences matérielles et système de bout du téléphone et appeler la méthode.

informations ncnn figure Tencent de préférence fournie par: comparatif actuellement connu trame similaire, cadre ncnn cpu est le plus rapide, le module d'installation de volume minimum, la compatibilité multi-plateforme est aussi le meilleur. Pour pousser le principal CoreML Apple, par exemple, CoreML est iOS gpu informatique poussée principale d'Apple framework, très rapide, mais seulement pour soutenir plus que iOS 11 téléphone iPhone, le public d'atterrissage est trop étroite, développeur principal de non open source n'a pas d'extension autonome de la communauté open source hostile.

Comparaison avec ncnn cadre similaire

contraste

caffe

tensorflow

ncnn

CoreML

matériel informatique

cpu

cpu

cpu

gpu

Que ce soit open source

il est

il est

il est

aucun

Téléphone vitesse de calcul

lent

lent

rapidement

rapide

taille de la bibliothèque de téléphone

grand

Agrandir

petit

petit

Compatibilité de téléphone

bien

bien

bien

prend uniquement en charge ios11

Afin de mieux comprendre le groupe d'entreprises de réseau social Tencent a annoncé la première open source projet AI. Après avoir obtenu ces informations, la première fois sur le nouveau chef de projet Ji-won interview nihui.

nihui, comme C / C ++, Tencent excellente carte laboratoire de chercheur principal groupe de recherche de base en charge de l'image et de recherche sur les technologies liées à visage et le développement de logiciels, est passionné par la communauté open source, le ministère des premiers projets open source AI du groupe d'affaires de réseautage social Tencent ncnn officiel .

entrevue Ji-won ncnn personne responsable nihui: course VGG, googlenet, modèles ResNet tels que deux à quatre fois plus vite que d'autres framework open source connue

New Ji-won: Pouvez-vous nous dire ncnn processus de développement, en tant que personne responsable, vous voulez ce que sera le développement de ce cadre?

nihui: Dans un premier temps CNN tout en étudiant et l'écriture de code de points et ne trouva pas une belle bibliothèque au téléphone, donc vous-même. L'espoir que ncnn peut enrichir certains, comme le soutien à plus de structure de réseau et des plates-formes plus, la vitesse plus rapide informatique, plus important encore, l'espoir d'avoir les développeurs intéressés peuvent améliorer ensemble.

New Ji-won: Que pensez-vous le plus grand avantage de l'open source peut donner Tencent apporter une excellente carte est?

nihui: Des économies importantes dans le coût de l'apprentissage, beaucoup de choses là-bas sont facilement disponibles, qu'ils ne le font à partir de zéro une trop pratique.

New Ji-won: Pourquoi choisir ncnn pur implémentation C ++, donc quels sont les avantages? Comment répondre aux besoins des différents développeurs de plates-formes?

nihui: J'aime écrire C ++, C ++ est plus proche du fond, peut contrôler la quasi-totalité des ressources, exécutez un petit prix. À l'heure actuelle principalement pour android et ios, en fait, aussi longtemps que vous le pouvez compilateur C ++.

New Ji-won: Pourquoi CPU sur le matériel informatique à la place du GPU?

nihui: la compatibilité du processeur est très bonne, mais les fonctionnalités du GPU supporte une grande variété de différents, pas facile à réaliser, tels que les ios métalliques et Android de OpenCL. Ne pas nier que le GPU sera plus rapide, mais l'optimisation du GPU est complexe, a voulu écrire un chemin GPU polyvalent est difficile, en bref, je le fais habituellement pas.

New Ji-won: Tensorflow est maintenant sur une étude approfondie Github du cadre le plus populaire open source fournit également fin le déploiement du téléphone, et vous êtes comparé au plus grand avantage dans quels domaines? Comment rivaliser avec elle, gagner les développeurs?

nihui: ncnn plus rapidement au téléphone. Pratiquement pas de concurrence, l'accent tensorflow sur la formation, l'accent sur le déploiement ncnn.

New Ji-won: Comment vgg, googlenet, ResNet et d'autres modèles sur la performance de NCNN? Avez-vous encore été testé?

nihui: Peut fonctionner, la vitesse 2-4 fois plus vite que d'autres connus framework open source, et nous avons réalisé dans l'application intelligente basée sur les versions modifiées de ces modèles traditionnels

New Ji-won: lettre à micro bien connu, par exemple, comment ncnn peut être appliqué?

nihui: Certains algorithmes pris en charge ncnn figure de préférence prévus, comme les visages des applications connexes.

New Ji-won: Can cité Liezi plus d'applications, en particulier le traitement d'images, comment la performance?

nihui: Beauté photos Auto portrait stylisé, super-résolution, la reconnaissance d'objets, etc., pour un petit modèle de réseau peut fonctionner en temps réel.

New Ji-won: La fin de l'application réussie du téléphone, si vous souhaitez étendre à d'autres terminaux, comme la maison intelligente, qui sera confronté au problème? Votre avenir ne sera pas faire une percée dans ce sens?

nihui: Il place cpu ncnn peut fonctionner jusqu'à. Matériel clair environnement domestique intelligent, si le bras est alors transplanté devrait être bon.

New Ji-won: Pourquoi réseau de neurones à partir de zéro pour élaborer un cadre pour le déploiement du côté du téléphone? Est-ce que le déploiement de cloud moyenne a ses défauts inévitables? L'avenir du nuage et comment le terminal développera? Comment la division du travail?

nihui: AR, VR besoin en temps réel, nuage, même alors, ne peuvent pas jeûner en temps réel, de sorte que le déploiement terminal est nécessaire. Cloud adapté à la manipulation de données volumineuses, telles que les systèmes de recommandation, les systèmes de sécurité, les terminaux pour les scénarios d'application en temps réel, telles que la robotique intelligente, sans pilote.

New Ji-won: En plus de ncnn, une excellente carte de ce qui projets open source?

nihui: carte excellente et quelques bonnes images et des projets liés à l'AI, il n'y a pas de plan précis, pensez à l'open source sur la source ouvrir.

New Ji-won: Selon les rapports, ncnn appliqué au produit Tencent micro lettre, QQ, etc., nous le savons, Tencent d'autres secteurs, comme Tencent ont également leur propre équipe de développement AI, alors il y aura chevauchement entre vous étudiez? La photo montre l'excellent Tencent d'autres ministères pour fournir le modèle de support technique est quoi?

nihui: Tencent différents ministères ont leur propre accent sur la recherche, Tencent interne Tencent excellente carte est centrée sur le traitement d'images, reconnaissance des formes, l'apprentissage machine, l'équipe technique de base dans le domaine de l'exploration de données, principalement basée sur l'ensemble de la plate-forme de réseau social Tencent, QQ, QQ l'espace, la musique QQ, TenPay, les banques micro pour fournir l'image publique et assistance technique de reconnaissance des formes.

ncnn10 principales fonctions

1. Soutien de convolution réseau de neurones, le soutien à entrées multiples et à la structure de branchement multiple, on peut calculer la partie de branche

ncnn convolution de support architecture de réseau de neurones, l'architecture du réseau et multi-entrée complexe multi-branche, comme vgg ordinaire, googlenet, ResNet, squeezenet et ainsi de suite. Il peut être basé sur les besoins, et pour calculer un calcul de prob de branche de partie commune comme résultat prob dépasse le seuil, calculer ensuite la branche de Bbox. Si prob en dessous du seuil, la branche ne peut pas être calculée bbox, réduire la quantité de calcul.

2. Aucune dépendance de bibliothèque tiers, ne comptent pas  BLAS / NNPACK Et d'autres cadres de calcul

ncnn pas compter sur les bibliothèques tierces, totalement indépendant de la réalisation de tous les calculs, il ne nécessite pas BLAS / NNPACK tels que la bibliothèque de mathématiques.

caffe-android-lib + openblas

ncnn

stimuler gflags glog LMDB openblas OpenCV protobuf

aucun

3. pur  C ++ La mise en uvre, support multi-plateforme  android ios Attendez

ncnn tout le code en utilisant la mise en uvre de C / C, CMake système de construction multi-plateforme, connue à la compilation exécuter la grande majorité des plates-formes telles que Linux, Windows, MacOS, Android, iOS et ainsi de suite. Étant donné que ncnn ne pas compter sur les bibliothèques tierces, et l'utilisation de C ++ 03 implémentation standard utilise uniquement vecteur et std :: string deux modèles STL qui peuvent être facilement porté sur d'autres systèmes et dispositifs std ::.

4. ARM NEON Conscience optimisation niveau assemblage, calcul rapide

ncnn CPU final pour les téléphones mobiles a fait une course en profondeur l'optimisation détaillée, en utilisant le jeu d'instructions ARM NEON pour atteindre la couche de convolution, couche entièrement connecté, couche, et la plupart piscine CNN couche clé. Pour une plus grande architecture de registre ARMv7 pression, néon assembleur code à la main, la mémoire pré-alignés, les lignes de pré-mise en cache cache disposées, l'utilisation de toutes les ressources matérielles, afin d'éviter l'optimisation accidentelle du compilateur négatif.

Testez le téléphone pour le lien 6p, Android 7.1.2.

La gestion de la mémoire et la conception fine structure de données, une faible utilisation de la mémoire

Au début de la conception a pris en compte ncnn restrictions sur l'utilisation de la mémoire du téléphone, le calcul de convolution en couches, la couche tout ou similaire connecté à la mise en uvre de la couche plus grande, la multiplication de la matrice est généralement pas employé im2col + cadre, parce que dans cette constructions façon une matrice très grande, consomment de grandes quantités de mémoire. Par conséquent, ncnn en utilisant la fenêtre glissante d'origine convolution, et optimisé sur cette base, une mémoire d'économie substantielle. Le calcul du réseau au cours de la première, les résultats intermédiaires ncnn peut être libéré automatiquement la mémoire occupée, pour réduire encore l'empreinte mémoire.

empreinte mémoire à l'aide de l'outil haut de statistiques RSS des articles, des combinés de test de 6p, Android 7.1.2.

6. L'accélération de calcul parallèle à noyaux multiples, cpu big.little planification Optimisation

ncnn fournit parallèle à noyaux multiples basées sur le calcul de l'accélération openmp est activé sur une vitesse de processeur multi-core de l'accès à des gains élevés. Le nombre de threads ncnn fournir une interface de commande, peut être réglée séparément pour chaque instance en cours d'exécution, pour répondre aux besoins des différents scénarios. Pour cpu téléphone mobile l'architecture big.little, ncnn fournit une fonction de contrôle de la politique de planification plus sophistiqué peut être spécifié en utilisant un grand noyau ou un petit noyau, ou ensemble, atteindre un équilibre entre la performance et la fièvre des limites de consommation d'énergie. Par exemple, seulement 1 petit noyau, ou seulement 2 petit noyau, ou utiliser seulement deux gros noyau, dans vos mains.

Le volume global inférieur à 7. Bibliothèque  500K Et peut être facilement taille réduite à moins de  300K

ncnn lui-même n'a pas de dépendances, et le volume est très faible, le volume des options du compilateur de bibliothèque par défaut moins de 500 Ko, peut réduire efficacement la charge de la taille du téléphone package d'installation APP. En outre, ncnn peut personnaliser la nécessité de charger des fichiers et des chaînes de sortie au moment de la compilation, peut également enlever la couche personnalisée non désirée, facilement taille réduite à moins de 300K.

8. conception de modèle évolutif, support  8bit Et une demi-précision magasin à virgule flottante quantification, peuvent être introduits  caffe modèle

ncnn propre format de modèle en utilisant une valeur de poids indicatif du modèle principal de stockage de modèle droit. ncnn modèle contenant des champs d'extension, pour le stockage de la compatibilité des valeurs de poids des poids différents, comme un simple précision conventionnelle à virgule flottante, et occupent moins d'une demi-nombre à virgule flottante et quantification 8 bits. Modèle le plus demi-profondeur peut être réduite à la moitié du volume de précision de modèle à virgule flottante, ce qui réduit la taille et package d'installation de temps modèle de téléchargement en ligne APP utilisé. ncnn avec le modèle de convertisseur de caffe, le modèle peut être converti au format ncnn, pour faciliter la recherche rapide atterrissage.

9. supports direct à la mémoire sans copie charge de réseau du modèle de référence

Dans certains scénarios, en raison du modèle API de couche de plate-forme peut seulement accéder à des ressources sous forme de mémoire, ou si vous voulez lui-même modèle que les données statiques dans le code lui-même, ncnn offre la possibilité de charger le modèle de réseau directement à partir d'une référence mémoire. Ce chargement ne dispose pas d'une copie du modèle en mémoire, il n'y a pas besoin d'écrire le fichier de modèle lu dans l'entité, et très efficace.

10. Le registre peut être mis en uvre et élargie couche personnalisée

ncnn fournit la couche auto-expansible définir enregistrée pour atteindre, peut être intégré dans une couche spéciale à l'avant ncnn propre mise en uvre du processus de calcul, la combinaison d'une structure de réseau plus libre et des fonctionnalités plus puissantes.

* Ceci est la sagesse de yuans de nouveaux rapports originaux, s'il vous plaît ne pas réimprimer sans autorisation.

Cliquez ici pour lire le message original pour voir les détails, espérons que vous pouvez rejoindre ~

Aujourd'hui, les amis étrangers bouillant aussi!
Précédent
Dans toute la Chine n'a pas mangé ce paragraphe 30 de spécialité, quel est le point? Demandez à votre ville natale?
Prochain
Trois Guaixiang de voitures domestiques, les conducteurs lents qui peuvent supporter?
La question la plus difficile: 301 + 141 =? Beaucoup de gens espèrent que la réponse est zéro!
Liu Yifei dans cet anniversaire, Wang Luo Dan n'a pas oublié, « New York Times » l'endroit le plus digne d'aller cette année
Après le peuple chinois ou les retraits anticipés, l'Australie et le Canada ou les économies souffrent des difficultés de liquidité
Aurora poursuivre ensemble! Un autre à des endroits pittoresques national 5A gratuitement à la police populaire nationale
sortie de dividende social, comment lutter contre la bataille pour le trafic?
« Best Paper lourd CVPR cuit » Tsinghua gagner moins « moitié » chinois primé
180000! T assez fort pour accélérer avec féroce, sept VUS qui vous passionne dans partout!
Avoir le goût éclectique monde délicieux, mais aussi de voir la chute du plus beau regard, ferroviaire à grande vitesse directe 3h
Le Venezuela et le dollar américain officiellement hors, l'économie pétrolière sera pauvre ou devenir riche, multi-pays emboîteront le?
53% des fans ne veulent pas revenir au Real Madrid C Lo! Selon C humeur, ne reviendra pas à Manchester United, le Real Madrid retour
Comment ne pas augmenter avec le contenu du produit?