Tsinghua « carte mètre », vue dégagée « Tianyuan » open source ont lourd, cadre d'apprentissage profond pour le marché intérieur

En 1956, les Etats-Unis est devenu un événement historique à la conférence de Dartmouth AI ouvert. Dans la même année, les premières voitures self-made Chine - Jiefang usine automobile à Changchun First Automobile usine, n'a pas été la fin de notre production de l'histoire automobile.

D'ici 2020, la production automobile et les ventes de la Chine ont remporté le premier dans le monde depuis de nombreuses années. En même temps, la recherche et l'application de l'intelligence artificielle a été partout en Chine, et l'émergence d'un grand nombre d'IA start-ups, en tant que représentant comprennent Kuang, Shang Tang, conformément aux plans, etc., Cambrien.

La profondeur cadre d'apprentissage que le système d'exploitation de l'ère de l'intelligence artificielle, a été gouverné par la tensorflow Google et Facebook PyTorch, et donc la profondeur de la localisation du cadre d'apprentissage alternatif est devenu aussi au centre des préoccupations de la communauté de recherche politique.

Récemment, le cadre de l'apprentissage en profondeur Jittor open source Tsinghua (dessins de conception) suscité l'inquiétude généralisée, le soutien cadre d'apprentissage profond MegEngine Kuang enregistrement visuel des nombreuses affaires et (Tianyuan) sera également open source récemment. Il est rapporté que Huawei va également ouvrir leur cadre d'apprentissage en profondeur. De plus PaddlePaddle de Baidu (pagaie de vol), etc., l'élaboration d'un cadre d'apprentissage profond domestique a marqué le début d'un moment à une forte lumière.

De 1,0 à 3,0: pour passer de la statique, dynamique et statique, l'histoire de l'évolution de l'étude approfondie du cadre

L'histoire du développement du cadre d'apprentissage profond peut utiliser un mot pour décrire: la statique dynamique. En fonction de la dynamique ou calcul statique de calcul, ces nombreux cadre d'apprentissage profond peut être divisé en deux camps: où mécanisme de carte statique tensorflow 1.0, représenté par le mécanisme d'image de mouvement PyTorch représenté.

photos autorisé

des moyens de calcul statique que lorsque vous compilez le programme dans l'exécution de M. structure neuronale du réseau, puis effectuer l'action appropriée, qui est géré par après la première définition, le temps est en marche à nouveau après plus besoin de reconstruire la carte de calcul, donc la vitesse plus vite que la carte dynamique.

des moyens de calcul dynamiques que le programme sera exécuté dans l'ordre que nous écrivons commande. Un tel mécanisme serait le débogage plus facile, et fait aussi nos idées cerveaux dans le code réel plus facile.

D'une manière générale, une vue statique de l'intégrité du mécanisme peut faire compilateur optimisation, plus propice à l'amélioration de la performance, faible encombrement et facile à déployer, déployé conformément aux besoins des applications industrielles et des plans dynamiques programme très convivial pour le débogage, simple et flexible et facile à utiliser, conformément aux besoins de la recherche scientifique et d'exploration.

En raison de la flexibilité du graphe dynamique, facilité d'utilisation montrent une grande attraction pour les chercheurs, mais aussi a commencé à soutenir la carte du cadre plus dynamique, comme tensorflow 2.0, Tsinghua Jittor.

Cependant, l'efficacité de la formation et de l'échelle a toujours eu des problèmes les plus importants de l'industrie, l'optimisation des performances dans la figure dynamique doivent également être pris en compte. Ainsi, chaque image de l'autre facilité de pointe évidente de la convergence de l'utilisation, le calcul de l'efficacité, la stabilité du cadre devienne direction d'optimisation continue.

Et cette tendance signifie également que la combinaison de mouvement devient une solution pour 3,0 fois.

vue Kuang l'exemple à venir MegEngine open source, la gestion d'exécution comprend deux modules, à savoir le planificateur du noyau et de la gestion de la mémoire et l'optimisation des deux modules. Gestion de la mémoire et le module d'optimisation, en utilisant MegEngine dynamique, mode co-existent d'allocation de mémoire statique, les figures peuvent ainsi supporter dynamique et le mode statique figure.

Par conséquent, MegEngine intégrer carte dynamique avec les avantages respectifs du dessin statique, lorsque la pleine utilisation des avantages de formation du modèle de graphe dynamique, par le biais statique et dynamique en un seul clic fonction de conversion, sous la forme d'une vue statique de l'achèvement de la production et le déploiement, en outre, MegEngine prend également en charge statique et dynamique programmation hybride, plus de flexibilité. Kuang selon les chercheurs ont déclaré dans une interview que même les nouveaux étudiants moins d'un mois, vous pouvez démarrer rapidement.

De la recherche au déploiement, cadre apprentissage en profondeur de la concurrence

photos autorisé

tensorflow: Google a produit en 2015 des revenus, est actuellement le courant dominant du cadre de l'apprentissage en profondeur. communauté des développeurs énorme, l'application de la performance et de l'efficacité mature, exceptionnelle dans le déploiement du soutien de l'appareil hétérogène. Cependant, depuis tensorflow 2.0 lancé par la confusion API, beaucoup question ne peut pas être résolu par la discussion et autres problèmes causés, sa position dominante est contestée par les concurrents.

Keras : L'ingénieur Google François Chollet, écrit par Python est une bibliothèque de réseau de neurones artificiels de open source, Pour la novice. Depuis 2017, l'équipe a été soutenue Keras tensorflow, la plupart de ses composants sont intégrés dans tensorflow de l'API Python. Après 2018 tensorflow 2.0.0 publique, Keras a été officiellement établie comme la haute API pour tensorflow, les tf.keras.

MxNet: AWS AI Mu Li, directeur scientifique travaille à soutenir carte dynamique, le support de Python, R, Scala et le langage C ++, mais aussi la série d'outils et de gluons. Mais par rapport tensorflow et PyTorch, utilisateur de développeur beaucoup moins que la normale, plus adapté à la demande haute pour l'entreprise et les chercheurs.

PyTorch: Facebook produit, la communauté du développement est très actif et très bon à écouter les opinions des développeurs. Avec le soutien de carte dynamique, PyTorch flexibilité grandement améliorée par rapport à tensorflow, en particulier pour la vérification rapide et algorithme complexe pour reproduire, tant favorisé par le milieu universitaire. Dans le secteur industriel, en raison de la nécessité d'examiner la compatibilité et les problèmes de déploiement, l'intégration de la conception de l'environnement pour la production de base Caffe2 du PyTorch d'origine sont, mais les restes d'effet réel à vérifier.

CNTK: Microsoft a produit, tous basés sur l'API C sont conçus de si bien sur la rapidité et la facilité d'utilisation. Petit nombre d'utilisateurs, la courbe d'apprentissage est raide, Tucao son utilisation principale est de keras à l'importation, parce que l'avenir Keras ne sera plus l'accent sur le support multi-plateforme, CNTK devrait être affectée.

PaddlePaddle (paddle fly) : Baidu a produit en 2016 des revenus. Maintenant, mis à jour à la profondeur du kit de développement de l'apprentissage, en plus du cadre de base, également ouvert VisualDL, PARL, AutoDL, EasyDL, AI Studio, un ensemble de plate-forme de composants d'outils d'apprentissage profonds et services.

En plus du cadre de l'apprentissage en profondeur ci-dessus, la prochaine MegEngine open source également une source de préoccupation. DETAILLE architecture divisée calculate interface MegEngine, figure l'optimisation dit compilateur, la gestion et le noyau de calcul cinq points.

photos autorisé

  • En plus des interfaces informatiques, MegEngine équipé de C ++ et Python interfaces, cadre de résolution de problèmes pour l'apprentissage des interfaces différentes, le modèle est difficile à reproduire
  • couche de présentation figure, MegEngine construit dynamique et la conversion statique, ce qui permet aux développeurs de mélanger statique et en mode graphique dynamique programmation Fig.
  • En optimisant la couche de compilateur, calcul MegEngine figure, un support de noyau de calcul interaction utilisateur efficace, pour optimiser davantage l'expression et la compilation de l'API, y compris guide d'évaluation automatique, compilation et les figures d'optimisation.
  • Dans la gestion du fonctionnement du dispositif, le module de calcul d'agencement MegEngine deux planification et de gestion de mémoire, en calculant le module d'abstraction de dispositif d'ordonnancement pour effectuer l'écoulement, et par le programmateur de planificateur intelligente dans l'optimisation de la mémoire, lors de l'utilisation dynamique Tianyuan, la mémoire statique coexistent de distribution, afin de soutenir la mémoire automatique optimisation des sous-linéaire.
  • MegEngine rez de chaussée a une architecture hétérogène, l'informatique intégrée efficace des noyaux opérateur de vision par ordinateur, avec X86, les périphériques matériels CUDA et autres capacités d'adaptation intelligente grand public. En outre, MegEngine est également équipé de la bibliothèque de communication hétérogène de haute performance, ce qui permet aux utilisateurs d'effectuer une communication de haute performance entre les différentes machines et les cartes de calcul pour obtenir la carte multi-machines, à grande échelle, la formation de l'algorithme distribué.

Bien que tensorflow et PyTorch autre souci cadre d'apprentissage profond à l'industrie, mais la scène d'application Chine AI est très diversifiée, beaucoup sont également encore être subdivisé pour répondre à la demande, il est difficile de dire d'avoir une dominante, donc l'avenir proche de la profondeur des besoins domestiques des utilisateurs chinois cadre d'apprentissage à l'avenir est aussi une excellente occasion.

Nous devons d'abord de ses bénéfices

Tout au long de l'élaboration du cadre de l'apprentissage en profondeur, tous les efforts pour abaisser le seuil pour les développeurs. Cependant, en raison des caractéristiques des différents cadre ne sont pas les mêmes, et sont en constante amélioration, afin que les développeurs ont besoin de choisir le cadre en fonction des besoins réels de leurs propres ou de la société, afin de faire plus avec moins.

Tout d'abord, facile à utiliser, la courbe d'apprentissage est pas trop raide, d'autre part, pour pouvoir vraiment Deploy aide et des modèles étage.

Parce que Kuang vue de l'API ont MegEngine Pythonic et soutenir la fonction PyTorch Module, vous pouvez directement le modèle d'importation, donc commencer rapidement, les coûts d'apprentissage et de migration coûts sont moins élevés. En outre, MegEngine également intégrer la dynamique des forces respectives et diagramme statique graphique, plus souple.

MegEngine raisonnement soutient également la formation d'intégration, la formation de l'algorithme peut prendre en charge le chercheur, alors que le modèle formé et peut être utilisé directement le produit pour le produit raisonnement, l'emballage, et peut atteindre la vitesse de déplacement sans perte et de précision, et le déploiement Shihai il peut supprimer automatiquement le code redondant, le modèle d'optimisation automatique.

Et MegEngine fournit également le niveau primitif de soutien, configuration convivial et modèle d'exécution parallèle. Enfin, le modèle et les données parallèles peuvent être en mode mixte parallèle. Avec le soutien de innée cadre de l'apprentissage en profondeur pour le calcul distribué, MegEngine sur la formation et l'efficacité du raisonnement a atteint un niveau très élevé.

Pour les développeurs, MegEngine peut être une bonne tentative.

Avis: One More Thing

En fait, MegEngine pas le désert, comme le nouveau produit mis au point, mais est né en 2014, et a résisté à l'épreuve de nombreuses entreprises.

En 2013, en raison du début de Théano et d'autres frameworks open source ne peut pas répondre aux besoins d'efficacité « alchimie ». Au début de 2014, selon Kuang Académie des trois stagiaires de la première ligne de code à écrire, moins de six mois, la naissance officielle de la première édition du désert, comme l'auto-développement de --MegEngine-cadre de l'apprentissage en profondeur. À la mi-2015, les standards ouverts, comme l'achèvement du cadre d'auto-développement et toutes les opérations internes, le modèle d'affaires de la société a changé toutes les lignes du cadre de recherche formé la version.

De usage personnel à l'open source, ouvert selon l'intention de passer des valeurs universelles de l'IA. Tout le long, l'intelligence artificielle est un Matthew a une industrie forte, en fait, est derrière la prospérité et par Internet géant vue du désert, Shang Tang, selon la carte, Cambrien et autres étoiles dans le soutien aux entreprises AI, tandis que l'étoile d'IA derrière habituellement par un individu ou un petit groupe de talent à l'appui. Une poignée de talents de première classe pour soutenir le petit nombre de sociétés traditionnelles AI, et la tendance Hengqiang. D'autre part, les fabricants traditionnels et les petites et moyennes entreprises mais AI est des frais de recherche, fantaisies et développement élevé, gagner moins de talent AI, il n'y a pas d'investissement à grande échelle dans la recherche et le développement d'algorithmes de détermination.

Par conséquent, afin de promouvoir la technologie AI pour accélérer la chute 2019, comme Kuang commencer les préparatifs à l'étude de la profondeur de la plate-forme de cerveau du framework open source de base, mais aussi spécifiquement pour le MegEngine joué un nom chinois - Tianyuan, de sorte que plus de développeurs et les utilisateurs professionnels l'AI peut utiliser le, coût-efficacité « source d'énergie ».

25 mars ouverte en fonction de la profondeur de son chiffre d'affaires grâce à un cadre d'apprentissage en ligne en direct MegEngine, démontrent en outre des détails plus techniques et le cadre des résultats, open source Kuang en fonction de la profondeur du cadre d'apprentissage de base devrait faire l'IA à être un outil inclusif pour stimuler AI de 1,0 vers 2,0 ère.

À 14h00 le 25 Mars

Kuang en fonction de la profondeur du cadre d'apprentissage sera l'hôte de la conférence sur l'open source en ligne

En même temps, il sera également publié en open source  GitHub et Openi

Vous voulez essayer algorithme d'apprentissage profond développé par un petit partenaire ne peut pas manquer!

code de balayage ajouté au groupe d'échange

Advance registre conférence en direct

350.000 lignes de code, ouvert en fonction de la profondeur de l'apprentissage cadre open-source de forte Tianyuan permet le développement de quatre propriétés
Précédent
Choqué, j'ai pu dans cette façon de construire secondes de cluster Redis?
Prochain
60000 tête de Pékin prix des logements, le programmeur comment s'installer eux-mêmes?
Tsinghua Sciences groupe Pa des entreprises industrielles Aiot re-créer des dizaines de millions de financement: le joueur doit pousser à exécuter des algorithmes sur le bord puce AI
Apprentissage Python, ce pack 22 Comment pouvez-vous pas comprendre?
réponse Ali « pour combattre beaucoup de personnel compte Taobao a été fermé », micro lettre conjointement face à nouveau hacker virus de la Couronne du livre Marathon; Kubernetes 1,18 | libération G
Tant que huit étapes, apprendre cette commande Docker ultime Tutoriel
Siri compose automatiquement le 911, le site Google construit le dépistage, les ingrédients pharmaceutiques de test IBM, l'action internationale dans la lutte contre le SRAS
Byte battre Wuhan recruter 2.000 personnes, des fabricants offrent, vous court de ce Java sec! | Programme de travail
Quand votre entreprise a-t-elle besoin de l'intelligence artificielle? | Des millions de personnes apprennent l'IA
Détection biométrique, comparaison de visages ... Comment FaceID fait-il face à la cécité? | Des millions de personnes apprennent l'IA
Un chercheur principal de Microsoft explique le DNN efficace basé sur la convolution de groupe entrelacé | Million People Learning AI
Liu Tieyan parle de l'apprentissage automatique: trop avec des vagues, nous devons refléter | millions de personnes apprennent l'IA
Remarqué? Paris dans ces petits détails réconfortants