Parsing | de l'algorithme de matériel, lire un article sur la façon dont AI Evolution 2019

En seulement la dernière en 2018, le grand événement dans le domaine de l'intelligence artificielle, de nouvelles découvertes et de progrès abondent.

BERT version blockbuster, la fixation d'un meilleure performance de nombreuses tâches de la PNL, documents de recherche GAN ont continué de croître, des photographies résultant atteint un degré très avancé, Deepfakes développe rapidement, tant de politiciens et de célébrités pour beaucoup de divertissement populaire, l'apprentissage de renforcement aussi avec les humains jeu de combat ...... dominent

Matériel, Nvidia Yiqijuechen, Intel luttent pour le changement, la prospérité du marché du matériel personnalisé;

En outre, le pilote automatique, l'éthique AI est également au centre des discussions au cours de la dernière année.

Revue 2018 Perspectives 2019, l'intelligence artificielle et l'apprentissage de la machine se rendra?

Un chroniqueur moyen pour cet auteur présente quelques-unes des tendances de l'année écoulée dans le domaine de l'intelligence artificielle, et en essayant de décrire y quelques-unes des tendances. Notez que ce résumé est basé sur les Etats-Unis en tant que centre de développement, ce qui suit est le texte intégral de l'article:

algorithme

Il ne fait aucun doute que le droit de parler dominé par la profondeur de l'algorithme de réseau de neurones (DNN).

Bien sûr, vous pourriez entendre quelqu'un ici ou là pour déployer un modèle d'apprentissage machine « classiques » (comme arbre stimulant dégradé ou bandit à plusieurs bras), et prétend que c'est le seul besoin de tout le monde chose. On prétend que la profondeur de l'apprentissage est à l'agonie. Même les meilleurs chercheurs ont également interrogé une partie de la profondeur du cadre réseau de neurones (DNN) et l'efficacité de l'anti-conversion.

Cependant, si vous le vouliez ou non, DNN partout: véhicules autonomes, les systèmes de langage naturel, robots - tout ce que vous pouvez penser doivent être.

Dans le traitement du langage naturel, la mise en réseau et la profondeur de la confrontation de Formule améliorer l'apprentissage, saut DNN fait particulièrement évident.

PNL profonde: BERT et autres

Bien qu'en 2018, le texte en utilisant DNN (tels que word2vec, les modèles basés sur LSTM GANT) ont fait quelques percées, mais l'absence d'un des éléments conceptuels: l'apprentissage de transfert.

En d'autres termes, l'utilisation de grandes quantités de données publiques modèle disponible est formé, puis soumis à « réglage fin », selon un ensemble spécifique de données que vous traitez. Dans la vision par ordinateur, en utilisant le modèle trouvé sur les célèbres ensembles de données IMAGEnet pour résoudre un problème particulier, généralement une solution.

Le problème est que pour le problème d'apprentissage de transfert des compétences et pas bien appliqué le traitement du langage naturel (NLP). Dans un sens, comme word2vec embarqués sont pré-formés pour compenser cela, mais ils ne peuvent être appliqués à un seul niveau de mot, ne peut pas saisir la structure de haut niveau de la langue.

Cependant, en 2018, cette situation a changé. Elmo, s'incruster dans le cadre de la première étape importante pour améliorer la migration de la PNL d'apprentissage. ULMFiT encore plus loin: parce que la sémantique ne sont pas satisfaits de la capacité de capture intégré, les auteurs ont trouvé un moyen d'étudier la migration de l'ensemble du modèle.

Mais le plus intéressant est sans aucun doute l'introduction progressive de BERT. En ayant tout le modèle de langage pour apprendre de l'article Wikipédia en anglais, cette équipe peut atteindre le plus haut niveau de résultats dans 11 tâches de la PNL - c'est un exploit! Mieux encore, il est open source. Ainsi, vous pouvez appliquer à cette recherche avancée sur leurs propres problèmes.

Formule contre réseau (GAN) polyvalence

la vitesse du processeur ne sera pas augmenter de façon exponentielle, le nombre de documents universitaires de réseau formule de confrontation (de GAN) va certainement continuer à croître. GAN a été le chouchou de la communauté universitaire. Cependant, son application dans la vie réelle semble être peu, mais cela n'a guère changé en 2018. GAN, mais a encore un potentiel d'attente incroyable d'être réalisé.

À l'heure actuelle, il est une nouvelle approche, qui augmente progressivement la formule contre le réseau: le générateur dans le processus de formation pour augmenter progressivement la résolution de leur sortie. De nombreux articles impressionnants utilisant cette méthode, qui utilise une technologie de transfert de style pour produire la photo réaliste. Comment réaliste? Vous me dites:

Laquelle de ces images est une vraie personne?

Ce piège question: Aucun de ces éléments.

Cependant, GAN est de savoir comment cela fonctionne, et pourquoi il prendra effet alors? Il nous manque encore une compréhension en profondeur, mais nous prenons des mesures importantes: une équipe du MIT a été sur cette question a été la recherche de haute qualité.

Un autre développement intéressant est le « patch confrontation », techniquement parlant, il n'est pas une formule contre le réseau. Il utilise à la fois la boîte noire (sans tenir compte sensiblement l'état interne du réseau de neurones) et une méthode pour créer une boîte blanche « patch », peut tromper un classificateur à base de CNN. Pour arriver à un résultat important: il nous conduit à une meilleure compréhension de la façon dont la profondeur de travail des réseaux de neurones, la distance et nous obtenons le concept de niveau cognitif humain de la distance.

Pouvez-vous distinguer les bananes et grille-pain il? AI ne peut toujours pas.

Apprentissage par renforcement (RL)

Depuis 2016 AlphaGo a battu Shishi, l'apprentissage par renforcement a fait l'objet de l'attention du public.

Dans la formation, l'apprentissage de renforcement dépend du signal « récompense », qui est, dans sa dernière tentative de cotes de rendement. Les jeux d'ordinateur offrent un contraste avec la réalité de l'environnement naturel, de sorte que ce signal est toujours disponible. Par conséquent, toutes les études de RL d'attention sont enseignées dans le jeu AI sur le jeu Atari.

En parlant DeepMind leur nouvelle invention, AlphaStar est devenu nouvelles. Ce nouveau mode de StarCraft II a vaincu l'un des pros de haut. Starcraft est beaucoup plus complexe que les échecs et les dames, jeux de société et les plus différents, StarCraft a un énorme espace d'action caché sur le lecteur et des informations importantes. La victoire du champ entier, il est un pas très important.

RL dans ce domaine, un autre rôle important OpenAI ne chôme pas. Laissez-les titre de gloire est OpenAI Cinq, le système en Août 2018 battu Dota 2 ce jeux de sport électronique extrêmement complexe 99,95% des joueurs.

Bien que les jeux informatiques ont été OpenAI donné beaucoup d'attention, mais ils ne négligeaient pas les domaines d'application potentiels réels RL: robots.

Dans le monde réel, une personne peut donner une rétroaction du robot est très rare et cher: Sur la première « étape » dans votre R2-D2 (robot virtuel dans le film) essayer, vous avez besoin essentiellement d'une nounou pour prendre soin des êtres humains elle. Vous avez besoin des millions de points de données.

Pour combler cette lacune, la dernière tendance est d'apprendre un environnement de simulation, tout en exécutant simultanément un grand nombre de scénarios pour enseigner les compétences de base du robot, puis se tourna vers le monde réel. OpenAI et Google travaillent sur cette approche.

Mention honorable: Deepfakes

Deepfakes fait référence au nombre d'images fausses ou vidéo, (en général) montrent une figure publique fait ou dit quelque chose qu'ils ont jamais fait ou dit quelque chose. Sur la base de la « cible » figure d'un grand nombre de lentilles formés sur une formule contre le réseau, qui génère ensuite une nouvelle actions médiatiques nécessaires --deepfakes est ainsi créé.

Janvier 2018 version d'une application de bureau appelé FakeApp, permettant à quiconque avec un peuple de la science informatique et ne savait rien de peut créer deepfakes. Bien qu'il produit vidéo, il peut facilement être vu qui est faux, mais la technologie a fait des progrès considérables.

infrastructure
Tensorflow et PyTorch

À l'heure actuelle, nous avons beaucoup de cadre d'apprentissage approfondi. Le champ est vaste, cette diversité est logique sur la surface. Mais en fait, la plupart des gens utilisent tensorflow récentes ou PyTorch. Si vous vous souciez de la fiabilité, la facilité de déploiement SRE problèmes sont généralement préoccupés par les modèles lourds et ainsi de suite, alors vous pouvez choisir tensorflow. Si vous écrivez un document de recherche, mais pas de travail Google, alors vous êtes susceptibles d'utiliser PyTorch.

ML en tant que service partout
Cette année, nous voyons plus de solutions d'intelligence artificielle, ils ne sont pas obtenu un doctorat de l'Université de Stanford ingénieurs logiciels d'apprentissage de la machine emballée dans une API pour la consommation. Google Cloud Azure et ont amélioré l'ancien service, et a ajouté de nouveaux services. Liste d'apprentissage machine AWS des services commence à sembler très intimidante.

Mon Dieu, les services de AWS auront bientôt besoin de deux autres à la hiérarchie de répertoire pour apparaître.

Bien que cette frénésie phénomène a refroidi un peu, mais il y a encore beaucoup d'entreprises de démarrage lancé un défi. Tout le monde est engagé à la vitesse de formation du modèle, la facilité d'utilisation et processus de modèle de performance de raisonnement étonnant.

Il suffit de saisir vos informations de carte de crédit et télécharge vos données pour modéliser un certain temps pour former ou tune fin, appeler le repos (ou, pour être start-up plus proactive GraphQL) de l'API, vous pouvez devenir une intelligence artificielle maître, même pas besoin de comprendre « l'inactivation aléatoire (abandon) » est.

Avec tant d'options, pourquoi quelqu'un prendrait la peine de construire leur propre modèle et de l'infrastructure elle? En fait, les MLaaS de produits prêts à l'emploi 80% des cas pratiques a fait très bien. Si vous voulez que le 20% restant travail peut, ce n'est pas la chance: non seulement vous ne pouvez pas vraiment choisir le modèle, vous ne pouvez pas contrôler même sur les paramètres. Ou, si vous avez besoin quelque part en dehors de la zone de confort de l'inférence nuage - vous ne pouvez pas le faire dans des circonstances normales. C'est le prix.

Mention honorable: AutoML et AI Hub

Cette année a lancé deux services particulièrement intéressants émis par Google.

Tout d'abord, Google Cloud AutoML PNL est un ensemble de vision informatique personnalisé et des produits de formation modèle. Qu'est-ce que cela signifie? designers automobiles en accordant automatiquement le modèle de plusieurs pré-formé, et choisir le meilleur pour résoudre le problème de la personnalisation du modèle. Cela signifie que vous n'avez probablement pas besoin de personnaliser leurs propres modèles.

Bien sûr, si vous voulez vraiment faire quelque chose de nouveau ou quelque chose de différent, alors ce service ne vous appartient pas. Cependant, Google dans un grand nombre de données propriétaires, en fonction de leur modèle de pré-formation, ce qui est un avantage secondaire. Pensez à toutes les images sur les chats, ils doivent être plus promotionnel que IMAGEnet!

En second lieu, AI Hub et tensorflow Hub. Les deux comparu personne modèle de réutilisation est vraiment une corvée. Basé sur GitHub peu de code aléatoire, il peut souvent mal enregistré, et, en général, beaucoup avec eux est pas agréable. Il y a des poids d'apprentissage de transfert pré-formés ...... pour ainsi dire, vous ne voulez même pas essayer de les utiliser pour le travail.

Ce Hub est le TF en essayant de résoudre le problème: il est un dépôt de modèle fiable, organisé, vous pouvez affiner ou construire. Il suffit d'ajouter quelques lignes de code client --TF Hub peut obtenir à partir du code du serveur de Google et les poids correspondants - et puis, oh wow, il peut fonctionner correctement!

Ai Hub plus: Il vous permet de partager le pipeline ensemble ML, pas seulement les modèles! Il est encore en phase de test alpha, mais si vous savez ce que je veux dire, alors, qu'il a une même plus que le dernier fichier est « il y a 3 ans, ils modifient le » référentiel aléatoire est beaucoup mieux.

matériel

Nvidia (NVIDIA)

Si vous sérieusement étudié la ML en 2018, en particulier DNN, alors vous aviez un GPU utilisé (ou plus). Par conséquent, le leader du GPU cette année sont très occupés.

Avec refroidissement frénésie de cryptage et cours des actions ultérieures ont dégringolé, Nvidia a publié une nouvelle génération de cartes de niveau de consommation tout basé sur une architecture de Turing. La nouvelle carte utilise uniquement la carte à puce à base professionnelle Volta a publié en 2017 et comprend une nouvelle multiplication matricielle à grande vitesse est appelée Tensor Cores de matériel. DNN est le mode de fonctionnement de la multiplication de la matrice principale, accélérant ainsi ces opérations permettra d'améliorer considérablement la vitesse de formation du réseau de neurones sur le nouveau GPU.

Pour ceux qui sont « petits » et jeu « lent » est pas satisfait du GPU, Nvidia a mis à jour leur « plate-forme de super-informatique. » DGX-2 ayant jusqu'à 16 Tesla V, pour 480 TFLOP (480 téraflops) Opération FP16, est décrit comme une boîte "monstre". Et son prix a également été mis à jour, jusqu'à 400000 $.

En outre, le matériel automatique a également été mis à jour. Jetson AGX Xavier Nvidia espère pouvoir la prochaine génération de véhicules autonomes un module. CPU à huit curs, accélérateur visuel et des accélérateurs d'apprentissage en profondeur, qui sont nécessaires pour le pilote automatique de l'industrie en pleine croissance.

Dans un projet de développement intéressant, Nvidia a introduit une fonctionnalité basée sur DNN pour leur carte de jeu: l'étude approfondie de Super (apprentissage en profondeur supersampling). L'idée est de remplacer l'anti-aliasing, principalement selon la première rendant une résolution plus élevée que nécessaire (par exemple 4 fois), puis l'image mise à l'échelle à la résolution native de l'écran à réaliser.

Maintenant, Nvidia permet aux développeurs de libérer avant le match pour le train à modèle très élevé de conversion d'image de qualité. Puis, en utilisant un modèle de formation d'avant-match sera envoyé à l'utilisateur final. Pendant le jeu, les graphiques par le modèle de fonctionner afin d'améliorer la qualité d'image sans encourir les frais de style ancien anti-aliasing.

Intel

Intel en 2018 est certainement pas pionnier de l'intelligence artificielle dans le domaine du matériel, mais il semble qu'ils veulent changer.

Étonnamment, la majorité des actions d'Intel se sont produits dans le domaine du logiciel. Intel tente de rendre plus adaptés pour les développeurs et matériels existants à venir. Dans cet esprit, ils ont sorti une paire (deux incroyable et il y a la concurrence) Kit: OpenVINO et nGraph.

Ils mettent à jour leur barre de calcul neuronal: un petit périphérique USB qui peut accélérer tout DNN avec un port USB, ou même Raspberry Pi.

Les rumeurs sur le GPU discret d'Intel est de plus en plus complexe. Bien que les rumeurs ont continué à se répandre, mais l'applicabilité de nouveaux équipements de formation DNN reste à voir. Absolument adapté à l'apprentissage en profondeur que les rumeurs d'une carte d'apprentissage professionnel profond, nom de code de leur Spring Hill et Spring Crest. Cette dernière technologie est basée startups Nervana (Intel quelques années avant son acquisition) de.

Inhabituel (et inhabituelle) matériel personnalisé

Google a lancé sa troisième génération TPU: DNN base accélérateur ASIC dédié, avec étonnante 128Go mémoire HMB. Un tel dispositif 256 est assemblé en un temps supérieur à 100 gigabits par seconde ensemble ayant une performance. Google cette année, ces appareils ne sont plus seuls à taquiner les autres joueurs du monde, mais de fournir des TPU au public via Google Cloud.

Dans un semblable, mais la principale raison de l'application du projet, Amazon a déployé AWS Inferentia: d'une manière plus coûteuse, plus efficace pour exécuter le modèle en production.

Google a également annoncé un objet TPU bord: Cette puce est très faible: 10 jetons ajouter à la taille d'un sou. En même temps, il peut faire la vidéo en temps réel en cours d'exécution sur DNN, et ne presque pas consommer toute l'énergie, il suffisait.

Un intéressant nouveaux joueurs potentiels est Graphcore. La société britannique a augmenté de 310 millions $, et a lancé sa première puce GC2 produit en 2018. Selon les tests de référence, lorsque le raisonnement de GC2 effectué rouler le serveur GPU Nvidia carte haut, alors que la consommation d'énergie est considérablement réduite.

Mention honorable: AWS profond Racer

Amazon a lancé un petits véhicules autonomes DeepRacer, ainsi qu'une ligue de course. Ceci est tout à fait inattendu, mais aussi un peu comme la situation quand ils ont lancé DeepLens avant. La voiture est équipée d'un 400 $ processeur Atom, un appareil photo 4,0 mégapixels, wifi, plusieurs ports USB, et une charge complète peut fonctionner pendant des heures.

modèle autopilote peut être utilisé pour la formation tout à fait dans un environnement de simulation 3D dans le nuage, puis déployé directement à cette voiture. Si vous avez toujours rêvé de construire leurs propres véhicules autonomes, de sorte que la voiture d'Amazon vous permettra de le faire sans avoir à aller à l'entreprise fondée par leur propre soutien à la VC.

Ensuite, il y a quoi? L'accent sera mis sur la décision intelligente

Puisque l'algorithme et l'infrastructure matérielle pour l'IA de devenir un facteur utile de mieux que jamais, afin que l'entreprise a commencé à se rendre compte que le plus grand obstacle l'application AI dans la pratique de leur niveau: Comment vous mettre en uvre l'IA du stade de l'idée à l'efficacité , les systèmes de production sûrs et fiables?

applications AI ou l'application de l'apprentissage machine (ML), aussi connu comme décision intelligente est de créer AI résoudre des programmes scientifiques pour les problèmes du monde réel. Dans le passé, nous nous concentrons sur la science derrière l'algorithme, mais dans l'avenir, nous devrions accorder plus d'attention aux applications égales fin.

Intelligence artificielle dans la promotion de l'emploi l'emportent sur les réalisations

 « L'intelligence artificielle ôtera tout notre travail, » les médias ont à plusieurs reprises prêché le thème, qui est une crainte commune de col bleu et blanc. Et de la surface, cela semble être une prévision raisonnable. Mais jusqu'à présent, le contraire est vrai. Par exemple, beaucoup de gens en créant un ensemble de données d'étiquette au travail pour obtenir un salaire.

Comme application LevelApp permet de réfugiés marquer simplement vos données en utilisant un téléphone mobile peut faire de l'argent. Harmon va encore plus loin: Ils fournissent même des équipements pour les camps de migrants, afin que ces personnes peuvent contribuer et gagner leur vie.

En plus des étiquettes de données, l'industrie est par la création de nouvelles technologies AI. Nous pouvons faire des choses inimaginables il y a quelques années, comme les véhicules autonomes ou le développement de nouveaux médicaments.

Plus ML calcul associé au champ dans le bord

Pipeline stade ultérieur de la fidélité du signal est généralement réduite de sous-échantillonnage ou autrement. D'autre part, les modèles AI deviennent plus complexes, ils obtiennent de meilleurs résultats dans le cas de plus de données. La composante AI plus proche des données, près du bord, que ce serait logique?

Pour prendre un exemple simple: Imaginez un appareil photo haute résolution, la vitesse Gigabit peut être 30 fois par seconde pour générer la vidéo de haute qualité. Modèle de l'ordinateur Vision traite le fonctionnement vidéo sur le serveur. La caméra vidéo sur le serveur de streaming, la bande passante en amont est limitée, et donc réduire la vidéo hautement compressée. Pourquoi ne pas passer à la caméra et modèle visuel en utilisant le flux vidéo d'origine il?

En même temps, il y a toujours plus d'obstacles, qui sont principalement: le nombre et la complexité de la gestion des périphériques informatiques disponibles sur les capacités de pointe (par exemple, le modèle sera mis à jour au bord). Apparaître matériel dédié (comme bord TPU de Google, moteur nerfs Apple, etc.), des modèles plus efficaces et logiciels d'optimisation, de sorte que la disparition progressive des limites de calcul. ML en améliorant le cadre et les outils pour gérer la complexité des questions continuent d'être pris en compte.

AI espace infrastructure intégrée

Quelques années il y a des activités liées à l'infrastructure d'intelligence artificielle sans fin: une grande annonce, plusieurs tours de financement des engagements énormes et lourds. En 2018, ce domaine semble être refroidi. Bien qu'il existe encore de nombreux nouveaux progrès, mais la plupart des contributions sont faites par les grands acteurs existants.

Une explication possible peut-être notre compréhension du système d'infrastructure idéal AI est pas assez mature. Parce que le problème est complexe et nécessite à long terme, soutenue, ciblée et financièrement solides efforts afin de produire une solution viable - c'est le démarrage et les petites entreprises ne sont pas bons. Si une entreprise de démarrage pour « résoudre » le problème de la grippe aviaire, il va certainement rendre les gens émerveillés.

D'autre part, l'ingénieur de l'infrastructure ML est très rare. Pour les grandes entreprises, à seulement quelques employés, difficulté start-up est évidemment des cibles d'acquisition très précieux. Cette industrie au moins quelques joueurs sont en lutte constante pour la victoire, ils ont également mis en place des outils internes et externes. Par exemple, Google Cloud AWS et les termes, les services d'infrastructure AI est un argument de vente majeur.

En résumé, nous pouvons prédire l'avenir il y aura une intégration monopoliste de multiples acteurs dans ce domaine.

Plus du matériel sur mesure

Au moins pour la CPU, la loi de Moore est arrivé à expiration, et le fait qui existent déjà depuis de nombreuses années. GPU souffrira bientôt le même sort. Bien que notre modèle est plus efficace, mais pour résoudre certains des problèmes les plus avancés, nous avons besoin d'utiliser plus de puissance de calcul. Ceci peut être résolu par la formation distribuée, mais elle a aussi ses propres limites.

En outre, si vous voulez exécuter une partie du plus grand modèle sur les dispositifs à ressources limitées, la formation distribuée deviendra inutile. Entrez un accélérateur AI personnalisé. Selon ce que vous voulez ou en mode personnalisé peut être réalisé, vous pouvez enregistrer une grandeur de la puissance, le coût et la consommation potentielle.

D'une certaine façon, même les Nvidia Tensor Cores ont également été engagés dans cette tendance. S'il n'y a pas de matériel commun, nous verrons plus de cas.

Réduire la dépendance sur les données de formation

les données sont généralement coûteuses de marquage ou indisponibles, ou peut à la fois. À quelques exceptions à cette règle. Open, ensembles de données de haute qualité, tels que MNIST, IMAGEnet, COCO, Netflix et prix de commentaire IMDB sont des sources incroyables de l'innovation. Mais de nombreux problèmes et il n'y a pas de données disponibles correspondant dont. Les chercheurs impossible d'établir leurs propres ensembles de données, et peuvent fournir un parrainage ou des ensembles de données publiées de grandes entreprises, mais pas pressé: Ils construisent de grands ensembles de données, mais gardez à l'extérieur loin.

Ainsi, une petite entité indépendante, comme start-up ou de l'équipe de recherche à l'Université, comment fournir des solutions intéressantes pour ces problèmes difficiles? Construction du signal de surveillance dépendant de plus en plus petits, mais les données non marquées et non structurées (Internet et une augmentation des capteurs à faible coût rend ce type de données devient très riche) la dépendance croissante du système peut y parvenir. Cela explique pourquoi les gens l'intérêt pour GAN, le transfert et l'apprentissage de montée subite de renforcement dans une certaine mesure: Toutes ces techniques nécessitent des investissements moins (ou pas) dans l'ensemble des données de formation.

Donc, c'est juste une bulle?

L'industrie est entré dans l'intelligence artificielle populaire dans la septième année « été ». Pendant ce temps, un grand nombre de projets de recherche, le financement universitaire, capital-risque, l'attention des médias et l'afflux d'une ligne de code dans ce domaine.

Mais il y a lieu de souligner que la plupart des engagements pris par l'IA n'a toujours pas été honorés: ils ont récemment voyage en taxi Uber est toujours un pilote humain dans la voiture, encore actuellement ne semble pas Omelette matin robot pratique. Je devais même de lier leurs propres lacets, vraiment très triste!

Cependant, de nombreux efforts et diplômé ingénieur logiciel est pas en vain. Il semble que chaque grande entreprise dépendent déjà lourdement de l'intelligence artificielle, ou la mise en uvre de ces programmes à l'avenir. Art de la grippe aviaire populaire. Bien que les véhicules autonomes n'a pas encore paru, mais ils vont bientôt naître.

2018, les États-Unis dans le domaine de l'intelligence artificielle, le développement rapide, la Chine ne sont pas beaucoup mieux. Cette tendance était évidente des Baidu récents peuvent et BOSS directement recrutés publié conjointement le « 2018 China Intelligence artificielle ABC Rapport de développement des talents ».

Source: TOPIA Turing; traduction: Huang Shan, Yang Pengyue;

(Cet article est une réimpression ou d'un réseau extrait, appartient à l'auteur original ou publié dans les médias du tout. Comme travaux sur des questions de droit d'auteur, s'il vous plaît nous traitons le contact.)

10 réseau mondial Voyage ville rouge, il y a de nouvelles façons! Transit dauphins roses, lucioles nuit
Précédent
Wu Xiaobo ne veut pas dire que A-part fou?
Prochain
Le troisième « sans déchets ville, » Journée tenue à Beijing
cri chaud ~ Dr maladie mentale a chuté à un niveau âgé de 4 ans, les étudiants pour lui de faire ces choses
Pour restaurer les touristes chinois, la Thaïlande 10.1 de frais d'accès sans visa? Déclaration officielle: faux!
Pékinois un plat d'enfants de conserves au vinaigre, comme à manger avec la fête!
Très instruits dans ce que la vie dans la victoire fin? Ceci est la réponse!
Écoutez ces grands café État talk - les entreprises appartenant à la prochaine réforme
Prix 100000200000 configuration, dont plusieurs VUS bon marché, les conducteurs âgés disent bon!
la plus forte posture extraordinaire de Macy est pas ce que vous pensiez que ce serait simple, mais l'astuce!
Vibrato éclate d'une grande capitale culinaire du Guangxi, vraiment si bon?
La Turquie est en train d'émerger d'un dollar tout le chemin est de trouver de nouveaux amis, président du sol: effondrement de la monnaie est un complot
automne Mongolie intérieure à la fin comment les Etats-Unis? Une lettre micro pour vous dire que les Etats-Unis ont simplement bu
Vous ne voulez pas suivre la tendance BBA! Ceci est plusieurs 300000 SUV de luxe, un visage est pas mal rue