Chen Yurong Intel: Intel analyse complète de plate-forme informatique intelligence artificielle de | CCF-GAIR 2018

Lei Feng réseau de presse : 2018 Sommet mondial sur l'intelligence artificielle et robotique (CCF-GAIR) tenue à Shenzhen, le sommet organisé par la Fédération chinoise Computer (CCF), Lei Feng réseau, Université chinoise (Shenzhen) Hong entrepreneur Kong, ont reçu des conseils solides du gouvernement district de Bao'an de Shenzhen City, Haut de la Chine d'un événement de réseautage trois domaines de l'intelligence artificielle et de la robotique dans le milieu universitaire, l'industrie et la communauté des investisseurs, vise à créer une plate-forme pour les échanges transfrontaliers et la coopération dans le domaine de l'intelligence artificielle, le pays le plus puissant.

1er juillet, la « spéciale de la puce AI, » Intel chercheur en chef, Intel Chine Institut de recherche du laboratoire informatique cognitive directeur Chen Yurong apporter " Intel puissance de calcul de la plate-forme de développement de l'intelligence artificielle « Discours d'ouverture.

étude approfondie Chen Yurong décrit le développement d'un des domaines de travail spécifiques, de vision industrielle reconnaissance et la reconnaissance vocale ont été plus humain. De plus, la profondeur de l'apprentissage est également largement appliquée à d'autres domaines pour résoudre les problèmes du monde réel, y compris les soins de santé de dépistage du cancer, la classification des documents des investissements financiers, l'industrie de l'énergie, l'exploration pétrolière et gazière, des appareils intelligents en assistant vocal, les applications industrielles de détection et gène défaut l'ingénierie séquençage des gènes.

Cependant, le déploiement de l'apprentissage en profondeur est multiforme, l'apprentissage en profondeur de la formation est seulement une petite partie, est plus important de comprendre comment fonctionne l'ensemble de la solution, et la façon d'intégrer de façon transparente dans un processus plus large d'analyse des données aller à l'intérieur.

Chen Yurong Intel a présenté des plates-formes de calcul le plus largement utilisé l'intelligence fin artificielle, y compris la puce à usage général, des accélérateurs sur mesure tels que Nervana apprentissage profond processeur de réseau de neurones, FPGA, Movidius VPU, Mobileye EyeQ, GNA IP, les graphiques intégrés et d'autres matériels, et divers logiciels des outils tels que OpenVINO, SDK Movidius, MKL-DNN, clDNN, ainsi que de pointe d'Intel et de la recherche prospective, comment intégrer l'aide au développement de l'intelligence artificielle.

Ce qui suit est le texte intégral du discours Chen Yurong, Lei Feng réseau a été modifié sans changer l'intention initiale.

Bonjour tout le monde l'après-midi! Je suis très heureux de participer à ce forum pour présenter la plate-forme informatique de l'intelligence artificielle et Intel nos travaux de recherche. Je aujourd'hui plus de recherche et nous faisons la plate-forme informatique existante pour parler.

Qu'est-ce que l'intelligence artificielle? En pleine évolution définition de l'intelligence artificielle, mais son noyau principal est la capacité d'aller au-delà de la simulation et la fonction cognitive liée à la machine de l'esprit humain à parler. AI contient une variété de différentes implémentations, l'apprentissage machine centrée sur les données est une manière importante, car elle porte sur trois sous-tâches principales de l'intelligence artificielle, y compris le raisonnement de la perception, la planification / contrôle et a de très bons résultats. l'apprentissage en profondeur est un sous-ensemble de l'apprentissage de la machine, l'intelligence artificielle de ces dernières années devenir une force motrice pour le développement. Mais ne veut pas dire que d'autre moyen est pas important, comme un simple réseau de neurones, systèmes de raisonnement des algorithmes d'apprentissage machine classique à base, ainsi que d'autres algorithmes émergents, il est très important. Je crois que l'intelligence artificielle de sera en fin de compte par l'intégration d'une variété de méthodes pour atteindre.

Dans ce algorithmes d'intelligence artificielle, l'apprentissage de la machine contient une variété de statistiques et d'algorithmes de planification, y compris la régression classique, la classification, le regroupement, arbres de décision, les algorithmes d'extrapolation, leurs avantages sont adaptés pour les petites données avec de faibles exigences de calcul, une conclusion la transparence est meilleure, l'inconvénient de nécessiter beaucoup de conception manuelle, une faible précision de reconnaissance pour des problèmes complexes comme la reconnaissance d'image. Ces dernières années, étude approfondie Les algorithmes de Mainstream utilisés pour résoudre de nombreux problèmes de reconnaissance vocale de l'image, le traitement du langage naturel, la reconnaissance des formes et ainsi de suite. Son taux élevé de précision, mais il a quelques problèmes, par exemple, nécessite une grande quantité de formation de données, il nécessite beaucoup de ressources informatiques, en même temps, il n'a pas de fondement théorique, qui est, on dit souvent que la boîte noire, vous ne savez pas comment aller la conception d'un réseau de neurones. Enfin, tout le monde est susceptible d'être négligé raisonnement connexe L'algorithme, qui se trouve à partir de diverses de similitude massive de données et détecter les anomalies, AML et peuvent être utilisés dans des applications telles que la détection de fraude financière à l'intérieur.

Merci au développement de l'apprentissage en profondeur, dans des domaines spécifiques de la mission, la vision industrielle reconnaissance et la reconnaissance vocale ont été plus humain. De plus, la profondeur de l'apprentissage a été largement appliqué à d'autres domaines pour résoudre les problèmes du monde réel, y compris la détection de la tumeur dans les soins de santé, investissement financier document classifié qui a utilisé l'industrie de l'énergie, exploration pétrolière et gazière, l'équipement d'assistant vocal intelligent, des applications industrielles la détection des défauts du génie génétique et le séquençage des gènes à l'intérieur. notre détection de défauts dans les applications industrielles, par exemple Pour voir comment les solutions d'apprentissage en profondeur sont développées.

Dans l'ensemble des solutions comprennent généralement l'identification des possibilités, établir des hypothèses, la préparation des données, modèle de formation, modèle de déploiement, la solution pour itérer et évaluer. Nous utilisons un cas réel du client, le cycle de développement des solutions d'apprentissage en profondeur ont été répartition en pourcentage. étude approfondie des différentes solutions sur le pourcentage de segments de temps ne sont pas les mêmes, mais ils sont fondamentalement les mêmes étapes. Vous devez faire les données de marquage, le chargement, la mise en valeur, vous voulez faire des tests sur la structure du modèle DNN et déboguer les paramètres du modèle, et a finalement conclu que les besoins à faire pour soutenir et partager les résultats. La ligne pointillée est informatiquement section de formation de modèle intensif, il est très important, mais il ne représente qu'une petite fraction de l'étude approfondie du cycle de développement, environ 30%. De plus, nous pouvons voir le développement de l'apprentissage en profondeur de l'ensemble du développement de la solution est seulement une petite partie, il est important de vous dire un déploiement plus rapide comment utiliser les budgets informatiques des solutions d'intelligence artificielle, plutôt que de dépenser l'argent supplémentaire pour accélérer une petite partie de la solution globale.

Cet exemple est détecté par le défaut, nous examinons comment une véritable solutions d'apprentissage de bout en profondeur sont déployés. Case à gauche schéma d'implantation fonctionnelle lequel une tête 10 du moniteur de l'équipement d'imagerie pour détecter un défaut. La première chose à faire est des experts humains marquage d'image défectueux, générant de grands ensembles de données, qui peuvent être utilisés pour former un modèle de réseau de neurones. Formés et modèle déployé est stocké sur le système à inférée pour la vidéo suivante. Lorsqu'un défaut est découvert, il envoie les résultats pour en déduire la couche service et des solutions couche. Les résultats peuvent être inférés comme base pour la prise de décision, nous pouvons prendre des mesures, comme appeler un technicien ou d'arrêter la ligne de production. De la conception du centre de données à droite, vous pouvez le voir, il existe une variété de matériel. Voulez-vous dire ici que, Le déploiement de l'apprentissage en profondeur est multiforme, l'apprentissage en profondeur de la formation est seulement une petite partie, est plus important de comprendre comment fonctionne l'ensemble de la solution, et comment intégrer de façon transparente dans un processus plus large d'analyse de données pour aller à l'intérieur .

Je suis d'accord avec de nombreux chercheurs disent, nous sommes au début de l'ère de l'informatique de l'intelligence artificielle, ou est l'aube. Intel est déterminé à ouvrir non seulement la voie pour le développement de l'intelligence artificielle, mais aussi dans ce domaine émergent de premier plan, il est également dans la meilleure position. Nous informatique en fournissant la plate-forme la plus complète de l'industrie pour aider les utilisateurs à obtenir des résultats plus intelligents, qui sont tous fait des demandes et des besoins des segments de marché utilisateur parcourus. La première étape consiste à utiliser l'intelligence artificielle pour être données prêt Nous et beaucoup de nos partenaires offrent une variété de solutions pour stocker, traiter et gérer les données. Comme principaux fournisseurs de matériel informatique du monde, Notre type de support matériel dédié, les applications IA les plus utilisées de charge hybride à partir du nuage vers le terminal. Outre le matériel, le logiciel est également très important. Juste Maître Wei (Wei Shaojun) a également dit que le logiciel d'intelligence artificielle est plus important que le matériel, dans un sens. nous Intel moteur de matériel pour faire en sorte que tous ont une expérience commune de la grippe aviaire, avec la plus grande cohérence, l'interopérabilité et la sécurité. Nous offrons une variété de combinaisons d'outils logiciels pour la vitesse aide les cycles de développement AI Solutions . En plus des outils matériels et logiciels, nous avons aussi Adopter des méthodes et axée sur les solutions communautaires, AI pour élargir et enrichir la vie de tout le monde . Nous et nos partenaires avec des solutions prêtes pour une variété d'industries, y compris financière, santé, commerce de détail, l'industrie, le gouvernement, l'énergie et ainsi de suite. Face à l'avenir, Nous leader R & D et des investissements, y compris les subventions de recherche universitaires haut, R & D interne et l'investissement dans les grands innovateurs, ainsi que de continuer à promouvoir la politique et le leadership éthique de continuer à promouvoir le développement de l'intelligence artificielle.

En termes d'outils, Intel d'investir dans des outils logiciels AI valeur ajoutée pour vous aider à faire bon usage de chaque matériel Intel, ce qui simplifie le processus de développement, ce qui réduit finalement le temps de développement solution globale. Pour les développeurs d'applications, nous fournissons beaucoup d'outils pour améliorer la performance et aider à accélérer le déploiement de solutions. Pour l'apprentissage en profondeur, OpenVINO open source et Intel Movidius SDK peut convertir et modèle d'optimisation, fournissant chaque optimisation du matériel cible pour une étude approfondie Intel a conclu que le déploiement. Nous développons également une étude approfondie Intel Studio peut aider à raccourcir les solutions d'apprentissage de bout en profondeur le cycle de développement (y compris la formation). En plus de l'apprentissage en profondeur, Intel Safran AI peut également fournir une solution de raisonnement cognitif qui peut être utilisé pour appliquer le blanchiment d'argent et la maintenance prédictive.

Pour les scientifiques de données, nous nous engageons à Optimisation d'une série de base de données open-source est largement utilisé dans la machine et la profondeur de l'apprentissage. Il existe déjà quelques bibliothèques d'apprentissage de la machine peuvent tirer parti du matériel Intel, y compris Python, R, distribué des bibliothèques. nous avons également Etude approfondie du cadre commun de faire directement optimisé pour assurer tous les principaux cadre d'apprentissage de la profondeur et de la topologie peut bien fonctionner sur le matériel Intel . CPU a terminé le cadre d'optimisation comprend flux Tensor, MXNet, Caffe, l'avenir l'espoir d'obtenir un cadre plus nGraph par le compilateur Intel. Pour les développeurs bibliothèque, nous fournissons beaucoup de blocs de construction de base, pour profiter pleinement du matériel d'Intel. Ceux-ci comprennent Pour l'apprentissage machine de distribution Python optimisé Intel et Intel pour accélérer l'analyse des données et à la bibliothèque d'apprentissage machine DAAL inclus, ainsi que pour le processeur et graphique intégré Intel optimisé bibliothèque de base DNN MKL-DNN et clDNN Ces deux bibliothèques de modèles pour le développement de l'apprentissage en profondeur est la plus pertinente. Je l'ai mentionné plus tôt compilateur Intel nGraph, le compilateur peut nous aider à l'intérieur du cadre est calculée à partir d'un dessin différent et transformé en une représentation intermédiaire, la représentation intermédiaire peut être effectuée pour un appel particulier Intel matériel accéléré logiciel informatique. De cette façon, les développeurs peuvent utiliser le logiciel sous-jacent et n'a pas besoin de bibliothèques mathématiques accéléré optimisés pour cadre d'apprentissage en profondeur directe et un modèle pour chaque matériel cible.

Intel matériel, d'autres applications d'intelligence artificielle, en plus de la profondeur de l'apprentissage, telles que l'analyse de données vient d'être dit, il y a un apprentissage de la machine et le raisonnement, vous pouvez utiliser d'autres CPU Xeon ou faire, car ils ont la charge de calcul est pas aussi profond que l'apprentissage le calcul des caractéristiques de haute résistance et le degré de parallélisme élevé. Pour l'apprentissage en profondeur, Intel offre une large gamme de produits pour répondre aux besoins particuliers des différents clients. Pour la formation, le courant peut être utilisé pour faire de la formation ou d'un cluster à base de Xeon Xeon. Si vous avez besoin d'accélérer peut aussi envisager l'utilisation de l'accélérateur, l'année prochaine Intel aura un processeur dédié pour la profondeur Intel Nervana apprentissage formation du réseau de neurones. Pour conclure, actuellement dans des centres de données et postes de travail, processeur Xeon ou réellement standard du marché aujourd'hui (avec plus ou processeur Xeon). Si vous devez faire une intensité inférée élevée, vous pouvez également envisager d'utiliser l'accélérateur, Intel a un accélérateur de beaucoup pour votre choix.

Voici quelques-unes de l'étude approfondie d'Intel a conclu que l'accélérateur . Nous savons tous que le centre de données, bord informatique et les équipements terminaux, de déduire une étude approfondie de performance, de puissance et les coûts sont en fait très différents. Intel FPGA peut être calculé dans le centre de données et le bord de l'étude approfondie inférée de personnalisation et le prototypage rapide sur l'appareil. Intel Movidius VPU Est-ce une vision d'ordinateur de faible puissance et des solutions inférées profondeur. Dans le calcul du bord, en utilisant une pluralité de Movidius VPU, de haute résistance, les médias à haute efficacité et de l'estimation visuelle. Dans le terminal, Movidius VPU à l'inférence de puissance ultra-faible peut fournir un excellent rendement, il peut être utilisé pour le traitement visuel et les choses INFER de capteurs, ordinateurs personnels et d'autres produits finaux. La technologie Intel Mobileye EyeQ Autopilote est déduit plate-forme, mais aussi être à la disposition des clients en tant que solution de pilote automatique complet. Intel GNA, modèle de mélange de gaussiennes et réseau de neurones est un accélérateur d'énergie ultra faible voix sur IP et une solution de déduisent audio qui peut être intégré dans de nombreux sound design intelligent, les appareils mobiles, puce à l'intérieur du volant de voiture ou PC. Enfin, Intel graphique intégré, on peut facilement ignorer le fait que la capacité intégrée de déduire l'apprentissage en profondeur accéléré.

Ici pour parler de Movidius VPU et graphique intégré Intel. Sorti l'année dernière, Myriad X est la dernière génération d'Intel Movidius VPU, il est un SoC de faible puissance, il peut être utilisé dans le traitement d'image économes en énergie à l'intérieur, la vision par ordinateur et la profondeur de l'équipement d'apprentissage, y compris les robots de service, caméras de surveillance, wearable l'équipement, des véhicules aériens sans pilote, casques AR-VR et aux périphériques intelligents. Par rapport à la génération précédente Myriad 2, X Myriad plus d'un moteur de calcul neuronal (Neural Compute Engine), qui est intégré sur une puce accélérateur DNN. Avec cet accélérateur, une étude approfondie a conclu que le débit peut être atteint 1TOPS, qui est plus d'un billion d'opérations par seconde, peut atteindre un 4TOPS de pointe théorique. Intel Movidius VPU petite taille et les performances de calcul par watt grande pour répondre aux besoins des clients pour la vision par ordinateur et la profondeur de l'apprentissage sur le dispositif terminal.

Avec Movidius VPU, nous avons lancé le kit de développement logiciel Movidius, il est un kit de développement logiciel complet pour l'unité de traitement vidéo. Il utilise intégré dans le temps de développement du système et de réduire la complexité du prototype de cadre dessin, il peut être utilisé pour le prototypage rapide. Il contient aussi beaucoup de base de données, tels que le signal vision par ordinateur et de l'image ainsi que quelques bibliothèque d'algèbre linéaire. Vous pouvez donc utiliser la programmation C / C ++ pour obtenir les meilleures performances, mais il prend également en charge une suite riche d'outils pour le développement graphique. La technologie Intel Movidius a été largement utilisé dans lequel un grand nombre de dispositifs intelligents, y compris des caméras intelligentes Hikvision, véhicules aériens sans pilote Dajiang, bâtiments en fonction de la caméra IP, Motorola caméra à 360 degrés, Dahua caméras industrielles, vision Google AIY kit de caméra intelligente et Clips et ainsi de suite.

Graphique intégré Intel fournit l'étude intégrée en profondeur a conclu que l'accélération, mais avec moins de tout le monde. En fait graphique intégré Intel trouvés dans de nombreux Intel SoC, y compris le processeur Intel Atom, processeurs Intel Core et les processeurs Intel Xeon E3. Intel propriétés graphiques intégrés avec les principaux médias comprennent la technologie de synchronisation vidéo rapide, en utilisant le module de traitement des médias à fonction fixe pour réduire la consommation d'énergie, d'améliorer les performances, vous pouvez créer rapidement et facilement et de traiter avec les médias, et la conversion vidéo. L'autre est le SDK Intel Media, qui permet d'accéder à l'API codec accélération matérielle, qui est utilisé plus que tout le monde. De plus, Intel graphiques intégrés prend également en charge les types de données riches et instructions SIMD de multiplication-accumulation. Entre la CPU et GPU simultanément en utilisant une mémoire partagée sur puce architecture, la latence et la consommation d'énergie peut être réduite.

Maintenant, nous utilisons Intel clDNN, vous pouvez facilement atteindre la profondeur du réseau de neurones calcul sur graphique intégré Intel. étude approfondie clDNN sur le middleware d'accélération graphique Intel intégré, le mois dernier nous avons juste sur l'open source GitHub, nous pouvons en apprendre davantage sur le web. En outre, une étude approfondie clDNN fait partie de boîte à outils Intel Deployment Toolkit et Intel OpenVINO. OpenVINO également une nouvelle boîte à outils de logiciels open source, vient de publier le mois dernier, pour aider à améliorer les performances des solutions de vision par ordinateur sur les plates-formes Intel, tout en réduisant le temps de développement de la solution.

OpenVINO étude approfondie contient le kit de déploiement Intel comprend un optimiseur de modèle et le moteur d'inférence, le modèle d'optimisation de modèle peut être déduit tensorflow, Caffe dans un cadre intermédiaire et analogue, ledit représenté intermédiaire par le moteur d'inférence pour son propre CPU Intel, GPU , les plug-ins VPU et FPGA, vous pouvez traverser la plate-forme de soutien et d'accélérer l'étude de la profondeur de déploiement a conclu que . OpenVINO comprend également de nombreux outils de vision par ordinateur traditionnels et les bibliothèques pour l'optimisation de la plate-forme Intel, y compris pour les CPU Intel et OpenCV d'optimisation GPU, OpenVX et bibliothèque de vision photographique d'Intel, ainsi que pour Intel graphique intégré optimisé pilote médias SDK et OpenCL et l'exécution, ainsi que pour bitstream FPGA Intel optimisé et l'environnement d'exécution, le tout afin de faciliter le développement meilleur et plus rapide des applications de vision par ordinateur sans qu'il soit nécessaire de prendre soin partie d'optimisation plus sous-jacente.

Ce qui suit décrit nos propres recherches en profondeur dans l'apprentissage accéléré . Comme nous le savons tous, est une étude en profondeur de compression modèle de réseau ont conclu que les principaux moyens d'accélérer, que nous avons fait un bon travail, nous proposons une des solutions de compression profondes à faible précision, cette solution peut être poids modèle DNN la valeur d'activation et de faible précision sont convertis en représentation binaire, et pour parvenir à un temps d'étape de compression sans perte. Cela ouvre le matériel de manière et de logiciels pour l'apprentissage profond du moteur d'inférence efficace. La technologie elle-même se compose de trois modules: un réseau de technique chirurgicale optimale la structure DNN DNS pour la réduction progressive réseau précision de quantification bonnes valeurs de technologie DNN INQ, aussi faible précision la valeur d'activation DNN quantification technique codant pour MLQ multi-échelle, trois travaux publiés dans l'apprentissage machine niveau haut et conférence de l'intelligence artificielle. Ils peuvent être compressés DNN assurer la mise en uvre du modèle dans le cas de la précision de la prédiction du modèle ne se réduit pas.

Pour exemple AlexNet, en utilisant des solutions de compression profonde à faible précision, nous pour la première fois près de taux de compression sans perte plus de 100 fois le modèle DNN binaire. Comme les poids de compression et les modèles de valeur d'activation sont représentation binaire, de sorte que toute l'opération de multiplication peut être transformé en une opération de décalage simple. Utiliser l'accélération matérielle personnalisée peut être réalisé plusieurs fois, voire cent fois. Notre technologie de compression et la combinaison de matériel de faible puissance d'Intel qui peut calculer le brouillard, l'informatique de pointe fournit l'étude approfondie a conclu que l'accélération matérielle. DNN utilisant FPGA conception conviviale, combinée à une solution de précision faible profondeur de compression peut tirer profit de l'unité de calcul logique FPGA, calcule le bord du brouillard ou de la scène qui est calculée pour augmenter la vitesse de calcul DNN, ce qui réduit la consommation d'énergie et de temps d'attente afin d'améliorer le débit. De plus, ont déjà mentionné, Intel Movidius VPU lui-même a déjà un accélérateur de calcul DNN, combinée à notre technologie de compression à faible précision, l'avenir peut apporter un soutien pour les calculs à faible précision DNN, afin d'améliorer encore la vitesse DNN calculée sur les appareils de bord et le débit.

Bien sûr, nous ne sommes pas seulement limités à la conception dédiée processeur de réseau neuronal, Intel Research Institute entreprend une série de changements intelligents de toutes choses, y compris des algorithmes avancés, mimique informatique neuronale, des systèmes autonomes et de l'informatique quantique. CES montrent cette année, nous avons publié une étude de mimique neuronale puces Loihi et une puce de test quantique supraconducteur 49 qubits Tangle-Lake. Ces deux études peuvent aider à diverses industries, les institutions de recherche et de la société dans son ensemble pour résoudre les problèmes actuels qui affligent les ordinateurs traditionnels. Notre étude prospective progresse de façon constante, dans l'espoir de se préparer pour le développement futur de l'intelligence artificielle et de soutien pour l'avenir nouveau calcul.

Enfin, je voudrais utiliser « connaître l'avenir un avenir » la fin de mon discours. Intel ne change pas le début du cur, et toujours adhérer à l'innovation et la coopération, et nous espérons que le monde universitaire, la collaboration de l'industrie et de l'innovation ensemble, sont réunis pour créer un avenir meilleur de l'intelligence artificielle. Merci!

Andrews roi d'un achat en obtenir un? Samsung S8 à faire cette promotion vraiment attrayante!
Précédent
Plus radical que Huawei P20 Pro, le premier téléphone mobile Samsung mis quatre photo disponible!
Prochain
Ces paragraphes 7 SUV seulement 100000, les gens d'attraction du Nouvel An à la maison correctement le terminé
Quotes: nouveau vivo couleur bleu été X9 été pour seulement 2598 yuans
Texte Guide de classification: Python vous voulez vraiment manquer?
Chine Fierté | 2018SS interview exclusive avec la semaine de top model des hommes chinois
Film Golden Globe Houxiersuo Ronan sont montés à bord du britannique "Bazar", incroyablement attrayant Flaming Lips
Pour toute la maison intelligente nouvelle dynamique | Bosch (BOSCH) à Hangzhou et la décence ont signé un accord important!
OPPO K1 mille prix Yuan marché concurrentiel, in vivo série Z puis est allé!
dernier classement de dix entreprises de messagerie: tout d'abord, il est vraiment
Hong but électoral: Laissez-moi une odeur fraîche et cool ~
China Mobile, a ouvert aujourd'hui l'essai gratuit d'une borne eSIM
Lu Chuan le film "749 Office" par l'investissement lourd, Wangjun Kai Liao enquête Fan "Institut surnaturel"
Razer a publié Razer Phone 2, ajouter plus fonction de la scène non-jeu!