Xiao contrôle du fond de Wangjing
rapports Qubit | Numéro public QbitAI
Pour les centres de données et AI, Intel a publié un « tas » de nouveaux produits!
Aujourd'hui, le géant des semi-conducteurs, souffle libéré l'architecture Cascade Lake, la deuxième génération de processeurs Xeon d'évolutivité, Optane centre de données DCPMM mémoire durable, Agilex FPGA, 800 adaptateurs Ethernet série et d'autres produits.
Il propose une gamme de solutions de la puce au stockage réseau pour le centre de données, embrasser activement 5G et la profondeur de la technologie d'apprentissage.
Ces dernières années, la hausse des données sur Internet, Intel a déclaré que la moitié des données générées au cours des deux dernières années, dont seulement 2% des données sont analysées.
Intel a publié une variété de produits, répondre à l'évolution de la croissance des données est le but de fournir une solution complète pour la transmission de données, le stockage, le traitement informatique.
La deuxième génération Xeon processeur évolutive
Intel a publié aujourd'hui la première seconde génération de processeurs Xeon d'évolutivité, par rapport à la première génération de processeur évolutif Skylake base Xeon, ce qui augmente considérablement les performances du processeur dans la deuxième génération de l'apprentissage de la machine.
Quel processeur Intel Xeon 9200 Platinum: jusqu'à 56 base, 12 canaux, le support natif 6 canaux pour DDR41,5 To de mémoire.
Dès 2017, Intel a lancé la première génération de processeurs Xeon d'évolutivité, et développé en collaboration avec l'Université Jiaotong de Shanghai 1,0 Les systèmes de calcul à haute performance, les deux parties s'appuiera sur la base de la deuxième génération Xeon 2,0 .
Après la mise à niveau vers un nouveau processeur, le calcul et la performance de stockage a augmenté de façon spectaculaire: simple accélération du processeur de noeud de 4,5 fois, le code peut être exécuté sans aucun changement au programme original, et les performances de la mémoire système 5 fois la vitesse de 15Gbps.
Centre de données du module de mémoire persistante Optane
Aoteng (Optane) Intel longtemps avant que la gamme de produits existants, qui vise à re-insérer une mémoire (DRAM) et des disques SSD (SSD), qui Bibi SSD plus rapide, une plus grande capacité que la DRAM, et une donnée de la mémoire non volatile.
Intel a lancé aujourd'hui Optane DCPMM, mémoire durable pour le module de centre de données, support pour l'interface apparence DDR4.
Optane DCPMM prendre en charge jusqu'à 36 To de bande passante système 8 voies jusqu'à 9.1B a établi un nouveau record du monde. Tencent utilise Intel Aoteng, donc la performance seule instance 1,34 fois, montés Xeon En outre, l'analyse vidéo Tencent nuage de 3,26 fois plus rapide, fournissant 2x discriminateur vitesse ascenseur jaune.
800 adaptateurs Ethernet Série
Intel a développé et lancé 100G adaptateur Ethernet Columbiaville, appelé la série Intel 800. retard de réseau diminuera de 45%, 30% ont augmenté le débit.
informatique Edge
Intel ne manquera pas un avantage récent chaud calcul, mais Intel n'est pas la mise en place du conseil de développement, mais a lancé le processeur Xeon D-1600 pour les utilisateurs d'entreprise.
Le calcul des performances 1,29 fois, 1,2 fois la performance du réseau, d'améliorer les performances de la mémoire jusqu'à 2,7 fois.
À l'heure actuelle, les entreprises de sécurité du Zhejiang Dahua ont commencé ces produits pratiques pour le domaine de la sécurité ville intelligente, la reconnaissance faciale et Intel construire ensemble HOC cur de la ville.
Tout pour AI
AI sur IA (architecture de l'information), qui est le slogan d'Intel aujourd'hui. Google, Facebook deux sociétés AI déploient leur propre matériel AI ,, PyTorch combiné avec leur propre tensorflow.
Intel a naturellement choisi de coopérer avec la plate-forme Baidu PaddlePaddle.
Baidu a lancé PaddlePaddle à partir de 2016, maintenant nous obtenons une deuxième génération Intel Xeon accélérer le modèle de processeur évolutif pour améliorer la performance globale de 2 à 3 fois.
Les deux parties vont encore optimiser les performances de la plate-forme PaddlePaddle de promouvoir une plus grande coopération, tels que Intel et les techniques de compression pour quantifier l'avenir sera intégré dans la chaîne d'outils Baidu PaddlePaddle, et ainsi de suite.
En plus de ces produits, Intel a également annoncé un nouveau processus de fabrication 10 nanomètre, 3D emballage Agilex FPGA, ainsi que la fourniture de solutions pour la sélection d'Intel de clients prêts à déployer l'IA.
- complet -
recrutement sincère
Qubits recrutent éditeur / journaliste, basé à Zhongguancun de Beijing. Nous attendons de talent, des étudiants enthousiastes de nous rejoindre! Détails, s'il vous plaît interface de dialogue qubit numéro public (QbitAI), réponse mot "recrutement".
qubit QbitAI · manchettes sur la signature de
' « suivre les nouvelles technologies AI dynamiques et de produits