A propos de la fusion des capteurs, les entreprises de cette start-up ont quelque chose à dire

Lorsque les véhicules autonomes observent l'environnement, comment répondre aux besoins en temps réel sûr, précis,? Quel est le point clé est d'intégrer l'information pour tous les capteurs.

Mountain View, Californie entreprise appelée DeepScale ont des start-up, ils ont développé un « système de perception », il peut être utilisé pour ADAS et hautement automatisé au volant d'une voiture. « Système de perception » la plus caractéristique importante qui utilise les données brutes (données brutes) l'intégration, plutôt que des données objectives (données d'objet) l'intégration, et peut être mis en uvre sur les appareils embarqués.

CEO Forrest Iandola de DeepScale a déclaré que l'étude d'un grand nombre de réseaux de neurones profondeur (DNN) est d'ajuster les changements cadres DNN existants. Cependant, les données brutes DeepScale DNN ont développé leurs propres réseaux, non seulement des données brutes du capteur d'image, comprenant en outre un radar et un radar laser.

L'intégration précoce et post-intégration

Phil Magney est le système de vision intelligente (Vision Systems Intelligence, appelée VSI) fondateur, il croit que la recherche DeepScale programme temps très DeepScale en utilisant les données brutes du capteur pour former le réseau de neurones qui la fusion de capteurs et d'autres méthodes Quelle est la différence ?

Post-intégration

Iandola, et maintenant, la plupart fusion de capteur fusion est la couche cible, au lieu de la couche d'intégration de données brutes. Dans la plupart des cas, le noyau se trouve sur la puce de capteur génère lui-même le traitement de données cible, d'autres capteurs pour transmettre les données d'origine vers le processeur hôte génère une cible, une fusion des capteurs et ensuite, ce procédé de fusion est appelée « post-fusion. »

Un problème rencontré lorsque les données cible d'intégration avec les données d'origine, en particulier lorsque les différentes fusion des données de capteurs. « Par exemple, un radar laser pour générer des données de nuage de points 3D, si vous voulez reconstruire l'environnement, trouveront les données d'image reçues de la fréquence d'images de la caméra est complètement différent. »

Lors de la génération de la cible, les informations superflues seront filtrées, de sorte qu'il est arrivé de perdre les données d'origine. Ceux-ci peuvent être éliminés par filtrage des données brutes triées autre fusion de données de capteurs. Imaginez quelques scénarios menant au soleil direct aveuglante la caméra, la neige juste couvert le radar, les données du capteur ou les résultats ne sont pas compatibles, dans ce cas, la fusion de niveau cible sont confrontés à de grands défis.

L'intégration précoce

Iandola introduit la route, « donc nous avons commencé à le faire à la fusion des données de capteurs plus tôt, mais aussi d'être plus proche du capteur en place, l'intégration antérieure de ces problèmes mentionnés ci-dessus peut être réduite. »

Concevoir leur propre DNN

vision informatique cadre DNN déjà formé, et le développement du bien, parce qu'il ya beaucoup de premiers véhicules autonomes en tirant parti de la recherche et du développement technologique dans ce domaine. Mais d'autres données sensorielles, telles que les données radar et lidar, et ne pas utiliser DNN réseau de neurones formés. DeepScale souhaitent entrer dans ce champ vide.

DeepScale une certaine accumulation d'expérience dans le développement de leur propre DNN.

Aussi période de recherche universitaire, Iandola l'Université de Californie à Berkeley et l'équipe de recherche principale est la profondeur du modèle de réseau de neurones appelé SqueezNet dans. Une partie de l'équipe plus tard rejoint le Iandola des entreprises de démarrage. SqueezNet pas commencer à résoudre un problème né du pilote automatique, l'équipe a développé l'intention initiale était « de faire ce modèle aussi petit que possible, tout en assurant l'application de la vision par ordinateur dans l'ensemble de données, avoir atteint une précision raisonnable. »

Similaires, Iandola également été impliqué dans le développement d'un cadre similaire DNN --FireCaffe, pour accélérer la formation, il peut être utilisé pour les appareils embarqués. Dans un document, Iandola et son équipe représente un groupe basé GPU, FireCaffe une formation approfondie sur une grande échelle réseau de neurones.

Quand on pense « radar à ondes millimétriques et un manque radar laser cadre DNN, » cette question, Iandola a dit: « La raison pour laquelle cela est aussi une raison. Les capteurs Pendant longtemps, l'appareil photo est devenu a été utilisé pour générer beaucoup plus populaires et facilement disponibles, de données sensorielles. vous serez en mesure d'obtenir suffisamment de données vidéo à partir de YouTube, combinées avec des informations cartographiques, il est relativement facile de construire DNN ».

Récemment, DeepScale et a un certain nombre de fournisseurs radar radar et laser pour les OEM de développer des algorithmes été entièrement formés. Les partenaires tant dans les anciens fournisseurs, mais aussi une nouvelle société de recherche et de développement technologique. « L'objectif est de développer DeepScale la tablette DNN, peut importer des données provenant de différents capteurs. »

Iandola Selon les rapports, l'équipe utilise une variété d'informations de capteurs partagés pour maximiser la précision du lien perçu et réduire l'incertitude. les données de formation tag joué peut être réutilisé, les données provenant de différents capteurs peuvent être effectués que pour minimiser l'étalonnage à la fin du capteur.

Magney VSI pense, solution DeepScale ne varie pas de solutions de capteurs affectés, ils ont développé DNN peut fonctionner sur différentes plates-formes de processeurs. DeepScale de la technologie peut aider les OEM et TIER 1 construire un programme de modélisation environnementale à base d'AI ne forment pas leur propre réseau de neurones, ils ne pas écrire leurs propres algorithmes.

Environnement d'exploitation

DeepScale avantage que leur approche est que - du capteur d'impact et d'un programme de traitement. Plus important encore, son efficacité opérationnelle élevée sur le processeur, la consommation d'énergie est plus faible.

les données brutes à partir de quatre caméras et radar 1 peuvent être exécutées sur un processeur (par exemple une régulation du trafic puce de haut niveau Snapdragon) pour un téléphone intelligent sur APP. Les données de capteur brut 12 peut être traité sur un GPU NVIDIA.

DeepScale très clair: OEM est très préoccupé par le coût, ils veulent un processeur de faible puissance (sans dispositif de refroidissement supplémentaire).

plate-forme DRS360

Il y a une société appelée Mentor Graphics et DeepScale beaucoup l'idée, a récemment été recommandé par son ancienne plate-forme DRS360. DRS360 plate-forme est constituée de Xilinx Zynq UltraScale et MPSoC composition FPGA, en utilisant un algorithme de réseau neuronal sur la base de l'apprentissage machine.

Et vice-président de la division Embedded Systems de Mentor, chef de Glenn Perry a dit, « dans la conception de l'architecture des véhicules de conduite hautement automatisée, la couche de fusion de données de capteurs ne sont pas la seule façon, mais il est la façon la plus intelligente. »

Cependant, une variété de capteurs à collecter des données, couche d'intégration de données en temps réel, cette idée dans l'industrie automobile a suscité des réactions différentes. Perry croit, l'histoire du développement OEM des idées de conception supplémentaires sera une certaine opposition.

Par exemple, certains OEM été mis dans le développement d'un système ADAS, en utilisant les données de la cible radar pour la mise en uvre du régulateur de vitesse. caméras radar pour faire l'intégration peut atteindre le système de freinage d'urgence. Laissez-les revenir à faire la couche d'intégration de données, pour eux de briser la façon actuelle de faire les choses.

Perry croit DeepScale sont en train de faire un algorithme pour la couche d'intégration de données, est une « scène de l'argent » d'innovation utile, il fait également partie de leurs solutions de R & D lorsque DRS360 a été impliqué pour Mentor Graphics est une bonne chose. Lorsque les consommateurs utilisent la plate-forme matérielle DRS360, produits DeepScale peuvent être utilisés comme un algorithme de fusion alternative.

domaine concurrentiel

concurrents DeepScale le sont?

Magney, beaucoup de choses sont en développement, de nombreuses entreprises de matériel (processeurs de vente et / ou système) fournira DNN / CNNs. Ils fournissent généralement un processeur / plate-forme et des outils supplémentaires pour soutenir l'algorithme basé sur l'IA, cette partie de l'algorithme et DeepScale fourni similaire. « Mais, » il ajoute: « La plupart des solutions matérielles de l'entreprise ne fournit pas ce DeepScale algorithme été entièrement formés. »

Magney a dit que pas tant d'entreprises peuvent fournir une bonne formation comprennent pré-AI algorithmes logiciels pour accès à la couche de fusion de données de capteurs à l'ensemble de la modélisation de l'environnement. Il a ajouté, « AImotive et Mobileye ont des recherches similaires, mais nécessite processeur hôte spécial et spécifique. »

Alors NVIDIA il? Magney dit que Nvidia est pas bon pour tout l'environnement d'un logiciel algorithme de pré-formation « pile. » NVIDIA fournit des solutions matérielles et les outils utilisés pour créer des applications spécialisées, mais aussi à voir avec la fusion des données brutes.

Mais les analystes soupçonnent, le logiciel AI passer beaucoup de travail, il est pas aussi simple que de voir au départ. « Les entrepreneurs sont développés en secret, et quelques-uns disent qu'ils ont fait. »

DeepScale Quel est le rôle du pilote automatique?

Dans un discours prononcé récemment publié, VSI a discuté de la « architecture des véhicules autonomes » ce sujet. L'architecture est divisé en cinq plus - la perception, le positionnement et la planification, la prise de décision / mise en uvre, le contrôle, la connexion & I / O.

rôle DeepScale

accent DeepScale est sur les deux premières parties - la perception, le positionnement et la planification, ils soutiendront l'ensemble de la modélisation de l'environnement, y compris: la reconnaissance cible, le réseau de la grille, la segmentation de la voie, suivi d'objets et d'auto-positionnement.

La société a actuellement un peu pressé dans l'industrie. Iandola ne pense pas DeepScale à attendre l'arrivée de voiture automatique à nouveau une voiture pour promouvoir la technologie. « Nous voyons la perception du problème est très répandu. Des techniques similaires peuvent être utilisées dans la production de volume de ADAS automobiles et véhicules autonomes utilisés pour les services nourricières. » Système perceptif DeepScale est adapté pour L2-L4 / 5.

Magney lesdits produits Deepscale sont adaptés à la combinaison actuelle de capteurs ADAS, ce qui permet des fonctions d'automatisation ajouté OEM dans le milieu de mise à jour. Leur logiciel peut être la voiture la plus rapide dans la production de masse en 2020.

A propos de la sécurité

De toute évidence, la sécurité est tout conduite automatique de mise au point de l'entreprise. Deepscale sur ce problème donne une réponse, ils estiment que le pilote automatique doit être plus sûr que la conduite humaine.

Iandola avait fait référence à la notion de « réglementation de la sécurité » - véhicules autonomes au lieu d'attendre l'accident, le véhicule effectue un auto-test. Chaque module peut auto-test « à ce moment peut permettre au conducteur de laisser aller » ou « tourner sur le pilote automatique à ce moment pour saisir à quel point. » Car envoyer en permanence des données pour aider à identifier le scénario le plus défavorable, et d'établir un modèle de sécurité efficace.

Magney a noté, Deepscale dans la « pile » il y a un moniteur de sécurité pour la sécurité et les cas bord de capture réglementaire, de continuer à améliorer l'algorithme. De plus, il ajoute, Deepscale soutient également OTA et que d'établir un modèle, et la fonction Tesla très similaire.

Singe, ne pas vendre est également très bon! Millet premier bas 5X 300000: ouvert à vendre une journée vide dévalisé
Précédent
Répondre 1988, après la fin de l'année du dragon Fête du Printemps, les années pour nous d'enterrer ces oeufs
Prochain
Apple a été oublié: iPhone7 de noir brillant à prix en Chine soins de personne!
Volkswagen Jetta effectivement équipé de boîte de vitesses à faible 8AT, l'envie les propriétaires de Sagitar domestiques
L'un million gâteau de château, afin que les utilisateurs écrièrent: C'est ma maison, mais l'acompte!
Après avoir lu ceci, vous comprendrez pourquoi les premières ventes de OPPO de téléphone mobile domestique!
BMW X7 est apparu vraie voiture, cette attitude ne peut pas être évincés de l'équipe Audi Q7
Les habitants de la ville allemande se disent « chinois », le chinois est la langue officielle, le Nouvel An chinois est plus amusant?
Tiggo 5x: 5 Chery deviendra un nouveau numéro de la chance? | Nouveau commentaire voiture volonté
Le dernier Polaris bleu, après de nombreuses années, il ne sera pas plus précieux que Volkswagen R36
Apple a annoncé: 10 ans à vendre 1,2 milliard iPhone, votre famille a contribué plusieurs?
« L'amitié entre les hommes et les femmes pures et mon mari est » de voir ces vieux couples, je crois en l'amour
2016 Fortune 500: le patron d'Apple, Huawei rouler Tencent, Baidu Ali a disparu!
Votre choix 29 contenait jusqu'à présent ne donnent pas, une paire de parents, Longjiang amour et dévouement