Laissez la machine apprendre à « lire dans les pensées » besoins informatiques affectifs de la façon de résoudre le scénario dans le monde réel? | Difficile de créer la classe ouverte

Vous faites un visage, ou dire un mot, la machine peut identifier avec précision votre humeur.

Oui, quand vous êtes désireux d'obtenir « télépathie » compétences, la machine a été en mesure d'atteindre le parfait. À l'heure actuelle, la technologie ouverte de l'aile intérieure, l'entreprise Au-delà Verbal Israël et les Etats-Unis et Affectiva Emotient font ces solutions informatiques affectives. Le scénario d'application est très large: l'humeur pilote de surveillance, centre d'appels d'évaluation émotionnelle, suivi de l'intelligence émotionnelle étudiants et même le matériel peuvent utiliser ces algorithmes, et la précision peut atteindre 90%.

En termes simples, la machine est basée sur la personne de la fréquence cardiaque, la respiration, la voix, et même les expressions du visage et d'autres caractéristiques, alors les gens seront en mesure d'interpréter l'état émotionnel grâce à un algorithme de modèle spécifique, d'un point de vue technique, l'exploration de données, l'apprentissage machine et sont donc des émotions base de calcul.

Ainsi, le module complet qui détermine les besoins émotionnels? Et le principe de mise en uvre spécifique est ce qui est il? Cette question a frappé dur classe ouverte, Lei Feng réseau invité à l'aile ouverte Weiqing Chen, fondateur de la science et de la technologie en tant que part des questions de technologie de l'informatique affective et des scénarios.

Invité Présentation

Weiqing Chen, la technologie open aile fondateur de EmoKit, EmoKit a actuellement la responsabilité générale de la planification stratégique de l'entreprise, la gestion des opérations, le renforcement de l'équipe, l'équipe deux scientifiques clés ont été rapatriés post-doctorants.

EmoKit, à savoir les moteurs de l'informatique affective sirène, y compris l'identification émotionnelle, l'optimisation, l'expression, l'intelligence artificielle est l'une des infrastructures de base. Depuis 2015, la création de six mois pour obtenir 6 millions d'investissement, compte aujourd'hui plus de 20 millions d'utilisateurs, près de 20 millions de yuans cette année pour obtenir l'ordre. Emokit a remporté le Massachusetts Institute of Technology organisé par le "MIT-CHEF Global Entrepreneurship Competition," la première région chinoise, la Finlande "Slush monde 2014 Global Entrepreneurship Competition" au premier rang, le ministère de l'Industrie et de l'Association nationale pour le plan d'affaires Concours 2015 National Mobile Internet " grand Prix "l'Université de Tsinghua, H + Lab" heureux championnat technologie de défi mondial ».

La consolidation suivante de la classe actuelle ouverte, Lei Feng réseau ne voulait pas changer l'éditeur:

des modules de calcul et de la valeur Affective

Sur ce que nous faisons maintenant, nous mettons l'informatique affective est divisé en trois modules: la première partie est la reconnaissance de l'émotion, et un sens du taux de changement pour déterminer l'humeur de l'utilisateur par la voix, le rythme cardiaque, les expressions du visage et de l'écriture pression process.

reconnaissance Emotion

Type émotionnel d'un total de 24 espèces, 12 sortes de divers positif et négatif. Dans le processus de développement affectif de l'informatique, l'algorithme a également enregistré six mises à niveau. Nous escaladons l'évaluation de la première génération, deuxième génération a rejoint le rythme cardiaque et la respiration, augmentation de troisième génération pour l'étude longitudinale individuelle et la formation, la quatrième génération des émotions que nous avons fait un raffinement (augmentation du 5 original dans l'ambiance à 24 sortes), la cinquième génération à se joindre à l'expression de la reconnaissance des émotions et des notes, la sixième génération de faire deux tâches principales: une fois qu'un utilisateur est de déterminer l'état d'esprit d'identifier plus fondée sur l'intention de l'utilisateur sur un fond d'événement unique, le second travail est la voix, les expressions du visage et le comportement visuel du texte pour un montage multi-modal.

Module d'optimisation émotionnelle

la reconnaissance de l'émotion est la première étape, le prochain problème à résoudre est d'ajuster l'humeur de l'utilisateur. Comme on le voit sur le graphique, puis déterminer l'humeur de l'utilisateur à travers la voix, les expressions faciales et les notes de la fréquence cardiaque ces informations, il peut aussi faciliter l'humeur de l'utilisateur en recommandant le contenu.

Par exemple, l'aile technologique a ouvert en 2011 une demande sera recommandé à la ligne de la poésie, calligraphie, musique, etc., et plus tard dans une analyse plus approfondie du contenu de la musique, la musique de notre terrain d'analyse, le rythme, la mélodie et l'intensité sonore de l'utilisateur, 3 chanson minute recueillera 6000 points de données pour lire des morceaux selon l'étiquette d'humeur à ces messages. Maintenant marqué une belle quantité de musique plus de 1,6 million, en plus, comme des images, le contenu vidéo peut être fait en faisant correspondre émotionnel, de l'utilisateur et, finalement, pour faciliter l'humeur.

L'expression émotionnelle

L'expression émotionnelle est l'utilisation de la technologie de synthèse émotionnelle qui permet à une voix, les expressions du visage ou des mouvements du corps simulent l'émotion humaine, laisser la machine avec l'expression de sortir de l'émotion, de sorte que vous pouvez améliorer l'expérience de l'interaction homme-machine.

Par exemple, si le robot ne voit que la salle plat et les invités, ce sont les services de base, mais d'augmenter la valeur ajoutée du robot, le robot a besoin d'espace pour lire l'humeur des clients, les clients se sentant vers le bas, salle sera un robot plus apaisante type de dialogue émotionnel.

la technologie informatique Affective pour atteindre la route

À l'heure actuelle aile technologique ouverte et l'Institut de psychologie, Département de psychologie, Institut de l'Université de Tsinghua, la technologie linguistique et Carnegie Mellon University.

Ceci est en fait deux écoles: les représentants des deux corps devant le modèle expert se fonde sur la recherche théorique, Université Carnegie Mellon, est basée sur la profondeur du modèle de réseau de neurones de l'apprentissage.

La technologie actuellement ouvert dans les ailes à faire est en partie basé sur la profondeur de l'apprentissage, mais aussi en partie basée sur des modèles experts. Nous croyons que ces deux types de goulots d'étranglement ont progressivement émergé, nécessité d'intégrer les uns aux autres.

Pourquoi apprendre à reconnaître les expressions faciales à voir avec la profondeur?

Maintenant, faire beaucoup de goulot d'étranglement d'apprentissage profond est des données annotées, mais l'étiquette regardera relativement facile, que les émotions d'un visage humain, en général, une seconde peut identifier le visage d'une personne, s'il y a des centaines de milliers émoticônes Zhang, le temps et les dépenses nécessaires pour utiliser le crowdsourcing moyen ne sera pas grande.

Cependant, il n'y a pas très pratique pour faire des annotations de données, telles que la voix.

discours de trois minutes, nous devons faire après avoir écouté trois minutes à l'humeur de marque, marqués en augmenter pratiquement la charge de travail sur une centaine de fois, et l'expression relative, l'expression émotionnelle de la parole est plus cachée, donc il est difficile d'utiliser l'apprentissage en profondeur la façon de parvenir à la reconnaissance de la parole émotionnelle.

Il y a aussi une marque de gens ordinaires difficiles, comme la fréquence cardiaque. Même si vous êtes un médecin professionnel pour une carte de lecture de la fréquence cardiaque ne peut pas déterminer la cause de l'objet de test de fréquence cardiaque (heureux, anxiété, colère).

Alors maintenant, le visage est basé sur la profondeur de l'apprentissage, la voix et le rythme cardiaque à partir de modèles experts.

Mais nous venons d'évoquer, ces deux types de développement dans une certaine mesure, quand il y aura un goulot d'étranglement. goulots d'étranglement d'expression par exemple face par deux fois: 1 expression du visage ordinaire taille des particules est généralement marquée 6-8 sortes d'émotions, difficile d'identifier les plus fines (24 types ou encore plus d'une centaine de sortes), 2 voire terminés. le type émotionnel de standard, mais vous ne pouvez pas confirmer l'authenticité de l'émotion.

Dans le modèle expert, il existe des modèles plus matures pour déterminer l'authenticité des émotions, de sorte que nous pouvons apprendre sur la base de la profondeur, puis modèle expert à briser superposé ce goulot d'étranglement.

La fréquence cardiaque et des goulets d'étranglement voix sur le modèle expert, et maintenant la solution est de construire un modèle de formation pour renforcer l'utilisateur individuel (un test utilisateur plus de modèles mettra en vedette plus d'autocollants correspondent aux utilisateurs de test), en plus, nous pouvons également établir un algorithme d'apprentissage semi-supervisé pour obtenir une rétroaction en temps réel.

Ainsi, il y a deux voies techniques sur la surface, mais en fait les deux sont fusionnés les uns aux autres.

Compréhension différente de l'informatique affective

Différentes industries pour la compréhension de l'informatique affective ne sont pas les mêmes. Rosalind Picard de l'enseignant du MIT MediaLab, elle est aussi le fondateur des disciplines de l'informatique affective.

Il y a tellement de mots dans la préface de son livre « l'informatique affective »: Si vous voulez que l'ordinateur pour atteindre vraiment intelligent et nous adapter à, produit naturellement l'interaction homme-ordinateur avec nous, il doit avoir la capacité d'exprimer la reconnaissance des émotions et , vous avez besoin d'avoir des émotions.

directeur scientifique de l'informatique Google Cloud Li Feifei informatique affective est si compréhensible: maintenant que nous devons juger l'émotion de la logique de la méthode AI. Logique au nom du QI, et au nom émotionnel de l'égaliseur. En venant de l'émotion à l'émotion, l'intelligence artificielle est la direction future de l'avant.

Nous croyons que l'on peut comprendre à partir de trois angles de calcul affectif:

Tout d'abord, l'informatique affective peut aider l'IA à reconnaître l'humeur de l'utilisateur;

En second lieu, l'informatique affective peut aider l'IA simulent les émotions humaines, afin d'améliorer l'interaction émotionnelle humaine;

Troisièmement, l'informatique affective permet IA de générer l'auto-discipline (empathie).

scénarios

aile actuellement la technologie en boucle ouverte et a lancé une lettre de coopération, anneau croit avoir l'outil de communication IM, qui contient des informations qui voix, les expressions du visage et du texte, nous avons ouvert ses liaisons SDK, peut déterminer l'humeur de l'utilisateur par la voix et d'autres informations .

De plus, nous avons maintenant et la coopération IFLYTEK, principalement par le biais de licences croisées de l'autre, par la version liaison du SDK, HKUST reconnaissance vocale de vol, la technologie ouverte de l'aile pour juger de l'humeur, en ce moment encore des applications visuelles, iFLYTEK identifier l'identité de la personne, la technologie ouverte de l'aile pour identifier leurs émotions.

En outre, les éléments suivants sont possibles scénarios de calcul affectifs d'atterrissage:

1. La reconnaissance multimodale à base d'AI et des techniques de biofeedback matériel de dépistage du stress intelligent

2. Identification multimodale basée sur l'IA des techniques d'interrogatoire de la police et l'analyse en temps réel de la PNL de l'équipement d'alerte précoce

3. Le système est basé sur la fatigue du conducteur de courage et de surveillance émotionnelle reconnaissance multimodale AI et le contrôle du véhicule

4. La base AI-reconnaissance multimodale intelligente et la liaison de contrôle des émotions système intelligent de la maison sans contrôle

5. Analyse du visage signe robotique financière d'évaluation des risques de crédit reconnaissance multimodale basée-AI et de motivation

6. Surveillance et centre d'appels système d'analyse de la satisfaction empreinte vocale basées sur la voix et des techniques PNL sièges humeur

7. tendance développement logiciel de prévision basé sur le caractère des jeunes enfants émotion grande technologie d'analyse temporelle des données récursive

8. Analyse récursive du système immunitaire reconnaît les dommages alarmants technologie logicielle basée sur le calendrier grand de données d'émotion

Bien sûr, les sociétés de capital-risque, de faire tous les scénarios ci-dessus arrivent sur le marché, Lei Feng réseau a appris, la technologie ouverte de l'aile a fait des efforts pour l'éducation Commercialiser, des finances et d'autres domaines.

Q & merveilleux

Q: voix, image comment ces différents modules coordonnent le travail à l'intérieur du système?

R: En fait, est un algorithme multi-modale, il existe deux façons de réaliser: les données elles-mêmes sont des données multimodaux, puis faire le marquage, l'étiquetage fait de jouer, vous pouvez le faire par le biais d'une étude approfondie de la formation, d'autre part, multimodal fait par la collecte de données, puis le même capteur, par exemple, peuvent être collectées par le biais d'un microphone à la voix de l'utilisateur, empreinte vocale, une analyse plus approfondie du texte, ne multimodal.

Q: précision des données d'émotion ont beaucoup d'influence, comment les données sont collectées?

R: Au cours de notre informatique affective à l'Université Carnegie Mellon et l'échange d'experts, nous obtenons une vue à travers une information unique pour déterminer le sentiment, le taux d'exactitude a ses limites, en outre, le plus tôt sera le mieux à faire multimodaux , plus le meilleur mode ajustement.

Nous signal de réponse émotionnelle est divisé en deux catégories, l'un est un signal faible, comme la parole, l'expression, il y a une catégorie de signaux profonde, complètement influencée par sympathique et parasympathique, la conscience subjective est difficile à contrôler.

acquisition de signal faible profondeur plus facile, mais le poids est pas élevé, le signal profond poids élevé, mais la collection plus difficile. analyse multi-modale des deux signaux peuvent être intégrés pour améliorer la précision du jugement émotionnel.

Q: Quelle précision actuelle? Les modèles multi-modales ont le do papier pertinent?

A: voix et la fréquence cardiaque sont basées sur le modèle expert, la précision sera plus faible, à environ 85%, environ 90% du visage (mais seulement 7 dans l'expression émotionnelle).

Q: Il existe des normes de l'industrie reconnaissance des émotions pour déterminer l'exactitude de celui-ci? Il n'y a pas de norme, puis, à partir de laquelle les dimensions pour améliorer le taux de reconnaissance?

A: Standard Type d'émotion maintenant déterminé sont plus fréquentes si la profondeur du modèle d'apprentissage atteint, encore un autre ensemble de données d'annotation afin de fonctionner sur le modèle, afin de déterminer l'exactitude; En outre, les évaluations d'utilisateur peut être déterminé en fonction de , les résultats des évaluations tests système à l'utilisateur, ce qui permet aux utilisateurs de donner la validation finale.

Comment optimiser? Peut-être auto-formation par le biais de l'auto-correction d'apprentissage semi-supervisé.

Q: Y at-il des données de modalité utilisant des ondes cérébrales elle?

R: Ceci est une étude à l'étranger ont pas beaucoup, nous pensons maintenant capteur EEG n'est pas standard consommateur final, la collecte EEG à un capteur spécial, actuellement seulement utilisé dans l'industrie spécial, ne algorithmes génériques pas ouverts.

Ouvrez la vidéo de classe

PS: Wings Ouvrir la technologie embauche: l'apprentissage de la machine, la vision de la machine, l'informatique affective, multi-modale, la PNL et d'autres postes connexes, qui sont intéressés sont invités à reprendre vote: way@emokit.com

puissance multi-phase numérique pour casser le défi des choses infrastructures pour l'approvisionnement proposé
Précédent
En chirurgie plastique continue la vie de l'amour, après tout, est une tragédie
Prochain
Barrage jeu Dieu comme « colombes » ou la plate-forme d'atterrissage PS4
Affichage d'un paratonnerre | petite viande pourrie d'acteur est pas mal? Cette semaine, vous dire une seule pièce
Aucun fonctionnaire sérieux déclaré téléphone Nubian X rejoindra les huit principaux technologie noire?
Xbox 400 Big Spring début de la vente, il y a toujours une variété de marchandises que vous voulez
« fille Emprisonné agression sexuelle 24 jours » et des suspects Longmou: stress de la vie psychopathe célibataire mâle
Daily ombre Amoy | « Wolf 2 » box-office casser 3,0 milliards, pour les utilisateurs d'art collectifs qui cherchent une augmentation de salaire
Maxburg 10 Église des États-Unis canola fleur festival 23 mars 5 acres attente d'or pour vous de tirer les fleurs
La recherche sur le métal Nickel traitement bouchon de la face imprimée
lettre Micro étranglant iPhone Vital!
moi Cinéma | Film de l'apogée de la semaine rien, mon pote, à la maison à l'aise
Jishou étudiants de l'Université pour aller à la tour rouge couché EFFECTUER le « apprentissage de Lei Feng » activités étudiantes
Le film « crime psychologique » de Shanghai des milliers de personnes qui regardent Liao Fan Li Yi Feng répondre conjointement à la question « peu de viande fraîche »