bj.llcitycouncil.org
Innovation

L'IA avancée du MIT vise à prédire l'ambiance d'une conversation

L'IA avancée du MIT vise à prédire l'ambiance d'une conversation


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.


Le MIT travaille sur le développement d'un système d'IA portable qui peut prédire avec précision l'ambiance d'une conversation.

Décrypter la façon dont une personne articule l'humeur et le ton d'une phrase peut modifier considérablement le sens d'une conversation. Finalement, l'interprétation de sa signification est laissée à l'auditeur. Être capable de distinguer les émotions qu'une personne dépeint est un élément essentiel de la conversation. Cependant, tout le monde n'est pas capable de faire la distinction entre les tons.

Pour certaines personnes, en particulier celles qui souffrent d'anxiété ou d'Asperger, peuvent interopérer une conversation d'une manière différente de celle prévue. La mauvaise communication peut rendre les interactions sociales extrêmement stressantes.

Des chercheurs du Laboratoire d'informatique et d'intelligence artificielle du MIT (CSAIL) et de l'Institut de génie médical et des sciences (IMES) disent qu'ils peuvent avoir la solution: un appareil d'IA portable capable de distinguer si une conversation est heureuse, triste ou neutre en surveillant activement le façon dont une personne parle.

«Imaginez si, à la fin d'une conversation, vous pouviez la rembobiner et voir les moments où les gens autour de vous se sentaient le plus anxieux», déclare l'étudiant diplômé Tuka Alhanai. «Notre travail est un pas dans cette direction, suggérant que nous pouvons pas être si loin d’un monde où les gens peuvent avoir un coach social IA dans leur poche. »

Les dispositifs portables de prédiction de l'humeur analysent activement les schémas de parole et les signaux physiologiques d'une personne pour déterminer les tons et les humeurs exprimés dans une conversation avec 83 pour cent de précision. Le système est programmé pour enregistrer un «score de sentiment» toutes les cinq secondes pendant une conversation.

«Pour autant que nous le sachions, il s'agit de la première expérience qui collecte à la fois des données physiques et des données vocales de manière passive mais robuste, même lorsque les sujets ont des interactions naturelles et non structurées», explique Ghassemi. "Nos résultats montrent qu'il est possible de classer le ton émotionnel des conversations en temps réel."

Les techniques d'apprentissage en profondeur continueront d'améliorer les performances du système à mesure que de plus en plus de personnes l'utilisent pour créer plus de données que les algorithmes analyseront. Pour protéger la confidentialité de l'utilisateur, les données sont traitées localement sur un appareil afin d'éviter d'éventuelles violations de la vie privée. Cependant, il peut toujours y avoir des problèmes de confidentialité, car l'appareil peut potentiellement enregistrer les conversations d'individus modestes.

Comment fonctionne l'appareil

Des études antérieures examinant l'émotion d'une conversation exigeaient qu'un participant mette en scène artificiellement une émotion spécifique. Dans une tentative de créer des émotions plus organiques, les chercheurs du MIT ont plutôt demandé aux participants de raconter une histoire heureuse ou triste.

[Source de l'image:MITCSAIL / YouTube]

Les participants à l'étude portaient un Samsung Simband - un appareil capable de capturer des formes d'onde physiologiques à haute résolution pour mesurer de nombreux attributs, notamment la fréquence cardiaque, la pression artérielle, le débit sanguin et la température de la peau. L'appareil enregistre également simultanément des données audio qui sont ensuite analysées pour déterminer la tonalité, la hauteur, l'énergie et le vocabulaire.

«L’utilisation par l’équipe des appareils du marché grand public pour collecter des données physiologiques et des données vocales montre à quel point nous sommes proches d’avoir de tels outils dans les appareils de tous les jours», déclare Björn Schuller, professeur et directeur des systèmes complexes et intelligents à l’université de Passau en Allemagne. «La technologie pourrait bientôt sembler beaucoup plus intelligente sur le plan émotionnel, voire elle-même« émotionnelle ».»

Les chercheurs du MIT ont enregistré 31 conversations puis ont utilisé les données pour entraîner deux algorithmes distincts. Le premier déduit la conversation pour la catégoriser comme heureuse ou triste. L'algorithme secondaire détermine si la conversation est positive, négative ou neutre sur des intervalles de 5 secondes.

"Le système prend conscience de la façon dont, par exemple, le sentiment dans la transcription du texte était plus abstrait que les données brutes de l'accéléromètre", explique Alhanai. nous en tant que chercheurs. »

Est-ce que ça marche?

Étonnamment, les algorithmes ont réussi à déterminer la plupart des émotions auxquelles un humain s'attendrait lors d'une conversation. Bien que les résultats du modèle n'aient été que 18 pour cent au-dessus du hasard. Malgré le faible pourcentage, la nouvelle technique reste un 7,5% plus précis que les approches existantes.

Malheureusement, le modèle est encore trop sous-développé pour être d'une quelconque utilité pratique en tant que coach social. Cependant, les chercheurs prévoient d'augmenter la collecte de données en permettant au système d'être utilisé sur des appareils commerciaux tels que la montre Apple.

«Notre prochaine étape consiste à améliorer la granularité émotionnelle de l'algorithme afin qu'il soit plus précis pour signaler les moments ennuyeux, tendus et excités, plutôt que de simplement étiqueter les interactions comme« positives »ou« négatives »», déclare Alhanai. «Le développement d'une technologie capable de prendre le pouls des émotions humaines a le potentiel d'améliorer considérablement la façon dont nous communiquons les uns avec les autres.»

VOIR AUSSI: Vessels, la musique créée par les signaux physiologiques des émotions

Écrit par Maverick Baker


Voir la vidéo: LIA expliquée à ma grand-mère. Cyril SPANNEUT. TEDxNantesSalon