- 27 avril 2017 Raja CHATILA, DR CNRS, Institut des Système Intelligent et Robotique (ISIR), Paris.
- date à préciser Pierre De LOOR
Le prochaine séminaire iPAC aura lieu le 11 mars 2010 dans l'Amphi du Loria, à 13h30.
Orateur: Catherine Pelachaud, DR CNRS à LTCI, Telecom ParisTech.
Titre : Converser avec un agent virtuel expressif
Transparents : au format PDF.
Résumé :
Depuis quelques années, nous avons développé un agent conversationnel "embodied" expressif. Plus spécialement, nous avons développé un modèle de comportement multimodal qui inclut du dynamisme et des expressions faciales. La première propriété fait référence à l'exécution qualitative du comportement. Notre modèle s'appuie sur des études perceptuelles et prend en compte plusieurs paramètres qui modulent le comportement multimodal. La deuxième propriété, le modèle d'expressions complexes, suit une approche par composants où une nouvelle expression est obtenue en combinant des aires faciales issues d'autres expressions. Plus récemment, nous avons travaillé sur l'ajout d'une dynamique temporale aux expressions. Jusqu'à présent, elles étaient définies de manière statique, à leur apogée. On ne pouvait modéliser que des émotions totalement épanouies, pleines et entières. Pour aller plus loin, nous avons défini un schéma de représentation qui décrit l'évolution temporelle de l'expression d'une émotion. Elle n'est plus représentée par une définition statique mais par une séquence temporellement ordonnée de signaux multimodaux.
Over the past few years we have been developing an expressive embodied conversational agent system. In particular, we have developed a model of multimodal behaviours that includes dynamism and complex facial expressions. The first feature refers to the qualitative execution of behaviours. Our model is based on perceptual studies and encompasses several parameters that modulate multimodal behaviours. The second feature, the model of complex expressions, follows a componential approach where a new expression is obtained by combining facial areas of other expressions. Lately we have been working on adding temporal dynamism to expressions. So far they have been designed statically, typically at their apex. Only full-blown expressions could be modelled. To overcome this limitation, we have defined a representation scheme that describes the temporal evolution of the expression of an emotion. It is no longer represented by a static definition but by a temporally ordered sequence of multimodal signals.