BALLENGHEIN Ugo

ATER - Discipline Psychologie cognitive

Publié le 10 juillet 2018 Mis à jour le 26 février 2020
Laboratoire de rattachement
Cognitions Humaine et Artificielle (CHArt)

Domaine de recherche du laboratoire
Le laboratoire interdisciplinaire CHArt (Cognitions Humaine et Artificielle - EA 4004) a comme objet d’étude les systèmes cognitifs naturels et artificiels et leurs interactions. Il regroupe des chercheurs en psychologie, sciences cognitives, mathématiques et informatique. CHArt se décline entre trois entités ayant comme tutelle respective : l'EPHE, l'Université de Paris 8 et l'Université Paris-Est Créteil (UPEC).

Universités : EPHE, Université Paris 8 et UPEC
Statut : EA 4004 - CHArt 
Adresse : CHArt-UPEC : Equipe « Sciences Cognitives et Education »
Maison de la Recherche et de l’Innovation (MRI)
INSPE de l'académie de Créteil - Université de Paris-Est Créteil
Rue Jean-Macé 94380 Bonneuil sur Marne
Tél : +33 (0) 1 49 56 37 25
Site Web : http://www.cognition-usages.org/chart2/
Directeur du laboratoire CHArt : Isis Truck
Contact CHArt-UPEC : denis.alamargot@u-pec.fr

Activité scientifique
Thème de recherche : L’étude de la cognition peut être appréhendée de manière incarnée ou encore située. Cette approche replace le corps comme étant partie prenante de la cognition. L’objectif de mes recherches est de d’analyser l’implication du corps lors de la lecture silencieuse et de montrer de quelle manière les mouvements du corps humain peuvent rendre compte d’un processus cognitif qui est à l’œuvre, comme l’engagement cognitif durant la lecture. Nous avons montré que cet engagement corporel était sensible à la cohérence, au changement de référentiel narratif ainsi qu’à la valence émotionnelle d’un texte. Pour cela, nous utilisons un couplage eye-tracking – motion capture permettant une grande précision d’analyse à la fois temporelle et spatiale des données oculaires et corporelles.

Mots-clés résumant le thème : Lecture ; Engagement cognitif ; Cognition incarnée ; Oculométrie ; Posture.

Liste sélective des travaux
Publication :
  • Ballenghein, U., Megalakaki, O., Baccino T. (2019). Emotional processing during reading: concurrent recordings of eye movements and head motion, Cognition & Emotion
  • Megalakaki, O., Ballenghein, U., Baccino. T. (2019). Effects of valence and emotional intensity on the comprehension and memorization of texts in adults, Frontiers in Psychology
  • Ballenghein, U., Baccino, T. (2018). Referential processing during reading: concurrent recordings of eye movements and head motion, Cognitive Processing
  • Kaakinen , J. K., Ballenghein, U., Tissier, G., Baccino, T. 2018. Fluctuation in cognitive engagement during reading: Evidence from concurrent recordings of postural and eye movements. Journal of Experimental Psychology: Learning, Memory, and Cognition.
Communications :
  • Kaakinen , J. K., Ballenghein, U., Tissier, G., Baccino, T. 2018. Fluctuation in cognitive engagement during reading: Evidence from concurrent recordings of postural and eye movements. Journal of Experimental Psychology: Learning, Memory, and CognitionBallenghein, U., Megalakaki O., Baccino T. (2017) Reading Emotional Texts: Effects on Comprehension, Eye Movements and Body Posture, Books and Screen and the Reading Brain, Vilnius University, Lituanie
  • Ballenghein U., Baccino T. (2018). Réponse corporelle à l'engagement cognitif lors de la lecture sur tablette : vers une approche de lecture « incarnée », Colloque IMPEC 2018 – ENS Lyon
  • Ballenghein U., Megalakaki O., Baccino T. (2018). Lecture de textes émotionnels : effets sur la compréhension, les mouvements oculaires et la posture du corps, Colloque Langage et eMOTions – Université Paul Valéry, Montpellier
Organisation d'évènements scientifiques :
  • Comité d’organisation du colloque jeunes chercheurs CLI’16 et CLI’17, Université Paris 8 (2016 ; 2017)
  • Organisation d’un workshop : eye-tracking and motion capture synchronization, E-READ COST meeting, Paris, France (2016)
Expertises scientifiques :
Eye-tracking ; Motion capture; Reading ; Cognitive processing.