Description des missions
Les principales activités consistent à mettre en place des expériences ad hoc avec des sujets humains sur la plateforme CoCoLab, notamment des interactions socio-économiques dans des conditions variables (anonymat, distance, proximité), tout en assurant un suivi à l'aide de caméras, de microphones et de capteurs physiologiques (EDA, ECG, EEG, suivi oculaire). L'objectif principal est de développer des architectures de deep learning multimodales de pointe afin d'intégrer les signaux physiologiques, les expressions faciales, l'EEG, les mouvements corporels, la parole et le regard pour prédire les comportements et les choix, en utilisant des techniques telles que les transformateurs, l'apprentissage multitâche, l'apprentissage contrastif et la supervision faible. Les tâches supplémentaires comprennent le codage, la réalisation d'expériences, la collecte de données et l'aide à la rédaction d'articles de recherche au sein des équipes collaboratives STARS et GREDEG.
Profil recherché
De solides compétences en informatique et en recherche expérimentale sont requises, notamment en apprentissage automatique, en vision par ordinateur et en analyse de données multimodales (signaux biologiques, flux vidéo, expressions faciales). La maîtrise des méthodes avancées d'apprentissage profond (par exemple, les transformateurs pour l'estimation de la posture 3D, du regard et des traits du visage ; les TCN/3DCNN pour les actions temporelles) et la capacité à gérer des contextes à supervision faible sont indispensables. Une expérience dans le codage du comportement humain, l'intégration de jeux de données et le travail interdisciplinaire (économie/théorie des jeux associées à la physiologie) correspond au parcours d'Aowen Shi dans ces domaines.
