Recherche

Julien Longhi, au croisement des disciplines

24.09.2018

Récemment nommé membre junior de l'Institut Universitaire de France, Julien Longhi, jeune professeur d’université en sciences du langage, est un hyperactif innovant qui a à coeur d'insuffler modernité, nouveauté et transdisciplinarité dans ses pratiques de recherche. Son objectif ? Faciliter l'innovation en impulsant et soutenant le croisement de disciplines complémentaires au service des besoins sociétaux. “Je veux permettre à tout à chacun de s’approprier les résultats de mes travaux de recherche. C'est ma motivation profonde”. Interview.

Portrait de Julien Longhi

Quel est votre parcours de chercheur ?

J’ai commencé à faire de la recherche lors de ma maîtrise de lettres modernes, que j’ai prolongé par un DEA puis une thèse sur l’analyse du discours politique. J’y ai analysé des corpus issus de la politique, des médias et de la littérature pour construire une méthode automatisée en articulant l’utilisation de différents logiciels existants, venant de  la textométrie ou la lexicométrie par exemple. Cela m’a permis de développer une méthodologie fortement corrélée aux besoins d’une problématique spécifique, que j’ai pu faire aboutir dans mon HDR en 2015.

Recruté comme maître de conférence en sciences du langage à l’UCP en 2009, j’ai commencé à travailler sur des objets de recherche originaux dans ma discipline : des corpus extraits du web et des réseaux sociaux. Les analyses du discours politique sur ces corpus ont un intérêt intrinsèque mais je les croise aussi avec les discours politiques classiques (meeting, déclarations …). Ce comparatif entre les versions “originales” des discours et le relais fait via les réseaux sociaux montre comment une information peut-être condensée. Les réseaux sociaux deviennent des médias à part entière avec une circulation et une transmission des idées qui leurs sont propres.

Vous travaillez beaucoup sur Twitter, qu’en ressort-il ?

Interview, documents sonores, images, textes et vidéos circulent sur Twitter. Malgré le nombre de mots contraint pour un tweet, la totalité de l’activité politique y est relayée. Notre défi est donc de réussir à analyser les contenus multimédia des réseaux sociaux. Par exemple, travailler sur le repérage des images, les sous-titres des vidéos, les biographies des utilisateurs afin de récupérer des métadonnées et enrichir les analyses. Ce sont des travaux que je développe en collaboration avec le laboratoire ETIS (Equipes Traitement de l'Information et Systèmes) de l’UCP. Nous tentons d’avancer sur le web sémantique en prenant en compte tous les types de contenus présents.


Vous avez été nommé membre junior de l’Institut Universitaire de France en 2018, quel projet avez-vous présenté ?

C’est mon projet Digital doxa (doxa = stéréotypes, clichés, lieux communs, évidences) qui a retenu leur attention. L’idée est d’utiliser tous les discours produits sur le web et les réseaux sociaux pour obtenir une analyse plus complète des discours numériques. C’est la suite du projet Idéo2017, dont l’objectif était de produire un outil qui permette à chacun de créer sa propre base de données d’analyse de discours sur son sujet de prédilection. Et c’est ce que nous avons fait sur twitter lors de la campagne présidentielle.

Le produit final de ces projets serait une sorte de tableau de bord de suivi du discours personnalisé construit en fonction de ses intérêts dont les sources d’alimentation pourraient être n’importe quel contenu numérique. Une dimension ultime pourrait être la visualisation des résultats produits en réalité virtuelle. Une représentation 3D interactive des liens entre les mots, les nuages de mots, qui permettrait de rendre plus accessibles à tous les résultats des analyses des discours. J’espère que cela permettra de donner des moyens d'appréhension des discours à toute personne qui s’y intéresse sans qu’elle ait à se soucier des techniques de collecte et traitement des données.

Quels sont vos autres projets en cours ou à venir ?

Une de mes préoccupations est de faciliter, voire d'impulser la collaboration entre disciplines différentes pour innover dans les sciences du langage. C’est dans cette optique que j’ai porté le projet de création de l’Institut des humanités numériques de l’UCP, qui s’est concrétisé début 2018. Sa principale raison d’être est de structurer et d’interfacer le travail collaboratif de laboratoires complémentaires autour des humanités et des sciences nouvelles. L’IDHN regroupe des laboratoires de sciences humaines et sociales, de lettres, d’informatique et de traitement de l'information et des systèmes.

D’autre part, je suis impliqué, avec 4 autres laboratoires et une entreprise, dans le projet collaboratif TALAD (traitement automatique des langues et analyse du discours), financé par l’Agence nationale de la recherche. L’objectif est de permettre aux spécialistes de l’analyse du discours et du traitement automatique des langues de se rencontrer pour construire ensemble des outils qui vont permettre une mise en relation entre les mots utilisés pour désigner un même objet et les idées de la personne qui les emploi. Par exemple, nous pourrions produire une cartographie des acteurs politiques en fonction des mots utilisés pour le même sujet : immigrés, migrants, réfugiés ou sans emploi, chômeurs, assistés… Ce travail est un gros défi technique ne serait-ce que pour reconnaître les différentes dénominations utilisées pour un même sujet ou type de chose (enfants, petit ange, gosses, etc.). Mais en interfaçant les disciplines de cette manière, j’ai bon espoir que les résultats confirment l’efficacité de ces nouvelles méthodologies.

Partager :