SÉMINAIRE Intelligence artificielle en textométrie : apports réciproques et précautions interprétatives
Publié le 15 février 2022
Séminaire organisé par Jean-Marc Leblanc, Maître de conférences en sciences du langage et membre du CEDITEC à la faculté des Lettres, Langues et Sciences Humaines de l'UPEC.
Date(s)
le 25 février 2022
De 14h à 16h30.
Lieu(x)
Séminaire en présentiel > UPEC Campus Centre - Bâtiment I - Salle I3-218 (Erasme) (consulter le plan)
Description
Ce séminaire du Céditec propose une introduction aux problématiques de l’intelligence artificielle appliquée aux sciences humaineset à l’analyse des textes et des discours, à ses définitions, au rapport entre l’IA (Deep Learning) et aux données, aux apports réciproques de la textométrie à l’IA et de l’IA à la textométrie, aux limites de ces méthodes et aux précautions interprétatives qu’il convient d’adopter dans toute exploration textuelle.
Programme
Introduction
JM Leblanc – jean-marc.leblanc@u-pec.fr – Céditec – Université Paris-Est-Créteil
Résumé : Il conviendra puisque les recherches en ADT(analyse statistique des données textuelles) mobilisent désormais le terme d’intelligence artificielle de s’interroger sur ses définitions, sur les applications qui existent ou qui sont envisageables en lexicométrie, textométrie ou logométrie et sur les ouvertures éventuelles que ces méthodes pourraient permettre. Il conviendra également de s’interroger sur le rapport de l’IA aux méthodes de l’ADT. Quelles explorations peuvent-elles être confiées aux algorithmes de l’IA (deep learning, apprentissage neuronal...) ? Quelles précautions interprétatives ? Quels apprentissages pour les chercheures et chercheurs du domaine ?
Intelligence artificielle et apprentissage : mécanismes, applications et enjeux
Aymeric Bouchereau – aymeric.bouchereau@u-pec.fr – Laboratoire Lab’Urba – Université Paris-Est Créteil
Résumé : L’Intelligence artificielle connait une période faste avec un déploiement rapide d’applications concrètes dans de multiples domaines dont les sciences humaines et sociales. Cette tendance repose sur l’efficacité des méthodes d’apprentissage artificiel (e.g. apprentissage automatique, apprentissage profond) pour analyser de grands volumes de données visuelles, sonores et textuelles. Cependant, l’utilisation de l’apprentissage artificiel dans le cadre de travaux scientifiques interroge quant à ses apports, ses limites et la nature des résultats obtenus par rapport à d’autres outils. Cette présentation vise à éclaircir ces questions en explicitant les mécanismes de l’apprentissage artificiel et en les illustrant avec des applications dans les domaines de l’éducation et des objets connectés. Il s’agira ensuite d’en dégager les enjeux liés à l’utilisation de l’apprentissage artificiel comme outil d’aide à l’interprétation de corpus de données, dans le domaine de la textométrie et ailleurs.
Deep learning et textes. Algorithmes et interprétations
Laurent Vanni – UMR 7320 : Bases, Corpus, Langage
Résumé : Au croisement de la linguistique et de l'informatique, cette présentation donnera les clés interprétatives de l'IA appliquées à la classification de textes. À partir d'exemples concrets et en utilisant les derniers développements de la plateforme Hyperbase, nous verrons comment les réseaux de neurones profonds prennent leurs décisions et quels observables linguistiques entrent en en jeu lors d'une tâche dite de prédiction (attribution d'auteurs, analyse de sentiments...). De la convolution à la déconvolution, les algorithmes utilisés permettent d'extraire l'information apprise par les modèles lors d'un apprentissage. Les visualisations proposées à partir de cette information permettent aujourd'hui de compléter l'analyse traditionnelle statistique de données textuelles avec de nouveaux parcours interprétatifs pour les chercheurs en SHS et notamment en analyse du discours.