On le sait, les intelligences artificielles (IA) génératives sont en mesure de rédiger des textes, de traiter des corpus, de générer des contenus multimédias et de résoudre des équations complexes… soit des opérations traditionnellement demandées aux étudiants.
À l’université, elles provoquent (à nouveau et encore) des débats sur la place des machines dans l’acquisition de compétences. Si les étudiants s’appuient trop sur elles, ne risquent-ils pas de considérer certaines compétences comme obsolètes ? Peut-on apprendre sans pratiquer, en déléguant la tâche à une machine ?
Les réponses se multiplient avec un discours catastrophiste. Des enquêtes se font l’écho de pertes cognitives liées à l’usage des IA, comme l’explique la dernière étude du MIT, selon laquelle les utilisateurs d’intelligences artificielles génératives sous-performeraient systématiquement.
Sont aussi interrogées les limites du modèle : les bases de données ne risquent-elles pas de se dégrader à force de se nourrir avec les résultats qu’elles produisent ? Sans compter le très lourd impact environnemental et humain de ces outils.
De tels discours prêtent des capacités infinies et incontrôlables à ces outils. Ils nourrissent le discours de toute-puissance des industries numériques et s’inscrivent dans un imaginaire de science-fiction. Ils négligent leur caractère économique et le fait que l’IA est un terme choisi par son potentiel marketing. Penser en termes d’effets, sans nourrir la discussion et sans contradiction, laisse les Big Tech piloter le débat.

