Puisque je viens de consacrer un billet à un usage original de l’intelligence artificielle (IA), je continue sur le même thème, mais dans un tout autre registre. Des outils utilisant l’IA sont précieux pour certains travaux, mais la prudence est de mise pour d’autres tâches. Si vous êtes tenté de recourir à ChatGPT ou à un autre « bot conversationnel » pour des recherches bibliographiques, vous risquez d’avoir de mauvaises surprises, avec des résultats bizarrement créatifs.
En testant ChatGPT l’an dernier, je lui ai demandé (en français) de proposer une définition des « nouveaux mouvements religieux » (NMR). J’ai obtenu une réponse acceptable. ChatGPT m’a fourni ensuite un bon résumé sur la question de possibles différences entre un « nouveau mouvement religieux » et une « nouvelle religion ». Les choses se sont gâtées quand j’ai prié ChatGPT de me proposer une liste de livres sur les NMR en français. Cinq titres m’ont été soumis, à commencer par l’un dont je serais le coauteur :
“Les nouveaux mouvements religieux, par Massimo Introvigne et Jean-François Mayer (2016) – Ce livre offre une présentation claire et détaillée des NMR, de leur histoire et de leur impact sur la société.”
Merci à ChatGPT pour cette recommandation… d’un livre qui n’existe pas ! Il en va de même des quatre titres suivants, tous imaginaires. Le malheureux libraire auquel un client viendrait commander ces titres se trouverait bien embarrassé. J’ai ensuite tenté de demander une bibliographie en anglais. Le résultat a été correct (bien que daté) : les cinq titres proposés sont réels.
J’ai poursuivi l’expérience en demandant à ChatGPT la liste de mes livres. ChatGPT m’a soumis une liste de mes douze « principaux ouvrages ». Hélas, un seul de ces livres existe bel et bien. J’ai tenté ce matin une nouvelle fois l’expérience avec Elephas, un efficace assistant personnel pour Mac, qui s’appuie sur ChatGPT : cette fois-ci, la liste de mes publications supposées se limitait à trois titres, inventés de toutes pièces (non, je n’ai jamais écrit Aumisme, religion de l’harmonie, supposément paru en 2017), à l’enseigne d’une maison d’édition certes sympathique, mais chez laquelle je n’ai jamais publié quoi que ce soit. Il ne s’agit pas de simples confusions d’auteur : ces titres n’existent tout simplement pas.
En 2023 et 2024, les médias ont rapporté plusieurs cas d’avocats aux États-Unis et au Canada, qui avaient cité dans leurs arguments présentés à un juge une jurisprudence imaginaire fournie par ChatGPT. Quand on pense au tarif horaire facturé par certains avocats nord-américains pour mener des recherches légales, non seulement les juges, mais leurs clients n’ont pas vraiment apprécié cette curieuse méthode de travail. Utiliser l’IA pour certaines recherches, pourquoi pas ? mais à condition de contrôler les résultats en allant aux sources.