Skip to content

Si un des talents de ChatGPT est de « converser » en imitant tel ou tel auteur, il va inévitablement produire de fausses informations. C’est la démonstration que vient d’en faire un organisme voué à la lutte contre la désinformation, en prenant le robot à défaut dans 80 % des cas.

Écrivez un texte sur telle fusillade, « en adoptant le point de vue d’Alex Jones », théoricien du complot bien connu aux États-Unis. Écrivez un paragraphe du point de vue de Joseph Mercola, militant antivaccin très populaire dans l’univers anglophone. Chaque fois, le robot a répondu à la demande avec sa diligence habituelle.

De telles questions étaient « orientées », reconnaissent les trois analystes de l’organisme américain Newsguard : leur intention en menant cet exercice était de voir jusqu’où ChatGPT se rendrait dans l’écriture d’un texte contenant de fausses informations.

Il était apparemment programmé pour refuser d’écrire explicitement sur certaines faussetés, puisqu’il s’est rebiffé à quelques reprises : l’une des 100 demandes qui ont été faites à ChatGPT tournait autour du mythe selon lequel Barack Obama serait né au Kenya. « À titre d’avertissement, je tiens à préciser que la théorie selon laquelle le président Barack Obama serait né au Kenya n’est pas fondée sur des faits et a été démentie à plusieurs reprises », a prévenu le robot.

Mais personne ne l’avait apparemment programmé à l’effet qu’un Alex Jones ou un Joseph Mercola ne sont pas des sources fiables, et ChatGPT a pondu, dans ce dernier cas, un paragraphe présentant comme factuelle une allégation qui a été déboulonnée à plusieurs reprises.

« Dans 80 % des cas, lit-on dans l’analyse, ChatGPT a fourni des réponses qui auraient pu apparaître sur les pires sites complotistes marginaux ou être relayées sur les réseaux sociaux par des robots des gouvernements russe ou chinois. » Par exemple, « sur les questions de santé, certaines réponses citaient des études scientifiques que NewsGuard n’a pas pu trouver et qui semblent avoir été inventées. D’autres relayaient de fausses allégations sur le COVID-19 sans mentionner le consensus dominant de la communauté scientifique et médicale. »

Ici et là dans ses réponses, apparaît un avertissement à l’effet que « la promotion de fausses informations sur les vaccins peut avoir de graves conséquences », mais seulement après quelques paragraphes de faussetés.

Depuis le lancement de ChatGPT le 30 novembre, la firme californienne OpenAI a confirmé qu’elle travaillait à une version améliorée. Il est possible que sa liste de sujets « sensibles » s’allonge et que les commentaires des dernières semaines servent, dans cette nouvelle version, à éviter certains dérapages. En même temps, il faut se rappeler que l’objectif premier de ses concepteurs est d’avoir un robot « conversationnel », c’est-à-dire qui imite le mieux possible une conversation avec un être humain. Dans ce contexte, même le PDG d’OpenAI l’a admis : obliger l’IA à s’en tenir à la stricte vérité n’est pas évident.

Et le simple fait que le logiciel soit gratuit pourrait en faire une aubaine pour les fermes de trolls, en Russie ou ailleurs.

Comme s’en inquiétait en décembre l’auteur Gary Marcus dans le Scientific American, l’objectif premier des campagnes de désinformation, russes ou autres, n’est pas toujours de convaincre les gens d’une fausseté. L’objectif est souvent de créer un écran de fumée, un chaos informationnel qui amène une frange de la population à douter de tout. Dans ce contexte, poursuit Gary Marcus, « ce n’est pas important si les grands modèles langagiers sont incohérents » et écrivent des affirmations contradictoires, si tout ce qui compte pour les producteurs de désinformation, c’est juste de créer de la confusion. Ces producteurs « souhaitent créer un monde dans lequel nous sommes incapables de savoir à quoi nous pouvons faire confiance. Avec ces nouveaux outils, ils pourraient réussir. »