Wikipédia a récemment publié des lignes directrices interdisant l’utilisation de l’IA pour générer ou réécrire des articles, à l’exception de deux exceptions liées à l’édition et aux traductions. Les lignes directrices reconnaissent que l’identification du contenu généré par l’IA ne peut pas être basée sur des signaux de style et n’offrent aucune autre indication sur la manière dont elles identifieront le contenu basé sur LLM.

Violation des politiques de contenu de base de Wikipédia.

Les nouvelles directives interdisant l’utilisation des LLM stipulent que l’utilisation de l’IA viole plusieurs de leurs politiques de contenu fondamentales, sans les nommer. Mais un examen de ces politiques montre raisonnablement clairement à quelles politiques il est fait allusion, à savoir leurs politiques en matière de vérifiabilité, leur interdiction de toute recherche originale et peut-être leur exigence d’un point de vue neutre, qui sont très probablement les deux politiques évidentes auxquelles il est fait référence.

La politique sur la vérifiabilité exige que le contenu susceptible d’être contesté soit attribuable à une source publiée fiable que d’autres éditeurs peuvent vérifier pour vérifier que la source est fiable. Les LLM génèrent du texte sans citer explicitement les sources et ils ont également tendance à halluciner les faits.

La politique sur la recherche originale stipule :

« Wikipédia ne publie pas de pensée originale : tout le matériel contenu dans Wikipédia doit être attribuable à une source fiable et publiée. Les articles ne peuvent contenir aucune nouvelle analyse ou synthèse de matériel publié qui sert à faire avancer une position qui n’est pas clairement avancée par les sources. »

Évidemment, les LLM génèrent une synthèse basée sur des sources publiées et quant au point de vue neutre, il est possible pour un LLM d’accorder plus de poids aux points de vue dominants au détriment de ceux qui sont minoritaires. La plupart des référenceurs sont conscients que poser des questions à un LLM sur le référencement aboutit systématiquement à des réponses qui reflètent le point de vue dominant, mais pas nécessairement le plus correct.

Les nouvelles directives font deux exceptions :

  1. « Les éditeurs sont autorisés à utiliser les LLM pour suggérer des modifications de base à leur propre écriture et à en incorporer certaines après examen humain, à condition que le LLM n’introduise pas de contenu qui lui est propre. La prudence est de mise, car les LLM peuvent aller au-delà de ce que vous leur demandez et modifier le sens du texte de telle sorte qu’il ne soit pas soutenu par les sources citées.
  2. Les éditeurs sont autorisés à utiliser les LLM pour traduire des articles de Wikipédia dans une autre langue vers Wikipédia anglais, mais doivent suivre les instructions présentées sur Wikipédia : traduction assistée par LLM.

Quant à l’identification du contenu généré par l’IA, le nouvelles directives Wikipédia sur l’IA suggèrent d’examiner dans quelle mesure le contenu est conforme à leurs directives relatives au contenu de base et pour auditer les publications récentes de l’éditeur dont les modifications sont suspectées.

Image en vedette par Shutterstock/JarTee

Commentaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Se connecter

S’inscrire

Réinitialiser le mot de passe

Veuillez saisir votre identifiant ou votre adresse e-mail. Un lien permettant de créer un nouveau mot de passe vous sera envoyé par e-mail.