De simples internautes, mais aussi des décideurs sont ainsi de plus en plus nombreux à se laisser abuser, de bonne foi ou non. (Photo: 123RF)
La révolution de l'intelligence artificielle (IA) dite générative est employée par des centaines de sites internet pour créer des articles sans intervention humaine, et avec parfois la volonté de véhiculer de fausses informations, s'alarment des chercheurs.
De simples internautes, mais aussi des décideurs sont ainsi de plus en plus nombreux à se laisser abuser, de bonne foi ou non.
En décembre, le président ukrainien Volodymyr Zelenzky a ainsi été interpellé au Congrès américain par des élus républicains au sujet d'un achat supposé de deux yachts pour 75 millions de dollars américains (M$US), en plein débat sur l'aide à l'Ukraine.
Une information fantaisiste générée le mois précédent par le site DC Weekly, propriété d'un ancien marine américain désormais installé en Russie, qui selon la plateforme de lutte contre la désinformation NewsGuard utilise de l'IA.
«La désinformation générée par l'IA va probablement être un élément important de la campagne électorale américaine cette année», avertit Greg Marcus, professeur à l'université NYU.
NewsGuard, qui évalue la fiabilité de contenus d'information postés sur internet, a identifié 739 sites «qui fonctionnent sans ou avec très peu de supervision humaine et publient des articles largement ou entièrement écrits par des "bots"», selon un rapport publié le mois dernier.
Ces «bots» sont des programmes capables de générer du contenu sur demande en langage courant, en s'appuyant sur des éléments collectés dans une base de données ou directement sur internet.
«Psychiatre» recyclé
Certaines plateformes telles que NewsGPT ou DeepNewz présentent ouvertement leurs articles comme rédigés par une interface d'IA. Mais ce n'est pas toujours le cas, relève NewsGuard, qui met en garde contre cette prolifération de sites «obscurs».
Ils «ne sont pas fiables» car «ils fonctionnent avec peu ou pas de supervision humaine», souligne cet observatoire des médias.
Parmi les centaines d'articles générés grâce à l'intelligence artificielle, certains «comprennent des affirmations erronées, notamment concernant des dirigeants politiques», relève le rapport de NewsGuard.
On y retrouve aussi de faux avis de décès de célébrités, des nouvelles inventées ou d'anciens événements présentés comme s'ils venaient juste de se produire.
NewsGuard s'est particulièrement intéressé à une infox annonçant le «suicide» d'un «psychiatre» du premier ministre israélien Benjamin Netanyahu qui aurait mis en cause le dirigeant, publiée en novembre par le site pakistanais Global Village Space.
Une information totalement fantaisiste pour laquelle l'IA s'est inspiré d'un article satirique publié en 2010, a relevé NewsGuard.
Une analyste de l'organisation, McKenzie Sadeghi, a indiqué à l'AFP avoir demandé à l'interface d'IA générative OpenAI d'écrire une dépêche d'information à partir de cette pochade, et avoir obtenu un résultat «très similaire» à celui mis en ligne par le site pakistanais.
L'infox s'est pourtant rapidement propagée sur plusieurs plateformes de langues différentes et a été reprise par des milliers d'utilisateurs de réseaux sociaux, ainsi que par une chaîne de télévision iranienne.
«Partie émergée de l'iceberg»
Les sites de désinformation ou de propagande avaient, il y a encore peu, besoin de nombreux rédacteurs pour alimenter leurs pages, mais l'IA générative leur offre désormais une manière plus rapide et surtout beaucoup moins onéreuse de produire du contenu, avec l'apparence de l'authenticité.
«La croissance exponentielle des publications générées par l'IA est alarmante parce que ces plateformes peuvent être perçues comme des sources d'information légitimes et fiables par un utilisateur ordinaire», explique McKenzie Sadeghi.
Après avoir été mis en accusation, Global Village Space a présenté le sujet sur le premier ministre israélien comme étant à visée «satirique». Contactés par l'AFP, ses responsables n'ont pas donné suite.
Les centaines de sites identifiés par NewsGuard ne sont probablement que «la partie émergée de l'iceberg», prévient Darren Linvill, professeur à l'université de Clemson (Caroline du Sud).
Avec leurs titres et contenus à sensation, les sites qui s'appuient sur l'IA générative cherchent aussi à générer des recettes publicitaires.
Ils y parviennent d'autant plus facilement que le placement de publicités est le plus souvent lui-même géré par des algorithmes et non des humains.
«Si nous n'y prenons pas garde», dit Darren Linvill, «cela va encore davantage brouiller la frontière entre la réalité et la fiction, qui est déjà très floue.»