Arnaud Blasquez Publié le 24/12/25 à 10:57
Temps de lecture

Influence Artificielle

A A A A A

Une vidéo fabriquée de toutes pièces montrant un coup d’État en France, diffusée massivement sur les réseaux sociaux, a suffi à forcer le président de la République à sortir de son agenda pour démentir publiquement un événement qui n’a jamais existé. Derrière ce faux grossier mais efficace, un adolescent burkinabè de 17 ans, cherchant avant tout à faire le buzz. Le fait est glaçant. Si un jeune isolé, armé d’une IA générative et d’un smartphone, peut semer le doute à l’échelle d’un État et mobiliser le sommet du pouvoir, alors les limites traditionnelles de la nuisance informationnelle ont irrévocablement sauté.

Les exemples se multiplient à un rythme inquiétant. Aux États-Unis, une fausse vidéo grotesque et raciste attribuant des propos inventés à Chuck Schumer et Hakeem Jeffries, partagée durant le shutdown par Donald Trump lui-même, a suscité confusion et consternation. En Inde, un deepfake de la présidente Droupadi Murmu vantant un prétendu programme d’investissement a servi de support à des arnaques financières, via de faux liens cliquables diffusés en masse. À l’international, certains États n’hésitent pas à lancer des campagnes de désinformation coordonnées pour déstabiliser leurs voisins, saper la confiance dans les institutions et polariser les sociétés ciblées. On assiste également à une explosion des images intimes générées par IA. Le phénomène prend de l’ampleur dans les collèges et peut virer au harcèlement ou à la destruction psychologique. Tous ces contenus altèrent notre perception du réel, brouillent notre jugement et fragilisent la cohésion sociale, en instillant le doute partout, tout le temps. Qui, dernièrement, n’a pas scrollé sur un réseau et s’est interrogé sur l’authenticité de ce qu’il était en train de voir ?

Le cœur du problème réside dans la dynamique propre aux plateformes. Sans audience, un message reste inoffensif. Même lorsqu’un contenu est manifestement faux, son amplification algorithmique précède largement sa correction. Emmanuel Macron l’a appris (ou confirmé) à ses dépens, Meta répondant négativement à sa demande de suppression au motif qu’elle « ne contrevient pas [aux] règles d’utilisation ». Les réseaux sociaux ne récompensent ni la vérité ni la vérification, mais l’attention. Une vidéo mensongère peut générer des millions de vues, des réactions politiques, économiques ou diplomatiques, avant que le démenti n’atteigne péniblement une fraction du public initial.

Le pouvoir se concentre alors entre les mains des plateformes et de leurs modérateurs, au détriment de la souveraineté des États. Un gouvernement peut contraindre un journal national à publier un correctif immédiat ; il reste souvent impuissant face à Meta, X ou TikTok. L’asymétrie est flagrante entre des médias traditionnels, produits par des humains, soumis à des règles déontologiques et juridiques, et des flux automatisés, instruits par n’importe qui. Pourtant, les recherches le montrent : modifier les algorithmes suffit à réduire l’hostilité politique. Dans ce cas, souhaitons-nous réellement confier un tel pouvoir à quelques dirigeants aux valeurs mouvantes — Zuckerberg, Musk, Trump — devenus arbitres du débat public mondial ?

Lire aussi : Influence sous X

La régulation devient alors incontournable. L’Union européenne tente d’encadrer l’IA et les plateformes. Les États-Unis privilégient quant à eux l’innovation sans entrave, jusqu’à sanctionner des personnalités et responsables européens pour leur rôle dans la régulation de la tech. La Chine, elle, impose un contrôle étatique strict, allant jusqu’à différencier l’algorithme de TikTok sur son territoire. La course à l’IA générative est lancée : formidable assistant pour le travailleur, redoutable amplificateur de dérives sans garde-fous.

Dans cette course à l’influence, des signaux encourageants apparaissent. Le temps passé sur les réseaux sociaux recule, notamment chez les moins de 30 ans. La recherche d’une IA plus éthique et plus productive pour l’être humain, capable de comprendre le monde physique plutôt que d’exploiter nos biais cognitifs, prend de l’ampleur.

L’évolution est fulgurante. Personne ne peut prédire avec certitude ce que seront ces technologies dans cinq ou dix ans. Sans régulation, sans reprise en main collective, notre penchant naturel pour l’addiction et la facilité pourrait nous entraîner vers une ère de chaos informationnel. Reprendre le contrôle de ces outils est devenu un enjeu démocratique central. La technologie doit rester au service de l’humain, et non l’inverse, ni celui d’une poignée d’acteurs captant seuls les bénéfices de l’innovation. Elon Musk promet un monde sans argent, sans travail obligatoire et sans pauvreté grâce à l’IA. Sans règles précises ni souveraineté retrouvée, osera-t-il ajouter “sans discernement” ou “sans libre-arbitre” ?

Lire aussi : Inégalités artificielles

pub