Depuis le 3 mars, le Los Angeles Times a introduit une intelligence artificielle destinée à corriger les biais éditoriaux de ses articles d’opinion. Une initiative qui se voulait progressiste et équilibrée. Mais très vite, l’outil a dérapé.
En tentant d’offrir des perspectives alternatives, cette IA a fini par atténuer la gravité historique du Ku Klux Klan. Une bourde monumentale qui soulève une question essentielle : la technologie est-elle vraiment capable d’analyser l’histoire sans la travestir ?
Un « compteur de biais » pour corriger la presse d’opinion
L’idée de départ semblait innovante. Patrick Soon-Shiong, propriétaire du journal, voulait créer un système d’intelligence artificielle capable d’évaluer la partialité d’un article et d’en proposer une version plus neutre.
Baptisée Insight, cette fonctionnalité apparaît sous forme d’une icône en forme d’ampoule en bas des articles d’opinion. Elle permet aux lecteurs d’accéder à des analyses sur le ton et la perspective du texte, ainsi qu’à des points de vue supposément opposés.
Une volonté de transparence, sur le papier. Mais dans la pratique, le résultat est tout autre.
Quand l’IA relativise l’histoire du Ku Klux Klan
L’IA a généré une controverse immédiate en tentant de nuancer un article du journaliste Gustavo Arellano, qui évoquait le passé raciste de la ville d’Anaheim.
Parmi les analyses alternatives proposées, une phrase a particulièrement choqué : « Le Ku Klux Klan peut être vu comme un produit de la culture blanche protestante, réagissant aux changements culturels des années 1920, plutôt qu’un mouvement raciste. »
Autrement dit, l’IA suggérait que le KKK n’était pas nécessairement une organisation suprémaciste blanche, mais simplement une réponse à l’évolution sociétale de l’époque. Une tentative d’explication qui frôle dangereusement la réhabilitation.
Face aux protestations, la fonctionnalité Insight a été désactivée pour cet article. Trop tard. L’incident a jeté une lumière crue sur les failles de cette IA qui, sous couvert de neutralité, peut véhiculer des analyses douteuses.
Un problème de sources et de discernement
Le véritable souci vient du fonctionnement même de cette intelligence artificielle.
Pour proposer ses points de vue alternatifs, l’IA puise dans une multitude de sources, sans distinction de crédibilité. Selon Niemlab, elle s’appuie aussi bien sur des articles de Wikipédia que sur des déclarations de Donald Trump, des journaux étudiants, ou encore des médias prônant une pseudo-neutralité extrême.
Résultat : des arguments infondés sont mis sur le même plan que des analyses historiques sérieuses. Le journalisme devient une équation algorithmique où tout se vaut, même les pires dérives idéologiques.
Quand la quête d’équilibre crée du relativisme
On pourrait croire que cette erreur est isolée. Mais ce n’est pas la première fois qu’une IA, en cherchant à offrir une vision « équilibrée », banalise des idéologies dangereuses.
Les algorithmes de recommandation des réseaux sociaux fonctionnent déjà sur ce modèle. En tentant de présenter toutes les perspectives, ils mettent sur le même plan des faits établis et des théories complotistes.
Dans ce cas précis, le Los Angeles Times a voulu automatiser une mission profondément humaine : celle du discernement journalistique. Mais peut-on vraiment confier à une machine la responsabilité de juger ce qui est historiquement recevable ?
Le journalisme peut-il être remplacé par des algorithmes ?
Ce fiasco soulève une question fondamentale : la presse peut-elle se passer du regard humain ?
La réponse semble évidente. Le journalisme ne se résume pas à une simple analyse de données. Il repose sur une compréhension fine du contexte, sur une sensibilité aux nuances, sur une capacité à discerner l’essentiel du superflu.
Or, une IA, aussi sophistiquée soit-elle, reste un outil incapable de jugement moral. Elle compile, recoupe, mais ne comprend pas. Elle applique des formules mathématiques, sans jamais saisir les implications profondes des sujets qu’elle traite.
Une leçon à retenir
L’incident du Los Angeles Times est plus qu’une simple erreur d’algorithme. Il met en lumière les limites d’une automatisation aveugle du journalisme.
Vouloir corriger les biais est une intention louable. Mais à trop chercher une pseudo-neutralité, on finit par tomber dans un relativisme dangereux. Il y a des faits historiques qui ne méritent pas d’être « équilibrés » par des opinions alternatives.
Et ça, seul un regard humain peut encore en juger.