
Imaginez le nouveau stagiaire qui vient de débarquer dans votre rédaction. Il s’appelle “IA”. Il est capable de lire 10 000 pages de rapports de la Cour des comptes en moins d’une minute, de transcrire une interview en temps réel tout en vous proposant dix titres optimisés pour les moteurs de recherche, et de parler 49 langues couramment. Un prodige. Sauf que, parfois, après la pause déjeuner, il a tendance à « halluciner » et à vous inventer une source très crédible qui n’a jamais existé, ou à vous assurer avec un aplomb déconcertant qu’un dépôt de 10 000 $ à 3 % d’intérêt « rapporte » 10 300 $ en un an – alors qu’il s’agit évidemment de 300 € seulement.
Ce collègue un peu particulier, c’est l’intelligence artificielle. Loin des fantasmes de « robots-journalistes » venus remplacer les humains sur les rotatives, l’IA s’installe progressivement dans le paysage médiatique français comme un outil aussi puissant que complexe, qui suscite autant d’enthousiasme que de craintes légitimes pour l’éthique de la profession. La situation est contrastée : alors que des pionniers comme Radio France explorent ses possibilités depuis près d’une décennie, une enquête d’octobre 2024 révèle que plus de la moitié des journalistes français (51,85 %) n’utilisent toujours pas l’IA pour rédiger leurs articles, et que près des deux tiers des rédactions (64,2 %) n’ont aucune directive claire concernant son usage.
Alors, comment apprivoiser la bête? Comment les journalistes français peuvent-ils se saisir de ce formidable couteau suisse technologique sans se couper les doigts? Nous allons cartographier, exemples concrets à l’appui, les avantages réels que l’IA apporte déjà aux rédactions, des gains de productivité spectaculaires aux enquêtes augmentées. Il s’agira ensuite d’analyser sans concession les dérapages et les risques inhérents à ces technologies, pour mieux comprendre les garde-fous que la profession commence à mettre en place. Enfin, nous esquisserons ce que pourrait être le futur de cette collaboration homme-machine, à un horizon de deux à quatre ans. Car une chose est sûre : l’IA ne va pas disparaître. Autant apprendre à travailler avec elle.
Le couteau suisse du journaliste augmenté
L’intégration la plus réussie de l’IA dans les médias ne vise pas à remplacer le journaliste, mais à l’augmenter. En automatisant les tâches à faible valeur ajoutée, elle libère un temps précieux pour ce qui constitue le cœur du métier : l’enquête, l’analyse et le récit. Cette révolution se déploie sur plusieurs fronts, de la production quotidienne à l’investigation au long cours.
Plus vite que son ombre : L’automatisation au service de l’info
Le premier bénéfice, le plus tangible et le plus unanimement salué, est le gain de temps spectaculaire sur les tâches chronophages et répétitives.
Transcription et traduction : les usages pionniers La transcription d’interviews, ce travail long et fastidieux, est sans doute le premier bastion à être tombé. Des outils comme Sonix, Otter.ai ou Trint sont devenus des standards dans de nombreuses rédactions, transformant des heures de travail en quelques minutes. En France, Radio France fait figure de précurseur, utilisant l’IA pour la retranscription en temps réel de ses émissions depuis 2016. Ce processus permet non seulement de soulager les journalistes, mais aussi de publier rapidement une version écrite des sujets radio, augmentant ainsi leur portée.
À l’international, l’agence Associated Press (AP), qui expérimente l’IA depuis 2014, a développé des systèmes de transcription automatique de vidéos qui lui ont permis d’économiser des centaines d’heures de travail manuel. La traduction est l’autre domaine où l’IA a changé la donne, permettant un accès quasi instantané à des sources étrangères ou la déclinaison d’un même contenu pour un public international.
Génération de résumés et déclinaisons Au-delà de la simple transcription, l’IA est de plus en plus utilisée comme un assistant éditorial. Elle peut générer des brouillons de publications pour les réseaux sociaux, synthétiser de longs articles en quelques points clés, ou encore proposer des titres optimisés pour le référencement (SEO). L’Associated Press, par exemple, utilise des modèles d’IA pour suggérer des titres pour ses dépêches et générer des résumés concis, facilitant ainsi la lecture rapide. La règle d’or, cependant, reste la même : ces productions sont toujours considérées comme des matériaux bruts qui nécessitent une vérification, une validation et souvent une réécriture par un journaliste humain.
Ce qui se dessine ici est une transformation profonde du flux de travail journalistique. L’IA n’est pas encore un auteur crédible, mais elle est déjà un assistant de production et un analyste de données d’une efficacité redoutable. Le temps gagné n’est pas une fin en soi, mais un moyen stratégique de réallouer les ressources humaines vers des tâches à plus haute valeur ajoutée, celles où l’humain reste irremplaçable : le terrain, la construction de relations de confiance avec les sources, et l’analyse critique.
Sous les pavés, les données : La collecte et l’investigation à l’ère de l’IA
C’est peut-être dans le domaine de l’investigation que le potentiel de l’IA est le plus vertigineux. En permettant d’analyser des millions de documents, de sources et de données, elle rend possibles des enquêtes qui étaient auparavant humainement irréalisables.
Le data-journalisme augmenté En France, cette nouvelle frontière est explorée à travers des partenariats ambitieux entre médias et instituts de recherche. Le projet ConnectionLens est emblématique de cette tendance. Fruit d’une collaboration entre l’équipe des Décodeurs du journal Le Monde et l’Inria, cet outil permet d’analyser et d’interconnecter des données issues de corpus de documents très hétérogènes (PDF, feuilles de calcul, pages web). Il automatise une partie du travail fastidieux de croisement des sources, un travail colossal qui était auparavant réalisé à la main et qui est au cœur de nombreuses enquêtes d’investigation. Dans la même veine, le laboratoire commun Synapses, lancé en 2024 entre Ouest-France et l’institut de recherche IRISA, vise à explorer comment l’IA peut améliorer le journalisme en analysant les gigantesques archives du quotidien.
Ces initiatives françaises font écho à des enquêtes internationales marquantes. BuzzFeed News a ainsi utilisé des algorithmes de reconnaissance d’images pour analyser des données de vol publiques et identifier des avions espions grâce à leurs trajectoires circulaires caractéristiques. De son côté, le Wall Street Journal a eu recours à l’IA pour analyser des milliers d’images de Google Street View afin d’identifier les câbles en plomb encore présents sur le territoire américain.
Le fact-checking en temps réel Face à la vague de désinformation, l’IA devient aussi une arme de défense. Pour apporter une contradiction plus rapide et percutante sur les réseaux sociaux, Radio France a développé, toujours avec l’Inria, un outil statistique de vérification d’information en temps réel, baptisé StatCheck. Des plateformes comme Factiverse AI Editor permettent également d’assister les journalistes dans la vérification d’affirmations en consultant de multiples bases de données simultanément.
Ces projets illustrent l’émergence d’une nouvelle culture de l’innovation dans les médias français. Le développement d’outils IA propriétaires, co-construits avec le monde de la recherche, devient un avantage stratégique pour le journalisme d’investigation. Cela crée, en contrepartie, un risque de fracture technologique entre les grands groupes capables de tels investissements et les rédactions plus modestes, qui dépendent d’outils génériques moins spécialisés.
Du pixel à l’infographie : La création visuelle assistée
Le troisième grand domaine d’application de l’IA concerne le traitement de l’image et de la vidéo, où elle offre de nouvelles possibilités créatives et des gains d’efficacité. L’impact potentiel de l’A sur l’audio-visuel est tel que l’Arcom a organisé une conférence entière sur ce thème avec de nombreuses tables-rondes.
L’IA peut être utilisée pour générer des illustrations, des infographies, des vues d’artiste ou des reconstitutions. Cependant, cet usage est l’un des plus sensibles, car il touche à la représentation du réel. La déontologie impose une transparence absolue : lorsque de tels visuels sont utilisés, leur caractère artificiel doit être explicitement et clairement signalé au public pour ne laisser aucun doute.
Dans le domaine audiovisuel, l’IA se révèle être un assistant précieux en post-production. Elle peut aider au séquençage automatique des contenus, au sous-titrage, au recadrage pour différents formats (une tâche courante pour adapter un reportage TV aux réseaux sociaux), et même à la création de « shotlists » (listes de plans). L’Associated Press, par exemple, utilise une suite d’outils IA pour analyser ses contenus vidéo et générer automatiquement des descriptions de chaque plan, ce qui facilite grandement le travail de ses clients (télévisions, sites web) qui recherchent des séquences précises dans leurs archives.
Parfois, l’IA offre des solutions élégantes à des dilemmes éthiques. Un exemple marquant en France est celui du documentaire « Nous, jeunesse(s) d’Iran » de la réalisatrice Solène Chalvon-Fioriti. Pour protéger l’identité et la sécurité des femmes qui témoignaient à visage découvert, elle a eu recours à l’IA pour modifier subtilement leurs traits. Cet usage illustre parfaitement comment la technologie, guidée par une intention journalistique et éthique forte, peut servir à protéger les sources et à permettre la diffusion d’informations cruciales.
Garder la tête froide : L’IA sous haute surveillance
Si les promesses de l’IA sont immenses, les risques le sont tout autant. Adopter ces outils sans un esprit critique aiguisé et des garde-fous déontologiques solides revient à naviguer en pleine tempête sans boussole. Les erreurs passées, parfois spectaculaires, servent de leçons pour toute la profession.
Quand la machine déraille : Autopsie d’une erreur 2.0
Le cas d’école CNET En janvier 2023, le monde de la tech et des médias a été secoué par ce qui reste le plus grand fiasco de l’IA journalistique à ce jour. Le site d’information spécialisé CNET a révélé avoir discrètement publié 77 articles sur des sujets financiers, entièrement rédigés par un moteur d’IA interne. L’expérience a viré au cauchemar : une enquête du site The Verge a montré que plus de la moitié de ces articles (41) contenaient des erreurs factuelles, parfois grossières. L’un d’eux expliquait de manière erronée le calcul des intérêts composés, une erreur basique pour un article de conseil financier. Pire encore, plusieurs articles corrigés portaient la mention : « Nous avons remplacé des phrases qui n’étaient pas entièrement originales », admettant ainsi des cas de plagiat. L’affaire a été aggravée par un manque total de transparence initiale, les articles étant signés d’un vague « CNET Money Staff » pour masquer l’intervention de la machine. Ce n’est que sous la pression que le média a admis son expérimentation.
Les « hallucinations » créatives du Guardian Même les approches les plus prudentes ne sont pas à l’abri des défaillances. Le quotidien britannique The Guardian, connu pour sa rigueur, a testé un outil d’IA pour générer des résumés de ses live-blogs. Les résultats ont été pour le moins… créatifs. Dans un cas, en résumant un article sur un tragique accident de bus qui avait fait 10 morts et 25 blessés, l’IA a sobrement indiqué : « Il y avait 35 personnes dans le bus », additionnant les deux chiffres sans aucune compréhension du contexte. Le problème, c’est bien sûr qu’il aurait pu y avoir plus de 35 personnes à bord. Plus troublant encore, en résumant un article sur le décès du comédien Barry Humphries, l’IA a inventé de toutes pièces une citation de l’humoriste Frankie Boyle, qui n’avait en réalité rien dit sur le sujet. L’erreur provenait d’un tweet intégré dans l’article que la machine n’avait pas su interpréter correctement. Vu ces piètres résultats, The Guardian a décidé de repousser la mise ne place de cet outil d’IA.
Ces deux exemples sont riches d’enseignements. Ils démontrent que l’IA, même en 2024, est loin d’être fiable. Elle peut se tromper sur des faits simples, plagier sans le savoir et, surtout, inventer des informations qui semblent parfaitement plausibles. Ces dérapages soulignent la nécessité absolue et non négociable d’une supervision humaine rigoureuse à chaque étape du processus.
Biais, « hallucinations » et boîtes noires : Les chausse-trappes de la technologie
Pour utiliser l’IA intelligemment, il faut en comprendre les limites fondamentales, qui sont de trois ordres.
- Le problème des « hallucinations » : Contrairement à un cerveau humain, une IA générative n’a aucune conscience du vrai ou du faux. Elle ne « sait » rien. Son fonctionnement repose sur des modèles statistiques complexes qui lui permettent de prédire quel mot est le plus susceptible de suivre une séquence de mots donnée. C’est un « moteur de vraisemblance », pas un moteur de vérité. Sa seule boussole est la cohérence statistique, ce qui l’amène parfois à produire des textes très bien écrits, très convaincants, mais factuellement faux : ce sont les fameuses « hallucinations ».
- Les biais algorithmiques : Les modèles d’IA sont entraînés sur d’immenses corpus de textes et d’images prélevés sur Internet. Ils ingèrent et apprennent donc de tout ce que l’humanité y a publié, le meilleur comme le pire. Par conséquent, ils reproduisent et peuvent même amplifier les biais culturels, sociaux, raciaux ou de genre présents dans ces données. Une IA entraînée majoritairement sur des contenus en anglais aura tendance à refléter une vision du monde anglo-saxonne, et une IA entraînée sur des corpus historiques pourra reproduire des stéréotypes obsolètes.
- L’opacité des « boîtes noires » : Un autre défi majeur est le manque de traçabilité. Il est souvent impossible de savoir précisément pourquoi une IA a généré une réponse spécifique ou de remonter à ses sources exactes. Ce fonctionnement en « boîte noire » est l’antithèse de la démarche journalistique, qui repose sur la transparence et la vérification des sources.
Ces erreurs et limites techniques ne disqualifient pas l’IA en tant qu’outil, mais elles mettent en lumière, par contraste, ce qui fait la valeur irremplaçable du journalisme humain : le jugement critique, la capacité à hiérarchiser et à nuancer, la compréhension fine du contexte, le flair, l’empathie et la responsabilité éthique.
Mettre des garde-fous : La réponse déontologique des médias français
Face à ces défis, la profession s’organise. Conscient que l’utilisation cachée ou non maîtrisée de l’IA peut aggraver la crise de confiance que traversent les médias, des initiatives voient le jour pour établir des règles claires.
- La Charte de Paris sur l’IA et le journalisme : En novembre 2023, Reporters Sans Frontières (RSF), en collaboration avec 16 grands groupes de médias et organisations de journalistes, a lancé la Charte de Paris. Ce texte fondateur pose dix principes essentiels pour encadrer l’usage de l’IA, parmi lesquels : le jugement humain doit rester central dans toute décision éditoriale, les médias conservent la responsabilité des contenus qu’ils publient, la transparence envers le public sur l’usage de l’IA est une obligation, et une distinction claire doit être faite entre les contenus authentiques et les contenus synthétiques.
- Les chartes internes des rédactions : Dans le sillage de cette initiative, de plus en plus de rédactions françaises se dotent de leurs propres guides de bonnes pratiques. Une analyse de l’INA en 2025 recensait déjà une vingtaine de chartes. Celles de France Médias Monde, de l’INA ou du studio de podcast Louie Media, par exemple, convergent toutes vers les mêmes fondamentaux : supervision et validation humaines systématiques, traçabilité des contenus générés, responsabilité éditoriale pleine et entière, et transparence vis-à-vis du public.
Le principe clé qui émerge de toutes ces démarches est simple : l’IA est un outil, le journaliste reste le pilote. Toute production assistée par une IA doit être traitée comme une information brute provenant d’une source non vérifiée. Elle doit être contrôlée, validée et assumée par un journaliste avant toute publication. Cette exigence de transparence pourrait bien devenir une nouvelle norme déontologique, un pilier essentiel pour maintenir le lien de confiance avec le public dans un écosystème informationnel de plus en plus complexe.
Après la phase actuelle d’expérimentation et d’adoption prudente, à quoi ressemblera l’IA dans les rédactions d’ici deux à quatre ans? Les tendances suggèrent une intégration encore plus profonde et personnalisée, non pas pour remplacer le journaliste, mais pour devenir un véritable partenaire de travail.
Et demain ? Le journalisme à l’horizon 2028
Selon les prédictions du Reuters Institute for the Study of Journalism, la prochaine grande évolution sera le passage des outils réactifs actuels à des « agents intelligents » proactifs et conversationnels. L’IA ne se contentera plus de répondre à une commande, elle anticipera les besoins du journaliste.
Imaginons un scénario d’usage en 2028. Un journaliste d’investigation pourra briefer son agent IA personnel : « Je travaille sur le nouveau projet d’urbanisme de la ville de X. Surveille en permanence les publications officielles, les délibérations du conseil municipal et les appels d’offres. Transcris automatiquement tous les débats où le projet est mentionné. Alerte-moi en temps réel si le nom de l’entreprise de BTP « Béton-Plus » ou de son dirigeant, M. Durand, apparaît. Pendant ce temps, analyse les déclarations de patrimoine des élus impliqués dans le projet et croise-les avec le registre du commerce pour identifier d’éventuels conflits d’intérêts. Présente-moi une synthèse de tes trouvailles chaque matin à 9h. » Dans cette vision, l’IA devient un assistant de recherche surpuissant, infatigable et entièrement personnalisé, qui effectue en amont un travail de veille et de pré-analyse colossal.
Vers un journalisme « augmenté », pas remplacé
Cette évolution ne signe pas la fin du journalisme, mais sa transformation vers une symbiose homme-machine plus efficace. L’IA excellera dans le traitement de l’information à grande échelle, dans la détection de signaux faibles au sein de masses de données, bref, dans tout ce qui relève du quantitatif : le « quoi », le « combien », le « qui ».
Cette prise en charge des aspects les plus mécaniques du métier par la machine aura pour effet de revaloriser plus encore les compétences purement humaines. Dans un monde saturé d’informations pré-mâchées par les algorithmes, ce qui fera la différence sera la capacité du journaliste à aller sur le terrain, à construire un réseau de sources fiables, à mener une interview en face-à-face pour déceler l’implicite et le non-dit, à exercer son jugement critique pour comprendre le « pourquoi » et le « comment » des événements, et enfin, à raconter une histoire avec talent, empathie et une éthique irréprochable. Le journaliste de demain ne sera pas celui qui produit le plus de contenu, mais celui qui posera les meilleures questions, à ses sources comme à son IA, et qui saura donner du sens au bruit du monde.
L’IA ne remplacera pas le flair du journaliste, mais elle lui donnera des ailes
Au terme de ce tour d’horizon, une certitude émerge : l’intelligence artificielle n’est ni la panacée qui résoudra tous les maux du journalisme, ni le fossoyeur qui signera sa fin. Elle est un formidable levier de productivité, un puissant outil d’investigation et, potentiellement, un facteur de démocratisation, en donnant accès à des moyens d’enquête autrefois réservés aux plus grandes rédactions.
Mais cet outil vient avec un mode d’emploi exigeant, fait de vigilance, d’esprit critique et de responsabilité. Les dérapages de CNET et les expérimentations du Guardian nous le rappellent : une IA laissée sans surveillance est une source de désinformation en puissance. C’est pourquoi l’établissement de chartes éthiques claires et la formation continue des journalistes sont des chantiers absolument prioritaires.
En définitive, l’analogie du co-pilote semble la plus juste. Un bon co-pilote gère les instruments, analyse une quantité phénoménale de données en temps réel, surveille les systèmes et propose des trajectoires optimales. Mais c’est toujours le pilote qui garde les mains sur le manche, qui regarde par le cockpit pour comprendre l’environnement, qui prend les décisions critiques face à l’imprévu et qui assume l’entière responsabilité de la sécurité du vol. L’IA est sans doute le meilleur co-pilote que le journalisme ait jamais eu. Mais il ne faudra jamais, jamais oublier qui est aux commandes.
Journalisme Magazine