top of page
Rechercher

Communication et IA : le sens, ou le bruit ?

  • balou972
  • 19 juin
  • 3 min de lecture

L’intelligence artificielle générative permet aujourd’hui à chacun de produire des contenus, vite, partout, tout le temps. Mais l’abondance n’est pas la pertinence. L’accélération n’est pas la stratégie. Et surtout, l’automatisation n’est pas la pensée.

Face à la montée en puissance de ChatGPT et des IA conversationnelles, une question cruciale émerge pour les acteurs publics comme privés : où se situe l’éthique d’usage ? Et surtout, qui conserve le pouvoir éditorial, le sens, la vision ?



I. Le commanditaire doit rester le pilote


L’IA est un outil. Puissant, oui. Mais c’est un amplificateur, pas un auteur. Un accélérateur de flux, pas un dépositaire du sens.

Le véritable enjeu de 2025 n’est pas technologique. Il est stratégique, politique et éthique :

  • Le commanditaire d’un message doit garder la maîtrise.

  • La vision doit précéder l’outil, non l’inverse.

  • L’intention éditoriale doit primer sur l’automatisation.

L’International AI Safety Report (janvier 2025) recommande expressément une gouvernance humaine forte dans tous les processus de communication assistée par IA, afin d’éviter la délégation implicite de responsabilité éditoriale.


l'IA: le sens ou le bruit?
l'IA: le sens ou le bruit?

II. L’IA rend plus visible ce que vous êtes — ou ce que vous n’êtes pas


Une IA sans pilote ne produit pas un message. Elle produit la norme. Une logique de moyennisation. Un contenu calibré sur la moyenne des contenus disponibles.

Selon une étude conjointe menée par la Harvard Kennedy School et le Reuters Institute (avril 2025), 61 % des professionnels de la communication reconnaissent un usage régulier d’IA générative sans processus de vérification humaine systématique. Cette pratique expose les organisations à des risques accrus en matière de cohérence, de conformité réglementaire et de perception publique.

🟡 Résultat : des contenus souvent interchangeables, sans incarnation, sans différenciation.🟢 A contrario, utilisée par un professionnel formé, stratégique, humain, l’IA devient un levier de productivité et de valorisation du fond.



III. Soft skills, stratégie, éthique : les compétences qui changent tout


Selon McKinsey (The State of Organizations, 2023), les organisations les plus résilientes sont celles qui combinent vision stratégique, intelligence contextuelle et leadership narratif. Deloitte (Global Human Capital Trends, 2025) affirme que 89 % des dirigeants placent les soft skills au-dessus des compétences techniques dans les fonctions sensibles.

Une enquête PRSA (AI & Strategic Communication, janvier 2025) montre que les communicants jugent aujourd’hui que les trois qualités indispensables face à l’IA sont :

  • L’empathie,

  • Le discernement,

  • La capacité à incarner une ligne éditoriale cohérente.


C’est précisément ce qui manque à l’IA :

  • Le sens du contexte,

  • La hiérarchisation des messages,

  • La traduction fine d’une stratégie,

  • La compréhension politique ou culturelle d’un territoire, d’un climat, d’une temporalité.



IV. L’urgence de l’incarnation narrative


À l’heure où tout peut être produit par automatisme, l’unique levier différenciant reste l’incarnation.

➔ Une parole assumée.

➔ Une vision claire.

➔ Un storytelling fondé sur des valeurs, du bon sens, une stratégie lisible.


L’Unesco et le G7 ont tous deux rappelé en 2024 que les systèmes IA doivent être au service de l’autonomie intellectuelle humaine et de la diversité culturelle, et non leur substitut.


L'IA: les risques réglementaires et politiques
L'IA: les risques réglementaires et politiques

V. Risques réglementaires et politiques : le cas des élections 2026–2027


L’article L.52-1 du Code électoral interdit toute communication institutionnelle valorisante en période pré-électorale. La charte de déontologie du service public renforce les devoirs de neutralité. Toute ambiguïté devient un risque.

❗En période de réserve, un contenu généré automatiquement, mal relu ou sorti de son contexte peut avoir des conséquences lourdes :

  • invalidation de communication,

  • atteinte à la neutralité,

  • préjudice réputationnel,

  • crise de légitimité.

Là encore, l’IA n’a ni la culture du risque, ni la conscience juridique. Elle n’a que des données.


Conclusion

Confier l’écriture à une IA sans stratégie éditoriale, c’est comme projeter de la lumière sans objet : cela ne produit que de l’éblouissement.

👉 Le vrai pouvoir est de savoir quoi dire, quand, comment, et pourquoi.

👉 L’IA ne rend pas un message plus fort. Elle le rend juste plus rapide. Encore faut-il que ce message ait une colonne vertébrale, une vision, une direction.


La communication ne doit jamais devenir un bruit automatisé. Elle doit rester un acte de pensée.


Sources vérifiées :

  • Content Marketing Institute, State of Content Marketing Europe 2024

  • Nielsen Norman Group, Trust and Content Design in the AI Era, Mars 2024

  • Deloitte, Global Human Capital Trends 2025

  • McKinsey, The State of Organizations 2023

  • Harvard Kennedy School & Reuters Institute, AI and the Future of Communication Governance, Avril 2025

  • PRSA, AI & Strategic Communication, Janvier 2025

  • UNESCO, Recommendation on the Ethics of Artificial Intelligence, mise à jour 2024

  • G7 Hiroshima Principles on AI Governance, Communiqué 2024

  • Code électoral français, art. L.52-1

  • Charte de déontologie du service public, 2023

  • CNIL, RGPD et intelligence artificielle, recommandations 2023

 
 
 

Comments


bottom of page