Sur la scène emblématique du Bang à Big 2025, l’intervention de Jacques Pommeraud, président‑directeur général du groupe Inetum, a placé la « Vérité » au cœur du débat sur l’intelligence artificielle. Face aux décideurs, responsables IA et acteurs de la tech, il a choisi de parler non pas de prouesse technologique, mais de fiabilité, d’éthique et de responsabilité– trois piliers devenus stratégiques pour les entreprises qui misent sur l’IA.
Biais, hallucinations, risques d’utilisation malveillante : loin de freiner l’innovation, ces enjeux, lorsqu’ils sont pris au sérieux, peuvent au contraire déclencher un cercle vertueux de confiance, de performance et de création de valeur. C’est tout le message d’une IA lucide et maîtrisée qui s’est dessiné autour de cette prise de parole.
Pourquoi la « vérité » devient un enjeu business majeur avec l’IA
Dans de nombreux comités de direction, une même question revient désormais : « Pouvons‑nous vraiment faire confiance aux systèmes d’IA que nous déployons ? » Derrière cette interrogation se cachent des enjeux très concrets :
- Décisions opérationnelles prises sur la base de recommandations générées par l’IA.
- Relations clients de plus en plus automatisées (chatbots, scoring, personnalisation).
- Réputation de l’entreprise, exposée au moindre incident impliquant des contenus erronés ou discriminatoires.
- Conformité réglementaire, dans un contexte où les lois sur l’IA et la protection des données se renforcent.
La « vérité » n’est pas un concept abstrait dans ce contexte. Elle se traduit par la capacité d’une entreprise à garantir que ses systèmes d’IA :
- Produisent des résultats exactifs ou, à défaut, clairement qualifiés comme incertains;
- Sont traçables, auditables et explicables par des humains compétents ;
- Respectent des valeurs explicites: équité, non‑discrimination, sécurité, transparence.
L’intervention de Jacques Pommeraud s’inscrit précisément dans cette perspective : faire de la vérité et de la responsabilité non pas des freins, mais des différenciateurs concurrentiels pour les projets d’IA.
Biais, hallucinations, usage malveillant : comprendre les risques pour mieux les transformer en leviers de progrès
Les biais : quand les données déforment la réalité
Les biais algorithmiques ne sont pas une fatalité, mais la conséquence directe :
- De données d’entraînement incomplètes ou déséquilibrées;
- De processus métiers qui reproduisent des inégalités historiques;
- De choix de conception ou de métriques qui favorisent certaines catégories au détriment d’autres.
Pour une organisation, ignorer ces biais, c’est prendre le risque de :
- Décourager ou exclure certains profils (clients, candidats, bénéficiaires) ;
- Subir des litiges ou des sanctions réglementaires;
- Détériorer durablement la marque employeur et la confiance des clients.
À l’inverse, les entreprises qui détectent et corrigent activement les biais peuvent :
- Améliorer la qualité globale de leurs décisions;
- Ouvrir de nouveaux marchés en adoptant des approches plus inclusives ;
- Renforcer leur position de leader responsable sur leur secteur.
Les hallucinations : le danger d’une IA sûre d’elle mais factuellement fausse
Les modèles de langage peuvent produire des réponses très convaincantes… mais parfois totalement inexactes. Ces « hallucinations » posent un problème majeur lorsqu’elles interfèrent avec :
- Des processus critiques (juridique, médical, financier, industriel) ;
- Des interactions clients, où l’erreur peut entamer immédiatement la confiance ;
- Des contenus publics engageant l’entreprise (communication, support, formation).
D’où l’importance, soulignée dans la thématique de la « Vérité », de réhabiliter le « je ne sais pas ». Un système d’IA – et plus encore, une organisation – doit pouvoir :
- Signaler qu’une réponse est incertaine ou hors de son périmètre;
- Orienter vers un humain compétent lorsque la confiance n’est pas suffisante ;
- Refuser de répondre dans des contextes à fort enjeu éthique ou sécuritaire.
Usages malveillants : l’IA comme amplificateur de menaces
Les risques d’utilisation malveillante de l’IA ne relèvent plus de la science‑fiction :
- Génération de contenus frauduleux plus crédibles (phishing, deepfakes, faux documents) ;
- Automatisation de tentatives d’intrusion ou d’ingénierie sociale;
- Manipulation de l’information à grande échelle (désinformation, polarisation).
Pour une entreprise, la réponse ne peut pas être de se couper de l’IA, sous peine de perdre en compétitivité. Il s’agit plutôt de cadre, gouverner et sécuriser les usages, en assumant un rôle actif de gardien de la vérité au sein de son écosystème.
Réhabiliter le « je ne sais pas » : une posture sceptique… et profondément stratégique
L’un des messages forts portés par la thématique « Vérité » tient en une idée simple mais puissante : accepter de dire « je ne sais pas ». Dans un monde saturé de données et d’algorithmes, cette posture n’est pas un aveu de faiblesse ; c’est un acte de lucidité et de professionnalisme.
Pourquoi cette posture change la donne dans les projets IA
Adopter une posture sceptique et responsable permet à une organisation de :
- Sortir du mythe de l’IA infaillible et mieux gérer les attentes des métiers ;
- Encourager les équipes à questionner les résultats, plutôt qu’à les subir ;
- Réduire les décisions hâtives prises sur la base de signaux fragiles ;
- Créer une culture du feedback, où les erreurs servent à améliorer continuellement les modèles.
En pratique, cela se traduit par des rituels concrets :
- Réunions de revue de modèles où les résultats sont challengés par plusieurs profils (tech, métier, juridique, risque) ;
- Indicateurs de confiance associés à chaque recommandation produite par l’IA ;
- Processus explicites pour remonter un doute et demander une validation humaine.
Des valeurs propres comme boussole
Parler de « vérité » en IA, c’est aussi inviter chaque entreprise à revenir à ses propres valeurs:
- Quel niveau de risque est acceptable pour nos clients, nos patients, nos usagers, nos citoyens ?
- Quels principes ne sont jamais négociables (équité, non‑discrimination, sécurité, sobriété, transparence) ?
- Dans quels cas l’humain doit‑il garder la décision finale?
Une IA alignée avec les valeurs de l’entreprise renforce la cohérence globale de la marque et donne aux équipes un cadre clair pour arbitrer les choix techniques et opérationnels.
Gouvernance, vérification, formation : les trois piliers d’une IA de confiance
Au‑delà du constat, l’intervention de Jacques Pommeraud met en avant un message résolument orienté action: pour sécuriser la valeur des projets IA, il faut investir dans l’organisation autant que dans la technologie.
1. Une gouvernance claire pour l’IA
La gouvernance de l’IA consiste à définir qui décide quoi, sur quelle base, et avec quelles responsabilités. Concrètement, les entreprises performantes sur ce sujet mettent souvent en place :
- Un comité IA ou comité éthique réunissant IT, métiers, juridique, conformité, risques et parfois représentants des utilisateurs ;
- Des règles internes sur les cas d’usage autorisés, sensibles ou interdits ;
- Un processus de validation des projets IA incluant une revue des risques (biais, sécurité, conformité, impact sociétal) ;
- Une cartographie des modèles utilisés (internes, partenaires, fournisseurs) pour savoir où l’IA est déployée et à quoi elle sert.
2. La vérification comme réflexe systématique
Une IA de confiance repose sur des mécanismes de vérification continus:
- Tests automatisés et scénarios de non‑régression pour chaque évolution de modèle ;
- Suivi d’indicateurs en production (qualité, dérive des données, équité, performance business) ;
- Revues régulières des jeux de données pour identifier de nouveaux biais ;
- Possibilité d’auditer a posteriori une décision ou une recommandation.
L’objectif n’est pas d’atteindre la perfection, mais de construire un système vivant capable de détecter et de corriger rapidement les dérives.
3. La formation comme accélérateur de maturité
Sans formation, même les meilleurs dispositifs de gouvernance restent théoriques. Pour que la vérité et la responsabilité deviennent une réalité quotidienne, il est clé de :
- Sensibiliser les dirigeants aux enjeux spécifiques de l’IA (opportunités, risques, réglementation, image de marque) ;
- Former les équipes métiers à lire, questionner et challenger les sorties des modèles ;
- Développer chez les équipes techniques une approche intégrant éthique, sécurité et conformité dès la conception;
- Outiller les collaborateurs avec des guides de bonnes pratiques concrets pour l’usage des IA génératives.
C’est cette montée en compétence globale qui permet de passer d’une IA « gadget » à une IA structurante, créatrice de valeur et alignée sur les enjeux de l’entreprise.
Bonnes pratiques pour sécuriser la valeur des projets IA en entreprise
Transformer la « Vérité » en avantage compétitif passe par des gestes concrets. Voici un ensemble de bonnes pratiques alignées avec les enjeux portés lors de Big 2025.
1. Partir du problème métier, pas de la technologie
- Formuler clairement le problème business à résoudre avant de choisir un modèle ;
- Définir des indicateurs de succès précis (ROI, qualité, satisfaction utilisateur, délais) ;
- Identifier les risques associés au cas d’usage (erreurs, discriminations, sécurité, image).
2. Encadrer l’usage des IA génératives
- Mettre en place une charte d’utilisation claire pour les collaborateurs ;
- Limiter l’externalisation de données sensibles vers des services non maîtrisés ;
- Privilégier des solutions intégrées dans l’environnement de l’entreprise, avec journalisation des échanges et règles de conservation ;
- Imposer une relecture humaine pour tout contenu à enjeu (juridique, contractuel, financier, communication).
3. Instaurer un « principe de vérification » obligatoire
- Documenter les limites de chaque modèle (périmètre, domaines, types de questions à éviter) ;
- Demander au minimum une validation par un second regard pour les décisions sensibles ;
- Utiliser des échantillons de données réelles pour tester l’IA dans des conditions proches du terrain;
- Mettre en place des mécanismes de remontée d’incident simples lorsqu’une sortie est manifestement fausse ou dangereuse.
4. Organiser la transparence et la traçabilité
- Garder une trace des versions de modèles déployés et des données utilisées ;
- Étiqueter clairement les contenus générés ou co‑rédigés par une IA lorsqu’ils sont diffusés à l’externe ;
- Permettre aux utilisateurs internes d’accéder à une explication des principales décisions automatisées.
5. Intégrer la sécurité dès la conception
- Analyser les risques d’exfiltration ou de fuite de données via les interactions avec les modèles ;
- Protéger les modèles contre des usages détournés (génération de contenu malveillant, optimisation d’attaques) ;
- Coordonner équipes IA et équipes cybersécurité pour aligner outils et procédures.
De la scène du Bang aux salles de réunion : un message pour tous les décideurs et responsables IA
En choisissant de traiter le thème de la « Vérité » sous l’angle de la fiabilité et de l’éthique, l’intervention de Jacques Pommeraud à Big 2025 envoie un signal fort :
- L’IA n’est plus seulement un sujet de performance technologique, mais un sujet de confiance globale;
- Les entreprises qui réussiront ne seront pas uniquement celles qui iront le plus vite, mais celles qui sauront aller vite en restant fiables, transparentes et responsables;
- Dire « je ne sais pas » quand l’IA atteint ses limites n’est pas un aveu d’échec, c’est la condition pour bâtir une relation durable avec ses clients, ses partenaires et ses collaborateurs.
Pour les décideurs, responsables IA et acteurs de la tech, le message est clair : investir dans la vérité, c’est investir dans la résilience, la réputation et le ROI à long terme des projets d’intelligence artificielle.
Conclusion : faire de la vérité le socle d’une IA performante et responsable
Big 2025 aura été l’occasion de rappeler que l’IA n’est pas une fin en soi. Ce qui compte, ce sont les décisions meilleures, les services plus justes, les expériences plus fluides, rendus possibles par des systèmes de confiance.
En mettant en avant les enjeux de biais, d’hallucinations et d’usages malveillants, puis en plaidant pour une posture sceptique et ancrée dans des valeurs claires, l’intervention de Jacques Pommeraud trace une voie ambitieuse mais pragmatique :
- Assumer que l’IA peut se tromper, et organiser l’entreprise pour le détecter ;
- Faire de la gouvernance, de la vérification et de la formation des investissements stratégiques;
- Transformer la « Vérité » en un avantage compétitif durable pour les organisations qui sauront la placer au cœur de leurs projets IA.
En définitive, la question n’est plus de savoir si l’IA sera omniprésente dans l’entreprise, mais dans quelles conditions elle le sera. C’est précisément là que se joue la différence entre les acteurs qui subiront la technologie et ceux qui, comme le défend la vision portée sur la scène du Bang, en feront un levier responsable de croissance, de confiance et d’impact positif.