Podcast Perspectives : la voix des leaders de la tech qui comptent en 2026 | Écouter sur

Blog
IA

L’IA chez Pigment – Bibliothèque de cas d’usage

Pour partager les enseignements issus de nos projets IA internes, nous avons constitué une bibliothèque de déploiements qui ont fait leurs preuves, et que nous mettons à jour régul

George Hood

George Hood

Catégorie

IA

Temps de lecture

5 minutes

Publication

February 24, 2026

Dernière mise à jour

March 13, 2026

Sommaire

Summary

Points essentiels

Dernière mise à jour : 24 février

Pigment est une organisation résolument tournée vers l’IA. Cette orientation se reflète dans notre stratégie produit, mais aussi dans la manière dont nos équipes internes opèrent au quotidien.

Chaque équipe chez Pigment délivre aujourd’hui davantage que l’an dernier grâce à l’IA. Cela a nécessité de nombreuses expérimentations, et ce n’est qu’un début.

Dans cette logique, nous lançons une bibliothèque de cas d’usage IA internes, détaillant leur conception et les enseignements clés, afin d’inspirer et d’accompagner d’autres organisations dans leurs propres démarches.

Salesforce dans votre poche

Teo Leventhal, Growth Analyst

Workflow in n8n

De quoi s’agit-il ?

Au sein de l’équipe Growth, nous avons développé un bot Slack permettant aux équipes GTM (Go To Market) d’interroger Salesforce en langage naturel et d’obtenir, directement dans Slack, des informations fiables et actualisées sur les comptes.

Cette solution est particulièrement utile pour les équipes commerciales et les dirigeants, souvent en déplacement et sans accès immédiat à leur ordinateur ou à l’application Salesforce. Le plugin Slack permet de répondre aux questions courantes et d’accéder à tout type d’information stockée dans Salesforce, par exemple :

  • Qui est en charge du compte X ?
  • Quel est le statut de l’opportunité Y ?
  • Le contact Z a-t-il été engagé ?
  • Le client N a-t-il signé un accord marketing ?

Pour garantir un fonctionnement fluide, le bot normalise les noms d’entreprise, identifie le compte Salesforce le plus pertinent, extrait les données demandées et fournit une réponse claire et structurée, tout en vérifiant que l’utilisateur dispose des droits d’accès nécessaires Salesforce.

Bénéfices

Les principaux bénéfices sont un accès simplifié à l’information, une réduction des changements de contexte, moins d’interruptions internes et un usage renforcé de Salesforce comme source unique de référence.

En traitant des requêtes imprécises et en classant les comptes par pertinence, la solution limite également les erreurs liées aux doublons ou aux incohérences de taxonomie.

Avant la mise en place de cette automatisation, les utilisateurs s’appuyaient sur des recherches manuelles dans Salesforce ou sur des échanges répétés dans Slack avec différentes équipes (Customer Success, Sales Ops ou entre commerciaux) pour obtenir des informations basiques sur un compte.

Nous estimons un gain de 3 à 5 minutes par requête. Pour la plupart des utilisateurs, cela se produit plusieurs fois par jour. Au-delà du temps gagné, l’accès immédiat à l’information au moment opportun est un levier opérationnel majeur.

Enseignements et limites

Bien qu’efficace, le bot présente encore certaines limites, notamment en matière de temps de réponse, de nombre de champs pris en charge, de gestion des cas d’ambiguïté, ainsi que dans le fait qu’il ne renvoie actuellement qu’un seul compte correspondant le mieux à la requête.

Les évolutions à venir porteront sur l’amélioration des performances, l’élargissement des champs disponibles, des interactions de suivi plus riches et la mise à disposition d’insights plus proactifs sur les comptes.

Outils utilisés : Slack, n8n, ChatGPT, Salesforce, Google Sheets (pour le monitoring et l’analyse).

A au service de la R&D

Virginie Jugie, Engineering Program Manager Lead

Claude Code (not in a Pigment environment)

Au cours de l’année écoulée, Pigment a déployé des outils de développement pilotés par l’IA pour l’ensemble de l’organisation R&D : assistants de programmation basés sur l’IA, ainsi que des outils spécialisés pour la gestion des incidents (incident.io), la documentation technique via l’API OpenAI, et les revues de code (Auggie, Bugbot, Copilot, Claude Code).

Bénéfices

Le projet s’est révélé être un succès indéniable à ce stade :

  • Les ingénieurs déclarent gagner plus de deux heures par jour, voire plusieurs jours par semaine.
  • Les cycles de développement sont accélérés, tant pour la livraison de nouvelles fonctionnalités que pour les travaux de refactoring et de maintenance du code.
  • La démocratisation de la connaissance grâce à l’IA facilite l’exploration et la compréhension de notre base de code. À plus long terme, cela permet d’accélérer l’onboarding des nouveaux collaborateurs, même sur des environnements techniques complexes.

Enseignements et limites

Les outils de développement basés sur l’IA constituent une évolution majeure par rapport aux modes de travail traditionnels. Afin de garantir une adoption efficace, nous déployons des formations adaptées. Pour chaque outil, nous proposons des démonstrations ainsi que des sessions de formation fondées sur des cas d’usage réels. En parallèle, les développeurs échangent activement entre eux et documentent les bonnes pratiques identifiées.

Dans la mesure où nous expérimentons plusieurs outils, chacun répondant à des besoins spécifiques et l’écosystème évoluant rapidement, nous souhaitons conserver une approche ouverte. Il est alors inévitable de faire face à des enjeux de fragmentation des solutions et de gestion des licences. Par ailleurs, il demeure complexe de mesurer précisément les gains de productivité au-delà des données déclaratives des utilisateurs.

Prochaines étapes :

  1. Création de playbooks et de lignes directrices spécifiques selon les tâches et les rôles au sein de l’équipe.
  2. Finalisation de notre dispositif de suivi des usages de l’IA, afin de consolider et d’optimiser nos dépenses en licences.
  3. Formalisation d’un cadre de benchmarking quantitatif permettant d’évaluer objectivement les outils de développement basés sur l’IA.

Nous disposons aujourd’hui d’éléments suffisants pour affirmer que le développement assisté par l’IA génère une valeur tangible. La prochaine étape consiste à structurer des cadres et des référentiels clairs pour mesurer son impact et améliorer en continu nos pratiques.

Outils utilisés : Cursor, GitHub Copilot, Augment, Claude Code, OpenAI.

Tableau de bord des ventes

Guy Solomon, Revenue Enablement Specialist

Au sein de Gong, nous avons configuré des scorecards qui s’exécutent automatiquement sur les appels réalisés par les équipes commerciales de Pigment.

Bénéfices

Nous sommes désormais en mesure d’orienter les managers sur les axes prioritaires de coaching, en nous appuyant sur les transcriptions des conversations et les tendances identifiées à travers les interactions clients.

Par exemple, nous pouvons évaluer la qualité de la qualification des opportunités par les BDR avant leur transmission, ou mesurer dans quelle mesure les commerciaux respectent les meilleures pratiques lors de leurs rendez-vous.

Les appels obtenant les meilleurs scores sont automatiquement partagés dans les canaux Slack concernés, afin de valoriser les succès et de fournir des références concrètes de ce que représente un standard d’excellence, notamment dans une perspective d’onboarding.

Enseignements et limites

Au fil du temps, nous verrons où se situent les lacunes dans l'exécution de toutes les interactions avec la clientèle, en fonction des tableaux de bord que nous choisirons de créer dans Gong..

Outils utilisés :   Gong, Slack

Automatisation du suivi des réunions

Ed Gromann, Global Head of Analyst Relations

Prompt Cowboy helps you create excellent prompts for LLMs

Au quotidien, je dois consigner dans un Google Sheet les échanges avec les analystes : participants aux événements, contenus abordés, actions de suivi.

En utilisant Prompt Cowboy, j’ai conçu un prompt pour ChatGPT, qui a généré un Google Apps Script exécuté automatiquement le 1er de chaque mois.

Bénéfices

Cela impliquait auparavant un volume important de tâches manuelles répétitives chaque mois : saisir dans le tableur les détails de chaque réunion à partir de mon agenda.

Enseignements et limites

Le script récupère certaines informations non nécessaires. Une optimisation est prévue pour le rendre plus sélectif.

Outils utilisés : Prompt Cowboy, ChatGPT, Google Apps Script, Google Calendar

Agent d’Idées Clients

Lea Benyamin, Data Automation Engineer

How the agent works

Le Customer Idea Agent (CIA) s’appuie sur un pipeline d’agents LLM personnalisés afin d’extraire, centraliser et quantifier automatiquement les demandes d’évolution et de fonctionnalités formulées par nos clients et prospects à travers l’ensemble de notre écosystème de feedback :

Le Customer Idea Agent exploite une chaîne d’agents LLM personnalisés pour extraire, centraliser et quantifier automatiquement les demandes d’évolution produit et de fonctionnalités formulées par nos clients et prospects via :

  • Idées partagées sur la Pigment Community
  • Messages Slack
  • Tickets Freshdesk
  • Transcriptions d’appels Gong

Cette approche nous permet d’exploiter, à grande échelle, des signaux fondés sur la donnée pour prioriser le développement produit de manière structurée et objective.

Bénéfices

Notre pipeline LLM extrait et regroupe les idées et demandes de fonctionnalités, puis les enrichit avec des données issues de notre CRM. Cette approche nous permet d’analyser les retours produit selon différents axes : cas d’usage client, localisation, secteur d’activité ou segment.

Nous sommes ainsi en mesure d’identifier et de suivre des signaux d’intérêt structurés, permettant aux équipes Product Management et GTM (Go To Market) de repérer les fonctionnalités présentant le plus fort impact business.

Point clé : nous établissons un lien direct entre ces idées et les opportunités commerciales actives. Notre roadmap s’appuie ainsi sur une évaluation quantifiée de l’impact revenu, ce qui nous permet de prioriser les développements en cohérence à la fois avec les besoins clients et nos objectifs business.

Enseignements et limites

Bénéfices de l’intégration de Vertex AI avec BigQuery

L’un des avantages techniques majeurs a été l’exploitation directe de Vertex AI au sein de nos workflows BigQuery. Cette intégration a supprimé les flux complexes de transfert de données entre systèmes et nous a permis d’appliquer les capacités LLM directement là où résident nos données. En centralisant l’ensemble du dispositif dans l’écosystème BigQuery, nous avons obtenu des temps de traitement plus rapides, une latence réduite et une architecture simplifiée.

Cette intégration native garantit également une scalabilité fluide tout en maintenant un haut niveau de gouvernance et de sécurité des données au sein de notre infrastructure data warehouse existante.

Le rôle critique de la modélisation et de la qualité des données

Même le LLM le plus performant reste tributaire de la qualité des données qu’il traite. L’exploitation de notre pipeline de data modeling existant s’est révélée déterminante pour obtenir des résultats exploitables. Notre pipeline standardise les feedbacks issus de sources hétérogènes, chacune nécessitant un prétraitement rigoureux afin de produire des données cohérentes et de haute qualité.

Défis persistants

L’évaluation de la qualité des outputs LLM demeure un enjeu. Bien que nous ayons intégré un agent “LLM-as-judge” dans notre pipeline pour détecter et filtrer les inexactitudes, une revue humaine reste indispensable pour garantir la fiabilité des résultats.

Nous avons mis en place des audits qualité dans lesquels les Product Managers examinent les idées regroupées afin de valider leur pertinence et d’identifier les cas limites.

Les LLM peuvent ponctuellement mal interpréter un contexte ou fusionner des idées sans lien réel. Si nos algorithmes de clustering affichent globalement de bonnes performances, ils nécessitent un ajustement et un suivi continus.

Nous avons également déployé des mécanismes de feedback permettant aux utilisateurs de signaler les catégorisations incorrectes. Ces retours alimentent un processus d’amélioration continue de nos prompts et de nos modèles.

Outils utilisés : Vertex AI, BigQuery, dbt Core, Gemini.

Frequently Asked Questions

No items found.

Voir Pigment en action

La façon la plus rapide de comprendre Pigment est de voir la plateforme en action. Inscrivez-vous dès aujourd’hui et découvrez comment l’IA agentique peut transformer votre manière de planifier.

Three colleagues focused on an iMac screen in a bright office with plants and modern artwork.

De 8 jours à 4 minutes

Mise à jour données P&L actuals & prévisions

80%

Réduction du temps consacré à l’agrégation des données

12 heures

Gagnées chaque mois sur le reporting pour la direction

6 jours gagnés

Pour la création et l’analyse de scénarios