1. Préambule
Le cabinet J.CAUSSE ET ASSOCIES, conscient des évolutions technologiques majeures portées par l'intelligence artificielle, affirme sa volonté de demeurer précurseur dans l'évolution de son offre de services et dans la performance qu'il apporte à ses clients comme à ses collaborateurs. Fort de ses 170 collaborateurs et 12 associés, et de ses missions diversifiées en expertise comptable, audit, social et conseil, le cabinet considère l'IA comme un outil indispensable du quotidien, au service de l'innovation, de la qualité des prestations et de l'amélioration continue de l'efficacité opérationnelle des équipes.
Cette démarche proactive s'inscrit dans un cadre de maîtrise des risques et de responsabilité. La confiance de nos clients et la fiabilité de nos productions demeurent notre priorité absolue. L'adoption de l'IA doit impérativement respecter nos obligations déontologiques et contractuelles, notamment en matière de secret professionnel et de protection des données.
La présente charte a pour objet de définir les règles d'utilisation des outils d'intelligence artificielle au sein du cabinet. Elle vise à fournir un cadre clair et sécurisé pour tous les collaborateurs, afin de promouvoir une utilisation innovante, éthique et maîtrisée de l'IA. Elle constitue le socle de notre gouvernance en la matière, pilotée par le binôme Associé-Référent et DSI.
2. Périmètre et outils autorisés
L'utilisation de l'intelligence artificielle au sein du cabinet est strictement limitée aux outils et plateformes validés et autorisés par la direction. Cette approche par « liste blanche » vise à garantir la sécurité, la conformité et la maîtrise des technologies employées.
Processus de sélection et de validation de nouveaux outils
Toute proposition d'un nouvel outil d'IA doit être soumise au référent IA pour une analyse technique et de sécurité. La décision finale d'autorisation est prise par l'Associé-Référent IA après évaluation des risques et de la valeur ajoutée pour le cabinet.
Critères d'évaluation
- Sécurité des données. Hébergement (UE/hors UE), politique de confidentialité, possibilité de désactiver l'utilisation des données pour l'entraînement du modèle (opt-out).
- Conformité réglementaire. Respect du RGPD et des obligations professionnelles.
- Fiabilité et performance. Qualité des résultats, transparence du fonctionnement.
- Intégration. Capacité à s'intégrer dans les flux de travail existants.
- Coût et valeur ajoutée. Analyse du rapport bénéfice/risque/coût.
Important. Un outil non listé est considéré comme interdit jusqu'à son approbation formelle.
3. Classification des usages (Feu tricolore)
Pour encadrer l'utilisation de l'IA de manière pragmatique, les usages sont classifiés en trois niveaux de risque, représentés par un code couleur. Chaque collaborateur doit impérativement identifier dans quelle zone se situe son besoin avant d'utiliser un outil d'IA.
🔴 ROUGE . INTERDIT
Risque Élevé. Usages présentant un risque inacceptable pour la sécurité des données, la conformité réglementaire ou l'intégrité de nos missions.
- Transmettre des données clients (nom, SIREN, bilan, liasse fiscale...) ou des informations confidentielles du cabinet à une IA publique (ChatGPT, Gemini, Claude, etc.).
- Fonder une décision d'audit ou un conseil stratégique uniquement sur la réponse d'une IA.
- Utiliser l'IA pour générer une opinion dans un rapport de commissariat aux comptes.
🟠 ORANGE . SOUS CONDITIONS
Risque Modéré. Usages autorisés à condition de respecter des mesures de protection strictes et de faire l'objet d'une supervision humaine systématique.
- Utiliser une IA publique pour une recherche générale sans aucune donnée sensible.
- Reformuler une note interne non-confidentielle.
- Utiliser les fonctions IA de Pennylane ou Copilot sur des données clients, à condition que le résultat soit vérifié et validé par un professionnel compétent.
🟢 VERT . AUTORISÉ
Risque Faible. Usages à faible risque, encouragés pour améliorer la productivité individuelle et collective, principalement au sein d'environnements sécurisés.
- Utiliser Microsoft Copilot, Geremy, Noota ou Manus pour résumer une réunion interne, rédiger un e-mail, analyser des chiffres dans Excel.
- Utiliser les fonctions natives de Pennylane IA dans le respect de leur usage prévu par l'éditeur.
- Se former aux outils d'IA en utilisant des données fictives ou publiques.
4. Règles de protection des données
La protection des données confiées par nos clients et le respect du secret professionnel sont des obligations non négociables. L'utilisation de l'IA doit se faire dans le respect le plus strict de ces principes.
Principe n°1 . Zéro donnée client ou confidentielle dans les IA publiques
Il est formellement et sans exception interdit de soumettre, copier-coller ou téléverser une quelconque information permettant d'identifier un client (nom, raison sociale, SIREN), un de ses salariés, ou contenant des données chiffrées (bilans, bulletins de paie, etc.) ou stratégiques dans une IA publique (telle que les versions standards de ChatGPT, Gemini, Claude, etc.).
Principe n°2 . Anonymisation systématique
Pour tout usage relevant de la zone orange, les informations doivent être entièrement anonymisées. Le moindre doute sur la capacité d'une IA à ré-identifier une personne ou une entreprise à partir des informations fournies doit conduire à l'abstention.
Principe n°3 . Utilisation des environnements sécurisés
Les outils classés en zone verte (Microsoft Copilot, Manus, Pennylane IA, Geremy, Noota) sont autorisés pour le traitement de données professionnelles, y compris des données clients, car ils offrent des garanties contractuelles de sécurité et de confidentialité. Les données traitées dans ces environnements ne sont pas utilisées pour l'entraînement de modèles publics et restent dans le périmètre de sécurité du cabinet.
Principe n°4 . Désactivation de l'entraînement des modèles (Opt-Out)
Pour tout outil d'IA qui le permet, chaque collaborateur a l'obligation de configurer les paramètres de son compte pour désactiver l'historique des conversations et refuser l'utilisation de ses données pour l'entraînement des modèles. Le DSI fournira des guides pour effectuer cette configuration sur les outils autorisés.
5. Responsabilités et validation
L'intelligence artificielle est un outil d'assistance . elle ne se substitue en aucun cas au jugement, à l'expertise et à la responsabilité du professionnel.
Principe n°1 . Le collaborateur est seul responsable
Chaque collaborateur est l'auteur et le responsable final de ses productions, y compris celles générées avec l'assistance d'une IA. Le recours à une IA doit être considéré comme l'utilisation d'un logiciel d'assistance avancé. Le collaborateur doit systématiquement exercer son esprit critique, vérifier la pertinence, l'exactitude et la cohérence des résultats produits par l'IA avant de les utiliser.
Principe n°2 . Chaîne de validation et supervision
Tout travail intégrant une production issue d'une IA doit suivre le processus de validation habituel du cabinet (revue par un manager, un senior, un associé). La supervision doit être renforcée .
- Dossiers de travail. Pour les missions d'expertise comptable (notamment la révision) et d'audit, l'utilisation d'une IA doit être documentée dans le dossier de travail. Cette documentation doit inclure l'outil utilisé, le prompt (la question posée), et la conclusion du collaborateur après analyse critique du résultat.
- Vérification des sources. L'IA peut produire des informations erronées ou obsolètes (« hallucinations »). Toute information factuelle ou chiffrée issue d'une IA doit être systématiquement vérifiée à partir de sources fiables.
Principe n°3 . Droit à l'erreur de l'IA, devoir de contrôle de l'humain
Le cabinet reconnaît que les outils d'IA ne sont pas infaillibles. Cependant, se fier aveuglément à une réponse de l'IA sans la contrôler constitue une faute professionnelle. Le devoir de supervision humaine est absolu. L'objectif n'est pas de sanctionner l'erreur de l'outil, mais de s'assurer que les processus de contrôle humain permettent de la détecter et de la corriger avant qu'elle n'ait un impact.
6. Transparence client
La confiance de nos clients repose sur une communication transparente. Il est important de les informer de notre démarche d'innovation et de la manière dont nous utilisons les nouvelles technologies pour améliorer la qualité de nos services, tout en garantissant la sécurité de leurs données.
Principe . Information générale via la lettre de mission
Plutôt que de demander une autorisation pour chaque usage, qui serait lourde et peu pratique, nous intégrons une clause d'information générale dans nos lettres de mission. Cette clause informe le client que le cabinet a recours à des outils technologiques avancés, y compris des systèmes d'intelligence artificielle, dans le cadre de ses travaux.
Clause à intégrer dans les lettres de mission
Utilisation des technologies et outils d'intelligence artificielle
Dans le cadre de sa démarche d'amélioration continue et afin d'optimiser la qualité et l'efficacité de ses prestations, le cabinet J.CAUSSE ET ASSOCIES a recours à des logiciels et plateformes technologiques avancés. Ces outils, qui peuvent inclure des systèmes d'intelligence artificielle, sont utilisés comme une aide à la production et au contrôle dans le respect de nos obligations de secret professionnel.
Le cabinet garantit que les outils utilisés pour le traitement des données de ses clients offrent des garanties de sécurité et de confidentialité conformes au RGPD et aux normes professionnelles. Aucune donnée confidentielle n'est utilisée pour l'entraînement de modèles d'IA publics.
7. Gouvernance et révision
L'intelligence artificielle est un domaine en évolution rapide. La présente charte n'est pas un document figé, mais le socle d'une gouvernance dynamique et adaptative.
Principe n°1 . Pilotage par le Référent IA
La gouvernance de l'IA au sein du cabinet est assurée par le binôme composé de l'Associé-Référent et du DSI. Leurs missions sont les suivantes .
- Animer la démarche IA . Promouvoir les bonnes pratiques, organiser des sessions de formation et d'information pour les collaborateurs.
- Être le point de contact . Répondre à toute question des collaborateurs concernant l'application de la charte et la classification des usages.
- Assurer la veille technologique et réglementaire . Suivre les évolutions des outils et des lois pour proposer les ajustements nécessaires.
- Gérer la liste blanche . Instruire les demandes de nouveaux outils et maintenir à jour la liste des solutions autorisées.
Principe n°2 . Révision annuelle
La charte fera l'objet d'une révision formelle au minimum une fois par an, sous la responsabilité du Référent IA. Cette révision permettra de l'adapter aux nouveaux outils, aux nouveaux risques identifiés et à l'évolution du cadre réglementaire.
Principe n°3 . Gestion des incidents
Tout incident ou suspicion d'incident lié à l'utilisation de l'IA (ex. violation des règles de confidentialité, erreur significative non détectée, etc.) doit être immédiatement signalé au DSI et au Référent IA. Une analyse sera menée pour comprendre les causes, évaluer les conséquences et mettre en place les actions correctives nécessaires.
Principe n°4 . Formation continue
Le cabinet s'engage à assurer une formation continue de ses collaborateurs sur les enjeux, les opportunités et les risques liés à l'intelligence artificielle. La compréhension de cette charte et des bonnes pratiques associées fait partie intégrante du parcours de formation de tout collaborateur.
8. Récapitulatif des outils autorisés
La liste complète des outils autorisés et classifiés selon leur niveau de risque.