download Téléchargez gratuitement notre modèle de Charte IA conforme à l’IA Act
download Télécharger la Charte IA V4 — Format .docxUn document Word prêt à l’emploi, structuré autour du Règlement (UE) 2024/1689, avec double signature dirigeant/collaborateur, classification des risques, pratiques interdites et arbre de décision.
book_6 Définition : Charte informatique
Document interne définissant les règles d’utilisation des ressources informatiques de l’entreprise (matériel, messagerie, internet, logiciels, données). Généralement annexée au règlement intérieur, elle est opposable aux salariés après consultation du CSE.
En clair : c’est le document qui dit à vos salariés ce qu’ils ont le droit de faire (ou pas) avec l’ordinateur et internet au travail. Elle existe dans la plupart des entreprises depuis des années — mais elle n’a pas été conçue pour couvrir l’intelligence artificielle, qui pose des risques spécifiques (hallucinations, biais, confidentialité des données partagées avec des IA externes).
book_6 Définition : IA Act
Règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissant des règles harmonisées concernant l’intelligence artificielle.
En clair : la première loi au monde qui encadre l’intelligence artificielle. Elle s’applique à toute entreprise en Europe qui utilise de l’IA, quelle que soit sa taille. En vigueur depuis août 2024, avec des obligations progressives.
Non, votre charte informatique ne suffit pas
Beaucoup de dirigeants pensent que leur charte informatique existante — celle qui encadre l’usage des emails, d’internet et du matériel — couvre aussi l’IA. Ce n’est pas le cas, pour trois raisons.
Les risques sont spécifiques. Les systèmes d’IA posent des problèmes que la charte informatique n’a pas été conçue pour traiter : les hallucinations (informations fausses présentées comme vraies), les biais discriminatoires dans les résultats, et la question de la responsabilité quand un collaborateur agit sur la base d’un output IA.
Les catégories de risque sont nouvelles. L’IA Act introduit quatre niveaux de risque propres à l’IA — inacceptable, haut, limité, minime — avec des obligations différentes pour chacun. Votre charte informatique ne fait pas cette distinction.
La confidentialité change de nature. Quand un collaborateur colle des données clients dans ChatGPT, ces données sont traitées par un tiers. Ce n’est pas la même chose qu’envoyer un email — et ça nécessite des règles dédiées.
La charte IA n’est donc pas un remplacement de votre charte informatique. C’est un complément indispensable, spécifiquement conçu pour l’intelligence artificielle.
book_6 Définition : Système d’IA
« Un système automatisé conçu pour fonctionner à différents niveaux d’autonomie et pouvant faire preuve d’adaptabilité après déploiement, et qui déduit, à partir des données qu’il reçoit, comment générer des résultats tels que des prédictions, du contenu, des recommandations ou des décisions. » — Article 3(1), Règlement 2024/1689
En clair : tout logiciel qui apprend des données et produit des résultats par lui-même. Pas un tableur Excel, mais ChatGPT, un outil de tri de CV, un scoring automatique, un chatbot ou un générateur d’images : oui.
Ce que l’IA Act exige déjà de votre entreprise
Depuis le 2 février 2025, deux catégories d’obligations s’appliquent à toutes les entreprises utilisant de l’IA, sans exception de taille :La littératie IA (article 4) — obligation en vigueur
book_6 Définition : Littératie IA
« Compétences et connaissances permettant aux fournisseurs et déployeurs de systèmes d’IA de procéder à un déploiement éclairé des systèmes d’IA. » — Article 4, Règlement 2024/1689
En clair : savoir ce qu’est l’IA, comprendre ce qu’elle fait bien, ce qu’elle fait mal, et connaître les règles qui encadrent son utilisation. C’est la formation de base que tout salarié utilisant l’IA doit recevoir.
Les pratiques interdites (article 5) — en vigueur, sanctions immédiates
book_6 Définition : Pratiques interdites (article 5)
Huit catégories d’utilisation de systèmes d’IA considérées comme présentant un risque inacceptable pour les droits fondamentaux, interdites depuis le 2 février 2025.
En clair : les usages de l’IA que personne n’a le droit de pratiquer — par exemple noter les gens sur leur comportement social, manipuler quelqu’un sans qu’il s’en rende compte, ou analyser les émotions des salariés en visio. Sanctions : jusqu’à 35 M€ ou 7 % du CA mondial.
book_6 Définition : Déployeur
« Toute personne physique ou morale, y compris une autorité publique, une agence ou un autre organisme, utilisant un système d’IA sous sa propre autorité. » — Article 3(4), Règlement 2024/1689
En clair : votre entreprise utilise ChatGPT, un CRM avec IA ou un chatbot ? Vous êtes « déployeur ». Vous n’avez pas besoin de développer l’IA — le simple fait de l’utiliser vous donne ce statut et les obligations qui vont avec.
Ce que doit contenir une charte IA conforme à l’IA Act
Une charte IA efficace ne se résume pas à une liste d’interdictions. Voici les éléments essentiels :
L’ancrage réglementaire
La charte doit explicitement se référer à l’IA Act et expliquer pourquoi elle existe. En cas de contrôle ou de litige, le fait de pouvoir démontrer que l’entreprise a structuré sa démarche autour du Règlement est un argument de poids.
Les principes fondamentaux
Cinq principes forment le socle : transparence (mentionner l’usage de l’IA), contrôle humain (l’IA suggère, l’humain décide), confidentialité (ne jamais partager de données sensibles avec des outils IA externes), responsabilité (le collaborateur reste responsable de ce qu’il produit avec l’IA), équité (vigilance sur les biais). Chacun doit être traduit en règles concrètes.
La classification des risques
L’IA Act définit quatre niveaux : inacceptable (interdit, sanctions jusqu’à 35 M€), haut risque (obligations strictes, 15 M€), limité (transparence requise) et minime (littératie IA uniquement). Un tableau simple, avec des exemples concrets tirés de la vie quotidienne de l’entreprise, permet à chaque collaborateur d’identifier immédiatement le niveau de risque de l’outil qu’il utilise.
book_6 Définition : Haut risque (Annexe III)
Systèmes d’IA utilisés dans des domaines sensibles énumérés à l’Annexe III du Règlement : biométrie, emploi, crédit, éducation, forces de l’ordre, migration, justice, services essentiels.
En clair : si votre IA sert à trier des CV, évaluer la solvabilité d’un client ou noter les performances de salariés, elle est considérée « à haut risque » et les obligations sont nettement plus lourdes — même si vous êtes une petite entreprise.
La liste des outils autorisés
Quels outils d’IA sont approuvés dans l’entreprise ? Avec quelles restrictions ? Pour quels types de données ? Et surtout : quel est le niveau de risque IA Act de chaque outil ? Un tableau de référence évite les zones grises et responsabilise chaque collaborateur.
Les pratiques interdites — clairement listées
Les huit interdictions de l’article 5 doivent figurer noir sur blanc dans la charte, avec des exemples concrets adaptés à votre secteur. C’est le point le plus critique : les sanctions sont en vigueur depuis février 2025.
Un arbre de décision rapide
Avant chaque utilisation d’un outil IA, quatre questions à se poser :
- L’outil est-il dans la liste autorisée ?
- Les données sont-elles non confidentielles et non personnelles ?
- L’usage est-il éloigné des pratiques interdites de l’article 5 ?
- Le niveau de risque est-il minime ou limité ?
Si la réponse est oui aux quatre : usage autorisé. Sinon, on s’arrête et on consulte le référent IA. Simple, visuel, opérationnel.
La gouvernance
Un référent IA désigné, un registre des outils IA tenu à jour, une procédure de signalement des incidents, une conservation des logs pour les usages à haut risque, et une révision annuelle de la charte. Sans cette gouvernance, la charte reste un document passif.
La charte comme volet opérationnel de la formation IA
Un point souvent négligé : la charte IA et la formation à l’intelligence artificielle sont indissociables.
L’article 4 de l’IA Act impose aux entreprises de garantir un « niveau suffisant de maîtrise de l’IA » chez leur personnel. La charte seule ne suffit pas à prouver la conformité. Mais la charte accompagnée d’une attestation de formation, d’une date de sensibilisation signée par le collaborateur, et d’un registre des outils IA constitue un triptyque solide.
C’est pour cette raison que notre modèle de charte IA inclut un bloc de double signature :
- Le dirigeant s’engage à mettre en œuvre les actions complémentaires requises par l’IA Act (cartographie, formation, évaluation des risques)
- Le collaborateur atteste avoir bénéficié d’une formation et s’engage à respecter les principes de la charte
Un champ « Date de formation / coaching IA » fait le lien concret entre les deux.
Le cas particulier des secteurs sensibles
Si votre entreprise intervient en sous-traitance pour les forces de l’ordre, l’armée, la justice, le secteur du crédit, de l’emploi ou de l’éducation, la vigilance doit être renforcée.
La règle à retenir : c’est le domaine d’utilisation de l’IA — pas le secteur de votre client — qui détermine le niveau d’obligation. Un sous-traitant de l’armée qui utilise ChatGPT pour rédiger des notes internes (sans que le livrable contienne de l’IA) relève du régime standard. Mais si l’IA est utilisée pour du profilage, de l’évaluation de risques ou du scoring dans un domaine listé à l’Annexe III, les obligations deviennent automatiquement celles du haut risque.
Votre charte doit prévoir un paragraphe spécifique sur ces précautions renforcées.
Le calendrier : où en sommes-nous ?
book_6 Définition : Omnibus (Digital Omnibus)
Proposition législative COM(2025) 836 de la Commission européenne visant à ajuster le calendrier d’application de l’IA Act et d’autres textes numériques.
En clair : un projet de report de certaines échéances de l’IA Act, voté en commissions parlementaires le 18 mars 2026 mais pas encore adopté définitivement. Les obligations de base (littératie, pratiques interdites) ne bougent pas, mais les obligations les plus lourdes (haut risque) pourraient être repoussées à fin 2027.
- 1er août 2024 — Entrée en vigueur du Règlement ✅
- 2 février 2025 — Pratiques interdites (art. 5) + Littératie IA (art. 4) ✅ En vigueur
- 2 août 2025 — Obligations fournisseurs GPAI + Régime des sanctions ✅ En vigueur
- 2 août 2026 — Transparence (art. 50) + Haut risque Annexe III ⏳ Référence légale — report possible via Omnibus
- 2 août 2027 — Haut risque Annexe I (médical, jouets…) ⏳ À venir
Le message clé : les obligations de base sont déjà en vigueur. Chaque jour sans charte IA est un jour d’exposition au risque.
Commencez maintenant — la charte parfaite n’existe pas
Une charte imparfaite et appliquée vaut infiniment mieux que pas de charte du tout. Notre modèle est prêt à l’emploi : téléchargez-le, adaptez-le au nom de votre entreprise, personnalisez la liste des outils autorisés, et faites-le signer.
Le triptyque charte signée + formation attestée + registre des outils IA constitue la base de votre conformité à l’IA Act.
download
Téléchargez la Charte IA conforme à l’IA Act
download
Télécharger gratuitement
Format Word (.docx) — Personnalisable — Double signature dirigeant + collaborateur
Classification des risques — Pratiques interdites — Arbre de décision
Vous avez besoin d’aller plus loin ?
La charte est le premier pas. Pour un accompagnement complet à la conformité IA Act — cartographie des systèmes IA, évaluation des risques, plan d’action, audit — notre cabinet STRATEGIK vous accompagne.