download Téléchargez gratuitement notre modèle de Charte IA conforme à l’IA Act

download Télécharger la Charte IA V4 — Format .docx

Un document Word prêt à l’emploi, structuré autour du Règlement (UE) 2024/1689, avec double signature dirigeant/collaborateur, classification des risques, pratiques interdites et arbre de décision.

Comme tout chef d’entreprise, DSI ou RSSI vous avez compris qu’une charte IA est désormais un document obligatoire et surtout utile pour protéger votre entreprise, vos clients mais aussi vos collaborateurs.

book_6 Définition : Charte informatique


Document interne définissant les règles d’utilisation des ressources informatiques de l’entreprise (matériel, messagerie, internet, logiciels, données). Généralement annexée au règlement intérieur, elle est opposable aux salariés après consultation du CSE.

En clair : c’est le document qui dit à vos salariés ce qu’ils ont le droit de faire (ou pas) avec l’ordinateur et internet au travail. Elle existe dans la plupart des entreprises depuis des années — mais elle n’a pas été conçue pour couvrir l’intelligence artificielle, qui pose des risques spécifiques (hallucinations, biais, confidentialité des données partagées avec des IA externes).

Et depuis le 2 février 2025, cette question n’est plus seulement une bonne pratique. Le Règlement européen sur l’intelligence artificielle — l’IA Act — impose des obligations concrètes à toute entreprise utilisant un système d’IA, y compris les TPE et PME. La charte IA est l’outil le plus concret pour y répondre. Elle formalise les règles, trace les engagements, et constitue une preuve tangible que l’entreprise a pris les mesures nécessaires.

book_6 Définition : IA Act

Règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissant des règles harmonisées concernant l’intelligence artificielle.

En clair : la première loi au monde qui encadre l’intelligence artificielle. Elle s’applique à toute entreprise en Europe qui utilise de l’IA, quelle que soit sa taille. En vigueur depuis août 2024, avec des obligations progressives.

Non, votre charte informatique ne suffit pas

Beaucoup de dirigeants pensent que leur charte informatique existante — celle qui encadre l’usage des emails, d’internet et du matériel — couvre aussi l’IA. Ce n’est pas le cas, pour trois raisons.

Les risques sont spécifiques. Les systèmes d’IA posent des problèmes que la charte informatique n’a pas été conçue pour traiter : les hallucinations (informations fausses présentées comme vraies), les biais discriminatoires dans les résultats, et la question de la responsabilité quand un collaborateur agit sur la base d’un output IA.

Les catégories de risque sont nouvelles. L’IA Act introduit quatre niveaux de risque propres à l’IA — inacceptable, haut, limité, minime — avec des obligations différentes pour chacun. Votre charte informatique ne fait pas cette distinction.

La confidentialité change de nature. Quand un collaborateur colle des données clients dans ChatGPT, ces données sont traitées par un tiers. Ce n’est pas la même chose qu’envoyer un email — et ça nécessite des règles dédiées.

La charte IA n’est donc pas un remplacement de votre charte informatique. C’est un complément indispensable, spécifiquement conçu pour l’intelligence artificielle.

book_6 Définition : Système d’IA

« Un système automatisé conçu pour fonctionner à différents niveaux d’autonomie et pouvant faire preuve d’adaptabilité après déploiement, et qui déduit, à partir des données qu’il reçoit, comment générer des résultats tels que des prédictions, du contenu, des recommandations ou des décisions. » — Article 3(1), Règlement 2024/1689

En clair : tout logiciel qui apprend des données et produit des résultats par lui-même. Pas un tableur Excel, mais ChatGPT, un outil de tri de CV, un scoring automatique, un chatbot ou un générateur d’images : oui.

Ce que l’IA Act exige déjà de votre entreprise

Depuis le 2 février 2025, deux catégories d’obligations s’appliquent à toutes les entreprises utilisant de l’IA, sans exception de taille :

La littératie IA (article 4) — obligation en vigueur

book_6 Définition : Littératie IA


« Compétences et connaissances permettant aux fournisseurs et déployeurs de systèmes d’IA de procéder à un déploiement éclairé des systèmes d’IA. » — Article 4, Règlement 2024/1689

En clair : savoir ce qu’est l’IA, comprendre ce qu’elle fait bien, ce qu’elle fait mal, et connaître les règles qui encadrent son utilisation. C’est la formation de base que tout salarié utilisant l’IA doit recevoir.

L’entreprise doit garantir un « niveau suffisant de maîtrise de l’IA » chez son personnel. Aucun format n’est imposé — formation, atelier, coaching, e-learning — mais l’obligation est juridiquement contraignante. Le manque de formation est un facteur aggravant en cas de sanction liée à d’autres infractions.

Les pratiques interdites (article 5) — en vigueur, sanctions immédiates

book_6 Définition : Pratiques interdites (article 5)


Huit catégories d’utilisation de systèmes d’IA considérées comme présentant un risque inacceptable pour les droits fondamentaux, interdites depuis le 2 février 2025.

En clair : les usages de l’IA que personne n’a le droit de pratiquer — par exemple noter les gens sur leur comportement social, manipuler quelqu’un sans qu’il s’en rende compte, ou analyser les émotions des salariés en visio. Sanctions : jusqu’à 35 M€ ou 7 % du CA mondial.

Parmi les huit pratiques interdites : la manipulation subliminale, l’exploitation des vulnérabilités (âge, handicap, précarité), le scoring social, la police prédictive individuelle, le scraping facial non ciblé, la reconnaissance d’émotions au travail, la catégorisation biométrique sur données sensibles, et la reconnaissance faciale en temps réel dans l’espace public. Vos collaborateurs doivent connaître ces interdictions. La charte IA est le document qui les formalise.

book_6 Définition : Déployeur


« Toute personne physique ou morale, y compris une autorité publique, une agence ou un autre organisme, utilisant un système d’IA sous sa propre autorité. » — Article 3(4), Règlement 2024/1689

En clair : votre entreprise utilise ChatGPT, un CRM avec IA ou un chatbot ? Vous êtes « déployeur ». Vous n’avez pas besoin de développer l’IA — le simple fait de l’utiliser vous donne ce statut et les obligations qui vont avec.

Ce que doit contenir une charte IA conforme à l’IA Act

Une charte IA efficace ne se résume pas à une liste d’interdictions. Voici les éléments essentiels :

L’ancrage réglementaire

La charte doit explicitement se référer à l’IA Act et expliquer pourquoi elle existe. En cas de contrôle ou de litige, le fait de pouvoir démontrer que l’entreprise a structuré sa démarche autour du Règlement est un argument de poids.

Les principes fondamentaux

Cinq principes forment le socle : transparence (mentionner l’usage de l’IA), contrôle humain (l’IA suggère, l’humain décide), confidentialité (ne jamais partager de données sensibles avec des outils IA externes), responsabilité (le collaborateur reste responsable de ce qu’il produit avec l’IA), équité (vigilance sur les biais). Chacun doit être traduit en règles concrètes.

La classification des risques

L’IA Act définit quatre niveaux : inacceptable (interdit, sanctions jusqu’à 35 M€), haut risque (obligations strictes, 15 M€), limité (transparence requise) et minime (littératie IA uniquement). Un tableau simple, avec des exemples concrets tirés de la vie quotidienne de l’entreprise, permet à chaque collaborateur d’identifier immédiatement le niveau de risque de l’outil qu’il utilise.

book_6 Définition : Haut risque (Annexe III)


Systèmes d’IA utilisés dans des domaines sensibles énumérés à l’Annexe III du Règlement : biométrie, emploi, crédit, éducation, forces de l’ordre, migration, justice, services essentiels.

En clair : si votre IA sert à trier des CV, évaluer la solvabilité d’un client ou noter les performances de salariés, elle est considérée « à haut risque » et les obligations sont nettement plus lourdes — même si vous êtes une petite entreprise.

La liste des outils autorisés

Quels outils d’IA sont approuvés dans l’entreprise ? Avec quelles restrictions ? Pour quels types de données ? Et surtout : quel est le niveau de risque IA Act de chaque outil ? Un tableau de référence évite les zones grises et responsabilise chaque collaborateur.

Les pratiques interdites — clairement listées

Les huit interdictions de l’article 5 doivent figurer noir sur blanc dans la charte, avec des exemples concrets adaptés à votre secteur. C’est le point le plus critique : les sanctions sont en vigueur depuis février 2025.

Un arbre de décision rapide

Avant chaque utilisation d’un outil IA, quatre questions à se poser :

  1. L’outil est-il dans la liste autorisée ?
  2. Les données sont-elles non confidentielles et non personnelles ?
  3. L’usage est-il éloigné des pratiques interdites de l’article 5 ?
  4. Le niveau de risque est-il minime ou limité ?

Si la réponse est oui aux quatre : usage autorisé. Sinon, on s’arrête et on consulte le référent IA. Simple, visuel, opérationnel.

La gouvernance

Un référent IA désigné, un registre des outils IA tenu à jour, une procédure de signalement des incidents, une conservation des logs pour les usages à haut risque, et une révision annuelle de la charte. Sans cette gouvernance, la charte reste un document passif.

La charte comme volet opérationnel de la formation IA

Un point souvent négligé : la charte IA et la formation à l’intelligence artificielle sont indissociables.

L’article 4 de l’IA Act impose aux entreprises de garantir un « niveau suffisant de maîtrise de l’IA » chez leur personnel. La charte seule ne suffit pas à prouver la conformité. Mais la charte accompagnée d’une attestation de formation, d’une date de sensibilisation signée par le collaborateur, et d’un registre des outils IA constitue un triptyque solide.

C’est pour cette raison que notre modèle de charte IA inclut un bloc de double signature :

  • Le dirigeant s’engage à mettre en œuvre les actions complémentaires requises par l’IA Act (cartographie, formation, évaluation des risques)
  • Le collaborateur atteste avoir bénéficié d’une formation et s’engage à respecter les principes de la charte

Un champ « Date de formation / coaching IA » fait le lien concret entre les deux.

Le cas particulier des secteurs sensibles

Si votre entreprise intervient en sous-traitance pour les forces de l’ordre, l’armée, la justice, le secteur du crédit, de l’emploi ou de l’éducation, la vigilance doit être renforcée.

La règle à retenir : c’est le domaine d’utilisation de l’IA — pas le secteur de votre client — qui détermine le niveau d’obligation. Un sous-traitant de l’armée qui utilise ChatGPT pour rédiger des notes internes (sans que le livrable contienne de l’IA) relève du régime standard. Mais si l’IA est utilisée pour du profilage, de l’évaluation de risques ou du scoring dans un domaine listé à l’Annexe III, les obligations deviennent automatiquement celles du haut risque.

Votre charte doit prévoir un paragraphe spécifique sur ces précautions renforcées.

Le calendrier : où en sommes-nous ?

book_6 Définition : Omnibus (Digital Omnibus)


Proposition législative COM(2025) 836 de la Commission européenne visant à ajuster le calendrier d’application de l’IA Act et d’autres textes numériques.

En clair : un projet de report de certaines échéances de l’IA Act, voté en commissions parlementaires le 18 mars 2026 mais pas encore adopté définitivement. Les obligations de base (littératie, pratiques interdites) ne bougent pas, mais les obligations les plus lourdes (haut risque) pourraient être repoussées à fin 2027.

  • 1er août 2024 — Entrée en vigueur du Règlement ✅
  • 2 février 2025 — Pratiques interdites (art. 5) + Littératie IA (art. 4) ✅ En vigueur
  • 2 août 2025 — Obligations fournisseurs GPAI + Régime des sanctions ✅ En vigueur
  • 2 août 2026 — Transparence (art. 50) + Haut risque Annexe III ⏳ Référence légale — report possible via Omnibus
  • 2 août 2027 — Haut risque Annexe I (médical, jouets…) ⏳ À venir

Le message clé : les obligations de base sont déjà en vigueur. Chaque jour sans charte IA est un jour d’exposition au risque.

Commencez maintenant — la charte parfaite n’existe pas

Une charte imparfaite et appliquée vaut infiniment mieux que pas de charte du tout. Notre modèle est prêt à l’emploi : téléchargez-le, adaptez-le au nom de votre entreprise, personnalisez la liste des outils autorisés, et faites-le signer.

Le triptyque charte signée + formation attestée + registre des outils IA constitue la base de votre conformité à l’IA Act.

download
Téléchargez la Charte IA conforme à l’IA Act

download
Télécharger gratuitement

Format Word (.docx) — Personnalisable — Double signature dirigeant + collaborateur
Classification des risques — Pratiques interdites — Arbre de décision

Vous avez besoin d’aller plus loin ?

La charte est le premier pas. Pour un accompagnement complet à la conformité IA Act — cartographie des systèmes IA, évaluation des risques, plan d’action, audit — notre cabinet STRATEGIK vous accompagne.


arrow_forward
Découvrir l’accompagnement IA Act

0
Nous aimerions avoir votre avis, veuillez laisser un commentaire.x