Méthode Ce qu'on fait Veille IA Contact Parlons-en
← Retour à la veille

AI Act, Article 4 : ce que ça change concrètement pour votre entreprise

Depuis le 2 février 2025, l'Article 4 du règlement européen sur l'IA est applicable. En résumé : si votre entreprise utilise des systèmes d'IA, vous devez garantir que les personnes qui les utilisent ont un niveau suffisant de "littératie IA". Voici ce que ça veut dire concrètement.

Ce que dit le texte

L'Article 4 du Règlement (UE) 2024/1689 — dit "AI Act" — impose aux fournisseurs et aux déployeurs de systèmes d'IA de prendre des mesures pour garantir un niveau suffisant de littératie IA chez les personnes qui opèrent ces systèmes.

En clair : si vos équipes utilisent ChatGPT, Claude, Copilot, ou n'importe quel autre outil d'IA dans leur travail, vous êtes tenu de vous assurer qu'elles comprennent ce qu'elles font. Pas juste "savoir appuyer sur un bouton" — comprendre les limites, les risques, et les bonnes pratiques.

Source : Règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024, Article 4.

Qui est concerné ?

Toutes les entreprises qui utilisent des systèmes d'IA, quel que soit leur secteur ou leur taille. Ça inclut :

Les entreprises qui développent des outils d'IA (fournisseurs), celles qui déploient des outils d'IA dans leurs processus (déployeurs), et les personnes qui opèrent ces systèmes au quotidien — c'est-à-dire vos équipes.

Si vos commerciaux utilisent ChatGPT pour rédiger des emails, si votre service RH utilise un outil de tri de CV, si votre marketing utilise des outils de génération de contenu — vous êtes concerné.

Les sanctions

7,5 M€
ou 1,5% du CA mondial
pour les infractions les moins graves
35 M€
ou 7% du CA mondial
pour les infractions les plus graves

Soyons clairs : aujourd'hui, personne ne se fait sanctionner pour l'Article 4. Le règlement est récent, et les autorités de contrôle sont encore en train de s'organiser. Mais la tendance est claire — et les entreprises qui anticipent seront mieux positionnées que celles qui attendent le dernier moment.

Ce que "littératie IA" veut dire en pratique

Le règlement ne définit pas un programme de formation précis. Il demande que les personnes utilisant l'IA comprennent :

Ce que l'IA peut faire et ne peut pas faire — comprendre les capacités et les limites de l'outil qu'on utilise. Savoir qu'un LLM peut halluciner, que les résultats ne sont pas toujours fiables, et qu'il faut vérifier.

Les risques associés — confidentialité des données envoyées à l'outil, biais possibles dans les résultats, dépendance excessive. Vos équipes doivent savoir ce qu'elles peuvent et ne peuvent pas envoyer dans un chat IA.

Les bonnes pratiques d'utilisation — comment formuler des requêtes efficaces, comment évaluer la qualité d'une réponse, comment intégrer l'IA dans un workflow de manière responsable.

Le piège à éviter : acheter une formation en ligne de 2 heures sur "les bases de l'IA" et considérer que c'est fait. L'Article 4 parle de littératie adaptée au contexte d'utilisation — une formation générique ne suffit probablement pas.

Comment s'y conformer (sans panique)

Étape 1 : Faites l'inventaire. Quels outils d'IA sont utilisés dans votre entreprise ? Par qui ? Pour quoi ? Beaucoup de dirigeants découvrent que leurs équipes utilisent des outils d'IA sans que personne ne le sache officiellement.

Étape 2 : Évaluez le niveau actuel. Vos équipes comprennent-elles les limites de ces outils ? Savent-elles ce qu'il ne faut pas envoyer dans un prompt ? Connaissent-elles les risques ?

Étape 3 : Formez par métier, pas en masse. Un commercial n'a pas les mêmes besoins qu'un juriste. La formation doit être adaptée aux cas d'usage réels de chaque équipe.

Étape 4 : Documentez. Gardez une trace de ce qui a été fait. En cas de contrôle, c'est la documentation qui prouve votre conformité.

Besoin d'aide pour vous conformer à l'Article 4 ?

Nos formations intègrent nativement la conformité AI Act. On s'adapte à votre entreprise, pas l'inverse.

Réserver un échange gratuit