écran bleu

AI Act Européen : Ce qui change en 2026

Comprendre les niveaux de risques (inacceptable, élevé, limité) et les amendes potentielles pour votre PME.

L’approche par les risques

L’AI Act divise les systèmes d’IA en quatre catégories de risques, chacune avec ses propres obligations :

  • Risque inacceptable : Interdiction pure et simple (ex: notation sociale, manipulation comportementale, identification biométrique à distance en temps réel).
  • Haut risque : Obligations strictes de conformité, qualité des données, documentation technique et supervision humaine (ex: recrutement, infrastructures critiques, éducation).
  • Risque limité : Obligations de transparence. Les utilisateurs doivent savoir qu’ils interagissent avec une IA (ex: chatbots, deepfakes).
  • Risque minimal : Aucune restriction majeure (ex: filtres anti-spam, jeux vidéo).

Impact pour les PME

La plupart des PME utilisant des API standards (comme celles d’OpenAI ou Anthropic) tomberont dans la catégorie « Risque limité ». L’enjeu principal est la transparence. Cependant, si vous intégrez l’IA dans des processus RH ou de scoring client, vous pourriez basculer en « Haut risque ».