Notre politique concernant l’IA
L’IA offre d’énormes opportunités en matière d’efficience, d’innovation et de prestation de service. Mais il est essentiel de l’utiliser correctement pour conserver la confiance des citoyens et des collaborateurs, éviter les erreurs et les préjugés, garantir la confidentialité et la sécurité des données, et se conformer aux normes juridiques et éthiques.
C'est pourquoi l’INAMI adopte délibérément une approche prudente, transparente et axée sur l’humain pour chaque application de l'IA.
Sur cette page :
Cadre légal : l’EU AI Act
La politique de l’INAMI relative à l’IA est conforme aux principes de l’EU AI Act, la réglementation en matière d’intelligence artificielle en Europe. Cette loi utilise une approche basée sur les risques : plus le risque d'un système d'IA est élevé, plus les conditions d'utilisation sont strictes.
Voici les différents niveaux de risques possibles :
- Risque inacceptable : les applications d’IA qui violent les droits fondamentaux sont interdites.
- Risque élevé : l’IA dans des domaines comme les soins de santé et la sécurité sociale doit répondre à des exigences strictes en matière de transparence, de documentation et de contrôle.
- Risque limité : les systèmes d’IA comme les chatbots doivent clairement indiquer qu’ils ne sont pas une interaction humaine.
- Risque minimal : la plupart des applications d’IA relèvent de ce risque et sont donc exemptées de régulation.
L’INAMI applique cette classification lors de l'évaluation de projets d'IA et suit les recommandations de la charte belge BOSA pour l’utilisation responsable de l'IA. La procédure d’évaluation tient notamment compte de l’impact possible sur les citoyens, les collaborateurs et la sensibilité des données.
Programme d’innovation : l’IA en action
Pour intégrer l’IA de manière responsable et stratégique, l’INAMI a mis en place un programme d’innovation transversal.
Ce programme :
- identifie et priorise les cas d’utilisation (d’IA) au moyen d’une méthodologie structurée
- accompagne le développement de projets et le soutien de ceux-ci.
Ce programme est soutenu par un groupe de pilotage et une équipe de projet chargée de la mise en œuvre technique, de la mise en service et de l'évaluation des projets d'IA.
Formation et sensibilisation
Tous les collaborateurs de l’INAMI sont sensibilisés à l’utilisation de l’IA par :
- des formations sur le respect de la réglementation et la sécurité des données, axées sur l'utilisation éthique, la confidentialité et la classification des informations
- des directives internes qui régissent l’utilisation d’outils d’IA tels que Copilot.
Registre des algorithmes
Le registre des algorithmes fournira des informations sur les algorithmes et les systèmes d'IA utilisés par l'INAMI. Ceci conformément à la loi relative à la publicité de l’administration du 11 avril 1994. Ce registre se concentrera principalement sur les algorithmes qui peuvent affecter les citoyens.
Ce registre expliquera :
- Quels algorithmes sont utilisés
- Comment fonctionnent ces algorithmes (brève description)
- À quoi ils servent (l’objectif)
Actuellement, aucun système d'IA pouvant influencer les décisions qui affectent les citoyens, n'est utilisé au sein de l’INAMI. Dès que cela changera, ils seront inscrits au registre des algorithmes et nous rendrons cela public.
Vous souhaitez plus d’informations sur ce registre ? Contactez-nous à l'adresse e-mail dpo@riziv-inami.fgov.be.
Contacts
Délégué à la protection des données (Data protection officer)
E-mail: DPO@riziv-inami.fgov.be
INAMIAvenue Galilée 5/01
1210 - Bruxelles