Avis d'experts : l’IA sous contrôle, l’Europe passe à l’Act !

L’Intelligence Artificielle (IA) n’a cessé de s’imposer comme une révolution incontournable dans nos sociétés, bouleversant à la fois nos interactions quotidiennes et les processus industriels. L’apparition de modèles comme GPT-3, accessibles au grand public en 2022, a précipité ce changement. L’IA générative devient un outil de référence dans des domaines aussi variés que la création de contenus, la gestion des données ou encore l’assistance virtuelle. Mais cette avancée technologique a également révélé des zones d’incertitude en matière de discrimination, de sécurité des données et de transparence notamment, qui nécessitent un encadrement strict. L'Europe a pris en considération ces enjeux en adoptant l'AI Act, une législation unique au niveau mondial.  

 

I. Le défi européen d’une IA digne de confiance  

L’enjeu pour l’Europe est double : protéger les citoyens contre les atteintes à leurs droits fondamentaux tout en favorisant l’innovation technologique. L’adoption de l’AI Act, publié au journal officiel le 12 juillet 2024, incarne cette ambition. L’AI Act marque une avancée majeure vers la création d’une IA digne de confiance, fondée sur trois piliers : l’éthique, la licéité, et la robustesse.  

   

II. Une législation fondée sur le risque : vers une IA performante et responsable  

L’AI Act adopte une approche fondée sur le risque, lui-même divisé en quatre niveaux.   

  • Les Systèmes d’IA (SIA) à risque minimum – comme les assistants virtuels ou les préconisations e-commerce – ne sont soumis qu’à des recommandations.  
  • Les SIA génératifs sont classés dans la catégorie des SIA à faibles risques, avec pour seule obligation de signifier aux utilisateurs qu’ils interagissent avec une IA. 
  • Les SIA considérés à hauts risques – qui établissent des profils individuels ayant des conséquences sur la vie privée (obtention d’un prêt, d’un diplôme etc.) – doivent respecter des exigences strictes en termes de documentation. Ils englobent également des systèmes régis par des règlementations européennes spécifiques (jouets, aviation etc.).  
  • Enfin l’AI Act prohibe les SIA à risques inacceptables, à savoir, ceux qui manipulent le comportement, exploitent la vulnérabilité des personnes, effectuent une notation sociale ou utilisent l'identification biométrique à distance en temps réel dans des espaces publics.   

Pour les entreprises qui, comme Luminess, développent et déploient des systèmes d’IA pour divers secteurs, cette règlementation représente à la fois un défi et une opportunité de renforcer la confiance de ses clients.   

 

III. Luminess : pionnier en matière de conformité à l’AI Act  

Luminess a déjà pris des mesures pour aborder ce sujet. En cartographiant les SIA et les données utilisées pour leurs développements, l’entreprise s’assure non seulement de la conformité des produits, mais aussi de pouvoir accompagner au mieux ses clients dans cette transition législative.  

Chaque système est analysé selon son niveau de risque, avec un focus particulier sur la sécurité, la transparence et la gouvernance des données. Grâce à cette approche, Luminess se positionne non seulement en tant que fournisseur responsable, mais également comme partenaire stratégique, dans un cadre réglementaire complexe.  

 

Conclusion : vers une IA performante et responsable  

L’AI Act marque un tournant dans l’histoire de l’intelligence artificielle. Luminess a à cœur d’être un précurseur dans la conception d’IA humaine, éthique et fiable, en répondant aux attentes croissantes en matière de transparence et de sécurité. Au-delà d’une stricte conformité cet enjeu reflète une ambition plus large : construire une IA au service de l’intérêt collectif.  

 

Par Barbara Bouloux Pariente et Tony Bonnet