Les faits et le contexte: une IA policière
Qu'une collectivité locale souhaite utiliser une IA pour anticiper les risques de délinquance dans certains quartiers parait être une bonne idée. Le problème est que les paramètres envisagés pour réaliser cette prédiction étaient particulièrement attentatoires de droits fondamentaux protégés par la plupart des constitutions des pays européens et par la CEDH.
En effet, le système proposé analysait des données personnelles (origine, lieu de résidence, antécédents familiaux, etc.) pour prédire la probabilité qu'un individu commette une infraction pénale. L'objectif affiché : optimiser le déploiement des forces de police et prévenir les actes délictueux. Qui pourrait dire non à un tel objectif: rationalité et moindre coût pour une sécurité améliorée.
Cependant, la fin ne justifie pas les moyens contrairement à ceux qui postulent le contraire. Des siècles de lutte pour la garantie des droits démontrent que cette garantie est fragile et qu'il y a toujours une bonne raison pour en abaisser les limites. L'IA ACt est là pour le rappeler: on ne peut pas faire n'importe quoi au moins dans les espaces publics.
La consultation faite, le maire a abandonné le projet d'utilisation de l'IA telle qu'elle était imaginée par son adjoint mais a retenu le fait que l'IA pouvait effectivement servir dans des hypothèses criminelles et donc pour appréhender les auteurs de délits ou crimes commis sur sa commune et ainsi faciliter les relations entre services de police dans des enquêtes conjointes sur des délits et crimes commis ou non sur sa commune.
Quel est le problème et quelle est la solution selon l'IA ACT
Le problème juridique posé ?
Le système d'exploitation d'une IA via des paramètres subjectifs tels que cités plus haut, relève d'une pratique dite de " police prédictive " fondée sur le profilage. Il s'agit d'utiliser des caractéristiques personnelles ou des données sensibles pour anticiper un comportement criminel, sans qu'il existe de faits objectifs ou de suspicion raisonnable. Ce type d'usage soulève des risques majeurs pour les droits fondamentaux, notamment la présomption d'innocence, la non-discrimination et la protection des données personnelles.
En quoi l'IA ACT intervient dans cette problématique?
Depuis le 2 février 2025, l'IA Act interdit explicitement la mise sur le marché, la mise en service ou l'utilisation de systèmes d'IA visant à évaluer ou prédire le risque qu'une personne physique commette une infraction pénale, dès lors que cette évaluation repose uniquement sur le profilage ou l'analyse de traits de personnalité ou de caractéristiques personnelles (nationalité, lieu de naissance, nombre d'enfants, niveau d'endettement, etc.). Il est heureux qu'on ne puisse pas appréhender quelqu'un parce qu'il aurait le mauvais profil; on appelle cela une police au faciès, police qui trouve parfois son fondement dans certains domaines comme la police des étrangers ou la police des moeurs ou la police des stupéfiants. Néanmoins, tant qu'une infraction n'est pas commise, on ne peut reprocher à quelqu'un d'y avoir pensé sans aucun début d'acte ni de tentative ni de commencement d'exécution.
l'extrait de l'IA ACT pertinent est le suivant:
" L'AI Act interdit les IA destinées à évaluer ou prédire le risque qu'une personne commette une infraction pénale, dès lors qu'elle se fonde uniquement sur le profilage de la personne ou de l'évaluation de ses traits de personnalité ou caractéristiques [?]. La présomption d'innocence implique que les personnes soient jugées sur leur comportement réel et non sur la base d'un comportement prédit par l'IA, sans qu'il existe un motif raisonnable de soupçonner que cette personne est impliquée dans une activité criminelle. "
.
Les exceptions et la solution
Cela posé, il existe néanmoins des exceptions
Cette interdiction ne s'applique pas aux systèmes d'IA utilisés pour étayer l'évaluation humaine de l'implication d'une personne dans une activité criminelle, à condition que cette évaluation soit fondée sur des faits objectifs et vérifiables, directement liés à une activité criminelle. Ce qui est donc possible c'est que le policier puisse se servir de l'IA pour appuyer ou affiner sa propre expertise dés lors qu'elle se fonde sur des faits, des présomptions objectives ou à tout le moins qu'il puisse exposer les fondements de ses convictions ou suspicions.
La synthèse de la consultation à cette question du maire: quelle est la conformité avec l'IA ACT?
La conclusion a été simple: interdiction pure et simple du système envisagé par la collectivité, reposant sur le profilage. Il ne peut être ni déployé, ni commercialisé, ni utilisé dans l'Union européenne.
En termes plus techniques, le cabinet a poussé la collectivité et son service de police à réaliser une analyse préalable des risques engendrés par son choix d'IA. D'ailleurs toute organisation qui veut utiliser l'IA sur le sol européen, doit cartographier ses usages pour identifier ceux qui relèvent des pratiques interdites par l'IA Act; notamment le profilage à des fins de police prédictive. C'est aussi aux concitoyens d'être vigilants et de poser les bonnes questions dés lors qu'ils savent qu'une IA est utilisée. L'un des principes directeurs est donc l'information que l'IA est utilisée pour tel ou telle objectif.
Sanctions : Le l'IA ACT est un règlement européen qui trouve à s'appliquer directement dans l'espace européen. Les sanctions sont donc de la responsabilité des autorités de chaque pays, y compris judiciaires. Le non-respect de cette interdiction posée par l'IA ACT expose l'organisation, qu'elle soit collectivité, entreprise, particulier, à des sanctions pouvant aller jusqu' à 35 millions d'euros ou 7 % du chiffre d'affaires mondial annuel, selon la gravité de l'infraction.
Il y a donc tout intérêt pour ceux et celles qui veulent utiliser l'IA, que le but soit lucratif ou pas, à se poser les bonnes questions sur la conformité de leur usages de l'IA avec l'IA ACT.
Une consultation au cabinet de Me BODIN est de ce point de vue intéressante.
Pour information: cet article a été rédigé par Me Muriel BODIN elle même et s'est aidé d'une IA pour ses recherches.