THRIVETECH

Panier d'achat

L’intelligence artificielle jouera bientôt un rôle central dans les enquêtes policières.

Le recours à l’intelligence artificielle dans les services de sécurité, notamment la police, la gendarmerie et les douanes, est une tendance croissante. Cependant, les choix des agences de sécurité ne sont souvent pas rendus publics.

Europol, l'Agence européenne de coopération en matière pénale, est un nom que nous ne devrions pas oublier. Le traité de Maastricht a créé Europol en 1992. Il ne s'agit pas d'un FBI européen, mais plutôt d'une plateforme de partage d'informations entre ses membres et avec des homologues étrangers, comme ceux des États-Unis, du Canada ou de l'Australie.

Quels sont les principaux domaines d’application de l’IA dans la sécurité publique ?

Il existe deux types principaux d'analyse de données : la première est la capacité d'analyser de grandes quantités de données. Elle permet d'identifier des relations entre des individus ou des groupes dans des documents variés : textes, figures, images, etc.

Il est par exemple possible d'identifier des comportements inhabituels parmi les centaines de milliers de transactions enregistrées dans les documents bancaires. C'est un moyen de détecter une fraude ou une suspicion de fraude. Il est ainsi plus facile d'identifier des schémas de fraude ou de reconstituer des transactions financières.

L'IA, en revanche, peut être utilisée pour collecter des données utiles à partir de nombreuses sources différentes. Si elles sont librement disponibles, comme les réseaux sociaux. OSINT est également connu sous le nom d'Open Source Intelligence HTML0 (et plus précisément SOCMINT Renseignements sur les médias sociaux). Les informations peuvent également être extraites à l'aide d'enregistrements numériques, tels que des enregistrements sonores ou vidéo. Ces algorithmes peuvent être utilisés pour des transcriptions et des traductions ainsi que pour identifier des personnes suspectes ou leur comportement. Par exemple, une personne marchant dans un groupe convergent ou s'effondrant.

L’IA est également utile pour développer des scénarios afin de former le personnel.

Certaines utilisations de l’intelligence artificielle déjà considérées comme problématiques

Comme pour toute intelligence artificielle , Il faut être conscient du risque de biais. Les données utilisées pour l’entraînement de l’IA qui sont biaisées, comme celles qui incluent des biais à l’encontre des personnes en raison de leur sexe ou de leur âge, fausseraient les résultats. L’algorithme peut également conduire à des hallucinations lorsqu’il propose de fausses solutions, qui semblent réelles.

Le danger peut aussi provenir de certaines utilisations de l’IA. Par exemple, la surveillance automatisée de masse à l’aide de systèmes de vidéosurveillance biométrique qui reconnaissent instantanément les visages. Les algorithmes doivent également pouvoir toujours être expliqués. La transparence est nécessaire pour rendre transparentes les décisions de l’IA.

La réglementation européenne anticipe les dérives possibles de l'IA

Loi sur l'IA (Nouvelle fenêtre) est un document que l'Union européenne a créé pour guider l'application de l'IA dans toute l'Europe. L'AI ACT inclut également son exploitation par les forces de sécurité. L'IA ACT a été publié au Journal officiel du 12 juillet 2024 et est entré en vigueur le 1er août 2024. La loi sera en vigueur de février 2025 à août 2027.

Commencez par décrire le système d’IA qui présente « risque inacceptable »

Quel est le problème ? Nous parlons de pratiques qui seraient contraires aux droits fondamentaux et aux valeurs de l’Union européenne.

  • En Chine, par exemple, les évaluations sociales sont utilisées pour évaluer vos actions quotidiennes. Par exemple, vous pouvez gagner des points en traversant la rue en dehors des passages piétons ou en faisant des commentaires offensants.
  • Utilisation de l'authentification biométrique à distance dans les espaces publics par les services de sécurité.
  • Mesures de police prédictive ciblant les individus.
  • Reconnaissance des émotions en milieu éducatif et professionnel.

La Commission nationale de l'informatique et des libertés (CNIL) a publié une analyse approfondie de la loi IA avec son point de vue d'organisme administratif indépendant du gouvernement et chargé de la protection des données personnelles. La CNIL, l'autorité administrative indépendante française en charge de la protection des données personnelles, a publié une analyse de cette loi IA.

Automatisez les processus avec Intégration de Make.com

Laisser un commentaire

Votre adresse électronique ne sera pas publiée. Les champs obligatoires sont marqués *

fr_FRFrench