Het gebruik van kunstmatige intelligentie in veiligheidsdiensten, waaronder politie, gendarmerie en douane, is een groeiende trend. De keuzes die veiligheidsdiensten maken, worden echter vaak niet bekendgemaakt.
Europol, het Europees Agentschap voor samenwerking op het gebied van strafrechtshandhaving, is een naam die we niet mogen vergeten. Het Verdrag van Maastricht richtte Europol op in 1992. Dit is geen Europese FBI, maar eerder een platform voor het delen van informatie tussen leden en met buitenlandse tegenhangers, zoals die in de VS, Canada of Australië.
Wat zijn de belangrijkste toepassingsgebieden voor AI op het gebied van openbare veiligheid?
Er zijn twee hoofdtypen: De eerste is de mogelijkheid om grote hoeveelheden data te analyseren. Om relaties tussen individuen of groepen in verschillende documenten te identificeren: tekst, figuren, afbeeldingen, etc.
Het is bijvoorbeeld mogelijk om ongebruikelijk gedrag te identificeren tussen de honderdduizenden transacties die in bankdocumentatie zijn vastgelegd. Dit is een manier om fraude of vermoedelijke fraude te detecteren. Het is gemakkelijker om fraudepatronen te identificeren of financiële transacties te reconstrueren.
AI kan daarentegen worden gebruikt om nuttige gegevens uit veel verschillende bronnen te verzamelen. Als ze vrij beschikbaar zijn, zoals sociale netwerken. OSINT staat ook bekend als Open Source Intelligence HTML0 (en specifieker SOCMINT Intelligentie van sociale media). De informatie kan ook worden geëxtraheerd met behulp van digitale opnames, zoals geluids- of video-opnames. Deze algoritmes kunnen worden gebruikt voor transcripties en vertalingen, maar ook om mensen te identificeren die verdacht zijn of hun gedrag. Bijvoorbeeld een persoon die in een groep loopt die convergent of instortend is.
AI is ook nuttig voor het ontwikkelen van scenario's voor het trainen van personeel.
Sommige toepassingen van kunstmatige intelligentie worden al als problematisch beschouwd
Zoals bij elke kunstmatige intelligentie , we moeten ons bewust zijn van het risico op vooringenomenheid. Gegevens die worden gebruikt voor AI-training die bevooroordeeld zijn, zoals het opnemen van vooroordelen tegen mensen vanwege hun geslacht of leeftijd, zouden de resultaten vervormen. Het algoritme kan ook leiden tot hallucinaties wanneer het valse oplossingen voorstelt, die echt lijken.
Gevaar kan ook voortkomen uit bepaalde toepassingen van AI. Bijvoorbeeld geautomatiseerde massasurveillance met behulp van biometrische videobewakingssystemen die gezichten direct herkennen. Algoritmes moeten ook altijd kunnen worden uitgelegd. Transparantie is vereist om AI-beslissingen transparant te maken.
Europese regelgeving anticipeert op mogelijke excessen van AI
AI-ACT (Nieuw venster) is een document dat de Europese Unie heeft opgesteld om de toepassing van AI in heel Europa te begeleiden. De AI ACT omvat ook de exploitatie ervan door veiligheidstroepen. De IA ACT werd gepubliceerd in het Publicatieblad van 12 juli 2024 en trad in werking op 1 augustus 2024. De wet is van kracht van februari 2025 tot augustus 2027.
Begin met het beschrijven van het AI-systeem dat “onaanvaardbaar risico”
Wat is het probleem? We hebben het over praktijken die in strijd zouden zijn met de fundamentele rechten en de waarden van de Europese Unie.
- Bijvoorbeeld, in China worden sociale beoordelingen gebruikt om uw dagelijkse acties te beoordelen. U kunt bijvoorbeeld punten verdienen voor het oversteken van een straat waar dat niet mag of voor het maken van beledigende opmerkingen.
- Gebruik van biometrische authenticatie op afstand in de openbare ruimte door veiligheidsdiensten.
- Maatregelen voor voorspellende politieoptredens die gericht zijn op individuen.
- Herkennen van emoties in onderwijs- en werkomgevingen.
De Franse Commission nationale de l'informatique et des libertés, de CNIL, heeft een diepgaande analyse van de IA-wet gepubliceerd met zijn perspectief als een administratief orgaan dat onafhankelijk is van de overheid en verantwoordelijk is voor de bescherming van persoonsgegevens. De CNIL, de Franse onafhankelijke administratieve autoriteit die verantwoordelijk is voor de bescherming van persoonsgegevens, heeft een analyse van deze IA-wet gepubliceerd.
Automatiseer processen met Integratie met Make.com