Der Einsatz künstlicher Intelligenz bei Sicherheitsdiensten wie Polizei, Gendarmerie und Zoll ist ein wachsender Trend. Die Entscheidungen der Sicherheitsbehörden werden jedoch oft nicht öffentlich gemacht.
Europol, die Europäische Agentur für die Zusammenarbeit auf dem Gebiet der Strafverfolgung, ist ein Name, den wir nicht vergessen sollten. Der Vertrag von Maastricht hat Europol 1992 ins Leben gerufen. Es handelt sich dabei nicht um ein europäisches FBI, sondern vielmehr um eine Plattform für den Informationsaustausch zwischen den Mitgliedern und mit ausländischen Partnern, wie denen in den USA, Kanada oder Australien.
Die wichtigsten Anwendungsbereiche für KI in der öffentlichen Sicherheit?
Es gibt zwei Haupttypen: Der erste ist die Fähigkeit, große Datenmengen zu analysieren. Beziehungen zwischen Einzelpersonen oder Gruppen in einer Vielzahl von Dokumenten zu erkennen: Text, Zahlen, Bilder usw.
So ist es beispielsweise möglich, ungewöhnliche Verhaltensweisen unter den Hunderttausenden von Transaktionen zu erkennen, die in Bankdokumenten aufgezeichnet sind. Auf diese Weise kann Betrug oder Betrugsverdacht erkannt werden. Betrugsmuster lassen sich leichter erkennen oder Finanztransaktionen rekonstruieren.
KI hingegen kann genutzt werden, um nützliche Daten aus vielen verschiedenen Quellen zu sammeln. Wenn diese frei verfügbar sind, wie etwa soziale Netzwerke. OSINT ist auch als Open Source Intelligence HTML0 (und genauer SOCMINT) bekannt. Social Media Intelligenz). Die Informationen können auch mithilfe digitaler Aufzeichnungen, wie Ton- oder Videoaufnahmen, extrahiert werden. Diese Algorithmen können für Transkriptionen und Übersetzungen sowie zur Identifizierung verdächtiger Personen oder ihres Verhaltens verwendet werden. Zum Beispiel eine Person, die in einer Gruppe läuft, die zusammenläuft oder auseinanderbricht.
Auch bei der Entwicklung von Szenarien zur Schulung von Personal ist KI sinnvoll.
Einige Anwendungen künstlicher Intelligenz gelten bereits als problematisch
Wie bei jeder künstlichen Intelligenz , Wir müssen uns des Risikos einer Verzerrung bewusst sein. Daten, die für das KI-Training verwendet werden und die beispielsweise Vorurteile gegenüber Menschen aufgrund ihres Geschlechts oder Alters beinhalten, würden die Ergebnisse verfälschen. Der Algorithmus kann auch zu Halluzinationen führen, wenn er falsche Lösungen vorschlägt, die real erscheinen.
Auch von manchen Anwendungen der KI können Gefahren ausgehen. Zum Beispiel von der automatisierten Massenüberwachung durch biometrische Videoüberwachungssysteme, die Gesichter sofort erkennen. Algorithmen müssen zudem immer erklärbar sein. Transparenz ist nötig, um KI-Entscheidungen nachvollziehbar zu machen.
Europäische Regulierung antizipiert mögliche Exzesse der KI
KI ACT (Neues Fenster) ist ein Dokument, das die Europäische Union erstellt hat, um die Anwendung von KI in ganz Europa zu lenken. Das KI-Gesetz umfasst auch die Nutzung durch Sicherheitskräfte. Das KI-Gesetz wurde im Amtsblatt vom 12. Juli 2024 veröffentlicht und trat am 1. August 2024 in Kraft. Das Gesetz wird von Februar 2025 bis August 2027 in Kraft sein.
Beginnen Sie mit der Beschreibung des KI-Systems, das „inakzeptables Risiko“
Worin besteht das Problem? Es handelt sich um Praktiken, die den Grundrechten und Werten der Europäischen Union zuwiderlaufen.
- In China beispielsweise werden soziale Bewertungen verwendet, um Ihr tägliches Verhalten zu bewerten. Sie können beispielsweise Punkte sammeln, wenn Sie bei Rot über die Ampel gehen oder beleidigende Kommentare abgeben.
- Einsatz biometrischer Fernauthentifizierung im öffentlichen Raum durch Sicherheitsdienste.
- Maßnahmen der prädiktiven Polizeiarbeit, die sich an einzelne Einzelpersonen richten.
- Erkennen von Emotionen in Bildungs- und Arbeitsumgebungen.
Die französische Commission nationale de l'informatique et des libertés, die CNIL, hat eine eingehende Analyse des IA-Gesetzes aus ihrer Perspektive als von der Regierung unabhängige Verwaltungsbehörde veröffentlicht, die für den Schutz personenbezogener Daten verantwortlich ist. Die CNIL, die unabhängige französische Verwaltungsbehörde für den Schutz personenbezogener Daten, hat eine Analyse dieses IA-Gesetzes veröffentlicht.
Automatisieren Sie Prozesse mit Make.com-Integration