THRIVETECH

Carrello della spesa

Subtotale $0.00

Visualizza carrelloGuardare

L'intelligenza artificiale avrà presto un ruolo centrale nelle indagini della polizia.

L'uso dell'intelligenza artificiale nei servizi di sicurezza, tra cui polizia, gendarmeria e dogana, è una tendenza in crescita. Tuttavia, le scelte operate dalle agenzie di sicurezza spesso non vengono rese pubbliche.

Europol, l'Agenzia europea per la cooperazione nell'applicazione del diritto penale, è un nome che non dovremmo dimenticare. Il Trattato di Maastricht ha istituito Europol nel 1992. Non si tratta di un'FBI europea, ma piuttosto di una piattaforma per la condivisione di informazioni tra i membri e con le controparti straniere, come quelle negli Stati Uniti, in Canada o in Australia.

Quali sono i principali ambiti di applicazione dell'IA nella sicurezza pubblica?

Esistono due tipi principali: il primo è la capacità di analizzare grandi quantità di dati, per identificare relazioni tra individui o gruppi in una varietà di documenti: testo, figure, immagini, ecc.

Ad esempio, è possibile identificare comportamenti insoliti tra le centinaia di migliaia di transazioni registrate nella documentazione bancaria. Questo è un modo per individuare frodi o sospetti frodi. È più facile identificare schemi di frode o ricostruire transazioni finanziarie.

L'intelligenza artificiale, d'altra parte, può essere utilizzata per raccogliere dati utili da molte fonti diverse, purché siano liberamente accessibili, come i social network. L'OSINT è anche noto come Open Source Intelligence HTML0 (e più specificamente SOCMINT). Intelligence sui social media). Le informazioni possono anche essere estratte utilizzando registrazioni digitali, come registrazioni audio o video. Questi algoritmi possono essere utilizzati per trascrizioni e traduzioni, nonché per identificare persone sospette o il loro comportamento. Ad esempio, una persona che cammina in un gruppo che sta convergendo o collassando.

L'intelligenza artificiale è utile anche per sviluppare scenari per la formazione del personale.

Alcuni usi dell'intelligenza artificiale sono già considerati problematici

Come con qualsiasi intelligenza artificiale , Dobbiamo essere consapevoli del rischio di bias. I dati utilizzati per l'addestramento dell'IA che presentano bias, come l'inclusione di pregiudizi nei confronti delle persone a causa del loro genere o età, distorcono i risultati. L'algoritmo può anche portare ad allucinazioni quando propone false soluzioni, che sembrano reali.

Un pericolo può derivare anche da alcuni utilizzi dell'IA. Ad esempio, la sorveglianza di massa automatizzata tramite sistemi di videosorveglianza biometrica che riconoscono i volti all'istante. Anche gli algoritmi devono poter essere sempre spiegati. È necessaria trasparenza per rendere trasparenti le decisioni dell'IA.

La regolamentazione europea anticipa i possibili eccessi dell'IA

AI ACT (Nuova finestra) è un documento creato dall'Unione Europea per guidare l'applicazione dell'IA in tutta Europa. L'IA Act ne disciplina anche l'utilizzo da parte delle forze di sicurezza. L'IA Act è stato pubblicato sulla Gazzetta Ufficiale il 12 luglio 2024 ed è entrato in vigore il 1° agosto 2024. La legge sarà in vigore da febbraio 2025 ad agosto 2027.

Inizia descrivendo il sistema di intelligenza artificiale che presenta “rischio inaccettabile”

Qual è il problema? Stiamo parlando di pratiche che sarebbero contrarie ai diritti fondamentali e ai valori dell'Unione Europea.

  • Ad esempio, in Cina le valutazioni sui social network vengono utilizzate per valutare le azioni quotidiane. Ad esempio, è possibile guadagnare punti attraversando la strada in modo scorretto o facendo commenti offensivi.
  • Utilizzo dell'autenticazione biometrica remota negli spazi pubblici da parte dei servizi di sicurezza.
  • Misure di polizia predittiva mirate agli individui.
  • Riconoscimento delle emozioni in ambito educativo e lavorativo.

La Commissione nazionale francese per l'informatica e le libertà (CNIL) ha pubblicato un'analisi approfondita della Legge sull'Informatica e le Libertà (IA) nella sua prospettiva di organismo amministrativo indipendente dal governo e responsabile della protezione dei dati personali. La CNIL, l'autorità amministrativa indipendente francese responsabile della protezione dei dati personali, ha pubblicato un'analisi della Legge sull'Informatica e le Libertà (IA).

Automatizzare i processi con Integrazione Make.com

Lascia un commento

Il tuo indirizzo email non verrà pubblicato. I campi obbligatori sono contrassegnati con *

it_ITItalian