THRIVETECH

Carro de la compra

Total parcial $0.00

Ver carritoVerificar

La inteligencia artificial pronto jugará un papel central en la investigación policial.

El uso de inteligencia artificial en los servicios de seguridad, incluidos la policía, la gendarmería y las aduanas, es una tendencia en alza. Sin embargo, las decisiones que toman los organismos de seguridad a menudo no se publicitan.

No debemos olvidarnos de Europol, la Agencia Europea de Cooperación en Materia Penal. La Europol fue creada en 1992 por el Tratado de Maastricht. No se trata de un FBI europeo, sino de una plataforma para compartir información entre los miembros y con homólogos extranjeros, como los de Estados Unidos, Canadá o Australia.

¿Cuáles son los principales campos de aplicación de la IA en la seguridad pública?

Existen dos tipos principales: el primero es la capacidad de analizar grandes cantidades de datos para identificar relaciones entre individuos o grupos en una variedad de documentos: texto, figuras, imágenes, etc.

Por ejemplo, es posible identificar comportamientos inusuales entre los cientos de miles de transacciones que se registran en la documentación bancaria. De esta manera, se puede detectar fraude o sospecha de fraude. Es más fácil identificar patrones de fraude o reconstruir transacciones financieras.

Por otro lado, la IA se puede utilizar para recopilar datos útiles de muchas fuentes diferentes, siempre que estén disponibles de forma gratuita, como las redes sociales. OSINT también se conoce como inteligencia de código abierto HTML0 (y más específicamente SOCMINT). Inteligencia de redes sociales). La información también se puede extraer mediante grabaciones digitales, como grabaciones de sonido o de vídeo. Estos algoritmos se pueden utilizar para transcripciones y traducciones, así como para identificar a personas sospechosas o su comportamiento. Por ejemplo, una persona que camina en un grupo que converge o se desmorona.

La IA también es útil para desarrollar escenarios para entrenar al personal.

Algunos usos de la inteligencia artificial ya considerados problemáticos

Como ocurre con cualquier inteligencia artificial , Debemos ser conscientes del riesgo de sesgo. Los datos utilizados para el entrenamiento de la IA que están sesgados, como incluir sesgos contra las personas debido a su género o edad, distorsionarían los resultados. El algoritmo también puede provocar alucinaciones cuando propone soluciones falsas que parecen reales.

Algunos usos de la IA también pueden resultar peligrosos, como por ejemplo la vigilancia masiva automatizada mediante sistemas de videovigilancia biométricos que reconocen rostros al instante. Los algoritmos también deben poder explicarse siempre. Para que las decisiones de la IA sean transparentes, es necesaria la transparencia.

La regulación europea anticipa los posibles excesos de la IA

Ley de IA (Nueva ventana) es un documento que la Unión Europea creó para orientar la aplicación de la IA en toda Europa. La Ley de IA también incluye su explotación por parte de las fuerzas de seguridad. La Ley de IA se publicó en el Diario Oficial el 12 de julio de 2024 y entró en vigor el 1 de agosto de 2024. La Ley estará en vigor desde febrero de 2025 hasta agosto de 2027.

Comience describiendo el sistema de IA que presenta “riesgo inaceptable”

¿Cuál es el problema? Estamos hablando de prácticas que serían contrarias a los derechos fundamentales y a los valores de la Unión Europea.

  • Por ejemplo, en China se utilizan las calificaciones sociales para evaluar tus acciones diarias. Por ejemplo, puedes ganar puntos por cruzar la calle de forma imprudente o por hacer comentarios ofensivos.
  • Uso de autenticación biométrica remota en espacios públicos por parte de los servicios de seguridad.
  • Medidas de policía predictiva dirigidas a individuos.
  • Reconocimiento de emociones en entornos educativos y laborales.

La Comisión Nacional de Informática y Libertades (CNIL) de Francia ha publicado un análisis en profundidad de la Ley IA desde su perspectiva como organismo administrativo independiente del gobierno y responsable de la protección de datos personales. La CNIL, la autoridad administrativa independiente francesa encargada de la protección de datos personales, ha publicado un análisis de esta Ley IA.

Automatice procesos con Integración con Make.com

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

es_ESSpanish