THRIVETECH

장바구니

인공지능은 곧 경찰 수사에서 중심 역할을 하게 될 것이다.

  • 인공 지능
  • 인공지능은 곧 경찰 수사에서 중심 역할을 하게 될 것이다.

경찰, 헌병대, 세관을 포함한 보안 서비스에서 인공지능을 사용하는 것은 증가하는 추세입니다. 그러나 보안 기관이 내리는 선택은 종종 공개되지 않습니다.

Europol, 즉 유럽 형사법 집행 협력 기관은 우리가 잊지 말아야 할 이름입니다. 마스트리히트 조약은 1992년에 Europol을 설립했습니다. 이것은 유럽 FBI가 아니라 미국, 캐나다 또는 호주와 같은 회원 및 외국 대응 기관과 정보를 공유하기 위한 플랫폼입니다.

공공 안전 분야에서 AI가 적용되는 주요 분야는 무엇입니까?

두 가지 주요 유형이 있습니다. 첫 번째는 대량의 데이터를 분석하는 기능입니다. 다양한 문서(텍스트, 그림, 사진 등)에서 개인 또는 그룹 간의 관계를 식별합니다.

예를 들어, 은행 문서에 기록된 수십만 건의 거래 중에서 비정상적인 행동을 식별하는 것이 가능합니다. 이는 사기 또는 의심되는 사기를 감지하는 방법입니다. 사기 패턴을 식별하거나 금융 거래를 재구성하는 것이 더 쉽습니다.

반면 AI는 다양한 출처에서 유용한 데이터를 수집하는 데 활용할 수 있습니다. 소셜 네트워크와 같이 무료로 제공되는 경우입니다. OSINT는 오픈 소스 인텔리전스 HTML0(그리고 더 구체적으로는 SOCMINT)로도 알려져 있습니다. 소셜 미디어 인텔리전스). 정보는 사운드나 비디오 녹음과 같은 디지털 녹음을 사용하여 추출할 수도 있습니다. 이러한 알고리즘은 필사 및 번역에 사용할 수 있으며, 의심스러운 사람이나 그들의 행동을 식별하는 데 사용할 수 있습니다. 예를 들어, 수렴하거나 붕괴되는 그룹에서 걷는 사람.

AI는 인력 훈련 시나리오를 개발하는 데도 유용합니다.

인공지능의 일부 활용은 이미 문제가 있는 것으로 간주됨

모든 인공 지능과 마찬가지로 , 우리는 편향의 위험을 인식해야 합니다. AI 훈련에 사용되는 데이터가 편향되어 있으면, 예를 들어 성별이나 연령 때문에 사람들에 대한 편향을 포함하면 결과가 왜곡됩니다. 알고리즘은 또한 실제처럼 보이는 거짓 솔루션을 제안할 때 환각을 유발할 수도 있습니다.

위험은 AI의 일부 사용에서도 발생할 수 있습니다. 예를 들어, 얼굴을 즉시 인식하는 생체 인식 비디오 감시 시스템을 사용한 자동화된 대량 감시. 알고리즘도 항상 설명할 수 있어야 합니다. AI 결정을 투명하게 하려면 투명성이 필요합니다.

유럽 규제는 AI의 가능한 과잉을 예상합니다.

AI 행동 (새 창) 유럽 연합이 유럽 전역에서 AI를 적용하도록 안내하기 위해 만든 문서입니다. AI ACT에는 보안군에 의한 AI 활용도 포함됩니다. IA ACT는 2024년 7월 12일 관보에 게재되었으며 2024년 8월 1일에 발효되었습니다. 이 법은 2025년 2월부터 2027년 8월까지 시행됩니다.

현재 존재하는 AI 시스템을 설명하면서 시작하세요. “수용할 수 없는 위험”

문제는 무엇인가? 우리는 기본권과 유럽연합의 가치에 반하는 관행에 대해 이야기하고 있습니다.

  • 예를 들어, 중국에서는 사회적 평가가 일상적인 행동을 평가하는 데 사용됩니다. 예를 들어, 횡단보도를 건너거나 공격적인 댓글을 달면 포인트를 얻을 수 있습니다.
  • 보안 서비스에서 공공 장소에서 원격 생체 인증을 사용합니다.
  • 개인을 대상으로 하는 예측적 경찰 활동 측정.
  • 교육 및 직장에서의 감정 인식.

프랑스 정보 및 자유 위원회(CNIL)는 정부로부터 독립된 행정 기관으로서 개인 데이터 보호를 담당하는 관점에서 IA 법에 대한 심층 분석을 발표했습니다. 개인 데이터 보호를 담당하는 프랑스 독립 행정 기관인 CNIL은 이 IA 법에 대한 분석을 발표했습니다.

프로세스를 자동화하세요 Make.com 통합

댓글 남기기

귀하의 이메일 주소는 공개되지 않습니다. 필수 입력란은 *로 표시되어 있습니다.

ko_KRKorean