THRIVETECH

ショッピングカート

人工知能は近い将来、警察の捜査において中心的な役割を果たすようになるだろう。

  • ホーム
  • 人工知能
  • 人工知能は近い将来、警察の捜査において中心的な役割を果たすようになるだろう。

警察、憲兵隊、税関などの治安機関における人工知能の活用は増加傾向にある。しかし、治安機関が下す選択は公表されないことが多い。

忘れてはならない名前が、欧州刑事法執行協力機関であるユーロポールです。ユーロポールは 1992 年にマーストリヒト条約によって設立されました。これはヨーロッパの FBI ではなく、加盟国間および米国、カナダ、オーストラリアなどの外国の機関と情報を共有するためのプラットフォームです。

公共安全における AI の主な応用分野は何ですか?

主なタイプは 2 つあります。1 つ目は、大量のデータを分析する機能です。テキスト、図、画像など、さまざまなドキュメント内の個人またはグループ間の関係を識別します。

たとえば、銀行の書類に記録されている何十万もの取引の中から異常な行動を特定することができます。これは、詐欺または詐欺の疑いを検出する方法です。詐欺のパターンを特定したり、金融取引を再構築したりすることが容易になります。

一方、AIは、ソーシャルネットワークなど、自由に利用できるさまざまなソースから有用なデータを収集するために活用できます。OSINTは、オープンソースインテリジェンスHTML0(より具体的にはSOCMINT)とも呼ばれます。 ソーシャルメディアインテリジェンス) 情報は、音声やビデオ録画などのデジタル記録を使用して抽出することもできます。これらのアルゴリズムは、転写や翻訳に使用できるほか、疑わしい人物やその行動を識別するためにも使用できます。たとえば、収束したり倒れたりしているグループで歩いている人物などです。

AIは人材育成のためのシナリオ開発にも役立ちます。

人工知能の一部の用途はすでに問題視されている

他の人工知能と同様に , 偏見のリスクに注意する必要があります。性別や年齢による偏見など、AI トレーニングに使用される偏ったデータは、結果を歪めます。アルゴリズムが偽の解決策を提案し、それが現実のように見える場合、幻覚を引き起こす可能性もあります。

AI の一部の使用法からも危険が生じる可能性があります。たとえば、顔を瞬時に認識する生体認証ビデオ監視システムを使用した自動大量監視などです。アルゴリズムも常に説明可能でなければなりません。AI の決定を透明にするには透明性が必要です。

欧州の規制はAIの過剰な利用を予測している

AI ACT (新しいウィンドウ) 欧州連合がヨーロッパ全土での AI の応用をガイドするために作成した文書です。AI 法には、治安部隊による AI の活用も含まれています。IA 法は 2024 年 7 月 12 日の官報で公開され、2024 年 8 月 1 日に発効しました。この法律は 2025 年 2 月から 2027 年 8 月まで有効です。

まず、現在のAIシステムについて説明します。 「許容できないリスク」

何が問題なのでしょうか? 私たちが話しているのは、欧州連合の基本的権利と価値観に反する慣行についてです。

  • たとえば、中国ではソーシャルレーティングを使用して日常の行動を評価します。たとえば、道路横断や不快な発言をするとポイントを獲得できます。
  • セキュリティサービスによる公共スペースでのリモート生体認証の使用。
  • 個人をターゲットにした予測的な警察活動の対策。
  • 教育現場や職場での感情の認識。

フランス国立情報学自由委員会(CNIL)は、政府から独立し、個人データの保護に責任を負う行政機関としての視点から、IA法の詳細な分析を発表しました。 個人データ保護を担当するフランスの独立行政機関であるCNILは、このIA法の分析を発表しました。

プロセスを自動化する Make.com 統合

コメントを残す

メールアドレスは公開されません。は必須項目です。

jaJapanese