إن استخدام الذكاء الاصطناعي في الأجهزة الأمنية، بما في ذلك الشرطة والدرك والجمارك، يشكل اتجاهاً متزايداً. ومع ذلك، فإن الخيارات التي تتخذها الأجهزة الأمنية غالباً ما لا يتم الإعلان عنها.
إن وكالة التعاون الأوروبية في مجال إنفاذ القانون الجنائي، يوروبول، هي اسم لا ينبغي لنا أن ننساه. فقد أسست معاهدة ماستريخت وكالة يوروبول في عام 1992. وهي ليست بمثابة مكتب تحقيقات فيدرالي أوروبي، بل هي منصة لتبادل المعلومات بين الأعضاء ومع نظرائهم الأجانب، مثل نظرائهم في الولايات المتحدة أو كندا أو أستراليا.
ما هي المجالات الرئيسية لتطبيق الذكاء الاصطناعي في السلامة العامة؟
هناك نوعان رئيسيان: الأول هو القدرة على تحليل كميات كبيرة من البيانات لتحديد العلاقات بين الأفراد أو المجموعات في مجموعة متنوعة من المستندات: النصوص والأشكال والصور وما إلى ذلك.
من الممكن، على سبيل المثال، تحديد سلوكيات غير عادية بين مئات الآلاف من المعاملات المسجلة في وثائق البنوك. وهذه طريقة للكشف عن الاحتيال أو الاشتباه في الاحتيال. ومن الأسهل تحديد أنماط الاحتيال أو إعادة بناء المعاملات المالية.
من ناحية أخرى، يمكن الاستفادة من الذكاء الاصطناعي لجمع بيانات مفيدة من العديد من المصادر المختلفة. إذا كانت متاحة مجانًا، مثل الشبكات الاجتماعية. تُعرف OSINT أيضًا باسم Open Source Intelligence HTML0 (وبشكل أكثر تحديدًا SOCMINT) استخبارات وسائل التواصل الاجتماعييمكن أيضًا استخراج المعلومات باستخدام التسجيلات الرقمية، مثل التسجيلات الصوتية أو المرئية. ويمكن استخدام هذه الخوارزميات في النسخ والترجمات وكذلك لتحديد الأشخاص المشتبه بهم أو سلوكهم. على سبيل المثال، شخص يمشي في مجموعة متقاربة أو منهارة.
كما أن الذكاء الاصطناعي مفيد أيضًا في تطوير السيناريوهات لتدريب الموظفين.
بعض استخدامات الذكاء الاصطناعي تعتبر بالفعل إشكالية
كما هو الحال مع أي ذكاء اصطناعي , يجب أن ندرك مخاطر التحيز. فالبيانات المستخدمة في تدريب الذكاء الاصطناعي والتي تتسم بالتحيز، مثل تضمين التحيزات ضد الأشخاص بسبب جنسهم أو أعمارهم، من شأنها أن تشوه النتائج. وقد تؤدي الخوارزمية أيضًا إلى الهلوسة عندما تقترح حلولاً زائفة، والتي تبدو حقيقية.
وقد يأتي الخطر أيضًا من بعض استخدامات الذكاء الاصطناعي. على سبيل المثال، المراقبة الجماعية الآلية باستخدام أنظمة مراقبة الفيديو البيومترية التي تتعرف على الوجوه على الفور. كما يجب أن تكون الخوارزميات قابلة للتفسير دائمًا. والشفافية مطلوبة لجعل قرارات الذكاء الاصطناعي شفافة.
التنظيم الأوروبي يتوقع التجاوزات المحتملة للذكاء الاصطناعي
قانون الذكاء الاصطناعي (نافذة جديدة) قانون الذكاء الاصطناعي هو وثيقة أنشأها الاتحاد الأوروبي لتوجيه تطبيق الذكاء الاصطناعي في جميع أنحاء أوروبا. ويشمل قانون الذكاء الاصطناعي أيضًا استغلاله من قبل قوات الأمن. نُشر قانون الذكاء الاصطناعي في الجريدة الرسمية بتاريخ 12 يوليو 2024 ودخل حيز التنفيذ في 1 أغسطس 2024. وسيدخل القانون حيز التنفيذ من فبراير 2025 إلى أغسطس 2027.
ابدأ بوصف نظام الذكاء الاصطناعي الذي يقدمه "مخاطرة غير مقبولة"
ما هي المشكلة؟ نحن نتحدث عن ممارسات تتعارض مع الحقوق الأساسية وقيم الاتحاد الأوروبي.
- على سبيل المثال، في الصين، تُستخدم التصنيفات الاجتماعية لتقييم أفعالك اليومية. على سبيل المثال، يمكنك كسب نقاط مقابل عبور الشارع دون مراعاة قواعد المرور أو الإدلاء بتعليقات مسيئة.
- استخدام المصادقة البيومترية عن بعد في الأماكن العامة من قبل الأجهزة الأمنية.
- إجراءات الشرطة التنبؤية التي تستهدف الأفراد.
- التعرف على المشاعر في البيئات التعليمية وأماكن العمل.
أصدرت اللجنة الوطنية الفرنسية للمعلوماتية والحريات (CNIL) تحليلاً متعمقاً لقانون IA من منظورها كهيئة إدارية مستقلة عن الحكومة ومسؤولة عن حماية البيانات الشخصية. نشرت CNIL، الهيئة الإدارية المستقلة الفرنسية المسؤولة عن حماية البيانات الشخصية، تحليلاً لقانون IA هذا.
أتمتة العمليات باستخدام تكامل Make.com