إنها ليست ظاهرة جديدة: فالأشخاص الأوائل الذين يستخدمون التكنولوجيا الجديدة لتنفيذ أنشطتهم الإجرامية هم المجرمون عادة. والذكاء الاصطناعي ليس استثناءً. فقد نشر مكتب التحقيقات الفيدرالي (الشرطة الفيدرالية في الولايات المتحدة) تنبيهًا (نافذة جديدة) في نهاية عام 2024، تم تسليط الضوء على مخاطر الاحتيال. لسرقة الأموال، ليس فقط من الشركات ولكن من الناس أيضًا.
الوقاية لتجنب العلاج
إن عمليات الاحتيال التي رصدها وكلاء الحكومة الفيدرالية حقيقية. ويتم استخدام الذكاء الاصطناعي لبناء ملفات تعريف موثوقة لوسائل التواصل الاجتماعي. ويتم إنشاء الصور من الصفر وتصحيح الرسائل. كما تتوفر هذه الصور بالعديد من اللغات. ويمكننا الوصول إلى عدد متزايد من العملاء المحتملين في المستقبل.
إن النصوص ذات الصلة والملهمة تبعث على الثقة. حتى عند تقديم استثمارات في العملات المشفرة من خلال شهادات زائفة من عملاء متحمسين.
يمكنك أيضًا استخدام هذا لابتزاز الأشخاص بصور الطبيعة الحميمة أو تجسيد الضحايا في الكوارث الطبيعية.
نسخة أفضل من الرسالة النصية أو البريد الإلكتروني اليائس، الموقع من عنوان مأخوذ من قائمة جهات الاتصال لدينا، ويطلب منا إرسال الأموال له على الفور لمساعدته.
كلمة مرور مع الأحباء للتأكد من صحة الرسالة
إن نتائج استنساخ الصوت حقيقية جدًا، ويمكن رؤيتها في منشوراتنا على وسائل التواصل الاجتماعي.
إن استخدام الفيديو الذي تم إنشاؤه خوارزميًا يمكن أن يستخدم لحل الشكوك النهائية التي قد تنتاب أحد الوالدين القلقين أو الموظف الذي طلب منه رئيسه المزعوم تنفيذ أمر نقل على وجه السرعة. ومن المتوقع أن تزدهر هذه الطريقة في العمل، لدرجة أن عملاء مكتب التحقيقات الفيدرالي يوصون الآن بأن يقوم كل واحد منا بإعداد كلمة مرور أو صياغة سرية متفق عليها مسبقًا مع أحبائنا للتأكد من أن هذا هو الشخص الحقيقي.
إنها طريقة إنسانية للغاية لإحباط أداء التكنولوجيا في الأيدي الخطأ. وحتى في عصر الذكاء الاصطناعي هذا، لا تزال لعبة القط والفأر مستمرة.
أتمتة و ربط التطبيقات مع Zapier.com