الذكاء الاصطناعي قادر على إنتاج جميع أنواع الصور، بما في ذلك النصوص والفيديو. ما الذي يمكن عمله لتحديد ما إذا كان منشئ الإبداع إنسانًا؟ السؤال ليس من أنشأ الفيديو أو الصورة، بل ما إذا كانت تمثل مواقف من الحياة الواقعية أو ما إذا كانت الخوارزمية تعمل.
من الأهمية بمكان، على سبيل المثال، إثبات صحة صورة يمكن استخدامها كأداة للتضليل إذا تم تزويرها بشكل مصطنع. تعد إمكانية تتبع الصورة أو الفيلم أمرًا مهمًا. للكشف عن تزييف عميق والهايبرتروكاج.
علامة مائية للإشارة إلى الإبداعات التي تم إنشاؤها بواسطة الذكاء الاصطناعي؟
لقد انتهت "أخطاء الشباب" في التكنولوجيا. فلم يعد بوسعنا أن نعتمد على شخصيات ذات تصميم بستة أصابع أو على بشر رقميين غير قادرين على امتلاك أرجل واقعية.
أصبحت الإنتاجات اليوم أكثر مصداقية. في أكتوبر 2024، نشرت فرق Google DeepMind مقالاً في المجلة العلمية طبيعة ، يقترح حل SynthID (نافذة جديدة).
ومن الممكن بعد ذلك دمج علامة غير مرئية للعين البشرية في جميع المنتجات المستمدة من نموذج الذكاء الاصطناعي. نص أو رسوم متحركة أو صور. ومن الممكن العثور على هذا الوشم رقميًا إذا كانت هناك أي أسئلة حول أصله.
علامة لا تزال قابلة للتحايل
سوف تكون هناك دائمًا تقنيات لإزالة أو تحييد أجهزة منع السرقة التي يتم وضعها على الملابس في المتاجر. عند تحليل النص، على سبيل المثال، يجب أن يقاوم التغييرات المتعمدة، مثل استبدال الكلمات أو إعادة الصياغة أو الترجمات. تُظهر الاختبارات أن النصوص الأطول والأكثر إبداعًا تحقق أداءً أفضل. لن تكون فعالة بنفس القدر إذا تم تقديم الموضوع بطريقة واقعية أو تركيبية للغاية.
من الواضح أنه لا ينبغي لنا الاعتماد على التكنولوجيا وحدها لتحديد المحتوى المثير للمشاكل. فمن مسؤوليتنا أن ننتقد مقاطع الفيديو أو الصور أو النصوص التي نشاهدها. وخاصة إذا كانت هذه الإنتاجات تحمل شحنة عاطفية أو سياسية. ولتقدير حقيقة هذه الإنتاجات وأهميتها، لا ينبغي لنا أن نتخلى عن ذكائنا البشري.
التدابير الوقائية التي سيتم دمجها منذ مرحلة تصميم نماذج الذكاء الاصطناعي
ينطبق الاعتبار الأمني الأصلي على أي خرق يستهدف نماذج اللغة الكبيرة. وهي آليات التعلم الآلي التي يمكنها فهم الاستعلامات وإنشاء المحتوى. في أكتوبر 2024، نشر مختبر الابتكار الرقمي (LINC)، واللجنة الوطنية للمعلوماتية والحريات (CNIL)، تقريرين يحددان بعض المخاطر الرئيسية الموجودة في هذا المجال.
هناك أيضًا احتمالية الارتجاع. سيؤدي استجواب الذكاء الاصطناعي إلى تقديمه معلومات شخصية من جلسات التدريب السابقة. قد يُطلب من الذكاء الاصطناعي أيضًا إنشاء رسالة تدعو المستخدمين إلى مشاركة معلومات سرية. من المهم التأكد من إخفاء هوية مجموعات البيانات قبل استخدامها في تدريب الذكاء الاصطناعي.
ومن المهم أيضًا أن نكون قادرين على التنبؤ بردود الفعل السامة. ويمكن استخدام الذكاء الاصطناعي لإنشاء محتوى عنيف أو بغيض. أو لتطوير برامج كمبيوتر ضارة.
ترسيخ ثقافة السلامة
يتم تقديم التوصيات الأمنية الرئيسية في وثيقة (نافذة جديدة)أنشأتها الوكالة الوطنية لأمن أنظمة المعلومات , (نافذة جديدة)، قبل صيف 2024.
وهذا يذكرنا بأهمية توثيق كافة العمليات في تطوير نماذج الذكاء الاصطناعي، من جودة المعلومات الأولية إلى تحديد الأشخاص المخولين بإجراء تغييرات على مكتبات البيانات والقواعد الخوارزمية وتخزين الآلات الرقمية، وخاصة في السحابة.
من المهم أن يدرك هذه المبادئ ليس فقط الفنيون، بل أيضًا عامة الناس الذين سيتعاملون بشكل متزايد مع أدوات الذكاء الاصطناعي. سيلعب الذكاء الاصطناعي دورًا متزايد الأهمية في حياتنا المهنية والشخصية.
تكامل ChatGPT للعمليات الآلية