L’intelligence artificielle est capable de produire toutes sortes d’images, y compris du texte et des vidéos. Comment peut-on déterminer si le créateur d’une création est humain ? La question n’est pas de savoir qui a créé la vidéo ou l’image, mais si elle représente des situations réelles ou si c’est l’algorithme qui est à l’œuvre.
Il est crucial, par exemple, d'établir l'authenticité d'une image qui, si elle était artificiellement falsifiée, pourrait être utilisée comme outil de désinformation. La traçabilité est importante pour une image ou un film. Pour détecter deepfakes et l'hypertrucage.
Un filigrane pour désigner les créations générées par une IA ?
Les « erreurs de jeunesse » en matière de technologie ne sont plus d’actualité. Nous ne pouvons plus compter sur des personnages dotés de six doigts ou sur des humanoïdes numériques incapables d’avoir des jambes réalistes.
Les productions sont aujourd'hui plus crédibles. En octobre 2024, les équipes de Google DeepMind ont publié un article sur le Scientific Journal Nature , proposant la solution SynthID , (Nouvelle fenêtre).
Il serait alors possible d'intégrer une marque, invisible à l'œil humain, dans toutes les productions issues d'un modèle d'intelligence artificielle. Texte, animations ou images. Il est possible de retrouver ce tatouage numérique si l'on se pose des questions sur son origine.
Un marqueur qui reste contournable
Il existera toujours des techniques pour retirer ou neutraliser les dispositifs antivol placés sur les vêtements dans les magasins. Lors de l'analyse d'un texte, par exemple. Il doit résister aux modifications volontaires, comme la substitution de mots, la paraphrase ou la traduction. Les tests montrent qu'un texte plus long et plus créatif est plus performant. Il ne serait pas aussi efficace si le sujet était présenté de manière extrêmement factuelle ou synthétique.
Il est clair que nous ne devons pas nous fier uniquement à la technologie pour identifier les contenus problématiques. Il est de notre responsabilité d'être critique envers les vidéos, les images ou les textes que nous voyons. Surtout si les productions ont une charge émotionnelle ou politique. Pour apprécier la réalité et la pertinence de ces productions, nous ne devons pas renoncer à notre intelligence humaine.
Des mesures de protection à intégrer dès la conception des modèles d’intelligence artificielle
La considération de sécurité initiale s'applique à toute faille visant les modèles de langage de grande taille. Il s'agit de mécanismes d'apprentissage automatique capables de comprendre les requêtes et de générer du contenu. En octobre 2024, deux rapports ont été publiés par le Laboratoire d'Innovation Numérique (LINC) et la Commission Nationale Informatique et Libertés (CNIL), soulignant certains des risques majeurs qui existent dans ce domaine.
Il existe également un risque de régurgitation. Interroger une IA l'amènera à fournir des informations personnelles issues de sessions d'entraînement précédentes. L'IA aurait également pu être chargée de créer un message invitant les utilisateurs à partager des informations confidentielles. Il est important de s'assurer que les ensembles de données sont anonymisés avant de pouvoir être utilisés pour l'entraînement de l'IA.
Il est également important de pouvoir prédire les réactions toxiques. L’IA peut être utilisée pour créer du contenu violent ou haineux. Ou pour développer des programmes informatiques malveillants.
Instaurer une culture de sécurité
Les principales recommandations de sécurité sont présentées dans un document (Nouvelle fenêtre),créé par l'Agence nationale de sécurité des systèmes d'information , (Nouvelle fenêtre), avant l'été 2024.
Cela nous rappelle qu’il est important de documenter tous les processus de développement des modèles d’intelligence artificielle, depuis la qualité des informations en amont jusqu’à l’identification des personnes autorisées à apporter des modifications aux bibliothèques de données, aux règles algorithmiques et au stockage des machines numériques, notamment dans le cloud.
Il est important que non seulement les techniciens, mais aussi le public qui sera de plus en plus amené à manipuler ces outils d’IA, prennent conscience de ces principes. L’IA jouera un rôle de plus en plus important dans notre vie professionnelle et personnelle.
Intégration de ChatGPT pour les processus automatisés